JP4447896B2 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP4447896B2
JP4447896B2 JP2003393407A JP2003393407A JP4447896B2 JP 4447896 B2 JP4447896 B2 JP 4447896B2 JP 2003393407 A JP2003393407 A JP 2003393407A JP 2003393407 A JP2003393407 A JP 2003393407A JP 4447896 B2 JP4447896 B2 JP 4447896B2
Authority
JP
Japan
Prior art keywords
image
virtual object
area
marker
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003393407A
Other languages
English (en)
Other versions
JP2005157611A (ja
Inventor
雅博 鈴木
昭宏 片山
幸雄 坂川
隆明 遠藤
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003393407A priority Critical patent/JP4447896B2/ja
Publication of JP2005157611A publication Critical patent/JP2005157611A/ja
Application granted granted Critical
Publication of JP4447896B2 publication Critical patent/JP4447896B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、現実空間又は現実空間画像と、コンピュータグラフィックス(CG)を代表とする仮想空間画像とを合成する際の、現実オブジェクトの隠蔽に関する画像処理装置および方法に関するものである。
近年、コンピュータの性能向上や位置検出技術等の発達により、複合現実感(MR:Mixed Reality)技術を用いたアプリケーションが各種提案されてきている。複合現実感(MR)技術とは、現実空間又は現実空間画像上に、コンピュータグラフィックス(CG)を代表とする仮想空間画像を合成した複合現実空間をユーザ(体験者)に体験させるための技術である。
MR技術を利用したアプリケーションとしては、例えば現在空き地となっている場所(現実空間)に仮想のビルをコンピュータグラフィックス(CG)により建設したり、テーブル(現実空間)の上で体長15センチの怪獣(仮想空間画像)を動かす、等を挙げることができる。
このような複合現実空間を実現するには、現実空間も仮想空間も3次元空間であるため、現実空間座標系内に静止した3次元のワールド座標系を想定し、このワールド座標系内にビルや怪獣といった3次元仮想空間画像を配置、表示することになる。ただし、現実空間画像を仮想空間画像と合成する場合には、合成表示する現実空間画像(実写映像)と仮想空間画像(CG画像)は同じ点(視点)から同じ画角で観察される画像でなくてはならない。
例えば、現実空間をカメラなどでリアルタイムに撮影した現実空間画像と計算機等で作成した仮想空間画像とを合成するビデオシースルータイプの頭部装着型表示装置(HMD:Head Mounted Display)を用いてユーザが複合現実空間を体験する場合、現実空間画像はHMDに取り付けられたビデオカメラで撮影されることが多く、またカメラの画角は固定であることが多い。このとき、カメラの位置と向き(姿勢)をリアルタイムで計測し、カメラの位置に対応付けられたワールド座標系内の点からカメラの向き(姿勢)の方向を見た仮想空間画像を、カメラで撮影した現実空間画像と合成してHMDに表示すればよい。
ここで、HMDに取り付けられたカメラの位置と姿勢を検出するために、様々なセンサを利用することが考えられる。具体的な例として、HMDに磁気センサ、機械式センサ、超音波センサを備えてカメラの位置姿勢を検出する方法が挙げられる。また、HMDにジャイロセンサや加速度センサを備えてその出力値を積分することでカメラの位置姿勢を検出したり、HMDに備え付けたカメラで撮影した画像を利用してカメラの位置姿勢を検出してもよい。さらには、これらを組み合わせてカメラの位置姿勢を検出してもよい。
特に、HMDに備え付けたカメラで撮影した画像を利用してカメラの位置姿勢を検出する方法は、特殊なセンサデバイスを備える必要がないため、コスト面で優れている。この方法においては、現実空間の既知の3次元位置に配置された現実オブジェクト(現実物体)であるマーカ(指標)を画像処理によって検出して、その検出結果からカメラの位置姿勢を求めることが多く行われている。しかしマーカは、他の現実空間と区別することができるように、鮮やかな色であったり、特殊な形状であることが多く、複合現実空間において非常に目立つ。そのため、現実オブジェクトであるマーカを隠蔽する仮想CGオブジェクト(以下、マーカ隠蔽CGと呼ぶ)を用意して、用意したマーカ隠蔽CGを現実オブジェクトであるマーカの部分に合成することで、ユーザはマーカの存在を気にせずに複合現実空間を体験することができる。
また、特許文献1には、テーブルなどの現実物体に配置されたマーカを隠蔽するために、まずマーカを配置する前に配置の予定される場所をビデオやデジタルカメラ、スチルカメラ等で撮影し、画像データをテクスチャとして取得しておく。そして、マーカの配置後、ユーザのHMDに表示する画像データのうち、マーカ部分に相当する画像データをあらかじめ取得しておいたテクスチャ画像で置き換えるか、重畳して画像データを表示する。また、現実物体をすべて覆うような画像を用いることもできる、との記述もある。(特許文献1参照)
特開2000−350860号公報
従来は、前述のようなマーカ隠蔽CGを、(他の仮想CGオブジェクトと同様に)あらかじめマニュアル操作で作成し、調整を行いながら配置していた。ここで、複合現実空間を実現する上では、現実空間と仮想空間との2空間の正確な位置合わせを行うことが重要な要素となる。よって、マーカ隠蔽CGを現実オブジェクトであるマーカに対応させるためには、現実空間を表す正確な数式モデル表現又は形状モデル表現が必要となる。なぜならば、マーカ隠蔽CGとして設定する仮想CGオブジェクトのモデルは、現実空間の形状に対応したモデルでなければならないからである。もし、現実空間の形状に対応した数式モデルをマーカ隠蔽CGに利用した場合には、マーカがきちんと隠蔽される。しかしながら、現実空間の形状の正確なモデル化は難しく、同時にマーカ隠蔽CGを容易に設定することもできなかったため改善が求められていた。
本発明は、これらを鑑みて発明されたものであり、現実オブジェクトを隠蔽するコンピュータグラフィックス(CG)を容易に設定することを目的とする。
上述した目的を達成するために、本発明の画像処理装置は、使用者の視点位置から観察された現実空間画像に、前記使用者の視点位置から観察される仮想物体の画像を合成表示する画像処理装置であって、前記使用者による操作対象の現実物体の位置姿勢に基づき、現実空間中の領域を指定する領域指定手段と、前記領域指定手段によって指定された領域に相当する領域の画像を切り出して、当該切り出された画像の仮想オブジェクトを作成する仮想オブジェクト作成手段と、前記仮想オブジェクト作成手段によって作成された仮想オブジェクトを、前記現実空間画像中の領域に合成する合成手段とを有することを特徴とする。
上述した目的を達成するために、本発明の画像処理方法は、領域指定手段が、前記使用者による操作対象の現実物体の位置姿勢に基づき、現実空間の領域を指定する領域指定ステップと、仮想オブジェクト作成手段が、前記領域指定ステップによって指定された領域に相当する領域の画像を切り出して、当該切り出された画像の仮想オブジェクトを作成する仮想オブジェクト作成ステップと、合成手段が、前記仮想オブジェクト作成ステップによって作成された仮想オブジェクトを、前記現実空間画像中の領域に合成する合成ステップとを有することを特徴とする。
本発明の画像処理装置および方法によれば、使用者による操作対象の現実物体の位置姿勢に基づき、現実空間の領域を指定し、指定された現実空間の領域に相当する領域の画像を切り出して、当該切り出された画像の仮想オブジェクトを作成することによって、従来の課題を解決し、ユーザの直感的な操作により、現実空間中の領域を覆う仮想オブジェクトを精度良く生成することが出来る。
また、使用者の視点位置を検出し、検出した視点位置から、指定された現実空間の領域が観察された現実空間画像上のどの領域に相当するかを求めることによって、観察された現実空間画像上の領域に基づいた仮想オブジェクトを作成することができる。
さらに、現実空間の領域が指定されてから所定時間経過後に、観察された現実空間画像上で指定された現実空間の領域に相当する領域の画像を切り出して、仮想オブジェクトを作成することによって、切り出し画像に使用者の手やその影などが入ることを防止できる。
また、マーカを前記仮想オブジェクトで隠すように合成することによって、使用者の視点において、マーカを隠蔽することができる。
以下、添付図面を参照して本発明をその好適な実施形態に基づいて詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る複合現実感システム(MRシステム)の構成例を示す図である。
101は、現実空間中の平面テーブルであり、ユーザは現実空間であるテーブル101の上に仮想CGオブジェクト105を合成した複合現実空間を体験する。テーブル101上にある104は、現実空間の既知の3次元位置に配置された現実オブジェクトであるマーカ(指標)である。図1において、マーカ104はテーブル101上に4個配置されているが、本発明の実施形態においてその目的を達成するためであれば、4個に限らずそれ以上の個数でも、それ以下の個数であっても構わないことは言うまでもない。
102は、ユーザが装着するシースルー型のHMDである。本発明の実施形態では、シースルー型のHMD102として、現実空間をカメラなどでリアルタイムに撮影した現実空間画像と計算機等で作成した仮想空間画像とを合成するビデオシースルー型HMDを想定して説明するが、光学系を介して観察する現実空間の風景と計算機等で作成した仮想空間画像とを合成する光学シースルータイプのHMDでも本発明の実施形態は適用可能である。
HMD102は図示しないカメラを備えており、現実空間の画像を撮影する。撮影された画像は、実写映像取得部1031に送られる。HMD102に備えられるカメラは右目用と左目用に2つあることが望ましいが、1つでも構わないことは言うまでもない。
また本発明における実施形態では、HMD102に備えられるカメラは、基本的にテーブル101上に配置されたマーカ104を撮影しているものとする。
1040は、現実物体であり、ユーザがインタラクションを行なうために操作するスタイラスや指示棒のようなユーザ・インタフェース(操作部)である。ユーザ・インタフェース1040は、図示しない位置姿勢センサを備えており、3次元空間中でのユーザ・インタフェース1040の先端部分の位置情報、および3次元空間中でのユーザ・インタフェース1040の姿勢情報を計測することができる。
ここで、位置姿勢センサの具体的な例として、磁気センサ、機械式センサ、超音波センサなどがあげられる。また、ジャイロセンサや加速度センサを利用してその出力値を積分することでユーザ・インタフェース1040の位置姿勢情報を求めたり、ユーザ・インタフェース1040に備え付けたカメラで撮影した画像からユーザ・インタフェース1040の位置姿勢情報を求めたりしてもよい。
さらには、これらを組み合わせてユーザ・インタフェース1040の位置姿勢情報を求めてよいことは言うまでもない。計測された位置姿勢情報のうち、位置情報がユーザ・インタフェース位置検出部1035へ送られる。
また、ユーザ・インタフェース1040は図示しないスイッチを備えており、ユーザがインタラクションを行うことができる。ユーザがスイッチをON/OFFした情報は、ユーザ・インタフェース入力検出部1037に送られる。
103は、コンソールまたはPCであり、実写映像取得部1031、CG生成部1032、実写・CG合成表示部1033、視点位置姿勢検出部1034、ユーザ・インタフェース位置検出部1035、マーカ隠蔽CG設定部1036、ユーザ・インタフェース入力検出部1037からなる。コンソールまたはPC103は、HMD102、およびユーザがインタラクションを行なうために操作するユーザ・インタフェース1040と接続され、システムの進行状態等さまざまな情報を処理する。なお、コンソールまたはPC103は、CPU、ROM、RAM、外部記憶装置(HDD、FD、CD/DVDドライブ等)及び、各種入出力インタフェースを有する汎用的なコンピュータ機器であり、ROM及び/又は外部記憶装置に記憶されたソフトウェアプログラムをCPUが実行し、機器内部の構成要素を制御することによって以下に説明する処理を実現する。なお、処理の一部又は全部をハードウェアによって実現しても良い。
実写映像取得部1031は、ビデオキャプチャカードなどから構成され、HMD102に設けられたカメラで撮影した実写映像をコンソールまたはPC103内に取り込む。また、実写映像取得部1031は、取り込んだ実写映像を実写・CG合成表示部1033、視点位置姿勢検出部1034、マーカ隠蔽CG設定部1036に送る。
視点位置姿勢検出部1034は、実写映像取得部1031が取得した実写映像からマーカ104を画像処理で検出し、次に、マーカ104の検出結果をもとにHMD102に備えられたカメラの視点位置姿勢を求める。テーブル101上に配置されたマーカ104は、現実空間の既知の3次元位置に配置されていることが分かっているため、ロボットビジョンや画像処理分野において従来から利用されている手法を用いることで、マーカ映像からカメラの視点位置姿勢を求めることができる。
また、HMD102に図示しない位置姿勢センサを備えて、上記の画像処理による方法と組み合わせることで、HMD102に備えられたカメラの位置姿勢を求めてもよい。HMD102に備えられる図示しない位置姿勢センサの具体的な例としては、磁気センサ、機械式センサ、超音波センサなどがあげられる。また、ジャイロセンサや加速度センサを利用してその出力値を積分してもよい。視点位置姿勢検出部1034は、検出した視点位置姿勢情報をマーカ隠蔽CG設定部1036、CG生成部1032に送る。
ユーザ・インタフェース入力検出部1037は、ユーザ・インタフェース1040に備えられた図示しないスイッチをユーザがON/OFFする情報を取得する。ユーザ・インタフェース入力検出部1037は、取得したスイッチON/OFF情報をユーザ・インタフェース位置検出部1035に送る。
ユーザ・インタフェース位置検出部1035は、ユーザ・インタフェース1040に設けられた位置姿勢センサからユーザ・インタフェース1040の位置情報を取得する。また、ユーザ・インタフェース位置検出部1035は、ユーザ・インタフェース入力検出部1037から送られるスイッチON/OFF情報を取得する。
ユーザ・インタフェース位置検出部1035は、取得したユーザ・インタフェース位置情報をマーカ隠蔽CG設定部1036に送る。
マーカ隠蔽CG設定部1036は、実写映像取得部1031から送られる実写映像、ユーザ・インタフェース位置検出部1035から送られるユーザ・インタフェース位置情報、視点位置姿勢検出部1034から送られる視点位置姿勢情報をもとに、実写映像中に存在する現実オブジェクトであるマーカを隠蔽する仮想CGオブジェクト(以下、マーカ隠蔽CGと呼ぶ)を設定する。詳しい設定方法については、後述の本実施形態における処理概要および処理手順の中で述べる。
マーカ隠蔽CG設定部1036は、設定したマーカ隠蔽CGの情報をCG生成部1032に送る。
CG生成部1032は、図示しない記憶部よりCGデータを読み込み、また視点位置姿勢検出部1034から送られるHMD102に備えられたカメラの視点位置姿勢情報、およびマーカ隠蔽CG設定部1036から送られるマーカ隠蔽CGの情報をもとに、HMD102に備えられたカメラの視点(すなわちユーザの視点)から見たCGオブジェクト画像を生成する。CG生成部1032は、生成したCGオブジェクト画像を実写・CG合成表示部1033に送る。
実写・CG合成表示部1033は、実写映像取得部1031が取得した実写映像と、CG生成部1032が生成したCGオブジェクト画像とを受け取り、それらを合成してHMD102に表示する。このようにして、ユーザはマーカの存在を気にせずに複合現実空間を体験することができる。なお、本発明の主要な部分ではないので詳細な説明は行なわないが、実写・CG合成表示部1033は、ユーザがHMD102で立体視できるよう、右目用と左目用の合成画像を生成する。
ここで、ユーザがシステムの調整を行う際に、マーカの存在を確認することができるようにするために、コンソールまたはPC103に図示しないマーカ隠蔽CG合成のON/OFF切り替え手段を備えて、ON/OFF切り替え手段に対応するスイッチなどによりマーカ隠蔽CG合成のON/OFFを切り替えてもよい。
以上のような構成を備えた本実施形態の処理の概要について、以下説明する。
図3(a)(b)、図5(a)(b)、図6は、マーカ隠蔽CG設定部1036が設定するマーカ隠蔽CGの例を説明するための図である。
図3(b)は、ユーザおよびテーブル101を上から見た図であり、図3(a)は、視点位置姿勢検出部1034が検出した視点位置301から見たHMD視界画像(複合現実空間画像)である。図3において、302は、作成されたマーカ隠蔽CG(隠蔽すべき現実オブジェクトであるマーカ104(104’)領域を含まない)であり、302’は、現実オブジェクトであるマーカ部分に配置されたマーカ隠蔽CGである。104’は、現実オブジェクトであるマーカの画像上にマーカ隠蔽CG302’が合成配置されて隠蔽されている様子を表しており、実際のHMD視界画像では104’の破線は表示されない。
なお、図3、図5では説明のために、配置されたマーカ隠蔽CG302’に枠線をつけているが、実際には枠線は表示されず、マーカ隠蔽CG302’はテーブル101に馴染むように合成される。
図5(a)(b)は共に、図3(a)と同様のHMD視界画像であるが、図5(a)では説明のためにテーブルやマーカなどを省略している。
図5(a)は、マーカ隠蔽CG302を作成する様子を示している。
CGオブジェクトであるマーカ隠蔽CG302の形状は、ユーザ・インタフェース1040によって一つの閉領域を囲むように順番に指定された3点以上の点(図5(a)では、1〜4の順番に指定された4点)を頂点とする形状である。3点の場合は、マーカ隠蔽CGとして1枚の三角形ポリゴンが利用できる。しかし、図5(a)に示すように4点を指定する場合は、同一平面に4点並ばないことがあるため、三角形ポリゴンを2枚組み合わせたものをマーカ隠蔽CG302とすることが望ましい。同様に、N点指定する場合は、(N−2)枚の三角形ポリゴンを組み合わせたものをマーカ隠蔽CGとする。
ここで、図5(a)のユーザ・インタフェース1040の先端部分は、現実物体であるテーブルに接しており、現実物体の形状と対応したマーカ隠蔽CGオブジェクトを作成することができる。
また、CGオブジェクトであるマーカ隠蔽CG302に貼るテクスチャ画像は、HMD102に備えられたカメラによって撮影した実写映像を利用する。図6は、マーカ隠蔽CG302に貼るテクスチャ画像の取得を説明する図である。図6において、602はHMD102に備えられたカメラの画像面である。また、603は、視点位置301とユーザ・インタフェース1040の位置を結ぶ直線と、カメラ画像面602との交点である。
ここで、図5(a)においてユーザ・インタフェース1040によって指定した複数の点全てについてカメラ画像面602との交点を求め、それら複数の交点によって囲まれたカメラ画像面内の部分画像をマーカ隠蔽CG302に貼るテクスチャ画像とする。
図5(b)は、作成したマーカ隠蔽CGを配置する様子である。マーカ隠蔽CG302はユーザ・インタフェース1040のスイッチをONにすることによって掴まれて、その姿勢を保ったまま302’の位置に移動配置される。(ユーザ・インタフェース1040のスイッチをOFFにすることで配置完了とする。)ユーザ・インタフェース1040の先端部分を現実物体であるテーブルに接した状態でマーカ隠蔽CG302’を配置することで、現実物体の形状と対応した形でマーカの3次元位置にマーカ隠蔽CGを配置することができる。
なお、マーカ隠蔽CG302の作成と同様に、ユーザ・インタフェース1040によって指定される複数の3次元位置を、マーカ隠蔽CG302’の頂点位置として配置してもよいことは言うまでもない。その際、マーカ隠蔽CGに貼るテクスチャ画像は、マーカ隠蔽CG302’の頂点位置に合わせるように変形する。以上、本実施形態における処理の概要説明を行なった。
次に、本実施形態の処理手順について、以下説明する。
図2、図4は、本実施形態における処理手順を説明するフローチャートである。
ステップS201では、システムの初期化を行なう。システムの初期化とは、システムを構成する各機器の電源を入れたり、プログラムを起動したりといった、本実施形態の処理手順を進めるにあたり最初に行なうステップである。また、コンソールまたはPC103は、ユーザ・インタフェース1040に備えられたスイッチがONに入力された回数を数える変数「Count」を0にセットする。
ステップS202では、マーカ隠蔽CGの設定処理が行われる。ステップS202は、図4に示すステップS401からステップS410の複数のステップからなる。
ステップS401では、ユーザ・インタフェース入力検出部1037が、ユーザ・インタフェース1040に備えられたスイッチがON状態であったかどうか検出を行う。
ステップS401では、図5(a)に示すように、ユーザ・インタフェース1040の先端部分をテーブル101に接した状態でスイッチがON状態であることを検出するのが望ましいため、その旨の指示をHMD102に表示してもよい。さらには、ユーザ・インタフェース1040によって(一つの閉領域を囲むように)指定される図5(a)1〜4のような順番の指示を、矢印やテキストやグラフィックなどでHMD102に表示してもよい。
ステップS402では、ステップS401でスイッチがON状態であったことを検出したら処理をステップS403へ進め、ステップS401でスイッチがOFF状態であったことを検出したらステップS202を終えて、処理をステップS203へ進める。
ステップS403では、コンソールまたはPC103が、変数「Count」の値に1を足す。
ステップS404では、ユーザ・インタフェース位置検出部1035が、ユーザ・インタフェース入力検出部1037からユーザ・インタフェース1040に備えられたスイッチがON状態であることを受けて、ユーザ・インタフェース1040の3次元位置を検出する。ユーザ・インタフェース位置検出部1035は、検出した3次元位置を図示しない記憶部に記憶する。
ステップS405では、コンソールまたはPC103が、変数「Count」とあらかじめ定めた定数「N」が同じであるかどうか判定を行う。変数「Count」と定数「N」が同じ場合は、処理をステップS406へ進め、変数「Count」と定数「N」が異なる場合は、ステップS202を終えて、処理をステップS203へ進める。
なお、定数「N」は図5(a)に示すマーカ隠蔽CG302の頂点の数を示す数である。
ステップS406では、マーカ隠蔽CG設定部1036が、HMD102に備えられたカメラが撮影した実写映像を取得する。(実写映像取得部1031を経由。)なお、ここで取得した実写映像は、マーカ隠蔽CGの作成に利用されるものである。よって、実写映像の取得は、ユーザが複合現実感を体験する視点位置付近で行われることが望ましい。そのため、HMD102に備えられたカメラの視点位置姿勢情報を視点位置姿勢検出部1034から受け取り、あらかじめ定められた視点位置姿勢の範囲にあるときに実写映像の取得を行うようにしてもよい。
また、取得する実写映像には、ユーザ・インタフェース1040やその影が写りこんでいないことが望ましい。そのため、ステップS405において変数「Count」と「N」が同じであることを判定してから、あらかじめ定めた時間後にステップS406にて実写映像取得を行ったり、実写映像取得を行うまでの残り時間をカウントダウン形式でHMD102に表示してもよい。さらには実写映像の取得の際に、ユーザ・インタフェース1040をHMD102の視界から外すような指示表示をHMD102に対して行ってもよい。また、ユーザ・インタフェース1040やその影が写りこまないように、あらかじめ決められた範囲にユーザ・インタフェース1040があるときに実写映像の取得を行うようにしてもよい。
ステップS407では、マーカ隠蔽CG設定部1036が、HMD102に備えられたカメラの視点位置姿勢情報を取得する。(実写映像取得部1031、視点位置姿勢検出部1034を経由。)視点位置姿勢の検出は、視点位置姿勢検出部1034の説明で述べた方法で行えばよい。
ステップS408では、マーカ隠蔽CG設定部1036が、マーカ隠蔽CGの作成を行う。
まず、ユーザ・インタフェース位置検出部1035は、検出したユーザ・インタフェース1040の先端部分の3次元位置(N個)を記憶部から呼びだし、マーカ隠蔽CG設定部1036に送る。次に、マーカ隠蔽CG設定部1036は、ステップS406で取得した実写映像と、ステップS407で取得した視点位置姿勢情報と、ステップS408で取得したユーザ・インタフェース1040の先端部分の3次元位置(N個)をもとにマーカ隠蔽CGの作成を行う。
詳しいマーカ隠蔽CGの作成方法については、先述の図5(a)および図6の説明(本実施形態の処理の概要)において述べたとおりである。
ステップS409では、マーカ隠蔽CG設定部1036が、ステップS408で作成したマーカ隠蔽CGの配置を行う。マーカ隠蔽CGの配置は、先述の図5(b)の説明(本実施形態の処理の概要)において述べたとおり、ユーザ・インタフェース1040によって直接的に行ってもよい。また、実写映像からマーカの3次元位置を検出して、検出したマーカの3次元位置に自動的に配置してもよい。
ここで、現実物体である1つ1つのマーカに対してマーカ隠蔽CGを作成および配置してもよいが、マーカ隠蔽CGを1つだけ作成して複数のマーカに対してコピー配置してもよいことは言うまでもない。
マーカ隠蔽CG設定部1036は、設定(作成および配置)したマーカ隠蔽CGの情報(形状、貼り付けるテクスチャ画像、配置位置姿勢など)をCG生成部1032に送る。
ステップS410では変数「Count」を0に戻す。変数「Count」を0に戻すのは、現実物体である1つ1つのマーカに対してマーカ隠蔽CGを作成および配置することを想定した処理である。すなわち、ステップS406からステップS409の処理を繰り返し行うことができるようにするためである。ステップS410が終わったら、処理をステップS203へ進める。
ステップS203では、実写映像取得部1031が、HMD102に備えられたカメラから実写映像を取得する。
ステップS204では、視点位置姿勢検出部1034が、HMD102に備えられたカメラの視点位置姿勢を検出する。(実写映像取得部1031を経由。)視点位置姿勢の検出は、視点位置姿勢検出部1034の説明で述べた方法で行えばよい。
ステップS205では、CG生成部1032が、視点位置姿勢検出部1034の検出した視点位置姿勢情報をもとにCGオブジェクト画像を生成する。また、マーカ隠蔽CG設定部1036によって設定(作成および配置)されたマーカ隠蔽CGが、マーカ隠蔽CG設定部1036から送られてきていればマーカ隠蔽CGオブジェクトの画像も生成する。
ステップS206では、実写・CG合成表示部1033が、実写映像取得部1031が取得した実写映像と、CG生成部1032が生成したCGオブジェクト画像を合成してHMD102に表示する。
ステップS207では、ユーザが終了処理を行なっていた場合、システムを終了させる。システムを終了させるとは、プログラムを終了させたり、システムを構成する各機器の電源を切ったりといった本実施形態の処理手順を終わらせるために最後に行なうステップである。ユーザが終了処理を行なっていない場合は、ステップS202に戻る。
以上、本実施形態における処理手順の説明を行なった。
なお、本実施形態においては、マーカ隠蔽CGを設定するテーブル101が平面であることを前提として説明を行ったが、マーカ隠蔽CGを設定する場所は、平面に限らず3次元現実オブジェクトが配置された空間でもよいことは言うまでもない。
また、本実施形態においては、ユーザ・インタフェース1040に備えられたスイッチを複数回押すことでマーカ隠蔽CGを作成しているが、ユーザ・インタフェース1040に備えられたスイッチをONにしたままユーザ・インタフェース1040を移動させてマーカ隠蔽CGを作成してもよい。
以上の本実施形態によると、使用者の視点位置から観察される現実空間に、前記使用者の視点位置から観察される仮想物体の画像を合成する際に、スタイラスや指示棒のようなユーザ・インタフェース(操作部)を利用して、現実空間中の領域(隠蔽すべき現実オブジェクトを含まない)を検出して、現実オブジェクト(マーカ)を隠蔽するCG(マーカ隠蔽CG)を作成して、作成したCG(マーカ隠蔽CG)を現実オブジェクト(マーカ)に合成して配置することで、現実オブジェクト(マーカ)を隠蔽するCG(マーカ隠蔽CG)を容易に設定することができる。
(他の実施形態)
上述の実施形態においては、1つの機器から構成されるコンソール又はPC103を用いる画像処理装置および方法についてのみ説明したが、PC103と同等の機能を複数の機器で構成したシステムであっても良い。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
本発明の実施形態における画像処理装置の構成を示すブロック図である。 本発明の実施形態における画像処理装置の処理手順を説明するためのフローチャートである。 本発明の実施形態における画像処理装置の処理概要を説明するための図である。 本発明の実施形態における画像処理装置のマーカ隠蔽CG設定処理(S202)の手順を説明するためのフローチャートである。 本発明の実施形態における画像処理装置の処理概要を説明するための図である。 本発明の実施形態における画像処理装置の処理概要を説明するための図である。
符号の説明
102 HMD
103 コンソールまたはPC
104 マーカ
302 マーカ隠蔽CG
1031 実写画像取得部
1032 CG生成部
1033 実写・CG合成表示部
1034 視点位置指定検出部
1035 ユーザ・インターフェース位置検出部
1036 マーカ隠蔽CG設定部
1037 ユーザ・インターフェース入力検出部
1040 ユーザ・インターフェース

Claims (12)

  1. 使用者の視点位置から観察された現実空間画像に、前記使用者の視点位置から観察される仮想物体の画像を合成表示する画像処理装置であって、
    前記使用者による操作対象の現実物体の位置姿勢に基づき、現実空間中の領域を指定する領域指定手段と、
    前記領域指定手段によって指定された領域に相当する領域の画像を切り出して、当該切り出された画像の仮想オブジェクトを作成する仮想オブジェクト作成手段と、
    前記仮想オブジェクト作成手段によって作成された仮想オブジェクトを、前記現実空間
    画像中領域に合成する合成手段とを有することを特徴とする画像処理装置。
  2. 前記領域指定手段は、前記領域を囲む複数の点を指定し、
    前記仮想オブジェクト作成手段は、前記複数の点を頂点とする形状の仮想オブジェクトを作成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記使用者の視点位置を検出する視点位置検出手段を有し、
    前記仮想オブジェクト作成手段は、前記視点位置検出手段によって検出した視点位置から、前記領域指定手段によって指定された前記領域が観察された現実空間画像上のどの領域に相当するかを求めることを特徴とする請求項1もしくは2に記載の画像処理装置。
  4. 前記仮想オブジェクト作成手段は、前記領域指定手段によって現実空間の領域が指定されてから所定時間経過後に、観察された現実空間画像上で前記領域指定手段によって指定された前記領域に相当する領域の画像を切り出して、仮想オブジェクトを作成することを特徴とする請求項1に記載の画像処理装置。
  5. 前記現実空間中には前記使用者の視点位置を検出するためのマーカが配置され、前記合成手段は、前記マーカを前記仮想オブジェクトで隠すように合成することを特徴とする請求項1ないし4のいずれかに記載の画像処理装置。
  6. 前記合成手段は、前記仮想オブジェクトの合成ON/OFFを切り替えられることを特徴とする請求項1ないし5のいずれかに記載の画像処理装置。
  7. 使用者の視点位置から観察された現実空間画像に、前記使用者の視点位置から観察される仮想物体の画像を合成する画像処理方法であって、
    領域指定手段が、前記使用者による操作対象の現実物体の位置姿勢に基づき、現実空間の領域を指定する領域指定ステップと、
    仮想オブジェクト作成手段が、前記領域指定ステップによって指定された領域に相当する領域の画像を切り出して、当該切り出された画像の仮想オブジェクトを作成する仮想オブジェクト作成ステップと、
    合成手段が、前記仮想オブジェクト作成ステップによって作成された仮想オブジェクトを、前記現実空間画像中領域に合成する合成ステップとを有することを特徴とする画像処理方法。
  8. 前記領域指定ステップは、前記領域を囲む複数の点を指定するステップであり、
    前記仮想オブジェクト作成ステップは、前記複数の点を頂点とする形状の仮想オブジェクトを作成するステップであることを特徴とする請求項7に記載の画像処理方法。
  9. 前記使用者の視点位置を検出する視点位置検出ステップを有し、
    前記仮想オブジェクト作成ステップは、前記視点位置検出ステップによって検出した視点位置から、前記領域指定ステップによって指定された前記領域が観察された現実空間画像上のどの領域に相当するかを求めることを特徴とする請求項7もしくは8のいずれかに記載の画像処理方法。
  10. 前記仮想オブジェクト作成ステップは、前記領域指定ステップによって現実空間の領域が指定されてから所定時間経過後に、観察された現実空間画像上で前記領域指定ステップによって指定された前記領域に相当する領域の画像を切り出して、仮想オブジェクトを作成することを特徴とする請求項9に記載の画像処理方法。
  11. 前記現実空間中には前記使用者の視点位置を検出するためのマーカが配置され、前記合成ステップは、前記マーカを前記仮想オブジェクトで隠すように合成することを特徴とする請求項7ないし10のいずれかに記載の画像処理方法。
  12. 前記合成ステップは、前記仮想オブジェクトの合成ON/OFFを切り替えられることを特徴とする請求項7ないし11のいずれかに記載の画像処理方法。
JP2003393407A 2003-11-25 2003-11-25 画像処理装置および方法 Expired - Fee Related JP4447896B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003393407A JP4447896B2 (ja) 2003-11-25 2003-11-25 画像処理装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003393407A JP4447896B2 (ja) 2003-11-25 2003-11-25 画像処理装置および方法

Publications (2)

Publication Number Publication Date
JP2005157611A JP2005157611A (ja) 2005-06-16
JP4447896B2 true JP4447896B2 (ja) 2010-04-07

Family

ID=34719775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003393407A Expired - Fee Related JP4447896B2 (ja) 2003-11-25 2003-11-25 画像処理装置および方法

Country Status (1)

Country Link
JP (1) JP4447896B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4574473B2 (ja) 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
JP2009036517A (ja) * 2007-07-31 2009-02-19 Shimadzu Corp ヘッドモーショントラッカ装置
JP2010033397A (ja) * 2008-07-30 2010-02-12 Dainippon Printing Co Ltd 画像合成装置および方法
JP5560600B2 (ja) * 2009-07-09 2014-07-30 株式会社島津製作所 ヘッドモーショントラッカ装置
JP5557043B2 (ja) * 2011-03-29 2014-07-23 ブラザー工業株式会社 仮想ラベル表示処理プログラム
JP6112815B2 (ja) * 2012-09-27 2017-04-12 京セラ株式会社 表示装置、制御システムおよび制御プログラム
CN105224084B (zh) * 2015-09-30 2018-04-24 深圳多新哆技术有限责任公司 确定虚拟物件在虚拟空间中位置的方法及装置
JP7005224B2 (ja) * 2017-08-22 2022-01-21 キヤノン株式会社 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
JP7041888B2 (ja) 2018-02-08 2022-03-25 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345087A (ja) * 1998-03-31 1999-12-14 Seiko Epson Corp プレゼンテ―ションシステム及び位置検出方法
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP4547474B2 (ja) * 1998-12-31 2010-09-22 俊彦 岡部 Www検索装置
JP2000350859A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk マーカ配置方法及び複合現実感装置
JP3530772B2 (ja) * 1999-06-11 2004-05-24 キヤノン株式会社 複合現実感装置及び複合現実空間画像の生成方法
JP2003264740A (ja) * 2002-03-08 2003-09-19 Cad Center:Kk 展望鏡

Also Published As

Publication number Publication date
JP2005157611A (ja) 2005-06-16

Similar Documents

Publication Publication Date Title
KR20210047278A (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
US11257233B2 (en) Volumetric depth video recording and playback
EP1404126B1 (en) Video combining apparatus and method
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
US7536655B2 (en) Three-dimensional-model processing apparatus, three-dimensional-model processing method, and computer program
WO2016132817A1 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
Sukan et al. Quick viewpoint switching for manipulating virtual objects in hand-held augmented reality using stored snapshots
JP2006072903A (ja) 画像合成方法及び装置
JP4447896B2 (ja) 画像処理装置および方法
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2020226847A1 (en) Capture indicator for a virtual world
JP2006012042A (ja) 画像生成方法及び装置
JP2005157610A (ja) 画像処理装置および方法
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP2006018444A (ja) 画像処理システム及び付加情報指示装置
JP2023065528A (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP4371863B2 (ja) 再生装置及び方法
JP2004062755A (ja) 画像提示装置および情報処理方法
JP6357412B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2005044102A (ja) 画像再生方法及び画像再生装置
JP2006048484A (ja) デザイン支援装置
JP3413145B2 (ja) 仮想空間の編集方法及び仮想空間の編集装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees