JP4401727B2 - 画像表示装置及び方法 - Google Patents

画像表示装置及び方法 Download PDF

Info

Publication number
JP4401727B2
JP4401727B2 JP2003341628A JP2003341628A JP4401727B2 JP 4401727 B2 JP4401727 B2 JP 4401727B2 JP 2003341628 A JP2003341628 A JP 2003341628A JP 2003341628 A JP2003341628 A JP 2003341628A JP 4401727 B2 JP4401727 B2 JP 4401727B2
Authority
JP
Japan
Prior art keywords
video
imaging
image
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003341628A
Other languages
English (en)
Other versions
JP2005107970A (ja
Inventor
隆 麻生
宏明 佐藤
雅博 鈴木
壽弘 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003341628A priority Critical patent/JP4401727B2/ja
Priority to US10/945,994 priority patent/US7312795B2/en
Priority to CNB2004100806635A priority patent/CN1320423C/zh
Priority to EP04255986.4A priority patent/EP1521482B1/en
Publication of JP2005107970A publication Critical patent/JP2005107970A/ja
Application granted granted Critical
Publication of JP4401727B2 publication Critical patent/JP4401727B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/275Generation of keying signals

Description

本発明は、任意視点における現実空間の映像情報に、仮想空間の映像情報を重畳し、観察者に提示する複合現実感システムにおける画像表示装置及び方法に関する。
複合現実感システムとは、現実空間映像と、ユーザの視点位置、視線方向等に応じて生成される仮想空間映像とを合成することにより得られる合成映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である(特許文献1を参照)。
一方、従来、設計・製造分野において3次元CADを使った設計(形状、デザイン)が主流になってきている。3次元CADで設計された物体を評価する方法としては、3次元CADで作成されたデータ(ソリッド形式)を3次元コンピュータぐらいフィックス(以下、3D−CG)として計算機の画面上に表示して視覚的に評価する方法や、ラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を作成し、視覚に加えて触覚的に評価する方法などが主流である。
特開平11−136706号公報
しかし、3次元CADデータを3D−CGとして計算機の画面上に表示する方法では、仮想空間内での評価となり、現実空間内での実寸感覚で物体の評価をすることができない。また、ラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を作成する方法は、加工精度、素材などの制約により、おおまかな形状を把握するのには有効であるが、デザインや形状の詳細、色彩など、3D−CAD上で設計した詳細な情報が再現されるものではない。したがって、より完成品に近い状況で、設計データを評価する方法が求められている。
本発明は上記の課題に鑑みてなされたものであり、簡易的に試作された模型を用いながら、完成品に近い形で設計評価を可能とすることを目的とする。
上記の目的を達成するための本発明による画像表示方法は、
任意視点における現実空間の映像情報に仮想空間の映像情報を重畳し、観察者に提示する画像表示装置による画像表示方法であって、
撮像手段が、現実空間の映像情報を撮像装置により取り込む撮像工程と、
計測手段が、前記撮像装置と、マーカの添付位置を指示するマークを有する3次元CADデータとしてのソリッドデータに基づいて作成された模型との位置及び姿勢を計測し、前記撮像工程によって得られる映像中の該模型の位置及び姿勢を示す位置/姿勢情報を取得する計測工程と、
変換手段が、前記ソリッドデータを3次元コンピュータグラフィック画像用のデータに変化する変換工程と、
合成手段が、前記位置/姿勢情報に基づいて、前記撮像工程で得られた映像中の前記模型に重なるように前記変換工程で得られた3次元コンピュータグラフィック画像用のデータを描画して、該映像と該3次元コンピュータグラフィック画像を合成する合成工程と
特徴点抽出手段が、前記撮像工程で得られた映像より、前記模型上のマーカを抽出する特徴点抽出工程とを備え
前記計測工程では、前記撮像工程で得られた映像における前記模型と前記撮像装置の相対的な位置/姿勢情報を、前記特徴点抽出工程で抽出された前記マーカの映像上の位置と前記模型上のマークに対応する前記3次元CADデータが有する前記マーカの添付位置の情報とに基づいて補正する。
また、上記の目的を達成するための本発明の他の態様による画像表示装置は以下の構成を備える。すなわち、
任意視点における現実空間の映像情報に仮想空間の映像情報を重畳し、観察者に提示する画像表示装置であって、
現実空間の映像情報を取り込む撮像手段と、
前記撮像手段と、マーカの添付位置を指示するマークを有する3次元CADデータとしてのソリッドデータに基づいて作成された模型との位置及び姿勢を計測し、前記撮像手段によって得られる映像中の該模型の位置及び姿勢を示す位置/姿勢情報を取得する計測手段と、
前記ソリッドデータを3次元コンピュータグラフィック画像用のデータに変化する変換手段と、
前記位置/姿勢情報に基づいて、前記撮像手段によって得られた映像中の前記模型に重なるように前記変換手段で得られた3次元コンピュータグラフィック画像用のデータを描画することにより、該映像と該3次元コンピュータグラフィック画像を合成する合成手段と
前記撮像手段により得られた映像より、前記模型上のマーカを抽出する特徴点抽出手段とを備え
前記計測手段は、前記撮像手段で得られた映像における前記模型と前記撮像装置の相対的な位置/姿勢情報を、前記特徴点抽出手段により抽出された前記マーカの映像上の位置と前記模型上のマークに対応する前記3次元CADデータが有する前記マーカの添付位置の情報とに基づいて補正する。
上記の構成によれば、3次元CADデータに基づいて生成された簡易模型の実写映像部分に当該3次元CADデータに基づくコンピュータグラフィックス画像を重畳表示させることが可能となるので、より完成品に近い状況で、設計データを評価することができる。
以下、添付の図面を参照して本発明の実施形態について説明する。
<第1実施形態>
以下に説明する本実施形態の複合現実感システムでは、3次元CADのデータよりラピッド・プロトタイピング装置で作成した簡易試作物(簡易モックアップ)に、同じ3次元CADのデータを変換して作成した3次元CG(3D−CG)データを、複合現実感システムを使って位置・姿勢方向を一致させて重ね合わせ、表示する。これにより、視覚的な評価と触覚的な評価を同時に実現し、より完成品に近い状態での評価を可能とする。
第1実施形態によるシステム構成を図1に示す。
図1において、100は観察者が頭部に装着して現実空間と仮想空間を合成した映像を観察するための頭部装着型映像入出力装置(頭部装着型ディスプレイ(Head Mounted Display)などと呼ばれる。以下、HMDと称する)である。また、200は磁場を発生させる磁気トランスミッタ、201、202は磁気トランスミッタ200が発生させた磁場の変化を計測するための磁気センサである。205は位置・姿勢計測装置であり、磁気センサ201、202の計測結果より、各磁気センサの位置・姿勢を計測する。磁気センサ201はHMD100に取り付けられており、観察者の視点位置、視線方向を算出するのに用いられる。300は観察者が手で保持、操作する操作手段としての簡易試作物(簡易モックアップ)である。簡易試作物300には、HMD100と同様に磁気センサ202が組み込まれている。磁気センサ202の簡易試作物300における位置や姿勢は既知であり、位置・姿勢計測装置205は、磁気センサ202の計測結果に基づいて、簡易試作物300の位置・姿勢を算出する。なお、磁気センサ202の位置や姿勢は、予め物理的に計測して情報処理装置400にインプットされているものとする。301は簡易試作物を観察するための台である。
101はHMD100に組み込まれている映像表示装置、102はHMD100に組み込まれている映像入力装置であり、それぞれ右目、左目用に2セットずつ組み込まれている。400は情報処理装置であって、位置・姿勢計測装置205により算出した位置・姿勢情報に合わせたCG映像を生成し、HMD100の映像入力装置102より入力した映像に重畳し、得られた合成映像をHMD100の映像表示装置101に向けて出力するものである。
次に、HMD100の具体的な構成について図2を参照して説明する。図2において101は図1でも示されている映像表示装置であり、0.5〜数インチ程度の小型の液晶表示デバイス等で構成される。103は、映像表示装置101の映像を拡大するレンズの役目を果たす自由曲面プリズムである。これらの構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先に90インチ相当の映像として提示される。
102は図1にも示されている映像入力装置であり、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。104は現実空間の光を映像入力装置102に収束させるためのレンズの役目をはたす撮像系プリズムである。撮像系プリズム104は自由曲面プリズム103の外側に、両プリズムにおける光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することを可能としている。
次に、図1における情報処理装置400の具体的な構成について、図3を使って説明する。
401L、Rは映像キャプチャ部であり、映像入力装置102より入力した映像データを取り込み、デジタル信号として情報処理装置400内に提供する。404は位置・姿勢情報入力部であり、位置・姿勢計測装置205より送られるHMD100と簡易試作物300の位置・姿勢データを情報処理装置400内に取り込む。405は位置・姿勢算出部であり、位置・姿勢入力部404からの入力データをもとに、HMD100と簡易試作物300の相対的な位置関係を算出する。
406は簡易試作物300に重畳させるための3DCG描画データである。407はCGレンダリング部であり、位置・姿勢算出部405で算出したHMD100と簡易試作物300の相対的な位置関係に基づいて、右目用、左目用それぞれのCGデータを描画させるべき位置、大きさ、角度(パース)などを計算し、その計算結果に基づいて3DCG描画用データ406をレンダリングする。
402L、Rは映像合成部であり、映像キャプチャ部401L、Rで取り込んだ現実空間の映像データに、CGレンダリング部407で生成したCG映像を重畳する。403L、Rは映像生成部であり、合成した映像をアナログデータに変換し、映像表示装置101に出力する。
上記構成による本実施形態の処理の流れを、図4を使って説明する。まず、3D−CADのデータから簡易試作物300と3DCG描画用データ406を作成する手順を図4左側の処理手順で説明する。
通常3次元CADシステムを使って形状やデザインなどの設計業務を行う(1010)場合、設計データはそれぞれの3次元CADシステム固有のソリッドデータとして保存されるのが一般的である。簡易試作物300は、このソリッドデータより、光造形などのラピッド・プロトタイピング装置を使って作成する(1110)。一方、3Dソリッドデータは、各設計部品の幾何学的なパラメータの集合で表現されており、そのままではCGとして描画することはできない。そこで、3Dソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1210)。
本実施形態の複合現実感システムでは、このように変換された3DCG描画用データ406を使って仮想空間を生成する。
次に、本実施形態における複合現実感システムの処理手順について、図4右側の処理手順で説明する。
磁気トランスミッタ200と磁気センサ202のデータを使って、位置・姿勢計測装置205は簡易試作物300の現実空間中における位置・姿勢を計測する(2010)。同様に、磁気トランスミッタ200と磁気センサ201のデータを使って、位置・姿勢計測装置205は観察者が装着しているHMD100の現実空間中における位置・姿勢を計測する(2020)。位置・姿勢計測装置205によって得られた計測データは、位置・姿勢情報入力部404を通して情報処理装置400に取り込まれる。そして、位置・姿勢算出部405においてHMD100と簡易試作物300との相対的な位置・姿勢関係が計算される(2030)。
一方、上記の処理2010、2020、2030と並行して、HMD装置100の映像入力装置101からの現実空間の映像を、映像キャプチャ部401を通して情報処理装置400に取り込む(3010)。CGレンダリング部407では、処理2030で算出した相対的な位置関係と3DCG描画用データ406を用いてCGを描画し、ビデオバッファなどのメモリ(不図示)に展開する(2040)。
一方、処理3010で取り込んだ現実空間の映像データもビデオバッファなどのメモリに展開する(3020)。映像合成部402L、Rは、上記の処理2040で生成したCG映像を、処理3020で展開した映像データに重畳する(4010)。合成された映像は、映像生成部403にてアナログ等のビデオ信号に変換され、HMD100の映像表示装置101に表示される(4020)。
上記2010から4020までの処理を映像表示装置101における映像更新間隔あるいはCG描画2040における更新間隔で繰り返し行うことで、リアルタイムに情報提示を行う。このシステムによる処理結果の一例を図5に示す。
図5において、(a)では、HMD100に搭載された映像入力装置102より入力した現実空間の映像(簡易試作物300の実映像)が示されている。(b)では、現実空間の簡易試作物300の位置に、CGデータに基づくCG画像を重畳した画像、すなわちHMD100に搭載された映像表示装置101に表示される映像が示されている。
なお、第1実施形態では、位置・姿勢を計測する手段として磁気を使った装置を例に説明したが、本発明はこれに限定されるものではなく、光学的な位置・姿勢計測装置など他の手段で実現できることはいうまでもない。
<第2実施形態>
第1実施形態においては、磁気を利用した位置・姿勢計測を例に説明した。しかしながら、磁気を利用した位置・姿勢計測においては、環境により計測精度が不安定になる場合がある。たとえば磁気トランスミッタの近傍に金属物体が存在する場合には磁場が乱れ、磁気センサの出力する値が不安定になる。また、磁気トランスミッタと磁気センサの距離が遠くなるほど、計測精度が悪化するなどの問題がある。このような計測精度の問題は、磁気利用のセンサに限らず、種々の方式の位置・姿勢計測装置においても発生する。例えば、光学的に位置・姿勢を計測する手段が存在するが、この場合には光を発光させる装置と、光を受光する装置との間に遮蔽物などが存在すると計測が不安定になり、誤差が生じるなどの問題がある。
そこで、第2実施形態の複合現実感システムでは、情報処理装置400内に取り込んでいる現実空間の映像データを用いて位置・姿勢を補正し、その計測精度を向上する。例えば、図6に示すように、簡易試作物300に画像認識用のマーカを添付し、これを特徴点として用いる。マーカとしては、位置・姿勢補正のアルゴリズムにより、形状マーカ301あるいは、色マーカ302など種々のものが考えられる。
ここで、特徴点を用いた位置・姿勢の補正方法について説明する。ここでは、一般的な補正方法として、映像入力部(カメラ)の外部パラメータを特徴点1点から補正する方法について説明する。なお、ここで特徴点とは、人工的に特定の色や形の情報をもったシール状のものなどを現実空間中の簡易試作物に貼り付けたマーカを用いても良いし、簡易試作物の形状の特徴的な部分を特徴点としても良い。
図7は映像入力装置(カメラ)の外部パラメータ(位置・姿勢をあらわすパラメータ)の一般的な補正方法を説明する模式図である。図7において、点Aは映像入力装置(カメラ)及び簡易試作装置300の位置・姿勢に基づいて予測される特徴点の位置、点Bはこの特徴点の実際の位置、点Cは映像入力装置(カメラ)視点の位置を表す。なおここでは、点A、点Bが示す位置はカメラ座標系における位置であって、点Cは映像入力装置(カメラ)座標系の原点である。また、点Pは撮像面上における点Aの位置、点Qは撮像面上における点Bの位置を示す。ここで、図7に示すように、点P、Qの座標を各々(xp,yp)、(xq,yq)、撮像面の幅、高さを各々w、h、カメラの焦点距離(撮像面から映像入力装置までの距離)をdとし、v1を点Cから点Qへのベクトル、v2を点Cから点Pへのベクトル、θをv1とv2のなす角度とする。
まず、特徴点1点を用いて姿勢をθだけ点B方向から点A方向に変化させる方法(映像入力装置の回転による補正方法)について説明する。
上記の設定から、v1、v2を求めると、各々の成分は以下の(1)式のようになる。
Figure 0004401727
次に、各々のベクトルを、以下の(2)式により大きさ1のベクトルに正規化する。なお、|v|は、ベクトルvの大きさをあらわす。
Figure 0004401727
ここで、映像入力装置(カメラ)を回転させる場合、その回転軸はベクトルv1、v2がなす平面と直行し、カメラ視点位置(点C)を通る直線となる。この回転軸の方向ベクトルは、(3)式に示すように、ベクトルv1、v2の外積により求めることができる(実際には正規化したもの(v1’、v2’)を用いる)。
Figure 0004401727
ここで、vxは回転軸の方向ベクトルであって、その成分を(l,m,n)とする。また、回転角θはベクトルv1、v2がなす角度なので、以下の(4)式のように求めることができる。
Figure 0004401727
よって、映像入力装置の回転による補正に用いる補正行列ΔMcは、以下の(5)式のように計算される。
Figure 0004401727
この補正行例を映像入力装置の位置・姿勢を示す行列にかけることで、映像入力装置の位置・姿勢が補正される。つまり、点Pが点Qの位置に表示され、撮像面上におけるランドマークの位置姿勢パラメータから予測される位置と実際の位置とが一致する。なお、上述の説明では、映像入力装置(カメラ)の回転を使った補正方法について説明したが、映像入力装置の平行移動により誤差を補正する方法なども使用可能である。また、複数の特徴点を使った補正方法でも同様の効果が得られるが、説明は省略する。
次に、第2実施形態のシステムにおける情報処理装置400の構成図と処理の流れについて、図8及び図9を参照して説明する。図8に示すように、第2実施形態では、映像キャプチャ部401L、Rによって得られた画像データからマーカを検出するためのマーカ検出部410が設けられている。そして、マーカ検出部400によるマーカの検出結果、すなわち図7における点Qの座標値が位置・姿勢算出部405に送られる。位置・姿勢算出部405では、この点Qの座標値を用いて、図7を参照して説明したように位置・姿勢を補正する。その他の構成は第1実施形態(図3)と同じである。
第2実施形態による処理の流れを図9を使って説明する。なお、第1実施形態(図4)と同じ処理には同じ参照番号を付してある。
処理1110において3Dソリッドデータより光造形などのラピッド・タイピング装置で作成した簡易試作物300に対して、マーカを添付する(1120)。さらに、マーカを添付した位置情報を記録する(1130)。なお、マーカの位置情報は、別途計測装置を用いて計測した3次元情報を用いればよい。また、特徴点を用いる場合は、当該特徴点の位置をCADデータから取得することが可能である。更に、マーカの添付位置を指示するようなマークを簡易試作物上に形成するようにCADデータを生成すれば、CADデータからマーカの位置情報を取得することも可能である。
一方、複合現実感システムの処理では、処理3010において現実空間の映像データを情報処理装置400内に取り込んだ後、マーカ検出部410にて、現実空間の映像データ中より簡易試作物300に添付されたマーカの位置を抽出する(3011)。あらかじめ処理1130で記録したマーカ位置情報と、処理3011で映像データ中より抽出されたマーカ位置とを用いて、位置・姿勢計測装置205の計測結果に基づいて処理2030で算出したHMD100と簡易試作物300との相対的な位置・姿勢関係を補正する(2031)。そして、処理2040では、補正後のデータを用いてCGの描画を行う。
<第3実施形態>
上記第1、第2実施形態において、映像合成部402では、現実空間の映像データに、仮想空間の映像(CG映像)を重畳(上書き)することで合成映像を生成している。この場合には、本来CG映像より手前にあるべきはずのものも、CG映像で上書きされてしまうため、CG映像と現実物体との奥行き感に矛盾が生じる場合がある。これを、図10を参照して詳しく説明する。
図10(a)は映像入力装置102より入力された現実空間の映像データの一例であり、簡易試作物を観察者の手で保持している映像である。手の一部(親指あたり)が簡易試作物の手前に存在している。この映像に、簡易試作物に対応するCG映像を重畳すると、図10(b)のような合成映像となる。すなわち簡易試作物よりも手前にあるはずの手の一部が、CG映像により隠れてしまい、奥行き感に矛盾が発生し、観察者にとって違和感のある映像となる。
そこで、第3実施形態の複合現実感システムでは、情報処理装置400内に取り込んでいる現実空間の映像データを用いて、画像処理により上記のような奥行き感の矛盾を解消する。すなわち、映像入力装置102から得られた映像データ(図10(a))より画像処理を用いて手の領域のみを抽出する。抽出された手の領域からマスク画像(図10(c))を生成し、このマスク画像で指定された手領域以外の領域に関してCG映像を生成し、現実空間の映像に重畳する。このようにすることで手の領域が簡易試作物よりも手前に表示されることになり、奥行き感の違和感が解消される。
以上のような第3実施形態のシステムの構成と処理の流れを、図11及び図12を用いて説明する。図11に示すように、第3実施形態では、第1実施形態(図3)の構成に手領域抽出部420と手色情報登録データ421が加えられている。手領域抽出部420は、映像キャプチャ部401L、Rによって得られた画像データから手色情報登録データ421に登録された色の領域を手領域として抽出する。CGレンダリング部407は、手領域抽出部420で抽出された手領域部分に対してCG画像の描画を禁止する。その他は、第1実施形態(図3)と同じである。
図12は第3実施形態による処理の流れを説明する図である。第1実施形態(図4)の処理に、処理5010と5020が追加されている。
処理3010において情報処理装置400の映像キャプチャ部401より現実空間の映像データが取り込まれると、手領域抽出部420は、各画素の色情報を、手色情報登録データ421にあらかじめ登録してある手領域の色情報と比較する。そして、手領域の色情報に一致した場合、その画素の色は人間の肌の色であると判断され、当該画素は手領域であると判断される(5010)。すべての画素について手の領域であるかどうかの判断を行い、手の領域と判断された画素のみを抽出して、ビデオバッファなどのメモリに手領域のデータのみを記録することにより、マスク画像が生成される(5020)。CGレンダリング部407では、処理5020で生成したマスク画像でマスクされた領域のCG映像を生成し(2040)、映像合成部403において、現実空間の映像データに、2040で生成したCG映像を重畳する(4011)。
このように合成映像を生成することで、本来CGデータよりも手前にあるべき現実空間の映像を、CGデータよりも手前に表示することが可能となり、奥行き感における違和感が解消される。
<第4実施形態>
第1〜第3実施形態では、3DCADデータに基づいて生成されるCGの明るさや色調は、3DCADデータが含む光源情報等に基づいて決定されている。しかしながら、CADデータの光源情報は必ずしも現実空間に適したものではない。たとえば、現実空間が暗い場合には、CGの明るさも暗めに落とさないと、CGが現実空間中に浮き上がってしまい、自然な合成映像とはならない。そこで、第4実施形態では、現実空間の映像にCGを重畳する場合に、情報処理装置400内に取り込んだ現実空間の映像データに基づいてCG描画のための各種パラメータを設定する。こうすることにより、CGの明るさ、色調などを、現実空間の環境に合わせ、違和感の少ない合成映像を生成可能とする。以下、第4実施形態における構成と処理の流れを、図13、図14を参照して説明する。
図13に示すように、第4実施形態では、第1実施形態(図3)の構成にCGパラメータ抽出部430が加えられている。また、図14に示すように、第4実施形態の処理では、第1実施形態の処理にCGパラメータ設定処理3012が加えられている。CGパラメータ抽出部430は、映像キャプチャ部401L、Rを通して入力された現実空間の映像データより、現実空間の環境を把握し、CGを描画する際の明るさ、色調などのパラメータを設定する(3012)。そして、CGレンダリング部407では、CGパラメータ抽出部430より取得されたパラメータと、3DCGデータとに基づいてCGを描画し(2040)、映像合成部402において現実空間の映像データに重畳する(420)。
CGを描画する際の明るさ、色調などのパラメータの設定とは、具体的には、CGデータの属性の値の変更である。例えば、CGデータをレンダリングする場合に、その物体にどこから、どのような照明があたっているかを設定する必要がある(仮想空間のライトのパラメータの設定)。このとき、CG物体の材質、CG物体に照射する光源の位置、強さ、色などのパラメータを設定することで、CGを描画する際の明るさ、色調などを調整することができる。また、MRの場合には、入力された現実空間の明るさに合わせて、CGの明るさを調整する必要がある。たとえば、現実空間が暗めであれば、CG物体も暗めの設定をすることになる。このバランスが悪いと、CG物体だけが際立って表示されたり、逆の場合はCGが沈んでしまったりする。本実施形態では、現実空間映像をビデオ映像として取り込んでいるので、たとえば取り込んだ映像の明るさや色調の平均を求めて(あるいは、ある定められた領域の明るさや色調でもよい)、その値にあわせて上述のライティングパラメータを調整することで、CGを描画する際の明るさ、色調等を調整する。
このように、第4実施形態によれば、CGレンダリング時のパラメータを現実空間のデータより抽出することが可能であり、現実空間の環境に合った合成映像の生成が可能となる。
<第5実施形態>
映像入力装置102より入力される現実空間の映像は、撮像系プリズム104を通して入力されるため、光学的な歪を含む可能性がある。たとえば、図15において、(a)は実際の現実空間中に置かれた簡易試作物300である。この簡易試作物300を、(b)に示すような歪み量を有した撮像系プリズム104を通すと、図15の(c)のように歪んだ物体として映像入力装置より入力される。この映像にCGを重畳すると、図15(d)のように現実空間中の簡易試作物とCG映像が重ならず、違和感の大きい合成映像となってしまう。
第5実施形態による複合現実感システムでは、情報処理装置400内に取り込んだ現実空間の映像データの歪みを画像処理で取り除き、より違和感の少ない合成映像を提供可能とする。第5実施形態による情報処理装置400の構成と処理の流れについて図16、図17を参照して説明する。
図16に示すように、第5実施形態では、第1実施形態(図3)の構成に現実空間映像歪補正部440と歪量データ441が加えられている。また、図17に示すように、第5実施形態の処理では、第1実施形態の処理(図4)に歪補正処理3013が加えられている。
現実空間映像歪補正部440は現実空間の映像データの歪みを補正するものであり、あらかじめ計測して保持された映像入力系における歪量データ441を用いて、映像キャプチャ部401L、Rより入力した映像データを補正する(3013)。これにより、現実空間中の簡易試作物と、CGが正確に重なるので、観察者は自然な合成映像を観察することができる。すなわち、現実空間を映像データとしてシステムに取り込み、現実空間の映像を、仮想空間の映像(CG)を合成するのに適した映像に変換処理するので、観察者にとってより自然な複合現実感映像が生成できる。
なお、上記で説明した各実施形態は独立に実現可能なものであるし、あるいは適宜組み合わせて実現することも可能でる。
以上説明したように、上記各実施形態の複合現実感システムでは、3次元CADのデータよりラピッド・プロトタイピング装置などで作成した簡易試作物(簡易モックアップ)に、同じ3次元CADのデータを変換して作成した3D−CGデータを、複合現実感システムを使って位置・姿勢方向を一致させて重ね合わせ、表示することができる。このため、視覚的な評価と触覚的な評価を同時に実現し、より完成品に近い状態での評価が可能となる。さらに、現実空間を映像データとしてシステムに取り込むので、現実空間の映像を、仮想空間の映像を合成するのに適した映像に変換処理することが可能であり、観察者にとって違和感の少ない映像を生成できる。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
第1実施形態による複合現実感ステムの概略構成を示す図である。 頭部装着型映像入出力装置(HMD)の構成を示す図である。 第1実施形態による情報処理装置の構成を示すブロック図である。 第1実施形態の情報処理装置による処理の流れを示す図である。 第1実施形態による処理結果を説明する図である。 第2実施形態における、簡易試作物へ添付されるマーカの例を示す図である。 特徴点による位置・姿勢計測の補正を説明する図である。 第2実施形態による情報処理装置の構成を示すブロック図である。 第2実施形態の情報処理装置による処理の流れを示す図である。 手領域の抽出によるCG画像の補正方法を説明する図である。 第3実施形態による情報処理装置の構成を示すブロック図である。 第3実施形態の情報処理装置による処理の流れを示す図である。 第4実施形態による情報処理装置の構成を示すブロック図である。 第4実施形態の情報処理装置による処理の流れを示す図である。 映像入力系の歪みの影響を説明する図である。 第5実施形態による情報処理装置の構成を示すブロック図である。 第5実施形態の情報処理装置による処理の流れを示す図である。

Claims (5)

  1. 任意視点における現実空間の映像情報に仮想空間の映像情報を重畳し、観察者に提示する画像表示装置による画像表示方法であって、
    撮像手段が、現実空間の映像情報を撮像装置により取り込む撮像工程と、
    計測手段が、前記撮像装置と、マーカの添付位置を指示するマークを有する3次元CADデータとしてのソリッドデータに基づいて作成された模型との位置及び姿勢を計測し、前記撮像工程によって得られる映像中の該模型の位置及び姿勢を示す位置/姿勢情報を取得する計測工程と、
    変換手段が、前記ソリッドデータを3次元コンピュータグラフィック画像用のデータに変化する変換工程と、
    合成手段が、前記位置/姿勢情報に基づいて、前記撮像工程で得られた映像中の前記模型に重なるように前記変換工程で得られた3次元コンピュータグラフィック画像用のデータを描画して、該映像と該3次元コンピュータグラフィック画像を合成する合成工程と
    特徴点抽出手段が、前記撮像工程で得られた映像より、前記模型上のマーカを抽出する特徴点抽出工程とを備え
    前記計測工程では、前記撮像工程で得られた映像における前記模型と前記撮像装置の相対的な位置/姿勢情報を、前記特徴点抽出工程で抽出された前記マーカの映像上の位置と前記模型上のマークに対応する前記3次元CADデータが有する前記マーカの添付位置の情報とに基づいて補正することを特徴とする画像表示方法。
  2. 領域抽出手段が、前記撮像工程によって得られた映像より、所定の色情報を含む領域を抽出する領域抽出工程を更に備え、
    前記合成工程は、前記領域抽出工程で抽出された領域への前記3次元コンピュータグラフィック画像の描画を禁止することを特徴とする請求項1に記載の画像表示方法。
  3. パラメータ生成手段が、前記撮像工程によって得られた映像に基づいて3次元コンピュータグラフィック画像のための描画パラメータを生成するパラメータ生成工程を更に備え、
    前記合成工程は、前記生成工程で生成された描画パラメータを用いて前記3次元コンピュータグラフィック画像を描画することを特徴とする請求項1に記載の画像表示方法。
  4. 映像補正手段が、あらかじめ保持された、前記撮像装置の歪み量に基づいて、前記撮像工程で取得された現実空間の映像情報を補正する映像補正工程を更に備えることを特徴とする請求項1に記載の画像表示方法。
  5. 任意視点における現実空間の映像情報に仮想空間の映像情報を重畳し、観察者に提示する画像表示装置であって、
    現実空間の映像情報を取り込む撮像手段と、
    前記撮像手段と、マーカの添付位置を指示するマークを有する3次元CADデータとしてのソリッドデータに基づいて作成された模型との位置及び姿勢を計測し、前記撮像手段によって得られる映像中の該模型の位置及び姿勢を示す位置/姿勢情報を取得する計測手段と、
    前記ソリッドデータを3次元コンピュータグラフィック画像用のデータに変化する変換手段と、
    前記位置/姿勢情報に基づいて、前記撮像手段によって得られた映像中の前記模型に重なるように前記変換手段で得られた3次元コンピュータグラフィック画像用のデータを描画することにより、該映像と該3次元コンピュータグラフィック画像を合成する合成手段と
    前記撮像手段により得られた映像より、前記模型上のマーカを抽出する特徴点抽出手段とを備え
    前記計測手段は、前記撮像手段で得られた映像における前記模型と前記撮像手段の相対的な位置/姿勢情報を、前記特徴点抽出手段により抽出された前記マーカの映像上の位置と前記模型上のマークに対応する前記3次元CADデータが有する前記マーカの添付位置の情報とに基づいて補正することを特徴とする画像表示装置。
JP2003341628A 2003-09-30 2003-09-30 画像表示装置及び方法 Expired - Fee Related JP4401727B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003341628A JP4401727B2 (ja) 2003-09-30 2003-09-30 画像表示装置及び方法
US10/945,994 US7312795B2 (en) 2003-09-30 2004-09-22 Image display apparatus and method
CNB2004100806635A CN1320423C (zh) 2003-09-30 2004-09-29 图像显示装置和方法
EP04255986.4A EP1521482B1 (en) 2003-09-30 2004-09-29 Image display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003341628A JP4401727B2 (ja) 2003-09-30 2003-09-30 画像表示装置及び方法

Publications (2)

Publication Number Publication Date
JP2005107970A JP2005107970A (ja) 2005-04-21
JP4401727B2 true JP4401727B2 (ja) 2010-01-20

Family

ID=34309072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003341628A Expired - Fee Related JP4401727B2 (ja) 2003-09-30 2003-09-30 画像表示装置及び方法

Country Status (4)

Country Link
US (1) US7312795B2 (ja)
EP (1) EP1521482B1 (ja)
JP (1) JP4401727B2 (ja)
CN (1) CN1320423C (ja)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3991020B2 (ja) * 2003-09-30 2007-10-17 キヤノン株式会社 画像表示方法及び画像表示システム
JP4708752B2 (ja) * 2004-09-28 2011-06-22 キヤノン株式会社 情報処理方法および装置
JP4661512B2 (ja) * 2004-11-05 2011-03-30 株式会社日立製作所 遠隔メンテナンスシステム,モニタリングセンター計算機及びメンテナンス指示方法
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US7535498B2 (en) * 2005-01-03 2009-05-19 Cnoga Medical Ltd. Electronic viewing device
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
DE602005013752D1 (de) * 2005-05-03 2009-05-20 Seac02 S R L Augmented-Reality-System mit Identifizierung der realen Markierung des Objekts
JP2006318015A (ja) * 2005-05-10 2006-11-24 Sony Corp 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
JP4832013B2 (ja) * 2005-07-05 2011-12-07 富士フイルム株式会社 像振れ補正装置
JP4574473B2 (ja) 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
FR2889753A1 (fr) 2005-08-09 2007-02-16 Total Immersion Sa Systeme permettant a un utilisateur de visualiser un cockpit virtuel dans un environnement video
FR2889754A1 (fr) * 2005-08-09 2007-02-16 Total Immersion Sa Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile
US7551179B2 (en) * 2005-08-10 2009-06-23 Seiko Epson Corporation Image display apparatus and image adjusting method
JP4717728B2 (ja) 2005-08-29 2011-07-06 キヤノン株式会社 ステレオ表示装置及びその制御方法
US7487116B2 (en) 2005-12-01 2009-02-03 International Business Machines Corporation Consumer representation rendering with selected merchandise
JP4795091B2 (ja) 2006-04-21 2011-10-19 キヤノン株式会社 情報処理方法および装置
EP1865455A1 (en) * 2006-06-07 2007-12-12 Seac02 S.r.l. A virtual advertising system
EP1887526A1 (en) * 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
JP4926826B2 (ja) * 2007-05-25 2012-05-09 キヤノン株式会社 情報処理方法および情報処理装置
DE102007033486B4 (de) * 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
JP4600515B2 (ja) * 2008-05-07 2010-12-15 ソニー株式会社 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
JP2011085769A (ja) * 2009-10-15 2011-04-28 Canon Inc 撮像表示装置
US8363919B2 (en) * 2009-11-25 2013-01-29 Imaging Sciences International Llc Marker identification and processing in x-ray images
US9082036B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Method for accurate sub-pixel localization of markers on X-ray images
US9826942B2 (en) * 2009-11-25 2017-11-28 Dental Imaging Technologies Corporation Correcting and reconstructing x-ray images using patient motion vectors extracted from marker positions in x-ray images
CN101719274B (zh) * 2009-11-25 2011-11-02 中国人民解放军第四军医大学 一种医学影像体数据的三维纹理分析方法
US9082182B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Extracting patient motion vectors from marker positions in x-ray images
US9082177B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Method for tracking X-ray markers in serial CT projection images
US8422852B2 (en) 2010-04-09 2013-04-16 Microsoft Corporation Automated story generation
JP5377768B2 (ja) * 2010-06-30 2013-12-25 富士フイルム株式会社 画像処理方法及び装置
JP5574854B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP5658500B2 (ja) 2010-07-26 2015-01-28 キヤノン株式会社 情報処理装置及びその制御方法
JP5646263B2 (ja) * 2010-09-27 2014-12-24 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
KR101269773B1 (ko) * 2010-12-13 2013-05-30 주식회사 팬택 증강 현실 제공 단말기 및 방법
WO2012124250A1 (ja) * 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
EP2512141B1 (en) 2011-04-15 2019-07-17 Sony Interactive Entertainment Europe Limited System and method of user interaction in augmented reality
JP5145444B2 (ja) * 2011-06-27 2013-02-20 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9576402B2 (en) * 2011-11-08 2017-02-21 Panasonic Intellectual Property Management Co., Ltd. Image processing device and image processing method
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP6041604B2 (ja) * 2012-09-27 2016-12-14 京セラ株式会社 表示装置、制御システムおよび制御プログラム
JP6021568B2 (ja) * 2012-10-02 2016-11-09 任天堂株式会社 画像処理用プログラム、画像処理装置、画像処理システム、および画像処理方法
US9508146B2 (en) * 2012-10-31 2016-11-29 The Boeing Company Automated frame of reference calibration for augmented reality
US8761448B1 (en) 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
US9292103B2 (en) * 2013-03-13 2016-03-22 Intel Corporation Gesture pre-processing of video stream using skintone detection
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103353667B (zh) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
FR3008210B1 (fr) * 2013-07-03 2016-12-09 Snecma Procede et systeme de realite augmentee pour la supervision
TW201502581A (zh) * 2013-07-11 2015-01-16 Seiko Epson Corp 頭部配戴型顯示裝置及頭部配戴型顯示裝置之控制方法
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测系统及方法
CN103431980A (zh) 2013-08-22 2013-12-11 北京智谷睿拓技术服务有限公司 视力保护成像系统及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
CN103605208B (zh) * 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
US9858720B2 (en) * 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9914222B2 (en) 2015-02-05 2018-03-13 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
CN105068649A (zh) * 2015-08-12 2015-11-18 深圳市埃微信息技术有限公司 基于虚拟现实头盔的双目手势识别装置及方法
US10535193B2 (en) * 2015-09-08 2020-01-14 Canon Kabushiki Kaisha Image processing apparatus, image synthesizing apparatus, image processing system, image processing method, and storage medium
CN109477966B (zh) 2016-02-18 2022-06-03 苹果公司 具有内-外位置跟踪、用户身体跟踪和环境跟踪的用于虚拟现实和混合现实的头戴式显示器
US10254546B2 (en) 2016-06-06 2019-04-09 Microsoft Technology Licensing, Llc Optically augmenting electromagnetic tracking in mixed reality
US20170352184A1 (en) * 2016-06-06 2017-12-07 Adam G. Poulos Optically augmenting electromagnetic tracking in mixed reality
JP6470323B2 (ja) 2017-01-23 2019-02-13 ファナック株式会社 情報表示システム
DE112018005075T5 (de) * 2017-10-30 2020-08-06 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US11899214B1 (en) 2018-09-18 2024-02-13 Apple Inc. Head-mounted device with virtually shifted component locations using a double-folded light path

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL119831A (en) * 1996-12-15 2002-12-01 Cognitens Ltd A device and method for three-dimensional reconstruction of the surface geometry of an object
JP3450704B2 (ja) 1997-09-01 2003-09-29 キヤノン株式会社 位置姿勢検出装置及び情報処理方法
US6522312B2 (en) 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
EP1060772B1 (en) * 1999-06-11 2012-02-01 Canon Kabushiki Kaisha Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US6803928B2 (en) * 2000-06-06 2004-10-12 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Extended virtual table: an optical extension for table-like projection systems
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
JP2005501630A (ja) * 2001-09-05 2005-01-20 ギブン・イメージング・リミテッド 身体管腔の3次元表示のためのシステムおよび方法
US20030076980A1 (en) * 2001-10-04 2003-04-24 Siemens Corporate Research, Inc.. Coded visual markers for tracking and camera calibration in mobile computing systems
JP4004316B2 (ja) 2002-03-20 2007-11-07 株式会社トプコン 測量装置及び測量装置を用いて画像データを取得する方法
JP4445182B2 (ja) 2002-03-29 2010-04-07 パイオニア株式会社 スピーカ装置
CN100398083C (zh) 2002-08-30 2008-07-02 延自强 虚拟现实针灸穴位定位方法及系统

Also Published As

Publication number Publication date
EP1521482A2 (en) 2005-04-06
US7312795B2 (en) 2007-12-25
US20050068314A1 (en) 2005-03-31
EP1521482A3 (en) 2015-06-03
CN1604014A (zh) 2005-04-06
JP2005107970A (ja) 2005-04-21
CN1320423C (zh) 2007-06-06
EP1521482B1 (en) 2019-09-18

Similar Documents

Publication Publication Date Title
JP4401727B2 (ja) 画像表示装置及び方法
JP3991020B2 (ja) 画像表示方法及び画像表示システム
JP4434890B2 (ja) 画像合成方法及び装置
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP4677273B2 (ja) 情報処理方法および情報処理装置
JP4739002B2 (ja) 画像処理方法、画像処理装置
JP5025496B2 (ja) 画像処理装置及び画像処理方法
US20170109934A1 (en) Augmented reality providing system and method, information processing device, and program
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2002163670A (ja) 複合現実感提示装置及びその制御方法
JP2014106543A (ja) 画像処理装置、画像処理方法及びプログラム
JP2008033531A (ja) 情報処理方法
JP2006285788A (ja) 複合現実感情報生成装置および方法
JP2005327204A (ja) 画像合成システムおよび画像合成方法、および画像合成装置
JP2006012042A (ja) 画像生成方法及び装置
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2005063041A (ja) 3次元モデリング装置、方法、及びプログラム
JP2006085375A (ja) 画像処理方法、画像処理装置
TW201616443A (zh) 即時影像合成裝置、方法與電腦程式產品
JP7465133B2 (ja) 情報処理装置、情報処理方法
JP2002056407A (ja) 画像生成システム
JP2006277350A (ja) 情報処理方法、情報処理装置
JP2005165974A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091013

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091028

R150 Certificate of patent or registration of utility model

Ref document number: 4401727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees