JP3991020B2 - 画像表示方法及び画像表示システム - Google Patents

画像表示方法及び画像表示システム Download PDF

Info

Publication number
JP3991020B2
JP3991020B2 JP2003341627A JP2003341627A JP3991020B2 JP 3991020 B2 JP3991020 B2 JP 3991020B2 JP 2003341627 A JP2003341627 A JP 2003341627A JP 2003341627 A JP2003341627 A JP 2003341627A JP 3991020 B2 JP3991020 B2 JP 3991020B2
Authority
JP
Japan
Prior art keywords
image
color
simple model
real
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003341627A
Other languages
English (en)
Other versions
JP2005107969A (ja
JP2005107969A5 (ja
Inventor
隆明 遠藤
真和 藤木
剛 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003341627A priority Critical patent/JP3991020B2/ja
Priority to DE602004008001T priority patent/DE602004008001T2/de
Priority to EP04255922A priority patent/EP1521215B1/en
Priority to CNB200410080657XA priority patent/CN1304930C/zh
Priority to US10/953,935 priority patent/US7397481B2/en
Publication of JP2005107969A publication Critical patent/JP2005107969A/ja
Publication of JP2005107969A5 publication Critical patent/JP2005107969A5/ja
Application granted granted Critical
Publication of JP3991020B2 publication Critical patent/JP3991020B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、任意視点における現実空間の映像情報に、仮想空間の映像情報を重畳し、観察者に提示する複合現実感システムにおける画像表示装置及び画像表示方法に関する。
複合現実感システムとは、現実空間映像と、ユーザの視点位置、視線方向等に応じて生成される仮想空間映像とを合成することにより得られる合成映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である(特許文献1参照)。
一方、従来、設計・製造分野において3次元CADを使った設計(形状、デザイン)が主流になってきている。3次元CADで設計された物体を評価する方法としては、3次元CADで作成されたデータ(ソリッド形式)を3次元コンピュータグラフィックス(以下、3D−CG)として計算機の画面上に表示して視覚的に評価する方法や、ラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を作成し、視覚に加えて触覚的に評価する方法などが主流である。
特開平11−136706号公報
しかし、3次元CADデータを3D−CGとして計算機の画面上に表示する方法では、仮想空間内での評価となり、現実空間内での実寸感覚で物体の評価をすることができない。また、ラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を作成する方法は、加工精度、素材などの制約により、おおまかな形状を把握するのには有効であるが、デザインや形状の詳細、色彩など、3D−CAD上で設計した詳細な情報が再現されるものではない。したがって、より完成品に近い状況で、設計データを評価する方法が求められている。
本発明は上記の課題に鑑みてなされたものであり、簡易的に試作された模型を用いながら、完成品に近い形で設計評価を可能とすることを目的とする。
上記の目的を達成するための本発明による画像表示方法は、
任意視点における現実空間の現実画像に仮想空間の画像情報を重畳し、観察者に提示する画像表示装置の画像表示方法であって、
入力手段が、CADデータに基づいて簡易的に作成された簡易模型を含む現実空間の画像情報を撮像デバイスによって撮像することにより得られた現実画像を取り込む入力工程と、
計測手段が、前記撮像デバイス及び前記簡易模型の位置及び姿勢を計測し、前記現実画像中の前記簡易模型の位置及び姿勢を示す位置/姿勢情報を取得する計測工程と、
抽出手段が、前記現実画像より、色情報記憶手段に記憶された所定の色を含む領域を抽出する領域抽出工程と、
合成手段が、前記位置/姿勢情報と前記CADデータとに基づいて、前記領域抽出工程で抽出された領域以外の、前記現実画像中の前記簡易模型の部分にコンピュータグラフィック画像を描画して、前記現実画像と前記コンピュータグラフィック画像を合成する合成工程とを備え、
前記簡易模型が、前記色情報記憶手段に記憶されている前記所定の色とは異なる色で着色されている。
また、本発明の画像処理システムは
任意視点における現実空間の現実画像に仮想空間の画像情報を重畳し、観察者に提示する画像表示システムであって、
CADデータに基づいて簡易的に作成された簡易模型を含む現実空間の画像情報を撮像デバイスにより撮影することにより得られた現実画像を取り込む入力手段と、
前記撮像デバイス及び前記簡易模型の位置及び姿勢を計測し、前記現実画像中の該簡易模型の位置及び姿勢を示す位置/姿勢情報を取得する計測手段と、
前記現実画像より、色情報記憶手段に記憶された所定の色を含む領域を抽出する領域抽出手段と、
前記位置/姿勢情報と前記CADデータとに基づいて、前記領域抽出手段で抽出された領域以外の、前記現実画像中の前記簡易模型の部分にコンピュータグラフィック画像を描画して、前記現実画像と前記コンピュータグラフィック画像を合成する合成手段とを備え、
前記簡易模型が、前記色情報記憶手段に記憶されている前記所定の色とは異なる色で着色されている。
上記の構成によれば、簡易的に試作された模型を用いながら、完成品に近い設計評価をすることが可能となる。
以下、添付図面に従って、本発明の好適な実施形態について説明する。
以下に説明する本実施形態の複合現実感システムでは、3次元CADのデータよりラピッド・プロトタイピング装置で作成した簡易試作物(簡易モックアップ)に、同じ3次元CADのデータを変換して作成した3次元CG(3D−CG)データを、複合現実感システムを使って位置・姿勢方向を一致させて重ね合わせ、表示する。これにより、視覚的な評価と触覚的な評価を同時に実現し、より完成品に近い状態での評価を可能とする。さらに、3D−CADで生成された3次元データより簡易試作物を作成する際に、簡易試作物の色や形状などに処理を施すことによって、重ね合わせ処理の準備を容易に行うものである。
<第1実施形態>
第1実施形態では、3D−CADで生成された3次元データに基づいて作成された簡易試作物(簡易モックアップ)やその背景の色を工夫することにより、簡易試作物に3DCGデータを重ね合わせて表示する際の、体験者の手に相当する部分の抽出を容易とした複合現実感システムを説明する。
第1実施形態によるシステム構成を図1に示す。
図1において、100は観察者が頭部に装着して現実空間と仮想空間を合成した映像を観察するための頭部装着型映像入出力装置(頭部装着型ディスプレイ(Head Mounted Display)などと呼ばれる。以下、HMDと称する)である。また、200は磁場を発生させる磁気トランスミッタ、201、202は磁気トランスミッタ200が発生させた磁場の変化を計測するための磁気センサである。205は位置・姿勢計測装置であり、磁気センサ201、202の計測結果より、各磁気センサの位置・姿勢を計測する。磁気センサ201はHMD100に取り付けられており、観察者の視点位置、視線方向を算出するのに用いられる。300は観察者が手で保持、操作する操作手段としての簡易試作物(簡易モックアップ)である。簡易試作物300には、HMD100と同様に磁気センサ202が組み込まれている。位置・姿勢計測装置205は、磁気センサ202の計測結果に基づいて、簡易試作物300の位置・姿勢を算出する。301は簡易試作物を観察するための台である。
101はHMD100に組み込まれている映像表示装置、102はHMD100に組み込まれている映像入力装置であり、それぞれ右目、左目用に2セットずつ組み込まれている。400は情報処理装置であって、位置・姿勢計測装置205により算出した位置・姿勢情報に合わせたCG映像を生成し、HMD100の映像入力装置102より入力した映像に重畳し、得られた合成映像をHMD100の映像表示装置101に向けて出力するものである。
次に、HMD100の具体的な構成について図2を参照して説明する。図2において101は図1でも示されている映像表示装置であり、0.5〜数インチ程度の小型の液晶表示デバイス等で構成される。103は、映像表示装置101の映像を拡大するレンズの役目を果たす自由曲面プリズムである。これらの構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先に90インチ相当の映像として提示される。
102は図1にも示されている映像入力装置であり、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。104は現実空間の光を映像入力装置102に収束させるためのレンズの役目をはたす撮像系プリズムである。撮像系プリズム104は自由曲面プリズム103の外側に、両プリズムにおける光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することを可能としている。
次に、図1における情報処理装置400の具体的な構成について、図3を使って説明する。
401L、Rは映像キャプチャ部であり、映像入力装置102より入力した映像データを取り込み、デジタル信号として情報処理装置400内に提供する。404は位置・姿勢情報入力部であり、位置・姿勢計測装置205より送られるHMD100と簡易試作物300の位置・姿勢データを情報処理装置400内に取り込む。405は位置・姿勢算出部であり、位置・姿勢入力部404からの入力データをもとに、HMD100と簡易試作物300の相対的な位置関係を算出する。
406は簡易試作物300に重畳させるための3DCG描画データである。407はCGレンダリング部であり、位置・姿勢算出部405で算出したHMD100と簡易試作物300の相対的な位置関係に基づいて、CGデータを描画させるべき位置、大きさ、角度(パース)などを計算し、その計算結果に基づいて3DCG描画用データ406をレンダリングする。
402L、Rは映像合成部であり、映像キャプチャ部401L、Rで取り込んだ現実空間の映像データに、CGレンダリング部407で生成したCG映像を重畳する。403L、Rは映像生成部であり、合成した映像をアナログデータに変換し、映像表示装置101に出力する。
420は、映像キャプチャ部401L、Rで取り込んだ現実空間の映像データから、手色情報登録データ421に基づいて、手の領域を抽出してマスク画像を生成する手領域抽出部である。ここで、手領域抽出部420の処理例について、図4を参照してより詳細に説明する。
映像合成部402では、現実空間の映像データに、仮想空間の映像(CG映像)を重畳(上書き)することで合成映像を生成している。この場合には、本来CG映像より手前にあるべきはずのものも、CG映像で上書きされてしまうため、CG映像と現実物体との奥行き感に矛盾が生じる場合がある。
図4(a)は映像入力装置102より入力された現実空間の映像データの一例であり、簡易試作物を観察者の手で保持している映像である。手の一部(親指あたり)が簡易試作物の手前に存在している。この映像に、簡易試作物に対応するCG映像を重畳すると、図4(b)のような合成映像となる。すなわち簡易試作物よりも手前にあるはずの手の一部が、CG映像により隠れてしまい、奥行き感に矛盾が発生し、観察者にとって違和感のある映像となる。
そこで、第1実施形態の複合現実感システムでは、情報処理装置400内に取り込んでいる現実空間の映像データを用いて、画像処理により、上記のような奥行き感の矛盾を解消する。すなわち、映像入力装置102から得られた映像データ(図4(a))より画像処理を用いて手の領域のみを抽出する。抽出された手の領域からマスク画像(図4(c))を生成し、このマスク画像で指定された手領域以外の領域に関してCG映像を生成し、現実空間の映像に重畳する。このようにすることで手の領域が簡易試作物よりも手前に表示されることになり、奥行き感の違和感が解消される。
ここで、本実施形態では、簡易試作物300を体験者が手で保持した場合に、現実空間の映像情報から手に相当する部分を信頼度高く抽出するために、簡易試作物300を手とは色相が大きく異なる色、たとえば青色で塗装する。また、現実空間の映像情報には、体験者の手と簡易試作物の他に、簡易試作物の背景の現実物体(簡易試作物を載せる台301や周囲の衝立など)も含まれる。そこで本実施形態では、現実空間の映像情報から手に相当する部分をさらに信頼度高く抽出するために、簡易試作物の背景の現実物体を手とは色相が大きく異なる色とする。たとえば緑色で塗装したり、緑色の布や紙を貼ったりする。
更に、簡易試作物300とその背景の現実物体を略同一の色(たとえば青色)とすれば、デジタルデータとして入力された現実空間の映像情報から体験者の手に相当する部分を抽出するための、手色情報登録データ421の作成を、より容易に行うことができる。つまり、簡易試作物とその背景が別の色の場合には、色空間中のそれぞれの色の領域を考慮して抽出すべき手の色の領域を登録しなければならないのに対し、略同一の色である場合には、色空間中のその色の領域のみを考慮して抽出すべき手の色の領域を登録すればよい。この点についてさらに説明すれば次のとおりである。色の登録は色空間中での領域の指定によって行われるので、抽出すべき手の色の領域は背景色に応じて若干変化する。すなわち、背景色と手の色の色相が大きく異なる場合には抽出すべき手の色の領域は大まかに設定することができまるが、背景色と手の色の色相が近い場合には抽出すべき手の色の領域をより厳密に設定しなければならない。さもないと、背景色(の一部)も手の色として抽出されてしまうことになる。したがって、背景色と簡易試作物が略同一の色でない場合のほうが、両者の色が略同一である場合よりも抽出すべき手の色の領域をより厳密に設定しなければならなくなる。
なお、簡易試作物とその背景を略同一の色(たとえば青色)とする場合には、簡易試作物とその背景の現実物体との境界線(輪郭)が視覚的に目立たなくなるため、仮に簡易試作物とCGデータの重ね合わせ位置が若干ずれたとしても、そのずれが視覚的に目立たなくなるという効果も得られる。
上記構成による本実施形態の情報処理装置400における処理の流れを、図5を参照して説明する。まず、3D−CADのデータから簡易試作物300と3DCG描画用データ406を作成する手順を図5左側の処理手順で説明する。
通常3次元CADシステムを使って形状やデザインなどの設計業務を行う(1010)場合、設計データはそれぞれの3次元CADシステム固有のソリッドデータとして保存されるのが一般的である。簡易試作物300は、このソリッドデータより、光造形などのラピッド・プロトタイピング装置を使って作成する(1110)。一方、3Dソリッドデータは、各設計部品の幾何学的なパラメータの集合で表現されており、そのままではCGとして描画することはできない。そこで、3Dソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1210)。本実施形態の複合現実感システムでは、このように変換された3DCG描画用データ406を使って仮想空間を生成する。
次に、本実施形態における複合現実感システムの処理手順について、図5右側の処理手順で説明する。
まず、処理2010の前の処理(不図示)において簡易試作物300の初期位置・姿勢が実測される。たとえば簡易試作物を所定の位置に所定の姿勢で固定し、そのときのセンサの位置・姿勢の計測値を読み取り、計測値と所定値の差分を「センサの取り付けられた位置・姿勢」とする。磁気トランスミッタ200と磁気センサ202のデータ及び初期位置・姿勢を使って、位置・姿勢計測装置205は簡易試作物300の現実空間中における位置・姿勢を計測する(2010)。同様に、磁気トランスミッタ200と磁気センサ201のデータを使って、位置・姿勢計測装置205は観察者が装着しているHMD100の現実空間中における位置・姿勢を計測する(2020)。位置・姿勢計測装置205によって得られた計測データは、位置・姿勢情報入力部404を通して情報処理装置400に取り込まれる。そして、位置・姿勢算出部405においてHMD100と簡易試作物300との相対的な位置・姿勢関係が計算される(2030)。
一方、上記の処理2010、2020、2030と並行して、HMD装置100の映像入力装置101からの現実空間の映像を、映像キャプチャ部401を通して情報処理装置400に取り込む(3010)。
処理3010において情報処理装置400の映像キャプチャ部401より現実空間の映像データが取り込まれると、手領域抽出部420は、各画素の色情報を、手色情報登録データ421にあらかじめ登録してある手領域の色情報と比較する。そして、手領域の色情報に一致した場合、その画素の色は人間の肌の色であると判断され、当該画素は手領域であると判断される(5010)。すべての画素について手の領域であるかどうかの判断を行い、手の領域と判断された画素のみを抽出して、ビデオバッファなどのメモリに手領域のデータのみを記録することにより、マスク画像が生成される(5020)。
CGレンダリング部407では、処理2030で算出した相対的な位置関係と3DCG描画用データ406を用いてCGを描画し、ビデオバッファなどのメモリ(不図示)に展開する(2040)。このとき、上述したようにCGレンダリング部407は、マスク画像中の手領域にはCG画像を描画しないようにする。
一方、処理3010で取り込んだ現実空間の映像データもビデオバッファなどのメモリに展開する(3020)。映像合成部402L、Rは、上記の処理2040で生成したCG映像を、処理3020で展開した映像データに重畳する(4010)。合成された映像は、映像生成部403にてアナログ等のビデオ信号に変換され、HMD100の映像表示装置101に表示される(4020)。こうして合成された画像には、マスク画像中の手領域部分にCG画像が描画されないので図4(d)に示したような自然な奥行き感の画像が得られることになる。
上記2010から4020までの処理を映像表示装置101における映像更新間隔あるいはCG描画2040における更新間隔で繰り返し行うことで、リアルタイムに情報提示を行う。本実施形態による処理結果の例は、先に図4に示したとおりである。
なお、第1実施形態では、位置・姿勢を計測する手段として磁気を使った装置を例に説明したが、本発明はこれに限定されるものではなく、光学的な位置・姿勢計測装置など他の手段で実現できることはいうまでもない。
以上のように、第1実施形態によれば、3D−CADで生成された3次元データより作成された簡易試作物300に、同じ3次元データより作成された3DCGデータを重ね合わせて表示する際に、簡易試作物300や背景物体の色を映像中より抽出すべき所定領域の色(手領域の色)と異なる色(たとえば補色)とすることにより、更に好ましくは簡易試作物と背景物体の色を略同一にすることにより、領域抽出をより容易且つ確実に行なうことができる。すなわち、簡易試作物と3DCGデータを重ね合わせる処理の準備(手色情報登録データの登録作業)を容易に行うことができる。
<第2実施形態>
第1実施形態においては、磁気を利用した位置・姿勢計測を例に説明した。しかしながら、磁気を利用した位置・姿勢計測においては、環境により計測精度が不安定になる場合がある。たとえば磁気トランスミッタの近傍に金属物体が存在する場合には磁場が乱れ、磁気センサの出力する値が不安定になる。また、磁気トランスミッタと磁気センサの距離が遠くなるほど、計測精度が悪化するなどの問題がある。このような計測精度の問題は、磁気利用のセンサに限らず、種々の方式の計測装置において発生する。
そこで、第2実施形態の複合現実感システムでは、情報処理装置400内に取り込んでいる現実空間の映像データを用いて位置・姿勢を補正し、その計測精度を向上する。例えば、図6に示すように、簡易試作物300に画像認識用のマーカを添付し、これを特徴点として用いる。マーカとしては、位置・姿勢補正のアルゴリズムにより、形状マーカ301あるいは、色マーカ302など種々のものが考えられる。更に、第2実施形態では、簡易試作物300に目印を付加して、位置・姿勢補正用のマーカを添付する際の目安とすることにより、添付したマーカの位置情報を容易に求められるようにする。
ここで、マーカ(以下、特徴点という)を用いた位置・姿勢の補正方法について説明する。ここでは、一般的な補正方法として、映像入力部(カメラ)の外部パラメータを特徴点1点から補正する方法について説明する。なお、ここで特徴点とは、人工的に特定の色や形の情報をもったシール状のものなどを現実空間中の簡易試作物に貼り付けたマーカを用いても良いし、簡易試作物の形状の特徴的な部分を特徴点としても良い。
図14は映像入力装置(カメラ)の外部パラメータ(位置・姿勢をあらわすパラメータ)の一般的な補正方法を説明する模式図である。図14において、点Aは映像入力装置(カメラ)及び簡易試作装置300の位置・姿勢に基づいて予測される特徴点の位置、点Bはこの特徴点の実際の位置、点Cは映像入力装置(カメラ)視点の位置を表す。なおここでは、点A、点Bが示す位置はカメラ座標系における位置であって、点Cは映像入力装置(カメラ)座標系の原点である。また、点Pは撮像面上における点Aの位置、点Qは撮像面上における点Bの位置を示す。ここで、図14に示すように、点P、Qの座標を各々(xp,yp)、(xq,yq)、撮像面の幅、高さを各々w、h、カメラの焦点距離(撮像面から映像入力装置までの距離)をdとし、v1を点Cから点Qへのベクトル、v2を点Cから点Pへのベクトル、θをv1とv2のなす角度とする。
まず、特徴点1点を用いて姿勢をθだけ点B方向から点A方向に変化させる方法(映像入力装置の回転による補正方法)について説明する。
上記の設定から、v1、v2を求めると、各々の成分は以下の(1)式のようになる。
Figure 0003991020
次に、各々のベクトルを、以下の(2)式により大きさ1のベクトルに正規化する。なお、|v|は、ベクトルvの大きさをあらわす。
Figure 0003991020
ここで、映像入力装置(カメラ)を回転させる場合、その回転軸はベクトルv1、v2がなす平面と直行し、カメラ視点位置(点C)を通る直線となる。この回転軸の方向ベクトルは、(3)式に示すように、ベクトルv1、v2の外積により求めることができる(実際には正規化したもの(v1’、v2’)を用いる)。
Figure 0003991020
ここで、vxは回転軸の方向ベクトルであって、その成分を(l,m,n)とする。また、回転角θはベクトルv1、v2がなす角度なので、以下の(4)式のように求めることができる。
Figure 0003991020
よって、映像入力装置の回転による補正に用いる補正行列ΔMcは、以下の(5)式のように計算される。
Figure 0003991020
この補正行例を映像入力装置の位置・姿勢を示す行列にかけることで、映像入力装置の位置・姿勢が補正される。つまり、点Pが点Qの位置に表示され、撮像面上におけるランドマークの位置姿勢パラメータから予測される位置と実際の位置とが一致する。なお、上述の説明では、映像入力装置(カメラ)の回転を使った補正方法について説明したが、映像入力装置の平行移動により誤差を補正する方法なども使用可能である。また、複数の特徴点を使った補正方法でも同様の効果が得られるが、説明は省略する。
さて、マーカ添付のための目印は、たとえば、直交する直線群(図7(a))や、その交点を表す点群(図7(b))といった格子柄によって表すことができる。なお、交差する直線同士のなす角は、90度に限らず、たとえば60度などの任意の角度でもよい。また、マーカを添付する位置が予め正確に決められている場合には、その位置のみに目印を付加してもよい。
目印の付加方法としては、たとえば、パターンの描画、パターンの投影、凹凸形状の付加などが考えられる。なお、物体に予め目印となるようなパターン模様や形状が含まれている場合には、改めて目印を付加しなくてもよい。
付加した目印の位置情報は、レーザ測量機など用いて計測する。ここで、目印が図7に示すように平面上に格子状に規則的に並んでいる場合には、同一直線上にない3点の目印の位置情報さえ計測しておけば、全ての目印の位置情報を容易に算出することができる。たとえば、図8において、目印A、B、Cの位置情報がそれぞれXA=(xA,yA,zA)、XB=(xB,yB,zB)、XC=(xC,yC,zC)であるとすると、目印Dの位置情報は、
D=XA+3×(XB−XA)+4×(XC−XA) …(A)
によって求めることができる。
以上のように、その位置が既知である目印を付加しておき、この目印に基づいてマーカを添付することにより、図14で上述したような補正を実施することができ、また次のような利点が得られる。
(1)マーカが複数ある場合でも、「3点の目印みの計測」を行なっておけばよく、計測の回数が少なくて済む。
(2)マーカを貼り直した場合、マーカの位置は目印を目安に簡単に算出することができ、改めて計測をやり直す必要がない(レーザ計測器などを用いた計測には手間がかかる)。
なお、「目印の位置」、「マーカの位置」とは、簡易試作物に設定した座標系における目印及びマーカの位置である。
次に、第2実施形態による複合現実感システムの構成と処理の流れを、図9、図10を参照して説明する。なお、第1実施形態の構成(図3)及び処理(図5)と同じ要素には同一の参照番号を付し、それらの詳細な説明は省略する。
マーカ検出部410は、映像キャプチャ部401L、Rより入力される映像より、図6に示したマーカを検出し、その検出結果(マーカの位置等)を位置・姿勢算出部405へ送る。位置・姿勢算出部405は、マーカ検出部410からの検出結果と、位置・姿勢情報入力部404より入力される位置・姿勢情報に基づいて得られるマーカの位置とに基づき補正情報を生成する。そして、位置・姿勢情報入力部404より入力される位置・姿勢情報に基づいて算出された簡易試作物300の位置・姿勢を補正情報を用いて補正し、出力する。
3Dソリッドデータより光造形などのラピッド・プロトタイピング装置で作成した簡易試作物300に対して目印を付加し(1111)、その目印の位置をレーザ測量機などを用いて計測し、得られた目印位置情報を記録する(1112)。そして、付加した目印を目安としてマーカを添付する(1120)。さらに、目印位置情報を参考にして、マーカを添付した位置情報を算出し、記録する(1130)。例えば、図8のように付加された目印の位置にマーカが添付されれば、そのマーカの位置は上記の式(A)により算出することができる。
複合現実感システムの処理では、処理3010において現実空間の映像データを情報処理装置400内に取り込んだ後に、マーカ検出部410にて、現実空間の映像データ中より簡易試作物300に添付されたマーカの位置を抽出する(3011)。あらかじめ処理1130で記録したマーカ位置と、3011で映像データ中より抽出されたマーカ位置を用いて補正情報を算出し、位置・姿勢計測装置205より出力されて情報処理装置400に取り込まれた計測結果を算出した補正情報により補正し(2031)、補正後のデータを用いてCGの描画を行う(2040)。
なお、本実施形態では、簡易試作物に目印を付加してマーカを添付する際の目安としたが、これに限らず、簡易試作物の背景の現実物体(たとえば台など)に目印を付加してマーカを添付する際の目安としてもよい。また、簡易試作物とその背景の現実物体の両方に目印を付加してもよい。
以上のように、第2実施形態によれば、簡易試作物に目印を付加して、マーカを添付する際の目安とすることにより、添付したマーカの位置情報を容易に求めることができる。すなわち、簡易試作物と3DCGデータを重ね合わせる処理の準備(マーカ位置情報の登録)を容易に行うことができる。
<第3実施形態>
第3実施形態では、第2実施形態における簡易試作物(簡易モックアップ)への目印の付加を、簡易試作物の3D−CADデータに目印の形状データを付加することによって実現する。第3実施形態における処理の流れを図11を参照して説明する。なお、第2実施形態の処理(図10)と同じ処理については、同一の参照番号を付してある。また、第3実施形態における複合現実感システムの構成は、第2実施形態の構成(図9)と同じである。
まず、3次元CADシステム1010を使って、3D−CADソリッドデータに目印の形状データを付加し(1011)、その位置情報を記録する(1012)。すなわち、目印は、3D−CADシステム1010上で、3D−CADソリッドデータに形状データとして付加される。ここで、目印の形状データは、たとえば直交する複数の溝や、その交点を表す複数の小さな穴または突起で表すことができる(図7参照)。なお、交差する溝同士のなす角は、90度に限らず、たとえば60度などの任意の角度でもよい。もちろん、マーカを添付する位置が予め正確に決められている場合には、その位置のみに小さな穴や突起などの形状データを付加してもよい。ここで、目印の位置を指定するだけで、予め作成しておいた形状データが、指定した位置に自動的に付加されるような仕組みを、3D−CADシステム1010に組み込んでおいてもよい。
次に、3D造形物生成の処理1110で、光造形などのラピッド・プロトタイピング装置で、目印形状が付加された簡易試作物300を作成する。つまり、簡易試作物300の表面には、小さな溝や小さな穴または突起が付加されることになる。例えば、図7に示すような目印を有する簡易試作物300が作成される。そして、付加された目印形状を目安として、簡易試作物300にマーカを添付する(1120)。
簡易試作物300に添付したマーカの位置情報を3D−CADソリッドデータに付加した目印の形状データの位置情報(1012)を基にして算出し、記録する(1130)。付加した「形状データの位置情報」は、3D−CADシステム1010上で容易に求めることができる。そして、マーカの位置情報は、たとえば、最近傍の目印形状からの絶対距離や、背景の複数の目印形状からの距離の比などを用いて、容易に算出することができる。
一方、3DCG描画データには目印が付加されている必要がないので、目印の形状データが付加されていない3D−CADソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1210)。たとえば、3D−CADソリッドデータのうち、3DCG描画データに付加しない形状データに非描画のフラグを設定しておき、3DCG描画データ変換1210において、非描画のフラグが設定されていない形状データのみを3DCGデータへ変換する。
複合現実感システムでは、このように変換された3DCG描画用データ406を使って仮想空間を生成する。複合現実感システムの処理は、第2実施形態と同じである。
なお、第3実施形態では、簡易試作物の3D−CADデータに目印の形状データを付加してマーカを添付する際の目安としたが、これに限らず、簡易試作物の背景の現実物体(たとえば台など)の3D−CADデータに目印の形状データを付加してマーカを添付する際の目安としてもよい。また、簡易試作物とその背景の現実物体の両方の3D−CADに目印の形状データを付加してもよい。
また、第3実施形態では、3D−CADデータに目印の形状データを付加したが、3D−CADデータ上で目印の位置を指定するだけで、所定の目印の形状データが自動的に付加されるような仕組みを、3D−CADシステム1010に組み込んでおいてもよい。例えば、所望の位置を指定して目印の形状データの付加を指示すると、指定位置を左下隅として図7(a)に示すような格子状の目印が付加されるようにしてもよい。
以上のように、第3の実施形態によれば、簡易試作物の3D−CADデータに目印の形状データを付加して、マーカを添付する際の目安とすることにより、添付したマーカの位置情報を容易に求めることができる。すなわち、簡易試作物と3DCGデータを重ね合わせる処理の準備(マーカ位置情報の登録)を容易に行うことができる。
<第4実施形態>
第4実施形態では、3D−CADデータ中にセンサ埋め込み位置を指定することにより、簡易試作物(簡易モックアップ)にセンサ埋め込み用の形状が作成されるようにした複合現実感システムを示す。
図12に第4実施形態による情報処理装置400の具体的な構成を示す。第4実施形態における情報処理装置400の構成は第1実施形態(図3)と同様であるが、以下で説明する実施形態では手領域の抽出をしないので、手領域の抽出に関する構成(420および421)が省かれている。但し、第1実施形態のような手領域抽出、第2実施形態のようなマーカ抽出を行なう構成としてもよいことは言うまでもない。
次に、第4実施形態における処理の流れを、図13を参照して説明する。なお、第1実施形態の処理(図5)と同様の処理には同一の参照番号を付してある。
まず、3D−CADシステム1010を用いて、3D−CADソリッドデータ中にセンサ埋め込み位置及び姿勢を指定する。センサ埋め込み位置としては、たとえばセンサの中心の位置を指定する。すなわち、3D−CADソリッドデータにセンサ埋め込み用の形状データを付加し(1013)、その位置情報及び姿勢情報を記録する(1014)。これにより3D−CADソリッドデータ中にセンサ埋め込み用の形状データが付加される。たとえば、予め作成しておいたセンサ埋め込み用の形状が、指定した位置で指定された姿勢となるように自動的に付加されるような仕組みを、3D−CADシステム1010に組み込んでおけばよい。そして、光造形などのラピッド・プロトタイピング装置で、センサ埋め込み形状が付加された簡易試作物300を作成する(1110)。
一方、3DCG描画データにはセンサ埋め込み用の形状が付加されている必要がないので、3DCG描画データ変換の処理1210では、センサ埋め込み用の形状が付加されていない3D−CADソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1210)。こうして、センサ埋め込み用の形状が付加されていない3DCG描画データ406が作成される。これは、たとえば、3D−CADソリッドデータのうち、センサ埋め込み用の形状に非描画のフラグを設定しておき、3DCG描画データ変換の処理1210において、非描画のフラグが設定されたデータは変換を実行しないようにすることで実現できる。
複合現実感システムでは、このように変換された3DCG描画用データ406を使って仮想空間を生成する。すなわち、処理1014で記録したセンサ位置情報を使って、簡易試作物300の初期位置・姿勢を記録する(2001)。そして、記録された初期位置・姿勢とトランスミッタ200とセンサ202のデータを使って、簡易試作物300の現実空間中における位置・姿勢を計測する(2010)。なお、第1乃至第3実施形態では、簡易試作物300の初期位置・姿勢は、処理2010の前の処理(不図示)において実測される。たとえば簡易試作物を所定の位置に所定の姿勢で固定し、そのときのセンサの位置・姿勢の計測値を読み取り、計測値と所定値の差分を「センサの取り付けられた位置・姿勢」とする。
以上のように、第4実施形態によれば、3D−CADデータ上でセンサ埋め込み位置を指定することにより、簡易試作物(試作品)にセンサ埋め込み用の形状を容易に作成することができる。すなわち、簡易試作物を作成してからセンサ埋め込み用の形状を作成するよりも容易にセンサ埋め込み用の形状が作成できるため、簡易試作物と3DCGデータを重ね合わせる処理の準備(センサ埋め込み用形状の作成)を容易に行うことができる。
以上説明したように、上記各実施形態によれば、3次元CADのデータよりラピッド・プロトタイピング装置で製作した簡易試作物(簡易モックアップ)に、同じ3次元CADのデータを変換して作成した3D−CGデータを、複合現実感システムを使って位置・姿勢方向を一致させて重ね合わせる処理のための準備を容易に行うことができる。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
第1実施形態による複合現実感ステムの概略構成を示す図である。 頭部装着型映像入出力装置(HMD)の構成を示す図である。 第1実施形態による情報処理装置の構成を示すブロック図である。 第1実施形態による手領域抽出処理の例を示す図である。 第1実施形態による処理の流れを示す図である。 簡易試作物に添付したマーカの例を示す図である。 目印の表現方法の例を示す図である。 目印の位置情報の算出方法の例を示す図である。 第2実施形態による情報処理装置の構成を示すブロック図である。 第2実施形態による処理の流れを示す図である。 第3実施形態による処理の流れを示す図である。 第4実施形態による情報処理装置の構成を示すブロック図である。 第4実施形態による処理の流れを示す図である。 特徴点による位置・姿勢計測の補正を説明する図である。

Claims (6)

  1. 任意視点における現実空間の現実画像に仮想空間の画像情報を重畳し、観察者に提示する画像表示装置の画像表示方法であって、
    入力手段が、CADデータに基づいて簡易的に作成された簡易模型を含む現実空間の画像情報を撮像デバイスによって撮像することにより得られた現実画像を取り込む入力工程と、
    計測手段が、前記撮像デバイス及び前記簡易模型の位置及び姿勢を計測し、前記現実画像中の前記簡易模型の位置及び姿勢を示す位置/姿勢情報を取得する計測工程と、
    抽出手段が、前記現実画像より、色情報記憶手段に記憶された所定の色を含む領域を抽出する領域抽出工程と、
    合成手段が、前記位置/姿勢情報と前記CADデータとに基づいて、前記領域抽出工程で抽出された領域以外の、前記現実画像中の前記簡易模型の部分にコンピュータグラフィック画像を描画して、前記現実画像と前記コンピュータグラフィック画像を合成する合成工程とを備え、
    前記簡易模型が、前記色情報記憶手段に記憶されている前記所定の色とは異なる色で着色されていることを特徴とする画像表示方法。
  2. 前記簡易模型が、前記色情報記憶手段に記憶されている前記所定の色に対して補色関係となる色で着色されていることを特徴とする請求項1に記載の画像表示方法。
  3. 前記入力工程で入力される前記現実画像は、前記簡易模型の色と略同一色の背景の前で前記撮像デバイスにより前記簡易模型を撮像することにより得られたものであることを特徴とする請求項1に記載の画像表示方法。
  4. 前記入力工程で入力される前記現実画像は、前記所定の色及び前記簡易模型の色とは異なる色の背景の前で前記撮像デバイスにより前記簡易模型を撮像することにより得られたものであることを特徴とする請求項1に記載の画像表示方法。
  5. 任意視点における現実空間の現実画像に仮想空間の画像情報を重畳し、観察者に提示する画像表示システムであって、
    CADデータに基づいて簡易的に作成された簡易模型を含む現実空間の画像情報を撮像デバイスにより撮影することにより得られた現実画像を取り込む入力手段と、
    前記撮像デバイス及び前記簡易模型の位置及び姿勢を計測し、前記現実画像中の該簡易模型の位置及び姿勢を示す位置/姿勢情報を取得する計測手段と、
    前記現実画像より、色情報記憶手段に記憶された所定の色を含む領域を抽出する領域抽出手段と、
    前記位置/姿勢情報と前記CADデータとに基づいて、前記領域抽出手段で抽出された領域以外の、前記現実画像中の前記簡易模型の部分にコンピュータグラフィック画像を描画して、前記現実画像と前記コンピュータグラフィック画像を合成する合成手段とを備え、
    前記簡易模型が、前記色情報記憶手段に記憶されている前記所定の色とは異なる色で着色されていることを特徴とする画像表示システム。
  6. 前記簡易模型が、前記色情報記憶手段に記憶されている前記所定の色に対して補色関係となる色で着色されていることを特徴とする請求項5に記載の画像表示システム。
JP2003341627A 2003-09-30 2003-09-30 画像表示方法及び画像表示システム Expired - Fee Related JP3991020B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003341627A JP3991020B2 (ja) 2003-09-30 2003-09-30 画像表示方法及び画像表示システム
DE602004008001T DE602004008001T2 (de) 2003-09-30 2004-09-28 Bildanzeigeverfahren und Bildanzeigesystem
EP04255922A EP1521215B1 (en) 2003-09-30 2004-09-28 Image display method and image display system
CNB200410080657XA CN1304930C (zh) 2003-09-30 2004-09-29 图像显示方法和图像显示系统
US10/953,935 US7397481B2 (en) 2003-09-30 2004-09-29 Image display method and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003341627A JP3991020B2 (ja) 2003-09-30 2003-09-30 画像表示方法及び画像表示システム

Publications (3)

Publication Number Publication Date
JP2005107969A JP2005107969A (ja) 2005-04-21
JP2005107969A5 JP2005107969A5 (ja) 2006-12-28
JP3991020B2 true JP3991020B2 (ja) 2007-10-17

Family

ID=34309071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003341627A Expired - Fee Related JP3991020B2 (ja) 2003-09-30 2003-09-30 画像表示方法及び画像表示システム

Country Status (5)

Country Link
US (1) US7397481B2 (ja)
EP (1) EP1521215B1 (ja)
JP (1) JP3991020B2 (ja)
CN (1) CN1304930C (ja)
DE (1) DE602004008001T2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100503789B1 (ko) * 2002-03-11 2005-07-26 삼성전자주식회사 렌더링시스템, 렌더링방법 및 그 기록매체
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
CN100590660C (zh) * 2005-07-15 2010-02-17 佳能株式会社 图像处理设备和设计方法
JP4914123B2 (ja) 2005-07-15 2012-04-11 キヤノン株式会社 画像処理装置及び方法
US8264477B2 (en) * 2005-08-05 2012-09-11 Pioneer Corporation Image display apparatus
JP4795091B2 (ja) * 2006-04-21 2011-10-19 キヤノン株式会社 情報処理方法および装置
FR2901049B1 (fr) * 2006-05-12 2008-11-21 Techviz Soc Par Actions Simpli Procede de codage et systeme d'affichage sur un ecran d'une maquette numerique d'un objet sous forme d'une image de synthese
JP4764305B2 (ja) * 2006-10-02 2011-08-31 株式会社東芝 立体画像生成装置、方法およびプログラム
DE102007045834B4 (de) * 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
JP5403974B2 (ja) * 2008-09-09 2014-01-29 キヤノン株式会社 三次元cadシステム
JP2010121999A (ja) * 2008-11-18 2010-06-03 Omron Corp 3次元モデルの作成方法および物体認識装置
CN102308276B (zh) * 2008-12-03 2014-12-17 轩江 利用某些视觉效果来显示对象
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8843350B2 (en) * 2011-06-03 2014-09-23 Walter P. Moore and Associates, Inc. Facilities management system
GB2501924B (en) * 2012-05-11 2015-06-24 Sony Comp Entertainment Europe System and method of book leaf tracking
JP5791082B2 (ja) * 2012-07-30 2015-10-07 国立大学法人横浜国立大学 画像合成装置、画像合成システム、画像合成方法およびプログラム
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
DE102013207528A1 (de) * 2013-04-25 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt
GB201310373D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable Apparatus and systems
JP6237326B2 (ja) * 2014-02-25 2017-11-29 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
JP6491068B2 (ja) * 2015-09-29 2019-03-27 富士フイルム株式会社 三次元造形システム、情報処理装置及び方法、並びにプログラム
IT201700009585A1 (it) * 2017-01-30 2018-07-30 The Edge Company S R L Metodo per il riconoscimento di oggeti per motori di realta' aumentata mediante un dispositivo elettronico
CN107918665B (zh) * 2017-11-23 2021-12-14 上海模袋网络科技有限公司 一种三维模型的快速渲染及cad信息查询的系统和方法
JP6746651B2 (ja) * 2018-09-26 2020-08-26 株式会社不動テトラ 地盤改良工事の合成画像表示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5423554A (en) * 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
JPH10320590A (ja) * 1997-05-19 1998-12-04 Honda Motor Co Ltd 合成映像作成装置及び合成映像作成方法
US6522312B2 (en) 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
US7053915B1 (en) * 2002-07-30 2006-05-30 Advanced Interfaces, Inc Method and system for enhancing virtual stage experience
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置

Also Published As

Publication number Publication date
US20050068316A1 (en) 2005-03-31
US7397481B2 (en) 2008-07-08
EP1521215A1 (en) 2005-04-06
EP1521215B1 (en) 2007-08-08
JP2005107969A (ja) 2005-04-21
CN1304930C (zh) 2007-03-14
CN1604026A (zh) 2005-04-06
DE602004008001D1 (de) 2007-09-20
DE602004008001T2 (de) 2008-04-30

Similar Documents

Publication Publication Date Title
JP3991020B2 (ja) 画像表示方法及び画像表示システム
JP4401727B2 (ja) 画像表示装置及び方法
JP4434890B2 (ja) 画像合成方法及び装置
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
JP4667111B2 (ja) 画像処理装置、画像処理方法
EP1596329B1 (en) Marker placement information estimating method and information processing device
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP2006048639A (ja) 情報処理方法および情報処理装置
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20060004280A1 (en) Placement information estimating method and information processing device
US7782320B2 (en) Information processing method and information processing apparatus
JP4242529B2 (ja) 関連情報呈示装置及び関連情報呈示方法
JP2005327204A (ja) 画像合成システムおよび画像合成方法、および画像合成装置
JP2006012042A (ja) 画像生成方法及び装置
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
JP2010033397A (ja) 画像合成装置および方法
JP2006085375A (ja) 画像処理方法、画像処理装置
JP6545847B2 (ja) 画像処理装置、画像処理方法及びプログラム
TWI564841B (zh) 即時影像合成裝置、方法與電腦程式產品
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2002056407A (ja) 画像生成システム
JP7465133B2 (ja) 情報処理装置、情報処理方法
JP2006252059A (ja) 画像処理方法、画像処理装置
JP2022145218A (ja) 磁界可視化システム
JP2006268351A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 3991020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130727

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees