JP4366165B2 - 画像表示装置及び方法並びに記憶媒体 - Google Patents

画像表示装置及び方法並びに記憶媒体 Download PDF

Info

Publication number
JP4366165B2
JP4366165B2 JP2003341626A JP2003341626A JP4366165B2 JP 4366165 B2 JP4366165 B2 JP 4366165B2 JP 2003341626 A JP2003341626 A JP 2003341626A JP 2003341626 A JP2003341626 A JP 2003341626A JP 4366165 B2 JP4366165 B2 JP 4366165B2
Authority
JP
Japan
Prior art keywords
image
data
real space
video
computer graphics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003341626A
Other languages
English (en)
Other versions
JP2005107968A (ja
JP2005107968A5 (ja
Inventor
英生 野呂
弘幸 角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003341626A priority Critical patent/JP4366165B2/ja
Publication of JP2005107968A publication Critical patent/JP2005107968A/ja
Publication of JP2005107968A5 publication Critical patent/JP2005107968A5/ja
Application granted granted Critical
Publication of JP4366165B2 publication Critical patent/JP4366165B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、任意視点における現実空間の映像情報に、仮想空間の映像情報を重畳し、観察者に提示する複合現実感システムにおける画像表示装置及び方法、並びに情報処理方法に関する。
複合現実感システムとは、現実空間映像と、ユーザの視点位置、視線方向等に応じて生成される仮想空間映像とを合成することにより得られる合成映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である(特許文献1参照)。
一方、従来、設計・製造分野において3次元CAD(Computer Aided Design、3D−CADと記す場合もある)を使った設計(形状、デザイン)が主流になってきている。3次元CADで設計された物体を評価する方法としては、3次元CADで作成されたデータ(ソリッド形式)を3次元CG(computer graphics、以下、3DCG)として計算機の画面上に表示して視覚的に評価する方法や、ラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を作成し、視覚に加えて触覚的に評価する方法などが主流である。
特開平11−088913号公報
しかし、3次元CADデータを3DCGとして計算機の画面上に表示する方法では、仮想空間内での評価となり、現実空間内での実寸感覚で物体の評価をすることができない。また、ラピッド・プロトタイピング装置などで簡易試作物(簡易モックアップ)を作成する方法は、加工精度、素材などの制約により、おおまかな形状を把握するのには有効であるが、デザインや形状の詳細、色彩など、3D−CAD上で設計した詳細な情報が再現されるものではない。したがって、より完成品に近い状況で、設計データを評価する方法が求められている。
そこで、現実空間中に3次元CADデータに基づくCG画像を現実空間の映像中に合成することが考えられる。しかしながら、一般に3次元CADデータは光源情報を有しており、これをそのまま用いると、現実空間との間に違和感を生じる可能性がある。
本発明は上記の課題に鑑みてなされたものであり、CGの光源を現実空間の光源と一致、あるいは近いものとすることにより、観察者にとってよりリアリティのある複合現実感映像を生成可能とすることを目的とする。
また本発明の他の目的は、CGの陰影を現実空間の陰影を元に生成可能とし、観察者にとってよりリアリティのある複合現実感映像を生成可能とすることにある。
さらに、本発明の他の目的は、観察者にとってよりリアリティのある複合現実感映像を生成することにより、簡易的に試作された模型を用いながら完成品に近い形で設計評価を可能とすることにある。
上記の目的は、以下の方法によって達成される。
すなわち、3次元CADデータに対応する形状を有する現実物体が含まれる現実空間の映像に、前記3次元CADデータより得られる3次元コンピュータグラフィックスを重畳して表示する画像表示装置の画像表示方法であって、生成手段が、前記3次元CADデータに基づいて3次元コンピュータグラフィックスデータを生成する生成工程と、取得手段が、前記現実空間の映像から、前記現実物体の部分の各画素の位置における明度を取得する取得工程と、描画手段が、前記現実空間の映像における、前記現実物体の画像部分の各画素の位置に、前記生成工程で生成された3次元コンピュータグラフィックスデータから得られる当該位置に重畳すべき3次元コンピュータグラフィックスの彩度及び色相と、前記取得工程で取得した前記現実空間の映像の当該位置における明度とを用いて、3次元コンピュータグラフィックスを重畳描画する描画工程とを有することを特徴とする画像表示方法。
また、上記の目的は以下の画像表示装置によって達成される。
すなわち、3次元CADデータに対応する形状を有する現実物体が含まれる現実空間の映像に、前記3次元CADデータより得られる3次元コンピュータグラフィックスを重畳して表示する画像表示装置であって、前記3次元CADデータに基づいて3次元コンピュータグラフィックスデータを生成する生成手段と、前記現実空間の映像から、前記現実物体の部分の各画素の位置における明度を取得する取得手段と、前記現実空間の映像における、前記現実物体の画像部分の各画素の位置に、前記生成工程で生成された3次元コンピュータグラフィックスデータから得られる当該位置に重畳すべき3次元コンピュータグラフィックスの彩度及び色相と、前記取得工程で取得した前記現実空間の映像の当該位置における明度とを用いて、3次元コンピュータグラフィックスを重畳描画する描画手段とを備えることを特徴とする画像表示装置。
上記の構成によれば、CGの光源が現実空間の光源と一致、あるいは近いものとなり、観察者にとってよりリアリティのある複合現実感映像を生成できる。
また、本発明によれば、CGの陰影を現実空間の陰影を元に生成でき、観察者にとってよりリアリティのある複合現実感映像を生成できる。
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
<第1実施形態>
第1実施形態では、3次元CADのデータよりラピッド・プロトタイピング装置で作成した簡易試作物(簡易モックアップ)に、同じ3次元CADのデータを変換して作成した3DCGデータを、複合現実感システムを使って位置・姿勢方向を一致させて重ね合わせ、表示する。この手法により、視覚的な評価と触覚的な評価を同時に実現することができ、より完成品に近い状態での評価を可能とする。
また、一般にCADデータは光源データを有し、CADデータからCGを描画する際にはこの光源データが用いられる。しかしながら、CADデータの光源データを用いて仮想空間に描画してしまうと、それが現実空間の光源と大きく異なる場合、CGのリアリティが著しく損なわれてしまうという問題がある。本実施形態では、この点も解消する。
本発明が適用される一般的なシステムの代表的構成を図1に示す。
図1において、100は観察者が頭部に装着して現実空間と仮想空間を合成した映像を観察するための頭部装着型映像入出力装置(頭部装着型ディスプレイ(Head Mounted Display)などと呼ばれる。以下、HMDと称する)である。また、200は磁場を発生させる磁気トランスミッタ、201、202は磁気トランスミッタ200が発生させた磁場の変化を計測するための磁気センサである。205は位置・姿勢計測装置であり、磁気センサ201、202の計測結果より、各磁気センサの位置・姿勢を計測する。磁気センサ201はHMD100に取り付けられており、観察者の視点位置、視線方向を算出するのに用いられる。300は観察者が手で保持、操作する操作手段としての簡易試作物(簡易モックアップ)である。簡易試作物300には、HMD100と同様に磁気センサ202が組み込まれている。位置・姿勢計測装置205は、磁気センサ202の計測結果に基づいて、簡易試作物300の位置・姿勢を算出する。301は簡易試作物を観察するための台である。
101はHMD100に組み込まれている映像入力装置、102はHMD100に組み込まれている映像表示装置であり、それぞれ右目、左目用に2セットずつ組み込まれている。400は情報処理装置であって、位置・姿勢計測装置205により算出した位置・姿勢情報に合わせたCG映像を生成し、HMD100の映像入力装置102より入力した映像に重畳し、得られた合成映像をHMD100の映像表示装置101に向けて出力するものである。
次に、HMD100の具体的な構成について図2を参照して説明する。図2において101は図1でも示されている映像表示装置であり、0.5〜数インチ程度の小型の液晶表示デバイス等で構成される。103は、映像表示装置101の映像を拡大するレンズの役目を果たす自由曲面プリズムである。これらの構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先に90インチ相当の映像として提示される。
102は図1にも示されている映像入力装置であり、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。104は現実空間の光を映像入力装置102に収束させるためのレンズの役目をはたす撮像系プリズムである。撮像系プリズム104は自由曲面プリズム103の外側に、両プリズムにおける光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することを可能としている。
次に、図1における情報処理装置400の具体的な構成について、図3を使って説明する。
401L、Rは映像キャプチャ部であり、映像入力装置102より入力した映像データを取り込み、デジタル信号として情報処理装置400内に提供する。404は位置・姿勢情報入力部であり、位置・姿勢計測装置205より送られるHMD100と簡易試作物300の位置・姿勢データを情報処理装置400内に取り込む。405は位置・姿勢算出部であり、位置・姿勢入力部404からの入力データをもとに、HMD100と簡易試作物300の相対的な位置関係を算出する。
406は簡易試作物300に重畳させるための3DCG描画データである。407はCGレンダリング部であり、位置・姿勢算出部405で算出したHMD100と簡易試作物300の相対的な位置関係に基づいて、CGデータを描画させるべき位置、大きさ、角度(パース)などを計算し、その計算結果に基づいて3DCG描画用データ406をレンダリングする。
408は、予め用意された一つあるいは複数のCG光源データである。一般に3DCADの出力するCGデータには光源情報が含まれている。しかしながら、この光源情報は、複合現実空間でCGを描画する際の、その現実空間における光源とは異なったものであり、そのような光源情報を用いるて現実空間映像との合成を行なうとCGの陰影が違和感のあるものとなってしまう。そこで3DCG描画データ406には光源を含まないようにしておき、別途現実空間と一致あるいは似通った光源をCG光源データ408として予め用意しておく。
CGレンダリング部407は、3DCG描画データ406をCG光源データ408のもとで描画する。これにより、複合現実空間内におけるCGの陰影が違和感の少ないものとなる。なお、CG光源データ408を複数用意し、様々な要因により切り替えて使用することも可能である。
例えば現実空間において物体の左側から照明があたっている場合、当然右側に影ができて然るべきであるが、CG空間で光源が右側にあると左側に影ができてしまう。CGだけであれば違和感はないが、現実空間と一緒に見ると違和感を感じる。特に、第2実施形態で説明するようなハンドオーバーレイをおこなった場合は、手の上に陰影ができるのでより違和感が生じる。
このような違和感はCGの描画方法により解消できる。陰影は基本的に光源と物体との相互作用で生じる明度変化であり、適切な種類の光源を適切位置に適切な数だけ配置することにより、光源の問題は解消される。そして、その上でどれだけリアルに陰影(明度)を再現できるかは、物体の材質(光に対する反応)と、レンダリングアルゴリズムによることになる。また、CADシステムによっては、より部品を見やすくするために、白色光ではなく色の付いた光源を使うこともあり、そのような光源情報を用いてCGを描画すれば、現実空間の光源との差が大きく、違和感を生じやすい。すなわち、CGにおける陰影は光源情報(光源の種類や位置を含む)の影響を大きく受ける。従って、本実施形態では、複数のCG光源データを用意しておき、現実空間に適した光源データを用いてCG描画を行なうようにして、陰影の違和感の解消を図る。
なお、光源の種類によってCGの描画負荷は変わる。例えば、ディレクショナルライト(平行光)は描画負荷が最も少なく、ポイントライト(点光源)やスポットライトでは描画負荷が大きくなってくる。また、光源の数によっても描画負荷は変わり、当然、光源の数が増えれば増えるほど描画負荷が大きくなる。描画負荷が大きくなるということは、描画レートが下がることになるが、現実空間の照明環境により近づけることができ(現実空間との陰影の違和感をより解消できる)、描画品質は向上する。すなわち、両者はトレードオフの関係にある。従って、例えば、光源の数を1,2,3,4のCG光源データを用意しておき、3DCG描画データの複雑さに応じてCG光源データを切り替えて(描画品質と描画レートが最適となるように光源を選択して)使用することにより、描画レートと描画品質のバランスを取ることが可能となる。なお、光源データの切り替えはユーザが画像を観察しながらマニュアルで行うようにすればよい。あるいは、描画レートを計測し、その計測結果に従って自動的に光源を切り替えるようにしてもよいであろう。
402L、Rは映像合成部であり、映像キャプチャ部401で取り込んだ現実空間の映像データに、CGレンダリング部407で生成したCG映像を重畳する。403L、Rは映像生成部であり、合成した映像をアナログデータに変換し、映像表示装置101に出力する。
上記構成による本実施形態の処理の流れを、図4を使って説明する。まず、3D−CADのデータから簡易試作物300と3DCG描画用データ406を作成する手順を図4左側の処理手順で説明する。
通常3次元CADシステムを使って形状やデザインなどの設計業務を行う(1010)場合、設計データはそれぞれの3次元CADシステム固有のソリッドデータとして保存されるのが一般的である。簡易試作物300は、このソリッドデータより、光造形などのラピッド・プロトタイピング装置を使って作成する(1110)。一方、3Dソリッドデータは、各設計部品の幾何学的なパラメータの集合で表現されており、そのままではCGとして描画することはできない。そこで、3Dソリッドデータを3DCGの描画に適したデータ形式(たとえばVRMLなど)に変換する(1210)。
なお、3DCG描画データ変換処理1210は3DCADデータを3DCG描画データに変換する際に、3DCADデータに含まれている光源データを削除する。すなわち、光源データを含まない3DCGデータを生成する。第1実施形態の複合現実感システムでは、このように変換された3DCG描画用データ406を使って仮想空間を生成する。
次に、本実施形態における複合現実感システムの処理手順について、図4右側の処理手順で説明する。
磁気トランスミッタ200と磁気センサ202のデータを使って、位置・姿勢計測装置205は簡易試作物300の現実空間中における位置・姿勢を計測する(2010)。同様に、磁気トランスミッタ200と磁気センサ201のデータを使って、位置・姿勢計測装置205は観察者が装着しているHMD100の現実空間中における位置・姿勢を計測する(2020)。位置・姿勢計測装置205によって得られた計測データは、位置・姿勢情報入力部404を通して情報処理装置400に取り込まれる。そして、位置・姿勢算出部405においてHMD100と簡易試作物300との相対的な位置関係が計算される(2030)。
一方、上記の処理2010、2020、2030と並行して、HMD装置100の映像入力装置101からの現実空間の映像を、映像キャプチャ部401を通して情報処理装置400に取り込む(3010)。CGレンダリング部407では、処理2030で算出した相対的な位置関係と3DCG描画用データ406を用いてCGを描画し、ビデオバッファなどのメモリ(不図示)に展開する(2040)。すなわち、簡易試作物300の位置姿勢に合わせて3DCGを描画する。なお、このCG描画処理2040において、CGレンダリング部407は光源データを削除された3DCG描画データ406と、CG光源データ408を用いてCGを描画する。
一方、処理3010で取り込んだ現実空間の映像データもビデオバッファなどのメモリに展開する(3020)。映像合成部402L、Rは、上記の処理2040で生成したCG映像を、処理3020で展開した映像データに重畳する(4010)。合成された映像は、映像生成部403にてアナログ等のビデオ信号に変換され、HMD100の映像表示装置101に表示される(4020)。
上記2010から4020までの処理を映像表示装置101における映像更新間隔あるいはCG描画2040における更新間隔で繰り返し行うことで、リアルタイムに情報提示を行う。このシステムによる処理結果の一例を図5に示す。
図5において、(a)では、HMD100に搭載された映像入力装置102より入力した現実空間の映像(簡易試作物300)が示されている。(b)では、現実空間の簡易試作物300に、CGデータを重畳し、HMD100に搭載された映像表示装置101に表示される映像が示されている。このように、簡易試作物300の位置姿勢に合わせて3DCGを描画することにより、簡易試作物300をより完成品に近い形態として評価することができる。
なお、上記では複数種類のCG光源データを用意しておき、所望の光源データを選択的に用いたが、第2実施形態で後述するように、実写画像中の明度情報を用いるようにしてもよい。また、第2実施形態で説明するように、手領域を抽出して、その部分のCG描画を禁止する、ハンドオーバーレイ技術を適用してもよいことは当業者には明らかであろう。
<第2実施形態>
まず、一般的なハンドオーバーレイ技術について説明する。
映像合成部402L、Rでは、現実空間の映像データに、仮想空間の映像(CG映像)を重畳(上書き)することで合成映像を生成している。この場合には、本来CG映像より手前にあるべきはずのものもCG映像で上書きされてしまうため、CG映像と現実物体との奥行き感に矛盾が生じる場合がある。図6を使って詳しく説明する。
(a)は映像入力装置102より入力された現実空間の映像データの一例であり、簡易試作物300を観察者の手で保持している映像である。手の一部(親指あたり)が簡易試作物300の手前に存在している。このような映像に、簡易試作物300に対応するCG映像を重畳すると、(b)のような合成映像となる。すなわち簡易試作物300よりも手前にあるはずの手の一部が、CG映像により隠れてしまい、奥行き感に矛盾が発生し、観察者にとって違和感のある映像となる。第2実施形態のシステムでは、現実空間の映像データを用いた画像処理により奥行き感の矛盾を解消する。
すなわち、映像入力装置102から得られた、(a)に示す映像データより画像処理にて手の領域のみを抽出する。抽出された手の領域からマスク画像(c)を生成し、このマスク画像で指定された手以外の領域に関してCG映像を生成し、現実空間の映像に重畳する。このようにすることで、(d)に示されるように、手の領域が簡易試作物よりも手前に表示されて、奥行き感の違和感が解消される。
ハンドオーバーレイ技術を用いた第2実施形態によるシステムの構成と処理の流れを図7乃至図9を使って説明する。
図7は第2実施形態による情報処理装置400の具体的な構成を示すブロック図である。第1実施形態で説明した構成(図3)に、手領域抽出部420及び手色情報登録データ421が加えられている。また、第2実施形態では自然な陰影でCGを描画するために、簡易試作物300の実写画像中の明度を利用するため、CG光源データ408は用いていない。手色情報登録データ421には手の色に相当する色情報が登録されており、手領域抽出部420では、映像データ中の手色情報登録データ421に登録されている色を有する領域を手領域として抽出する。抽出された手領域の情報はCGレンダリング部407に提供され、図6を用いて上述した処理により奥行き感の違和感を解消する。
上記構成による第2実施形態の処理の流れを、図8を使って説明する。なお、3D−CADのデータから簡易試作物300と3DCG描画用データ406を作成する手順(図8の左側に示される手順)は図4の左側の処理手順と同様である。
第2実施形態における複合現実感システムの処理手順(図8右側の処理手順)について説明する。
まず、情報処理装置400の映像キャプチャ部401L、Rより、現実空間の映像データを取り込む(1010)。この映像データは、手領域抽出部420に供給される。手領域抽出部420では、各画素の色情報を、手色情報登録データにあらかじめ登録してある手領域の色情報と比較し、各画素が人間の肌の色であるか否かを判定する。肌の色であると判定された画素は手領域であると判断する(5010)。すべての画素について手の領域であるかどうかの判断を行い、手の領域と判断された画素のみを抽出し、ビデオバッファなどのメモリに手領域のデータのみを記録することにより、図6の(c)に示したようなマスク画像を生成する(5020)。CGレンダリング部407では、処理5020で生成したマスク画像でマスクされた領域のCG映像を生成し(2040)、映像合成部403において、現実空間の映像データに、2040で生成したCG映像を重畳する(4010)。
このように合成映像を生成することで、本来CGデータよりも手前にあるべき現実空間の映像を、CGデータよりも手前に表示することが可能となり、奥行き感における違和感が解消される。
ところで、描画されるCGの陰影は仮想空間内の光源によるものなので、必ずしも現実空間内で発生するであろう陰影とは一致しない。この不一致が観察者にCGデータの違和感を与えることがある。そこで、第2実施形態では、現実空間内の陰影を用いて陰影を表現する。一般に簡易試作物300は単一部材からなり、単色であり、更にCGと同形状である。従って、第2実施形態では、簡易試作物300における明度変化をそのままCGデータに適用させることにより、より自然な陰影を伴ったCGデータを得る。すなわち、CG描画処理2040では、現実空間映像の明度情報が利用される。
明度情報生成5015は、映像中の簡易試作物300の部分の明度を抽出し、明度情報を生成する。この部分の処理例の詳細を図9に示す。まず、CGを描画する範囲を示すマスク画像(図9の(d))を得る。これは、例えば、通常の描画処理でCGを生成する際にZバッファの値が変化した部分を二値化するといった簡単な処理で得ることができる。なお、CG画像はマスク画像生成処理5020で生成されたマスク画像(図6の(c))により、手領域を除くCG画像となっている。
明度情報生成5015は、図9の(a)のように得られている実写画像より、明度のみの情報を持った画像(図9(b))を生成する。そして、CG描画処理2040は、図9(d)のマスクの範囲に、CG描画による色(色成分のうち明度を除いたもの(明度、彩度、色相であれば、彩度と色相)と、実写の明度を用いて描画を行う。具体的には実写画像から明度画像(図9(b))を生成し、マスク画像のマスクのある範囲の全ての画素に対して、明度は実写画像から(図9(f))、色はCG画像(図9(e))から得て、その点の画素値を求め、実写背景の上に描画する(図9(g))。
以上説明したように、上記各実施形態によれば、CGの光源を現実空間の光源と一致、あるいは近いものとすることができ、観察者にとってよりリアリティのある複合現実感映像を生成することができる。特に第2実施形態によれば、CGの陰影を現実空間の陰影を元に生成するので、観察者にとってよりリアリティのある複合現実感映像を生成することができる。
なお、上記各実施形態では、CADデータから3DCG描画データを作成する際に光源情報を削除していたが、光源情報を削除しなくてもCG描画時にCG光源データ408を使用するように制御する仕組みを入れることにより対応することもできる。
また、上記各実施形態において、位置・姿勢計測装置の計測誤差を補償するために、簡易試作物300に添付したマーカあるいは特徴点の位置を検出するようにしてもよい。以下、特徴点を用いた位置・姿勢の補正方法について説明する。ここでは、一般的な補正方法として、映像入力部(カメラ)の外部パラメータを特徴点1点から補正する方法について説明する。なお、ここで特徴点とは、人工的に特定の色や形の情報をもったシール状のものなどを現実空間中の簡易試作物に貼り付けたマーカを用いても良いし、簡易試作物の形状の特徴的な部分を特徴点としても良い。
図10は映像入力装置(カメラ)の外部パラメータ(位置・姿勢をあらわすパラメータ)の一般的な補正方法を説明する模式図である。図10において、点Aは映像入力装置(カメラ)及び簡易試作装置300の位置・姿勢に基づいて予測される特徴点の位置、点Bはこの特徴点の実際の位置、点Cは映像入力装置(カメラ)視点の位置を表す。なおここでは、点A、点Bが示す位置はカメラ座標系における位置であって、点Cは映像入力装置(カメラ)座標系の原点である。また、点Pは撮像面上における点Aの位置、点Qは撮像面上における点Bの位置を示す。ここで、図10に示すように、点P、Qの座標を各々(xp,yp)、(xq,yq)、撮像面の幅、高さを各々w、h、カメラの焦点距離(撮像面から映像入力装置までの距離)をdとし、v1を点Cから点Qへのベクトル、v2を点Cから点Pへのベクトル、θをv1とv2のなす角度とする。
まず、特徴点1点を用いて姿勢をθだけ点B方向から点A方向に変化させる方法(映像入力装置の回転による補正方法)について説明する。
上記の設定から、v1、v2を求めると、各々の成分は以下の(1)式のようになる。
Figure 0004366165
次に、各々のベクトルを、以下の(2)式により大きさ1のベクトルに正規化する。なお、|v|は、ベクトルvの大きさをあらわす。
Figure 0004366165
ここで、映像入力装置(カメラ)を回転させる場合、その回転軸はベクトルv1、v2がなす平面と直行し、カメラ視点位置(点C)を通る直線となる。この回転軸の方向ベクトルは、(3)式に示すように、ベクトルv1、v2の外積により求めることができる(実際には正規化したもの(v1’、v2’)を用いる)。
Figure 0004366165
ここで、vxは回転軸の方向ベクトルであって、その成分を(l,m,n)とする。また、回転角θはベクトルv1、v2がなす角度なので、以下の(4)式のように求めることができる。
Figure 0004366165
よって、映像入力装置の回転による補正に用いる補正行列ΔMcは、以下の(5)式のように計算される。
Figure 0004366165
この補正行例を映像入力装置の位置・姿勢を示す行列にかけることで、映像入力装置の位置・姿勢が補正される。つまり、点Pが点Qの位置に表示され、撮像面上におけるランドマークの位置姿勢パラメータから予測される位置と実際の位置とが一致する。なお、上述の説明では、映像入力装置(カメラ)の回転を使った補正方法について説明したが、映像入力装置の平行移動により誤差を補正する方法なども使用可能である。また、複数の特徴点を使った補正方法でも同様の効果が得られるが、説明は省略する。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
実施形態によるシステムの構成を示す図である。 頭部装着型映像入出力装置構成図 第1実施形態による情報処理装置400の構成を示すブロック図である。 第1実施形態の情報処理装置400による処理の流れを示すフローチャートである。 処理結果を示す図である。 ハンドオーバーレイの処理について説明する図である。 第2実施形態による情報処理装置400の構成を示すブロック図である。 第1実施形態の情報処理装置400による処理の流れを示すフローチャートである。 第2実施形態の情報処理装置400によるCG描画処理を具体的に説明する図である。 特徴点による位置・姿勢計測の補正を説明する図である。

Claims (6)

  1. 3次元CADデータに対応する形状を有する現実物体が含まれる現実空間の映像に、前記3次元CADデータより得られる3次元コンピュータグラフィックスを重畳して表示する画像表示装置の画像表示方法であって、
    生成手段が、前記3次元CADデータに基づいて3次元コンピュータグラフィックスデータを生成する生成工程と、
    取得手段が、前記現実空間の映像から、前記現実物体の部分の各画素の位置における明度を取得する取得工程と、
    描画手段が、前記現実空間の映像における、前記現実物体の画像部分の各画素の位置に、前記生成工程で生成された3次元コンピュータグラフィックスデータから得られる当該位置に重畳すべき3次元コンピュータグラフィックスの彩度及び色相と、前記取得工程で取得した前記現実空間の映像の当該位置における明度とを用いて、3次元コンピュータグラフィックスを重畳描画する描画工程とを有することを特徴とする画像表示方法。
  2. 前記現実物体は、前記3次元CADデータに基づいて作成されたモックアップであることを特徴とする請求項1に記載の画像表示方法。
  3. 手領域抽出手段が、前記現実空間の映像中より、手領域を抽出する手領域抽出工程を更に備え、
    前記描画工程では、前記描画手段が、前記手領域抽出工程で抽出された手領域には前記3次元コンピュータグラフィックスの重畳描画を禁止することを特徴とする請求項1または2に記載の画像表示方法。
  4. 3次元CADデータに対応する形状を有する現実物体が含まれる現実空間の映像に、前記3次元CADデータより得られる3次元コンピュータグラフィックスを重畳して表示する画像表示装置であって、
    前記3次元CADデータに基づいて3次元コンピュータグラフィックスデータを生成する生成手段と、
    前記現実空間の映像から、前記現実物体の部分の各画素の位置における明度を取得する取得手段と、
    前記現実空間の映像における、前記現実物体の画像部分の各画素の位置に、前記生成手段で生成された3次元コンピュータグラフィックスデータから得られる当該位置に重畳すべき3次元コンピュータグラフィックスの彩度及び色相と、前記取得手段で取得した前記現実空間の映像の当該位置における明度とを用いて、3次元コンピュータグラフィックスを重畳描画する描画手段とを備えることを特徴とする画像表示装置。
  5. 請求項1乃至3のいずれか1項に記載の画像表示方法の各工程をコンピュータに実行させるための制御プログラム。
  6. 請求項1乃至3のいずれか1項に記載の画像表示方法の各工程をコンピュータに実行させるための制御プログラムを格納するコンピュータ読み取り可能な記憶媒体。
JP2003341626A 2003-09-30 2003-09-30 画像表示装置及び方法並びに記憶媒体 Expired - Fee Related JP4366165B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003341626A JP4366165B2 (ja) 2003-09-30 2003-09-30 画像表示装置及び方法並びに記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003341626A JP4366165B2 (ja) 2003-09-30 2003-09-30 画像表示装置及び方法並びに記憶媒体

Publications (3)

Publication Number Publication Date
JP2005107968A JP2005107968A (ja) 2005-04-21
JP2005107968A5 JP2005107968A5 (ja) 2006-11-09
JP4366165B2 true JP4366165B2 (ja) 2009-11-18

Family

ID=34536180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003341626A Expired - Fee Related JP4366165B2 (ja) 2003-09-30 2003-09-30 画像表示装置及び方法並びに記憶媒体

Country Status (1)

Country Link
JP (1) JP4366165B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4739002B2 (ja) * 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
CN102067181A (zh) 2008-06-23 2011-05-18 松下电器产业株式会社 合成装置及合成方法
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
CN103843036A (zh) * 2012-01-06 2014-06-04 三菱电机株式会社 描绘控制装置
JP6349307B2 (ja) 2013-04-24 2018-06-27 川崎重工業株式会社 ワーク加工作業支援システムおよびワーク加工方法
JP6344890B2 (ja) 2013-05-22 2018-06-20 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2591189B2 (ja) * 1989-10-13 1997-03-19 松下電器産業株式会社 カラー画像処理方法及び装置
JPH09181972A (ja) * 1995-12-25 1997-07-11 Olympus Optical Co Ltd 画像合成装置
JP3486536B2 (ja) * 1997-09-01 2004-01-13 キヤノン株式会社 複合現実感提示装置および方法
JPH11175762A (ja) * 1997-12-08 1999-07-02 Katsushi Ikeuchi 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP3406965B2 (ja) * 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
JP4056035B2 (ja) * 2002-02-15 2008-03-05 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP4032776B2 (ja) * 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2003264740A (ja) * 2002-03-08 2003-09-19 Cad Center:Kk 展望鏡
KR100503789B1 (ko) * 2002-03-11 2005-07-26 삼성전자주식회사 렌더링시스템, 렌더링방법 및 그 기록매체

Also Published As

Publication number Publication date
JP2005107968A (ja) 2005-04-21

Similar Documents

Publication Publication Date Title
JP4401727B2 (ja) 画像表示装置及び方法
JP3991020B2 (ja) 画像表示方法及び画像表示システム
JP4434890B2 (ja) 画像合成方法及び装置
JP4804256B2 (ja) 情報処理方法
JP4739002B2 (ja) 画像処理方法、画像処理装置
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP4950834B2 (ja) 画像処理装置、画像処理方法
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2009123018A (ja) 画像処理装置、画像処理方法
JP4847203B2 (ja) 情報処理方法、情報処理装置
JP2002163670A (ja) 複合現実感提示装置及びその制御方法
JP2004178554A (ja) 映像合成装置及び映像合成方法
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2015098807A1 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP2006285609A (ja) 画像処理方法、画像処理装置
JP2006012042A (ja) 画像生成方法及び装置
JP2007034981A (ja) 画像処理システム、画像処理装置
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2006085375A (ja) 画像処理方法、画像処理装置
JP4098882B2 (ja) 仮想現実感生成装置及び方法
TWI564841B (zh) 即時影像合成裝置、方法與電腦程式產品
JP4006105B2 (ja) 画像処理装置およびその方法
JP2002056407A (ja) 画像生成システム
JP2022112228A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090824

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4366165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees