JP3352454B2 - 画像処理装置及びその方法並びに記憶媒体 - Google Patents

画像処理装置及びその方法並びに記憶媒体

Info

Publication number
JP3352454B2
JP3352454B2 JP2000354432A JP2000354432A JP3352454B2 JP 3352454 B2 JP3352454 B2 JP 3352454B2 JP 2000354432 A JP2000354432 A JP 2000354432A JP 2000354432 A JP2000354432 A JP 2000354432A JP 3352454 B2 JP3352454 B2 JP 3352454B2
Authority
JP
Japan
Prior art keywords
image
reference image
virtual object
target
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000354432A
Other languages
English (en)
Other versions
JP2002157603A (ja
Inventor
俊広 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000354432A priority Critical patent/JP3352454B2/ja
Publication of JP2002157603A publication Critical patent/JP2002157603A/ja
Application granted granted Critical
Publication of JP3352454B2 publication Critical patent/JP3352454B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、現実空間内に仮想
的に配置された仮想物体を撮像した参照画像と、注目視
点位置から撮像した前記現実空間の画像とを用いて、当
該注目視点位置から見た前記仮想物体の画像を生成する
画像処理装置及びその方法並びに記憶媒体に関するもの
である。
【0002】
【従来の技術】現実空間と仮想空間を違和感なく自然に
結合する複合現実感に関する研究が盛んに行われてい
る。その中でも正しい形状で仮想物体像を現実空間の画
像に合成し、現実空間において正しい位置に(位置ずれ
を起こさないように)重畳するということは複合現実感
の実現において重要な課題である。仮想物体像を合成す
る方法の枠組みには大まかに分類すると以下の2つの方
法がある。
【0003】一つ目は仮想物体の2種類の見え方を記録
した2枚の画像から新しい見え方を合成するイメージベ
ーストレンダリング(IBR)方式で、二つ目は仮想物
体の三次元形状モデルを射影して仮想物体像を合成する
モデルベーストレンダリング(MBR)方式である。I
BR方式は合成した仮想物体の幾何的整合性を保ちやす
く、一般的にMBR方式と比較して高速に処理すること
ができるという特徴を持つ。
【0004】また、複数方向から同一物体像を撮影し、
任意の新たな視点からの物体像を生成する手法が提案さ
れている。例えば従来では物体のポリゴンの各頂点につ
いて、観測している参照画像を組み合せることで対象物
体の三次元座標を算出せずに物体像を生成する手法が述
べられている。しかし、この手法では計算コストが高
く、物体像の合成に時間がかかるという点で改良が求め
られていた。
【0005】ここでIBRによって2枚の参照画像、1
枚の対象画像から物体像を合成する手法について説明す
る。IBRによって物体像を合成し、実空間像のしかる
べき位置に重畳するためには、以下の設定が満たされて
いる必要がある。
【0006】1) 仮想化する剛体の実物体を2箇所の
視点から撮影した参照画像があること。
【0007】2) 第3の視点から実空間像を撮影した
対象画像があること。
【0008】3) 2枚の参照画像に写っている物体像
は、互いに物体像を構成するポリゴンの頂点(特徴点と
呼ぶ)が対応づけられ、特徴点を頂点として形成された
ポリゴンも互いに対応していること。
【0009】4) 剛体仮定を満たす最低4点のランド
マークが対象画像と2枚の参照画像の中に共通に写って
いること(画像上でのランドマークを基準点と呼ぶ)。
【0010】これらの関係を図1A,1Bに示す。基準
点P1〜P4は3つの視点(C1,C2,C3)間(正
確には3視点から撮影した画像間)の関係を求めるのに
必要である。図1Aに示す2枚の参照画像R1,R2
は、基準点P1〜P4と登録物体Oの特徴点との間の関
係を表現している。参照画像R1,R2と図1Bに示す
対象画像T1に写っている基準点P1〜P4は、剛体仮
定が満たされていればよく、三次元配置は既知である必
要はない。また、参照画像R1,R2の視点の基準点P
1〜P4に対する三次元配置も既知である必要はない。
【0011】なお図1Bにおいて対象画像T1に表示さ
れている物体100の画像は後述する方法で参照画像R
1,R2を用いて生成される画像であり、視点C3から
は直接は見えないものである。
【0012】対象画像T1内の物体像100の合成と位
置合わせは、対象画像T1と2枚の参照画像R1,R2
の計3枚の画像中に写っている基準点P1〜P4を手が
かりとして、以下の手順で行う。
【0013】1) 3枚の画像中の基準点の対応関係を
用いて、3画像間の拘束、すなわち物体Oを3視点から
撮影した場合の3画像上の特徴点座標の関係を表す拘束
式を求める。
【0014】2) 1)で求めた拘束式に3画像上の基
準点を代入することで、2つの参照画像上での見え方の
みが与えられている物体像の対象画像上での見え方を決
定するパラメータを求める。
【0015】3) 1)で求めた拘束式に、2)で求め
たパラメータ及び2枚の参照画像R1,R2上の特徴点
座標を代入することによって対象画像T1上にあるべき
特徴点の座標を算出する。
【0016】4) 対象画像T1上の特徴点座標を頂点
としてポリゴンを形成し、参照画像R1,R2の対応す
るポリゴンのテクスチャをマッピングする。
【0017】この方法による物体像の合成は、2枚の物
体像から物体のアフィン形状を復元し、アフィンカメラ
によって対象画像上に射影することに相当しており、2
次元的な変形のみを行うモーフィングとは本質的に異な
るものである。従って、2枚の参照画像を撮影した2視
点間の補間だけでなく、対象画像の視点位置の自由度は
大きい。
【0018】次に、物体像が撮影されている1枚の参照
画像と、物体像が撮影されていない1枚の対象画像か
ら、対象画像上での見え方の物体像を生成するための原
理について説明する。
【0019】3枚の画像をそれぞれI,I’,I”とす
る。三次元空間中のある1点について、これをアフィン
カメラによりIに射影する2×3の行列をM2×3(M
a× はa行b列の行列Mであることを示す),x
(xはxのベクトル表記)がIに射影される点をu
=(u,v)とするとこれらの関係は
【0020】
【数1】 と表される。但し、このuは画像上の1つの基準点か
らの相対位置を表しているものとする。I’,I”につ
いても同様に
【0021】
【数2】 と表される。式(1)(2)をまとめると、
【0022】
【数3】 となる。ここでλは非零の実数である。M、MはM
の各行を表している。式(3)の右項に関して(X
λ)≠0であり、左項の係数行列のランクは高々3で
あるので、左項の係数行列に関して6つの行から任意の
4行を組み合わせて作る4×4の行列はすべて特異でな
ければならない。つまり任意の4×4小行列の行列式は
0である。例えば式(3)から1,2,3,4行目を取
ると
【0023】
【数4】 となる。式(4)はu,v,u’,v’の線形結合が0
に等しいことを示している。u,vとu’,v’は点X
のI,I’上の像であるので、この式は2画像I,
I’間の拘束を表現していることになる。
【0024】式(3)の左辺の係数行列から4行を組み
合わせ、小行列を構成する組み合わせは15(=
)通り存在する。各小行列について行列式を0と
する式を立てるとそれぞれu,v,u’,v’,u”,
v”の線形結合を0とする式が得られる。このときの線
形結合係数tは余因子であり、6行から3行を選択し
て得られるので合計20(=C )通り存在すること
となる。係数行列から4行を取り出す組み合わせは以下
のように分類することができる。
【0025】2画像間の拘束:2行を1枚の画像、残り
2行も1枚の画像から取り出す。
【0026】3画像間の拘束:2行を1枚の画像、残り
2行をそれぞれ別の画像から1行ずつ取り出す。
【0027】2画像間の拘束は以下の3つが得られる。
【0028】
【数5】 3画像間の拘束は以下の4つが得られる。
【0029】
【数6】 式(6)に示した3画像間の拘束式を用いて、3画像で
対応づけられた基準点座標からtを求めることによ
り、2参照画像上での見え方のみが与えられている物体
像の対象画像上での見え方を推定することができる。
【0030】3枚の画像上で共通して観測されている基
準点の座標(u,v),(u’ ,v’),
(u”,v”)を式(6)に代入し、tを未知数
として解く。3画像間での基準点が4つ以上あれば、t
を解くことができる。このtを用いて、2枚の参照
画像上でのみ観測されている特徴点の対象画像上での座
標を求めることができる。
【0031】対象画像に表示されるべき物体像の特徴点
座標を(u”,v”)とし、それに対応する2枚の
参照画像上での物体像の特徴点座標をそれぞれ(u
),(u’,v’)とする。これらは式(6)
を満たすので、既に得られたtと(u,v),
(u’,v’)から今度は(u”,v”)を未
知数とした連立方程式を得ることができる。
【0032】
【数7】 式(7)を解くことによって、対象画像上での物体のす
べての特徴点座標を算出することができる。この方法を
3画像方式による物体像合成方法と呼ぶ。
【0033】これまでに述べた手法では、物体上の特徴
点が両方の参照画像上で見えている必要があり、対象画
像の視点位置もこれに制約される。すなわち、物体の横
や裏に回り込む視点からの対象画像に整合する物体像は
合成できない。対象画像の視点位置の制約をなくすため
には、物体を取り囲むように多数の視点を設定し、それ
らの視点から物体を観測した参照画像を用意し、それら
を組み合わせることにより物体像の合成を行う。その組
み合わせ方について、以下で説明する。
【0034】物体を構成するポリゴンの各頂点につい
て、物体を観測した画像である参照画像を組み合わせる
ことで、対象画像上での特徴点座標を算出する。この手
法では、対象画像上の物体を構成するすべての特徴点座
標を求める。またテクスチャマッピングを適用する段階
で、陰面消去を行う。この手法を以下「特徴点を基準と
した手法」と呼び、手順を以下に示す。
【0035】1) 物体のポリゴンの各頂点に対して、
この頂点を観測している参照画像同士を対応づけ、リス
トを作成する。
【0036】2) 1)で作成したリストから2枚の参
照画像を選択し、その組み合わせすべてについて、対象
画像上での物体像の特徴点座標を算出する。
【0037】3) 2)で求めた特徴点座標から適切な
ものを1つ選択する。
【0038】4) 2),3)を、物体を構成するすべ
ての特徴点について算出する。
【0039】この手順に従った処理の流れを図2A,2
Bのフローチャートによって示す。まず、合成処理を実
施する前に、あらかじめ前処理として図2Aのステップ
S2〜S4の手順を完了しておく。つまり物体を構成す
るすべての特徴点ついて(ステップS2)、物体の特徴
点を観測している参照画像のリストを生成する(ステッ
プS4)。
【0040】前処理が完了した後に図2Bに示すステッ
プS6〜S14の合成処理を行う。すべての特徴点につ
いて、次の処理を行う(ステップS6)。次に処理対象
の特徴点を観測している参照画像を2枚選択して組み合
わせを作り(ステップS8)、ステップS8のすべての
組み合わせについて(ステップS10)3画像方式によ
る物体像合成方法を用いて対象画像上での特徴点を算出
する(ステップS12)。ステップS12で求めた複数
の特徴点から最適な1つを求める(ステップS14)。
そしてすべての特徴点についてステップS6〜S14を
繰り返す。
【0041】ここでステップS14における複数の特徴
点から最適な1点を求める方法は、本実施形態では複数
の特徴点の座標値のヒストグラムを作成し、その中で最
大要素となる値(モード値)を上述の最適な1点として
用いる。なおその他にもこれに限定することなく、複数
の特徴点の平均値を求め、この平均値を上述の最適な1
点として用いても良いし、上述の最大要素と併用して用
いても良い。
【0042】この手法の概要を図3で例を用いて示す。
同図において家Hが対象物体であるとする。家Hを構成
する頂点について、V1は参照画像を撮影したカメラ
A,B,C,D,Eから観測されている。カメラFから
は頂点V1は見えない。同様にV3はカメラA,B,C
から、V4はカメラB,C,D,Eから、V5はカメラ
C,D,E,Fから観測されている。
【0043】対象画像上でV1を算出する場合、V1は
5つの参照画像から観測されている。そのうち2つの参
照画像を用いることで特徴点を算出できるが、精度を上
げるためにAとB、AとC、AとD、AとE、BとCな
どのように、2つの参照画像を選ぶ組み合わせすべてに
ついて、対象画像上におけるV1の位置を算出する。本
来、このように求めたV1はすべて同一の座標を持つ点
とならなければならないが、実際には誤差などの影響に
より同一の座標としては求まらない。そのため、組み合
わせの数だけ求めたV1の中から、最適なものを一つ算
出する。以上の処理をV3,V4,V5と、すべての頂
点について行う。
【0044】
【発明が解決しようとする課題】しかし上述の特徴点を
基準とした手法では、特徴点数、参照画像を撮影する方
向、枚数を十分に取れば、正しい形状で自然な見え方の
物体像を合成することが可能である。しかし上記2)で
は物体の全特徴点に対して、それを観測しているすべて
の参照画像を組み合わせるため、特徴点数や参照画像数
を増やすと、飛躍的に計算コストが高くなり、IBRの
高速性を損なってしまっていた。
【0045】本発明は以上の問題に鑑みてなされたもの
であり、注目視点位置からの仮想物体の画像を高精度、
且つ高速に生成することを目的とする。
【0046】
【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の画像処理装置は以下の構成を備
える。すなわち、現実空間内に仮想的に配置された仮想
物体を複数の方向から撮像した参照画像群と、注目視点
位置から撮像した前記現実空間の対象画像とを用いて、
当該注目視点位置から見た前記仮想物体の画像を生成す
る画像処理装置であって、前記注目視点位置から最も近
い視点から撮像された参照画像を選択する第1の参照画
像選択手段と、前記第1の参照画像選択手段により選択
された参照画像内の仮想物体を構成する面と同じ面の構
成を有する参照画像を前記参照画像群から選択する第2
の参照画像選択手段と、前記第2の参照画像選択手段に
より選択された参照画像、及び前記対象画像を用いて当
該参照画像における面の構成を有する前記注目視点位置
からの仮想物体の画像を生成すると共に、前記対象画像
に当該仮想物体の画像を合成する画像合成手段と、前記
画像合成手段により合成された画像を出力する出力手段
とを備える。
【0047】更に、前記仮想物体を構成する面を三角形
パッチに分割する分割手段を備え、前記仮想物体を構成
する面を前記分割手段による三角形パッチで表現する。
【0048】更に、前記参照画像群において撮像された
仮想物体の面の構成が同じ参照画像を同じグループとし
たリストを生成する生成手段と、前記生成手段により生
成された前記リストを格納するリスト格納手段とを備
え、前記第2の参照画像選択手段は前記リスト格納手段
に格納された前記リストを用いて参照画像の選択を行
う。
【0049】
【発明の実施の形態】以下添付図面に従って、本発明を
好適な実施形態に従って詳細に説明する。
【0050】[第1の実施形態]本実施形態の画像処理
装置の概略構成を図4に示す。同図における画像処理装
置は、装置の使用者(以下観察者と呼ぶ)がカメラを取
り付けた表示装置を通して見ることによって、本来そこ
には存在しないはずの仮想物体像を観察者の視点に応じ
た見え方で合成して、観察者に提示する機能を有する。
以下、この機能について図4を用いて説明する。
【0051】観察者視点カメラ2からは観察者の視点か
らの画像を取得する。観察者はあらかじめ決められたラ
ンドマーク(予め現実空間に配置されている指標)を観
測している必要がある。観察者視点カメラ2からの画像
はランドマークの画像上の座標の抽出(表示装置18が
ビデオカメラで撮像した画像を現実空間の画像として表
示するビデオシースルー型である場合には更に観察者に
提示する画像の生成)のために用いる。また表示装置1
8が光学的に透過して現実空間を観察する光学シースル
ー型である場合には、観察者の視点からの画像はランド
マークの抽出だけが実現できればよく、通常のカラーC
CDカメラの替わりに赤外光に反応するランドマークと
赤外カメラを用いてもよい。
【0052】ランドマーク抽出部4では、観察者視点カ
メラ2によって取得された画像から、観測されているラ
ンドマークの画像を抽出する。なおランドマークの画像
上での二次元座標のみが必要であり、三次元座標は得ら
れなくても構わない。また、ランドマークは同一平面に
乗らない最低4つの独立した点であって、点同士の三次
元的位置関係が不変であればよく、カメラで観測できれ
ばその形状、材質、大きさは問わない。またランドマー
ク抽出部4において、画像からランドマークを抽出する
方法については、画像処理のみに限らず、三次元位置が
既知であるランドマークを用い、観察者の視点位置から
推定することも可能である。
【0053】参照画像/画像データベース10には登録
した仮想物体、およびランドマークが同時に観測される
ように複数方向から撮影した参照画像が蓄積されてい
る。また参照画像から抽出されたランドマーク、仮想物
体像上の特徴点がそれぞれ対応づけられている。登録さ
れる仮想物体は剛体でなければならない。すべての参照
画像を撮影する間、物体の形状やランドマークとの三次
元的位置関係は不変である必要がある。参照画像/画像
データベース10に登録される参照画像は、物体の形状
やランドマークとの三次元的位置関係が不変であれば、
参照画像は動画像であってもよい。また、参照画像/画
像データベース10に登録される参照画像は、あらかじ
め録画した画像を蓄積するだけでなく、現在撮影されて
いる画像をリアルタイムで入力することも可能である。
遠隔地において撮影された画像を通信回線を経由させて
計算機に入力し、計算機を介してデータベース10に入
力してもよい。
【0054】観察者視点位置推定部6では、画像上のラ
ンドマークの情報から、三次元空間中での観察者の視点
位置を推定する。観察者視点位置推定部6において、画
像上のランドマークの情報を用いずに、位置・方位セン
サを利用して観察者の視点位置を獲得することも可能で
ある。
【0055】仮想物体形状算出部12では、ランドマー
ク抽出部4により抽出されたランドマークの座標、観察
者視点位置、参照画像における仮想物体の特徴点とラン
ドマークの座標から、後述する方法を用いて、対象画像
上での仮想物体像の特徴点を算出する。
【0056】仮想物体像形状算出部12において仮想物
体像を合成するために、前述の特徴点を基準とした手法
単独でも適切な見え方の物体像を合成することは可能で
あるが、計算コストが高く実時間処理が困難となるた
め、本実施形態では後述する面を基準とした手法と特徴
点を基準とした手法とを組み合わせることによって、高
速化、高精度化を実現している。
【0057】以下、面を基準とした合成手法について述
べる。この手法では、参照画像および対象画像を撮影し
たカメラの位置が既知であるものと仮定する。対象画像
のカメラ位置に最も近い参照画像を探し出し、物体を構
成するポリゴンのうち、その参照画像で観測されている
面についてのみ合成を行う。手順の流れは以下のように
なる。
【0058】1) 物体のポリゴンを三角形パッチに分
割し、各パッチにラベルを付与する。
【0059】2) すべての参照画像について、1)で
分割した各三角形パッチについて、観測しているパッチ
のラベルを並べ、リストを作る。このリストは参照画像
において観測されている物体の面の構成を意味する。
【0060】3) 各参照画像について、2)で生成し
たパッチのラベルリストが同一であるものを対応づけ
る。
【0061】4) 対象画像を撮影したカメラの位置に
最も近い参照画像を選び出す。
【0062】5) 選び出された参照画像に対応づけら
れている(観測している物体の面の構成が同一である)
他の参照画像をすべて選ぶ。
【0063】6) 5)で選ばれた参照画像から2枚を
選ぶすべての組み合わせで、3画像方式による物体像合
成方法を用いて対象画像上での物体の特徴点座標を求
め、この点群を候補とする。
【0064】7) 6)で候補となった点群のうち、適
切な1点を選ぶ。
【0065】面を基準とした手法の処理の流れを図5
A,5Bのフローチャートによって示す。まず、本手法
を実施する前に、あらかじめ前処理として図5Aに示す
ステップS20〜S26の手順を完了しておく。
【0066】同図においてまず物体を構成するポリゴン
を複数の三角形パッチに分割する(ステップS20)。
次に物体を観測するすべての参照画像について(ステッ
プS22)、参照画像に含まれているステップS20の
三角形パッチのラベルをリスト化して記憶しておき(ス
テップS24)、三角形パッチのラベルが同じ参照画像
をグループ化する(ステップS26)。同図に示す前処
理が完了した後に図5Bに示すステップS28〜S36
の合成処理を行う。
【0067】同図において観察者視点のカメラ位置に最
も近い参照画像を選び出し(ステップS28)、選び出
された参照画像と同じグループに属する参照画像から2
枚を選ぶ組み合わせを作る(ステップS30)。
【0068】ステップS30におけるすべての組み合わ
せについて(ステップS32)、対象画像上ですべての
特徴点(三角形パッチの頂点)を算出する(ステップS
34)。ステップS34で求めた複数の特徴点から最適
な1つを求め(ステップS36)、すべての参照画像の
組み合わせについてステップS32〜S36を繰り返
す。
【0069】この手法の概要を図6を用いて示す。同図
において、家Hが対象物体であるとし、家Hを構成する
各ポリゴンを〜のように三角形のパッチ分割したと
する。参照画像を撮影したカメラC1とC2からは三角
形パッチ〜が観測されており、カメラC3からは三
角形パッチ〜、カメラC4とC5からは三角形パッ
チ〜が観測されているとする。このとき、カメラC
1とC2、カメラC4とC5は観測しているパッチのラ
ベルが同一なのでグループ化される。観察者Pに最も近
いカメラがC1であるとすると、カメラC1と同一グル
ープに属するカメラC1とC2により観察される画像
(参照画像)を用いて対象画像上の特徴点を算出する。
【0070】この手法においては、対象画像で合成され
るべき物体像が含むポリゴンは、選択される参照画像で
の物体像が含むポリゴンと同一であるという仮定に基づ
くものである。物体を構成するポリゴンのうち対象画像
において観測されていると予測される面のみを合成す
る。そのため、従来の手法と比較して、計算量が少なく
高速である。その反面、仮想物体のポリゴンの見え隠れ
が変化する近傍に対象画像の視点が配置されると、この
仮定が成り立たず一部の面が欠落した物体像が生成され
る場合がある。
【0071】次に、特徴点を基準とした手法と面を基準
とした手法を組み合わせた手法について説明する。
【0072】まず、対象画像において観測されていると
予測される面については面を基準とした合成手法を適用
し、合成されなかった面については従来の手法である特
徴点を基準とした手法で合成する。従来の手法である特
徴点を基準とした手法単独でも適切な見え方の物体像を
合成することは可能であるが、計算コストが高く、実時
間処理が困難となる。面を基準とした手法では、高速な
処理が可能であるが、合成結果が不自然な見え方となる
ことがある。高速性を維持したまま、正しい形状で自然
な見え方の物体像を合成するため、両手法を併用して物
体像の合成を行う。以下に上述の組み合わせた方法によ
る仮想物体像合成のための手法の手順について示す。
【0073】1) 観察者視点位置の情報をもとに、面
を基準とした手法を用いて物体像の特徴点を算出する。
【0074】2) 1)によって算出されなかった特徴
点について、従来の手法である特徴点を基準とした合成
手法を用いて算出する。ただし、これらの特徴点に関し
ては、観察者から観測されていない可能性が高いため、
すべての組み合わせを解くことはせず、組み合わせる参
照画像数を削減し、計算コストの増大を防ぐ。
【0075】この手法を実行する際の図4に示す画像処
理装置において、仮想物体形状算出部12で行う処理の
流れを同処理を示す図7のフローチャートを用いて説明
する。まず面を基準とした手法を用いて高速に対象画像
上の特徴点座標を算出し(ステップS40)、ステップ
S40で算出されなかった特徴点については、特徴点を
基準とした手法で算出する(ステップS42)。
【0076】この方法の概要を図8を用いて説明する。
まず最初に面を基準とした手法によって、特徴点座標を
算出する。同図において家Hが対象物体であるとし、家
Hを構成する各ポリゴンを〜のように三角形パッチ
に分割したとする。参照画像を撮影したカメラAとBか
らは三角形パッチ〜が、カメラCからは三角形パッ
チ〜が、カメラD〜Fからは三角形パッチ〜が
観測されているとする。このとき、カメラAとB、カメ
ラDとEとFがグループ化される。観察者Pに最も近い
カメラをカメラDとすると、カメラDと同一グループに
属するカメラD,E,Fを用いて対象画像上の特徴点を
算出する。面を基準とした手法では、家Hの特徴点のう
ち算出されるのは〜のパッチを構成する特徴点のみ
であり、図中では灰色の星印で示している。残りの特徴
点については、特徴点を基準とした手法によって算出す
る。
【0077】家を構成する頂点V1はカメラA〜Fから
観測されている。同様に頂点V2,V3はカメラA〜C
から、頂点V4はカメラB〜Fから、V5はカメラC〜
Fから観測されている。ただしこの例の場合では頂点V
4とV5についてはすでに得られているので、算出する
必要はない。例えば頂点V1はカメラA〜Fから観測さ
れているので、この中から2枚の参照画像を選ぶ組み合
わせのすべてについて対象画像上での頂点V1を算出す
る。頂点V2、V3についても同様である。このように
して図中で白い星印で示される点を求め、家Hを構成す
るすべての特徴点座標を算出できる。
【0078】なお仮想物体形状算出部12において、2
枚の参照画像から物体像を生成する方法については、3
画像方式による物体像合成方法を用いなくても構わな
い。参照画像2枚と対象画像1枚に撮影された基準点の
座標をもとに物体像の特徴点を求める方法であればどの
ような方法でも適用することが可能である。
【0079】図4においてテクスチャマッピング部14
では、仮想物体形状算出部12で得られた対象画像上で
の特徴点から三角形パッチを構成して、各パッチに対し
テクスチャマッピングを適用し、自然な見え方の仮想物
体像を生成する。
【0080】出力画像合成部16では、観察者視点位置
の画像に、テクスチャマッピング部で生成した仮想物体
像を重畳して、表示装置18に提示する最終結果の画像
を生成する。このモジュールはビデオシースルー型の複
合現実感装置にのみ必要であり、光学シースルー型の場
合には、この処理は不要である。表示装置18はHMD
だけに限らず、据え置き型や手持ち型のCRTなどを用
いてもよい。
【0081】図9に本実施形態における画像処理装置の
ハードウェア構成を示す。図中、ディスク28には多数
の参照画像と各参照画像ごとに基準点、特徴点が記録さ
れており、参照画像データベース(図4において参照画
像/画像データベース10に相当)を構成している。こ
れらのデータは起動時にCPU22によりディスク28
から読み出され、メインメモリ30に格納される。メイ
ンメモリ30上に格納することにより、以後の処理を高
速にできる。HMD26に取り付けられた小型カラーC
CDカメラ24より、観察者視点での画像を随時取り込
む。この画像は画像処理装置22によって処理され、ラ
ンドマークの座標が抽出される。
【0082】参照画像データベース中の基準点座標、特
徴点座標、及び画像処理装置22により抽出されたラン
ドマークの座標、並びに観察者視点位置を用いて、最初
は面を基準とした手法により対象画像における仮想物体
像の特徴点座標の算出を行う。
【0083】次に、先の手法で算出されなかった特徴点
座標について、特徴点を基準とした手法を用いて算出す
る。この特徴点については、観察者から見えていない可
能性が高いため、すべての組み合わせについて解く必要
はなく、計算量を削減しても問題にはならない。本実施
形態では、すべての組み合わせを列挙したリストを作成
し、乱数によってリストから計算すべき組み合わせを選
ぶ。この方法を用いると、乱数制御のためのパラメータ
(例えば乱数の幅など)を変えることで、計算速度と算
出座標の精度を必要に応じて調整することが可能であ
る。なお生成したリストはメインメモリ30上に格納す
る。
【0084】算出した対象画像上の仮想物体の特徴点を
結び、三角形パッチを構成する。この三角形パッチに対
して、参照画像の対応する部分からテクスチャを切り出
し、三角形パッチにマッピングする。本実施形態では、
観察者視点位置情報を用い、観察者視点位置に最も近い
参照画像からテクスチャを得ている。
【0085】最後に、CCDカメラ24から得た画像に
合成した仮想物体像を画像処理装置20において重畳し
て、観察者が装着しているHMD26に表示する。本実
施形態ではHMD26はビデオシースルー型のHMDを
用いたが、光学シースルー型のHMDを用いることも可
能である。この場合は、CCDカメラ24の画像は必要
なく、HMD26上には合成した仮想物体像のみを表示
すればよい。
【0086】図10に本実施形態におけるメインの処理
のフローチャートを示す。なお本フローチャートに従っ
たプログラムコードはディスク28内に格納され、CP
U22によりメインメモリ30上に読み出され、CPU
22により実行される。
【0087】同図において、まず参照画像の登録を行う
(ステップS50)。この登録は実行時に行ってもよい
が、本実施形態ではプログラムの実行前にあらかじめ登
録しておき、ディスク28に記録したデータをメインメ
モリ30上に読み出している。ステップS50は参照画
像、特徴点座標、基準点座標の対応づけの処理と共に、
図2A,図5Aに示したフローチャートに従った処理を
含む。
【0088】次に観察者視点から撮影された画像を取得
し(ステップS52)、ステップS52で取得された画
像からランドマークを抽出し(ステップS54)、観察
者視点位置を検出し(ステップS56)、仮想物体の形
状となる特徴点を算出する(ステップS58)。ステッ
プS58での具体的な処理は図7で示したフローチャー
トに従った処理である。ステップS56で算出した仮想
物体の特徴点をもとにパッチを構成してテクスチャをマ
ッピングし(ステップS60)、観察者視点の画像に重
畳して観察者に提示する(ステップS62)。なお、光
学シースルー型のHMD26を用いる場合には、ステッ
プS62は仮想物体像を表示するだけの処理となる。ス
テップS52〜S62の処理は毎フレーム処理され、本
フローチャートに従った処理が終了するまで繰り返す
(ステップS64)。
【0089】[他の実施形態]本発明の目的は、前述し
た実施形態の機能を実現するソフトウェアのプログラム
コードを記録した記憶媒体(または記録媒体)を、シス
テムあるいは装置に供給し、そのシステムあるいは装置
のコンピュータ(またはCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することにな
る。また、コンピュータが読み出したプログラムコード
を実行することにより、前述した実施形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
【0090】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
【0091】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には先に説明した(図2A、及び/又は図2
B、及び/又は図5A、及び又は図5B、及び/又は図
7、及び/又は図10に示す)フローチャートに対応す
るプログラムコードが格納されることになる。
【0092】
【発明の効果】以上説明したように本発明によれば、注
目視点位置からの仮想物体の画像を高精度、且つ高速に
生成することができる。
【図面の簡単な説明】
【図1A】参照画像と対象画像、基準点の配置を説明す
る図。
【図1B】参照画像と対象画像、基準点の配置を説明す
る図。
【図2A】特徴点を基準とした合成手法において、前処
理の手順を説明するフローチャート。
【図2B】特徴点を基準とした合成手法において、合成
処理の手順を説明するフローチャート。
【図3】特徴点を基準とした合成手法を説明する図。
【図4】本発明の第1の実施形態における画像処理装置
の概略構成を示すブロック図。
【図5A】面を基準とした合成手法において、前処理の
手順を説明するフローチャート。
【図5B】面を基準とした合成手法において、合成処理
の手順を説明するフローチャート。
【図6】面を基準とした合成手法を説明する図。
【図7】本発明の第1の実施形態における合成手法の手
順を説明するフローチャート。
【図8】本発明の第1の実施形態における合成手法を説
明する図。
【図9】図1に示した画像処理装置のハードウェア構成
を示すブロック図。
【図10】本発明の第1の実施形態におけるメインの処
理のフローチャート。
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開2000−137815(JP,A) 特開2001−291116(JP,A) 特開2001−243497(JP,A) 特開2001−22936(JP,A) 特開2000−276613(JP,A) 小林俊広,大田友一ほか,参照画像の 適応的選択による自由視点からの仮想物 体像生成と実世界像との融合,電子情報 通信学会技術研究報告,日本,電子情報 通信学会,2000年 1月20日,Vol. 99,No.574,25−32 (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 G06T 17/40 G06T 1/00 G06T 3/00 G06T 7/00 JICSTファイル(JOIS)

Claims (17)

    (57)【特許請求の範囲】
  1. 【請求項1】 現実空間内に仮想的に配置された仮想物
    体を複数の方向から撮像した参照画像群と、注目視点位
    置から撮像した前記現実空間の対象画像とを用いて、当
    該注目視点位置から見た前記仮想物体の画像を生成する
    画像処理装置であって、 前記注目視点位置から最も近い視点から撮像された参照
    画像を選択する第1の参照画像選択手段と、 前記第1の参照画像選択手段により選択された参照画像
    内の仮想物体を構成する面と同じ面の構成を有する参照
    画像を前記参照画像群から選択する第2の参照画像選択
    手段と、 前記第2の参照画像選択手段により選択された参照画
    像、及び前記対象画像を用いて当該参照画像における面
    の構成を有する前記注目視点位置からの仮想物体の画像
    を生成すると共に、前記対象画像に当該仮想物体の画像
    を合成する画像合成手段と、 前記画像合成手段により合成された画像を出力する出力
    手段とを備えることを特徴とする画像処理装置。
  2. 【請求項2】 前記現実空間には複数の基準点が配置さ
    れ、前記注目視点位置から撮像した前記現実空間の対象
    画像には前記基準点が含まれていることを特徴とする請
    求項1に記載の画像処理装置。
  3. 【請求項3】 更に、前記仮想物体を構成する面を三角
    形パッチに分割する分割手段を備え、 前記仮想物体を構成する面を前記分割手段による三角形
    パッチで表現することを特徴とする請求項1又は2に記
    載の画像処理装置。
  4. 【請求項4】 更に、前記参照画像群において撮像され
    た仮想物体の面の構成が同じ参照画像を同じグループと
    したリストを生成する生成手段と、 前記生成手段により生成された前記リストを格納するリ
    スト格納手段とを備え、 前記第2の参照画像選択手段は前記リスト格納手段に格
    納された前記リストを用いて参照画像の選択を行うこと
    を特徴とする請求項1乃至3のいずれか1項に記載の画
    像処理装置。
  5. 【請求項5】 前記画像合成手段は前記仮想物体の画像
    を生成する際にテクスチャマッピングを行うテクスチャ
    マッピング手段を更に有することを特徴とする請求項1
    乃至4のいずれか1項に記載の画像処理装置。
  6. 【請求項6】 前記画像合成手段は前記第2の参照画像
    選択手段により選択される参照画像内の仮想物体におい
    て、撮像されている面以外の面を構成する各頂点の前記
    対象画像内における位置の算出に、前記参照画像を用い
    てイメージベースドレンダリングを行い、前記撮像され
    ている面以外の面を生成することを特徴とする請求項1
    乃至5のいずれか1項に記載の画像処理装置。
  7. 【請求項7】 前記イメージベースドレンダリングに用
    いる参照画像は乱数により選択されることを特徴とする
    請求項6に記載の画像処理装置。
  8. 【請求項8】 前記参照画像内、及び前記対象画像内に
    撮像される基準点の数は少なくとも4つ以上であること
    を特徴とする請求項2に記載の画像処理装置。
  9. 【請求項9】 前記出力手段はヘッドマウントディスプ
    レイを含むことを特徴とする請求項1又は2に記載の画
    像処理装置。
  10. 【請求項10】 現実空間内に仮想的に配置された仮想
    物体を複数の方向から撮像した参照画像群と、注目視点
    位置から撮像した前記現実空間の対象画像とを用いて、
    当該注目視点位置から見た前記仮想物体の画像を生成す
    る画像処理方法であって、 前記注目視点位置から最も近い視点から撮像された参照
    画像を選択する第1の参照画像選択工程と、 前記第1の参照画像選択工程で選択された参照画像内の
    仮想物体を構成する面と同じ面の構成を有する参照画像
    を前記参照画像群から選択する第2の参照画像選択工程
    と、 前記第2の参照画像選択工程で選択された参照画像、及
    び前記対象画像を用いて当該参照画像における面の構成
    を有する前記注目視点位置からの仮想物体の画像を生成
    すると共に、前記対象画像に当該仮想物体の画像を合成
    する画像合成工程と、 前記画像合成工程で合成された画像を出力する出力工程
    とを備えることを特徴とする画像処理方法。
  11. 【請求項11】 前記現実空間には複数の基準点が配置
    され、前記注目視点位置から撮像した前記現実空間の対
    象画像には前記基準点が含まれていることを特徴とする
    請求項10に記載の画像処理方法。
  12. 【請求項12】 更に、前記仮想物体を構成する面を三
    角形パッチに分割する分割工程を備え、 前記仮想物体を構成する面を前記分割工程による三角形
    パッチで表現することを特徴とする請求項10又は11
    に記載の画像処理方法。
  13. 【請求項13】 更に、前記参照画像群において撮像さ
    れた仮想物体の面の構成が同じ参照画像を同じグループ
    としたリストを生成する生成工程を備え、 前記第2の参照画像選択工程は前記生成工程により生成
    された前記リストを格納する所定のリスト格納手段に格
    納された前記リストを用いて参照画像の選択を行うこと
    を特徴とする請求項10乃至12のいずれか1項に記載
    の画像処理方法。
  14. 【請求項14】 現実空間内に仮想的に配置された仮想
    物体を複数の方向から撮像した参照画像群と、注目視点
    位置から撮像した前記現実空間の対象画像とを用いて、
    当該注目視点位置から見た前記仮想物体の画像を生成す
    る画像処理のプログラムコードを格納するコンピュータ
    が読み取り可能な記憶媒体であって、 前記注目視点位置から最も近い視点から撮像された参照
    画像を選択する第1の参照画像選択工程のプログラムコ
    ードと、 前記第1の参照画像選択工程で選択された参照画像内の
    仮想物体を構成する面と同じ面の構成を有する参照画像
    を前記参照画像群から選択する第2の参照画像選択工程
    のプログラムコードと、 前記第2の参照画像選択工程で選択された参照画像、及
    び前記対象画像を用いて当該参照画像における面の構成
    を有する前記注目視点位置からの仮想物体の画像を生成
    すると共に、前記対象画像に当該仮想物体の画像を合成
    する画像合成工程のプログラムコードと、 前記画像合成工程で合成された画像を出力する出力工程
    のプログラムコードとを備えることを特徴とする記憶媒
    体。
  15. 【請求項15】 前記現実空間には複数の基準点が配置
    され、前記注目視点位置から撮像した前記現実空間の対
    象画像には前記基準点が含まれていることを特徴とする
    請求項14に記載の記憶媒体。
  16. 【請求項16】 更に、前記仮想物体を構成する面を三
    角形パッチに分割する分割工程のプログラムコードを備
    え、 前記仮想物体を構成する面を前記分割工程による三角形
    パッチで表現することを特徴とする請求項14又は15
    に記載の記憶媒体。
  17. 【請求項17】 更に、前記参照画像群において撮像さ
    れた仮想物体の面の構成が同じ参照画像を同じグループ
    としたリストを生成する生成工程のプログラムコードを
    備え、 前記第2の参照画像選択工程は前記生成工程により生成
    された前記リストを格納する所定のリスト格納手段に格
    納された前記リストを用いて参照画像の選択を行うこと
    を特徴とする請求項14乃至16のいずれか1項に記載
    の記憶媒体。
JP2000354432A 2000-11-21 2000-11-21 画像処理装置及びその方法並びに記憶媒体 Expired - Fee Related JP3352454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000354432A JP3352454B2 (ja) 2000-11-21 2000-11-21 画像処理装置及びその方法並びに記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000354432A JP3352454B2 (ja) 2000-11-21 2000-11-21 画像処理装置及びその方法並びに記憶媒体

Publications (2)

Publication Number Publication Date
JP2002157603A JP2002157603A (ja) 2002-05-31
JP3352454B2 true JP3352454B2 (ja) 2002-12-03

Family

ID=18827019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000354432A Expired - Fee Related JP3352454B2 (ja) 2000-11-21 2000-11-21 画像処理装置及びその方法並びに記憶媒体

Country Status (1)

Country Link
JP (1) JP3352454B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100447778B1 (ko) * 2002-07-18 2004-09-08 김장헌 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현장치 및 그 방법
JP3961920B2 (ja) 2002-09-27 2007-08-22 株式会社東海理化電機製作所 バックル装置
KR20040041297A (ko) * 2002-11-11 2004-05-17 (주) 에이치비전 여러 대의 카메라 영상을 이용하여 운동물체의 위치 및움직임을 추적하고 표시하는 방법
JP2005050037A (ja) 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
KR101264514B1 (ko) 2010-12-01 2013-05-14 이광수 교통안전 교육 체험 시스템 및 방법
US9905039B2 (en) * 2014-02-21 2018-02-27 Qualcomm Incorporated View independent color equalized 3D scene texturing
WO2019003953A1 (ja) * 2017-06-29 2019-01-03 ソニー株式会社 画像処理装置および画像処理方法
JP6425780B1 (ja) * 2017-09-22 2018-11-21 キヤノン株式会社 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6632703B2 (ja) * 2018-12-27 2020-01-22 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2021060252A (ja) * 2019-10-04 2021-04-15 三菱重工業株式会社 画像測定方法及び画像測定システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137815A (ja) * 1998-11-02 2000-05-16 Gen Tec:Kk 新視点画像生成方法
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP3751770B2 (ja) * 1999-07-08 2006-03-01 富士通株式会社 3次元形状生成装置
JP3643511B2 (ja) * 2000-02-28 2005-04-27 日本電信電話株式会社 3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体
JP4370672B2 (ja) * 2000-04-11 2009-11-25 ソニー株式会社 三次元画像生成装置および三次元画像生成方法、並びにプログラム提供媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小林俊広,大田友一ほか,参照画像の適応的選択による自由視点からの仮想物体像生成と実世界像との融合,電子情報通信学会技術研究報告,日本,電子情報通信学会,2000年 1月20日,Vol.99,No.574,25−32

Also Published As

Publication number Publication date
JP2002157603A (ja) 2002-05-31

Similar Documents

Publication Publication Date Title
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP3745117B2 (ja) 画像処理装置及び画像処理方法
US8144238B2 (en) Image processing apparatus and method
US6636234B2 (en) Image processing apparatus for interpolating and generating images from an arbitrary view point
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
US8933928B2 (en) Multiview face content creation
US20020113865A1 (en) Image processing method and apparatus
JP3352454B2 (ja) 画像処理装置及びその方法並びに記憶媒体
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
KR100317138B1 (ko) 얼굴 텍스처 영상을 이용한 3차원 얼굴 모델링방법
JP4108171B2 (ja) 画像合成装置
JP3643511B2 (ja) 3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体
JP2000341721A (ja) 奥行き画像計測装置、視差画像計測装置、複合現実感提示システム、奥行き画像計測方法、複合現実感提示方法、およびプログラムの記憶媒体
Ohta et al. Share-Z: Client/server depth sensing for see-through head-mounted displays
JP2008287588A (ja) 画像処理装置および方法
KR101208767B1 (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
JP2002032744A (ja) 3次元モデリング及び3次元画像作成のための装置及び方法
JP4642431B2 (ja) 地図表示装置、地図表示システム、地図表示方法およびプログラム
KR100447778B1 (ko) 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현장치 및 그 방법
JP7394566B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US6633291B1 (en) Method and apparatus for displaying an image
JP3648099B2 (ja) 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070920

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080920

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090920

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090920

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100920

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100920

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110920

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110920

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120920

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120920

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130920

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees