JP2000132683A - 多視点画像符号化方法 - Google Patents

多視点画像符号化方法

Info

Publication number
JP2000132683A
JP2000132683A JP30264798A JP30264798A JP2000132683A JP 2000132683 A JP2000132683 A JP 2000132683A JP 30264798 A JP30264798 A JP 30264798A JP 30264798 A JP30264798 A JP 30264798A JP 2000132683 A JP2000132683 A JP 2000132683A
Authority
JP
Japan
Prior art keywords
model
block
information
viewpoint image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP30264798A
Other languages
English (en)
Inventor
Hideyuki Ueno
秀幸 上野
Nobuyuki Matsumoto
信幸 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP30264798A priority Critical patent/JP2000132683A/ja
Publication of JP2000132683A publication Critical patent/JP2000132683A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】処理量を増大させることなくモデル情報の精度
を高めて高品質の多視点画像の伝送を可能とした多視点
画像符号化方法を提供する。 【解決手段】被写体のモデル化を行って生成された符号
化されたモデル情報と、モデル情報より各視点画像に対
して生成された予測信号の予測誤差の情報を多重化して
符号化ストリームを生成する多視点画像符号化におい
て、被写体の形状を推定し(ステップ802)、推定さ
れた形状に基づき各視点画像についてブロック毎に対応
する被写体面の領域からの法線方向と視線方向とのなす
角度を求め、その角度をしきい値判定してモデルとして
採用するモデルブロックを選択し(ステップ803)、
モデルブロックの代表点の3次元空間上の座標を推定さ
れた形状に基づいて算出し(ステップ804)、モデル
ブロックの輝度の情報および算出された座標の情報を符
号化してモデル情報を生成する(ステップ805)。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、多視点画像を用い
て任意視点から見た画像を作成するような画像処理シス
テムにおける多視点画像情報の削減を目的とした符号化
方法に関する。
【0002】
【従来の技術】近年、コンピュータ技術、グラフィクス
技術の進展により、バーチャルショッピングモールなど
に代表される仮想空間内のウォークスルーが身近な存在
になりつつある。現状の仮想空間は、構成要素がCG
(コンピュータグラフィクス)によって生成されるもの
が大半である。これに対し、最近ではリアリティに注目
した別のアプローチとして、実写画像から仮想3次元空
間を生成する試みがなされてきている。CGの分野で
は、モデルを精密にし、演算資源を投入することにより
リアリティを追求する努力が払われてきたが、これとは
別に、近年、“imagebased rendering ”と称して、実
写を利用してリアリティを高めようという動きがある。
【0003】このような技術として、例えば文献[1]
「光線情報による3次元実空間の効率的記述へ向けた光
線空間射影法」苗村他、信学技報IE95−119で
は、3次元空間上を通る光線を表現する「光線空間」と
いう概念を導入し、多視点画像と光線空間とを相互に変
換することにより、入力された多視点画像から任意視点
画像を生成している。以下、この原理につき具体的に説
明する。
【0004】光線情報に基づく記述の考え方は、3次元
空間を伝播する光線の情報を3次元の直交座標空間上に
おける光線の通過位置(X,Y,Z)とその方向(θ,
φ)によって定義される5次元情報空間f(X,Y,
Z,θ,φ)に記述するというものである。ここで、θ
は直交座標空間上の任意の点(X,Y,Z)を通過する
光線の水平方向の傾き、つまりX−Z平面上の角度を示
し、φは(X,Y,Z)を通過する光線の垂直方向の傾
き、つまりX−Z平面上からY軸方向への角度を示す。
【0005】画像情報が直交座標空間上の任意の点
(X,Y,Z)に視点を置いたときにそこを通過する
(θ,φ)方向の光線の集合により形成されるものであ
ることを考慮すると、画像情報と前述の光線情報は相互
に変換可能であることが分かる。ここで、光線が減衰せ
ずに直進するという仮定が成立するような場合には、5
次元情報空間f(X,Y,Z,θ,φ)を4次元に縮退
させることができる。上述した文献1には、光線情報を
記録する面の取り方によって平面記録、円筒記録、球面
記録の3通りの記録方法があることが記されているが、
ここでは以後の説明を行うために必要な円筒記録につい
て簡単に説明する。
【0006】図14に、円筒記録のための座標系を示
す。まず、空間を4次元に縮退するために(X,Y,
Z)から(P,Q,R)への座標変換が行われる。ここ
で、(P,Q,R)座標のR軸は、図示のように光線の
進行方向(θ,φ)と一致するように規定される。これ
によりR軸に沿った信号の変化はなくなり、この軸は無
視することができるので、(X,Y,Z,θ,φ)は
(P,Q,R)、つまり(P,Q,θ,φ)の4次元に
変換される。次に、円筒記録ではθが同一であるφ方向
の全ての光線は、θ方向に法線を持つ(P,Q)平面上
の各点に記録される。これより、 P=Xcosθ−Zsinθ (1) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (2) の関係が得られる。
【0007】次に、この原理を使って多視点画像から光
線空間への記録を行い、記録された光線空間から任意視
点画像を生成する原理について説明する。上述の原理に
よって光線空間が4次元に縮退されたといっても、扱う
べき多視点画像の数や演算量は非常に多く、現実的では
ない。そこで、文献[2]「光線情報に基づく3次元空
間操作」石川他、PCSJ96 P−3.13において
はφ方向の視差を無視して、(p,θ)の2次元空間
(以下、p−θ平面という)への記録で代用している。
【0008】また、実際に扱える光線の数には限りがあ
るので、実用にはサンプリングが介在することになる。
すなわち、入力として扱われる視点の数は有限個にとど
められる。このとき、Y=一定の平面上でのある視点の
座標(X,Z)が決まると、その点を通る光線の軌跡は
式(1)で与えられる。
【0009】有限個の複数の視点を設定して画像を入力
すると、光線空間はある視点の座標(X,Z)を通る光
線の軌跡に沿った光線情報によって埋められてくる。光
線空間上で光線情報の得られていない部分は、得られて
いる光線情報により内挿等によって補間してやると、密
に光線情報で埋まった光線空間が得られる。再生の際は
任意視点(X,Z)を指定すると、その点を通る光線の
軌跡が式(1)から得られるので、その軌跡上の光線情
報を入力画像情報から取ってくることにより、任意の視
点画像の画面のY=一定における一つの走査線、つまり
ある特定のYの値に対応する一本の表示ライン上の画像
が得られる。こうして得られる走査線をY方向に積み重
ねることによって、任意の視点から見た1画面分の画像
を得ることができる。
【0010】上述したように、光線空間を用いた原理に
基づく任意視点画像の生成においては、扱うべき情報が
できる限り少なくて済むように簡略化を施してはいる
が、現状では、このような簡略化を施しても情報量、処
理量は依然として非常に多く、再生のリアルタイム化、
情報量の削減などが課題として挙げられている。
【0011】光線空間の概念を取り入れた多視点画像の
符号化に関する技術としては、文献[3]「複合現実感
表示のための光線空間データの圧縮」片山他、IMPS
96I−6.1に開示されている技術がある。この方法
では、同一被写体から得た120枚の多視点画像のうち
の何枚かを参照画像として設定してそのまま送り、他の
画像については参照画像中のどの画素値に近いか、とい
う画素を指定する情報として送ることによって、情報を
圧縮している。
【0012】また、文献[4](特開平8−11543
9号公報)では多視点画像の圧縮に関連する別の技術と
して、比較的少ない多視点画像の対応点の軌跡を規定す
るパラメータを利用することにより、受信側で任意視点
画像のための内挿を行う技術が開示されている。この
際、このパラメータのみによって光線空間を表現すれ
ば、非常に少ない情報量による表現が可能となる。
【0013】文献[3][4]はいずれもモデルのみに
よって多視点画像を表現しようとするものであるが、実
際には特に後者の場合、多視点画像からのモデルの推定
はかなり難しく、誤差を伴うものとなる。この結果、モ
デルの推定に誤差が生じた部分については、再生される
画像が不自然になってしまう。
【0014】一方、文献[5]「3次元構造推定に基づ
く多眼3次元画像の圧縮と補間」藤井、原島 3次元画
像コンファレンス’94 1−4には、3次元構造モデ
ルから多視点画像の予測信号を生成し、予測誤差を送る
方法が開示されている。この文献[5]でのモデルは平
面や平面パッチなどの近似であって、これによる予測の
精度はあまり良いとはいえない。しかし、単純にモデル
情報の精度を高くするとその情報量が増大してしまい、
全体の情報量を減らすことはできない。
【0015】これらの問題を解決するものとして、文献
[6]「多視点画像の符号化に関する方式検討」上野、
IMPS.97 I−3.2には、複数の視点画像か
らなる多視点画像を入力し、被写体面の各点の座標と多
視点画像中でモデルとして使用される視点画像内の各点
に対応する輝度値とからなるモデル情報を生成して、こ
のモデル情報を符号化するとともに、モデル情報から多
視点画像中の各視点画像を予測して得られた予測画像と
各視点画像との予測誤差を符号化し、符号化されたモデ
ル情報および予測誤差の情報を多重化して符号化ストリ
ームを生成する技術が記載されている。
【0016】この方法によると、モデル情報と予測誤差
の情報を多重化して符号化ストリームとして伝送する方
式であるため、モデルのみにより多視点画像を表現する
文献[3][4]に記載された技術に比較して多視点画
像をより正確に表現でき、再生画像の良好な画質を保証
することが可能であり、さらに文献[5]に比較してモ
デルの精度を高めることができる。特に、視点画像の視
線方向が被写体面からの法線方向に最も近い点(画素)
の輝度値を被写体面の各点の座標と共にモデル情報とし
て生成するため、モデルの輝度の解像度を高くとること
ができ、良好なモデル化が可能となる。
【0017】しかし、この文献[6]の方法において
は、良好なモデル情報が得られるという利点を有する反
面、視点画像の各点、つまり各画素毎にモデルを求める
ため、処理量の点でまだ改善の余地がある。
【0018】
【発明が解決しようとする課題】上述したように従来の
多視点画像符号化技術は、いずれも情報量や処理量が大
きく、また特にモデルによって多視点画像を表現するも
のでは、処理量を増やすことなくモデル情報の精度を高
めることが難しいという問題点があった。
【0019】本発明は、上記の事情を考慮してなされた
ものであり、処理量を増大させることなくモデル情報の
精度を高めて高品質の多視点画像の伝送を可能とした多
視点画像符号化方法を提供することを目的とする。
【0020】
【課題を解決するための手段】上述の課題を解決するた
め、本発明に係る多視点画像符号化方法では、まず被写
体との位置関係が既知の複数の視点からそれぞれ異なる
視線方向で得られた被写体についての複数の視点画像か
らなる多視点画像を入力する。この多視点画像から被写
体のモデル化を行い、符号化されたモデル情報を生成す
る。このモデル情報より、各視点画像に対する予測信号
を生成し、各視点画像に対する予測信号の予測誤差を符
号化する。そして、これら符号化されたモデル情報およ
び予測誤差の情報を多重化されて符号化ストリームが生
成される。
【0021】ここで、モデル化は被写体を各視点画像を
分割したブロックに対応する3次元空間上のブロックの
集合として近似するものとし、被写体の形状を推定し、
この推定された形状に基づき、各視点画像について該視
点画像を分割したブロック毎に該ブロックに対応する被
写体面の領域からの法線方向と視線方向とのなす角度を
求め、その角度をしきい値判定することにより該ブロッ
クをモデルとして採用するか否かを判定し、モデルとし
て採用するモデルブロックを選択する。そして、選択さ
れたモデルブロックの代表点の3次元空間上の座標を推
定された形状に基づいて算出し、選択されたモデルブロ
ックの輝度の情報および算出された座標の情報を符号化
してモデル情報を生成する。
【0022】このように本発明では、モデル化を視点画
像の画素毎でなく、ブロック毎に行うため、処理量を大
幅に低減できる。また、各視点画像についてブロック毎
に被写体面の対応する領域からの法線方向と視線方向と
のなす角度を求め、その角度をしきい値判定すること
で、モデルとして採用するモデルブロックを選択するこ
とにより、モデル情報の精度、特に輝度の解像度を高め
ることができ、復号化側で高品質の多視点画像を再生す
ることが可能となる。
【0023】また、モデルブロックの選択のための判定
に際して、しきい値判定の判定条件を段階的に緩和して
判定を行うようにすれば、モデルブロックの選択をより
効率的に実行できる。
【0024】さらに、このしきい値判定の判定条件に応
じて、多視点画像を構成する視点画像から間引きを行
い、間引いた後の視点画像についてブロック毎に判定を
行うようにすることで、不必要な処理を廃してより効率
的にモデルブロックの選択を行うことができる。
【0025】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。なお、以下の例では前述した文献
[1]に示された円筒記録モデルに従う例を基に説明す
るが、他のモデルを使用した場合においても本発明は適
用することが可能である。
【0026】図1は、本発明の多視点画像符号化方法が
適用される装置の典型的な構成を示すブロック図であ
る。この装置はCPU101、多視点画像入力部10
2、大容量の記憶装置(典型的な例としては、ハードデ
ィスク装置)103およびRAM(ランダムアクセスメ
モリ)104からなり、これらをバス100により接続
して構成される。
【0027】図2は、図1における多視点画像入力部1
02の構成例を示す図である。この例では、被写体20
1は回転台202に載せられ、カメラ203により撮影
される。カメラ203の光軸206は回転台202の回
転軸205と交差しており、回転軸205と光軸206
とは互いに直交しているものとする。回転軸205と光
軸206の位置関係は既知であり、その間の距離はRで
あるとする。回転台202は、制御装置204により一
定の角度(例えば3°)ずつステップ的に回転するよう
に制御され、その都度カメラ203により画像が入力さ
れる。この例では、カメラ203の一回転で視点の異な
る120枚の画像が入力されることになる。制御装置2
04は、図1のCPU101が兼ねてもよい。次に、こ
の場合の光線空間について説明する。
【0028】前述した文献2に示されているように、円
筒記録の場合、点(X,Y,Z)を通る光線は、光線空
間上の次式により表現される座標に記録される。 P=Xcosθ−Zsinθ (3) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (4) ここで今、従来技術の項でも説明したように、扱う情報
量、演算量が大きくなりすぎないようにQ方向の光線の
変化は考えないものとする。また、光線空間は回転軸2
05に直交する平面207で定義し、これをY方向に積
み上げて近似するものとする。この場合、φ方向の変化
によるオクルージョンなどは再現されない。
【0029】図3は、平面207上での被写体201の
断面301とカメラ203の位置関係を表している。こ
こで表記上、回転台202の回転軸205を中心とする
極座標表現(r,ψ)を図3に示すように導入すると、 X=rsinψ (5) Z=rcosψ (6) であるから、式(3)より P=rcosθ・sinψ−rsinθ・cosψ =rsin(ψ−θ) (7) となる。従って、図4に示すように光線空間であるp−
θ平面上での120枚の視点画像からなる多視点画像の
光線空間上における軌跡411は、 P=Rsin(n*3°−θ),n=0,…,119 (8) で表される。
【0030】ここで、軌跡411の中の曲線401,4
02,403,404,…は、それぞれ3°ずつ異なる
角度から撮影した視点画像を示している。すなわち、曲
線401,402,403,404,…は、それぞれ互
いに3°ずつ異なる角度から撮影した複数の視点画像に
おける特定のY方向位置に対応する一走査線分の画像を
表している。
【0031】同様の性質は、被写体面上の点においても
当てはまり、被写体面を表す関数r(ψ)を導入する
と、被写体面上の任意の点(r(ψ),ψ)から出る光
線の軌跡412は、 P=r(ψ)sin(ψ−θ) (9) で表される。
【0032】従って、被写体面上の任意の点(r
(ψ),ψ)から出る光線の軌跡412の光線情報は、
軌跡411の中の曲線401,402,403,40
4,…と軌跡412との交点405,406,407,
408,…で与えられることになる。このことは、被写
体面上の点のみならず、(X,Y,Z)座標上の任意の
点についても言える。
【0033】そこで、多視点画像から任意視点画像を再
生する場合には、その視点の位置情報によってその視点
を通る光線の軌跡が図4の光線空間上に決定され、その
軌跡と軌跡411の中の各曲線401,402,40
3,404,…との交点における光線情報を採ってくる
ことにより、任意視点画像の画面の一つの走査線が再生
される。従って、この例においては平面207に平行な
各平面で同様の操作を行い、得られた各走査線をY方向
に積み上げることによって、任意視点画像の画面全体、
つまり全てのYについての走査線を再生できる。
【0034】被写体面上の一点r(ψ)から出る光線の
光線空間上の軌跡が前述の式(9)で表せるということ
は、被写体面が光線の方向によって光線情報の値があま
り変わらない完全拡散面に近い性質の面である場合に
は、被写体面上の一点r(ψ)に対応する多視点画像
は、その点の座標値rと代表輝度値でモデル化でき、ま
た被写体面が完全拡散面から遠い性質の場合には、座標
値rとθの関数である輝度L(θ)でモデル化できるこ
とを示している。ここでいう輝度とは、TVカメラでい
うと輝度信号Yおよび色差信号Cr,Cb、または3原
色信号R,G,Bなどに対応するものを称している点に
注意されたい。文献2では、この輝度は光線情報と称せ
られている。
【0035】次に、図5に示すフローチャートを参照し
て本発明に係る多視点画像符号化の処理手順を説明す
る。まず、図1の多視点画像入力装置102により多視
点画像が入力され(ステップ501)、記憶装置103
に蓄えられる。次に、モデル推定が行われ、モデル情報
が生成される(ステップ502)。このステップ502
を含め、以下のステップでの処理は全て多視点画像を記
憶装置103から参照しつつ必要なデータをRAM10
4に蓄え、CPU101によりデータを参照することに
よって行われる。
【0036】ステップ502でモデル情報が求まった
ら、次にモデル情報の符号化が行われる(ステップ50
3)。符号化の典型例としては、モデル情報のうちの輝
度値に対してはテキスチャ画像としてJPEGやMPE
GのIピクチャの符号化に代表されるような、ブロック
化した後、DCT+量子化+可変長符号化を行う方法が
適当である。テキスチャ以外のモデル情報は、後述のよ
うにして符号化される。DCT+量子化+可変長符号化
により得られたモデル情報のテキスチャ画像の符号化デ
ータは、一旦記憶装置103に蓄えられる。
【0037】次に、モデルデータの局部復号化が行われ
る(ステップ504)。この局部復号化はモデルデータ
をステップ503の逆の手順で元のモデル情報に戻す操
作であり、例えば逆量子化+逆DCTにより行われる。
このモデルデータの局部復号化によって得られたモデル
情報は、後のステップで使用するためにRAM104に
蓄えられる。
【0038】こうしてモデル情報の符号化が終了する
と、次に多視点画像を構成する各視点画像の予測符号化
のループに入る。例として、多視点画像の画像の枚数を
nmax(例えば120枚)として説明する。
【0039】まず、フレーム番号nを0にセットする
(ステップ505)。次に、フレーム番号nを1ずつイ
ンクリメントし(ステップ506)、記憶装置103よ
り多視点画像を1フレームずつ読み出す(ステップ50
7)。なお、多視点画像を構成する個々の視点画像がそ
れぞれここでいうフレームで構成されているとする。
【0040】次に、各フレームに対してRAM104に
蓄えられたモデル情報から予測信号を生成する(ステッ
プ508)。この予測信号生成ステップ508について
は、後に詳しく説明する。
【0041】次に、このようにして生成された予測信号
と入力フレームnとの差分がとられて予測誤差が生成さ
れ(ステップ509)、この予測誤差が符号化される
(ステップ510)。この予測誤差の符号化の典型例
も、DCT+量子化+可変長符号化である。こうして予
測誤差を符号化して得られた予測誤差データは、記憶装
置103に蓄えられる。
【0042】上述したステップ506〜510の処理を
多視点画像の全てのフレームについて、つまりステップ
511でn=nmax と判定されるまで繰り返し行う。こ
こで、予測誤差符号化ステップ510における量子化に
おいては、量子化されたDCT係数情報が全て0であっ
た場合に、そのブロックを無効と判定し、そのブロック
については情報を全く送らないものとする。本実施形態
における予測では、物理現象に直接対応したモデルを使
用しているので、モデル化が良好に行われる画像につい
ては、予測誤差がほとんど発生しないことが期待でき
る。従って、情報量を大幅に減らすために、このように
有効判定を行って無効なブロックを送らなくすることは
非常に重要である。
【0043】次に、記憶装置103に蓄えられたモデル
データと予測誤差データを多重化し(ステップ51
2)、多重化ストリームを生成する。次に、ステップ5
12で一旦記憶装置に蓄えたモデル符号化データと各視
点画像の予測誤差符号化データを多重化する。
【0044】図6に、この場合の多重化フォーマットの
例を示す。この多重化フォーマットは、TV会議用のI
TU−T勧告H.261の多重化フォーマットの記述方
法に準じて記述されている。本実施形態では、フォーマ
ットは可能な限りMPEG等の既存の符号化に似せたフ
ォーマットとなるようにしている。まず、フォーマット
は階層的な構造とした。各レイヤの情報にはスタートコ
ード、エンドコードなどレイヤ固有の情報を含むへッダ
およびトレイラが存在する。最上位レイヤは、1セット
の多視点画像で表現される図6(a)のオブジェクトレ
イヤである。オブジェクトレイヤは、次の図6(b)の
モデルレイヤと誤差レイヤに分れる。モデルレイヤのヘ
ッダは、輝度情報を量子化する際の量子化ステップサイ
ズ(QUANT)とモデルの最小視方向刻み(Δψ)を
含み、誤差レイヤのへッダは、誤差情報を量子化するス
テップサイズ(QUANT)を含む。再生側では、モデ
ルレイヤはどのような視点からの画像を再生する場合で
も、必ず全てが復号の初期のステージでアクセスされる
のに対して、誤差レイヤは視点によってアクセスされる
部分が変わるので、モデルレイヤは図に示すようにオブ
ジェクトの情報のうち前の方に固めて配置され、その後
に誤差レイヤの情報が続くようにするのが良い。
【0045】モデルレイヤの構成について、図6(b−
1),(b−2)および(d)を用いて説明する。モデ
ルから予測信号生成の処理はスライス毎に行う処理とな
るので、モデルレイヤの直ぐ下のレイヤとしては図6
(b−1)に示すスライスレイヤが来る。スライスレイ
ヤは、SSC(Slice Start Code),
SN(Silce Number)及びそのスライスに
属する複数のマクロブロックレイヤ(MBレイヤ)から
構成されている。マクロブロックレイヤは、図6(b−
2)に示すようにモデルマクロブロックに与えられた3
次元座標のうちの2成分x,z及びそのモデルマクロブ
ロックが選択された視点画像に対応する視方向ψ及び対
応するブロックデータにより構成される。モデルマクロ
ブロックは、この例では図7に示すようにRGBの各ブ
ロックより構成されている。RGBの各ブロックのサイ
ズは、例えば8×8画素である。マクロブロックはシン
タックス上の用語で、モデルに属する3次元空間で定義
されたブロックに対応するものである。
【0046】x,z,ψ共に、隣のマクロブロックとの
差分をとって可変長符号化することで、符号量を減らす
ことができる。特に、ψは角度情報を最小刻みΔψを単
位として除算した後に差分をとるものとする。例えば、
3°おきに撮影した多視点画像の場合、Δψ=3とな
り、330°から撮影したモデルマクロブロックのψの
値は330/3=110とした後、同様の計算で得られ
た隣のモデルマクロブロックの該当する値と差分がとら
れる。マクロブロックレイヤの下は図6(d)に示すブ
ロックレイヤであり、その中はDCT係数(Tcoef
f)とEOB(End of Block)よりなる。
【0047】次に、誤差レイヤの構成について図6
(c),(c−1),(c−2),(c−3)および
(d)を用いて説明する。図6(c−1)に示すよう
に、フレームレイヤのヘッダは、フレーム番号(PN)
及びその視方向ψ(これはフレームが撮影された条件と
して被写体201の中心軸とカメラとの距離R及びカメ
ラの光軸と交わる被写体面の角度座標の情報である)を
含む。R,ψの情報は、図2で説明したように固定距
離、固定回転角での撮影である場合に限定すれば、オブ
ジェクトレイヤのへッダに入れてもよいが、より一般的
にはフレーム毎に異なっても問題なく、本実施形態では
フレームレイヤに存在するものとする。また、この情報
は論理的にはモデルまたは誤差のいずれか一方に入って
いれば再生可能であるが、アクセスを簡単にする都合
上、ここでは両方に入れておくものとする。
【0048】フレームレイヤの下は、スライスレイヤで
ある。スライスレイヤは、図6(c−2)に示すように
SSC(Slice Start Code),SN
(Slice Number)及びそのスライスに属す
る複数のマクロブロックレイヤから構成されている。ス
ライスレイヤが入ると、スライス毎へのアクセスがしや
すくなり、復号処理が楽になると共に、オブジェクトを
軸に直交する面で切った一部のみの再生がしやすくな
る。
【0049】スライスレイヤの下は図6(c−3)に示
すマクロブロックレイヤであり、誤差マクロブロックは
モデルマクロブロックと同様に、図7のように構成され
ている。誤差レイヤではスライス、マクロブロック共
に、へッダにはフレーム内でのアドレス情報(SN,M
BA)を含み、情報の無いスライス、マクロブロックは
送られない(スキップ)。CBPは、マクロブロック内
の情報を含むブロックのパターンを示す情報である。ブ
ロックレイヤの構成は、モデルレイヤと全く同じであ
る。
【0050】次に、図5のモデル推定ステップ502及
びモデル情報符号化ステップ503を含めた処理の詳細
を説明する。図8は、モデル推定ステップ502及びモ
デル情報符号化ステップ503における詳細な処理の例
を示す図である。図5の多視点画像入力ステップ501
で撮影された多視点画像801が入力されると、まず形
状推定ステップ802において被写体201の3次元形
状(表面形状)が推定される。次のモデルブロック判定
ステップ803においては、各視点画像を複数に分割し
たブロック毎に、上記推定された形状を参照して該ブロ
ックの投影元に対応する被写体面の領域からの法線方向
と視線方向とのなす角度を求め、その角度をしきい値判
定することで該ブロックをモデルとして採用するか否か
を判定し、モデルとして採用する場合は、そのブロック
をモデルブロックとして選択する。次の代表点座標算出
ステップ804では、モデルブロック判定ステップ80
3で選択されたモデルブロックの代表点の3次元空間内
での座標を推定された被写体201の3次元形状から算
出する。最後に、統合・符号化ステップ805において
は、モデルブロック判定ステップ803で選択されたモ
デルブロックの輝度の情報と、代表点座標算出ステップ
804で算出されたモデルブロックの代表点の3次元空
間内での座標の情報を統合し、これを前述した符号化方
法によって符号化することにより、3次元モデル情報8
06を出力する。以下、図8の各ステップ802〜80
5の処理について詳細に述べる。
【0051】(形状推定ステップ802について)図9
を用いて図8の形状推定ステップ802の処理について
詳細に説明する。図9は、多視点画像上の3次元物体の
輪郭線の情報を用いて3次元物体の形状を推定する方法
を示している。図9(a)は、カメラ位置がそれぞれ0
°,45°,90°の時に撮影された多視点画像90
1,902,903を示している。また図9(b)にお
いて、904,905はそれぞれ多視点画像901,9
03が撮影された時のカメラのレンズ中心位置、908
は形状推定対象の3次元空間であり、さらに906,9
07はそれぞれ多視点画像901,903における注目
ラインである。
【0052】ここでは簡単のため、図5の多視点画像入
力ステップ601によって入力された多視点画像のう
ち、カメラ位置が0°,90°の時にそれぞれ撮影され
た画像の注目ライン906,907における動作を説明
する。
【0053】まず、多視点画像901上での3次元物体
の輪郭線を検出し、さらに注目ライン906を抜き出
す。コンピュータ上の仮想された空間に、カメラ位置が
0°の時のレンズ中心904と、この時に撮影された画
像の注目ライン906を配置する。これらレンズ中心9
04と、注目ライン906上にある3次元物体の輪郭線
が入っている画素とを結ぶ逆投影線を3次元空間908
へ向かって引く。図9では、6本の逆投影線909〜9
14が引かれている。
【0054】これら6本の逆投影線909〜914のう
ちの2本の逆投影線に挟まれる領域について説明する
と、まず逆投影線909,910に挟まれる領域は注目
ライン906上の画素に3次元物体が写っているので、
3次元物体が存在する可能性がある領域である。同様
に、逆投影線911,912に挟まれる領域および逆投
影線913,914に挟まれる領域も、3次元物体が存
在する可能性がある領域である。
【0055】一方、逆投影線909の左側の領域や、逆
投影線910,911に挟まれる領域は、注目ライン9
06上の画素に3次元物体が写っていないので、必ず3
次元物体が存在しない領域である。同様に、逆投影線9
12,913に挟まれる領域や、逆投影線914の右側
の領域も、3次元物体が存在しない領域である。
【0056】次に、カメラ位置90°の時のレンズ中心
905と、この時に撮影された画像の注目ライン907
も仮想空間内に配置して、同様の処理を行う。カメラ位
置が0°と90°の2枚の画像から算出した形状は、3
次元空間908内の黒く塗り潰された部分である。
【0057】この説明では、0°と90°の2つのカメ
ラ位置(視点位置)で撮影された画像から被写体201
の概略的な3次元形状を推定したが、実際は全周方向か
ら撮影されている多視点画像全てを用いて3次元形状を
推定する。この場合、順に連続した近い視点位置の画像
を用いて3次元形状を推定するよりは、全周について大
まかに視点位置を移動させて算出する方がより早く3次
元形状が絞られる。ひとたび「3次元物体存在可能領域
ではない」と決まった領域は、以降、逆投影線によって
囲まれる領域との重なりを比較しなくて済むので、上述
のような推定方方法によると計算時間が早くなる。例え
ば、始めに0°,90°,180°,270°の視点位
置の画像で形状を推定し、次いで45°,135°,2
25°,315°の視点位置の画像で形状を推定し、以
下同様に、なるべく近い視点位置が続かないように形状
を推定する。さらに、CG等で用いられているような射
影変換の手法を用いれば、より演算量を少なくすること
ができる。
【0058】(モデルブロック判定ステップ803につ
いて)次に、図8のモデルブロック判定ステップ803
の処理について、図10を用いて説明する。モデルブロ
ック判定ステップ803では、各視点画像のブロック毎
に、形状推定ステップ802により推定された3次元形
状に逆投影線を引き、3次元形状の該ブロックが投影さ
れた領域(すなわち、視点画像のブロックに対応する被
写体面の領域)からの法線方向と、その視点画像を撮影
したときの視線方向とのなす角度を求め、その角度が角
度が小さく、より高い解像度で撮影されているブロック
から優先的にモデルとして採用し、モデルブロックの選
択を行う。
【0059】図10は、このモデルブロック判定ステッ
プ803の処理の具体例を説明するための図であり、1
001はカメラ位置が0°の時に撮影された視点画像、
1002は視点画像1001が撮影された時のカメラの
レンズ中心位置、1003は形状推定ステップ102に
よって推定された3次元物体の形状、1004はモデル
ブロック判定が行われる3次元空間である。
【0060】ここでも、図8の形状推定ステップ802
の説明と同様に、図5の多視点画像入力ステップ501
によって入力された多視点画像のうち、カメラ位置が0
°の時に撮影された画像1001の中のブロックに対し
てモデルブロック判定を行った場合をまず説明する。異
なるカメラ位置の場合も、0°の場合と同じ方法で判定
を行う。
【0061】まず、カメラ位置が0°の時に撮影された
視点画像1001を複数のブロックに分ける。図10で
は、横方向に6つのブロックに分けられている。ここで
は、説明がし易いように視点画像1001を大きくブロ
ック分けしてあるが、実際は一般の画像(例えば640
×480画素サイズの画像)を符号化するとき利用され
るような8×8画素サイズのブロックや4×4画素サイ
ズのブロックを用いるので、視点画像は横に80〜16
0個、縦に60〜120個のブロックに分けられてい
る。
【0062】次に、左のブロックから順にブロック両端
から図8の形状推定ステップ802で推定された形状1
003に向けて逆投影線を引いていき、これらの逆投影
線と形状1003との交点を求める。例えば、左から3
番目のブロック1005の両端から引いた逆投影線と形
状1003との交点は、1006と1007になる。こ
れらの交点1006,1007を結ぶ線分は、形状10
03のうちの視点画像のブロック1005に対応する領
域であり、この領域からの法線方向と、視点画像100
1を撮影したときの視線方向とのなす角度はほぼ0°、
言い換えれば、この線分とブロック1005とのなす角
度はほぼ0で、両者はほぼ平行になっている。従って、
このブロック1005内に撮影されている物体の輝度情
報の解像度は高いということになるので、ブロック10
05をモデルとして採用する。すなわち、ブロック10
05をモデルブロックとして選択する。
【0063】これに対して、例えば図10の一番右のブ
ロック1008のように、ブロック両端から引いた逆投
影線と推定された形状1003との交点1009,10
10を結ぶ線分(形状1003のブロック1008に対
応する領域)からの法線方向と、視点画像1001を撮
影したときの視線方向とのなす角度が大きい場合は、そ
のブロック1008内に撮影されている物体の輝度情報
の解像度は低いということになるので、ブロック100
8はモデルとしては採用しないことにする。
【0064】実際には、ブロック両端から引いた逆投影
線と推定された3次元形状との二つの交点を結ぶ線分か
らの法線方向と、その視点画像を撮影したときの視線方
向とのなす角度がある閾値γ以下か否かによって、その
ブロックをモデルとして採用するか否かの判定を行い、
モデルとして採用するモデルブロックの選択を行う。そ
して、同様の判定を多視点画像801に含まれる各視点
画像の全てのブロックに対して行う。
【0065】ここで、上述したモデルブロック判定ステ
ップ103でのしきい値判定を以下のように段階的に行
うようにすれば、より効率的に視点画像の各ブロックを
モデルとして採用するか否かの判定を行うことが可能に
なる。すなわち、多視点画像がa[rad]なる角度間
隔の撮影位置毎に撮影された視点画像からなっていると
すると、まず始めに、被写体の推定された3次元形状の
ブロックに対応する被写体面の領域からの法線方向と、
その視点画像を撮影したときの視線方向とのなす角度が
±a/2[rad]以内にあるブロックのみを選択し、
そのブロックをモデルとして採用するか否かを判定す
る。これは一つ横の多視点画像と重ならず、最も高解像
度の画像を選択して判定を行うことに相当する。全ての
多視点画像について、同様のブロック選択と判定を撮影
位置0[rad]から2π[rad]まで一周にわたっ
て行う。
【0066】次に、角度a[rad]より大きい角度b
[rad]を決めて、ブロックに対応する領域からの法
線方向となす角度が±b/2[rad]のブロックで、
始めに選択されなかったブロックを一周にわたり選択
し、判定を行う。以下同様に、段階的にブロックを選択
し判定してゆく。
【0067】このようにして、視点画像のより高解像度
のブロックからモデルとして採用するか否かの判定を行
ってモデルブロックを選択し、それ以前の段階ではモデ
ルとして選ばれなかった比較的解像度の低いブロックを
徐々にモデル化してゆくことが可能となる。ここで、2
巡目以降の処理が必要なのは、オクルージョンによって
被写体面の法線方向以外の方向にしか写っていないよう
な領域が存在し得るためである。
【0068】また、上述した段階的なモデルブロック判
定において、b=m×a[rad](m:2以上の整
数)となるように決めてゆけば、±b/2[rad]に
なるブロックを全て含む多視点画像がm枚毎に存在する
ことになるので、判定を行う多視点画像をm枚毎に間引
くことが可能になる。これにより、段階が進むにつれて
モデルを一回りする演算量を1/mずつに減らしていく
ことが可能になる。
【0069】(代表点座標算出ステップ804につい
て)次に、図11を用いて図8の代表点座標算出ステッ
プ804の処理について説明する。代表点座標算出ステ
ップ804では、モデル符号化判定ステップ803で選
択されたモデルブロックの代表点の座標を算出する。こ
こでは、一例としてモデルブロックの中心点を代表点と
した場合の代表点座標の算出手順について述べる。
【0070】すなわち、モデルブロック判定ステップ8
03によって選択された全てのモデルブロックについ
て、そのモデルブロックが含まれる多視点画像が撮影さ
れたレンズ中心から逆投影線を引き、形状推定ステップ
802により推定された形状との2つの交点の中点を該
ブロックの代表点として座標を求める。
【0071】図11においては、視点画像1101が撮
影されたレンズ中心1102から、3次元空間1104
内にある形状1103に向かって、モデルブロック判定
ステップ803によって選択されたモデルブロック11
05の両端を通る二つの逆投影線を引き、これらの逆投
影線と形状1103との交点1106,1107を求め
ている。これらの交点1106,1107を結ぶ線分の
黒点で示す中点が代表点1108であり、この代表点1
108の座標を選択された全てのモデルブロックに対し
て算出する。
【0072】(統合・符号化ステップ805について)
図8の統合・符号化ステップ805においては、モデル
ブロック判定ステップ803でモデルとして採用された
ブロックの輝度情報と、代表点座標算出ステップ804
で算出された各ブロックの代表点の3次元空間内での座
標、角度情報を組み合わせて、前述した符号化方法によ
って符号化して、3次元モデル806を出力する。
【0073】以上、図8の各ステップの処理について説
明したが、最後に図5の予測信号生成ステップ508に
ついて図12を用いて説明する。図12において、12
01は予測信号を生成すべき視点画像、1202は視点
画像1201が撮影されたときのレンズ中心、1205
〜120nは3次元空間上に配置したモデルブロックで
ある。予測信号の生成においては、以下の処理をスライ
ス毎に行う。
【0074】予測信号生成の処理は、基本的には全ての
モデルブロック1205〜120nから視点画像120
1への投影を行い、奥行きを考慮して最も手前の投影の
みを有効にするという処理である。モデルブロック12
05からの投影を例として説明する。本実施形態では、
モデルブロックの中心点に3次元座標x,zが与えられ
ている(図6のシンタックス参照)。このモデルブロッ
ク1205の中心点から逆投影線を引き、この逆投影線
と視点画像1201との交点1203の視点画像120
1上の座標を求める。
【0075】次に、モデルブロック1205に与えられ
ている視線方向の情報ψと視点画像1201の視線方向
との差(図12のθ)から投影されるテキスチャ121
0を図13に示すようにモデルブロック1205のテキ
スチャ1305を水平方向に圧縮することによりテキス
チャ1310として求め、視点画像1201の対応する
領域1204にマッピングする。この際、3次元座標
x,z及び角度θから領域1204の各画素毎に対応す
るモデルブロック領域のz値(被写体の奥行き情報)を
求め、このz値が一番手前にある投影を有効とするよう
に管理しながら重ね書きする。以上の一連の操作を全て
のモデルブロック1205〜120nについて行うこと
により、視点画像1201についての最終的な予測信号
が形成される。
【0076】
【発明の効果】以上説明したように、本発明によれば視
点画像を複数に分割したブロック毎にモデル化を行うと
共に、そのモデル化に際し各視点画像についてブロック
毎に被写体面の対応する領域からの法線方向と視線方向
とのなす角度を求め、その角度をしきい値判定すること
により、モデルとして採用するモデルブロックを選択す
るため、処理量を大幅に低減しつつ、モデル情報の精
度、特に輝度の解像度を高めて、復号化側で高品質の多
視点画像を再生することが可能となる。
【0077】また、モデル化の際のモデルブロックの選
択時に、しきい値判定の判定条件を段階的に緩和して判
定を行い、さらには、しきい値判定の判定条件に応じ
て、多視点画像中の視点画像の間引きを行い、間引き後
の視点画像についてブロック毎に判定を行うようにする
ことで、より効率的にモデルブロックの選択を行うこと
ができる。
【図面の簡単な説明】
【図1】本発明による多視点画像符号化方法が適用され
る装置の一実施形態を示すブロック図
【図2】図1における多視点画像入力部の構成を示す図
【図3】被写体の断面と極座標の関係を説明する図
【図4】入力された多視点画像のp−θ平面上での位置
関係を説明する図
【図5】同実施形態に係る多視点画像符号化方法の処理
手順を示すフローチャート
【図6】同実施形態における多重化フォーマットを示す
【図7】マクロブロックの構成を示す図
【図8】図5におけるモデル推定ステップの詳細な処理
手順を示すフローチャート
【図9】図8における形状推定ステップの処理を説明す
る図
【図10】図8におけるモデルブロック判定ステップの
処理を説明する図
【図11】図8における代表点座標算出ステップの処理
を説明する図
【図12】同実施形態における予測信号生成処理を説明
する図
【図13】予測信号生成におけるマッピングについて説
明する図
【図14】光線空間の円筒記録を説明する図
【符号の説明】
100…バス 101…CPU 102…多視点画像入力部 103…記憶装置 104…RAM 201…被写体 203…カメラ
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA02 CA01 CA08 CA13 CA16 CG03 CG05 5C059 LC01 MA00 MB08 MB16 PP12 PP13 RB18 RC38 UA38

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】被写体との位置関係が既知の複数の視点か
    らそれぞれ異なる視線方向で得られた該被写体について
    の複数の視点画像からなる多視点画像を入力する入力ス
    テップと、 前記被写体をモデル化して符号化されたモデル情報を生
    成するモデル化ステップと、 前記モデル化ステップによって生成されたモデル情報よ
    り前記各視点画像に対する予測信号を生成する予測ステ
    ップと、 前記各視点画像に対する前記予測信号の予測誤差を符号
    化する予測誤差符号化ステップと、 前記モデル化ステップにより生成されたモデル情報およ
    び前記予測誤差符号化ステップにより符号化された予測
    誤差の情報を多重化して符号化ストリームを生成する多
    重化ステップとを備え、 前記モデル化ステップは、 前記被写体の形状を推定する形状推定ステップと、 前記形状推定ステップにより推定された形状に基づき、
    前記各視点画像について該視点画像を分割したブロック
    毎に該ブロックに対応する被写体面の領域からの法線方
    向と前記視線方向とのなす角度を求め、その角度をしき
    い値判定することにより該ブロックをモデルとして採用
    するか否かを判定し、モデルとして採用するモデルブロ
    ックを選択する判定ステップと、 前記判定ステップにより選択されたモデルブロックの代
    表点の3次元空間上の座標を前記形状推定ステップによ
    り推定された形状に基づいて算出する代表点座標算出ス
    テップと、 前記判定ステップにより選択されたモデルブロックの輝
    度の情報および前記代表点座標算出ステップにより算出
    された座標の情報を符号化して前記モデル情報を生成す
    るステップとからなることを特徴とする多視点画像符号
    化方法。
  2. 【請求項2】前記判定ステップは、前記しきい値判定の
    判定条件を段階的に緩和して判定を行うことを特徴とす
    る請求項1記載の多視点画像符号化方法。
  3. 【請求項3】前記判定ステップは、前記しきい値判定の
    判定条件に応じて前記多視点画像を構成する視点画像か
    ら間引きを行い、間引いた後の視点画像について該視点
    画像を分割したブロック毎に判定を行うことを特徴とす
    る請求項2記載の多視点画像符号化方法。
JP30264798A 1998-10-23 1998-10-23 多視点画像符号化方法 Pending JP2000132683A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30264798A JP2000132683A (ja) 1998-10-23 1998-10-23 多視点画像符号化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30264798A JP2000132683A (ja) 1998-10-23 1998-10-23 多視点画像符号化方法

Publications (1)

Publication Number Publication Date
JP2000132683A true JP2000132683A (ja) 2000-05-12

Family

ID=17911510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30264798A Pending JP2000132683A (ja) 1998-10-23 1998-10-23 多視点画像符号化方法

Country Status (1)

Country Link
JP (1) JP2000132683A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008020733A1 (en) * 2006-08-18 2008-02-21 Gwangju Institute Of Science And Technology A method and apparatus for encoding multiview video using hierarchical b frames in view direction, and a storage medium using the same
CN101562745B (zh) * 2008-04-18 2012-07-04 华为技术有限公司 一种多视点视频图像编码和解码的方法及装置
RU2494569C2 (ru) * 2006-01-09 2013-09-27 Томсон Лайсенсинг Способы и устройство для кодирования видео с несколькими представлениями
CN109997358A (zh) * 2016-11-28 2019-07-09 索尼公司 用于自由视点视频流式传输的以解码器为中心的uv编解码器

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2494569C2 (ru) * 2006-01-09 2013-09-27 Томсон Лайсенсинг Способы и устройство для кодирования видео с несколькими представлениями
US8842729B2 (en) 2006-01-09 2014-09-23 Thomson Licensing Methods and apparatuses for multi-view video coding
US9143782B2 (en) 2006-01-09 2015-09-22 Thomson Licensing Methods and apparatus for multi-view video coding
US9521429B2 (en) 2006-01-09 2016-12-13 Thomson Licensing Methods and apparatus for multi-view video coding
US9525888B2 (en) 2006-01-09 2016-12-20 Thomson Licensing Methods and apparatus for multi-view video coding
US10194171B2 (en) 2006-01-09 2019-01-29 Thomson Licensing Methods and apparatuses for multi-view video coding
WO2008020733A1 (en) * 2006-08-18 2008-02-21 Gwangju Institute Of Science And Technology A method and apparatus for encoding multiview video using hierarchical b frames in view direction, and a storage medium using the same
US8184707B2 (en) 2006-08-18 2012-05-22 Gwangju Institute Of Science And Technology Method and apparatus for encoding multiview video using hierarchical B frames in view direction, and a storage medium using the same
CN101562745B (zh) * 2008-04-18 2012-07-04 华为技术有限公司 一种多视点视频图像编码和解码的方法及装置
CN109997358A (zh) * 2016-11-28 2019-07-09 索尼公司 用于自由视点视频流式传输的以解码器为中心的uv编解码器

Similar Documents

Publication Publication Date Title
US10600233B2 (en) Parameterizing 3D scenes for volumetric viewing
JP4550403B2 (ja) 画像処理装置およびプログラム
JP5317955B2 (ja) 複数の視野の効率的な符号化
US20220116659A1 (en) A method, an apparatus and a computer program product for volumetric video
JP3229162B2 (ja) 圧縮ビデオ・ビットストリーム合成のシステムおよび方法
US20210006806A1 (en) An apparatus, a method and a computer program for volumetric video
AU2005272287A1 (en) Method and device for motion estimation and compensation for panorama image
JPH10271511A (ja) 画像符号化装置と画像復号化装置
Würmlin et al. 3D Video Recorder: a System for Recording and Playing Free‐Viewpoint Video
KR102308604B1 (ko) 레거시 및 몰입형 렌더링 디바이스들에 대한 몰입형 비디오를 포맷하는 방법, 장치 및 스트림
CN111667438B (zh) 视频重建方法、系统、设备及计算机可读存储介质
JP7344988B2 (ja) ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品
EP3729805A1 (en) Method for encoding and decoding volumetric video data
JP2000285260A (ja) 多視点画像の符号化方法及び任意視点画像の生成方法
JP2001283201A (ja) 3次元画像データ作成方法及び3次元画像データを用いた任意視点画像作成方法
JP2000132683A (ja) 多視点画像符号化方法
JP2000322576A (ja) 3次元画像データ作成方法および3次元画像データを用いた任意視点画像作成方法
KR101163020B1 (ko) 3차원 모델을 스케일링하는 방법 및 스케일링 유닛
JPH11161800A (ja) 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置
JP2000285259A (ja) 多視点画像からの任意視点画像再生方法
JP2000261808A5 (ja)
JPH1118091A (ja) 多視点画像の符号化/復号化装置およびその符号化/復号化方法
US20230326128A1 (en) Techniques for processing multiplane images
JP3403143B2 (ja) 画像処理方法、その装置および記憶媒体
JP2000232659A (ja) 多視点における動画像の処理方法