JP2000285259A - 多視点画像からの任意視点画像再生方法 - Google Patents

多視点画像からの任意視点画像再生方法

Info

Publication number
JP2000285259A
JP2000285259A JP9375499A JP9375499A JP2000285259A JP 2000285259 A JP2000285259 A JP 2000285259A JP 9375499 A JP9375499 A JP 9375499A JP 9375499 A JP9375499 A JP 9375499A JP 2000285259 A JP2000285259 A JP 2000285259A
Authority
JP
Japan
Prior art keywords
image
viewpoint image
viewpoint
model
prediction error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9375499A
Other languages
English (en)
Inventor
Hideyuki Ueno
秀幸 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP9375499A priority Critical patent/JP2000285259A/ja
Publication of JP2000285259A publication Critical patent/JP2000285259A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】使用するメモリ量および再生に要する演算量を
リーズナブルな範囲に収め、PCレベルのプラットフォ
ームにおいても多視点画像からの任意視点画像のリアル
タイム再生を可能とする。 【解決手段】被写体面上の各点の座標値と輝度値とから
構成されるモデル情報を符号化したモデルデータとモデ
ル情報から多視点画像中の各視点画像を予測して生成さ
れた予測信号の予測誤差を符号化した予測誤差データと
が多重化されている多重化ストリームから分離された予
測誤差データと多重化ストリームからモデルデータを分
離され復号されたモデル情報をメモリに記憶しておき、
記憶されたモデル情報から任意視点画像の予測信号を生
成し、記憶された予測誤差データの任意視点画像に対応
する部分を復号して予測誤差を生成し、これらの生成さ
れた予測信号と予測誤差を加算して得られる再生画像よ
り任意視点画像を生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、多視点画像を用い
て任意の視点から見た画像をリアルタイムで作成し、仮
想空間内のウォークスルーなどを可能とするような多視
点画像からの任意視点画像再生方法に関する。
【0002】
【従来の技術】近年、コンピュータ技術、グラフィクス
技術の進展により、バーチャルショッピングモールなど
に代表される仮想空間内のウォークスルーが身近な存在
になりつつある。現状の仮想空間は、構成要素がCG
(コンピュータグラフィクス)によって生成されるもの
が大半である。これに対し、最近ではリアリティに注目
した別のアプローチとして、実写画像から仮想3次元空
間を生成する試みがなされてきている。
【0003】CGの分野では、モデルを精密にし、演算
資源を投入することによりリアリティを追求する努力が
払われてきたが、これとは別に、近年、“image based
rendering ”と称して、実写を利用してリアリティを高
めようという動きがある。このような技術として既に実
用に供せられている例として、文献1(S.E.Che
n et al,SIGGRAPH‘95 p29−3
8)に開示されているQuickTime VRが挙げられる。
【0004】QuickTime VRは、一つの視点から撮った
パノラマ画像から視線方向の成分を切り出す技術であ
り、自分の周りの360°の視野をインタラクティブに
見渡すような画像表現ができる。但し、この方法では画
像入力の際の視点はある一点に固定されているので、任
意視点からの画像を再構成することはできない。すなわ
ち、視線方向は選択できるものの、視点は常に固定され
ているので、視点が変わったときに発生するオクルージ
ョン(隠れ)の状況の変化を再現することはできない。
【0005】このような物体との距離方向も含めた任意
視点の実現、オブジェクトとしての操作可能性、空間へ
の配置可能性といった更に進んだ機能を実現することが
できる画像表現方法としては、例えば文献2(「光線情
報による3次元実空間の効率的記述へ向けた光線空間射
影法」苗村他、信学技報IE95−119)に開示され
ている方法が知られている。この方法では、3次元空間
上を通る光線を表現する「光線空間」という概念を導入
し、多視点画像と光線空間とを相互に変換することによ
り、入力された多視点画像から任意視点画像を生成して
いる。以下、この原理につき具体的に説明する。
【0006】光線情報に基づく記述の考え方は、3次元
空間を伝播する光線の情報を3次元の直交座標空間上に
おける光線の通過位置(X,Y,Z)とその方向(θ,
φ)によって定義される5次元情報空間f(X,Y,
Z,θ,φ)に記述するというものである。ここで、θ
は直交座標空間上の任意の点(X,Y,Z)を通過する
光線の水平方向の傾き、つまりX−Z平面上の角度を示
し、φは(X,Y,Z)を通過する光線の垂直方向の傾
き、つまりX−Z平面上からY軸方向への角度を示す。
【0007】画像情報が直交座標空間上の任意の点
(X,Y,Z)に視点を置いたときにそこを通過する
(θ,φ)方向の光線の集合により形成されるものであ
ることを考慮すると、画像情報と前述の光線情報は相互
に変換可能であることが分かる。ここで、光線が減衰せ
ずに直進するという仮定が成立するような場合には、5
次元情報空間f(X,Y,Z,θ,φ)を4次元に縮退
させることができる。上述した文献2には、光線情報を
記録する面の取り方によって平面記録、円筒記録、球面
記録の3通りの記録方法があることが記されているが、
ここでは以後の説明を行うために必要な円筒記録につい
て簡単に説明する。
【0008】図15に、円筒記録のための座標系を示
す。まず、空間を4次元に縮退するために、(X,Y,
Z)から(P,Q,R)への座標変換が行われる。ここ
で、(P,Q,R)座標のR軸は、図示のように光線の
進行方向(θ,φ)と一致するように規定される。これ
によりR軸に沿った信号の変化はなくなり、この軸は無
視することができるので、(X,Y,Z,θ,φ)は
(P,Q,R)、つまり(P,Q,θ,φ)の4次元に
変換される。次に、円筒記録ではθが同一であるφ方向
の全ての光線は、θ方向に法線を持つ(P,Q)平面上
の各点に記録される。これより、 P=Xcosθ−Zsinθ (1) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (2) の関係が得られる。
【0009】図15は、直交座標系O−XYZの原点
(0,0,0)を通る進行方向(θ,φ)の光線を記録
する例を示している。R軸からX−Y平面上に降ろした
垂線の足をMとした場合、O−Mを法線とする(P,
Q)平面が定義され、そこにφ方向の全ての光線が記録
されることになる。このようにして、同一θ方向の光線
はそのφ方向に関わらず全て同一の(P,Q)平面上の
対応する座標位置に記録される。
【0010】次に、この原理を使って多視点画像から光
線空間への記録を行い、記録された光線空間から任意視
点画像を生成する原理について説明する。上述の原理に
よって光線空間が4次元に縮退されたといっても、扱う
べき多視点画像の数や演算量は非常に多く、現実的では
ない。そこで、文献3(「光線情報に基づく3次元空間
操作」石川他、PCSJ96 P−3.13)において
はφ方向の視差を無視して、(p,θ)の2次元空間
(以下、p−θ平面という)への記録で代用している。
【0011】また、実際に扱える光線の数には限りがあ
るので、実用にはサンプリングが介在することになる。
すなわち、入力として扱われる視点の数は有限個にとど
められる。このとき、Y=一定の平面上でのある視点の
座標(X,Z)が決まると、その点を通る光線の軌跡は
式(1)のみで与えられる。Y=一定の平面上ではQ方
向の値は変化しないからである。
【0012】有限個の複数の視点を設定して画像を入力
すると、光線空間はある視点の座標(X,Z)を通る光
線の軌跡に沿った光線情報によって埋められてくる。光
線空間上で光線情報の得られていない部分は、得られて
いる光線情報により内挿等によって補間してやると、密
に光線情報で埋まった光線空間が得られる。再生の際は
任意視点(X,Z)を指定すると、その点を通る光線の
軌跡が式(1)から得られるので、その軌跡上の光線情
報を入力画像情報から取ってくることにより、任意の視
点画像の画面のY=一定における一つの走査線、つまり
ある特定のYの値に対応する一本の表示ライン上の画像
が得られる。こうして得られる走査線をY方向に積み重
ねることによって、任意の視点から見た1画面分の画像
を得ることができる。
【0013】上述したように、光線空間を用いた原理に
基づく任意視点画像の生成においては従来、扱うべき情
報ができる限り少なくて済むように簡略化を施してはい
るが、現状では、このような簡略化を施しても情報量、
処理量は依然として非常に多く、再生のリアルタイム
化、情報量の削減などが課題として挙げられている。
【0014】次に、情報量削減の観点から見た従来の技
術につき説明する。通常、情報量を削減しようとする場
合、符号化が行われる。多視点画像を符号化する場合、
種々の方法が考えられる。第1は、多視点画像を構成す
る各視点画像をそれぞれ静止画とみなして、JPEGな
どの方法により符号化する方法である。この方法は、各
視点画像同士の相関を使っておらず無駄がある。第2
は、多視点画像を動画像とみなしてMPEGなどの方法
により符号化する方法であり、動き補償予測によって隣
り合う視点画像同士の相関がある程度取り除かれる。特
に、多視点画像の1つのケースとしてのステレオ画像の
符号化では、同様の原理は視差補償予測と呼ばれてお
り、これは例えば文献4(特開平2−100592号公
報)などに開示されている。
【0015】また、MPEG2標準においても類似の原
理はマルチビュープロファイルの範疇にてサポートされ
ている。この方法は画像に対して一種のモデル化を行っ
ていることになるが、モデル化がブロック毎にしか行わ
れておらず、画素単位で見たときにはモデルからのずれ
が大きくなりがちである。また、モデルのパラメータと
しても各ブロックに動きベクトルの形でパラメータを与
えることになり、全体としてモデルパラメータの情報量
もかなり大きくなる。
【0016】光線空間の概念を取り入れた多視点画像の
符号化に関する技術としては、文献5(「複合現実感表
示のための光線空間データの圧縮」片山他、IMPS9
6I−6.1)に開示されている技術がある。この方法
では、同一被写体から得た120枚の多視点画像のうち
の何枚かを参照画像として設定してそのまま送り、他の
画像については参照画像中のどの画素値に近いか、とい
う画素を指定する情報として送ることによって、情報を
圧縮している。従って、上述の動き補償の流用と比較し
て、モデル化が画素単位で行われてる点でモデルからの
ずれは少なくなるが、モデルのパラメータ情報は逆に多
くなる。
【0017】また、文献6(特開平8−115434号
公報)では多視点画像の圧縮に関連する別の技術とし
て、(少ない)多視点画像の対応点の軌跡を規定するパ
ラメータを利用することにより、受信側で任意視点画像
のための内挿を行う技術が開示されている。この際、こ
のパラメータのみによって光線空間を表現すれば、非常
に少ない情報量による表現が可能となる。
【0018】文献5,6はいずれもモデルのみによって
多視点画像を表現しようとするものであるが、実際には
特に後者の場合、多視点画像からのモデルの推定はかな
り難しく、誤差を伴うものとなる。この結果、モデルの
推定に誤差が生じた部分については、再生される画像が
不自然になってしまう。
【0019】これに対して、文献7(「3次元構造推定
に基づく多眼3次元画像の圧縮と補間」藤井、原島 3
次元画像コンファレンス’94 1−4)には、3次元
構造モデルから多眼画像の予測信号を生成し、予測誤差
を送る方法が開示されている。この文献7でのモデル
は、平面や平面パッチなどの近似であって、これによる
予測の精度はあまりよいとは言えない。しかし単純にモ
デルの精度を良くすると、精度を良くするほどモデル自
体の情報量が大きくなってしまい、全体の情報量を減ら
すことはできない。
【0020】次に、多視点画像から任意視点画像を再生
する際のメモリ使用量の観点から従来の技術について説
明する。まず、考えられる最も原始的な方法は、多視点
画像を構成する各視点画像、あるいはそれを光線空間に
変換したものを全てそのままメモリに保持する方法であ
る。例えば、文献8(特開平9−245196号公報)
では再生演算を高速化するために、予め補間済みの光線
空間に変換したものを保持しており、後者の方法に該当
すると思われる。
【0021】しかし、この方法では再生演算はメモリア
クセスのアドレス計算のみとなるため、高速にできる利
点を有する反面、メモリ使用量が非常に多くなってしま
うという問題がある。例えば、640*480のフルカ
ラー画像120枚を多視点画像とする場合、1枚当りの
視点画像のデータ量は、640*480*3(RGB)
=0.9MBとなり、120枚の視点画像をそのままメ
モリに保持すれば、約110MBものメモリ量を要す
る。
【0022】そこで、文献9(「圧縮した光線情報の局
所的展開による実時間ウォークスルー」、高野他PCS
J97 P−2.11)では、光線空間に4次元DCT
(離散コサイン変換)を施し、得られたDCT係数のう
ち遂次必要な部分のみを取り出して復号再生する方法を
提案している。この方法では、4次元の光線空間を扱っ
ているため4次元DCTを使用している。
【0023】この方法では多視点画像を圧縮した形でメ
モリ内にデータを保持するので、必要なメモリ量を減ら
すことができるが、4次元DCTブロック内において実
際に再生に寄与するのは、その中の1曲面上のデータの
みであり、再生に寄与しない光線空間情報の割合が高い
ため、演算コストが有効に生かされていないという問題
を抱えている。従って、逆に必要以上に演算性能を要求
されることとなり、やはりコストが高くなる。
【0024】
【発明が解決しようとする課題】上述したように、多視
点画像から任意視点画像を再生する際、多視点画像を構
成する各視点画像あるいはそれを光線空間に変換したも
のを全てそのままメモリに保持する方法では、非常に大
きいメモリ容量を必要とし、一般的なPC(パーソナル
コンピュータ)レベルのプラットフォームで再生を行う
には適さず、コストが高くなるという問題点がある。
【0025】また、光線空間をそのまま画像と見て符号
化する方法(例えば4次元DCTを用いる方法)は、圧
縮した形でメモリ内にデータを保持するので、必要なメ
モリ量は減らせるが、4次元DCTブロック内において
実際に再生に寄与するのはその中の1曲面上のデータの
みであり、再生に寄与しない光線空間情報の割合が高い
ために、演算コストが有効に生かされておらず、逆に必
要以上に演算性能を要求されることとなり、やはりコス
トが高くなるという問題点があった。
【0026】本発明は、このような問題点を解決すべく
なされたもので、多視点画像から任意の視点画像を再生
する際、メモリに保持する情報量と任意の視点画像の生
成に必要な演算量とのバランスをとり、必要最低限に近
い情報をメモリから読み出して再生できるようにして、
リーズナブルなコストで任意視点画像のリアルタイム再
生を可能とする多視点画像からの任意視点画像再生方法
を提供することを目的とする。
【0027】
【課題を解決するための手段】上記課題を解決するた
め、本発明は被写体との位置関係が既知の複数の視点に
よって得られた複数の視点画像からなる多視点画像につ
いて、被写体面上の各点の座標値と輝度値とから構成さ
れるモデル情報を符号化したモデルデータと、モデル情
報から多視点画像中の各視点画像を予測して生成された
予測信号の各視点画像に対する予測誤差を符号化した予
測誤差データとが多重化されている多重化ストリームか
ら、指定された視点位置より指定された視線方向を見た
任意視点画像を再生する任意視点画像再生方法であっ
て、多重化ストリームから前記予測誤差データを分離し
て記憶する第1の記憶ステップと、多重化ストリームか
らモデルデータを分離し復号して得られたモデル情報を
記憶する第2の記憶ステップと、第2の記憶ステップに
より記憶されたモデル情報から任意視点画像の予測信号
を生成する予測信号生成ステップと、第2の記憶ステッ
プにより記憶された予測誤差データの任意視点画像に対
応する部分を復号して予測誤差を生成する予測誤差生成
ステップと、予測信号生成ステップにより生成された予
測信号と予測誤差生成ステップにより生成された予測誤
差を加算して再生画像を得るステップと、再生画像より
任意視点画像を生成するステップとを有することを特徴
とする。
【0028】より具体的には、予測信号の生成に際して
は、任意視点画像を再生するために参照すべき視点画像
の被参照領域の位置を計算し、この被参照領域の位置
に、第2の記憶ステップにより記憶されたモデル情報を
用いて予測信号を生成する。そして、予測誤差について
は第1の記憶ステップにより記憶された予測誤差データ
のうち、被参照領域の位置に対応する部分のデータを復
号することで得る。
【0029】このような手順で多視点画像から任意視点
画像を再生することにより、使用するメモリ量、演算量
をリーズナブルな範囲に収め、PCレベルのプラットフ
ォームでも任意視点画像のリアルタイム再生を可能とす
ることができる。
【0030】すなわち、本発明では予測符号化の導入で
各視点画像が仮に20分の1に圧縮できるとし、また、
モデルの情報量は復号済みの状態で視点画像2枚分程度
であるとすると、両者を合わせたデータ量は約7.3M
Bとなり、使用するメモリ量はリーズナブルな範囲内に
収まる。
【0031】また、既にモデルデータが復号された状態
で任意視点画像の再生を行うため、必要な演算としては
モデルデータを復号して得られたモデル情報からの予測
画像生成と、画像約1枚分の予測誤差の復号のみで済
む。これはMPEGデコーダのような通常の動画像復号
化の演算と同種の演算であり、演算量も同レベルとなる
ため、リアルタイムでの任意視点画像の再生が容易に実
現可能な範囲となる。
【0032】使用メモリ量をより節約するために、モデ
ル情報についても符号化されたモデルデータのままの形
でメモリに保持し、これを毎回復号する方法もあるが、
モデル情報はいわゆるイントラ符号化に相当する符号化
がなされるため、圧縮率は各視点画像ほど大きくとるこ
とはできず、メモリ使用量削減の効果は少ない。また、
毎回モデルデータを復号化処理すると、処理量が倍程度
に増える。しかも、モデル情報は任意視点画像を生成す
るためには必ず参照されるものであるから、この復号を
毎回行うのは非常に冗長な処理である。
【0033】従って、本発明のように予測誤差について
は符号化された予測誤差データの形でメモリに保持し、
モデル情報については符号化されたモデルデータを復号
したモデル情報の形でメモリに保持しておくことは、必
要なメモリ量を減らしつつ演算量も低減するという観点
で理にかなっているといえる。
【0034】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。 (多視点画像符号化について)まず、本発明による任意
視点画像再生方法が適用される多視点画像の符号化方法
について説明する。図1は、多視点画像符号化装置の構
成を機能ブロック図で表したものである。この多視点画
像符号化装置は、実際には後述するように例えばパーソ
ナルコンピュータ(PC)を用いて実現される。
【0035】図1において、多視点画像入力部100は
三次元物体からなる被写体とカメラの位置関係が既知の
条件で複数の視点によって画像の撮影を行って、複数の
視点画像からなる多視点画像を入力できるように構成さ
れた画像入力装置である。この多視点画像入力部100
により入力された多視点画像の情報は、一旦ハードディ
スクのような記憶部101に蓄えられる。制御部102
は、符号化全体の制御を行う。
【0036】符号化の手順は、多視点画像全体を見てモ
デル化、つまりモデルの推定を行い(フェーズ
[1])、仮符号化を行って全体の符号量との関係から
量子化ステップサイズなどの符号化パラメータを決定し
(フェーズ[2])、この後に実際の多重化ストリーム
を生成するための本符号化を行う(フェーズ[3])の
3フェーズよりなる。制御部102は、これらの手順に
ついての制御も行う。
【0037】まず、制御部102はモデリング部103
にモデル生成の指示を出し、モデルリング部103はそ
の指示に従って記憶部101をアクセスして記憶部10
1に記憶されている多視点画像を読み込み、モデル推定
のフェーズ[1]を開始する(モデルの推定方法の詳細
については後述する)。本実施形態では、このモデルを
表す情報(以下、モデル情報という)は被写体面上の各
点の座標値(極座標)とその点の輝度の代表値(代表輝
度値)から構成される。代表輝度値としては、被写体面
上の対応する点からの法線方向に最も近い視点によって
撮影された視点画像の該当する輝度値が用いられるが、
後述する予測を考慮して全体の予測を最適化する値を代
表輝度値として求めてもよい。そして、各点についての
モデル情報の代表輝度値は、その点からの法線方向に最
も近い視点により撮影された視点画像の輝度値としてフ
レーム内符号化されて送られる(詳細は後述する)。
【0038】このようにモデルリング部103の処理
は、被写体面上の各点に対応する座標値rの推定と、各
点に対応する代表輝度値を得るべき視点画像の特定であ
る。モデリング部103の処理については、後に詳しく
説明する。
【0039】モデリング部103の処理が終了すると、
被写体面上の各点の代表輝度値として使用される視点画
像内の該当するブロックが対応する座標値よりなるブロ
ックとともにDCT部111、量子化部(Q)112、
可変長符号化部(VLC)113よりなるフレーム内符
号化部に送られる。このフレーム内符号化部において
は、まずDCT部111で輝度値および座標値のブロッ
クが離散コサイン変換(DCT)され、これによって得
られたDCT係数が量子化部112で量子化された後、
可変長符号化部113で可変長符号化され、モデル情報
を符号化したモデルデータとして多重化部116に送ら
れる。量子化部112により量子化されたDCT係数デ
ータは、また逆量子化部(Q−1)114で逆量子化さ
れ、さらに逆DCT部(IDCT)115で逆離散コサ
イン変換(逆DCT)された後、モデル蓄積部104に
蓄えられる。
【0040】ここで、座標値は後述する予測信号の作成
の性能に大きく影響を与えるので、できるだけ細かく量
子化することが望ましい。また、DCTに代えてDCP
CMなど他の符号化方式を用いてもよいし、さらに完全
に可逆な符号化を用いるようにしてもよい。また、輝度
値についても多視点画像全体の予測に使われる予測値の
基となるので、細かいステップサイズで量子化するのが
望ましい。
【0041】MPEGなどの動画像符号化方式では通
常、IピクチャおよびPピクチャをBピクチャよりも細
かく量子化するが、この差別化の度合いよりも大きく差
別化する、すなわちモデル情報として送る輝度値は後述
する誤差の符号化で用いる量子化よりもかなり細かく行
うことが望ましい。制御部102は、トータルの目標符
号化ビット数よりこれらのモデルの量子化ステップサイ
ズを決定し、それを量子化部112および逆量子化部1
14に通知する。但し、上述したような理由によりモデ
ル量子化ステップサイズは目標符号化ビット数にあまり
大きく影響されないように、細かい値に設定することが
望ましい。
【0042】こうして輝度値および座標値よりなるモデ
ル情報の符号化が終了すると、次のフェーズ[2]で予
測誤差の仮符号化が行われ、これによって予測誤差符号
化のための量子化ステップサイズが決定される。この場
合、まず記憶部101より多視点画像が1フレームずつ
読み出される。なお、各視点画像がそれぞれここでいう
フレームで構成されているとする。各フレームに対し
て、モデル蓄積部104に蓄えられた座標値と輝度値よ
りなるモデル情報から、予測信号生成部105において
予測信号が作成される。
【0043】次に、図1の各部について詳細に説明す
る。図2に、多視点画像入力部100の構成例を示す。
この例では、被写体201は回転台202に載せられ、
カメラ203により撮影される。カメラ203の光軸2
06は回転台202の回転軸205と交差しており、回
転軸205と光軸206とは互いに直交しているものと
する。回転軸205と光軸206の位置関係は既知であ
り、その間の距離はRであるとする。回転台202は制
御装置204により一定の角度(例えば3°)ずつステ
ップ的に回転するように制御され、その都度カメラ20
3により画像が入力される。この例では、カメラ203
の一回転で視点の異なる120枚の画像が入力されるこ
とになる。次に、この場合の光線空間について説明す
る。
【0044】前述した文献2に示されているように、円
筒記録の場合、点(X,Y,Z)を通る光線は、光線空
間上の次式により表現される座標に記録される。 P=Xcosθ−Zsinθ (3) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (4) ここで今、従来技術の項でも説明したように、扱う情報
量、演算量が大きくなりすぎないようにQ方向の光線の
変化は考えないものとする。また、光線空間は回転軸2
05に直交する平面207で定義し、これをY方向に積
み上げて近似するものとする。この場合、φ方向の変化
によるオクルージョンなどは再現されない。
【0045】図3は、平面207上での被写体201の
断面301とカメラ203の位置関係を表している。こ
こで表記上、回転台202の回転軸205を中心とする
極座標表現(r,ψ)を図3に示すように導入すると、 X=rsinψ (5) Z=rcosψ (6) であるから、式(3)より P=rcosθ・sinψ−rsinθ・cosψ =rsin(ψ−θ) (7) となる。従って、図4に示すように光線空間であるp−
θ平面上での120枚の視点画像からなる多視点画像の
光線空間上における軌跡411は、 P=Rsin(n*3°−θ),n=0,…,119 (8) で表される。
【0046】ここで、軌跡411の中の曲線401,4
02,403,404,…は、それぞれ3°ずつ異なる
角度から撮影した視点画像を示している。すなわち、曲
線401,402,403,404,…は、それぞれ互
いに3°ずつ異なる角度から撮影した複数の視点画像に
おける特定のY方向位置に対応する一走査線分の画像を
表している。
【0047】同様の性質は、被写体面上の点においても
当てはまり、被写体面を表す関数r(ψ)を導入する
と、被写体面上の任意の点(r(ψ),ψ)から出る光
線の軌跡412は、 P=r(ψ)sin(ψ−θ) (9) で表される。
【0048】従って、被写体面上の任意の点(r
(ψ),ψ)から出る光線の軌跡412の光線情報は、
軌跡411の中の曲線401,402,403,40
4,…と軌跡412との交点405,406,407,
408,…で与えられることになる。このことは、被写
体面上の点のみならず、(X,Y,Z)座標上の任意の
点についても言える。
【0049】そこで、多視点画像から任意視点画像を再
生する場合には、その視点の位置情報によってその視点
を通る光線の軌跡が図4の光線空間上に決定され、その
軌跡と軌跡411の中の各曲線401,402,40
3,404,…との交点における光線情報を採ってくる
ことにより、任意視点画像の画面の一つの走査線が再生
される。従って、この例においては平面207に平行な
各平面で同様の操作を行い、得られた各走査線をY方向
に積み上げることによって、任意視点画像の画面全体、
つまり全てのYについての走査線を再生できる。
【0050】被写体面上の一点r(ψ)から出る光線の
光線空間上の軌跡が前述の式(9)で表せるということ
は、被写体面が光線の方向によって光線情報の値があま
り変わらない完全拡散面に近い性質の面である場合に
は、被写体面上の一点r(ψ)に対応する多視点画像
は、その点の座標値rと代表輝度値でモデル化でき、ま
た被写体面が完全拡散面から遠い性質の場合には、座標
値rとθの関数である輝度L(θ)でモデル化できるこ
とを示している。ここでいう輝度とは、TVカメラでい
うと輝度信号Yおよび色差信号Cr,Cb、または3原
色信号R,G,Bなどに対応するものを称している点に
注意されたい。文献2では、この輝度は光線情報と称せ
られている。
【0051】次に、図5を用いて予測信号の生成原理を
説明する。図5は、図4で説明したp−θ平面の図であ
り、前述したように多視点画像をY=一定の断面で切っ
たときの一つの走査線に対応している。フレーム501
は現在符号化しようとしている符号化対象フレーム(あ
る特定角度から被写体を撮影することによって得られた
視点画像)、フレーム502はモデルを含むフレーム
(代表輝度値として使用された部分を含む特定角度の視
点画像)、ブロック506はモデルとして符号化され、
復号化されたブロックを示している。
【0052】予測信号の作成は、ブロック506のよう
にモデルとして符号化された全てのブロック上の点か
ら、入力される符号化対象フレーム501に対して投影
を行うことにより行われる。ブロック506上の点50
7は、復号化された輝度値および座標値rの値を有して
いる。この点507も被写体上の点より投影されてでき
ているものであるから、点507の輝度値は既に説明し
た原理より、点507の輝度の源となっている被写体上
の点の極座標表現を(r,ψ)とすれば、rsin(ψ
−θ)とフレーム502の交点として表現される。これ
らのうち座標値rは情報として復号化されており、θの
値はフレーム502の位置により一意に決まるため、ψ
の値を求めればよい。
【0053】点507を通るrsin(ψ−θ)の曲線
は、例えば図5の例では503,504の2通り存在す
るが、図6に示すようにp−θ平面に見える点として投
影されるのは、z=rcos(ψ−θ)の値が大きい方
のψ1であることにより、一意に求められる。従って、
点507を通る光線の軌跡は503と確定する。このこ
とから、点507より投影される符号化対象フレーム5
01上の点は曲線503,504の交点508となる。
点508に投影される光線の軌跡は他にも存在し得る
(この例では軌跡505)。一点に複数の光線が投影さ
れた場合、図6の原理に従いzの値が最も大きい光線が
最終的に投影されたことになる(図5の例では軌跡50
3)。モデルとして符号化された点507のような全て
の点から、符号化対象フレーム501への投影を行う
と、フレーム501は予測信号で密に埋まる。モデルは
これを満たすように選択され、符号化されている。この
ようにして、符号化対象フレーム501毎に被写体面上
の各点のモデル情報によって、そのフレームの画像が予
測される。
【0054】また、別の方法としてモデル化の負荷を小
さくし、不完全なモデルを許容する方法も考えられる。
この場合は、モデルの全点を投影し終わっても予測信号
が形成されない点があり得ることになる。その場合、予
測信号は0であるとしてよいし(方法1)、あるいは生
成された近隣の予測信号から内挿してもよい(方法
2)。
【0055】また逆に、本実施形態ではモデルの符号化
の最小単位はブロックになっているので、被写体面上の
ある点に対応する視点画像上の点は、被写体面上のその
一つの点に対して、複数回符号化される可能性があり得
る。この場合、一点に重複して投影されたときは、モデ
ルからの投影における規則として例えば非投影面に角度
的に一番近い視点画像上でモデルとして符号化された点
からの投影を有効にするなどとして、符号化側と復号側
で投影による予測信号生成にミスマッチが起こらないよ
うにすることが必要である。
【0056】このようにして生成された各フレームの予
測信号は、図1中の減算部106において対応する入力
フレームとブロック単位で差分がとられ、予測誤差が求
められる。この予測誤差はDCT部107に送られ、ブ
ロック単位でDCTが行われる。これにより得られたブ
ロック単位のDCT係数は、記憶部108に蓄積される
と共に、量子化部(Q)109によりブロック単位で量
子化される。ステップサイズ決定のための仮符号化のス
テージでは、量子化は固定の2通りのステップサイズQ
1,Q2で行われ、それぞれについて符号量カウンタ1
17で符号量が全てのフレームについて累積される。
【0057】制御部102は、二通りのステップサイズ
に対してそれぞれ得られた符号量とトータルの目標符号
量から、モデルの符号量に費やした符号量およびヘッダ
等の付加情報に費やす符号量を差し引いた残りの符号量
に従って、トータルの符号量が目標内に入るためのステ
ップサイズQEを符号量とステップサイズとの関係を表
す曲線を内挿することによって推定し、この値が次のス
テップである実際の予測誤差の符号化に使われる。具体
的には、 log(符号量)=αlogQ+β (10) を仮定して、Q1,Q2による符号化結果からαとβを
推定し、目標符号量から逆にステップサイズQEを求め
る。ここで、各フレームの予測誤差情報はどれも同じ性
質を有しており、MPEGのように再生フレーム間に性
質の違いはないので、どのフレームの予測誤差について
も同じステップサイズで量子化されるとの前提で、ステ
ップサイズの推定を行う。
【0058】次の本符号化のフェーズ[3]では、予測
誤差情報の生成およびDCTについては仮符号化のステ
ージで既に終了しているので、記憶部108に蓄えられ
ているDCT係数を読み出し、量子化部109で量子化
する。量子化部109での量子化は、前述した制御部1
02で推定された最適なステップサイズQEによって行
われ、量子化結果が可変長符号化部(VLC)110で
可変長符号化されて、予測誤差が符号化された予測誤差
データとして多重化部116に送られる。ここで、量子
化部109により量子化されたDCT係数情報が全て0
のブロックについては無効と判定し、そのブロックにつ
いては情報を全く送らないようにすることにより、後述
するように情報量を大幅に減らしている。
【0059】次に、多重化部116は可変長符号化部1
13からのモデル情報および対称性に関する情報の符号
化結果と、可変長符号化部110からの予測誤差の符号
化結果とを多重化して、多視点画像の符号化データであ
る多重化ストリームを出力する。この時の多重化フォー
マットについては後述する。
【0060】図7は、図1の多視点画像符号化装置の機
能を実現する具体的な装置の例を示す図であり、典型的
にはPCを用いて構成される。この装置はCPU70
1、画像入力装置702、大容量の記憶装置(典型的な
例としては、ハードディスク装置)703およびRAM
(ランダムアクセスメモリ)704をバス700で接続
して構成される。
【0061】図1と図7の対応を説明すると、図1の多
視点画像入力部100は画像入力装置702により実現
され、例えば図2に示したように構成される。この場
合、図2の制御部204はCPU701が兼ねるように
構成するのがよい。また、図1の制御部102もCPU
701により実現される。図1の多視点画像を記憶する
ための記憶部101は、記憶装置703によって実現さ
れる。図1のモデル蓄積部104およびDCT係数のた
めの記憶部108は、RAM705によって実現され
る。
【0062】図1中のその他の要素、すなわち、モデリ
ング部103、予測信号生成部105、減算部106、
DCT部107、量子化部109、可変長符号化部11
0、DCT部111、量子化部112、可変長符号化部
113、逆量子化部114、逆DCT部115および多
重化部116は、CPU701によるディジタル演算お
よびディジタル信号処理によって実現される。
【0063】次に、図8に示すフローチャートを用いて
本実施形態における多視点画像符号化の手順を説明す
る。まず、画像入力装置702により多視点画像が入力
され(ステップ801)、記憶装置703に蓄えられ
る。次に、モデル推定が行われ、モデル情報が生成され
る(ステップ802)。このステップ802を含め、以
下のステップでの処理は全て多視点画像を記憶装置70
3から参照しつつ必要なデータをRAM704に蓄え、
CPU701よりデータを参照することによって行われ
る。
【0064】本実施形態では、前述したようにモデル情
報は被写体面上の各点の座標値と輝度値からなる。但
し、座標値としては推定の確度により全点に対して与え
るのではなく、高い確度で求まる代表的な点のみについ
て求め、他の点の座標値は代表点の座標値より推測する
ようにしてもよい。
【0065】ステップ802でモデル情報が求まった
ら、次にモデル情報の符号化が行われる(ステップ80
3)。符号化の典型例としては、モデル情報のうちの輝
度値に対してはテキスチャ画像としてJPEGやMPE
GのIピクチャの符号化に代表されるような、ブロック
化した後、DCT+量子化+可変長符号化を行う方法が
適当であり、座標値についてもブロック上に密に得られ
る場合には輝度値と同様の方法、代表点についてのみ得
られるような場合には予測符号化等の方法が適当であ
る。これらは図1におけるDCT部111、量子化部1
12および可変長符号化部113に相当する処理で実現
される。こうしてモデル情報を符号化して得られたモデ
ルデータは、一旦記憶装置703に蓄えられる。
【0066】次に、モデルデータの局部復号化が行われ
る(ステップ804)。この局部復号化はモデルデータ
をステップ803の逆の手順で元のモデル情報に戻す操
作であり、例えば逆量子化+逆DCTにより行われる。
これは図1における逆量子化部114および逆DCT部
115に相当する処理で実現される。このモデルデータ
の局部復号化によって得られたモデル情報は、後のステ
ップで使用するためにRAM704(図1のモデル蓄積
部104)に蓄えられる。
【0067】こうしてモデル情報の符号化が終了する
と、次に多視点画像を構成する各視点画像の予測符号化
のループに入る。例として、多視点画像の画像の枚数を
nmax(例えば120枚)として説明する。
【0068】まず、フレーム番号nを0にセットする
(ステップ805)。次に、フレーム番号nを1ずつイ
ンクリメントし(ステップ806)、記憶装置703よ
り多視点画像を1フレームずつ読み出す(ステップ80
7)。なお、多視点画像を構成する個々の視点画像がそ
れぞれここでいうフレームで構成されているとする。
【0069】次に、各フレームに対してRAM704に
蓄えられたモデル情報から予測信号を生成する(ステッ
プ808)。この予測信号の具体的な生成手順は、図5
を用いて説明した通りである。
【0070】次に、このようにして生成された予測信号
と入力フレームnとの差分がとられて予測誤差が生成さ
れ(ステップ809)、この予測誤差が符号化される
(ステップ810)。この予測誤差の符号化の典型例も
DCT+量子化+可変長符号化であり、図1におけるD
CT部107、量子化部109および可変長符号化部1
10に相当する処理で実現される。こうして予測誤差を
符号化して得られた予測誤差データは、記憶装置703
に蓄えられる。
【0071】上述したステップ806〜810の処理を
多視点画像の全てのフレームについて、つまりステップ
811でn=nmax と判定されるまで繰り返し行う。
【0072】ここで、予測誤差符号化ステップ810に
おける量子化においては、量子化されたDCT係数情報
が全て0であった場合に、そのブロックを無効と判定
し、そのブロックについては情報を全く送らないものと
する。本実施形態における予測では、物理現象に直接対
応したモデルを使用しているので、モデル化が良好に行
われる画像については、予測誤差がほとんど発生しない
ことが期待できる。従って、情報量を大幅に減らすため
に、このように有効判定を行って無効なブロックを送ら
なくすることは非常に重要である。
【0073】次に、記憶装置703に蓄えられたモデル
データと予測誤差データを多重化し(ステップ81
2)、多重化ストリームを生成する。この多重化は図1
中の多重化部116に相当する処理である。
【0074】図9(a)〜(g)に、この場合の多重化
フォーマットの例を示す。この多重化フォーマットは、
TV会議用のITU−T勧告H.261の多重化フォー
マットの記述方法に準じて記述されている。本実施形態
では、多重化フォーマットは可能な限りMPEG等の既
存の符号化に似せたフォーマットとなるようにした。ま
ず、フォーマットは階層的な構造とした。各レイヤの情
報にはスタートコード、エンドコードなどのレイヤ固有
の情報を含むヘッダおよびトレイラが存在する。最上位
レイヤは、1セットの多視点画像で表現される図9
(a)のオブジェクトレイヤである。
【0075】オブジェクトレイヤは、次に図9(b)の
モデルレイヤと図9(c)の誤差レイヤに分れる。モデ
ルレイヤのヘッダは、輝度値を量子化するステップサイ
ズ(QUANT)、rを量子化するステップサイズ(Q
UANT_r)を含み、誤差レイヤのヘッダは、誤差情
報を量子化するステップサイズ(QUANT)を含む。
再生側では、モデルレイヤはどのような視点からの画像
を再生する場合でも必ず全てが復号の初期のステージで
アクセスされるのに対して、誤差レイヤは視点によって
アクセスされる部分が変わるので、モデルレイヤは図に
示すようにオブジェクトレイヤの情報のうち前の方に固
めて配置され、その後に誤差レイヤの情報が続くように
するのが良い。
【0076】図9(b)(c)に示したモデルレイヤと
誤差レイヤの内容は共通の構造を持つ。まず、モデルレ
イヤと誤差レイヤの直ぐ下のレイヤとして、図9(d)
に示すフレームレイヤが来る。フレームレイヤのへッダ
はフレーム番号(PN)、そのフレームが撮影された条
件である、被写体の中心軸とカメラとの距離Rおよびカ
メラの光軸と交わる被写体面の角度座標ψの情報を含
む。
【0077】R、ψの情報は、図2で説明したように固
定距離、固定回転角での撮影である場合に限定すれば、
オブジェクトレイヤのヘッダに入っていてもよいが、よ
り一般的にはフレーム毎に異なっても問題なく、本実施
形態ではフレームレイヤに存在するものとする。また、
この情報は論理的にはモデルまたは誤差のいずれか一方
に入っていれば再生可能であるが、アクセスを簡単にす
る都合上、ここでは両方に入っているものとする。
【0078】フレームレイヤの下は、図9(f)に示す
MB(マクロブロック)レイヤであるが、MPEGのよ
うにフレームレイヤとMBレイヤの間に図9(e)に示
すスライスレイヤが入ってもよい。スライスレイヤは、
SSC(Slice Start Code)、SN
(Slice Number)およびそのスライスに属
する複数のマクロブロックレイヤから構成されている。
スライスレイヤが入るとスライス毎へのアクセスがし易
くなり、復号処理が楽になると共にオブジェクトを軸に
直交する面で切った一部のみの再生がしやすくなる。
【0079】マクロブロックレイヤの下は図9(g)に
示すブロックレイヤであり、この中はDCT係数(Tc
oeff)とEOB(End of Block)より
なる。モデルのマクロブロックは、図10に示すように
Y(輝度)、r、CrおよびCb(色差)のブロックよ
りなる。誤差のマクロブロックは、図10からrのブロ
ックを取り除いたY(輝度)、CrおよびCb(色差)
のブロックよりなる。スライス、マクロブロック共にへ
ッダにはフレーム内でのアドレス情報を含み(SNおよ
びMBA)、情報の無いスライス、マクロブロックは送
られない(スキップ)。マクロブロックレイヤのパリテ
ィ(PARITY)は、図5の説明で前述したψを指示
するためのパリティ(z:+or−を示す)であり、モ
デルレイヤについてのみ送られる。CBPはマクロブロ
ック内の情報を含むブロックのパターンを示す情報であ
り、誤差レイヤのマクロブロックについてのみ送られ
る。
【0080】なお、本実施形態ではMPEG等との親和
性からマクロブロックレイヤ(MBレイヤ)を持つ構造
にしたが、マクロブロックレイヤの階層にいきなりブロ
ックレイヤがくるように構成しても、なんら問題はな
い。
【0081】(多視点画像復号化装置について)次に、
本発明により任意視点画像再生方法が適用される多視点
画像の復号化方法について説明する。図11は、図1に
示した多視点画像符号化装置に対応する多視点画像復号
化装置の構成を機能ブロック図で表したものであり、実
際には後述するように例えばパーソナルコンピュータ
(PC)を用いて実現される。
【0082】図1の多視点画像符号化装置で生成された
多重化ストリームは、記憶装置1000に記憶されてい
るものとする。この記憶装置1000から読み出された
多重化ストリームは分離部1101に入力され、多重化
ストリーム内のオブジェクトレイヤの情報はモデルレイ
ヤの情報(モデルデータ)と誤差レイヤの情報(予測誤
差データ)とに分離される。
【0083】分離部1101から出力されるデータのう
ち、モデルデータは可変長復号部(VLD)1107で
可変長復号された後、逆量子化部(Q−1)1108で
逆量子化、さらに逆DCT部(IDCT)1109で逆
DCTされてフレーム番号やR,ψの値などのようなヘ
ッダに含まれていた付随する情報とともにモデル蓄積部
1110にモデル情報として蓄積される。一方、分離部
1101からの予測誤差データは復号化されることなく
そのまま誤差記憶部1103に蓄積される。これで再生
の準備が整った状態になる。
【0084】次に、再生の次のステップとして、視点情
報入力部1100より再生すべき任意視点画像に対応す
る視点位置および視点方向を表す情報が入力される。視
点情報入力部1100の例としては、VRMLブラウザ
で実現されている、表示画面上に仮想的なレバーやハン
ドルを表示し、これをマウスなどのポインティング装置
で仮想的に操作することによって視点の位置および視点
の方向を入力するシステムなどが挙げられる。この入力
によって、対応する視点の視点画像の生成が開始され
る。
【0085】計算部1102は、この際に後述するよう
に複数の視点画像の中で必要な視点画像中の参照すべき
画素位置(参照画素位置)を計算によって求め、さらに
予測信号の生成と平行して、参照画素位置の情報に基づ
きフレームメモリ1113に対して、指定された視点画
像を生成すべくアドレスを発生する。このとき、計算部
1102は誤差蓄積部1103に対しては、対応する参
照画素をアドレス指定するのに必要な、誤差情報を含む
フレーム番号、マクロブロック番号、画素番号を送る。
【0086】次に、予測信号生成部1111は計算部1
102で計算された参照画素位置の情報に基づいて予測
信号を生成する。この予測信号生成の手順については、
後に詳しく説明する。
【0087】図13は、図11の多視点画像復号化装置
の機能を実現する具体的な装置の例を示す図であり、典
型的にはPCを用いて構成される。この装置はCPU1
301、視点位置・視線方向入力装置902、大容量の
記憶装置(典型的な例としては、ハードディスク装置)
1303、RAM(ランダムアクセスメモリ)1304
をバス1300で接続して構成される。
【0088】図11との対応を説明すると、図11の記
憶装置1000は記憶装置1303に対応し、視点情報
入力部1100は視点位置・視線方向入力装置1302
に対応する。さらに、図11の誤差記憶部1103およ
びモデル蓄積部1110は、RAM1304によって実
現される。
【0089】図11中のその他の構成要素、すなわち、
分離部1101、アドレス計算部1102、可変長復号
化部1104、逆量子化部1105、逆DCT部110
6、可変長復号化部1107、逆量子化部1108、逆
DCT部1109、予測信号生成部1111および加算
部1112は、CPU1301によるディジタル演算お
よびディジタル信号処理によって実現される。
【0090】次に、図14に示すフローチャートを用い
て本実施形態における多視点画像からの任意視点画像再
生の手順を説明する。まず、符号化されたデータ(多重
化ストリーム)を記憶装置1303に入力する(ステッ
プ1400)。この多重化ストリームには既に説明した
ように、モデル情報を符号化したモデルデータと、予測
誤差を符号化した予測誤差データが多重化されている。
これらモデルデータと予測誤差データの種別は、多重化
ストリーム中のヘッダによって示される。そこで、この
多重化ストリームを記憶装置1303から読み出し、ヘ
ッダを解析しながら、モデルデータと予測誤差データを
分離する。そして、予測誤差データについては、符号化
されたデータのままRAM1304に保持する(ステッ
プ1401)。図13の装置構成の場合、モデルデータ
と予測誤差データの分離処理を含めて、以後の処理は全
てCPU1301で行われる。
【0091】次に、分離されたデータのうちモデルデー
タについては復号化を行い、得られたモデル情報をRA
M1304に保持する(ステップ1402)。モデルデ
ータの復号化は符号化手順で説明したモデルデータの局
部復号化処理と全く同じであり、典型的には可変長復号
+逆量子化+逆DCTといった処理である。これは図1
1における可変長復号化部1107、逆量子化部110
8および逆DCT部1109に相当する処理で実現され
る。
【0092】ステップ1401,1402の処理は、ソ
フトウェア起動時あるいはソフトウェア内でのオブジェ
クトを選択した時点で、視点位置・視線方向の情報が入
力される前に行われ、これで再生の準備が整った状態と
なる。
【0093】次に、視点位置・視線方向入力装置130
2により視点の位置および視線方向の情報を入力する
(ステップ1403)。視点位置・視線方向入力装置1
302の例としては、バーチャルリアリティの分野で使
用されるヘッドマウントディスプレイに位置センサ、方
向センサを取り付けたものなどを使用できる。しかし、
PCレベルのプラットフォームで手軽に使うことができ
るデバイスとして、例えばVRMLブラウザで実現され
ている、表示画面上に仮想的なレバーやハンドルを表示
し、これをマウスなどのポインティング装置で仮想的に
操作することによって、視点位置および視線方向を入力
するシステムのようにソフトウエア的に実現されるもの
でも、視点位置・視線方向入力装置1302として用い
ることができる。
【0094】この視点位置・視線方向入力装置1302
による入力によって、指定された視点位置より指定され
た視線方向を見た任意視点画像の再生ループが開始され
る。以下、この任意視点画像再生ループの処理を述べ
る。
【0095】まず、指定された視点位置より指定された
視線方向を見た再生すべき任意視点画像のp−θ平面上
での位置(これを再生画像位置という)を計算する(ス
テップ1404)。このステップ1404の処理は、次
の通りである。
【0096】まず、視点位置・視線方向入力装置130
2より得られた視点位置、視線方向のパラメータをオブ
ジェクト固定の座標に変換した距離R、移動角ξのパラ
メータに変換する。次に、移動角ξを0として再生画像
を求め、求まった再生画像をξを考慮して平行移動する
ことによって、指定された視点位置より指定された視線
方向を見た再生画像を作成する。このときの平行移動量
は、カメラの視野角と扱う再生画像の解像度によって決
まる。すなわち、カメラの視野角を±η、扱う画像サイ
ズの横方向をHとすると、 αtanη=H/2 (11) なる関係を持つαを求め、 Δ=αtanξ (12) なるΔだけ平行移動すればよい。
【0097】次に、ξ=0として再生画像を求める様子
を図12を参照して説明する。まず、求められた距離R
のパラメータより、p−θ平面上の再生画像1201
(図12では曲線で表されている)が求められる。この
再生画像1201の曲線は、Yの値によらず共通であ
る。
【0098】図14に説明を戻すと、ステップ1404
で上述のように再生画像位置を計算した後、スライス番
号slを0にセットし(ステップ1405)、スライス
を1つずつカウントして(ステップ1406)、スライ
ス毎の処理を行うループに入る。本実施形態では、1マ
クロブロックラインを1スライスとして符号化されたも
のとし、復号はスライス毎に行うとして説明する。図1
2の再生画像1201を再生するために参照される視点
画像(図12では曲線で表されている)1203等は、
被写体の形状に応じて異なったpに相当する部分となる
が、Y座標は同じ値が参照されるので、マクロブロック
ライン(=スライス)毎の処理は、この性質に適してい
る。
【0099】次に、再生画像1201の各点に対する参
照画素位置を計算する(ステップ1407)。例えば、
図12に示すように再生画像1201と視点画像120
2,1203との交点をそれぞれ点1204,1205
とすると、再生画像1201内で点1204から点12
05までの間の領域は、光線空間上で近い位置にある曲
線1202,1203で表される視点画像を参照して再
生される。参照の仕方としては、例えば、領域内の特徴
点からの光線の軌跡を1206,1207とすると、こ
れらの軌跡1206,1207には推定された形状情報
が送られているので、視点画像1202,1203のそ
れぞれのブロックのうち対応する点1210,1211
に与えられた形状情報に合わせてシフトして参照する方
法が考えられる。言い換えると、このステップ1407
は指定された視点位置より指定された視線方向を見た視
点画像(任意視点画像)を再生するために参照すべき、
各視点画像内の被参照領域となるブロックの位置を特定
するステップである。
【0100】次に、再生画像1201の位置にモデルか
ら仮投影を行って予測信号の仮生成を行う(ステップ1
408)。このステップ1408は、ステップ1407
で求められた参照画素位置(被参照領域の位置)に後述
するように予測信号を生成する際に投影すべきモデルの
被写体面上の点を制限して、予測のための演算量を減ら
すための処理である。この先の一連のステップを図12
を参照しながら説明する。
【0101】まず、モデルとして把握している点を全て
再生画像1201の位置に投影してみる。このとき、各
視点画像間に挟まれた領域毎に、それらの領域と交わる
モデル上の点を記憶する。図12でいうと、点1204
と1205に挟まれた領域に交わるモデル上の点は12
06,1207であり、これらがRAM1304に記憶
される。
【0102】次に、ステップ1407で求められた参照
画素位置(被参照領域の位置)に予測信号を生成する
(ステップ1409)。例えば、図12の例では点12
04と1205に挟まれた領域を再生するのに使用され
る被参照領域は、視点画像1202上の点1210を含
むブロックおよび視点画像1203上の点1211を含
むブロックであり、これらの位置に予測信号を生成す
る。この際、モデルとしてRAM1304に保持されて
いる全ての点から投影し、オクルージョンを考慮してこ
こから最前面の投影を選択するのでは演算量が多くな
る。しかし、本実施形態では事前にステップ1408で
モデル全体から仮投影を行い、上述の被参照領域に有効
に投影される可能性のあるモデルの点につき絞り込みを
行ってあるので、ここでの予測信号生成のための投影は
ステップ1408で記憶された点(図12の例では12
06,1207に対応する点)からのみRAM1304
から読み出して投影を行い、オクルージョン判定を行っ
て最終的に有効な投影を決定すればよい。
【0103】次に、ステップ1407で求められた参照
画素位置(被参照領域の位置)に対応する予測誤差ブロ
ックをRAM1304から読み出し(ステップ141
0)、それを復号する(ステップ1411)。予測誤差
の復号は、符号化方法で説明した予測誤差の符号化の逆
の処理であり、典型的な例としては可変長復号+逆量子
化+逆DCTである。これは図11における可変長復号
化部1104、逆量子化部1105および逆DCT部1
106に相当する処理で実現される。
【0104】次に、予測信号と予測誤差を加算すること
により、上述の領 域における画像(図12の例では、
視点画像1202上の点1210を含むブロックおよび
視点画像1203上の点1211を含むブロック)を再
生する(ステップ1412)。
【0105】次に、ステップ1412で再生された画像
が再生画像位置1201に例として上述した規則により
マッピングされる(ステップ1413)。
【0106】以上の処理をステップ1414でスライス
番号slがslmax に達したと判断されるまで、つまり
slmax 個の全てのスライスに対して行って、入力され
た視点位置および視線方向に対応する任意視点画像(再
生画像)の生成処理は終了する。また、ステップ141
5で別の視点位置および視線方向の入力が新たに行われ
たと判断された場合は、上述と同じ処理を繰り返す。
【0107】
【発明の効果】以上説明したように、本発明によれば多
視点画像から任意視点画像を再生する際、使用するメモ
リ量および再生に要する演算量をリーズナブルな範囲に
収め、PCレベルのプラットフォームにおいても任意視
点画像のリアルタイム再生を可能とすることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る多視点画像符号化装
置の構成を機能的に示すブロック図
【図2】図1中の画像入力部の構成例を示す図
【図3】被写体の断面と極座標の関係を説明する図
【図4】入力された多視点画像のp−θ平面上での位置
関係を説明する図
【図5】同実施形態における予測信号の作成原理を説明
する図
【図6】重なった光線の処理を説明する図
【図7】同実施形態に係る多視点画像符号化装置を実現
する具体的な装置の構成例を示すブロック図
【図8】同実施形態における多視点画像符号化の手順を
示すフローチャート
【図9】同実施形態における多重化フォーマットの一例
を示す図
【図10】同実施形態におけるマクロブロックの構成例
を示す図
【図11】本発明の一実施形態に係る多視点画像復号化
装置の構成を機能的に示すブロック図
【図12】同実施形態における復号再生時の参照画素を
求める原理を説明する図
【図13】同実施形態に係る多視点画像復号化装置を実
現する具体的な装置の構成例を示すブロック図
【図14】同実施形態における多視点画像からの任意視
点画像生成の手順を示すフローチャート
【図15】光線空間の円筒記録を説明する図
【符号の説明】
100…多視点画像入力部 101,108…記憶部 102…制御部 103…モデリング部 104…モデル蓄積部 105…予測信号生成部 106…減算部 107,111…DCT部 109,112…量子化部 110,113…可変長符号化部 114…逆量子化部 115…逆DCT部 116…多重化部 117…符号量カウンタ 700…バス 701…CPU 702…画像入力装置 703…記憶装置 704…RAM 1000…記憶装置 1100…視点情報入力部 1101…分離部 1102…アドレス計算部 1103…誤差記憶部 1104,1107…可変長復号部 1105,1108…逆量子化部 1106,1109…逆DCT部 1110…モデル蓄積部 1111…予測信号生成部 1112…加算部 1113…フレームメモリ 1300…バス 1301…CPU 1302…視点位置・視線方向入力部 1303…記憶装置 1304…RAM

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】被写体との位置関係が既知の複数の視点に
    よって得られた複数の視点画像からなる多視点画像につ
    いて、被写体面上の各点の座標値と輝度値とから構成さ
    れるモデル情報を符号化したモデルデータと、前記モデ
    ル情報から多視点画像中の各視点画像を予測して生成さ
    れた予測信号の各視点画像に対する予測誤差を符号化し
    た予測誤差データとが多重化されている多重化ストリー
    ムから、指定された視点位置より指定された視線方向を
    見た任意視点画像を再生する任意視点画像再生方法であ
    って、 前記多重化ストリームから前記予測誤差データを分離し
    て記憶する第1の記憶ステップと、 前記多重化ストリームからモデルデータを分離し復号し
    て得られたモデル情報を記憶する第2の記憶ステップ
    と、 前記第2の記憶ステップにより記憶されたモデル情報か
    ら前記任意視点画像の予測信号を生成する予測信号生成
    ステップと、 前記第2の記憶ステップにより記憶された予測誤差デー
    タの前記任意視点画像に対応する部分を復号して予測誤
    差を生成する予測誤差生成ステップと、 前記予測信号生成ステップにより生成された予測信号と
    前記予測誤差生成ステップにより生成された予測誤差を
    加算して再生画像を得るステップと、 前記再生画像より前記任意視点画像を生成するステップ
    とを有することを特徴とする多視点画像からの任意視点
    画像再生方法。
  2. 【請求項2】被写体との位置関係が既知の複数の視点に
    よって得られた複数の視点画像からなる多視点画像につ
    いて、被写体面上の各点の座標値と輝度値とから構成さ
    れるモデル情報を符号化したモデルデータと、前記モデ
    ル情報から多視点画像中の各視点画像を予測して生成さ
    れた予測信号の各視点画像に対する予測誤差を符号化し
    た予測誤差データとが多重化されている多重化ストリー
    ムから、指定された視点位置より指定された視線方向を
    見た任意視点画像を再生する任意視点画像再生方法であ
    って、 前記多重化ストリームから前記予測誤差データを分離し
    て記憶する第1の記憶ステップと、 前記多重化ストリームからモデルデータを分離し復号し
    て得られたモデル情報を記憶する第2の記憶ステップ
    と、 前記任意視点画像を再生するために参照すべき視点画像
    の被参照領域の位置を計算するステップと、 前記第2の記憶ステップにより記憶されたモデル情報を
    用いて前記被参照領域の位置に予測信号を生成するステ
    ップと、 前記第1の記憶ステップにより記憶された予測誤差デー
    タのうち、前記被参照領域の位置に対応する部分のデー
    タを復号して予測誤差を得るステップと、 前記予測信号と前記予測誤差を加算して再生画像を得る
    ステップと、 前記再生画像より前記任意視点画像を生成するステップ
    とを有することを特徴とする多視点画像からの任意視点
    画像再生方法。
JP9375499A 1999-03-31 1999-03-31 多視点画像からの任意視点画像再生方法 Pending JP2000285259A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9375499A JP2000285259A (ja) 1999-03-31 1999-03-31 多視点画像からの任意視点画像再生方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9375499A JP2000285259A (ja) 1999-03-31 1999-03-31 多視点画像からの任意視点画像再生方法

Publications (1)

Publication Number Publication Date
JP2000285259A true JP2000285259A (ja) 2000-10-13

Family

ID=14091231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9375499A Pending JP2000285259A (ja) 1999-03-31 1999-03-31 多視点画像からの任意視点画像再生方法

Country Status (1)

Country Link
JP (1) JP2000285259A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033503A (ja) * 2008-07-31 2010-02-12 Kddi Corp 画像生成装置、方法及びプログラム
US7831086B2 (en) 2002-06-03 2010-11-09 Sony Corporation Image processing device and method, program, program recording medium, data structure, and data recording medium
JP2015149766A (ja) * 2010-09-30 2015-08-20 シャープ株式会社 コンテキストの初期化方法および復号方法
CN109314788A (zh) * 2016-06-21 2019-02-05 派视特立株式会社 编码装置和编码方法以及解码装置和解码方法
CN115912183A (zh) * 2023-03-09 2023-04-04 国网湖北省电力有限公司经济技术研究院 高压输电线路生态措施巡视方法、系统及可读存储介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7831086B2 (en) 2002-06-03 2010-11-09 Sony Corporation Image processing device and method, program, program recording medium, data structure, and data recording medium
JP2010033503A (ja) * 2008-07-31 2010-02-12 Kddi Corp 画像生成装置、方法及びプログラム
JP2015149766A (ja) * 2010-09-30 2015-08-20 シャープ株式会社 コンテキストの初期化方法および復号方法
JP2016167854A (ja) * 2010-09-30 2016-09-15 シャープ株式会社 コンテキストの初期化方法および復号方法
CN105959014A (zh) * 2010-09-30 2016-09-21 夏普株式会社 视频编码和解码中上下文初始化的方法和系统
CN106060545A (zh) * 2010-09-30 2016-10-26 夏普株式会社 视频编码和解码中上下文初始化的方法和系统
CN106060549A (zh) * 2010-09-30 2016-10-26 夏普株式会社 视频编码和解码中上下文初始化的方法和系统
CN106060549B (zh) * 2010-09-30 2019-07-12 夏普株式会社 视频编码和解码中上下文初始化的方法和系统
CN105959014B (zh) * 2010-09-30 2019-07-23 夏普株式会社 对视频进行解码或编码的方法和装置
CN109314788A (zh) * 2016-06-21 2019-02-05 派视特立株式会社 编码装置和编码方法以及解码装置和解码方法
CN115912183A (zh) * 2023-03-09 2023-04-04 国网湖北省电力有限公司经济技术研究院 高压输电线路生态措施巡视方法、系统及可读存储介质

Similar Documents

Publication Publication Date Title
EP3669333B1 (en) Sequential encoding and decoding of volymetric video
US7671893B2 (en) System and method for interactive multi-view video
US7512261B2 (en) System and method for calibrating multiple cameras without employing a pattern by inter-image homography
US7702016B2 (en) System and process for compressing and decompressing multiple, layered, video streams of a scene captured from different viewpoints forming a grid using spatial and temporal encoding
EP1622381A2 (en) A system and method for client services for interactive multi-view video
KR101177663B1 (ko) 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법
JP4975985B2 (ja) マルチビュービデオフォーマット
EP1624702A2 (en) A system and method for off-line multi-view video compression
EP1622390A2 (en) A system and method for on-line multi-view video compression
JPH10271511A (ja) 画像符号化装置と画像復号化装置
AU2005272287A1 (en) Method and device for motion estimation and compensation for panorama image
KR102308604B1 (ko) 레거시 및 몰입형 렌더링 디바이스들에 대한 몰입형 비디오를 포맷하는 방법, 장치 및 스트림
WO2019115867A1 (en) An apparatus, a method and a computer program for volumetric video
JP2000285260A (ja) 多視点画像の符号化方法及び任意視点画像の生成方法
JP2000285259A (ja) 多視点画像からの任意視点画像再生方法
Tong et al. Interactive rendering from compressed light fields
JPH11161800A (ja) 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置
Chai et al. A depth map representation for real-time transmission and view-based rendering of a dynamic 3D scene
JPH1118091A (ja) 多視点画像の符号化/復号化装置およびその符号化/復号化方法
JP2000132683A (ja) 多視点画像符号化方法
Kim et al. Adaptive strip compression for panorama video streaming
Magnor Geometry adaptive multi-view coding techniques for image based rendering
KR20200098495A (ko) 전방향 비디오를 나타내는 멀티-뷰 비디오 시퀀스를 인코딩 및 디코딩하기 위한 방법 및 장치
Kum et al. Intra-stream encoding for multiple depth streams
Tong Compression and rendering of light fields