JPH11161800A - 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置 - Google Patents
多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置Info
- Publication number
- JPH11161800A JPH11161800A JP32930197A JP32930197A JPH11161800A JP H11161800 A JPH11161800 A JP H11161800A JP 32930197 A JP32930197 A JP 32930197A JP 32930197 A JP32930197 A JP 32930197A JP H11161800 A JPH11161800 A JP H11161800A
- Authority
- JP
- Japan
- Prior art keywords
- symmetry
- image
- information
- encoding
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
(57)【要約】
【課題】多視点画像の持つ性質を有効に活用してその情
報量を大幅に削減できる多視点画像符号化装置を提供す
る。 【解決手段】多視点画像入力部100から入力される多
視点画像から、被写体の対称性の判定結果に基づいて所
定範囲の多視点画像を選択し、被写体面上の各点に対し
て各点の座標値と選択された多視点画像中でモデルとし
て使用される視点画像内の該各点に対応する輝度値とか
ら構成されるモデル情報を生成するモデルリング部10
3と、モデル情報を符号化する符号化部113と、モデ
ル情報から多視点画像中の各視点画像を予測して生成さ
れた予測画像と各視点画像との予測誤差を符号化する符
号化部106〜110と、符号化されたモデル情報およ
び予測誤差と対称性に関する情報を多重化して符号化ス
トリームを生成する多重化部116とを有する。
報量を大幅に削減できる多視点画像符号化装置を提供す
る。 【解決手段】多視点画像入力部100から入力される多
視点画像から、被写体の対称性の判定結果に基づいて所
定範囲の多視点画像を選択し、被写体面上の各点に対し
て各点の座標値と選択された多視点画像中でモデルとし
て使用される視点画像内の該各点に対応する輝度値とか
ら構成されるモデル情報を生成するモデルリング部10
3と、モデル情報を符号化する符号化部113と、モデ
ル情報から多視点画像中の各視点画像を予測して生成さ
れた予測画像と各視点画像との予測誤差を符号化する符
号化部106〜110と、符号化されたモデル情報およ
び予測誤差と対称性に関する情報を多重化して符号化ス
トリームを生成する多重化部116とを有する。
Description
【0001】
【発明の属する技術分野】本発明は、多視点画像を用い
て任意の視点から見たような画像を作成する画像処理シ
ステムにおける多視点画像符号化/復号化装置および多
視点画像符号化/復号化方法ならびに三次元物体の画像
符号化/復号化装置に関する。
て任意の視点から見たような画像を作成する画像処理シ
ステムにおける多視点画像符号化/復号化装置および多
視点画像符号化/復号化方法ならびに三次元物体の画像
符号化/復号化装置に関する。
【0002】
【従来の技術】近年、コンピュータ技術、グラフィクス
技術の進展により、バーチャルショッピングモールなど
に代表される仮想空間内のウォークスルーが身近な存在
になりつつある。現状の仮想空間は構成要素がCG(コ
ンピュータグラフィクス)によって生成されるものが大
半であるが、これに対して、最近ではリアリティに注目
した別のアプローチとして、実写画像から仮想3次元空
間を生成する試みがなされてきている。
技術の進展により、バーチャルショッピングモールなど
に代表される仮想空間内のウォークスルーが身近な存在
になりつつある。現状の仮想空間は構成要素がCG(コ
ンピュータグラフィクス)によって生成されるものが大
半であるが、これに対して、最近ではリアリティに注目
した別のアプローチとして、実写画像から仮想3次元空
間を生成する試みがなされてきている。
【0003】CGの分野では、モデルを精密にし、演算
資源を投入することによりリアリティを追求する努力が
払われてきたが、これとは別に、近年“image based re
ndering ”と称して、実写を利用してリアリティを高め
ようという動きがある。このような技術として既に実用
に供せられている例として、文献1(S.E.Chen et al,SI
GGRAPH‘95 pp.29-38)に開示されているQuickTime VR
が挙げられる。
資源を投入することによりリアリティを追求する努力が
払われてきたが、これとは別に、近年“image based re
ndering ”と称して、実写を利用してリアリティを高め
ようという動きがある。このような技術として既に実用
に供せられている例として、文献1(S.E.Chen et al,SI
GGRAPH‘95 pp.29-38)に開示されているQuickTime VR
が挙げられる。
【0004】QuickTime VRは、一つの視点から撮った
パノラマ画像から視線方向を切り出す技術であり、自分
の周りの360°の視野をインタラクティブに見渡すよ
うな画像表現ができる。但し、この方法では画像入力の
際の視点はある一点に固定されているので、任意視点か
らの画像を再構成することはできない。すなわち、視線
方向は選択できるものの視点は常に同一視点に固定され
ているので、視点が変わったときに発生するオクルージ
ョン(隠れ)の状況の変化を再現することはできない。
パノラマ画像から視線方向を切り出す技術であり、自分
の周りの360°の視野をインタラクティブに見渡すよ
うな画像表現ができる。但し、この方法では画像入力の
際の視点はある一点に固定されているので、任意視点か
らの画像を再構成することはできない。すなわち、視線
方向は選択できるものの視点は常に同一視点に固定され
ているので、視点が変わったときに発生するオクルージ
ョン(隠れ)の状況の変化を再現することはできない。
【0005】このような物体との距離方向も含めた任意
視点の実現、オブジェクトとしての操作可能性、空間へ
の配置可能性といった更に進んだ機能を実現することが
できる画像表現方法としては、例えば文献2(「光線情
報による3次元実空間の効率的記述へ向けた光線空間射
影法」苗村他、信学技報IE95-119)に開示されている方
法が知られている。この方法では、3次元空間上を通る
光線を表現する「光線空間」という概念を導入し、多視
点画像と光線空間とを相互に変換することにより、入力
された多視点画像から任意視点画像を生成している。以
下、この原理につき具体的に説明する。
視点の実現、オブジェクトとしての操作可能性、空間へ
の配置可能性といった更に進んだ機能を実現することが
できる画像表現方法としては、例えば文献2(「光線情
報による3次元実空間の効率的記述へ向けた光線空間射
影法」苗村他、信学技報IE95-119)に開示されている方
法が知られている。この方法では、3次元空間上を通る
光線を表現する「光線空間」という概念を導入し、多視
点画像と光線空間とを相互に変換することにより、入力
された多視点画像から任意視点画像を生成している。以
下、この原理につき具体的に説明する。
【0006】光線情報に基づく記述の考え方は、3次元
空間を伝播する光線の情報を3次元の直交座標空間上に
おける光線の通過位置(X,Y,Z)とその方向(θ,
φ)によって定義される5次元情報空間f(X,Y,
Z,θ,φ)に記述する、というものである。ここで、
θは、直交座標空間上の任意の点(X,Y,Z)を通過
する光線の水平方向の傾き、つまりX−Z平面上の角度
を示し、φは(X,Y,Z)を通過する光線の垂直方向
の傾き、つまりX−Z平面上からY軸方向への角度を示
す。
空間を伝播する光線の情報を3次元の直交座標空間上に
おける光線の通過位置(X,Y,Z)とその方向(θ,
φ)によって定義される5次元情報空間f(X,Y,
Z,θ,φ)に記述する、というものである。ここで、
θは、直交座標空間上の任意の点(X,Y,Z)を通過
する光線の水平方向の傾き、つまりX−Z平面上の角度
を示し、φは(X,Y,Z)を通過する光線の垂直方向
の傾き、つまりX−Z平面上からY軸方向への角度を示
す。
【0007】画像情報が直交座標空間上の任意の点
(X,Y,Z)に視点を置いたときにそこを通過する
(θ,φ)方向の光線の集合により形成されるものであ
ることを考慮すると、画像情報と前述の光線情報は相互
に変換可能であることがわかる。ここで、光線が減衰せ
ずに直進するとの仮定が成立するような場合には、5次
元情報空間f(X,Y,Z,θ,φ)を4次元に縮退さ
せることができる。上述した文献2には、光線情報を記
録する面の取り方によって平面記録、円筒記録、球面記
録の3通りの記録方法があることが記されているが、こ
こでは以後の説明を行うために必要な円筒記録について
簡単に説明する。
(X,Y,Z)に視点を置いたときにそこを通過する
(θ,φ)方向の光線の集合により形成されるものであ
ることを考慮すると、画像情報と前述の光線情報は相互
に変換可能であることがわかる。ここで、光線が減衰せ
ずに直進するとの仮定が成立するような場合には、5次
元情報空間f(X,Y,Z,θ,φ)を4次元に縮退さ
せることができる。上述した文献2には、光線情報を記
録する面の取り方によって平面記録、円筒記録、球面記
録の3通りの記録方法があることが記されているが、こ
こでは以後の説明を行うために必要な円筒記録について
簡単に説明する。
【0008】図30に、円筒記録のための座標系を示
す。まず、空間を4次元に縮退するために、(X,Y,
Z)から(P,Q,R)への座標変換が行われる。ここ
で、(P,Q,R)座標のR軸は、図示のように光線の
進行方向(θ,φ)と一致するように規定される。これ
によりR軸に沿った信号の変化はなくなり、この軸は無
視することができるので、(X,Y,Z,θ,φ)は
(P,Q,R)、つまり(P,Q,θ,φ)の4次元に
変換される。次に、円筒記録ではθが同一であるφ方向
の全ての光線は、θ方向に法線を持つ(P,Q)平面上
の各点に記録される。これより、 P=Xcosθ−Zsinθ (1) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (2) の関係が得られる。
す。まず、空間を4次元に縮退するために、(X,Y,
Z)から(P,Q,R)への座標変換が行われる。ここ
で、(P,Q,R)座標のR軸は、図示のように光線の
進行方向(θ,φ)と一致するように規定される。これ
によりR軸に沿った信号の変化はなくなり、この軸は無
視することができるので、(X,Y,Z,θ,φ)は
(P,Q,R)、つまり(P,Q,θ,φ)の4次元に
変換される。次に、円筒記録ではθが同一であるφ方向
の全ての光線は、θ方向に法線を持つ(P,Q)平面上
の各点に記録される。これより、 P=Xcosθ−Zsinθ (1) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (2) の関係が得られる。
【0009】図30は、直交座標系0−XYZの原点
(0,0,0)を通る進行方向(θ,φ)の光線を記録
する例である。R軸からX−Y平面上に降ろした垂線の
足をMとした場合、O−Mを法線とする(P,Q)平面
が定義され、そこにφ方向の全ての光線が記録されるこ
とになる。このようにして、同一θ方向の光線は、その
φ方向に関わらず全て同一の(P,Q)平面上の対応す
る座標位置に記録される。
(0,0,0)を通る進行方向(θ,φ)の光線を記録
する例である。R軸からX−Y平面上に降ろした垂線の
足をMとした場合、O−Mを法線とする(P,Q)平面
が定義され、そこにφ方向の全ての光線が記録されるこ
とになる。このようにして、同一θ方向の光線は、その
φ方向に関わらず全て同一の(P,Q)平面上の対応す
る座標位置に記録される。
【0010】次に、この原理を使って多視点画像から光
線空間への記録を行い、記録された光線空間から任意視
点画像を生成する原理について説明する。上述の原理に
よって光線空間が4次元に縮退されたといっても、扱う
べき多視点画像の数や演算量は非常に多く、現実的では
ないので、文献3(「光線情報に基づく3次元空間操
作」石川他、PCSJ96 P−3.13)において
は、φ方向の視差を無視して(p,θ)の2次元空間へ
の記録で代用している。
線空間への記録を行い、記録された光線空間から任意視
点画像を生成する原理について説明する。上述の原理に
よって光線空間が4次元に縮退されたといっても、扱う
べき多視点画像の数や演算量は非常に多く、現実的では
ないので、文献3(「光線情報に基づく3次元空間操
作」石川他、PCSJ96 P−3.13)において
は、φ方向の視差を無視して(p,θ)の2次元空間へ
の記録で代用している。
【0011】また、実際に扱える光線の数には限りがあ
るので、実用にはサンプリングが介在することになる。
すなわち、入力として扱われる視点の数は有限個にとど
められる。このとき、Y=一定の平面上でのある視点の
座標(X,Z)が決まると、その点を通る光線の軌跡は
式(1)のみで与えられる。Y=一定の平面上ではQ方
向の値は変化しないからである。有限個の複数の視点を
設定して画像を入力してやると、光線空間はある視点の
座標(X,Z)を通る光線の軌跡に沿った光線情報によ
って埋められてくる。光線空間上で光線情報の得られて
いない部分は、得られている光線情報により内挿等によ
って補間してやると、密に光線情報で埋まった光線空間
が得られる。再生の際は任意視点(X,Z)を指定する
と、その点を通る光線の軌跡が式(1)から得られるの
で、その軌跡上の光線情報を入力画像情報から取ってく
ることにより、任意の視点画像の画面のY=一定におけ
る一つの走査線、つまりある特定のYの値に対応する一
本の表示ライン上の画像が得られる。こうして得られる
走査線をY方向に積み重ねることによって、任意の視点
から見た1画面分の画像を得ることができる。
るので、実用にはサンプリングが介在することになる。
すなわち、入力として扱われる視点の数は有限個にとど
められる。このとき、Y=一定の平面上でのある視点の
座標(X,Z)が決まると、その点を通る光線の軌跡は
式(1)のみで与えられる。Y=一定の平面上ではQ方
向の値は変化しないからである。有限個の複数の視点を
設定して画像を入力してやると、光線空間はある視点の
座標(X,Z)を通る光線の軌跡に沿った光線情報によ
って埋められてくる。光線空間上で光線情報の得られて
いない部分は、得られている光線情報により内挿等によ
って補間してやると、密に光線情報で埋まった光線空間
が得られる。再生の際は任意視点(X,Z)を指定する
と、その点を通る光線の軌跡が式(1)から得られるの
で、その軌跡上の光線情報を入力画像情報から取ってく
ることにより、任意の視点画像の画面のY=一定におけ
る一つの走査線、つまりある特定のYの値に対応する一
本の表示ライン上の画像が得られる。こうして得られる
走査線をY方向に積み重ねることによって、任意の視点
から見た1画面分の画像を得ることができる。
【0012】上述したように、光線空間を用いた原理に
基づく任意視点画像の生成においては、扱うべき情報が
できる限り少なくて済むように簡略化を施してはいる
が、現状では、このような簡略化を施しても情報量、処
理量は依然として非常に多く、再生のリアルタイム化、
情報量の削減などが課題として挙げられている。
基づく任意視点画像の生成においては、扱うべき情報が
できる限り少なくて済むように簡略化を施してはいる
が、現状では、このような簡略化を施しても情報量、処
理量は依然として非常に多く、再生のリアルタイム化、
情報量の削減などが課題として挙げられている。
【0013】次に、情報量削減の観点から見た従来技術
につき説明する。通常、情報量の削減のためには符号化
が施される。多視点画像を符号化する場合、種々の方法
が考えられる。第1は、各視点からの画像をそれぞれ静
止画とみなしてJPEGなどの方法により符号化する方
法である。この方法は、各視点からの画像同士の相関を
使っておらず無駄がある。第2は、多視点画像を動画像
とみなしてMPEGなどの方法により符号化する方法で
あり、動き補償予測によって隣り合う視点画像同士の相
関がある程度取り除かれる。特に、多視点画像の1つの
ケースとしてのステレオ画像の符号化では、同様の原理
は視差補償予測と呼ばれており、これは例えば文献4
(特開平2−100592号公報)などに開示されてい
る。
につき説明する。通常、情報量の削減のためには符号化
が施される。多視点画像を符号化する場合、種々の方法
が考えられる。第1は、各視点からの画像をそれぞれ静
止画とみなしてJPEGなどの方法により符号化する方
法である。この方法は、各視点からの画像同士の相関を
使っておらず無駄がある。第2は、多視点画像を動画像
とみなしてMPEGなどの方法により符号化する方法で
あり、動き補償予測によって隣り合う視点画像同士の相
関がある程度取り除かれる。特に、多視点画像の1つの
ケースとしてのステレオ画像の符号化では、同様の原理
は視差補償予測と呼ばれており、これは例えば文献4
(特開平2−100592号公報)などに開示されてい
る。
【0014】また、MPEG2標準においても類似の原
理はマルチビュープロファイルの範疇にてサポートされ
ている。この方法は画像に対して一種のモデル化を行っ
ていることになるが、モデル化がブロック毎にしか行わ
れておらず、画素単位で見たときにはモデルからのずれ
が大きくなりがちである。また、モデルのパラメータと
しても各ブロックに動きベクトルの形でパラメータを与
えることになり、全体としてモデルパラメータの情報量
もかなり大きくなる。
理はマルチビュープロファイルの範疇にてサポートされ
ている。この方法は画像に対して一種のモデル化を行っ
ていることになるが、モデル化がブロック毎にしか行わ
れておらず、画素単位で見たときにはモデルからのずれ
が大きくなりがちである。また、モデルのパラメータと
しても各ブロックに動きベクトルの形でパラメータを与
えることになり、全体としてモデルパラメータの情報量
もかなり大きくなる。
【0015】光線空間の概念を取り入れた多視点画像の
符号化に関する技術としては、文献5(「複合現実感表
示のための光線空間データの圧縮」片山他、IMPS9
6I−6.1)に開示されている技術がある。この方法
では、同一被写体から得た120枚の多視点画像のうち
の何枚かを参照画像として設定してそのまま送り、他の
画像については参照画像中のどの画素値に近いか、とい
う画素を指定する情報として送ることによって情報を圧
縮している。従って、上述の動き補償の流用と比較し
て、モデル化が画素単位で行われてる点でモデルからの
ずれは少なくなるが、モデルのパラメータ情報は逆に多
くなる。
符号化に関する技術としては、文献5(「複合現実感表
示のための光線空間データの圧縮」片山他、IMPS9
6I−6.1)に開示されている技術がある。この方法
では、同一被写体から得た120枚の多視点画像のうち
の何枚かを参照画像として設定してそのまま送り、他の
画像については参照画像中のどの画素値に近いか、とい
う画素を指定する情報として送ることによって情報を圧
縮している。従って、上述の動き補償の流用と比較し
て、モデル化が画素単位で行われてる点でモデルからの
ずれは少なくなるが、モデルのパラメータ情報は逆に多
くなる。
【0016】また、文献6(特開平8−115434号
公報)では多視点画像の圧縮に関連する別の技術とし
て、(少ない)多視点画像の対応点の軌跡を規定するパ
ラメータを利用することにより、受信側で任意視点画像
のための内挿を行う技術が開示されている。この際、こ
のパラメータのみによって光線空間を表現すれば、非常
に少ない情報量による表現が可能となる。
公報)では多視点画像の圧縮に関連する別の技術とし
て、(少ない)多視点画像の対応点の軌跡を規定するパ
ラメータを利用することにより、受信側で任意視点画像
のための内挿を行う技術が開示されている。この際、こ
のパラメータのみによって光線空間を表現すれば、非常
に少ない情報量による表現が可能となる。
【0017】文献5,6はいずれもモデルのみによって
多視点画像を表現しようとするものであるが、実際には
特に後者の場合、多視点画像からのモデルの推定はかな
り難しく、誤差を伴うものとなる。この結果、モデルの
推定に誤差が生じた部分については、再生される画像が
不自然になってしまう。
多視点画像を表現しようとするものであるが、実際には
特に後者の場合、多視点画像からのモデルの推定はかな
り難しく、誤差を伴うものとなる。この結果、モデルの
推定に誤差が生じた部分については、再生される画像が
不自然になってしまう。
【0018】これに対して、文献7(「3次元構造推定
に基づく多眼3次元画像の圧縮と補間」藤井、原島 3
次元画像コンファレンス’94 1-4)には、3次元構造モ
デルから多眼画像の予測信号を生成し、予測誤差を送る
方法が開示されている。この文献7でのモデルは、平面
や平面パッチなどの近似であって、これによる予測の精
度はあまりよいとは言えない。しかし単純にモデルの精
度を良くすると、精度を良くするほどモデル自体の情報
量が大きくなってしまい、全体の情報量を減らすことは
出来ない。
に基づく多眼3次元画像の圧縮と補間」藤井、原島 3
次元画像コンファレンス’94 1-4)には、3次元構造モ
デルから多眼画像の予測信号を生成し、予測誤差を送る
方法が開示されている。この文献7でのモデルは、平面
や平面パッチなどの近似であって、これによる予測の精
度はあまりよいとは言えない。しかし単純にモデルの精
度を良くすると、精度を良くするほどモデル自体の情報
量が大きくなってしまい、全体の情報量を減らすことは
出来ない。
【0019】
【発明が解決しようとする課題】上述したように従来で
は多視点画像の情報量を削減するために圧縮符号化を行
っているが、多視点画像の持つ性質が十分に活用されて
おらず、膨大な情報量を大幅に削減するには至っていな
いという問題点があった。
は多視点画像の情報量を削減するために圧縮符号化を行
っているが、多視点画像の持つ性質が十分に活用されて
おらず、膨大な情報量を大幅に削減するには至っていな
いという問題点があった。
【0020】本発明は、上記事情を考慮してなされたも
のであり、多視点画像の持つ性質を有効に活用してその
情報量を大幅に削減できる多視点画像符号化/復号化装
置および方法ならびに三次元物体の画像符号化/復号化
装置を提供することを目的とする。
のであり、多視点画像の持つ性質を有効に活用してその
情報量を大幅に削減できる多視点画像符号化/復号化装
置および方法ならびに三次元物体の画像符号化/復号化
装置を提供することを目的とする。
【0021】
【課題を解決するための手段】上述した課題を解決する
ため、本発明は被写体の対称性を利用して多視点画像に
ついて符号化すべき情報量を削減することを骨子とす
る。ここで、被写体の対称性とは被写体の形状およびテ
キスチャの対称性であり、場合によっては形状の対称性
のみを利用してもよい。
ため、本発明は被写体の対称性を利用して多視点画像に
ついて符号化すべき情報量を削減することを骨子とす
る。ここで、被写体の対称性とは被写体の形状およびテ
キスチャの対称性であり、場合によっては形状の対称性
のみを利用してもよい。
【0022】すなわち、本発明に係る多視点画像の符号
化においては、被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化するに当たり、被写体の対称性の判定結
果に基づいて多視点画像を選択し、この選択された多視
点画像を符号化するとともに、この符号化結果に対称性
に関する情報を多重化して符号化ストリームを生成する
ことを基本的な特徴とする。
化においては、被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化するに当たり、被写体の対称性の判定結
果に基づいて多視点画像を選択し、この選択された多視
点画像を符号化するとともに、この符号化結果に対称性
に関する情報を多重化して符号化ストリームを生成する
ことを基本的な特徴とする。
【0023】より具体的には、被写体面上の各点に対し
て、該各点の座標値と、選択された多視点画像中でモデ
ルとして使用される視点画像内の該各点に対応する輝度
値とから構成されるモデル情報を生成するモデル化を行
い、このモデル情報と、このモデル情報から多視点画像
中の各視点画像を予測して生成された予測画像と各視点
画像との予測誤差を符号化し、これら符号化されたモデ
ル情報および予測誤差と対称性に関する情報を多重化し
て符号化ストリームを生成する。
て、該各点の座標値と、選択された多視点画像中でモデ
ルとして使用される視点画像内の該各点に対応する輝度
値とから構成されるモデル情報を生成するモデル化を行
い、このモデル情報と、このモデル情報から多視点画像
中の各視点画像を予測して生成された予測画像と各視点
画像との予測誤差を符号化し、これら符号化されたモデ
ル情報および予測誤差と対称性に関する情報を多重化し
て符号化ストリームを生成する。
【0024】被写体の対称性に基づく多視点画像の選択
は、例えば対称性の判定結果が対称性有りの場合、対称
性を有する範囲に対応する多視点画像から対称構造単位
の視点画像を選択し、対称性の判定結果が対称性無しの
場合、対称性を有しない範囲に対応する多視点画像を全
て選択する。
は、例えば対称性の判定結果が対称性有りの場合、対称
性を有する範囲に対応する多視点画像から対称構造単位
の視点画像を選択し、対称性の判定結果が対称性無しの
場合、対称性を有しない範囲に対応する多視点画像を全
て選択する。
【0025】この場合、符号化ストリームには対称性に
関する情報として、対称性の判定結果が対称性有りの場
合は対称性の種類と対称構造単位の視点画像に対応する
被写体面の範囲および該対称構造単位の視点画像のコピ
ー先の被写体面の範囲を示す情報を多重化し、対称性の
判定結果が対称性無しの場合は対称性を有しない被写体
面の範囲を示す情報を多重化する。
関する情報として、対称性の判定結果が対称性有りの場
合は対称性の種類と対称構造単位の視点画像に対応する
被写体面の範囲および該対称構造単位の視点画像のコピ
ー先の被写体面の範囲を示す情報を多重化し、対称性の
判定結果が対称性無しの場合は対称性を有しない被写体
面の範囲を示す情報を多重化する。
【0026】また、被写体の対称性を仮定し、この仮定
した対称性に基づいて多視点画像を選択してもよい。こ
の場合には、モデル情報に被写体の対称性を仮定した範
囲内の非対称性に起因する誤差を加算したモデル情報
と、この誤差を加算したモデル情報から多視点画像中の
各視点画像を予測して生成された予測画像と各視点画像
との予測誤差を符号化し、これらの符号化されたモデル
情報および予測誤差と仮定した対称性に関する情報を多
重化して符号化ストリームを生成する。
した対称性に基づいて多視点画像を選択してもよい。こ
の場合には、モデル情報に被写体の対称性を仮定した範
囲内の非対称性に起因する誤差を加算したモデル情報
と、この誤差を加算したモデル情報から多視点画像中の
各視点画像を予測して生成された予測画像と各視点画像
との予測誤差を符号化し、これらの符号化されたモデル
情報および予測誤差と仮定した対称性に関する情報を多
重化して符号化ストリームを生成する。
【0027】さらに、予測誤差の符号化はモデル情報か
ら多視点画像中の各視点画像を予測して生成された予測
画像と各視点画像との予測誤差のうち、選択された多視
点画像に対応する予測誤差のみを符号化してもよい。
ら多視点画像中の各視点画像を予測して生成された予測
画像と各視点画像との予測誤差のうち、選択された多視
点画像に対応する予測誤差のみを符号化してもよい。
【0028】一方、本発明に係る多視点画像の復号化に
おいては、多視点画像の符号化ストリーム、すなわち選
択された多視点画像の符号化結果と被写体の対称性に関
する情報とが多重化されている符号化ストリームを復号
化して所望の視点画像を再生する場合、符号化ストリー
ムに多重化された符号化結果と対称性に関する情報を分
離し、分離された対称性に関する情報に従って、分離さ
れた多視点画像の符号結果を復号化して所望の視点画像
を再生する。
おいては、多視点画像の符号化ストリーム、すなわち選
択された多視点画像の符号化結果と被写体の対称性に関
する情報とが多重化されている符号化ストリームを復号
化して所望の視点画像を再生する場合、符号化ストリー
ムに多重化された符号化結果と対称性に関する情報を分
離し、分離された対称性に関する情報に従って、分離さ
れた多視点画像の符号結果を復号化して所望の視点画像
を再生する。
【0029】また、符号化ストリームに被写体面上の各
点の座標値と被写体の対称性の判定結果に基づいて選択
された多視点画像中でモデルとして使用される視点画像
内の該各点に対応する輝度値とから構成されるモデル情
報と、このモデル情報から多視点画像中の各視点画像を
予測して生成された予測画像と各視点画像との予測誤差
と、対称性に関する情報とが多重化されている場合に
は、符号化ストリームからモデル情報と予測誤差および
対称性に関する情報を分離した後、予測誤差およびモデ
ル情報を復号化し、対称性に関する情報に従って、復号
化されたモデル情報から再生対象の視点画像を予測して
予測画像を生成し、復号化された予測誤差と生成された
予測画像とを合成して再生対象の視点画像を再生する。
点の座標値と被写体の対称性の判定結果に基づいて選択
された多視点画像中でモデルとして使用される視点画像
内の該各点に対応する輝度値とから構成されるモデル情
報と、このモデル情報から多視点画像中の各視点画像を
予測して生成された予測画像と各視点画像との予測誤差
と、対称性に関する情報とが多重化されている場合に
は、符号化ストリームからモデル情報と予測誤差および
対称性に関する情報を分離した後、予測誤差およびモデ
ル情報を復号化し、対称性に関する情報に従って、復号
化されたモデル情報から再生対象の視点画像を予測して
予測画像を生成し、復号化された予測誤差と生成された
予測画像とを合成して再生対象の視点画像を再生する。
【0030】さらに、符号化ストリームに被写体面上の
各点の座標値と被写体の対称性の判定結果に基づいて選
択された多視点画像中でモデルとして使用される視点画
像内の該各点に対応する輝度値とから構成されるモデル
情報に被写体の非対称性に起因する誤差を加算したモデ
ル情報と、誤差を加算したモデル情報から多視点画像中
の各視点画像を予測して生成された予測画像と各視点画
像との予測誤差と、対称性に関する情報とが多重化され
ている場合には、符号化ストリームからモデル情報と予
測誤差および対称性に関する情報を分離した後、予測誤
差と、被写体の非対称性に起因する誤差を加算したモデ
ル情報を復号化し、対称性に関する情報に従って、復号
化されたモデル情報から再生対象の視点画像を予測して
予測画像を生成し、復号化された予測誤差と生成された
予測画像とを合成して再生対象の視点画像を再生する。
各点の座標値と被写体の対称性の判定結果に基づいて選
択された多視点画像中でモデルとして使用される視点画
像内の該各点に対応する輝度値とから構成されるモデル
情報に被写体の非対称性に起因する誤差を加算したモデ
ル情報と、誤差を加算したモデル情報から多視点画像中
の各視点画像を予測して生成された予測画像と各視点画
像との予測誤差と、対称性に関する情報とが多重化され
ている場合には、符号化ストリームからモデル情報と予
測誤差および対称性に関する情報を分離した後、予測誤
差と、被写体の非対称性に起因する誤差を加算したモデ
ル情報を復号化し、対称性に関する情報に従って、復号
化されたモデル情報から再生対象の視点画像を予測して
予測画像を生成し、復号化された予測誤差と生成された
予測画像とを合成して再生対象の視点画像を再生する。
【0031】このように本発明では、被写体の形状やテ
キスチャの判定結果に応じて多視点画像を選択し、多視
点画像のうち被写体の対称性のある範囲については、例
えば共通の部分である対称構造単位の情報のみを符号化
し、この符号化結果に復号化側で必要な対称性に関する
情報を多重化して符号化ストリームを生成することによ
って、復号化側に伝送すべき情報量を大幅に削減でき
る。
キスチャの判定結果に応じて多視点画像を選択し、多視
点画像のうち被写体の対称性のある範囲については、例
えば共通の部分である対称構造単位の情報のみを符号化
し、この符号化結果に復号化側で必要な対称性に関する
情報を多重化して符号化ストリームを生成することによ
って、復号化側に伝送すべき情報量を大幅に削減でき
る。
【0032】また、本発明によると被写体との位置関係
が既知の複数の視点によってそれぞれ得られた複数の視
点画像からなる多視点画像を符号化した符号化ストリー
ムとして、被写体面上の各点の座標値と被写体の対称性
の判定結果に基づいて選択された多視点画像中でモデル
として使用される視点画像内の該各点に対応する輝度値
とから構成されるモデル情報と、このモデル情報から多
視点画像中の各視点画像を予測して生成された予測画像
と各視点画像との予測誤差と、対称性に関する情報とが
多重化された符号化ストリームが記録された記録媒体が
提供される。
が既知の複数の視点によってそれぞれ得られた複数の視
点画像からなる多視点画像を符号化した符号化ストリー
ムとして、被写体面上の各点の座標値と被写体の対称性
の判定結果に基づいて選択された多視点画像中でモデル
として使用される視点画像内の該各点に対応する輝度値
とから構成されるモデル情報と、このモデル情報から多
視点画像中の各視点画像を予測して生成された予測画像
と各視点画像との予測誤差と、対称性に関する情報とが
多重化された符号化ストリームが記録された記録媒体が
提供される。
【0033】さらに、本発明によると、被写体面上の各
点の座標値と被写体の対称性の判定結果に基づいて選択
された多視点画像中でモデルとして使用される視点画像
内の該各点に対応する輝度値とから構成されるモデル情
報に被写体の対称性を仮定した範囲内の非対称性に起因
する誤差を加算したモデル情報と、この誤差を加算した
モデル情報から多視点画像中の各視点画像を予測して生
成された予測画像と各視点画像との予測誤差と、対称性
に関する情報とが多重化された符号化ストリームが記録
された記録媒体が提供される。
点の座標値と被写体の対称性の判定結果に基づいて選択
された多視点画像中でモデルとして使用される視点画像
内の該各点に対応する輝度値とから構成されるモデル情
報に被写体の対称性を仮定した範囲内の非対称性に起因
する誤差を加算したモデル情報と、この誤差を加算した
モデル情報から多視点画像中の各視点画像を予測して生
成された予測画像と各視点画像との予測誤差と、対称性
に関する情報とが多重化された符号化ストリームが記録
された記録媒体が提供される。
【0034】本発明に係る三次元物体の画像符号化装置
は、三次元物体からなる被写体の対称性の判定結果に基
づいて被写体面の一部を選択する選択手段と、この選択
手段により選択された被写体面の部分の情報を符号化す
る符号化手段とを具備し、選択手段により選択されなか
った被写体面の部分については、選択された被写体面の
部分の情報を利用して表現することを特徴とする。
は、三次元物体からなる被写体の対称性の判定結果に基
づいて被写体面の一部を選択する選択手段と、この選択
手段により選択された被写体面の部分の情報を符号化す
る符号化手段とを具備し、選択手段により選択されなか
った被写体面の部分については、選択された被写体面の
部分の情報を利用して表現することを特徴とする。
【0035】本発明に係る他の三次元物体の画像符号化
装置は、三次元物体からなる被写体の対称性を仮定し、
この仮定した対称性に基づいて被写体面の一部を選択す
る選択手段と、選択手段により選択された被写体面の部
分の情報を符号化し、選択されなかった被写体面の部分
については対象であるとの仮定の下に予測を行い、予測
誤差を符号化する符号化手段とを具備することを特徴と
する。
装置は、三次元物体からなる被写体の対称性を仮定し、
この仮定した対称性に基づいて被写体面の一部を選択す
る選択手段と、選択手段により選択された被写体面の部
分の情報を符号化し、選択されなかった被写体面の部分
については対象であるとの仮定の下に予測を行い、予測
誤差を符号化する符号化手段とを具備することを特徴と
する。
【0036】さらに、これらの三次元物体の画像符号化
装置において、符号化手段の符号化結果に被写体の対称
性に関する情報を多重化して符号化ストリームを生成す
る多重化手段をさらに具備することを特徴とする。
装置において、符号化手段の符号化結果に被写体の対称
性に関する情報を多重化して符号化ストリームを生成す
る多重化手段をさらに具備することを特徴とする。
【0037】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。 (多視点画像符号化装置について)図1に、本発明に係
る多視点画像符号化装置の一実施形態を示す。図1にお
いて、多視点画像入力部100は三次元物体からなる被
写体とカメラの位置関係が既知の条件で複数の視点によ
って画像の撮影を行って、複数の視点画像からなる多視
点画像を入力できるように構成された画像入力装置であ
る。この多視点画像入力部100により入力された多視
点画像の情報は、一旦ハードディスクのような記憶部1
01に蓄えられる。制御部102は、符号化全体の制御
を行う。
施の形態を説明する。 (多視点画像符号化装置について)図1に、本発明に係
る多視点画像符号化装置の一実施形態を示す。図1にお
いて、多視点画像入力部100は三次元物体からなる被
写体とカメラの位置関係が既知の条件で複数の視点によ
って画像の撮影を行って、複数の視点画像からなる多視
点画像を入力できるように構成された画像入力装置であ
る。この多視点画像入力部100により入力された多視
点画像の情報は、一旦ハードディスクのような記憶部1
01に蓄えられる。制御部102は、符号化全体の制御
を行う。
【0038】符号化の手順は、多視点画像全体を見てモ
デル化、つまりモデルの推定を行い(フェーズ
[1])、仮符号化を行って全体の符号量との関係から
量子化ステップサイズなどの符号化パラメータを決定し
(フェーズ[2])、この後に実際の符号化ストリーム
を生成するための本符号化を行う(フェーズ[3])の
3フェーズよりなる。制御部102は、これらの手順に
ついての制御も行う。
デル化、つまりモデルの推定を行い(フェーズ
[1])、仮符号化を行って全体の符号量との関係から
量子化ステップサイズなどの符号化パラメータを決定し
(フェーズ[2])、この後に実際の符号化ストリーム
を生成するための本符号化を行う(フェーズ[3])の
3フェーズよりなる。制御部102は、これらの手順に
ついての制御も行う。
【0039】まず、制御部102はモデリング部103
にモデル生成の指示を出し、モデルリング部103はそ
の指示に従って記憶部101をアクセスして記憶部10
1に記憶されている多視点画像を読み込み、モデル推定
のフェーズ[1]を開始する(モデルの推定方法の詳細
については後述する)。本実施形態では、このモデルを
表す情報(以下、モデル情報という)は被写体面上の各
点の座標値(極座標)とその点の輝度の代表値(代表輝
度値)とから構成される。代表輝度値としては、被写体
面上の対応する点からの法線方向に最も近い視点によっ
て撮影された視点画像の該当する輝度値が用いられる
が、後述する予測を考慮して全体の予測を最適化する値
を代表輝度値として求めてもよい。そして、各点につい
てのモデル情報の代表輝度値は、その点からの法線方向
に最も近い視点により撮影された視点画像の輝度値とし
てフレーム内符号化されて送られる(詳細は後述す
る)。
にモデル生成の指示を出し、モデルリング部103はそ
の指示に従って記憶部101をアクセスして記憶部10
1に記憶されている多視点画像を読み込み、モデル推定
のフェーズ[1]を開始する(モデルの推定方法の詳細
については後述する)。本実施形態では、このモデルを
表す情報(以下、モデル情報という)は被写体面上の各
点の座標値(極座標)とその点の輝度の代表値(代表輝
度値)とから構成される。代表輝度値としては、被写体
面上の対応する点からの法線方向に最も近い視点によっ
て撮影された視点画像の該当する輝度値が用いられる
が、後述する予測を考慮して全体の予測を最適化する値
を代表輝度値として求めてもよい。そして、各点につい
てのモデル情報の代表輝度値は、その点からの法線方向
に最も近い視点により撮影された視点画像の輝度値とし
てフレーム内符号化されて送られる(詳細は後述す
る)。
【0040】このようにモデルリング部103の処理
は、被写体面上の各点に対応する座標値rの推定と、各
点に対応する代表輝度値を得るべき視点画像の特定であ
る。この際、モデリング部103ではさらに被写体の対
称性(形状およびテキスチャの対称性)が判定される。
そして、被写体の対称性がある場合は、その対称性を有
する被写体面の範囲の視点画像についてのみモデル推定
が行われる。モデリング部103の処理については、後
に詳しく説明する。
は、被写体面上の各点に対応する座標値rの推定と、各
点に対応する代表輝度値を得るべき視点画像の特定であ
る。この際、モデリング部103ではさらに被写体の対
称性(形状およびテキスチャの対称性)が判定される。
そして、被写体の対称性がある場合は、その対称性を有
する被写体面の範囲の視点画像についてのみモデル推定
が行われる。モデリング部103の処理については、後
に詳しく説明する。
【0041】モデリング部103の処理が終了すると、
被写体面上の各点の代表輝度値として使用される視点画
像内の該当するブロックが対応する座標値よりなるブロ
ックとともにDCT回路111、量子化回路(Q)11
2、可変長符号化回路(VLC)113よりなるフレー
ム内符号化回路に送られる。このフレーム内符号化回路
においては、まずDCT回路111で輝度値および座標
値のブロックが離散コサイン変換(DCT)され、これ
によって得られたDCT係数が量子化回路112で量子
化された後、可変長符号化回路113で可変長符号化さ
れ、多重化回路116に送られる。量子化回路112に
より量子化されたDCT係数データは、また逆量子化回
路(Q-1)114で逆量子化され、さらに逆DCT回路
(IDCT)115で逆離散コサイン変換(逆DCT)
された後、モデル蓄積部104に蓄えられる。
被写体面上の各点の代表輝度値として使用される視点画
像内の該当するブロックが対応する座標値よりなるブロ
ックとともにDCT回路111、量子化回路(Q)11
2、可変長符号化回路(VLC)113よりなるフレー
ム内符号化回路に送られる。このフレーム内符号化回路
においては、まずDCT回路111で輝度値および座標
値のブロックが離散コサイン変換(DCT)され、これ
によって得られたDCT係数が量子化回路112で量子
化された後、可変長符号化回路113で可変長符号化さ
れ、多重化回路116に送られる。量子化回路112に
より量子化されたDCT係数データは、また逆量子化回
路(Q-1)114で逆量子化され、さらに逆DCT回路
(IDCT)115で逆離散コサイン変換(逆DCT)
された後、モデル蓄積部104に蓄えられる。
【0042】ここで、座標値は後述する予測信号の作成
の性能に大きく影響を与えるので、できるだけ細かく量
子化することが望ましい。また、DCTに代えてDCP
CMなど他の符号化方式を用いてもよいし、さらに完全
に可逆な符号化を用いるようにしてもよい。また、輝度
値についても多視点画像全体の予測に使われる予測値の
基となるので、細かいステップサイズで量子化するのが
望ましい。
の性能に大きく影響を与えるので、できるだけ細かく量
子化することが望ましい。また、DCTに代えてDCP
CMなど他の符号化方式を用いてもよいし、さらに完全
に可逆な符号化を用いるようにしてもよい。また、輝度
値についても多視点画像全体の予測に使われる予測値の
基となるので、細かいステップサイズで量子化するのが
望ましい。
【0043】MPEGなどの動画像符号化方式では通
常、IピクチャおよびPピクチャをBピクチャよりも細
かく量子化するが、この差別化の度合いよりも大きく差
別化する、すなわちモデル情報として送る輝度値は後述
する誤差の符号化で用いる量子化よりもかなり細かく行
うことが望ましい。制御部102は、トータルの目標符
号化ビット数よりこれらのモデルの量子化ステップサイ
ズを決定し、それを量子化回路112および逆量子化回
路114に通知する。但し、上述したような理由により
モデル量子化ステップサイズは目標符号化ビット数にあ
まり大きく影響されないように、細かい値に設定するこ
とが望ましい。
常、IピクチャおよびPピクチャをBピクチャよりも細
かく量子化するが、この差別化の度合いよりも大きく差
別化する、すなわちモデル情報として送る輝度値は後述
する誤差の符号化で用いる量子化よりもかなり細かく行
うことが望ましい。制御部102は、トータルの目標符
号化ビット数よりこれらのモデルの量子化ステップサイ
ズを決定し、それを量子化回路112および逆量子化回
路114に通知する。但し、上述したような理由により
モデル量子化ステップサイズは目標符号化ビット数にあ
まり大きく影響されないように、細かい値に設定するこ
とが望ましい。
【0044】こうして輝度値および座標値よりなるモデ
ル情報の符号化が終了すると、次のフェーズ[2]で予
測誤差の仮符号化が行われ、これによって予測誤差符号
化のための量子化ステップサイズが決定される。この場
合、まず記憶部101より多視点画像が1フレームずつ
読み出される。なお、各視点画像がそれぞれここでいう
フレームで構成されているとする。各フレームに対し
て、モデル蓄積部104に蓄えられた座標値と輝度値よ
りなるモデル情報から、予測信号生成部105において
予測信号が作成される。
ル情報の符号化が終了すると、次のフェーズ[2]で予
測誤差の仮符号化が行われ、これによって予測誤差符号
化のための量子化ステップサイズが決定される。この場
合、まず記憶部101より多視点画像が1フレームずつ
読み出される。なお、各視点画像がそれぞれここでいう
フレームで構成されているとする。各フレームに対し
て、モデル蓄積部104に蓄えられた座標値と輝度値よ
りなるモデル情報から、予測信号生成部105において
予測信号が作成される。
【0045】次に、図1の各部について詳細に説明す
る。図2に、多視点画像入力部100の構成例を示す。
この例では、被写体201は回転台202に載せられ、
カメラ203により撮影される。カメラ203の光軸2
06は回転台202の回転軸205と交差しており、回
転軸205と光軸206とは互いに直交しているものと
する。回転軸205と光軸206の位置関係は既知であ
り、その間の距離はRであるとする。回転台202は制
御装置204により一定の角度(例えば3°)ずつステ
ップ的に回転するように制御され、その都度カメラ20
3により画像が入力される。この例では、カメラ203
の一回転で視点の異なる120枚の画像が入力されるこ
とになる。次に、この場合の光線空間について説明す
る。
る。図2に、多視点画像入力部100の構成例を示す。
この例では、被写体201は回転台202に載せられ、
カメラ203により撮影される。カメラ203の光軸2
06は回転台202の回転軸205と交差しており、回
転軸205と光軸206とは互いに直交しているものと
する。回転軸205と光軸206の位置関係は既知であ
り、その間の距離はRであるとする。回転台202は制
御装置204により一定の角度(例えば3°)ずつステ
ップ的に回転するように制御され、その都度カメラ20
3により画像が入力される。この例では、カメラ203
の一回転で視点の異なる120枚の画像が入力されるこ
とになる。次に、この場合の光線空間について説明す
る。
【0046】前述した文献2に示されているように、円
筒記録の場合、点(X,Y,Z)を通る光線は、光線空
間上の次式により表現される座標に記録される。 P=Xcosθ−Zsinθ (3) Q=−Xsinθtanφ+Y−Zcosθtanφ (4) ここで今、従来技術の項でも説明したように、扱う情報
量、演算量が大きくなりすぎないようにQ方向の光線の
変化は考えないものとし、また光線空間は回転軸205
に直交する平面(例えば、207)で定義してY方向に
積み上げて近似するものとする。この場合、φ方向の変
化によるオクルージョンなどは再現されない。
筒記録の場合、点(X,Y,Z)を通る光線は、光線空
間上の次式により表現される座標に記録される。 P=Xcosθ−Zsinθ (3) Q=−Xsinθtanφ+Y−Zcosθtanφ (4) ここで今、従来技術の項でも説明したように、扱う情報
量、演算量が大きくなりすぎないようにQ方向の光線の
変化は考えないものとし、また光線空間は回転軸205
に直交する平面(例えば、207)で定義してY方向に
積み上げて近似するものとする。この場合、φ方向の変
化によるオクルージョンなどは再現されない。
【0047】図3は、平面207上での被写体201の
断面301とカメラ203の位置関係を表している。こ
こで表記上、回転台202の回転軸205を中心とする
極座標表現(r,ψ)を図3に示すように導入すると、 X=rsinψ (5) Z=rcosψ (6) であるから、式(3)より P=rcosθsinψ−rsinθcosψ =rsin(ψ−θ) (7) となる。従って、図4に示すように120枚の視点画像
の光線空間上における軌跡411は、 P=Rsin(n*3°−θ),n=0,…,119 (8) で表される。軌跡411の中の曲線401,402,4
03,404,…は、それぞれ3°ずつ異なる角度から
撮影した視点画像を示している。すなわち、曲線40
1,402,403,404,…は、それぞれ互いに3
°ずつ異なる角度から撮影した複数の視点画像における
特定のY位置に対応する一走査線分の画像を表してい
る。
断面301とカメラ203の位置関係を表している。こ
こで表記上、回転台202の回転軸205を中心とする
極座標表現(r,ψ)を図3に示すように導入すると、 X=rsinψ (5) Z=rcosψ (6) であるから、式(3)より P=rcosθsinψ−rsinθcosψ =rsin(ψ−θ) (7) となる。従って、図4に示すように120枚の視点画像
の光線空間上における軌跡411は、 P=Rsin(n*3°−θ),n=0,…,119 (8) で表される。軌跡411の中の曲線401,402,4
03,404,…は、それぞれ3°ずつ異なる角度から
撮影した視点画像を示している。すなわち、曲線40
1,402,403,404,…は、それぞれ互いに3
°ずつ異なる角度から撮影した複数の視点画像における
特定のY位置に対応する一走査線分の画像を表してい
る。
【0048】同様の性質は、被写体面上の点においても
当てはまり、被写体面を表す関数r(ψ)を導入する
と、点(r(ψ),ψ)から出る光線の軌跡412は、 P=r(ψ)sin(ψ−θ) (9) で表される。
当てはまり、被写体面を表す関数r(ψ)を導入する
と、点(r(ψ),ψ)から出る光線の軌跡412は、 P=r(ψ)sin(ψ−θ) (9) で表される。
【0049】従って、被写体面上の任意の点(r
(ψ),ψ)から出る光線の軌跡412の光線情報は、
軌跡411の中の各曲線401,402,403,40
4,…と軌跡412との交点405,406,407,
408で与えられることになる。このことは、被写体面
上の点のみならず、(X,Y,Z)座標上の任意の点に
ついても言える。
(ψ),ψ)から出る光線の軌跡412の光線情報は、
軌跡411の中の各曲線401,402,403,40
4,…と軌跡412との交点405,406,407,
408で与えられることになる。このことは、被写体面
上の点のみならず、(X,Y,Z)座標上の任意の点に
ついても言える。
【0050】そこで、任意の視点の視点画像を再生する
場合には、その視点の位置情報によってその視点を通る
光線の軌跡が図4の光線空間上に決定され、その軌跡と
軌跡411の中の各曲線401,402,403,40
4,…との交点における光線情報を採ってくることによ
り、任意の視点画像の画面の一つの走査線が再生され
る。従って、この例においては平面207に平行な各平
面で同様の操作を行い、得られた各走査線をY方向に積
み上げることによって、任意の視点画像の画面全体、つ
まり全てのYについての走査線を再生できる。
場合には、その視点の位置情報によってその視点を通る
光線の軌跡が図4の光線空間上に決定され、その軌跡と
軌跡411の中の各曲線401,402,403,40
4,…との交点における光線情報を採ってくることによ
り、任意の視点画像の画面の一つの走査線が再生され
る。従って、この例においては平面207に平行な各平
面で同様の操作を行い、得られた各走査線をY方向に積
み上げることによって、任意の視点画像の画面全体、つ
まり全てのYについての走査線を再生できる。
【0051】被写体面上の一点r(ψ)から出る光線の
光線空間上の軌跡が前述の式(9)で表せるということ
は、被写体面が、光線の方向によって光線情報の値があ
まり変わらない完全拡散面に近い性質の面である場合
は、被写体面上の一点r(ψ)に対応する多視点画像
は、その点の座標値rと代表輝度値でモデル化でき、ま
た被写体面が完全拡散面から遠い性質の場合は、座標値
rと、θの関数である輝度L(θ)でモデル化できるこ
とを示している。ここでいう輝度とは、TVカメラでい
うと輝度信号Yおよび色差信号Cr,Cb、または3原
色信号R,G,Bなどに対応するものを称している点に
注意されたい。文献2では、この輝度は光線情報と称せ
られている。
光線空間上の軌跡が前述の式(9)で表せるということ
は、被写体面が、光線の方向によって光線情報の値があ
まり変わらない完全拡散面に近い性質の面である場合
は、被写体面上の一点r(ψ)に対応する多視点画像
は、その点の座標値rと代表輝度値でモデル化でき、ま
た被写体面が完全拡散面から遠い性質の場合は、座標値
rと、θの関数である輝度L(θ)でモデル化できるこ
とを示している。ここでいう輝度とは、TVカメラでい
うと輝度信号Yおよび色差信号Cr,Cb、または3原
色信号R,G,Bなどに対応するものを称している点に
注意されたい。文献2では、この輝度は光線情報と称せ
られている。
【0052】次に、図5を用いて予測信号の作成原理を
説明する。図5は、図4で説明したp−θ平面の図であ
り、前述したように多視点画像をY=一定の断面で切っ
た一つの走査線に対応している。フレーム501は現在
符号化しようとしているフレーム(ある特定角度から被
写体を撮影することによって得られた視点画像)、フレ
ーム502はモデルを含むフレーム(代表輝度値として
使用された部分を含む特定角度の視点画像)、ブロック
506はモデルとして符号化され、復号化されたブロッ
クを示している。
説明する。図5は、図4で説明したp−θ平面の図であ
り、前述したように多視点画像をY=一定の断面で切っ
た一つの走査線に対応している。フレーム501は現在
符号化しようとしているフレーム(ある特定角度から被
写体を撮影することによって得られた視点画像)、フレ
ーム502はモデルを含むフレーム(代表輝度値として
使用された部分を含む特定角度の視点画像)、ブロック
506はモデルとして符号化され、復号化されたブロッ
クを示している。
【0053】予測信号の作成は、入力される符号化対象
フレームに対して、ブロック506のようにモデルとし
て符号化された全てのブロック上の点から、その符号化
対象フレームに対して投影を行うことにより行われる。
ブロック506上の点507は、復号化された輝度値お
よび座標値rの値を有している。この点507も被写体
上の点より投影されてできているものであるから、点5
07の輝度値は既に説明した原理より、点507の輝度
の源となっている被写体上の点の極座標表現を(r,
ψ)とすれば、rsin(ψ−θ)とフレーム502の
交点として表現される。これらのうち座標値rは情報と
して復号化されており、θの値はフレーム502の位置
により一意に決まるため、ψの値を求めればよい。
フレームに対して、ブロック506のようにモデルとし
て符号化された全てのブロック上の点から、その符号化
対象フレームに対して投影を行うことにより行われる。
ブロック506上の点507は、復号化された輝度値お
よび座標値rの値を有している。この点507も被写体
上の点より投影されてできているものであるから、点5
07の輝度値は既に説明した原理より、点507の輝度
の源となっている被写体上の点の極座標表現を(r,
ψ)とすれば、rsin(ψ−θ)とフレーム502の
交点として表現される。これらのうち座標値rは情報と
して復号化されており、θの値はフレーム502の位置
により一意に決まるため、ψの値を求めればよい。
【0054】点507を通るrsin(ψ−θ)の曲線
は、例えば図5の例では503,504の2通り存在す
るが、図6に示すようにp−θ平面に見える点として投
影されるのは、z=rcos(ψ−θ)の値が大きい方
のψ1であることにより、一意に求められる。従って、
点507を通る光線の軌跡は503と確定する。このこ
とから、点507より投影されるフレーム501上の点
は曲線503,501の交点508となる。点508に
投影される光線の軌跡は他にも存在し得る(この例では
505)。一点に複数の光線が投影された場合、図6の
原理に従いzの値が最も大きい光線が最終的に投影され
たことになる(図の例では503)。モデルとして符号
化された507のような全ての点からフレーム201へ
の投影を行うと、フレーム501は予測信号で密に埋ま
る。モデルはこれを満たすように選択され、符号化され
ている。このようにして、符号化対象の各フレーム毎に
被写体面上の各点のモデル情報によってそのフレームの
画像が予測される。
は、例えば図5の例では503,504の2通り存在す
るが、図6に示すようにp−θ平面に見える点として投
影されるのは、z=rcos(ψ−θ)の値が大きい方
のψ1であることにより、一意に求められる。従って、
点507を通る光線の軌跡は503と確定する。このこ
とから、点507より投影されるフレーム501上の点
は曲線503,501の交点508となる。点508に
投影される光線の軌跡は他にも存在し得る(この例では
505)。一点に複数の光線が投影された場合、図6の
原理に従いzの値が最も大きい光線が最終的に投影され
たことになる(図の例では503)。モデルとして符号
化された507のような全ての点からフレーム201へ
の投影を行うと、フレーム501は予測信号で密に埋ま
る。モデルはこれを満たすように選択され、符号化され
ている。このようにして、符号化対象の各フレーム毎に
被写体面上の各点のモデル情報によってそのフレームの
画像が予測される。
【0055】また、別の方法としてモデル化の負荷を小
さくし、不完全なモデルを許容する方法も考えられる。
この場合は、モデルの全点を投影し終わっても予測信号
が形成されない点があり得ることになる。その場合、予
測信号は0であるとしてよい(方法1)。あるいは生成
された近隣の予測信号から内挿する(方法2)。また逆
に、本実施形態ではモデルの符号化の最小単位はブロッ
クになっているので、被写体面上のある点に対応する視
点画像上の点は被写体面上のその一つの点に対して、複
数回符号化される可能性があり得る。この場合、一点に
重複して投影されたときは、モデルからの投影における
規則として例えば非投影面に角度的に一番近い視点画像
上でモデルとして符号化された点からの投影を有効にす
るなどとして、符号化側と復号側で投影による予測信号
生成にミスマッチが起こらないようにすることが必要で
ある。
さくし、不完全なモデルを許容する方法も考えられる。
この場合は、モデルの全点を投影し終わっても予測信号
が形成されない点があり得ることになる。その場合、予
測信号は0であるとしてよい(方法1)。あるいは生成
された近隣の予測信号から内挿する(方法2)。また逆
に、本実施形態ではモデルの符号化の最小単位はブロッ
クになっているので、被写体面上のある点に対応する視
点画像上の点は被写体面上のその一つの点に対して、複
数回符号化される可能性があり得る。この場合、一点に
重複して投影されたときは、モデルからの投影における
規則として例えば非投影面に角度的に一番近い視点画像
上でモデルとして符号化された点からの投影を有効にす
るなどとして、符号化側と復号側で投影による予測信号
生成にミスマッチが起こらないようにすることが必要で
ある。
【0056】このようにして生成された各フレームの予
測信号は、図1中の減算器106において対応する入力
フレームとブロック単位で差分が取られ、予測誤差が求
められる。この予測誤差はDCT回路107に送られ、
ブロック単位でDCTが行われる。これにより得られた
ブロック単位のDCT係数は、記憶部108に蓄積され
ると共に、量子化回路(Q)109によりブロック単位
で量子化される。ステップサイズ決定のための仮符号化
のステージでは、量子化は固定の2通りのステップサイ
ズQ1,Q2で行われ、それぞれについて符号量カウン
タ117で符号量が全てのフレームについて累積され
る。
測信号は、図1中の減算器106において対応する入力
フレームとブロック単位で差分が取られ、予測誤差が求
められる。この予測誤差はDCT回路107に送られ、
ブロック単位でDCTが行われる。これにより得られた
ブロック単位のDCT係数は、記憶部108に蓄積され
ると共に、量子化回路(Q)109によりブロック単位
で量子化される。ステップサイズ決定のための仮符号化
のステージでは、量子化は固定の2通りのステップサイ
ズQ1,Q2で行われ、それぞれについて符号量カウン
タ117で符号量が全てのフレームについて累積され
る。
【0057】制御部102は、二通りのステップサイズ
に対してそれぞれ得られた符号量とトータルの目標符号
量から、モデルの符号量に費やした符号量およびヘッダ
等の付加情報に費やす符号量を差し引いた残りの符号量
に従って、図7に示すようにトータルの符号量が目標内
に入るためのステップサイズQEを符号量とステップサ
イズとの関係を表す曲線を内挿することによって推定
し、この値が次のステップである実際の予測誤差の符号
化に使われる。具体的には、 log(符号量)=αlogQ+β (10) を仮定して、Q1,Q2による符号化結果からαとβを
推定し、目標符号量から逆にステップサイズQEを求め
る。ここで、各フレームの予測誤差情報はどれも同じ性
質を有しており、MPEGのように再生フレーム間に性
質の違いはないので、どのフレームの予測誤差について
も同じステップサイズで量子化されるとの前提で、ステ
ップサイズの推定を行う。
に対してそれぞれ得られた符号量とトータルの目標符号
量から、モデルの符号量に費やした符号量およびヘッダ
等の付加情報に費やす符号量を差し引いた残りの符号量
に従って、図7に示すようにトータルの符号量が目標内
に入るためのステップサイズQEを符号量とステップサ
イズとの関係を表す曲線を内挿することによって推定
し、この値が次のステップである実際の予測誤差の符号
化に使われる。具体的には、 log(符号量)=αlogQ+β (10) を仮定して、Q1,Q2による符号化結果からαとβを
推定し、目標符号量から逆にステップサイズQEを求め
る。ここで、各フレームの予測誤差情報はどれも同じ性
質を有しており、MPEGのように再生フレーム間に性
質の違いはないので、どのフレームの予測誤差について
も同じステップサイズで量子化されるとの前提で、ステ
ップサイズの推定を行う。
【0058】次の本符号化のフェーズ[3]では、予測
誤差情報の生成およびDCTについては仮符号化のステ
ージで既に終了しているので、記憶部108に蓄えられ
ているDCT係数を読み出し、量子化回路109で量子
化する。量子化回路109での量子化は、前述した制御
部102で推定された最適なステップサイズQEによっ
て行われ、量子化結果が可変長符号化回路(VLC)1
10で可変長符号化されて多重化回路116に送られ
る。ここで、量子化回路109により量子化されたDC
T係数情報が全て0のブロックについては無効と判定
し、そのブロックについては情報を全く送らないものと
する。本実施形態の予測は物理現象に直接対応したモデ
ルを使用しているので、モデル化が良好に行われる画像
については予測誤差がほとんど発生しないことが期待で
きる。従って、このように有効判定を行って無効なブロ
ックを送らないようにすることは、情報量を大幅に減ら
す上で非常に重要である。
誤差情報の生成およびDCTについては仮符号化のステ
ージで既に終了しているので、記憶部108に蓄えられ
ているDCT係数を読み出し、量子化回路109で量子
化する。量子化回路109での量子化は、前述した制御
部102で推定された最適なステップサイズQEによっ
て行われ、量子化結果が可変長符号化回路(VLC)1
10で可変長符号化されて多重化回路116に送られ
る。ここで、量子化回路109により量子化されたDC
T係数情報が全て0のブロックについては無効と判定
し、そのブロックについては情報を全く送らないものと
する。本実施形態の予測は物理現象に直接対応したモデ
ルを使用しているので、モデル化が良好に行われる画像
については予測誤差がほとんど発生しないことが期待で
きる。従って、このように有効判定を行って無効なブロ
ックを送らないようにすることは、情報量を大幅に減ら
す上で非常に重要である。
【0059】なお、図1では記憶装置101と108は
独立に書かれているが、これらは物理的に同じもので構
成してもよい。また、DCT回路107と111、量子
化回路109と112、可変長符号化回路110と11
3についても、モデルの符号化と予測誤差の符号化が同
時には行われない点を考えると、ハード的に共通化する
ことができる。
独立に書かれているが、これらは物理的に同じもので構
成してもよい。また、DCT回路107と111、量子
化回路109と112、可変長符号化回路110と11
3についても、モデルの符号化と予測誤差の符号化が同
時には行われない点を考えると、ハード的に共通化する
ことができる。
【0060】次に、多重化回路116は可変長符号化回
路113からのモデル情報および対称性に関する情報の
符号化結果と、可変長符号化回路110からの予測誤差
の符号化結果とを多重化して、多視点画像の符号化スト
リームを出力する。この時の多重化フォーマットについ
ては後述する。
路113からのモデル情報および対称性に関する情報の
符号化結果と、可変長符号化回路110からの予測誤差
の符号化結果とを多重化して、多視点画像の符号化スト
リームを出力する。この時の多重化フォーマットについ
ては後述する。
【0061】次に、図8を用いて本発明の本質に関係す
る被写体の対称性と光線空間の性質について説明する。
ここで、対称性とは被写体の形状およびテキスチャの対
称性であり、後述するように形状の対称性のみを指すこ
ともある。図8は、図2においてY=一定の平面207
で切ったときの被写体201の断面形状が表面のテキス
チャも含めて対称である場合の対応する光線空間の性質
を表しており、図中左側が被写体面の断面図を示し、右
側が対応する光線空間を示している。図8(a)は、回
転軸(原点)を中心とした軸対称の場合であり、面80
2,803,804が被写体表面上の図中太線で示した
基準面801と形状、テキスチャ共に同一となってい
る。図8(b)は、原点を通る平面を対称面とする面対
称(x−z平面内で見ると、x軸を対称線とする線対
称)の場合であり、面810は図中太線で示した基準面
809を形状、テキスチャ共に鏡像反転した関係となっ
ている。ここで、基準面801,809は被写体面が対
称性を有する場合の共通の形状およびテキスチャを持つ
単位、すなわち対称構造単位である。
る被写体の対称性と光線空間の性質について説明する。
ここで、対称性とは被写体の形状およびテキスチャの対
称性であり、後述するように形状の対称性のみを指すこ
ともある。図8は、図2においてY=一定の平面207
で切ったときの被写体201の断面形状が表面のテキス
チャも含めて対称である場合の対応する光線空間の性質
を表しており、図中左側が被写体面の断面図を示し、右
側が対応する光線空間を示している。図8(a)は、回
転軸(原点)を中心とした軸対称の場合であり、面80
2,803,804が被写体表面上の図中太線で示した
基準面801と形状、テキスチャ共に同一となってい
る。図8(b)は、原点を通る平面を対称面とする面対
称(x−z平面内で見ると、x軸を対称線とする線対
称)の場合であり、面810は図中太線で示した基準面
809を形状、テキスチャ共に鏡像反転した関係となっ
ている。ここで、基準面801,809は被写体面が対
称性を有する場合の共通の形状およびテキスチャを持つ
単位、すなわち対称構造単位である。
【0062】図8(a)の場合、対応する光線空間は基
準面801をp=0なる光線が通過するような方向から
撮影して生成した、図中太線で囲んだ光線空間情報80
5がθ方向に繰り返されるような構造になる。
準面801をp=0なる光線が通過するような方向から
撮影して生成した、図中太線で囲んだ光線空間情報80
5がθ方向に繰り返されるような構造になる。
【0063】一方、図8(b)の場合、対応する光線空
間は同様に基準面809に対応する光線空間情報811
が、対称面に平行な方向θを軸対称の中心とした軸対称
の構造、つまりp−θ平面内で見るとθ軸上の点(図で
は原点)を対称中心として折り返した点対称構造の光線
空間となる。すなわち、基準面809に対応した図中太
線で示す光線空間情報の領域811を原点に対して点対
称にコピーしたものが領域812になっている。
間は同様に基準面809に対応する光線空間情報811
が、対称面に平行な方向θを軸対称の中心とした軸対称
の構造、つまりp−θ平面内で見るとθ軸上の点(図で
は原点)を対称中心として折り返した点対称構造の光線
空間となる。すなわち、基準面809に対応した図中太
線で示す光線空間情報の領域811を原点に対して点対
称にコピーしたものが領域812になっている。
【0064】従って、図8(a)(b)のいずれの場合
も、対称性の種類(軸対称、面対称等)が分かっていれ
ば、基準面801,809の情報のみを受け取ることに
よって、残りの部分は繰り返しのコピー、または軸対称
のコピーを行うのみで、光線空間全体を生成することが
できる。被写体の表面形状は一部が繰り返し、一部が面
対称というように、両者が混在することももちろん可能
である。
も、対称性の種類(軸対称、面対称等)が分かっていれ
ば、基準面801,809の情報のみを受け取ることに
よって、残りの部分は繰り返しのコピー、または軸対称
のコピーを行うのみで、光線空間全体を生成することが
できる。被写体の表面形状は一部が繰り返し、一部が面
対称というように、両者が混在することももちろん可能
である。
【0065】次に、図9を用いて図1中のモデリング部
103について説明する。モデリング部103では、ま
ず図8を用いて説明したような被写体の対称性の判定を
行い、その判定結果に従って被写体面の所定の角度範囲
に対応した多視点画像を選択した後、被写体面上の各点
に対して、これら各点の座標値と、対称性の判定結果に
従って選択された被写体面の所定の角度範囲に対応する
多視点画像中でモデルとして使用される視点画像内の各
点に対応する輝度値とから構成されるモデル情報を生成
する。
103について説明する。モデリング部103では、ま
ず図8を用いて説明したような被写体の対称性の判定を
行い、その判定結果に従って被写体面の所定の角度範囲
に対応した多視点画像を選択した後、被写体面上の各点
に対して、これら各点の座標値と、対称性の判定結果に
従って選択された被写体面の所定の角度範囲に対応する
多視点画像中でモデルとして使用される視点画像内の各
点に対応する輝度値とから構成されるモデル情報を生成
する。
【0066】図9において、図1中の記憶部101に蓄
えられた多視点画像は、まず光線空間作成部901に入
力され、図4に示したような光線空間が各yの値に対し
て作成される。作成された各光線空間は、マッチング部
902において図8で説明したような対称性の判定がな
され、対称性の有無と対称性が有る場合の対称性の種類
と、この判定結果がカバーする被写体面の範囲(θの範
囲)が後述する手順によりチェックされ、このチェック
結果が対称性に関する情報として得られる。
えられた多視点画像は、まず光線空間作成部901に入
力され、図4に示したような光線空間が各yの値に対し
て作成される。作成された各光線空間は、マッチング部
902において図8で説明したような対称性の判定がな
され、対称性の有無と対称性が有る場合の対称性の種類
と、この判定結果がカバーする被写体面の範囲(θの範
囲)が後述する手順によりチェックされ、このチェック
結果が対称性に関する情報として得られる。
【0067】マッチング部902で得られた対称性に関
する情報は、図1中に示す予測信号生成部105でモデ
ル生成のためのデータとして参照される。また、この対
称性に関する情報は、可変長符号化回路113および多
重化回路116を経由して、後述する多視点画像復号化
装置に送られ、復号側の予測信号生成部においてもモデ
ル生成のためのデータとして参照される。
する情報は、図1中に示す予測信号生成部105でモデ
ル生成のためのデータとして参照される。また、この対
称性に関する情報は、可変長符号化回路113および多
重化回路116を経由して、後述する多視点画像復号化
装置に送られ、復号側の予測信号生成部においてもモデ
ル生成のためのデータとして参照される。
【0068】また、マッチング部902で得られた対称
性に関する情報は符号化画像選択部904にも送られ、
この情報に基づき被写体面の所定の範囲に対応する多視
点画像が選択される。すなわち、符号化画像選択部90
4では被写体が例えば図8に示したように対称性を有す
る場合は、基準面を形成するθの範囲(θ1)に対応す
る多視点画像が選択され、また対称性を有しない場合
は、対称性を有しない被写体面の範囲に対応する全ての
多視点画像が選択される。範囲θ1は被写体の断面形状
によるので、可能性としてはyの値毎に全て異なること
がある。但し、後述するようにモデル情報はブロック符
号化されるので、実際は符号化単位であるマクロブロッ
クをライン状に並べたスライスを単位として符号化され
る視点画像は決定される。
性に関する情報は符号化画像選択部904にも送られ、
この情報に基づき被写体面の所定の範囲に対応する多視
点画像が選択される。すなわち、符号化画像選択部90
4では被写体が例えば図8に示したように対称性を有す
る場合は、基準面を形成するθの範囲(θ1)に対応す
る多視点画像が選択され、また対称性を有しない場合
は、対称性を有しない被写体面の範囲に対応する全ての
多視点画像が選択される。範囲θ1は被写体の断面形状
によるので、可能性としてはyの値毎に全て異なること
がある。但し、後述するようにモデル情報はブロック符
号化されるので、実際は符号化単位であるマクロブロッ
クをライン状に並べたスライスを単位として符号化され
る視点画像は決定される。
【0069】符号化画像選択部904で選択された範囲
θに対応する多視点画像は、図1中の蓄積部101より
再度読み出される。さらに、符号化画像選択部904に
より選択された範囲の視点画像についてモデル推定部9
05でモデル推定が行われ、これにより得られたモデル
情報が図1中のDCT回路111以降よりなる符号化部
で符号化される。
θに対応する多視点画像は、図1中の蓄積部101より
再度読み出される。さらに、符号化画像選択部904に
より選択された範囲の視点画像についてモデル推定部9
05でモデル推定が行われ、これにより得られたモデル
情報が図1中のDCT回路111以降よりなる符号化部
で符号化される。
【0070】次に、図10に示すフローチャートを用い
てマッチング部902における対称性の判定手順を説明
する。まず、ステップ1001で光線空間の包絡線の形
状をチェックする。次に、このチェック結果に基づき、
ステップ1002で対称となり得る候補を見出だし、対
称性の可能性を判断する。図8で説明したように、軸対
称の場合は包絡線も繰り返し、面対称の場合は包絡線も
軸対称となるので、ステップ1002では対称となり得
る候補に対して、繰り返しや軸対称によって予測を試
み、その予測結果を実際と比較して予測誤差を評価する
ことにより、軸対称の可能性をチェックする。
てマッチング部902における対称性の判定手順を説明
する。まず、ステップ1001で光線空間の包絡線の形
状をチェックする。次に、このチェック結果に基づき、
ステップ1002で対称となり得る候補を見出だし、対
称性の可能性を判断する。図8で説明したように、軸対
称の場合は包絡線も繰り返し、面対称の場合は包絡線も
軸対称となるので、ステップ1002では対称となり得
る候補に対して、繰り返しや軸対称によって予測を試
み、その予測結果を実際と比較して予測誤差を評価する
ことにより、軸対称の可能性をチェックする。
【0071】ステップ1002で軸対称の可能性ありと
判断された場合は、さらにステップ1003で視点画像
内部のテキスチャのチェックを行い、そのチェック結果
に基づきステップ1004で軸対称か否かの判定を行
う。ステップ1004で軸対称と判定されなかった場
合、ステップ1002に戻って別の候補についての軸対
称可能性を調ベる。
判断された場合は、さらにステップ1003で視点画像
内部のテキスチャのチェックを行い、そのチェック結果
に基づきステップ1004で軸対称か否かの判定を行
う。ステップ1004で軸対称と判定されなかった場
合、ステップ1002に戻って別の候補についての軸対
称可能性を調ベる。
【0072】ステップ1004で軸対称と判定される
と、ステップ1005で基準面を再分割してその各分割
面内に更に繰り返しの構造がないかどうかをチェックす
る。繰り返しの構造がある場合、ステップ1006で再
分割不可能さ判断されるまでステップ1005の処理を
繰り返し、最小限の基準面が得られるまで分割する。こ
の際、基準面を形成するθの範囲θ1(例えばθ1=0
°〜90°)と、対称性を利用したコピーによりカバー
されるθの範囲θ2(例えばθ2=90°〜270°)
の情報が保存される。こうして保存されたθ1,θ2の
情報のうち、θ1の情報は図9中の符号化画像選択部9
04に送られ、θ1の範囲の視点画像の選択に用いられ
る。
と、ステップ1005で基準面を再分割してその各分割
面内に更に繰り返しの構造がないかどうかをチェックす
る。繰り返しの構造がある場合、ステップ1006で再
分割不可能さ判断されるまでステップ1005の処理を
繰り返し、最小限の基準面が得られるまで分割する。こ
の際、基準面を形成するθの範囲θ1(例えばθ1=0
°〜90°)と、対称性を利用したコピーによりカバー
されるθの範囲θ2(例えばθ2=90°〜270°)
の情報が保存される。こうして保存されたθ1,θ2の
情報のうち、θ1の情報は図9中の符号化画像選択部9
04に送られ、θ1の範囲の視点画像の選択に用いられ
る。
【0073】次に、ステップ1007により被写体面の
全角度範囲(360°)が軸対称でカバーされたかどう
かを判断し、360°カバーされた場合は全体が軸対称
であるという判定結果を出力し(1008)、対称性の
判定は終了する。また、ステップ1007で360°カ
バーされなかった場合は、ステップ1002に戻って対
称性の判定を繰り返す。
全角度範囲(360°)が軸対称でカバーされたかどう
かを判断し、360°カバーされた場合は全体が軸対称
であるという判定結果を出力し(1008)、対称性の
判定は終了する。また、ステップ1007で360°カ
バーされなかった場合は、ステップ1002に戻って対
称性の判定を繰り返す。
【0074】ここで、軸対称の候補がなくなった場合に
は、次にステップ1009の面対称の判定に入る。ステ
ップ1009では、ステップ1001で得られた包絡線
の形状から対称となる候補について面対称の可能性が判
定され、可能性があると判断されるとステップ1010
で視点画像内部のテキスチャのチェックを行う。このチ
ェック結果に基づき、ステップ1011で面対称か否か
の判定を行う。この際にも同様に、基準面を形成するθ
の範囲θ1と対称性を利用したコピーによりカバーされ
るθの範囲θ2の情報が保存される。こうして保存され
たθ1,θ2の情報のうち、θ1の情報は図9中の符号
化画像選択部904に送られ、θ1の範囲の視点画像の
選択に用いられる。
は、次にステップ1009の面対称の判定に入る。ステ
ップ1009では、ステップ1001で得られた包絡線
の形状から対称となる候補について面対称の可能性が判
定され、可能性があると判断されるとステップ1010
で視点画像内部のテキスチャのチェックを行う。このチ
ェック結果に基づき、ステップ1011で面対称か否か
の判定を行う。この際にも同様に、基準面を形成するθ
の範囲θ1と対称性を利用したコピーによりカバーされ
るθの範囲θ2の情報が保存される。こうして保存され
たθ1,θ2の情報のうち、θ1の情報は図9中の符号
化画像選択部904に送られ、θ1の範囲の視点画像の
選択に用いられる。
【0075】ステップ1011で面対称と判定されれ
ば、被写体面の360°の範囲がカバーされたかどうか
の判定(ステップ1012)に入る。360°カバーさ
れていれば、さらにステップ1013で軸対称の有無が
判定され、この判定結果に応じて軸対称でなければ面対
称のみ(1014)、軸対称であれば軸対称と面対称の
混在(1015)が判定結果として得られる。
ば、被写体面の360°の範囲がカバーされたかどうか
の判定(ステップ1012)に入る。360°カバーさ
れていれば、さらにステップ1013で軸対称の有無が
判定され、この判定結果に応じて軸対称でなければ面対
称のみ(1014)、軸対称であれば軸対称と面対称の
混在(1015)が判定結果として得られる。
【0076】ステップ1012で360°カバーされて
いなければ、ステップ1009に戻って別の候補につい
て面対称の可能性をチェックする。面対称の可能性をチ
ェックすべき候補がなくなったら、ステップ1016に
おいて今までの判定結果に基づき、判定結果は軸対称
(1017)/面対称(1019)/混在(1015)
/対称性無し(1018)に分けられる。
いなければ、ステップ1009に戻って別の候補につい
て面対称の可能性をチェックする。面対称の可能性をチ
ェックすべき候補がなくなったら、ステップ1016に
おいて今までの判定結果に基づき、判定結果は軸対称
(1017)/面対称(1019)/混在(1015)
/対称性無し(1018)に分けられる。
【0077】マッチング部902では、インタラクティ
ブ操作部903を介して入力される人間のチェックによ
る情報を参照することもできる。このように人手を介す
ることによってマッチングの演算を減らすことができ、
また完全には対称ではないが局所的に非対称な部分があ
って残りは完全に対称であるような場合(例えば、被写
体として自動車を考えた場合、ハンドルとマフラーの部
分を除けば完全に左右対称)などにも容易に対処できる
ようになる。
ブ操作部903を介して入力される人間のチェックによ
る情報を参照することもできる。このように人手を介す
ることによってマッチングの演算を減らすことができ、
また完全には対称ではないが局所的に非対称な部分があ
って残りは完全に対称であるような場合(例えば、被写
体として自動車を考えた場合、ハンドルとマフラーの部
分を除けば完全に左右対称)などにも容易に対処できる
ようになる。
【0078】図11(a)〜(g)に、図1中の多重化
回路116における多重化フォーマットの例を示す。こ
の多重化フォーマットは、TV会議用のITU−T勧告
H.261の多重化フォーマットの記述方法に準じて記
述されている。本実施形態では、多重化フォーマットは
可能な限りMPEG等の既存の符号化に似せたフォーマ
ットとなるようにした。まず、フォーマットは階層的な
構造とした。各レイヤの情報にはスタートコード、エン
ドコードなどレイヤ固有の情報を含むヘッダおよびトレ
イラが存在する。最上位レイヤは、1セットの多視点画
像で表現される図11(a)のオブジェクトレイヤであ
る。
回路116における多重化フォーマットの例を示す。こ
の多重化フォーマットは、TV会議用のITU−T勧告
H.261の多重化フォーマットの記述方法に準じて記
述されている。本実施形態では、多重化フォーマットは
可能な限りMPEG等の既存の符号化に似せたフォーマ
ットとなるようにした。まず、フォーマットは階層的な
構造とした。各レイヤの情報にはスタートコード、エン
ドコードなどレイヤ固有の情報を含むヘッダおよびトレ
イラが存在する。最上位レイヤは、1セットの多視点画
像で表現される図11(a)のオブジェクトレイヤであ
る。
【0079】オブジェクトレイヤは、次に図11(b)
のモデルレイヤと図11(c)の誤差レイヤに分れる。
モデルレイヤのヘッダは輝度情報を量子化するステップ
サイズ(QUANT)、rを量子化するステップサイズ
(QUANT_r)を含み、誤差レイヤのヘッダは誤差
情報を量子化するステップサイズ(QUANT)を含
む。再生側では、モデルレイヤはどのような視点からの
画像を再生する場合でも必ず全てが復号の初期のステー
ジでアクセスされるのに対して、誤差レイヤは視点によ
ってアクセスされる部分が変わるので、モデルレイヤは
図に示すようにオブジェクトレイヤの情報のうち前の方
に固めて配置され、その後に誤差レイヤの情報が続くよ
うにするのが良い。モデル全体がyの値によらず共通の
対称性を有している場合には、モデルレイヤのヘッダに
は、モデルについての対称性の情報を記述したシンメト
リテーブル(S_Table)が含まれる。これは、図
9中のマッチング部902で得られた情報を基に、図1
中の可変長符号化回路113で符号化される。
のモデルレイヤと図11(c)の誤差レイヤに分れる。
モデルレイヤのヘッダは輝度情報を量子化するステップ
サイズ(QUANT)、rを量子化するステップサイズ
(QUANT_r)を含み、誤差レイヤのヘッダは誤差
情報を量子化するステップサイズ(QUANT)を含
む。再生側では、モデルレイヤはどのような視点からの
画像を再生する場合でも必ず全てが復号の初期のステー
ジでアクセスされるのに対して、誤差レイヤは視点によ
ってアクセスされる部分が変わるので、モデルレイヤは
図に示すようにオブジェクトレイヤの情報のうち前の方
に固めて配置され、その後に誤差レイヤの情報が続くよ
うにするのが良い。モデル全体がyの値によらず共通の
対称性を有している場合には、モデルレイヤのヘッダに
は、モデルについての対称性の情報を記述したシンメト
リテーブル(S_Table)が含まれる。これは、図
9中のマッチング部902で得られた情報を基に、図1
中の可変長符号化回路113で符号化される。
【0080】図11(b)(c)に示したモデルレイヤ
と誤差レイヤの内容は共通の構造を持つ。まず、モデル
レイヤと誤差レイヤの直ぐ下のレイヤとして図11
(d)に示すフレームレイヤが来る。フレームレイヤの
へッダはフレーム番号(PN)、そのフレームが撮影さ
れた条件である、被写体の中心軸とカメラとの距離Rお
よびカメラの光軸と交わる被写体面の角度座標ψの情報
を含む。R、ψの情報は、図2で説明したように固定距
離、固定回転角での撮影である場合に限定すれば、オブ
ジェクトレイヤのヘッダに入っていてもよいが、より一
般的にはフレーム毎に異なっても問題なく、本実施形態
ではフレームレイヤに存在するものとする。また、この
情報は論理的にはモデルまたは誤差のいずれか一方に入
っていれば再生可能であるが、アクセスを簡単にする都
合上、ここでは両方に入っているものとする。フレーム
レイヤの下は図11(f)に示すMB(マクロブロッ
ク)レイヤであるが、MPEGのようにフレームレイヤ
とMBレイヤの間に図11(e)に示すスライスレイヤ
が入ってもよい。スライスレイヤは、SSC(Slic
eStart Code)、SN(Slice Num
ber)およびそのスライスに属する複数のマクロブロ
ックレイヤから構成されている。スライスレイヤが入る
とスライス毎へのアクセスがしやすくなり、復号処理が
楽になると共にオブジェクトを軸に直交する面で切った
一部のみの再生がしやすくなる。また、yの値によって
対称性の性質が変化する場合は、スライスレイヤにシン
メトリテーブル(S_Table)を含め、スライス単
位で対称性の情報を指定することができる。
と誤差レイヤの内容は共通の構造を持つ。まず、モデル
レイヤと誤差レイヤの直ぐ下のレイヤとして図11
(d)に示すフレームレイヤが来る。フレームレイヤの
へッダはフレーム番号(PN)、そのフレームが撮影さ
れた条件である、被写体の中心軸とカメラとの距離Rお
よびカメラの光軸と交わる被写体面の角度座標ψの情報
を含む。R、ψの情報は、図2で説明したように固定距
離、固定回転角での撮影である場合に限定すれば、オブ
ジェクトレイヤのヘッダに入っていてもよいが、より一
般的にはフレーム毎に異なっても問題なく、本実施形態
ではフレームレイヤに存在するものとする。また、この
情報は論理的にはモデルまたは誤差のいずれか一方に入
っていれば再生可能であるが、アクセスを簡単にする都
合上、ここでは両方に入っているものとする。フレーム
レイヤの下は図11(f)に示すMB(マクロブロッ
ク)レイヤであるが、MPEGのようにフレームレイヤ
とMBレイヤの間に図11(e)に示すスライスレイヤ
が入ってもよい。スライスレイヤは、SSC(Slic
eStart Code)、SN(Slice Num
ber)およびそのスライスに属する複数のマクロブロ
ックレイヤから構成されている。スライスレイヤが入る
とスライス毎へのアクセスがしやすくなり、復号処理が
楽になると共にオブジェクトを軸に直交する面で切った
一部のみの再生がしやすくなる。また、yの値によって
対称性の性質が変化する場合は、スライスレイヤにシン
メトリテーブル(S_Table)を含め、スライス単
位で対称性の情報を指定することができる。
【0081】マクロブロックレイヤの下は図11(g)
に示すブロックレイヤであり、この中はDCT係数(T
coeff)とEOB(End of Block)よ
りなる。モデルのマクロブロックは、図12に示すよう
にY(輝度)、r、CrおよびCb(色差)のブロック
よりなる。また、誤差のマクロブロックは図12からr
のブロックを取り除いたY(輝度)、CrおよびCb
(色差)のブロックよりなる。スライス、マクロブロッ
ク共にへッダにはフレーム内でのアドレス情報を含み
(SNおよびMBA)、情報の無いスライス、マクロブ
ロックは送られない(スキップ)。マクロブロックレイ
ヤのパリティ(PARITY)は、図5の説明で前述し
たψを指示するためのパリティ(z:+or−を示す)
であり、モデルレイヤについてのみ送られる。CBPは
マクロブロック内の情報を含むブロックのパターンを示
す情報であり、誤差レイヤのマクロブロックについての
み送られる。
に示すブロックレイヤであり、この中はDCT係数(T
coeff)とEOB(End of Block)よ
りなる。モデルのマクロブロックは、図12に示すよう
にY(輝度)、r、CrおよびCb(色差)のブロック
よりなる。また、誤差のマクロブロックは図12からr
のブロックを取り除いたY(輝度)、CrおよびCb
(色差)のブロックよりなる。スライス、マクロブロッ
ク共にへッダにはフレーム内でのアドレス情報を含み
(SNおよびMBA)、情報の無いスライス、マクロブ
ロックは送られない(スキップ)。マクロブロックレイ
ヤのパリティ(PARITY)は、図5の説明で前述し
たψを指示するためのパリティ(z:+or−を示す)
であり、モデルレイヤについてのみ送られる。CBPは
マクロブロック内の情報を含むブロックのパターンを示
す情報であり、誤差レイヤのマクロブロックについての
み送られる。
【0082】図11(h)にシンメトリテーブル(S_
Table)の構成例を示す。シンメトリテーブルはユ
ニークワードであるスタートコード(STSC)で始ま
る。続く可変長のマクロブロックラインアドレス(MB
LA)は、後続の対称性に関する情報がマクロブロック
ラインのどの範囲に適用されるかを前との差分の値とし
て示す。マクロブロックラインは0から始まるとして、
最初のデータ組は0〜MBLA、次のデータ組は前のM
BLA+1〜次のMBLAという具合に、適用される範
囲の下端のマクロブロックライン番号を示すものであ
る。スライスレイヤにS_Tableがある場合には、
MBLAは不要である。
Table)の構成例を示す。シンメトリテーブルはユ
ニークワードであるスタートコード(STSC)で始ま
る。続く可変長のマクロブロックラインアドレス(MB
LA)は、後続の対称性に関する情報がマクロブロック
ラインのどの範囲に適用されるかを前との差分の値とし
て示す。マクロブロックラインは0から始まるとして、
最初のデータ組は0〜MBLA、次のデータ組は前のM
BLA+1〜次のMBLAという具合に、適用される範
囲の下端のマクロブロックライン番号を示すものであ
る。スライスレイヤにS_Tableがある場合には、
MBLAは不要である。
【0083】MBLAに続いて、対称性に関する情報と
してSYM、OrS、RANGE、CpS、RANGE
が順次配置される。まず、SYMは対称性の種類を示す
情報であり、これは後でも説明するように、対称性無し
/軸対称/面対称=“0”/“10”/“11”のよう
な符号である。次のOrSとRANGEは、基準面とし
て選択された範囲を示す情報であり、この範囲のスター
ト位置の角度と角度範囲(θ1)を示す。次のCpSと
RANGEは、コピー先の範囲を示す情報であり、この
範囲のスタート位置の角度と角度範囲(θ2)を示す。
してSYM、OrS、RANGE、CpS、RANGE
が順次配置される。まず、SYMは対称性の種類を示す
情報であり、これは後でも説明するように、対称性無し
/軸対称/面対称=“0”/“10”/“11”のよう
な符号である。次のOrSとRANGEは、基準面とし
て選択された範囲を示す情報であり、この範囲のスター
ト位置の角度と角度範囲(θ1)を示す。次のCpSと
RANGEは、コピー先の範囲を示す情報であり、この
範囲のスタート位置の角度と角度範囲(θ2)を示す。
【0084】例えばSYM=“10”、OrS=
“0”、RANGE=“90”、CpS=“90”、R
ANGE=“180”であるとすれば、視点画像は0°
から90°までは基準面として送られており、この範囲
の光線空間を90°から270°まで軸対称としてコピ
ーすることにより光線空間を埋められることを示してい
る。但し、対称性無しの場合はOrSとRANGEでそ
の範囲を示し、CpSとRANGEは無とする。また、
対称性を有する被写体面が複数混在する場合には、この
組を存在するだけ記述すればよい。MBLA以降のルー
プは、MBLAが最後のマクロブロックアドレスを指す
まで続く。
“0”、RANGE=“90”、CpS=“90”、R
ANGE=“180”であるとすれば、視点画像は0°
から90°までは基準面として送られており、この範囲
の光線空間を90°から270°まで軸対称としてコピ
ーすることにより光線空間を埋められることを示してい
る。但し、対称性無しの場合はOrSとRANGEでそ
の範囲を示し、CpSとRANGEは無とする。また、
対称性を有する被写体面が複数混在する場合には、この
組を存在するだけ記述すればよい。MBLA以降のルー
プは、MBLAが最後のマクロブロックアドレスを指す
まで続く。
【0085】上述した図11の多重化フォーマットの形
式で作成された多視点画像ストリームは、コンピュータ
読み取り可能な記録媒体(例えば光ディスク)に蓄積さ
れ、この記録媒体を介して再生側に伝送されるか、また
は伝送路を介して再生側に伝送される。
式で作成された多視点画像ストリームは、コンピュータ
読み取り可能な記録媒体(例えば光ディスク)に蓄積さ
れ、この記録媒体を介して再生側に伝送されるか、また
は伝送路を介して再生側に伝送される。
【0086】(多視点画像復号化装置について)次に、
図13を用いて図1に示した多視点画像符号化装置に対
応する多視点画像復号化装置について説明する。この復
号化装置は視点を示す情報を入力し、その視点からの画
像を再生する復号化装置である。
図13を用いて図1に示した多視点画像符号化装置に対
応する多視点画像復号化装置について説明する。この復
号化装置は視点を示す情報を入力し、その視点からの画
像を再生する復号化装置である。
【0087】まず、図1の多視点画像符号化装置で生成
された符号化ストリームが記録媒体から読み出され、ま
たは伝送路を介して受信された後、分離回路1301に
入力される。この分離回路1301により、符号化スト
リーム内のオブジェクトレイヤの情報はモデルレイヤの
情報(モデル情報)と誤差レイヤの情報(予測誤差の情
報)とに分離される。モデル情報は可変長復号回路(V
LD)1307で可変長復号され、そのうちのDCT係
数情報は逆量子化回路(Q-1)1308で逆量子化、さ
らに逆DCT回路(IDCT)1009で逆DCTされ
てフレーム番号やR,ψの値などのようなヘッダに含ま
れていた付随する情報とともにモデル蓄積部1310に
蓄積される。また、予測誤差の情報は誤差記憶部130
3に蓄積される。これで再生の準備が整った状態にな
る。
された符号化ストリームが記録媒体から読み出され、ま
たは伝送路を介して受信された後、分離回路1301に
入力される。この分離回路1301により、符号化スト
リーム内のオブジェクトレイヤの情報はモデルレイヤの
情報(モデル情報)と誤差レイヤの情報(予測誤差の情
報)とに分離される。モデル情報は可変長復号回路(V
LD)1307で可変長復号され、そのうちのDCT係
数情報は逆量子化回路(Q-1)1308で逆量子化、さ
らに逆DCT回路(IDCT)1009で逆DCTされ
てフレーム番号やR,ψの値などのようなヘッダに含ま
れていた付随する情報とともにモデル蓄積部1310に
蓄積される。また、予測誤差の情報は誤差記憶部130
3に蓄積される。これで再生の準備が整った状態にな
る。
【0088】次に、再生の次のステップとして、視点入
力部1300より再生すべき視点の位置を表す情報が入
力される。視点入力部1300の例としては、VRML
ブラウザで実現されている、表示画面上に仮想的なレバ
ーやハンドルを表示し、これをマウスなどのポインティ
ング装置で仮想的に操作することによって視点の位置を
入力するシステムなどが挙げられる。この入力によっ
て、対応する視点の画像の生成が開始される。この様子
を図14を参照しつつ説明する。
力部1300より再生すべき視点の位置を表す情報が入
力される。視点入力部1300の例としては、VRML
ブラウザで実現されている、表示画面上に仮想的なレバ
ーやハンドルを表示し、これをマウスなどのポインティ
ング装置で仮想的に操作することによって視点の位置を
入力するシステムなどが挙げられる。この入力によっ
て、対応する視点の画像の生成が開始される。この様子
を図14を参照しつつ説明する。
【0089】まず、視点入力部1300は視点に対応す
るパラメータ(視点座標)をアドレス計算回路1302
に送る。アドレス計算回路1302は、視点座標と前述
の式(9)からp−θ平面上で再生すべき画面を表す曲
線1401を求め、更にモデル蓄積部1310からのモ
デル情報を参照して被写体面の各点の座標毎にそれに対
応する光線の軌跡を求める。図14においては、被写体
面上のある特定の一点に対応する光線の軌跡1402だ
けが示されている。
るパラメータ(視点座標)をアドレス計算回路1302
に送る。アドレス計算回路1302は、視点座標と前述
の式(9)からp−θ平面上で再生すべき画面を表す曲
線1401を求め、更にモデル蓄積部1310からのモ
デル情報を参照して被写体面の各点の座標毎にそれに対
応する光線の軌跡を求める。図14においては、被写体
面上のある特定の一点に対応する光線の軌跡1402だ
けが示されている。
【0090】次いで、アドレス計算回路1302は、曲
線1401と、軌跡1402のような被写体面上の各点
に対応する光線の軌跡との各交点について、その交点位
置に対応する画像情報を再生する場合に、複数の視点画
像の中のどの視点画像のどの画素位置を参照すべきかを
計算によって求める。この場合、交点位置から一番近い
視点画像上の画素位置が参照すべき画素位置として決定
される。例えば、曲線1401上における点1403に
ついては、それに一番近い視点画像1405上の画素位
置1404が参照画素位置となる。この実施形態では、
指定された視点の画像を再生する場合に、参照すべき画
素位置(例えば、1404)上に完全にその位置に対応
する被写体面上の点の画像が復号される。これは多視点
画像としてある程度多くの視点からの画像を用いる場
合、受信側で任意視点の画像を再生する際に、対応する
視線方向に近い光線を選択してこれで代用することに相
当する。
線1401と、軌跡1402のような被写体面上の各点
に対応する光線の軌跡との各交点について、その交点位
置に対応する画像情報を再生する場合に、複数の視点画
像の中のどの視点画像のどの画素位置を参照すべきかを
計算によって求める。この場合、交点位置から一番近い
視点画像上の画素位置が参照すべき画素位置として決定
される。例えば、曲線1401上における点1403に
ついては、それに一番近い視点画像1405上の画素位
置1404が参照画素位置となる。この実施形態では、
指定された視点の画像を再生する場合に、参照すべき画
素位置(例えば、1404)上に完全にその位置に対応
する被写体面上の点の画像が復号される。これは多視点
画像としてある程度多くの視点からの画像を用いる場
合、受信側で任意視点の画像を再生する際に、対応する
視線方向に近い光線を選択してこれで代用することに相
当する。
【0091】次に、予測信号生成部1311は、計算さ
れた参照画素位置の情報に基づいてモデル情報の各点か
ら再生すべき画面1401上の1403に相当する各点
に対して投影を行い、1404に相当する位置に予測信
号を生成する。
れた参照画素位置の情報に基づいてモデル情報の各点か
ら再生すべき画面1401上の1403に相当する各点
に対して投影を行い、1404に相当する位置に予測信
号を生成する。
【0092】この予測信号生成動作について、図15お
よび図16を用いて少し詳しく説明する。符号化装置に
おいても説明したように、この操作はスライス単位で行
われる。図15は予測信号生成部1311の構成例を示
すブロック図、図16(a)はモデル情報として予測信
号生成部1311がモデル蓄積部1310より受け取っ
た光線空間データである。
よび図16を用いて少し詳しく説明する。符号化装置に
おいても説明したように、この操作はスライス単位で行
われる。図15は予測信号生成部1311の構成例を示
すブロック図、図16(a)はモデル情報として予測信
号生成部1311がモデル蓄積部1310より受け取っ
た光線空間データである。
【0093】モデル蓄積部1310に蓄積されているモ
デル情報は、符号化装置で説明した被写体の基準面につ
いてのデータ1600のみである。そこで、まず図15
中のモデル配置部1501でデータ1600を光線空間
に配置する。実際にモデルとして符号化されているの
は、データ1600に含まれる視点画像内で後述する方
法により選ばれたイントラ符号化されたブロック160
1である。次に、モデルコピー部1502によりこの部
分が光線空間全体に対称性の規則に従ってコピーされ
る。対称性の情報(シンメトリテーブルS_Tabl
e)は前述したようにモデルデータ内に含まれ、図13
中の可変長復号回路1307で可変長復号されてモデル
コピー部1502に送られてきている。図16(b)
は、このコピーの様子を示しており、θ方向に繰り返し
コピーされる軸対称の場合の例である。この際に、S_
Table内の基準面としてとられた範囲とコピー先の
範囲を参照してコピーを行う。
デル情報は、符号化装置で説明した被写体の基準面につ
いてのデータ1600のみである。そこで、まず図15
中のモデル配置部1501でデータ1600を光線空間
に配置する。実際にモデルとして符号化されているの
は、データ1600に含まれる視点画像内で後述する方
法により選ばれたイントラ符号化されたブロック160
1である。次に、モデルコピー部1502によりこの部
分が光線空間全体に対称性の規則に従ってコピーされ
る。対称性の情報(シンメトリテーブルS_Tabl
e)は前述したようにモデルデータ内に含まれ、図13
中の可変長復号回路1307で可変長復号されてモデル
コピー部1502に送られてきている。図16(b)
は、このコピーの様子を示しており、θ方向に繰り返し
コピーされる軸対称の場合の例である。この際に、S_
Table内の基準面としてとられた範囲とコピー先の
範囲を参照してコピーを行う。
【0094】最後に、モデル投影部1503においてコ
ピーも含めた図のモデルの実体全体1602から、図1
4で説明した方法で表示すべき視点画像の位置に投影が
行われて予測信号が形成される。説明は省略したが、符
号化装置における図1中の予測信号生成部105の動作
も、ここで説明したものと全く同じである。
ピーも含めた図のモデルの実体全体1602から、図1
4で説明した方法で表示すべき視点画像の位置に投影が
行われて予測信号が形成される。説明は省略したが、符
号化装置における図1中の予測信号生成部105の動作
も、ここで説明したものと全く同じである。
【0095】この予測信号生成処理と並行して、アドレ
ス計算回路1302は計算された参照画素位置の情報に
基づいて、フレームメモリ1313に対して指定された
視点画像を生成すべくアドレスを発生する。このとき、
誤差蓄積部1303に対しては、対応する参照画素をア
ドレス指定するのに必要な、誤差情報を含むフレーム番
号、マクロブロック番号、画素番号を送る。このアドレ
スに対応するマクロブロックが誤差蓄積部1303から
読み出されて可変長復号回路(VLD)1304で可変
長復号され、さらに逆量子化回路(Q-1)1305で逆
量子化、逆DCT回路(IDCT)1306で逆DCT
される。
ス計算回路1302は計算された参照画素位置の情報に
基づいて、フレームメモリ1313に対して指定された
視点画像を生成すべくアドレスを発生する。このとき、
誤差蓄積部1303に対しては、対応する参照画素をア
ドレス指定するのに必要な、誤差情報を含むフレーム番
号、マクロブロック番号、画素番号を送る。このアドレ
スに対応するマクロブロックが誤差蓄積部1303から
読み出されて可変長復号回路(VLD)1304で可変
長復号され、さらに逆量子化回路(Q-1)1305で逆
量子化、逆DCT回路(IDCT)1306で逆DCT
される。
【0096】こうして作成された予測信号と逆DCTさ
れた予測誤差信号が加算器1312で加算され復号され
た後、フレームメモリ1313の対応する位置に書き込
まれる。ここで、予測信号は画素毎に、予測誤差はブロ
ック単位でそれぞれ生成されるが、参照すべき画素位置
は近い画素では同じ参照画面に属している可能性が高い
ため、画素の数だけ上述した処理を繰り返すのではな
く、一回の予測誤差ブロックの復号でそこに使用できる
画素が複数含まれている場合は、それらの画素は全てま
とめて復号される。このようにして、参照すべき画素位
置毎に、モデル情報から生成された予測信号と復号化さ
れた予測誤差信号とが加算されてフレームメモリ131
3の対応する位置に書き込まれることにより、指定され
た視点の画像が作成される。
れた予測誤差信号が加算器1312で加算され復号され
た後、フレームメモリ1313の対応する位置に書き込
まれる。ここで、予測信号は画素毎に、予測誤差はブロ
ック単位でそれぞれ生成されるが、参照すべき画素位置
は近い画素では同じ参照画面に属している可能性が高い
ため、画素の数だけ上述した処理を繰り返すのではな
く、一回の予測誤差ブロックの復号でそこに使用できる
画素が複数含まれている場合は、それらの画素は全てま
とめて復号される。このようにして、参照すべき画素位
置毎に、モデル情報から生成された予測信号と復号化さ
れた予測誤差信号とが加算されてフレームメモリ131
3の対応する位置に書き込まれることにより、指定され
た視点の画像が作成される。
【0097】なお、上記説明では再生すべき視点に対応
する図14の曲線1401上における各点につき一番近
い視点画像から参照すべき画素位置を求めてそれを参照
するようにしたが、別の例として曲面の各点(例えば、
1403)を挟む2つの視点画像(1405,140
6)上にそれぞれ参照すべき画素位置(1404,14
07)を求め、それら画素位置についてそれぞれそれを
参照して画素を生成し、それら2つの画素値から内挿に
よって再生すべき画素値を決定するようにしてもよい。
する図14の曲線1401上における各点につき一番近
い視点画像から参照すべき画素位置を求めてそれを参照
するようにしたが、別の例として曲面の各点(例えば、
1403)を挟む2つの視点画像(1405,140
6)上にそれぞれ参照すべき画素位置(1404,14
07)を求め、それら画素位置についてそれぞれそれを
参照して画素を生成し、それら2つの画素値から内挿に
よって再生すべき画素値を決定するようにしてもよい。
【0098】以上、本発明の一実施形態に係る多視点画
像符号化/復号化装置について説明したが、本発明は次
のように種々変形して実施することが可能である。
像符号化/復号化装置について説明したが、本発明は次
のように種々変形して実施することが可能である。
【0099】(1)上記実施形態では、被写体の対称性
を利用してモデル情報の符号量を削減したが、予測誤差
も含めた全体について同じ考え方により符号量を削減す
ることも可能である。この場合は、モデル情報のみでな
く、予測誤差についても対称性の判定結果に従って被写
体面の選択された範囲に対応する予測誤差のみを符号化
する。そして、復号側では予測誤差を予測信号に加算す
る完全な復号を行った後に、被写体の対称性に基づく光
線空間上でのコピーを行えばよい。
を利用してモデル情報の符号量を削減したが、予測誤差
も含めた全体について同じ考え方により符号量を削減す
ることも可能である。この場合は、モデル情報のみでな
く、予測誤差についても対称性の判定結果に従って被写
体面の選択された範囲に対応する予測誤差のみを符号化
する。そして、復号側では予測誤差を予測信号に加算す
る完全な復号を行った後に、被写体の対称性に基づく光
線空間上でのコピーを行えばよい。
【0100】(2)上記実施形態では、被写体の対称性
の判定結果に従って対称と判定された範囲の視点画像に
ついてのみモデル化を行ってモデル情報を削減し、この
削減したモデル情報を符号化するものとしたが、前述し
た自動車の例に見られるように、被写体の形状またはテ
キスチャあるいはその両方に局所的に非対称の部分が存
在し、残りは完全に対称であるような場合にも、本発明
は対応することができる。
の判定結果に従って対称と判定された範囲の視点画像に
ついてのみモデル化を行ってモデル情報を削減し、この
削減したモデル情報を符号化するものとしたが、前述し
た自動車の例に見られるように、被写体の形状またはテ
キスチャあるいはその両方に局所的に非対称の部分が存
在し、残りは完全に対称であるような場合にも、本発明
は対応することができる。
【0101】この場合、被写体に局所的に非対称の部分
があっても、対称性があると仮定して上記実施形態と同
様にモデル化を行ってモデル情報を削減し、削減したモ
デル情報を符号化する。そして、このモデル化に際して
の局所的な非対称に起因するモデル化誤差を求め、この
モデル化誤差の情報をモデル化によって得られモデル情
報に加算した最終的なモデル情報から、多視点画像を構
成する各視点画像を予測して予測信号を生成し、この予
測信号と各視点画像との予測誤差を符号化するようにす
る。
があっても、対称性があると仮定して上記実施形態と同
様にモデル化を行ってモデル情報を削減し、削減したモ
デル情報を符号化する。そして、このモデル化に際して
の局所的な非対称に起因するモデル化誤差を求め、この
モデル化誤差の情報をモデル化によって得られモデル情
報に加算した最終的なモデル情報から、多視点画像を構
成する各視点画像を予測して予測信号を生成し、この予
測信号と各視点画像との予測誤差を符号化するようにす
る。
【0102】一方、復号側では対称性によるコピーでモ
デルを情報を再生した後、モデル化誤差を加算して最終
的なモデル情報を得るという処理を行う。ここで、モデ
ル化誤差はモデルに対してのみ送られるのに対して、予
測誤差は各視点画像について送られるので、局所的に被
写体の形状やテキスチャが非対称の場合でも、このよう
にした方が送るべき情報量は格段に少なくなる。
デルを情報を再生した後、モデル化誤差を加算して最終
的なモデル情報を得るという処理を行う。ここで、モデ
ル化誤差はモデルに対してのみ送られるのに対して、予
測誤差は各視点画像について送られるので、局所的に被
写体の形状やテキスチャが非対称の場合でも、このよう
にした方が送るべき情報量は格段に少なくなる。
【0103】また、人手のみにより被写体の形状および
テキスチャの対称性を判別することが可能である場合、
多視点画像入力部100の段階で入力される視点画像自
体を削減してしまうことも可能である。
テキスチャの対称性を判別することが可能である場合、
多視点画像入力部100の段階で入力される視点画像自
体を削減してしまうことも可能である。
【0104】さらに、上記実施形態では被写体の対称性
は形状とテキスチャの両方に必要とされているが、形状
のみ対称でテキスチャは対称でないような場合は、モデ
ル情報のうち座標値rにのみ対称性に基づく予測を適用
することが可能であり、そのようなバリエーションも考
えられる。その場合、予測される座標値rは予測誤差と
して送られるか、あるいは全く送られない。
は形状とテキスチャの両方に必要とされているが、形状
のみ対称でテキスチャは対称でないような場合は、モデ
ル情報のうち座標値rにのみ対称性に基づく予測を適用
することが可能であり、そのようなバリエーションも考
えられる。その場合、予測される座標値rは予測誤差と
して送られるか、あるいは全く送られない。
【0105】(多視点画像符号化方法について)次に、
図17および図18を参照して本発明に係る多視点画像
符号化方法の一実施形態を説明する。この符号化方法は
図1で説明した多視点画像符号化装置の符号化処理と同
じ操作をコンピュータプログラムを用いて実行するもの
であり、説明は大部分は図1の符号化装置の説明と重複
するため、詳細な説明は省略し、必要最低限の説明にと
どめる。
図17および図18を参照して本発明に係る多視点画像
符号化方法の一実施形態を説明する。この符号化方法は
図1で説明した多視点画像符号化装置の符号化処理と同
じ操作をコンピュータプログラムを用いて実行するもの
であり、説明は大部分は図1の符号化装置の説明と重複
するため、詳細な説明は省略し、必要最低限の説明にと
どめる。
【0106】ここでは、例として多視点画像に含まれる
視点画像の枚数はnmax (例えば120枚)として説明
する。まず、ステップ1700で、符号化しようとする
オブジェクトの目標総符号量を設定し、この値に基づき
モデル情報(座標値rと輝度値)を量子化するためのス
テップサイズQr(モデルレイヤのQUANT_rとし
て符号化される)、QL(モデルレイヤのQUANTと
して符号化される)が決定される。次に、ステップ17
01で多視点画像が入力される。多視点画像は記憶部に
蓄えられる。
視点画像の枚数はnmax (例えば120枚)として説明
する。まず、ステップ1700で、符号化しようとする
オブジェクトの目標総符号量を設定し、この値に基づき
モデル情報(座標値rと輝度値)を量子化するためのス
テップサイズQr(モデルレイヤのQUANT_rとし
て符号化される)、QL(モデルレイヤのQUANTと
して符号化される)が決定される。次に、ステップ17
01で多視点画像が入力される。多視点画像は記憶部に
蓄えられる。
【0107】次に、ステップ1702でモデル推定が行
われる。ステップ1702では、図1におけるモデル化
部103で行われるのと同様に、被写体面上の各点の座
標値と輝度値の推定が行われる。
われる。ステップ1702では、図1におけるモデル化
部103で行われるのと同様に、被写体面上の各点の座
標値と輝度値の推定が行われる。
【0108】次に、ステップ1703でモデル情報の符
号化が行われる。モデル情報の符号化は、図1で説明し
たDCT回路111、量子化回路112で行われる符号
化と全く同じであり、それらのハードウェアを利用する
ことによって、あるいはソフトウェアのみによって行わ
れる。
号化が行われる。モデル情報の符号化は、図1で説明し
たDCT回路111、量子化回路112で行われる符号
化と全く同じであり、それらのハードウェアを利用する
ことによって、あるいはソフトウェアのみによって行わ
れる。
【0109】次に、ステップ1704においてステップ
1703で符号化されたモデル情報が復号され、モデル
情報として蓄積される。これと並行して、ステップ17
05においてステップ1703で符号化されたモデル情
報を可変長符号化し、一時記憶部に蓄える。
1703で符号化されたモデル情報が復号され、モデル
情報として蓄積される。これと並行して、ステップ17
05においてステップ1703で符号化されたモデル情
報を可変長符号化し、一時記憶部に蓄える。
【0110】次に、各視点画像の仮符号化のフェーズに
入る。このフェーズでは、まずステップ1706でnと
SUM1,SUM2を0にセットし、符号化のループが
開始する。ステップ1708で画像nが読み出され、ス
テップ1709で画像nが符号化される。符号化のステ
ップについては後述するが、この中の量子化ステップで
は予め決められた量子化ステップサイズQ1およびQ2
を使って量子化する。DCTまでのステップは仮符号化
後の本符号化でも同じなので、ここまでの結果を記憶部
に蓄積する。この場合、先に蓄積した画像nは不要とな
るので、ここに上書きしてよい。
入る。このフェーズでは、まずステップ1706でnと
SUM1,SUM2を0にセットし、符号化のループが
開始する。ステップ1708で画像nが読み出され、ス
テップ1709で画像nが符号化される。符号化のステ
ップについては後述するが、この中の量子化ステップで
は予め決められた量子化ステップサイズQ1およびQ2
を使って量子化する。DCTまでのステップは仮符号化
後の本符号化でも同じなので、ここまでの結果を記憶部
に蓄積する。この場合、先に蓄積した画像nは不要とな
るので、ここに上書きしてよい。
【0111】次に、ステップ1710でSUM1,SU
M2にそれぞれQ1,Q2で符号化したときに発生した
符号量Nob1,Nob2を加算する。このループを画
像の枚数分繰り返した後、ステップ1712でSUM
1,SUM2の値を使って予測誤差を本符号化するため
のステップサイズQE(誤差レイヤのQUANTとして
符号化される)を決定する。決定の方法については、既
に図1の符号化装置の説明で述べた通りである。
M2にそれぞれQ1,Q2で符号化したときに発生した
符号量Nob1,Nob2を加算する。このループを画
像の枚数分繰り返した後、ステップ1712でSUM
1,SUM2の値を使って予測誤差を本符号化するため
のステップサイズQE(誤差レイヤのQUANTとして
符号化される)を決定する。決定の方法については、既
に図1の符号化装置の説明で述べた通りである。
【0112】続いて、ステップ1713以降の本符号化
のループに入る。本符号化では、まずステップ1715
で画像nに対応するDCT処理までなされた結果を順次
読み出す。次に、ステップ1716においてステップ1
715で読み出されたデータを符号化する。この場合の
符号化は図1で説明した量子化回路109での量子化お
よび可変長符号化回路110での可変長符号化と同じで
おり、これらのハードウェアを利用することによって、
あるいはソフトウェアのみによって符号化が行われる。
量子化においては、ステップ1712で決定した量子化
ステップサイズQEを使用する。所定の枚数の画像の符
号化処理が終了したら、最後にステップ1718におい
てステップ1705で得られたモデル情報の後に誤差の
情報を多重化して、一つのオブジェクトの全体の符号化
処理は終了する。
のループに入る。本符号化では、まずステップ1715
で画像nに対応するDCT処理までなされた結果を順次
読み出す。次に、ステップ1716においてステップ1
715で読み出されたデータを符号化する。この場合の
符号化は図1で説明した量子化回路109での量子化お
よび可変長符号化回路110での可変長符号化と同じで
おり、これらのハードウェアを利用することによって、
あるいはソフトウェアのみによって符号化が行われる。
量子化においては、ステップ1712で決定した量子化
ステップサイズQEを使用する。所定の枚数の画像の符
号化処理が終了したら、最後にステップ1718におい
てステップ1705で得られたモデル情報の後に誤差の
情報を多重化して、一つのオブジェクトの全体の符号化
処理は終了する。
【0113】次に、図19を使って図17におけるステ
ップ1702のモデリング処理の詳細手順について説明
する。モデリング処理の手順は、図1の符号化装置のモ
デリング部103で説明した手順と全く同じである。ま
ず、ステップ1901で多視点画像を入力し、光線空間
を各yの値に対して作成する。次に、ステップ1902
で各光線空間が図8で説明したような対称性の構造を持
たないかどうかをマッチングによりチェックする。この
とき、図1の例で説明したように人手を介してインタラ
クティブにマッチングする手法を取り入れてもよい。対
称性のチェック結果は、後のステップで使われるため保
存される。次に、ステップ1902の対称性のチェック
結果に基づき、ステップ1903で多視点画像の中から
符号化されるべき視点画像を選択する。次に、この選択
された視点画像からステップ1904でモデル推定を行
う。
ップ1702のモデリング処理の詳細手順について説明
する。モデリング処理の手順は、図1の符号化装置のモ
デリング部103で説明した手順と全く同じである。ま
ず、ステップ1901で多視点画像を入力し、光線空間
を各yの値に対して作成する。次に、ステップ1902
で各光線空間が図8で説明したような対称性の構造を持
たないかどうかをマッチングによりチェックする。この
とき、図1の例で説明したように人手を介してインタラ
クティブにマッチングする手法を取り入れてもよい。対
称性のチェック結果は、後のステップで使われるため保
存される。次に、ステップ1902の対称性のチェック
結果に基づき、ステップ1903で多視点画像の中から
符号化されるべき視点画像を選択する。次に、この選択
された視点画像からステップ1904でモデル推定を行
う。
【0114】次に、図20を用いて図17におけるステ
ップ1709の符号化処理の詳細な手順につき説明す
る。まず、ステップ2001で画面nに対する予測信号
をモデル情報から計算によって求める。この求め方は、
既に図1で説明した方法と全く同じである。次に、ステ
ップ2002からの画面内のマクロブロックの処理ルー
プに入る。まず、ステップ2004でmb番目のマクロ
ブロックのデータを読み出して対応する部分の予測信号
との差分をとる。次に、ステップ2005,2006,
2008によりそれぞれDCT、量子化、可変長符号化
を施す。これらの処理は図1で説明したDCT回路10
8、量子化回路109、可変長符号化回路110で行わ
れるのと全く同じ処理であり、これらのハードウェアを
利用することによって、あるいはソフトウェアのみによ
って行われる。なお、DCT後のデータは図18中のス
テップ1715で読み出すために蓄積される。量子化で
は先に述べたようにステップサイズQ1,Q2が用いら
れる。また、ステップ2007はここではスルーであ
る。1画面のマクロブロックを全て処理し終わったら
(mb=mblast)、その画面の処理は終了する。
ップ1709の符号化処理の詳細な手順につき説明す
る。まず、ステップ2001で画面nに対する予測信号
をモデル情報から計算によって求める。この求め方は、
既に図1で説明した方法と全く同じである。次に、ステ
ップ2002からの画面内のマクロブロックの処理ルー
プに入る。まず、ステップ2004でmb番目のマクロ
ブロックのデータを読み出して対応する部分の予測信号
との差分をとる。次に、ステップ2005,2006,
2008によりそれぞれDCT、量子化、可変長符号化
を施す。これらの処理は図1で説明したDCT回路10
8、量子化回路109、可変長符号化回路110で行わ
れるのと全く同じ処理であり、これらのハードウェアを
利用することによって、あるいはソフトウェアのみによ
って行われる。なお、DCT後のデータは図18中のス
テップ1715で読み出すために蓄積される。量子化で
は先に述べたようにステップサイズQ1,Q2が用いら
れる。また、ステップ2007はここではスルーであ
る。1画面のマクロブロックを全て処理し終わったら
(mb=mblast)、その画面の処理は終了する。
【0115】図18におけるステップ1716の符号化
処理は、図20の手順からステップ2001,200
4,2005を除き、ステップ2006をDCT処理さ
れたデータを読み込んだ後に量子化する処理とする。こ
の場合の量子化ステップサイズは、既に述べたようにQ
Eである。
処理は、図20の手順からステップ2001,200
4,2005を除き、ステップ2006をDCT処理さ
れたデータを読み込んだ後に量子化する処理とする。こ
の場合の量子化ステップサイズは、既に述べたようにQ
Eである。
【0116】次に、ステップ2007でそのマクロブロ
ックの有効判定を行い、有効なマクロブロックのみをス
テップ2008で可変長符号化する。
ックの有効判定を行い、有効なマクロブロックのみをス
テップ2008で可変長符号化する。
【0117】(多視点画像復号化方法について)次に、
図21および図22を参照して本発明に係る多視点画像
復号化方法の処理手順を説明する。この復号化方法は、
図13で説明した復号化装置と同じ操作をコンピュータ
プログラムを用いて行う方法であり、説明の大部分は復
号化装置の説明と重複するため、詳細な説明は省略し、
必要最低限の説明にとどめる。
図21および図22を参照して本発明に係る多視点画像
復号化方法の処理手順を説明する。この復号化方法は、
図13で説明した復号化装置と同じ操作をコンピュータ
プログラムを用いて行う方法であり、説明の大部分は復
号化装置の説明と重複するため、詳細な説明は省略し、
必要最低限の説明にとどめる。
【0118】まず、ステップ2100で符号化されたデ
ータを入力する。入力されたデータは既に説明したよう
にモデル情報と予測誤差の情報が多重されているので、
これらの情報をステップ2101で分離する。次に、分
離された情報のうちまずモデル情報をステップ2102
で復号し、記憶部に蓄える。復号は図13で説明した可
変長復号回路1307、逆量子化回路1308、逆DC
T回路1309で行われる処理と全く同じであり、これ
らのハードウェアを利用することによって、あるいはソ
フトウェアのみによって行われる。
ータを入力する。入力されたデータは既に説明したよう
にモデル情報と予測誤差の情報が多重されているので、
これらの情報をステップ2101で分離する。次に、分
離された情報のうちまずモデル情報をステップ2102
で復号し、記憶部に蓄える。復号は図13で説明した可
変長復号回路1307、逆量子化回路1308、逆DC
T回路1309で行われる処理と全く同じであり、これ
らのハードウェアを利用することによって、あるいはソ
フトウェアのみによって行われる。
【0119】次に、ステップ2103で視点の位置情報
を入力する。以下、このループ内ではこの視点から見た
画像作成の処理が行われる。
を入力する。以下、このループ内ではこの視点から見た
画像作成の処理が行われる。
【0120】まず、図14で説明した再生画面のp−θ
面上での曲線1401を計算する。この曲線はYの値に
よらず共通である。次にスライスのループに入る。この
例では、1マクロブロックラインを1スライスとして符
号化したものとし、復号はスライス毎に行うとして説明
する。
面上での曲線1401を計算する。この曲線はYの値に
よらず共通である。次にスライスのループに入る。この
例では、1マクロブロックラインを1スライスとして符
号化したものとし、復号はスライス毎に行うとして説明
する。
【0121】画面1401の再生においては、被写体の
形状に応じて異なったpに相当する部分が参照画素とし
て使用されるが、Y座標は同じ値が参照されるので、マ
クロブロックライン(=スライス)毎の処理は、この性
質に適している。
形状に応じて異なったpに相当する部分が参照画素とし
て使用されるが、Y座標は同じ値が参照されるので、マ
クロブロックライン(=スライス)毎の処理は、この性
質に適している。
【0122】次に、ステップ2107で再生画像の各点
(例えば、1403)に対する参照画素位置(例えば、
1404)を計算する。
(例えば、1403)に対する参照画素位置(例えば、
1404)を計算する。
【0123】次に、ステップ2108で参照画素位置に
モデルから投影を行って予測信号を作成する。これらの
手順は、図14を用いて既に説明した通りである。
モデルから投影を行って予測信号を作成する。これらの
手順は、図14を用いて既に説明した通りである。
【0124】次に、ステップ2109で再生画像の画素
毎にステップ2106で得られた情報から参照すべき画
像内のマクロブロックアドレスを計算する。この時点で
1つのマクロブロックを復号することによって、再生画
像の何点が同時に再生可能かが認識される。この結果、
参照すべきマクロブロック数mbmax が設定される。こ
こからmbmax のループが始まる。
毎にステップ2106で得られた情報から参照すべき画
像内のマクロブロックアドレスを計算する。この時点で
1つのマクロブロックを復号することによって、再生画
像の何点が同時に再生可能かが認識される。この結果、
参照すべきマクロブロック数mbmax が設定される。こ
こからmbmax のループが始まる。
【0125】まず、ステップ2112で誤差が読み出さ
れ、ステップ2113で誤差が復号される。誤差の復号
は、図14で説明した可変長復号回路1404、逆量子
化回路1405、逆DCT回路1406で行われる処理
と全く同じであり、これらのハードウェアを利用するこ
とによって、あるいはソフトウェアのみによって行われ
る。
れ、ステップ2113で誤差が復号される。誤差の復号
は、図14で説明した可変長復号回路1404、逆量子
化回路1405、逆DCT回路1406で行われる処理
と全く同じであり、これらのハードウェアを利用するこ
とによって、あるいはソフトウェアのみによって行われ
る。
【0126】次に、ステップ2104で予測信号と予測
誤差が加算されて画像が再生され、ステップ2115で
フレームメモリの対応するアドレスに書き込まれる。以
上の処理をmbmax 個の全てのマクロブロックに対して
行って、1スライスの処理を終了する。全スライスの処
理を終了して、入力された視点に対応する再生画像の生
成処理は終了し、別の視点の入力が新たに行われれば、
また同じ処理を繰り返す。
誤差が加算されて画像が再生され、ステップ2115で
フレームメモリの対応するアドレスに書き込まれる。以
上の処理をmbmax 個の全てのマクロブロックに対して
行って、1スライスの処理を終了する。全スライスの処
理を終了して、入力された視点に対応する再生画像の生
成処理は終了し、別の視点の入力が新たに行われれば、
また同じ処理を繰り返す。
【0127】次に、図1の符号化装置および図17〜図
18の符号化方法で用いられるモデル関係の処理の一例
を説明する。
18の符号化方法で用いられるモデル関係の処理の一例
を説明する。
【0128】図24は、モデル化の手順を示したフロー
チャートである。まず、ステップ2400で各視点から
の画像に対してテキスチャとして特徴のある被写体上の
点を抽出する。この方法としては、例えば点を含む所定
の大きさ(あまり大きくない方が望ましいと思われる。
例えば5*5画素など)のブロックについて水平方向の
エッジ検出を行い、しきい値以上の大きさのエッジが得
られたブロックを特徴点として抽出する。
チャートである。まず、ステップ2400で各視点から
の画像に対してテキスチャとして特徴のある被写体上の
点を抽出する。この方法としては、例えば点を含む所定
の大きさ(あまり大きくない方が望ましいと思われる。
例えば5*5画素など)のブロックについて水平方向の
エッジ検出を行い、しきい値以上の大きさのエッジが得
られたブロックを特徴点として抽出する。
【0129】ステップ2401では、得られた複数の特
徴点に対して処理する順序付けを行う。処理はp−θ平
面でp=0に近いところにある特徴点から処理するもの
とする。
徴点に対して処理する順序付けを行う。処理はp−θ平
面でp=0に近いところにある特徴点から処理するもの
とする。
【0130】次に、ステップ2402から特徴点の数の
処理ループに入る。各点に対応するrの値の推定はステ
ップ2406で上述したブロックでの動きベクトル(M
V)検出を行うことにより行われるが、その際のMVの
探索範囲がステップ2405で制限される。図25を用
いて、この探索範囲の制限を行う原理を説明する。
処理ループに入る。各点に対応するrの値の推定はステ
ップ2406で上述したブロックでの動きベクトル(M
V)検出を行うことにより行われるが、その際のMVの
探索範囲がステップ2405で制限される。図25を用
いて、この探索範囲の制限を行う原理を説明する。
【0131】今、注目している点に対応する光線のp−
θ平面上での軌跡を2501とすると、図25において
ブロック2502についてMV検出を行おうとすると
き、軌跡2501上でθ=ψ±90°に対応する点は、
図26に示すようにその点が見えていればrの値が直接
見えている視点である。従って、rの値はこの位置での
包絡線のうち小さい方よりも必ず小さい値となるので、
この値を一画面間隔に換算したMVをMV探索すべき範
囲の最大値とする。このように多視点画像から得られる
性質を利用して、必要のない計算を避けることができ
る。
θ平面上での軌跡を2501とすると、図25において
ブロック2502についてMV検出を行おうとすると
き、軌跡2501上でθ=ψ±90°に対応する点は、
図26に示すようにその点が見えていればrの値が直接
見えている視点である。従って、rの値はこの位置での
包絡線のうち小さい方よりも必ず小さい値となるので、
この値を一画面間隔に換算したMVをMV探索すべき範
囲の最大値とする。このように多視点画像から得られる
性質を利用して、必要のない計算を避けることができ
る。
【0132】次に、ステップ2406で隣り合った画像
同士でのMV探索を行う。これは図27に示すように、
まず特徴点kから隣の画像に対して探索を行って得られ
たブロックから更に隣の画像に対して探索を行うという
ように連続して行う。この場合、全て探索の範囲はステ
ップ2405で得られた値が上限である。また、MV探
索で予測誤差を比較する際に誤差の差があまり無い場合
には、特徴点として選ばれた点が優先的に選ばれるよう
に判定基準を設定する。このステップ2406で特徴点
kと対応付けられた他の特徴点k+αについては、スキ
ップフラグを仮に立て、後述のステップでこの点k+α
についてrの値が確定した時点でスキップフラグを確定
する。
同士でのMV探索を行う。これは図27に示すように、
まず特徴点kから隣の画像に対して探索を行って得られ
たブロックから更に隣の画像に対して探索を行うという
ように連続して行う。この場合、全て探索の範囲はステ
ップ2405で得られた値が上限である。また、MV探
索で予測誤差を比較する際に誤差の差があまり無い場合
には、特徴点として選ばれた点が優先的に選ばれるよう
に判定基準を設定する。このステップ2406で特徴点
kと対応付けられた他の特徴点k+αについては、スキ
ップフラグを仮に立て、後述のステップでこの点k+α
についてrの値が確定した時点でスキップフラグを確定
する。
【0133】ステップ2404の判定条件では、ステッ
プフラグの立っている特徴点は既にrが確定した点に対
応するものとして、以降の処理をスキップする。次に、
ステップ2407において所定の枚数以上の画像間で共
通のrの値でつじつまが合うようなMVが求められたか
を判断する。ここでYESであれば、その点に対してエ
ッジに対応する画素に対してrの値がフィットするかを
ステップ2408で確認し、rの細かい精度に対して微
調節を行った後に、ステップ2409でその点に対して
rの値を確定し、対応するψの値と組にして記憶する。
プフラグの立っている特徴点は既にrが確定した点に対
応するものとして、以降の処理をスキップする。次に、
ステップ2407において所定の枚数以上の画像間で共
通のrの値でつじつまが合うようなMVが求められたか
を判断する。ここでYESであれば、その点に対してエ
ッジに対応する画素に対してrの値がフィットするかを
ステップ2408で確認し、rの細かい精度に対して微
調節を行った後に、ステップ2409でその点に対して
rの値を確定し、対応するψの値と組にして記憶する。
【0134】以上の操作を特徴点の数だけ行うと、特徴
的なテキスチャを持つ点についてrの値が決まるので、
ステップ2411でrが決まった点の間の面上の点のr
を求める。この面上の点はテキスチャが無いので、rが
決まった点の間を直線近似したrの値を初期近似として
再構成しながら、各視点の画像と比較してrの値を調整
して確定する。
的なテキスチャを持つ点についてrの値が決まるので、
ステップ2411でrが決まった点の間の面上の点のr
を求める。この面上の点はテキスチャが無いので、rが
決まった点の間を直線近似したrの値を初期近似として
再構成しながら、各視点の画像と比較してrの値を調整
して確定する。
【0135】最後に、ステップ2412で得られたモデ
ルの推定値から全体の光線空間を再構成し比較して微調
整を行い、モデルの推定を終了する。
ルの推定値から全体の光線空間を再構成し比較して微調
整を行い、モデルの推定を終了する。
【0136】本実施形態においては、モデルの推定があ
る程度間違っていてもこれを用いて予測を行った後に誤
差を送るので、復号再生側で再構成される光線空間は実
際と大きく違ったものになることはない。
る程度間違っていてもこれを用いて予測を行った後に誤
差を送るので、復号再生側で再構成される光線空間は実
際と大きく違ったものになることはない。
【0137】また、モデルの推定としてより確実に形状
情報を得られる別の方法としては、被写体の形状を入力
された多視点画像から推定するのではなく3Dディジタ
イザやレンジファインダといった3D計測機器で直接形
状情報を取得する方法を用いてもよい。この場合、入力
のフェーズでの手間はかかるが予測が非常によくなるこ
とが期待できる。
情報を得られる別の方法としては、被写体の形状を入力
された多視点画像から推定するのではなく3Dディジタ
イザやレンジファインダといった3D計測機器で直接形
状情報を取得する方法を用いてもよい。この場合、入力
のフェーズでの手間はかかるが予測が非常によくなるこ
とが期待できる。
【0138】次に、上記により得られた被写体面上の各
点の座標の情報(=被写体の形状の情報)から、モデル
情報をどの視点画像の情報として送るかを決定する方法
につき説明する。
点の座標の情報(=被写体の形状の情報)から、モデル
情報をどの視点画像の情報として送るかを決定する方法
につき説明する。
【0139】図28は、上記の形状の推定により得られ
た被写体断面を表した図である。断面上は通常、離散的
にサンプルされた点に対して得られた座標の形で表され
る。図で点Aと点Bで挟まれる面を考えるとし、これら
の点A,Bは極座標に変換すると、それぞれ(r1,ψ
1)、(r2,ψ2)で表され、そのなす角度はΔψで
あるとする。このとき、この面の法線方向を平均的に近
似する角度θABは、r1cosθAB=r2cos
(θAB−Δψ)を解くことによって得られる。
た被写体断面を表した図である。断面上は通常、離散的
にサンプルされた点に対して得られた座標の形で表され
る。図で点Aと点Bで挟まれる面を考えるとし、これら
の点A,Bは極座標に変換すると、それぞれ(r1,ψ
1)、(r2,ψ2)で表され、そのなす角度はΔψで
あるとする。このとき、この面の法線方向を平均的に近
似する角度θABは、r1cosθAB=r2cos
(θAB−Δψ)を解くことによって得られる。
【0140】図29は、p−θ平面で点Aおよび点Bに
対応する光線の軌跡(それぞれ2901,2902)を
描いたものである。以上の計算により、点Aと点Bとの
間の面はψ1からθABだけずれた位置に最も近い視点
画像2903上で符号化されるのが最も解像度がとれて
いることになる。従って、この視点画像上で点Aの軌跡
と点Bの軌跡で囲まれた領域2904をモデル情報とし
て前述したようにrの値と共に符号化する。このとき、
rの値は画素毎に得られる限りの精度で符号化すること
は前述した通りである。
対応する光線の軌跡(それぞれ2901,2902)を
描いたものである。以上の計算により、点Aと点Bとの
間の面はψ1からθABだけずれた位置に最も近い視点
画像2903上で符号化されるのが最も解像度がとれて
いることになる。従って、この視点画像上で点Aの軌跡
と点Bの軌跡で囲まれた領域2904をモデル情報とし
て前述したようにrの値と共に符号化する。このとき、
rの値は画素毎に得られる限りの精度で符号化すること
は前述した通りである。
【0141】
【発明の効果】以上説明したように、本発明によれば形
状さらにはテキスチャに対称性のある被写体の多視点画
像を符号化する場合の符号量、すなわち符号化側から復
号化側に伝送すべき情報量を従来に比べて大幅に削減す
ることができる。
状さらにはテキスチャに対称性のある被写体の多視点画
像を符号化する場合の符号量、すなわち符号化側から復
号化側に伝送すべき情報量を従来に比べて大幅に削減す
ることができる。
【図1】本発明の一実施形態に係る多視点画像符号化装
置の構成を示すブロック図
置の構成を示すブロック図
【図2】図1中の画像入力部の構成例を示す図
【図3】被写体の断面と極座標の関係を説明する図
【図4】入力された多視点画像のp−θ平面上での位置
関係を説明する図
関係を説明する図
【図5】同実施形態における予測信号の作成原理を説明
する図
する図
【図6】重なった光線の処理を説明する図
【図7】仮符号化により量子化ステップサイズを決定す
る原理を説明する図
る原理を説明する図
【図8】被写体の対称性と光線空間の性質について説明
する図
する図
【図9】図1中のモデリング部の構成を示すブロック図
【図10】図9中のマッチング部の動作手順を説明する
フローチャート
フローチャート
【図11】同実施形態における符号化ストリームの多重
化フォーマットの一例を示す図
化フォーマットの一例を示す図
【図12】同実施形態におけるマクロブロックの構成例
を示す図
を示す図
【図13】本発明の一実施形態に係る多視点画像復号化
装置の構成を示すブロック図
装置の構成を示すブロック図
【図14】同実施形態における復号再生時の参照画素を
求める原理を説明する図
求める原理を説明する図
【図15】図13中の予測信号生成部の構成例を示すブ
ロック図
ロック図
【図16】図15中のモデルコピー部の動作を説明する
図
図
【図17】本発明の一実施形態に係る多視点画像符号化
方法の処理手順の一部を示すフローチャート
方法の処理手順の一部を示すフローチャート
【図18】同実施形態に係る多視点画像符号化方法の処
理手順の他の一部を示すフローチャート
理手順の他の一部を示すフローチャート
【図19】図17中のモデリングステップの詳細を説明
するフローチャート
するフローチャート
【図20】図18中の符号化ステップの詳細を説明する
フローチャート
フローチャート
【図21】本発明の一実施形態に係る多視点画像復号化
方法の処理手順の一部を示すフローチャート
方法の処理手順の一部を示すフローチャート
【図22】同実施形態に係る多視点画像復号化方法の処
理手順の他の一部を示すフローチャート
理手順の他の一部を示すフローチャート
【図23】図21中の予測信号作成ステップの詳細を説
明するフローチャート
明するフローチャート
【図24】本発明の一実施形態に係る多視点画像符号化
で用いるモデル化手順を示すフローチャート
で用いるモデル化手順を示すフローチャート
【図25】図24のモデル化手順における探索範囲の制
限について説明する図
限について説明する図
【図26】図24のモデル化手順における探索範囲の制
限について説明する図
限について説明する図
【図27】図24のモデル化手順における動きベクトル
検出について説明する図
検出について説明する図
【図28】本発明の一実施形態に係る多視点画像符号化
においてモデルを送る視点画像を求める原理を説明する
図
においてモデルを送る視点画像を求める原理を説明する
図
【図29】本発明の一実施形態に係る多視点画像符号化
においてモデルを送る視点画像を求める原理を説明する
図
においてモデルを送る視点画像を求める原理を説明する
図
【図30】光線空間の円筒記録を説明する図
100…多視点画像入力部 101、108…記憶部 102…制御部 103…モデリング部 104…モデル蓄積部 105、1011…予測信号生成部 106、1012…加算器 107、111…DCT回路 109、112…量子化回路 110、113…可変長符号化回路 114、1005、1008…逆量子化回路 115、1006、1009…逆DCT回路 116…多重化回路 117…符号量カウンタ 1300…視点入力部 1301…分離回路 1302…アドレス計算回路 1303…誤差記憶部 1304、1007…可変長復号回路 1310…モデル蓄積部 1313…フレームメモリ
Claims (25)
- 【請求項1】被写体との位置関係が既知の複数の視点に
よってそれぞれ得られた複数の視点画像からなる多視点
画像を符号化する多視点画像符号化装置において、 前記被写体の対称性の判定結果に基づいて前記多視点画
像を選択する選択手段と、 前記選択手段により選択された多視点画像を符号化する
符号化手段と、 前記符号化手段の符号化結果に前記対称性に関する情報
を多重化して符号化ストリームを生成する多重化手段と
を具備することを特徴とする多視点画像符号化装置。 - 【請求項2】被写体との位置関係が既知の複数の視点に
よってそれぞれ得られた複数の視点画像からなる多視点
画像を符号化する多視点画像符号化装置において、 前記被写体の対称性の判定結果に基づいて前記多視点画
像を選択する選択手段と、 前記被写体面上の各点に対して、該各点の座標値と、前
記選択手段により選択された多視点画像中でモデルとし
て使用される視点画像内の該各点に対応する輝度値とか
ら構成されるモデル情報を生成するモデル化手段と、 前記モデル情報を符号化するモデル情報符号化手段と、 前記モデル情報から前記多視点画像中の各視点画像を予
測して生成された予測画像と各視点画像との予測誤差を
符号化する予測誤差符号化手段と、 符号化されたモデル情報および予測誤差と前記対称性に
関する情報を多重化して符号化ストリームを生成する多
重化手段とを具備することを特徴とする多視点画像符号
化装置。 - 【請求項3】前記選択手段は、前記対称性の判定結果が
対称性有りの場合、対称性を有する範囲に対応する多視
点画像から対称構造単位の視点画像を選択し、前記対称
性の判定結果が対称性無しの場合、対称性を有しない範
囲に対応する多視点画像を全て選択し、 前記多重化手段は、前記対称性に関する情報として、前
記対称性の判定結果が対称性有りの場合は対称性の種類
と前記対称構造単位の視点画像に対応する被写体面の範
囲および該対称構造単位の視点画像のコピー先の被写体
面の範囲を示す情報を多重化し、前記対称性の判定結果
が対称性無しの場合は対称性を有しない被写体面の範囲
を示す情報を多重化することを特徴とする請求項1また
は2記載の多視点画像符号化装置。 - 【請求項4】被写体との位置関係が既知の複数の視点に
よってそれぞれ得られた複数の視点画像からなる多視点
画像を符号化する多視点画像符号化装置において、 前記被写体の対称性を仮定し、この仮定した対称性に基
づいて前記多視点画像を選択する選択手段と、 前記被写体面上の各点に対して、該各点の座標値と、前
記選択手段により選択された多視点画像中でモデルとし
て使用される視点画像内の該各点に対応する輝度値とか
ら構成されるモデル情報を生成するモデル化手段と、 前記モデル情報に前記被写体の対称性を仮定した範囲内
の非対称性に起因する誤差を加算したモデル情報を符号
化するモデル情報符号化手段と、 前記誤差を加算したモデル情報から前記多視点画像中の
各視点画像を予測して生成された予測画像と各視点画像
との予測誤差を符号化する予測誤差符号化手段と、 符号化されたモデル情報および予測誤差と前記仮定した
対称性に関する情報を多重化して符号化ストリームを生
成する多重化手段とを具備することを特徴とする多視点
画像符号化装置。 - 【請求項5】前記予測誤差符号化手段は、前記モデル情
報から前記多視点画像中の各視点画像を予測して生成さ
れた予測画像と各視点画像との予測誤差のうち、前記選
択手段により選択された多視点画像に対応する予測誤差
のみを符号化することを特徴とする請求項2〜4のいず
れか1項記載の多視点画像符号化装置。 - 【請求項6】被写体との位置関係が既知の複数の視点に
よってそれぞれ得られた複数の視点画像からなる多視点
画像を符号化した符号化ストリームを復号化して所望の
視点画像を再生する復号化装置であって、前記符号化ス
トリームには、選択された多視点画像の符号化結果と被
写体の対称性に関する情報とが多重化されている多視点
画像復号化装置において、 前記符号化ストリームに多重化された前記符号化結果と
前記対称性に関する情報を分離する分離手段と、 前記符号化ストリームから分離された前記対称性に関す
る情報に従って、前記符号化ストリームから分離された
前記多視点画像の符号化結果を復号化して前記所望の視
点画像を再生する再生手段とを具備することを特徴とす
る多視点画像復号化装置。 - 【請求項7】被写体との位置関係が既知の複数の視点に
よってそれぞれ得られた複数の視点画像からなる多視点
画像を符号化した符号化ストリームを復号化して所望の
視点画像を再生する復号化装置であって、前記符号化ス
トリームには、被写体面上の各点の座標値と被写体の対
称性の判定結果に基づいて選択された多視点画像中でモ
デルとして使用される視点画像内の該各点に対応する輝
度値とから構成されるモデル情報と、このモデル情報か
ら多視点画像中の各視点画像を予測して生成された予測
画像と各視点画像との予測誤差と、前記対称性に関する
情報とが多重化されている多視点画像復号化装置におい
て、 前記符号化ストリームから前記モデル情報と前記予測誤
差および前記対称性に関する情報を分離する分離手段
と、 前記符号化ストリームから分離された前記予測誤差を復
号化する予測誤差復号化手段と、 前記する符号化ストリームから分離された前記モデル情
報を復号化するモデル情報復号化手段と、 前記符号化ストリームから分離された前記対称性に関す
る情報に従って、前記モデル情報復号化手段により復号
化されたモデル情報から再生対象の視点画像を予測して
予測画像を生成する予測画像生成手段と、 前記予測誤差復号化手段により復号化された予測誤差と
前記予測画像生成手段により生成された予測画像とを合
成して前記再生対象の視点画像を再生する視点画像再生
手段とを具備することを特徴とする多視点画像復号化装
置。 - 【請求項8】前記対称性の判定結果に基づいて選択され
た多視点画像は、前記対称性の判定結果が対称性有りの
場合、対称性を有する範囲に対応する多視点画像から選
択された対称構造単位の視点画像であり、前記対称性の
判定結果が対称性無しの場合、対称性を有しない範囲に
対応する全ての多視点画像であり、 前記符号化ストリームには、前記対称性に関する情報と
して、前記対称性の判定結果が対称性有りの場合は対称
性の種類と前記対称構造単位の視点画像に対応する被写
体面の範囲および該対称構造単位の視点画像のコピー先
の被写体面の範囲を示す情報が前記対称性に関する情報
が多重化され、前記対称性の判定結果が対称性無しの場
合は対応する被写体面の範囲の情報が多重化されている
ことを特徴とする請求項6または7記載の多視点画像復
号化装置。 - 【請求項9】被写体との位置関係が既知の複数の視点に
よってそれぞれ得られた複数の視点画像からなる多視点
画像を符号化した符号化ストリームを復号化して所望の
視点画像を再生する復号化装置であって、前記符号化ス
トリームには、被写体面上の各点の座標値と被写体の対
称性の判定結果に基づいて選択された多視点画像中でモ
デルとして使用される視点画像内の該各点に対応する輝
度値とから構成されるモデル情報に前記被写体の対称性
を仮定した範囲内の非対称性に起因する誤差を加算した
モデル情報と、前記誤差を加算したモデル情報から多視
点画像中の各視点画像を予測して生成された予測画像と
各視点画像との予測誤差と、前記対称性に関する情報と
が多重化されている多視点画像復号化装置において、 前記符号化ストリームから前記モデル情報と前記予測誤
差および前記対称性に関する情報を分離する分離手段
と、 前記符号化ストリームから分離された前記予測誤差を復
号化する予測誤差復号化手段と、 前記する符号化ストリームから分離された前記誤差を加
算したモデル情報を復号化するモデル情報復号化手段
と、 前記符号化ストリームから分離された前記対称性に関す
る情報に従って、前記モデル情報復号化手段により復号
化されたモデル情報から再生対象の視点画像を予測して
予測画像を生成する予測画像生成手段と、 前記予測誤差復号化手段により復号化された予測誤差と
前記予測画像生成手段により生成された予測画像とを合
成して前記再生対象の視点画像を再生する視点画像再生
手段とを具備することを特徴とする多視点画像復号化装
置。 - 【請求項10】前記符号化ストリームに多重化されてい
る予測誤差は、前記モデル情報から前記多視点画像中の
各視点画像を予測して生成された予測画像と各視点画像
との予測誤差のうち前記被写体の対称性を仮定した範囲
内の予測誤差のみであることを特徴とする請求項9記載
の多視点画像復号化装置。 - 【請求項11】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化する多視点画像符号化方法において、 前記被写体の対称性の判定結果に基づいて前記多視点画
像を選択する選択ステップと、 前記選択ステップにより選択された多視点画像を符号化
する符号化ステップと、 前記符号化ステップの符号化結果に前記対称性に関する
情報を多重化して符号化ストリームを生成する多重化ス
テップとを具備することを特徴とする多視点画像符号化
方法。 - 【請求項12】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化する多視点画像符号化方法において、 前記被写体の対称性の判定結果に基づいて前記多視点画
像を選択する選択ステップと、 前記被写体面上の各点に対して、該各点の座標値と、前
記選択ステップにより選択された多視点画像中でモデル
として使用される視点画像内の該各点に対応する輝度値
とから構成されるモデル情報を生成するモデル化ステッ
プと、 前記モデル情報を符号化するモデル情報符号化ステップ
と、 前記モデル情報から前記多視点画像中の各視点画像を予
測して生成された予測画像と各視点画像との予測誤差を
符号化する予測誤差符号化ステップと、 符号化されたモデル情報および予測誤差と前記対称性に
関する情報を多重化して符号化ストリームを生成する多
重化ステップとを具備することを特徴とする多視点画像
符号化方法。 - 【請求項13】前記選択ステップは、前記対称性の判定
結果が対称性有りの場合、対称性を有する範囲に対応す
る多視点画像から対称構造単位の視点画像を選択し、前
記対称性の判定結果が対称性無しの場合、対称性を有し
ない範囲に対応する多視点画像を全て選択し、 前記多重化ステップは、前記対称性に関する情報とし
て、前記対称性の判定結果が対称性有りの場合は対称性
の種類と前記対称構造単位の視点画像に対応する被写体
面の範囲および該対称構造単位の視点画像のコピー先の
被写体面の範囲を示す情報を多重化し、前記対称性の判
定結果が対称性無しの場合は対称性を有しない被写体面
の範囲を示す情報を多重化することを特徴とする請求項
11または12記載の多視点画像符号化方法。 - 【請求項14】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化する多視点画像符号化方法において、 前記被写体の対称性を仮定し、この仮定した対称性に基
づいて前記多視点画像を選択する選択ステップと、 前記被写体面上の各点に対して、該各点の座標値と、前
記選択ステップにより選択された多視点画像中でモデル
として使用される視点画像内の該各点に対応する輝度値
とから構成されるモデル情報を生成するモデル化ステッ
プと、 前記モデル情報に前記被写体の対称性を仮定した範囲内
の非対称性に起因する誤差を加算したモデル情報を符号
化するモデル情報符号化ステップと、 前記誤差を加算したモデル情報から前記多視点画像中の
各視点画像を予測して生成された予測画像と各視点画像
との予測誤差を符号化する予測誤差符号化ステップと、 符号化されたモデル情報および予測誤差と前記仮定した
対称性に関する情報を多重化して符号化ストリームを生
成する多重化ステップとを具備することを特徴とする多
視点画像符号化方法。 - 【請求項15】前記予測誤差符号化ステップは、前記モ
デル情報から前記多視点画像中の各視点画像を予測して
生成された予測画像と各視点画像との予測誤差のうち、
前記選択ステップにより選択された多視点画像に対応す
る予測誤差のみを符号化することを特徴とする請求項2
〜4のいずれか1項記載の多視点画像符号化方法。 - 【請求項16】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化した符号化ストリームを復号化して所望
の視点画像を再生する復号化方法であって、前記符号化
ストリームには、選択された多視点画像の符号化結果と
被写体の対称性に関する情報とが多重化されている多視
点画像復号化方法において、 前記符号化ストリームに多重化された前記符号化結果と
前記対称性に関する情報を分離する分離ステップと、 前記符号化ストリームから分離された前記対称性に関す
る情報に従って、前記符号化ストリームから分離された
前記多視点画像の符号化結果を復号化して前記所望の視
点画像を再生する再生ステップとを具備することを特徴
とする多視点画像復号化方法。 - 【請求項17】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化した符号化ストリームを復号化して所望
の視点画像を再生する復号化方法であって、前記符号化
ストリームには、被写体面上の各点の座標値と被写体の
対称性の判定結果に基づいて選択された多視点画像中で
モデルとして使用される視点画像内の該各点に対応する
輝度値とから構成されるモデル情報と、このモデル情報
から多視点画像中の各視点画像を予測して生成された予
測画像と各視点画像との予測誤差と、前記対称性に関す
る情報とが多重化されている多視点画像復号化方法にお
いて、 前記符号化ストリームから前記モデル情報と前記予測誤
差および前記対称性に関する情報を分離する分離ステッ
プと、 前記符号化ストリームから分離された前記予測誤差を復
号化する予測誤差復号化ステップと、 前記する符号化ストリームから分離された前記モデル情
報を復号化するモデル情報復号化ステップと、 前記符号化ストリームから分離された前記対称性に関す
る情報に従って、前記モデル情報復号化ステップにより
復号化されたモデル情報から再生対象の視点画像を予測
して予測画像を生成する予測画像生成ステップと、 前記予測誤差復号化ステップにより復号化された予測誤
差と前記予測画像生成ステップにより生成された予測画
像とを合成して前記再生対象の視点画像を再生する視点
画像再生ステップとを具備することを特徴とする多視点
画像復号化方法。 - 【請求項18】前記対称性の判定結果に基づいて選択さ
れた多視点画像は、前記対称性の判定結果が対称性有り
の場合、対称性を有する範囲に対応する多視点画像から
選択された対称構造単位の視点画像であり、前記対称性
の判定結果が対称性無しの場合、対称性を有しない範囲
に対応する全ての多視点画像であり、 前記符号化ストリームには、前記対称性に関する情報と
して、前記対称性の判定結果が対称性有りの場合は対称
性の種類と前記対称構造単位の視点画像に対応する被写
体面の範囲および該対称構造単位の視点画像のコピー先
の被写体面の範囲を示す情報が前記対称性に関する情報
が多重化され、前記対称性の判定結果が対称性無しの場
合は対応する被写体面の範囲の情報が多重化されている
ことを特徴とする請求項16または17記載の多視点画
像復号化方法。 - 【請求項19】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化した符号化ストリームを復号化して所望
の視点画像を再生する復号化方法であって、前記符号化
ストリームには、被写体面上の各点の座標値と被写体の
対称性の判定結果に基づいて選択された多視点画像中で
モデルとして使用される視点画像内の該各点に対応する
輝度値とから構成されるモデル情報に前記被写体の対称
性を仮定した範囲内の非対称性に起因する誤差を加算し
たモデル情報と、前記誤差を加算したモデル情報から多
視点画像中の各視点画像を予測して生成された予測画像
と各視点画像との予測誤差と、前記対称性に関する情報
とが多重化されている多視点画像復号化方法において、 前記符号化ストリームから前記モデル情報と前記予測誤
差および前記対称性に関する情報を分離する分離ステッ
プと、 前記符号化ストリームから分離された前記予測誤差を復
号化する予測誤差復号化ステップと、 前記する符号化ストリームから分離された前記誤差を加
算したモデル情報を復号化するモデル情報復号化ステッ
プと、 前記符号化ストリームから分離された前記対称性に関す
る情報に従って、前記モデル情報復号化ステップにより
復号化されたモデル情報から再生対象の視点画像を予測
して予測画像を生成する予測画像生成ステップと、 前記予測誤差復号化ステップにより復号化された予測誤
差と前記予測画像生成ステップにより生成された予測画
像とを合成して前記再生対象の視点画像を再生する視点
画像再生ステップとを具備することを特徴とする多視点
画像復号化方法。 - 【請求項20】前記符号化ストリームに多重化されてい
る予測誤差は、前記モデル情報から前記多視点画像中の
各視点画像を予測して生成された予測画像と各視点画像
との予測誤差のうち前記範囲に対応する予測誤差のみで
あることを特徴とする請求項19記載の多視点画像復号
化方法。 - 【請求項21】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化した符号化ストリームが記録された記録
媒体において、 前記符号化ストリームには、 被写体面上の各点の座標値と被写体の対称性の判定結果
に基づいて選択された多視点画像中でモデルとして使用
される視点画像内の該各点に対応する輝度値とから構成
されるモデル情報と、 このモデル情報から多視点画像中の各視点画像を予測し
て生成された予測画像と各視点画像との予測誤差と、 前記対称性に関する情報とが多重化されていることを特
徴とする記録媒体。 - 【請求項22】被写体との位置関係が既知の複数の視点
によってそれぞれ得られた複数の視点画像からなる多視
点画像を符号化した符号化ストリームが記録された記録
媒体において、 前記符号化ストリームには、 被写体面上の各点の座標値と被写体の対称性の判定結果
に基づいて選択された多視点画像中でモデルとして使用
される視点画像内の該各点に対応する輝度値とから構成
されるモデル情報に前記被写体の対称性を仮定した範囲
内の非対称性に起因する誤差を加算したモデル情報と、 前記誤差を加算したモデル情報から多視点画像中の各視
点画像を予測して生成された予測画像と各視点画像との
予測誤差と、 前記対称性に関する情報とが多重化されていることを特
徴とする記録媒体。 - 【請求項23】三次元物体からなる被写体の対称性の判
定結果に基づいて被写体面の一部を選択する選択手段
と、 前記選択手段により選択された被写体面の部分の情報を
符号化する符号化手段とを具備し、 前記選択手段により選択されなかった被写体面の部分に
ついては、選択された被写体面の部分の情報を利用して
表現することを特徴とする三次元物体の画像符号化装
置。 - 【請求項24】三次元物体からなる被写体の対称性を仮
定し、この仮定した対称性に基づいて前記被写体面の一
部を選択する選択手段と、 前記選択手段により選択された被写体面の部分の情報を
符号化し、選択されなかった被写体面の部分については
対象であるとの仮定の下に予測を行い、予測誤差を符号
化する符号化手段とを具備することを特徴とする三次元
物体の画像符号化装置。 - 【請求項25】前記符号化手段の符号化結果に前記被写
体の対称性に関する情報を多重化して符号化ストリーム
を生成する多重化手段をさらに具備することを特徴とす
る請求項23または24記載の三次元物体の画像符号化
装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32930197A JPH11161800A (ja) | 1997-11-28 | 1997-11-28 | 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32930197A JPH11161800A (ja) | 1997-11-28 | 1997-11-28 | 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11161800A true JPH11161800A (ja) | 1999-06-18 |
Family
ID=18219939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP32930197A Pending JPH11161800A (ja) | 1997-11-28 | 1997-11-28 | 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11161800A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100612848B1 (ko) | 2003-07-15 | 2006-08-14 | 삼성전자주식회사 | 다중시점 얼굴 데이터베이스 구축장치 및 방법과 다중시점얼굴기술자 생성장치 및 방법 |
KR100716999B1 (ko) * | 2005-06-03 | 2007-05-10 | 삼성전자주식회사 | 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치 |
KR100754205B1 (ko) | 2006-02-07 | 2007-09-03 | 삼성전자주식회사 | 다시점 동영상 부호화 장치 및 방법 |
KR100794855B1 (ko) | 2006-05-15 | 2008-01-14 | 경희대학교 산학협력단 | 이미지 정보 변이값의 예측 방법과 이를 이용한 다시점영상의 부호화/복호화 방법 및 장치 |
WO2008020733A1 (en) * | 2006-08-18 | 2008-02-21 | Gwangju Institute Of Science And Technology | A method and apparatus for encoding multiview video using hierarchical b frames in view direction, and a storage medium using the same |
JP2009212648A (ja) * | 2008-03-03 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2012135019A (ja) * | 2012-02-20 | 2012-07-12 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラムおよび復号プログラム |
-
1997
- 1997-11-28 JP JP32930197A patent/JPH11161800A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100612848B1 (ko) | 2003-07-15 | 2006-08-14 | 삼성전자주식회사 | 다중시점 얼굴 데이터베이스 구축장치 및 방법과 다중시점얼굴기술자 생성장치 및 방법 |
KR100716999B1 (ko) * | 2005-06-03 | 2007-05-10 | 삼성전자주식회사 | 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치 |
KR100754205B1 (ko) | 2006-02-07 | 2007-09-03 | 삼성전자주식회사 | 다시점 동영상 부호화 장치 및 방법 |
US8542734B2 (en) | 2006-02-07 | 2013-09-24 | Samsung Electronics Co., Ltd. | Multi-view video encoding apparatus and method |
KR100794855B1 (ko) | 2006-05-15 | 2008-01-14 | 경희대학교 산학협력단 | 이미지 정보 변이값의 예측 방법과 이를 이용한 다시점영상의 부호화/복호화 방법 및 장치 |
WO2008020733A1 (en) * | 2006-08-18 | 2008-02-21 | Gwangju Institute Of Science And Technology | A method and apparatus for encoding multiview video using hierarchical b frames in view direction, and a storage medium using the same |
US8184707B2 (en) | 2006-08-18 | 2012-05-22 | Gwangju Institute Of Science And Technology | Method and apparatus for encoding multiview video using hierarchical B frames in view direction, and a storage medium using the same |
JP2009212648A (ja) * | 2008-03-03 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2012135019A (ja) * | 2012-02-20 | 2012-07-12 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラムおよび復号プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11405643B2 (en) | Sequential encoding and decoding of volumetric video | |
JP4955234B2 (ja) | インタラクティブマルチビュービデオのシステムおよび方法 | |
JP4975985B2 (ja) | マルチビュービデオフォーマット | |
EP1779662B1 (en) | Method and device for motion estimation and compensation for panorama image | |
JP4575447B2 (ja) | パノラマ画像の動き推定及び補償のために仮想画像領域を生成する方法及び装置 | |
JP4989051B2 (ja) | オフラインマルチビュービデオ圧縮のシステムおよび方法 | |
JP4965092B2 (ja) | パターンを利用せずに画像間ホモグラフィによって複数のカメラを校正するためのシステムおよび方法 | |
KR101340911B1 (ko) | 다중 뷰들의 효율적인 인코딩 방법 | |
JP4013286B2 (ja) | 画像符号化装置と画像復号化装置 | |
EP1622381A2 (en) | A system and method for client services for interactive multi-view video | |
JP2006081161A (ja) | オフラインマルチビュービデオ圧縮のシステムおよび方法 | |
CA2576679C (en) | Method and apparatus for interpolating a reference pixel in an annular image and encoding/decoding an annular image | |
JPH11161800A (ja) | 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置 | |
JP2000285260A (ja) | 多視点画像の符号化方法及び任意視点画像の生成方法 | |
JP2001283201A (ja) | 3次元画像データ作成方法及び3次元画像データを用いた任意視点画像作成方法 | |
JP2000285259A (ja) | 多視点画像からの任意視点画像再生方法 | |
JPH1118091A (ja) | 多視点画像の符号化/復号化装置およびその符号化/復号化方法 | |
JP2000132683A (ja) | 多視点画像符号化方法 | |
JP2000261808A5 (ja) | ||
CN111630862A (zh) | 用于对表示全向视频的多视图视频序列进行编码和解码的方法和设备 | |
Zhang | Morphing for intelligent motion picture and video interpolation: bounding distortion and autonomous implementation |