JP4964827B2 - 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 - Google Patents

多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP4964827B2
JP4964827B2 JP2008148204A JP2008148204A JP4964827B2 JP 4964827 B2 JP4964827 B2 JP 4964827B2 JP 2008148204 A JP2008148204 A JP 2008148204A JP 2008148204 A JP2008148204 A JP 2008148204A JP 4964827 B2 JP4964827 B2 JP 4964827B2
Authority
JP
Japan
Prior art keywords
distance information
camera
view
decoding
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008148204A
Other languages
English (en)
Other versions
JP2009296338A (ja
Inventor
信哉 志水
英明 木全
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008148204A priority Critical patent/JP4964827B2/ja
Publication of JP2009296338A publication Critical patent/JP2009296338A/ja
Application granted granted Critical
Publication of JP4964827B2 publication Critical patent/JP4964827B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は,多視点距離情報の符号化および復号技術に関するものである。
多視点画像とは,複数のカメラで同じ被写体と背景を撮影した複数の画像のことであり,多視点動画像(多視点映像)とは,その動画像のことである。また,ここで言う距離情報とは,ある画像に対して与えられる領域ごとのカメラから被写体までの距離を表す情報である。多視点距離情報とは,多視点画像に対する距離情報であり,通常の距離情報複数個からなる集合となる。カメラから被写体までの距離はシーンの奥行きということもできるため,距離情報は奥行き情報と呼ばれることもある。
一般に,このような距離情報は,カメラで撮影された結果の2次元平面に対して与えられるため,その距離を画像の画素値にマッピングすることで距離画像として表される。2次元平面のある点に対する情報としては,1つの距離という情報のみになるため,グレースケール画像として表現することが可能である。なお,距離画像は奥行き画像やデプスマップ(Depth Map) と呼ばれることもある。
距離情報の利用用途の1つとして立体画像がある。一般的な立体画像の表現は,観測者の右目用の画像と左目用の画像からなるステレオ画像であるが,あるカメラにおける画像とその距離情報とを用いて立体画像を表現することができる(詳しい技術は非特許文献1を参照)。
このような1視点における映像と距離情報とを用いて表現された立体映像を符号化する方式には,MPEG−C Part.3(ISO/IEC 23002−3)を使用することが可能である(詳しい内容は非特許文献2を参照)。
多視点距離情報は,単視点の距離情報を用いて表現可能な立体映像よりも,大きな視差を持った立体映像を表現するのに利用される(詳細は非特許文献3を参照)。
また,このような立体映像を表現する用途以外に,多視点距離情報は,鑑賞者が撮影カメラの配置を気にせずに自由に視点を移動できる自由視点映像を生成するデータの1つとしても使用される。このような撮影カメラとは別のカメラからシーンを見ているとしたときの合成画像を任意視点画像と呼ぶことがあり,Image-based Rendering の分野で盛んにその生成法が検討されている。多視点映像と多視点距離情報とから任意視点映像を生成する代表的な手法としては,非特許文献4に記載の手法がある。
前述の通り,距離情報はグレースケール動画像とみなすことができ,被写体は実空間上で連続的に存在し,瞬間的に移動することができないため,画像信号と同様に空間的相関および時間的相関を持つと言える。したがって,通常の映像信号を符号化するために用いられる画像符号化方式や動画像符号化方式によって,距離情報は空間的冗長性や時間的冗長性を取り除きながら効率的に符号化される。実際にMPEG−C Part.3では,既存の動画像符号化方式を用いて距離情報の符号化を行っている。
ここで,従来の一般的な映像信号の符号化方式について説明する。一般に被写体が実空間上で空間的および時間的連続性を持つことから,その見え方は空間的および時間的に高い相関をもつ。映像信号の符号化ではそのような相関性を利用して高い符号化効率を達成している。
具体的には,符号化対象ブロックの映像信号を既に符号化済みの映像信号から予測して,その予測残差のみを符号化することで,符号化される必要のある情報を減らし,高い符号化効率を達成する。代表的な映像信号の予想の手法としては,単視点映像では,隣接するブロックから空間的に予測信号を生成する画面内予測や,近接時刻に撮影された符号化済みフレームから被写体の動きを推定して時間的に予測信号を生成する動き補償予測があり,多視点映像では,これらの他に別のカメラで撮影された符号化済みフレームから被写体の視差を推定してカメラ間で予測信号を生成する視差補償予測がある。各手法の詳細は,非特許文献5,非特許文献6などに記載されている。
また,多視点距離情報を符号化するにあたって,多視点距離情報を三次元モデルに変換して符号化することもできる。多視点距離情報から三次元モデルを構築する手法としては,非特許文献7に記載された技術がある。
図9に,多視点距離情報から三次元モデルを生成して,三次元モデルを符号化する従来手法のフローチャートを示す。
入力された多視点距離情報を構成する入力視点カメラを表すインデックスをviewとし,多視点距離情報を構成する視点数をnumViewsとする。まず,入力視点カメラごとの距離情報Dviewを入力する[X1]。次に,viewを0に初期化した後[X2],viewに1を加算しながら[X4],viewがnumViewsになるまで[X5],距離情報Dviewから被写体の三次元点を復元する[X3]。すべての入力視点カメラviewの距離情報から復元した被写体の三次元点から三次元モデルを計算し[X6],その三次元モデルを符号化する[X7]。
このようにして生成された三次元モデルの符号化データを復号すれば,デコーダ側で任意の視点からの距離情報を求めることができる。
また,非特許文献8には,距離情報を補助情報として用いながら,全体的に効率的な多視点映像符号化を実現するための符号化手法が記載されている。
C. Fehn ,P. Kauff,M. Op de Beeck,F. Emst ,W. IJsselsteijn ,M. Pollefeys,L. Van Gool ,E. Ofek and I. Sexton ,"An Evolutionary and Optimised Approach on 3D-TV ",Proceedings of International Broadcast Conference ,pp.357-365,Amsterdam ,The Netherlands ,September 2002. W.H.A. Bruls,C. Varekamp ,R. Klein Gunnewiek,B. Barenbrug and A. Bourge,"Enabling Introduction of Stereoscopic(3D) Video: Formats and Compression Standards",Proceedings of IEEE International Conference on Image Processing,pp.I-89-I-92,San Antonio ,USA ,September 2007. A. Smolic ,K. Mueller,P. Merkle ,N. Atzpadin ,C. Fehn ,M. Mueller,O. Schreer,R. Tanger ,P. Kauff and T. Wiegand ,"Multi-view video plus depth(MVD) format for advanced 3D video systems ",Joint Video Team of ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6 ,Doc. JVT-W100 ,San Jose,USA ,April 2007. C. L. Zitnick ,S. B. Kang,M. Uyttendaele,S. A. J. Winder and R. Szeliski ,"High-quality Video View Interpolation Using a Layered Representation", ACM Transactions on Graphics,vol.23,no.3,pp.600-608,August 2004. ITU-T Rec.H.264/ISO/IEC 11496-10,"Advanced Video Coding ",Final Committee Draft ,Document JVT-E022 ,September 2002. H. Kimata and M. Kitahara ,"Preliminary results on multiple view video coding(3DAV) ",document M10976 MPEG Redmond Meeting,July,2004. M. I. Fanany,and I. Kumazawa ,"A neural network for recovering 3D shape from erroneous and few depth maps of shaded images ",Pattern Recogn. Lett. ,vol.25,no.4,pp.377-389,Mar. 2004. Shinya Shimizu,Masaki Kitahara ,Hideaki Kimata,Kazuto Kamikura and Yoshiyuki Yashima ."View Scalable Multiview Video Coding using 3-D Warping with Depth Map ",IEEE Transactions on Circuits and Systems for Video Technology,Vol.17,No.11 ,pp.1485-1495,2007.
被写体は実空間上で連続であるため高い空間相関をもち,瞬間的に移動することが不可能であるため高い時間相関を持つ。したがって,空間相関と時間相関とを利用する既存の映像符号化方式を用いることで,グレースケール画像として表した距離情報を効率的に符号化することが可能である。
また,カメラ間相関を利用する既存の多視点映像符号化方式を用いることで,グレースケール画像群として表した多視点距離情報を効率的に符号化することが可能である。
しかしながら,カメラによって被写体の絶対位置は変化しないため,各カメラの距離情報を符号化する既存の手法を用いた場合,精度良く予測が行えたとしても,本質的には同じ意味を表す情報を重複して符号化していることになり,効率的な多視点距離情報の符号化を実現することができない。
与えられた多視点距離情報から撮影した被写体の三次元モデルを構築して,その三次元モデルを符号化することで,同じ被写体上の点の位置を示す情報を複数回符号化するのを回避することが可能である。多視点距離情報から三次元モデルを構築する手法としては,非特許文献7に記載されている方法がある。この方法を用いれば,本質的に同じ意味を持つ情報を重複して符号化しなくてもよい。しかしながら,この方法では,各視点で独立していた多視点距離情報を,1箇所にまとめて独立性を排除して処理を行う。そして,1つの高品質な三次元モデルを構築するためにはグローバルな最適化問題を繰り返し演算などによって解く必要がある。このため,非常に多くの並列化できない演算が必要となってしまうという問題がある。
さらに,三次元モデルを用いることで同じ情報が重複することはなくなるが,一般的な三次元モデル表現である三次元メッシュモデルでは,静的シーンであってもメッシュの各頂点の三次元座標とそれら頂点の連結情報を符号化しなければならない。これにより効率的な符号化を実現できない。動的シーンでは,さらにフレームごとに変化するメッシュ情報である動的3次元メッシュモデルを符号化する必要が生じ,グレースケール映像で表される動的距離情報よりも効率的な符号化が困難である。
本発明は係る事情に鑑みてなされたものであって,多視点距離情報をいくつかの代表視点における広範囲距離情報に統合することで,効率的な多視点距離情報符号化を並列演算可能な手法で実現することを目的とする。
前述の課題を解決するために,本発明では多視点距離情報を符号化するに当たり,1つまたは複数の代表視点カメラを定め,符号化対象の多視点距離情報から代表視点カメラに対する広範囲距離情報を生成し,その代表視点カメラごとに得られる広範囲距離情報を符号化することで,効率的な多視点距離情報符号化を実現する。
多視点距離情報から広範囲距離情報を生成する処理は,次の3段階の処理によって構成される。
(1)まず,入力された多視点距離情報を構成する各距離情報から,それに対するカメラ情報を用いて被写体上の三次元点を復元する。
(2)次に,復元された各三次元点が代表視点カメラによって撮影される投影面上の位置を同定し,その位置に対して代表視点カメラからその三次元点までの距離を割り当てる。
(3)最後に,代表視点カメラの投影面上の位置ごとに複数得られた距離から1つの距離を選択する。
つまり,広域距離情報の生成処理は,入力視点カメラによってサンプリングされた点を逆投影して求める処理と,求められた点を代表視点カメラに対して再投影する処理とを用いて構成される。これらの処理は物理現象を利用しているため,カメラによる射影変換を十分にモデル化することが可能であれば非常に高い精度で代表視点カメラに対する広範囲距離情報を構築することができる。
このような処理により多視点距離情報を広範囲距離情報へと変換することによって,入力視点カメラごとに与えられた同じ被写体に対する距離情報が,代表視点カメラにおいては1つの距離情報となるため,本発明によって同じ被写体に対する距離情報は設定した代表視点カメラの個数だけ符号化すればよくなる。つまり,多視点距離情報を構成する入力視点カメラの個数と同じ回数も三次元位置を表す距離情報を符号化するのを避けることができるため,効率的な符号化が可能となる。
さらに,多視点距離情報のまま符号化する場合には,撮影空間が複数に分割されるため,その分割された空間をまたぐような相関を利用して符号化することができない。一方,広範囲距離情報に変換して符号化する場合,三次元モデルのように効率的な符号化が困難な表現ではないだけでなく,被写体位置の空間相関や時間相関をシーン全体で利用できるようになるため,この点に関しても本発明が効率的な符号化を実現できると言える。
なお,たとえ広範囲距離情報を生成する場合であっても,常に1つの代表視点カメラしか用いない場合には,オクルージョンが発生する部分の距離情報を表現することができない。しかしながら,本発明において,複数の代表視点カメラを設定した場合には,オクルージョンが発生する部分の距離情報を表現することができる。
多視点距離情報には同じ被写体上の点に対する距離が複数含まれているため,広範囲距離情報を生成する過程で,復元した三次元点を代表視点カメラへ再投影すると,同じ位置に対して複数の三次元点が投影される。このとき,各三次元点は必ずしも同じ距離を与えるとは限らない。この距離の揺らぎはサンプリング間隔の違いによる影響,投影処理の精度,ノイズの影響によるものであるため,カメラ投影面上の注目位置を含む予め定められた領域に対して与えられた距離のうち,最も多く現れている距離や中央値,平均値を選択することで,多視点距離情報の測定ノイズを低減し,高品質な広範囲距離情報の生成が可能となる。
また,あるカメラに対して手前に存在する被写体が存在する場合,その被写体よりも遠くに存在する被写体を同じカメラから観測することができない。そのため,カメラ投影面上の注目位置を含む予め定められた領域に対して与えられた距離のうち,最も基準としているカメラに近いことを示す距離を選択することで,物理現象に合致した広範囲距離情報を生成することが可能となる。なお,常に最も近いことを示す距離を選ぶのではなく,明らかに遠方に存在する距離のみを取り除いて平均値などを取ることによって,よりノイズにロバストに高品質な広範囲距離情報を生成することも可能となる。
高品質な広範囲距離情報を生成することは,本質的には無駄な情報である測定誤差に対して符号を浪費することがなくなるため,これらの処理によってさらに効率的な多視点距離情報の符号化が実現できるといえる。
復号装置では,以上のようにして生成され符号化された広範囲距離情報を復号し,その広範囲距離情報によって表される各代表視点カメラを基準とした距離情報から,各画素に撮影された被写体上の三次元点を復元し,復号対象の多視点距離情報を構成する距離情報が基準としている復号対象視点カメラごとに,被写体上の各三次元点に対して,その点が復号対象視点カメラによって撮影される際の投影面上での位置と,その復号対象視点カメラから被写体上の点までの距離とを計算することにより,復号対象視点カメラを基準とした距離情報を生成することができる。ここで,復号対象視点カメラを基準とした距離情報とは,目的とする視点位置におけるカメラで撮影された画像の各画素に対して,その画像を撮影したカメラからその画素に写っている被写体までの距離を表す情報である。
本発明における広範囲距離情報の生成処理は,前述の通り,距離情報を用いた逆投影処理,復元された三次元点の再投影処理,複数の候補から1つの値を決定する処理で構成される。逆投影処理および再投影処理は射影変換を用いた処理であり,各カメラで独立した処理であるため,高速な並列演算によって処理することが可能である。また,最後の複数の候補から1つの値を決定する処理は,入力された多視点距離情報に含まれるノイズ成分を除去するために行われる処理であるため,フィルタ演算などの軽量な処理によって構成することができる。
復号時においても,各代表視点カメラに対する処理,または復号対象視点カメラに対する処理を並列に実行することができ,高速演算が可能である。
以上のように,本発明では,同じ意味を持つ距離情報を多数重複して符号化しないために,入力された多視点距離情報を小数の代表視点カメラに対する広範囲距離情報へと変換して符号化を行う。この広範囲距離情報は多視点距離情報を視点ごとに独立させたまま処理できるため,符号量削減と並列演算処理とを両立することが可能となる。
ある代表視点における広範囲距離情報を符号化する際には,既に符号化済みの別の代表視点における広範囲距離情報から,符号化対象の代表視点の広域距離情報を予測し,その差分のみを符号化することで,さらに効率的な符号化を実現することが可能である。
これは異なる視点であっても,オクルージョンが発生している領域以外においては同じ距離情報を持つため,予測した差分には符号化や測定ノイズに起因する値という小さな値のみが残されることになり,相対的に符号化すべき信号が小さくなることから,効率的な符号化が実現できるといえる。
本発明によれば,視点数が非常に多い場合においても,符号化対象の多視点距離情報から撮影シーンを包含する視野角の広い広範囲距離情報を生成することで,同じ意味を持つ距離情報が多数重複して符号化するのを回避した効率的な多視点距離情報符号化を並列演算可能な手法で実現することが可能となる。
以下,本発明を実施の形態に従って詳細に説明する。なお,以下の説明では,あるカメラに対する距離情報はグレースケール画像として表されるものとする。
〔多視点距離情報符号化装置〕
まず,本発明の実施の形態に係る多視点距離情報符号化装置について説明する。図1に,多視点距離情報符号化装置の構成例を示す。
図1に示すように,多視点距離情報符号化装置100は,符号化対象となる距離情報入力部101と,入力された多視点距離情報を格納する距離情報メモリ102と,符号化対象の多視点距離情報が対象としているカメラ群のカメラパラメータ等を入力するカメラ情報入力部103と,入力された多視点カメラ情報を格納するカメラ情報メモリ104と,広範囲距離情報が基準とするカメラを決定する代表視点設定部105と,入力された各カメラに対する距離情報を代表視点に対する距離情報へと変換する距離情報変換部106と,変換された距離情報群を蓄積する変換距離情報メモリ107と,変換距離情報を用いて代表視点における広範囲距離情報を生成する広範囲距離情報生成部108と,生成された広範囲距離情報群を蓄積する広範囲距離情報メモリ109と,広範囲距離情報を予測符号化する広範囲距離情報符号化部110と,代表視点群のカメラ情報を符号化する代表視点情報符号化部111とを備える。
距離情報変換部106は,距離情報メモリ102に格納された各カメラを基準とした距離情報から,各画素に撮影された被写体上の点の三次元座標を計算する三次元点復元部1061と,三次元点復元部1061で得られた三次元座標値を持つ被写体上の各点に対して,その点が代表視点カメラによって撮影される際の投影面上での位置と,そのカメラから被写体上の点までの距離を計算する三次元点再投影部1062とを備える。
図2に,このようにして構成される多視点距離情報符号化装置100の実行する処理フローを示す。この処理フローに従って,図1に示す多視点距離情報符号化装置100が実行する処理について詳細に説明する。
まず,距離情報入力部101より,符号化対象となる多視点距離情報が入力され,距離情報メモリ102に格納される[A1]。以下では符号化対象となる多視点距離情報の各視点の距離情報を,インデックスviewを用いてDviewと表す。なお,各距離情報に記号[]で挟まれた位置を特定可能な情報(座標値もしくは座標値に対応付け可能なインデックス)を付加することで,その視点において特定の画素によってサンプリングされた距離情報を示すものとする。
次に,多視点距離情報が基準としている各カメラのカメラパラメータ等の情報がカメラ情報入力部103より入力され,カメラ情報メモリ104に格納される[A2]。以下では,Dviewが基準としているカメラの内部パラメータ行列をAview,回転行列をRview,並進ベクトルをtviewで表す。カメラパラメータの表現法には様々なものがあるため,以下で用いる数式は,カメラパラメータの定義に従って変更する必要がある。
なお,本実施例では,画像座標mと世界座標Mの対応関係が,次の式で得られるカメラパラメータ表現を用いているものとする。
Figure 0004964827
A,R,tは,それぞれカメラの内部パラメータ行列,回転行列,並進ベクトルを表し,チルダ記号は任意スカラ倍を許した斉次座標を表す。AとRは3×3の行列であり,tは三次元ベクトルである。
本実施例では,各時刻・各カメラの距離情報は,グレースケール画像として与えられるものとする。そのグレースケール画像の解像度やカメラから被写体までの距離を画素値に対応付ける際に必要な情報も,処理A2で入力されるカメラ情報に含まれるものとする。例えば,対応付けを行う方法によって必要な情報が変化するが,ルックアップテーブル(Look up table )や,最小値MinDview・最大値MaxDview・ステップ数StepDviewなどが距離と画素値の対応付けに必要な情報となる。後者の場合,距離dを量子化するための計算式Sview(d)は,距離の値そのものを一様量子化する場合には(式1)で表すことができ,距離の逆数を一様量子化する場合には(式2)で表すことができる。
Figure 0004964827
符号化対象の多視点距離情報に関する入力が終了した後,代表視点設定部105において,広範囲距離情報を生成する基準となる代表視点カメラの集合REPを決定し[A3],そのカメラ情報を代表視点情報符号化部111で符号化する[A4]。代表視点カメラとして,予め定められたカメラ群を用いても構わないし,外部から与えても構わないし,入力された多視点距離情報やカメラ情報を用いて適切なカメラ群を決定しても構わない。ただし,多視点距離情報によって表されるシーンのほぼ全てをREPに対する広範囲距離情報がカバーできる必要がある。
例えば,撮影シーンが平面やほぼ無限遠に存在する風景を撮影したものであるならば,REPは多視点距離情報の基準となっている多視点カメラのうち任意の1つのカメラ位置で,その視野角をシーン全体をカバーするように拡大したものとなる。また,何らかの単純な物体がある場合には,入力多視点カメラが1次元配列の場合には,基本的に入力多視点カメラのうち両端に存在するカメラと同じ位置で,その視野角が広いものとすることができる。入力情報に応じて自動的にREPを選択する手法の一例は後で詳しく述べる。
なお,シーンに応じて最小の要素数となるREPを選択したほうが符号化効率は高まるが,入力多視点カメラの個数から数を十分に減らすことが可能であれば,符号化対象となる信号の量を減らすことができるため,最小でなくても効率的な多視点距離情報の符号化を実現することが可能である。例えば,両端のみだけではなく,さらに中心のカメラ位置も代表視点カメラに含めても十分効率的な符号化を実現可能である。
本実施例では,入力された多視点距離情報に対して毎回代表視点カメラ群を決定することになっているが,時間的に連続したシーンに対する複数の多視点距離情報を符号化する場合には,前回決定された代表視点カメラ群を繰り返し用いることで,代表視点カメラ群の決定処理および代表視点カメラ情報の符号化処理を省略することが可能である。
代表視点カメラが決定したならば,入力された多視点距離情報から各代表視点カメラにおける広範囲距離情報を生成し符号化する[A5−A14]。つまり,REPに含まれる代表視点カメラを識別するインデックスをrepとし,REPの要素数をnumRepsとすると,repを0に初期化した後[A5],repに1を加算しながら[A13],repがnumRepsになるまで[A14],以下の処理[A6−A12]を繰り返す。
代表視点カメラごとに行われる処理では,まず,広範囲距離情報の生成が行われ[A6−A11],その後,生成された広範囲距離情報の符号化が行われる[A12]。
広範囲距離情報の生成処理は,入力視点カメラごとに与えられた距離情報から被写体の三次元点を復元し,その三次元点を代表視点カメラに対して再投影することで,代表視点カメラに対する変換距離情報を生成するステップ[A6−A10]と,得られた複数の変換距離情報を用いて1つの距離情報を生成するステップ[A11]とからなる。
入力視点カメラごとに代表視点,カメラに対する変換距離情報を生成する処理は,入力された多視点距離情報を構成する入力視点カメラを表すインデックスをview,入力された多視点距離情報を構成する視点数をnumViewsとすると,viewを0に初期化した後[A6],viewに1を加算しながら[A9],viewがnumViewsになるまで[A10],距離情報変換部106内の三次元点復元部1061でviewに対応する距離情報Dviewから被写体上の三次元点群を復元し[A7],距離情報変換部106内の三次元点再投影部1062で復元された三次元点群を代表視点カメラrepに対して再投影することで,変換距離情報D′rep,viewを生成する[A8]。生成された変換距離情報は,変換距離情報メモリ107に格納される。三次元点復元部1061および三次元点再投影部1062で行われる処理の詳細は後で記述する。
入力された全ての距離情報から代表視点カメラrepに対する変換距離情報が得られたなら,広範囲距離情報生成部108において,それらを用いて1つの代表視点カメラrepに対する広範囲距離情報LDrep を生成し,広範囲距離情報メモリ109に格納する[A11]。ここでの統合処理には様々な方法を用いることができるが,例えば同じ画素位置に対して与えられた変換距離情報の平均値や中央値を,その画素位置における広範囲距離情報とする方法がある。数式を用いるならば,次の(式3)や(式4)で表される。
Figure 0004964827
また,広範囲距離情報の全ての画素位置に対して,入力された多視点距離情報を構成する距離情報が対応関係を持つとは限らない。そのような画素位置においては,変換距離情報に意味のない値が格納されていると考えられる。したがって,そのような意味のない値を用いて広範囲距離情報を生成するのを避けるために,同じ画素位置に対して与えられた変換距離情報のうち,有効範囲内の変換距離情報に対する平均値や中央値を,その画素位置における広範囲距離情報とすることで,より正確な広範囲距離情報を生成することが可能である。
平均値や中央値を用いるのではなく,同じ画素位置に対して与えられた変換距離情報のうち,最も代表視点カメラに近いことを示す距離情報を,その画素位置における広範囲距離情報とする方法もある。これは視点が固定されている場合,何らかの物体が手前にある場合,その後ろに存在する物体を観察することができないという事実を利用するため,より正しい広範囲距離情報を得ることができる。なお,常に最も近いことを表す距離情報を用いる場合,入力された多視点距離情報がノイズの影響を受けて誤った値を選択してしまう可能性がある。そのため,同じ画素位置に対して与えられた変換距離情報のうち,最も近いことを表す距離情報を含む一定範囲内の距離を示すもの,もしくは,代表視点に近いものから順に予め定められた複数個の平均値や中央値を用いることで,より信頼度の高い広範囲距離情報を生成することが可能となる。
なお,ここでの説明では全ての入力視点カメラviewからの変換距離情報を同等に扱ったが,変換前と変換後のカメラ位置や向きが近いほど,より正確な距離情報を持っていると考えることができるため,距離情報を求める際に,変換前と変換後のカメラ位置や向きの類似度にもとづいて重み付け平均値を用いることで,より精度を高めることも可能である。
生成された広範囲距離情報は,その後,広範囲距離情報符号化部110で符号化される[A12]。ここでの符号化はどのような手法を用いても構わない。例えば,前述の通り距離情報はグレースケール画像とみなすことが可能であるため,JPEGやJPEG2000といった画像符号化手法を用いて効率的に符号化することが可能であるし,時間的に複数のフレームを符号化するのであれば,MPEG−2やH.264/AVCなどの動画像符号化方式を用いることで効率的に符号化することができる。また,代表視点カメラが複数存在する場合,非特許文献8に記載されているような多視点画像符号化手法や多視点映像符号化手法を用いて符号化を行うことで,全体として効率的な符号化を実現することができる。
本実施例では,代表視点カメラごとに広範囲距離情報を生成して符号化しているが,先に全ての代表視点カメラに対する広範囲距離情報を生成してから符号化を行っても構わない。また,変換距離情報の生成も代表視点カメラごとに行っているが,まとめて先に変換を行っても構わない。
また,本実施例では,三次元点の復元処理が代表視点カメラごとに繰り返される。しかしながら,三次元点の復元処理は入力視点カメラのみに依存して,代表視点カメラに依存しない処理である。そのため,一度計算された三次元点を蓄積することによって,代表視点カメラが異なる場合であっても入力視点カメラが同じ場合に,蓄積されている三次元点を利用することで,三次元点の復元処理[A7]を省略することが可能である。
図3に,処理A7で行われる距離情報から被写体上の三次元点群を復元する処理の詳細フローを示す。ここでは,入力視点カメラviewに対する距離情報Dviewを用いて,被写体上の三次元点群を復元する処理を例にとって説明する。
ここでの処理は,距離情報の画素ごとに行われる。つまり,距離情報の画素インデックスをpix,画素数をnumPixsで表すと,pixを0で初期化した後[B1],pixに1を加算しながら[B3],pixがnumPixsになるまで[B4],次の(式5)で表されるpixにおける距離の値を用いた入力視点カメラviewに対する逆投影処理が実行される[B2]。
Figure 0004964827
なお,gpix がpixに対する復元された三次元点の座標を表し,(upix ,vpix )はpixに対する入力された距離情報のグレースケール画像上での位置を表す。
図4に,処理A8で行われる三次元点群を代表視点カメラに対して再投影することで変換距離情報を生成する処理の詳細フローを示す。ここでは,入力視点カメラviewの距離情報から復元された三次元点集合{gpix }を代表視点カメラrepに対して再投影することで変換距離情報D′rep,viewを生成する処理を例にとって説明する。
まず,D′rep,viewの初期化が行われる[C1]。この初期化では全ての画素に対する値として,最もカメラから遠いことを示す値を代入する。そして三次元点ごとに再投影処理を実行し,得られた画素位置に代表視点repからその三次元点までの距離を代入していく。
三次元点は入力視点カメラviewに対する距離情報と同じ数だけ存在するため,pixを0で初期化した後[C2],pixに1を加算しながら[C6],pixがnumPixsになるまで[C7],次の処理を繰り返す[C3−C5]。
三次元点ごとに繰り返される処理では,まず,次の(式6)に従って三次元点gpix の投影処理が行われる[C3]。すなわち,三次元点gpix を代表視点カメラrepに対して投影することで,代表視点カメラrepの投影面に投影される位置posと,三次元点gpix と代表視点カメラrepとの距離dとを計算する。(式6)において,(xpix ,ypix ,zpix )は,gpix が投影される代表視点カメラrepの投影面上の画素位置の斉次座標を表し,zpix が代表視点カメラrepからgpix までの距離dを表す。
Figure 0004964827
次に,三次元座標が代表視点repの示すカメラに対して投影されると考えたときに,その被写体がサンプリングされる座標位置(xpix /zpix ,ypix /zpix )において,既に得られていた距離と現在の処理で得られた距離dとを比較する[C4]。具体的には(式7)で示す比較が行われる。
Figure 0004964827
比較の結果,既に得られていた距離のほうがカメラに近い距離を表していれば,その三次元点に対する処理を終了し,次の画素に対して処理を行う。一方,比較の結果,新たに得られた距離dのほうがカメラに近い距離を表していれば,次の(式8)に従って量子化処理を行い,処理中の三次元点が代表視点カメラrepの示すカメラに投影される位置(xpix /zpix ,ypix /zpix )の距離情報を更新する[C5]。
Figure 0004964827
なお,図4の変換処理では,処理C5で量子化処理が行われ,その値を処理C4で逆量子化する可能性がある。演算量の削減のために,別途画素位置ごとに距離バッファを定義し,処理C5では,量子化を行わずに距離の値をそのまま距離バッファに蓄積し,処理C4では,逆量子化を行わずに距離バッファに蓄えられた距離の値を用いて比較しても構わない。その場合,処理C1では無限遠方を示す距離の値で初期化し,処理C7の比較が成立しなかった後で,距離バッファに蓄えられた距離の値を量子化して変換後の距離情報を生成する。
本実施例では,与えられた距離情報から三次元点群を復元する処理と,三次元点群を代表視点カメラに対して再投影することで変換距離情報を生成する処理とを分離して行った。どちらの処理も入力視点カメラの距離情報ごとに繰り返される処理を持つため,図5で示されるフローに従って連結して行うこともできる。
なお,本フローではカメラ位置が変化しないにも関わらず逆投影と再投影とを行うことで,無駄な演算がされるのを防ぐために,カメラパラメータのチェックを行っている[D2]。ただし,カメラパラメータが同一であっても量子化手法に違いが存在する場合,異なる距離情報となるため,量子化手法を考慮した距離情報の複写を行う[D4]。この処理は,具体的には次の(式9)で表される。
Figure 0004964827
図5における処理D8は,図3に示す処理B2の逆投影処理に対応し,図5における処理D9,D10,D11は,図4に示す処理C3,C4,C5の再投影処理に対応している。
図6は,入力された多視点カメラ情報および多視点距離情報に応じて代表視点カメラ群REPを決定する手法の一例を示した処理フローである。この処理は,図2に示す処理A3において,代表視点カメラ群を自動的に選択する場合に行う処理である。
まず,REPの初期化が行われる[E1]。具体的には,入力された多視点カメラ群の中で,端に位置するカメラと同じ位置で撮影シーン全体を包含する視野角を持ったカメラを初期集合とする。多視点カメラの配置が1次元であれば,両端に位置するカメラと同じ位置のものを含め,2次元であれば対角線上に存在する両端のカメラと同じ位置のものを含める。
次に,定められたREPに対して実際に広範囲距離情報を生成し[E2],その広範囲距離情報群から多視点距離情報を復元し[E3],その復元率を調べる[E4]。なお,復元率は入力視点ごとに計算され,入力距離情報に対する復元された距離情報が得られた領域の比率で表すことができる。
広範囲距離情報を生成する処理は,上述の実施例の処理[A5−A14]の処理と同じである。なお,処理A12の符号化処理は必ずしも行う必要はない。広範囲距離情報群から多視点距離情報を復元する処理は,後に述べる図8に示す実施例の処理[F5−F13]と同じである。
そして,計算された復元率が全ての視点において予め定められた閾値を超えているかどうかをチェックする[E5]。もし閾値を超えていれば,そのときのREPを代表視点カメラ集合とし,そうでなければ,最も復元率が低かった視点と同じ位置で撮影シーン全体を包含する視野角を持ったカメラをREPに追加して,処理[E2−E5]を同様に繰り返す。
〔多視点距離情報復号装置〕
次に,本発明の実施の形態に係る多視点復号装置について説明する。図7に,多視点距離情報復号装置の構成例を示す。
図7に示すように,多視点距離情報復号装置200は,復号対象の多視点距離情報を復号するのに必要となる広範囲距離情報の符号化データを入力する広範囲距離情報符号化データ入力部201と,入力された広範囲距離情報符号化データを復号する広範囲距離情報復号部202と,復号された広範囲距離情報群を蓄積する広範囲距離情報メモリ203と,広範囲距離情報が基準としている代表視点カメラのカメラ情報の符号化データを入力する代表視点情報符号化データ入力部204と,代表視点情報の符号化データを復号する代表視点情報復号部205と,代表視点情報を用いて広範囲距離情報から多視点距離情報を生成する多視点距離情報生成部206とを備える。
多視点距離情報生成部206は,広範囲距離情報メモリ203に蓄積された広範囲距離情報群によって表される各カメラを基準とした距離情報から,各画素に撮影された被写体上の三次元座標を計算する三次元点復元部2061と,復号対象の多視点距離情報を構成する距離情報が基準としている復号対象視点カメラごとに,三次元点復元部2061によって得られた三次元座標値を持つ被写体上の各点に対して,その点が復号対象視点カメラによって撮影される際の投影面上での位置と,その復号対象視点カメラから被写体上の点までの距離を計算し,その位置と距離とを対応付けて蓄積する三次元点再投影部2062と,復号対象視点カメラおよびその復号対象視点カメラの投影面上の位置ごとに,三次元点再投影部2062によって得られた同じ位置を持つ距離の値を用いて,その位置におけるその復号対象視点カメラを基準とした距離情報を生成する距離情報生成部2063とを備える。
図8に,このようにして構成される多視点距離情報復号装置200が実行する処理フローを示す。この処理フローに従って,本実施例の多視点距離情報復号装置200が実行する処理について詳細に説明する。
まず,代表視点情報符号化データ入力部204より,符号化データに含まれる広範囲距離情報群が基準としている代表視点カメラ群を表す情報の符号化データが入力され[F1],代表視点情報復号部205において,代表視点カメラ群DecREPを復号する[F2]。
なお,予め定められた代表視点カメラ群を用いる場合には,代表視点情報符号化データ入力部204と代表視点情報復号部205を備える必要はなく,処理F1およびF2を削除することができる。その場合,以下の説明では,DecREPには予め定められた代表視点カメラ群の情報が格納されているとする。
また,時間的に連続な多視点距離情報を復号するような場合,毎回代表視点の変更が行われるとは限らない。そのような場合,新しい代表視点情報符号化データが送られてきたときのみ,処理F1およびF2を実行し,送られてこなかった場合には,直前に用いたDecREPをそのまま用いる。
ここでのカメラを示す情報とは,カメラの内部パラメータ行列Ar ,回転行列Rr ,並進ベクトルtr だけでなく,解像度や距離を画素値に対応付けるのに必要な情報も含まれる。以下では,距離dを画素値に対応付ける関数をSr (d)と表す。なお,rは広範囲距離情報を識別するためのインデックスであり,0からnumDReps−1までの値である。numDRepsはDecREPの要素数を表す。
次に,広範囲距離情報符号化データ入力部201より,DecREPの各代表視点カメラを基準とした広範囲距離情報の符号化データが入力され[F3],広範囲距離情報復号部202において広範囲距離情報群{DecLDr }を復号し,広範囲距離情報メモリ203に格納する[F4]。
ここでの復号方法は入力された符号化データを生成する際に用いられた符号化手法に対する復号手法であれば,どのような手法を用いても構わない。例えば,MPEG−2やH.264/AVCなどの動画像符号化の国際標準方式に準拠した方式で符号化されている場合,MPEG−2やH.264/AVCに準拠した復号方式を用いることとなる。
広範囲距離情報の復号が終了したなら,多視点距離情報生成部206にて,復号対象の多視点距離情報を構成する視点カメラごとに距離情報を生成して出力する。つまり,復号対象視点インデックスをv,復号対象視点数をnumDViewsとすると,vを0に初期化した後[F5],vに1を加算しながら[F12],vがnumDViewsになるまで[F13],以下の処理[F6−F11]を繰り返す。
1つの復号対象視点の距離情報を生成する処理は,代表視点カメラごとに与えられた広範囲距離情報から被写体の三次元点を復元し,その三次元点を復号対象視点カメラに対して再投影することで,復号対象視点カメラに対する変換距離情報を生成するステップ[F6−F10]と,得られた複数の変換距離情報を用いて1つの距離情報を生成するステップ[F11]とからなる。
代表視点カメラごとに入力視点カメラに対する変換距離情報を生成する処理は,代表視点カメラインデックスrを0に初期化した後[F6],rに1を加算しながら[F9],rがnumDRepsになるまで[F10],多視点距離情報生成部206内の三次元点復元部2061で代表視点カメラrepに対する広範囲距離情報DecLDr から被写体上の三次元点群を復元し[F7],多視点距離情報生成部206内の三次元点再投影部2062で,復元された三次元点群を復号対象視点カメラvに対して再投影することで変換距離情報DecD′v,r を生成する[F8]。ここで行われる処理は,前述の図3および図4を用いて説明を行った処理と同じである。ただし,D′をDecD′に,入力視点カメラviewを代表視点カメラrに,代表視点カメラrepを復号対象視点カメラvに,それぞれ読み替える必要がある。
得られた複数の変換距離情報群{DecD′v,r r を用いて復号対象視点カメラvに対する復号距離情報DecDv を生成する処理F11は,図2で説明した処理A11の処理と同じである。例えば,同じ画素位置に対して与えられた距離情報の平均値や中央値,もしくは同じ画素位置に対して与えられた距離情報のうち最もカメラに近いことを示す値を,その画素位置における復号距離情報の値とする方法などがある。なお,符号化装置における処理A11の処理とこの処理F11の処理を必ずしも一致させる必要はない。
以上説明した処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。
また,以上の実施の形態では多視点距離情報符号化装置および多視点距離情報復号装置を中心に説明したが,これらの装置の各部の動作に対応したステップによって本発明の多視点距離情報符号化方法および多視点距離情報復号方法を実現することができる。
以上の実施の形態による作用・効果について説明する。
(1)多視点距離情報の符号量削減
多視点距離情報の符号量が削減される理由は,同じ被写体上の点を示す距離情報を符号化する回数が削減されるからである。これは,例えば図2の処理A3,A8,A11の作用による。図2の処理A3によって代表視点群,すなわち代表視点カメラの集合を決定する際に,入力視点数よりも少ない数の代表視点カメラを設定する。これにより,同じ位置を示す情報は最大でも代表視点カメラの個数だけの符号化で済むことになる。
また,図2の処理A8によって,入力された多視点距離情報から復元した被写体の三次元点群(図2の処理A7で生成される)を代表視点カメラの投影面に対して投影し,同じ被写体上の点は同じ位置の距離情報としてサンプリングされる。図2の処理A11においては,同じ位置でサンプリングされた複数の距離情報から1つの距離情報を生成する。これらの作用によって,多視点距離情報の符号量が削減されることになる。
(2)並列演算可能性向上
各処理がカメラに独立した幾何変換処理またはフィルタ処理で構成可能であることから,並列演算可能性が向上する。これは,例えば図2の処理A8,A11の作用による。図2の処理A8の作用として,同じ被写体上の点を同定する処理が各入力視点カメラで並列演算できることが挙げられる。ここでの処理は幾何変換処理である。また,図2の処理A11の作用として,ある被写体に対して1つの距離情報を決定する処理が各代表視点カメラで並列演算できることが挙げられる。ここでの処理はフィルタ演算で実現できる。
一方,図9に示したような従来手法における処理X6は,並列化不可能である。
(3)符号化効率向上と並列演算可能性向上の両立
この本実施の形態による効果について,2つの従来手法(三次元モデルを使用する場合と使用しない場合)と比較して説明する。
〔三次元モデルを使用する場合の従来手法〕
この場合には,同じ被写体上の点を示す距離情報を複数符号化しなくてよい。したがって,符号量の削減は可能である。しかし,入力された多視点距離情報をグローバルに扱うため,並列処理は不可能である。
〔三次元モデルを使用しない場合の従来手法〕
この場合には,入力された多視点距離情報を視点ごとに扱うため,並列処理が可能である。しかし,同じ被写体上の点を示す距離情報を複数回符号化する。したがって,符号量削減は不可能である。
〔本発明の実施の形態の場合〕
本発明の実施の形態では,同じ被写体上の点を示す距離情報を複数符号化しなくてよい。したがって,符号量の削減が可能である。さらに,広範囲距離情報はローカルに距離情報を取り扱って生成される。したがって,並列処理が可能になっている。
以上,図面を参照して本発明の実施の形態を説明してきたが,上記実施の形態は本発明の例示に過ぎず,本発明が上記実施の形態に限定されるものでないことは明らかである。したがって,本発明の精神および範囲を逸脱しない範囲で構成要素の追加,省略,置換,その他の変更を行っても良い。
本発明に係る多視点距離情報符号化装置の構成例を示す図である。 多視点距離情報符号化フローチャートである。 距離情報から被写体上の三次元点を復元する処理の詳細フローチャートである。 復元された被写体上の三次元点を再投影することによって定められたカメラにおける距離情報を生成する処理の詳細フローチャートである。 距離情報の変換処理(被写体上の三次元座標復元・復元された三次元点の再投影)の詳細フローチャートである。 代表視点集合REPを決定する手法の一例を示した処理フローチャートである。 本発明に係る多視点距離情報復号装置の構成例を示す図である。 多視点距離情報復号フローチャートである。 三次元モデルを生成する従来手法を示すフローチャートである。
符号の説明
100 多視点距離情報符号化装置
101 距離情報入力部
102 距離情報メモリ
103 カメラ情報入力部
104 カメラ情報メモリ
105 代表視点設定部
106 距離情報変換部
1061 三次元点復元部
1062 三次元点再投影部
107 変換距離情報メモリ
108 広範囲距離情報生成部
109 広範囲距離情報メモリ
110 広範囲距離情報符号化部
111 代表視点情報符号化部
200 多視点距離情報復号装置
201 広範囲距離情報符号化データ入力部
202 広範囲距離情報復号部
203 広範囲距離情報メモリ
204 代表視点情報符号化データ入力部
205 代表視点情報復号部
206 多視点距離情報生成部
2061 三次元点復元部
2062 三次元点再投影部
2063 距離情報生成部

Claims (24)

  1. 多視点カメラによって撮影された各画像の各画素に対して,カメラからその画素に写っている被写体までの距離を表した距離情報の集合によって表される多視点距離情報を符号化する多視点距離情報符号化方法において,
    前記多視点距離情報を構成する各カメラを基準とした距離情報から,各画素に撮影された被写体上の点の三次元座標を計算する三次元座標復元ステップと,
    前記三次元座標復元ステップで得られた三次元座標値を持つ被写体上の各点に対して,その点が予め定められたカメラによって撮影される際の投影面上での位置と,そのカメラから被写体上の点までの距離を計算する三次元座標再投影ステップと,
    前記予め定められたカメラの投影面上の位置ごとに,前記三次元座標再投影ステップによって同じ位置が得られた1つまたは複数の被写体上の点の持つ距離の値を用いて,その位置における前記予め定められたカメラに対する距離情報を生成する広範囲距離情報生成ステップと,
    前記広範囲距離情報生成ステップで生成された距離情報を符号化する広範囲距離情報符号化ステップと,
    を有することを特徴とする多視点距離情報符号化方法。
  2. 請求項1に記載の多視点距離情報符号化方法において,
    撮影を行った多視点カメラの中のいずれかのカメラと同じ位置および向きで,撮影シーンの全背景を視野角内に含む代表視点カメラを,前記予め定められたカメラとして1つまたは複数設定する代表視点カメラ設定ステップと,
    前記代表視点カメラ設定ステップで設定された代表視点カメラの情報を符号化する代表視点カメラ情報符号化ステップと,を有し,
    前記三次元座標再投影ステップでは,前記代表視点カメラ設定ステップで設定された代表視点カメラごとに,前記三次元座標復元ステップで得られた三次元座標値を持つ被写体上の各点に対して,その点が投影される位置と,そのカメラから被写体上の点までの距離とを計算し,
    前記広範囲距離情報生成ステップでは,前記代表視点カメラ設定ステップで設定された代表視点カメラごとに,そのカメラに対する距離情報を生成すること
    を特徴とする多視点距離情報符号化方法。
  3. 請求項1または請求項2に記載の多視点距離情報符号化方法において,
    前記三次元座標復元ステップを,前記多視点距離情報を構成する各カメラごとに並列に実行すること
    を特徴とする多視点距離情報符号化方法。
  4. 請求項1,請求項2または請求項3に記載の多視点距離情報符号化方法において,
    前記予め定められたカメラが複数ある場合に,前記三次元座標再投影ステップおよび前記広範囲距離情報符号化ステップの少なくともいずれかを,前記予め定められたカメラごとに並列に実行すること
    を特徴とする多視点距離情報符号化方法。
  5. 請求項1から請求項4までのいずれか1項に記載の多視点距離情報符号化方法において,
    前記広範囲距離情報生成ステップでは,ある位置に対して複数の被写体上の点が得られた場合,それらの点の持つ距離の値の平均値,または,それらの点の持つ距離の値の中央値,または,それらの点の持つ距離の値の中で最も多く存在する値を,その位置における広範囲距離情報とすること
    を特徴とする多視点距離情報符号化方法。
  6. 請求項1から請求項4までのいずれか1項に記載の多視点距離情報符号化方法において,
    前記広範囲距離情報生成ステップでは,ある位置に対して複数の被写体上の点が得られた場合,それらの点の持つ距離の値の中で基準としている前記予め定められたカメラに最も近いことを示す値を,その位置における広範囲距離情報とすること
    を特徴とする多視点距離情報符号化方法。
  7. 多視点カメラで撮影された各画像の各画素に対して,その画像を撮影したカメラからその画素に写っている被写体までの距離を表した距離情報の集合によって表される多視点距離情報の符号化データを復号する多視点距離情報復号方法において,
    符号化データから,1つまたは複数の予め定められたカメラごとに,そのカメラを基準とした広範囲距離情報を復号する広範囲距離情報復号ステップと,
    前記広範囲距離情報によって表される各カメラを基準とした距離情報から,各画素に撮影された被写体上の三次元座標を計算する三次元座標復元ステップと,
    復号対象の多視点距離情報を構成する距離情報が基準としている復号対象視点カメラごとに,前記三次元座標復元ステップで得られた三次元座標値を持つ被写体上の各点に対して,その点が復号対象視点カメラによって撮影される際の投影面上での位置と,その復号対象視点カメラから被写体上の点までの距離とを計算する三次元座標再投影ステップと,
    前記復号対象視点カメラおよびその復号対象視点カメラの投影面上の位置ごとに,前記三次元座標再投影ステップによって同じ位置が得られた1つまたは複数の被写体上の点の持つ距離の値を用いて,その位置におけるその復号対象視点カメラを基準とした距離情報を生成する多視点距離情報復元ステップと,
    を有することを特徴とする多視点距離情報復号方法。
  8. 請求項7に記載の多視点距離情報復号方法において,
    符号化データから,符号化データに含まれる広範囲距離情報が基準とする1つまたは複数の代表視点カメラの情報を復号する代表視点カメラ情報復号ステップを有し,
    前記広範囲距離情報復号ステップでは,前記代表視点カメラを基準とした広範囲距離情報を復号すること
    を特徴とする多視点距離情報復号方法。
  9. 請求項7または請求項8に記載の多視点距離情報復号方法において,
    前記予め定められたカメラが複数ある場合に,前記広範囲距離情報復号ステップおよび前記三次元座標復元ステップの少なくともいずれかを,前記予め定められたカメラごとに並列に実行すること
    を特徴とする多視点距離情報復号方法。
  10. 請求項7,請求項8または請求項9に記載の多視点距離情報復号方法において,
    前記三次元座標再投影ステップおよび前記多視点距離情報復元ステップの少なくともいずれかを,前記復号対象視点カメラごとに並列に実行すること
    を特徴とする多視点距離情報復号方法。
  11. 請求項7から請求項10までのいずれか1項に記載の多視点距離情報復号方法において,
    前記多視点距離情報復元ステップでは,ある復号対象視点カメラの位置ごとに,その位置に対して得られた複数の被写体上の点の持つ距離の値の平均値,または,その位置に対して得られた複数の被写体上の点の持つ距離の値の中央値,または,その位置に対して得られた複数の被写体上の点の持つ距離の値の中で最も多く現れた値を計算し,その値をその復号対象視点カメラのその位置における距離情報とすること
    を特徴とする多視点距離情報復号方法。
  12. 請求項7から請求項10までのいずれか1項に記載の多視点距離情報復号方法において,
    前記多視点距離情報復元ステップでは,ある復号対象視点カメラの位置ごとに,その位置に対して得られた複数の被写体上の点の持つ距離の値の中で前記復号対象視点カメラに最も近いことを示す値を計算し,その値をその復号対象視点カメラのその位置における距離情報とすること
    を特徴とする多視点距離情報復号方法。
  13. 多視点カメラによって撮影された各画像の各画素に対して,カメラからその画素に写っている被写体までの距離を表した距離情報の集合によって表される多視点距離情報を符号化する多視点距離情報符号化装置において,
    前記多視点距離情報を構成する各カメラを基準とした距離情報から,各画素に撮影された被写体上の点の三次元座標を計算する三次元座標復元手段と,
    前記三次元座標復元手段で得られた三次元座標値を持つ被写体上の各点に対して,その点が予め定められたカメラによって撮影される際の投影面上での位置と,そのカメラから被写体上の点までの距離を計算し,その位置と距離とを対応付けて蓄積する三次元座標再投影手段と,
    前記予め定められたカメラの投影面上の位置ごとに,前記三次元座標再投影手段によって得られた同じ位置を持つ距離の値を用いて,その位置における前記予め定められたカメラに対する距離情報を生成する広範囲距離情報生成手段と,
    前記広範囲距離情報生成手段で生成された距離情報を符号化する広範囲距離情報符号化手段と,
    を備えることを特徴とする多視点距離情報符号化装置。
  14. 請求項13に記載の多視点距離情報符号化装置において,
    撮影を行った多視点カメラの中のいずれかのカメラと同じ位置および向きで,撮影シーンの全背景を視野角内に含む代表視点カメラを,前記予め定められたカメラとして1つまたは複数設定する代表視点カメラ設定手段と,
    前記代表視点カメラ設定手段で設定された代表視点カメラの情報を符号化する代表視点カメラ情報符号化手段と,を備え,
    前記三次元座標再投影手段は,前記代表視点カメラ設定手段で設定された代表視点カメラごとに,前記三次元座標復元ステップで得られた三次元座標値を持つ被写体上の各点に対して,その点が投影される位置と,そのカメラから被写体上の点までの距離を計算し,
    前記広範囲距離情報生成手段は,前記代表視点カメラ設定手段で設定された代表視点カメラごとに,そのカメラに対する距離情報を生成すること
    を特徴とする多視点距離情報符号化装置。
  15. 請求項13または請求項14に記載の多視点距離情報符号化装置において,
    前記広範囲距離情報生成手段は,ある位置に対して複数の被写体上の点が得られた場合,それらの点の持つ距離の値の平均値,または,それらの点の持つ距離の値の中央値,または,それらの点の持つ距離の値の中で最も多く存在する値を,その位置における広範囲距離情報とすること
    を特徴とする多視点距離情報符号化装置。
  16. 請求項13または請求項14に記載の多視点距離情報符号化装置において,
    前記広範囲距離情報生成手段は,ある位置に対して複数の被写体上の点が得られた場合,それらの点の持つ距離の値の中で基準としている前記予め定められたカメラに最も近いことを示す値を,その位置における広範囲距離情報とすること
    を特徴とする多視点距離情報符号化装置。
  17. 多視点カメラで撮影された各画像の各画素に対して,その画像を撮影したカメラからその画素に写っている被写体までの距離を表した距離情報の集合によって表される多視点距離情報の符号化データを復号する多視点距離情報復号装置において,
    符号化データから,1つまたは複数の予め定められたカメラごとに,そのカメラを基準とした広範囲距離情報を復号する広範囲距離情報復号手段と,
    前記広範囲距離情報によって表される各カメラを基準とした距離情報から,各画素に撮影された被写体上の三次元座標を計算する三次元座標復元手段と,
    復号対象の多視点距離情報を構成する距離情報が基準としている復号対象視点カメラごとに,前記三次元座標復元手段で得られた三次元座標値を持つ被写体上の各点に対して,その点が復号対象視点カメラによって撮影される際の投影面上での位置と,その復号対象視点カメラから被写体上の点までの距離を計算し,その位置と距離とを対応付けて蓄積する三次元座標再投影手段と,
    前記復号対象視点カメラおよびその復号対象視点カメラの投影面上の位置ごとに,前記三次元座標再投影手段によって得られた同じ位置を持つ距離の値を用いて,その位置におけるその復号対象視点カメラを基準とした距離情報を生成する多視点距離情報復元手段と,
    を備えることを特徴とする多視点距離情報復号装置。
  18. 請求項17に記載の多視点距離情報復号装置において,
    符号化データから,符号化データに含まれる広範囲距離情報が基準とする1つまたは複数の代表視点カメラの情報を復号する代表視点カメラ情報復号手段を備え,
    前記広範囲距離情報復号手段は,前記代表視点カメラを基準とした広範囲距離情報を復号すること
    を特徴とする多視点距離情報復号装置。
  19. 請求項17または請求項18に記載の多視点距離情報復号装置において,
    前記多視点距離情報復元手段は,ある復号対象視点カメラの位置ごとに,その位置に対して得られた複数の被写体上の点の持つ距離の値の平均値,または,その位置に対して得られた複数の被写体上の点の持つ距離の値の中央値,または,その位置に対して得られた複数の被写体上の点の持つ距離の値の中で最も多く現れた値を計算し,その値をその復号対象視点カメラのその位置における距離情報とすること
    を特徴とする多視点距離情報復号装置。
  20. 請求項17または請求項18に記載の多視点距離情報復号装置において,
    前記多視点距離情報復元手段は,ある復号対象視点カメラの位置ごとに,その位置に対して得られた複数の被写体上の点の持つ距離の値の中で前記復号対象視点カメラに最も近いことを示す値を計算し,その値をその復号対象視点カメラのその位置における距離情報とすること
    を特徴とする多視点距離情報復号装置。
  21. 請求項1から請求項6までのいずれか1項に記載の多視点距離情報符号化方法をコンピュータに実行させるための多視点距離情報符号化プログラム。
  22. 請求項1から請求項6までのいずれか1項に記載の多視点距離情報符号化方法をコンピュータに実行させるための多視点距離情報符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
  23. 請求項7から請求項12までのいずれか1項に記載の多視点距離情報復号方法をコンピュータに実行させるための多視点距離情報復号プログラム。
  24. 請求項7から請求項12までのいずれか1項に記載の多視点距離情報復号方法をコンピュータに実行させるための多視点距離情報復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2008148204A 2008-06-05 2008-06-05 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 Active JP4964827B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008148204A JP4964827B2 (ja) 2008-06-05 2008-06-05 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008148204A JP4964827B2 (ja) 2008-06-05 2008-06-05 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2009296338A JP2009296338A (ja) 2009-12-17
JP4964827B2 true JP4964827B2 (ja) 2012-07-04

Family

ID=41544101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008148204A Active JP4964827B2 (ja) 2008-06-05 2008-06-05 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
JP (1) JP4964827B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2778456C2 (ru) * 2018-01-05 2022-08-19 Конинклейке Филипс Н.В. Устройство и способ формирования двоичного потока данных изображения

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5281623B2 (ja) 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
JP5281624B2 (ja) 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
JP5357199B2 (ja) * 2011-03-14 2013-12-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3776595B2 (ja) * 1998-07-03 2006-05-17 日本放送協会 多視点画像の圧縮符号化装置および伸長復号化装置
JP3593466B2 (ja) * 1999-01-21 2004-11-24 日本電信電話株式会社 仮想視点画像生成方法およびその装置
JP3471262B2 (ja) * 1999-07-30 2003-12-02 日本電信電話株式会社 三次元画像処理装置
JP4414379B2 (ja) * 2005-07-28 2010-02-10 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2778456C2 (ru) * 2018-01-05 2022-08-19 Конинклейке Филипс Н.В. Устройство и способ формирования двоичного потока данных изображения

Also Published As

Publication number Publication date
JP2009296338A (ja) 2009-12-17

Similar Documents

Publication Publication Date Title
KR102184261B1 (ko) 점군을 압축하는 방법
JP4838275B2 (ja) 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2017209961A1 (en) Motion-compensated compression of dynamic voxelized point clouds
US20090129667A1 (en) Device and method for estimatiming depth map, and method for generating intermediate image and method for encoding multi-view video using the same
JP6232076B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
TW201644270A (zh) 用於全視差光場顯示系統之方法及裝置
EP2061005A2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
JP5219199B2 (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
TWI508529B (zh) 圖像編碼方法及裝置、圖像解碼方法及裝置以及其程式
Graziosi et al. Depth assisted compression of full parallax light fields
CN104871534A (zh) 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质
JP2022536381A (ja) 動作遷移方法、装置、デバイス、および記憶媒体
WO2015083742A1 (ja) 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム
JP4964827B2 (ja) 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
Jia et al. Deep learning geometry compression artifacts removal for video-based point cloud compression
WO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
JP5024962B2 (ja) 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
de Queiroz et al. Motion-compensated compression of point cloud video
JP4944046B2 (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
KR102196025B1 (ko) 3차원 포인트 클라우드 시퀀스의 압축 시스템 및 방법
Wu et al. 3D mesh based inter-image prediction for image set compression
JP4937161B2 (ja) 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP2000261808A5 (ja)
JP2000261808A (ja) 画像符号化方法、画像復号化方法、および観測系動き推定方法とその装置
JP5531282B2 (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120328

R150 Certificate of patent or registration of utility model

Ref document number: 4964827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350