JP2012124564A - 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム - Google Patents

多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム Download PDF

Info

Publication number
JP2012124564A
JP2012124564A JP2010271259A JP2010271259A JP2012124564A JP 2012124564 A JP2012124564 A JP 2012124564A JP 2010271259 A JP2010271259 A JP 2010271259A JP 2010271259 A JP2010271259 A JP 2010271259A JP 2012124564 A JP2012124564 A JP 2012124564A
Authority
JP
Japan
Prior art keywords
image
viewpoint
encoding
prediction
intra
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010271259A
Other languages
English (en)
Other versions
JP2012124564A5 (ja
JP5281632B2 (ja
Inventor
Shinya Shimizu
信哉 志水
Hideaki Kimata
英明 木全
Nobuhiko Matsuura
宣彦 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010271259A priority Critical patent/JP5281632B2/ja
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to CN2011800582632A priority patent/CN103370938A/zh
Priority to EP11847646.4A priority patent/EP2651136A4/en
Priority to KR1020137014153A priority patent/KR101550680B1/ko
Priority to KR1020157012606A priority patent/KR101631183B1/ko
Priority to CA 2820133 priority patent/CA2820133A1/en
Priority to PCT/JP2011/078065 priority patent/WO2012077634A1/ja
Priority to BR112013013722A priority patent/BR112013013722A2/pt
Priority to US13/991,861 priority patent/US20130301721A1/en
Priority to TW100144827A priority patent/TWI499277B/zh
Publication of JP2012124564A publication Critical patent/JP2012124564A/ja
Publication of JP2012124564A5 publication Critical patent/JP2012124564A5/ja
Application granted granted Critical
Publication of JP5281632B2 publication Critical patent/JP5281632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ブロック内の画像信号を画面内予測符号化する際の画面内予測方法を示す情報を符号化するために必要な符号量を削減する。
【解決手段】視点合成部105は,別のカメラで撮影された画像を用いて符号化対象画像に対応する視点合成画像を生成する。最適予測画像生成部107は,画面内予測方法ごとに予測画像を生成し,その良し悪しを視点合成画像と比較し,1つの画面内予測方法を決定する。画像信号符号化部108は,その決定した画面内予測方法を用いて予測画像を生成し符号化する。視点合成画像は復号側でも同じものが生成可能であるため,復号側でも同様の手順によって,同じ画面内予測方法を識別することができる。そのため,画面内予測方法を示す情報の符号化が不要となる。
【選択図】図1

Description

本発明は,多視点画像の符号化および復号の方法や装置に関するものである。
多視点画像とは,複数のカメラで同じ被写体と背景を撮影して得られる画像群のことである。一般的な画像符号化では,被写体が空間的に連続して存在するという特徴を利用した画面内予測を用いて効率的な符号化を実現する。画面内予測はイントラ予測と呼ばれることもある。画面内予測はH.264/AVCに代表される近年の動画像符号化方式の国際標準規格に採用されている手法である(H.264/AVCの詳細については,例えば,非特許文献1参照)。
画面内予測では,1枚の画像を複数のブロックに分割して,ラスタースキャン順などの予め定められた順序で符号化していく際に,符号化対象ブロック内の被写体(またはテクスチャ)の連続する向きを推定し,その向きに従って既に符号化済みの隣接画素の画像信号をコピーすることで予測画像を生成する。なお,画面内予測を用いたブロックでは,画面内予測を行う向きを示す情報と,符号化対象画像と予測画像との差分とが符号化されることになる。
画面内予測の予測品質は,符号化対象画像の連続性をどの程度正確に表現できているかに依存する。H.264/AVCでは,画面内予測を行う向きとして8方向が定義されているが,より精度を高めるためにさらに多くの向きを定義して予測精度を高める方法も存在する(例えば,非特許文献2参照)。また,方向性のない複雑なテクスチャなどのブロックに対して,少しでも画像信号のエネルギーを減少させられる画面内予測方法として,H.264/AVCでは,隣接画素の平均値を予測値とするDC予測や,滑らかな色の変化を持った予測画像を生成するPlane予測などを用いることが可能である。
多視点画像符号化では,多視点画像がほぼ同じ空間を撮影していることから,画像内だけでなく画像間でも高い相関が存在する。そのため視点間の視差を補償して生成した画像との間でフレーム間差分を取り,差分信号のみを符号化する視差補償予測符号化と呼ばれる手法も用いられる。視差補償予測は,H.264/AVC Annex.Hとして国際標準規格に採用されている。
ここで用いられる視差とは,異なる位置に配置されたカメラの画像平面上で,被写体が投影される位置の差である。視差補償予測ではこれを二次元ベクトルで表現して符号化を行っているが,視差がカメラと被写体のカメラからの位置(デプス)とに依存して発生する情報であるため,この原理を利用した視点合成予測(視点補間予測)と呼ばれる方式が存在する。
視点合成予測(視点補間予測)は,カメラや被写体の三次元的な位置関係に従って,既に処理が終了し復号結果が得られている多視点画像の一部分を用いて,符号化もしくは復号処理を行う別の視点に対するフレームを合成(補間)して得られた画像を,予測画像として用いる方式である(例えば,非特許文献3参照)。
被写体の三次元的な位置を表現するために,カメラから被写体までの距離(デプス)を画素ごとに表現したデプスマップ(距離画像,視差画像,ディスパリティマップと呼ばれることもある)が用いられることが多い。デプスマップの他には,被写体のポリゴン情報や被写体空間のボクセル情報を用いることもできる。
なお,デプスマップを取得する方法には,大きく分けると,赤外線パルスなどを用いて測定することで生成する方法と,多視点画像上で同じ被写体が写っている点を見つけ,そこから三角測量の原理を用いて推定する方法があるが,どちらの方法で得られたデプスマップを用いるかは視点合成予測において大きな問題ではない。また,デプスマップが得られるのであれば,符号化側や復号側など,どこで推定するかも大きな問題ではない。
ただし,予測符号化を行う場合においては,一般的に,符号化側で用いたデプスマップと復号側で用いたデプスマップとが一致しない場合には,ドリフトと呼ばれる符号化歪みが発生することになる。そのため,符号化側で用いたデプスマップを復号側へ伝送するか,符号化側と復号側とで全く同じデータと手法を用いてデプスマップを推定する方法が用いられる。
なお,本発明を実施する上で用いることができる技術として,下記の非特許文献4〜非特許文献9に記載されている技術がある。特に,非特許文献4〜非特許文献8には,視点合成画像の生成方法の例が示されている。
Rec. ITU-T H.264,"Advanced video coding for generic audiovisual services", March 2009. K. McCann, W.-J. Han, and I. Kim, "Samsung's Response to the Call for Proposals on Video Compression Technology", Input document to Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, JCTVC-A124, April 2010. S. Shimizu, M. Kitahara, H. Kimata, K. Kamikura, and Y. Yashima,"View Scalable Multiview Video Coding Using 3-D Warping with Depth Map ", IEEE Transactions on Circuits and System for Video Technology, Vol. 17, No. 11, pp. 1485-1495, November, 2007. Y. Mori, N. Fukusima, T. Fuji, and M. Tanimoto, "View Generation with 3D Warping Using Depth Information for FTV ",In Proceedings of 3DTV-CON2008, pp. 229-232, May 2008. S. Yea and A. Vetro,"View Synthesis Prediction for Rate-Overhead Reduction in FTV", In Proceedings of 3DTV-CON2008, pp. 145-148, May 2008. J. Sun, N. Zheng, and H. Shum,"Stereo Matching Using Belief Propagation", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25, No. 7, pp. 787-800, July 2003. S. Shimizu, Y. Tonomura, H. Kimata, and Y. Ohtani,"Improved View Interpolation Prediction for Side Information in Multiview Distributed Video Coding ",In Proceedings of ICDSC2009, August 2009. K. Yamamoto, M. Kitahara, H. Kimata, T. Yendo, T. Fuji, M. Tanimoto, S. Shimizu, K. Kamikura, and Y. Yashima, "Multiview Video Coding Using View Interpolation and Color Correction", IEEE Transactions on Circuits and Systems for Video Technology, Vol. 17, No. 11, pp. 1436-1449, November 2007. K. Ugur, K. R. Andersson, and A. Fuldseth,"Description of video coding technology proposal by Tandberg, Nokia, Ericsson", Input document to Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, JCTVC-A119, April 2010.
上述した従来技術では,視差補償予測や視点合成予測を用いることで,カメラ間の画像信号の冗長性を取り除くことができるため,それぞれのカメラで撮影した映像を独立に符号化する場合に比べて,多視点画像を高効率に圧縮符号化することができる。
しかしながら,多視点画像では,カメラ間相関と画面内相関の両方が同時に存在する。そのため,視差補償予測や視点合成予測のみを用いた場合には,画面内相関を利用して空間的な冗長性を取り除くことができないため,効率的な符号化を実現することができない。
非特許文献1では,ブロックごとに画面内予測と視差補償予測との適応選択を導入することで,カメラ間相関と画面内相関の両方を利用しようとしている。この方法を用いることで,どちらか一方の相関しか使用しない場合に比べて効率的な符号化を実現できる。しかし,ブロックごとにどちらか一方を選択するということは,ブロックごとにより強い相関を示したものを利用することで,より多くの冗長性を削減しているだけで,カメラ間と時間とで同時に存在している冗長性まで削減できるわけではない。
この課題に対する解決策として,イントラ予測などの画面内相関を利用した手法によって生成された予測画像と,視差補償予測や視点合成予測などのカメラ間相関を利用した手法によって生成された予測映像との重み付け平均を用いる方法が容易に類推可能である。この手法を用いることで,ある程度の符号化効率改善の効果が得られる。しかしながら,重み付け平均を用いて予測画像を生成することは,画面内相関とカメラ間相関との間で,その相関を利用する比率を分配しているに過ぎない。つまり,同時に利用しているのではなく,どちらの相関を利用するかをより柔軟に行っているに過ぎないため,同時に存在している冗長性を削減するものではない。
また,従来技術では,画面内予測の予測精度を画面内予測に用いる方向や方式を増やすことで改善している。画面内予測を用いたブロックを正しく復号するためには,復号側へ符号化時に使用された予測画像生成法を識別するための情報を符号化しなくてはならない。そのため,従来技術のように予測画像の生成方法の選択肢を増加させると,画像信号の予測精度を向上することは可能であるが,予測画像の生成方法を識別するための符号量が増大してしまい,トータルとして効率的な符号化を実現することができない。
本発明は係る事情に鑑みてなされたものであって,画面内相関とカメラ間相関が同時に存在する多視点画像に対して,カメラ間相関を利用した画面内相関の推定,つまりカメラ間相関を利用して画面内予測を行う向きなどの画面内予測方法を推定することで,画面内予測方法を示すための情報量を削減し,効率的な多視点映像符号化を実現することを目的とする。
画面内予測では,被写体の空間的な連続性を利用して予測画像を生成する。そのため,一般的な画像符号化では,様々な空間的な連続性を仮定して複数の画面内予測画像候補を生成し,その中から符号化対象画像を効率良く表現できているものを予測画像として用いる。このとき,復号側で同じ予測画像を生成するために,どの画面内予測画像候補を用いたか示す情報を符号化する必要がある。
本発明では,別のカメラで撮影された画像を用いて符号化対象画像に対応する視点合成画像を生成し,その視点合成画像を用いて,どの画面内予測画像候補を用いるかを決定する。この視点合成画像は復号側で同じものを生成することが可能であるため,どの画面内予測画像候補を用いたかを示す情報なしでも,同様の方法を用いて複数の画面内予測画像候補から予測画像を生成することができる。この結果,本発明では,画面内予測を行うにもかかわらず,画面内予測の方法を示す情報を符号化する必要がなくなり,その分の符号量を削減することができるという効果が得られる。
また,従来は予測精度と画面内予測の方法を示す情報の符号量の関係で,限られた数の画面内予測方法しか用いることができなかったが,本発明は,画面内予測方法の数に限らず,その情報を符号化する必要がなくなる。したがって,本発明を用いることで符号化対象画像をより精度良く予測することが可能となり,予測残差の符号化に必要な符号量も削減することができるという効果も得られる。本発明は,詳しくは以下の特徴を有する。
〔第1の発明〕
本発明は,画面内予測方法ごとに予測画像を生成し,その良し悪しを視点合成画像と比較し,1つの画面内予測方法を決定する。符号化側では,その決定した画面内予測方法を用いて予測画像を生成し符号化する。視点合成画像は復号側でも同じものが生成可能であるため,復号側でも同様の手順によって,同じ画面内予測方法を識別することができる。そのため,同じ予測画像を生成し,正しく画像信号を復号することができる。つまり,どの画面内予測方法を用いたかを示すための情報を符号化側で符号化して,復号側へ通知する必要がなくなり,その分の符号量を削減することができる。
例えば,画面内予測方法が9種類存在した場合,予測方法を示す情報の符号化に,従来技術ではブロックごとにlog2 9≒3.1ビットの符号量が必要であるが,本発明では0ビットの符号量となる。さらに,本発明は画面内予測方法の数に関係なく0ビットの符号量となるため,画面内予測方法の数を増やすことで予測効率を向上させ,画像信号の符号化に必要な符号量を削減することも可能である。
以上のことから,第1の発明は,ブロック内の画像信号を画面内予測符号化する際の画面内予測方法を示す情報を符号化するために必要な符号量を削減することができるという効果がある。
〔第2の発明〕
視点合成画像は,かなりの高い精度で生成することが可能であるが,デプス情報やカメラパラメータの誤差などの影響を受けて,部分的にノイズが発生することがある。そのため,視点合成画像を基準として予測画像の生成方法を決定すると,その部分的なノイズの影響を受けて,予測残差が最小ではない方法を選んでしまう可能性がある。
そこで,第2の発明では,第1の発明においてさらに,視点合成画像がどの適度正しくできたかを表す信頼度を計算し,その信頼度を用いて画素ごとに評価値を重み付けする。これにより,部分的に発生するノイズの影響を軽減して,より予測残差を小さくする予測画像生成法を選択できる確率を向上させることができる。予測残差が小さくなることで,画像信号の符号量を削減することができる。
以上のことから,第2の発明は,最適な画面内予測方法の推定精度の向上,およびそれに伴う画像信号の符号量の削減という効果がある。
〔第3の発明〕
第3の発明は,予測画像生成法を決定する際に,復号画像を用いずに,視点合成画像のみを用いることで,複数の画面内予測画像候補を生成し,それを評価する。これによって隣接ブロックの符号化(復号)処理の終了を待たずに,任意のブロックに対する予測画像生成法を決定することができるため,予測画像生成法を決定する処理と,その予測画像生成法に従って画像信号を符号化する処理とを,並列に処理できるようになり,処理の高速化が可能になる。
〔第4の発明〕
画像信号を符号化する際の予測残差が最小となる予測画像生成法は,復号側では使用できない符号化対象画像を用いなければ,見つけることができない。そのため,復号側でも生成することのできる,視点合成画像を基準にして推定した予測画像生成法は,予測残差を最小にすることができず,予測画像生成方法を示すための情報を符号化する必要がなかったとしても,トータルとしてそのブロックの符号量が増大してしまう可能性がある。
そこで,第4の発明は,符号化対象画像を用いて決定した最適な予測画像生成法と,視点合成画像を用いることで復号側でも同定可能な予測画像生成法とを比較し,両者が同じかどうかを示すバイナリフラグを生成する。両者が同じ場合には,そのバイナリフラグのみを符号化し,そうでない場合には,バイナリフラグに加えて最適な予測画像生成法を示す情報を符号化する。
このようにすることで推定が正しいかどうかを復号側で知ることができ,推定が誤ってしまう場合でも最適な予測画像生成法を用いて符号化することができるようになる。
従来技術で予測画像生成法を示すためにNビットが必要であるとすると,本技術を用いた場合に予測画像生成法を示すために必要なビット数はp+(1−p)×(N+1)となる(pは推定が当たる確率)。つまり,推定が1/N以上の確率で正しければ,トータルの符号量を削減することができる。9種類の予測画像生成法(H.264/AVC)であればN≒3なので,30%以上の確率で予測が正しければ符号量を削減できる。33種類の予測画像生成法(非特許文献2)であればN≒5なので,20%以上の確率で予測が正しければ符号量を削減することができる。以上により,本発明は,予測画像生成法の推定が誤った場合に,画像信号の符号量が増大してしまうことを防ぐことができる。
本発明によれば,画面内相関とカメラ間相関が同時に存在する多視点画像を符号化する際に,別のカメラで撮影された映像から生成された視点合成画像を用いて画面内予測の方法を推定することで,画面内予測方法の予測においてカメラ間相関を,映像信号予測において画面内相関を利用可能になり,2つの相関を同時に利用した効率的な多視点画像符号化を実現することができるようになる。
第1実施形態による多視点画像符号化装置の構成を示すブロック図である。 第1実施形態による多視点画像符号化装置の処理フローチャートである。 予測画像生成を決定する処理の詳細なフローチャートである。 多視点画像符号化装置の他の構成例を示すブロック図である。 図4に示す多視点画像符号化装置の処理フローチャートである。 多視点画像符号化装置のさらに他の構成例を示すブロック図である。 最適予測画像生成法決定部が行う処理の詳細なフローチャートである。 多視点画像符号化装置(図1と図6)の動作の比較を示す図である。 多視点画像符号化装置(図1と図6)の動作の比較を示す図である。 多視点画像符号化装置(図1と図6)の動作の比較を示す図である。 多視点画像符号化装置(図1と図6)の動作の比較を示す図である。 多視点画像符号化装置のさらに他の構成例を示すブロック図である。 第2実施形態による多視点画像符号化装置の構成を示すブロック図である。 第2実施形態による多視点画像符号化装置の処理フローチャートである。 多視点画像符号化装置のさらに他の構成例を示すブロック図である。 多視点画像符号化装置のさらに他の構成例を示すブロック図である。 多視点画像符号化装置のさらに他の構成例を示すブロック図である。 第3実施形態による多視点画像復号装置の構成を示すブロック図である。 第3実施形態による多視点画像復号装置の処理フローチャートである。 多視点画像復号装置の他の構成例を示すブロック図である。 図20に示す多視点画像復号装置の処理フローチャートである。 多視点画像復号装置のさらに他の構成例を示すブロック図である。 多視点画像復号装置(図18と図22)の動作の比較を示す図である。 多視点画像復号装置のさらに他の構成例を示すブロック図である。 第4実施形態による多視点画像復号装置の構成を示すブロック図である。 第4実施形態による多視点画像復号装置の処理フローチャートである。 多視点画像復号装置の他の処理例を示す処理フローチャートである。 多視点画像復号装置のさらに他の構成例を示すブロック図である。 多視点画像復号装置のさらに他の構成例を示すブロック図である。 多視点画像復号装置のさらに他の構成例を示すブロック図である。 多視点画像符号化装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成例を示す図である。 多視点画像復号装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成例を示す図である。
以下,本発明の一実施形態を,図面を参照して説明する。
〔第1実施形態:多視点画像符号化装置〕
まず,第1実施形態について説明する。図1は,本発明の第1実施形態による多視点画像符号化装置の構成を示すブロック図である。多視点画像符号化装置100は,図1に示すように,符号化対象画像入力部101,符号化対象画像メモリ102,参照視点画像入力部103,参照視点画像メモリ104,視点合成部105,視点合成画像メモリ106,最適予測画像生成部107,画像信号符号化部108,画像信号復号部109,および復号画像メモリ110を備えている。
符号化対象画像入力部101は,符号化対象となる視点の画像を入力する。以下は,この符号化対象となる視点を符号化対象視点と呼び,この画像のことを符号化対象画像と呼ぶ。符号化対象画像メモリ102は,入力された符号化対象画像を蓄積する。
参照視点画像入力部103は,符号化対象の視点とは別の視点から,同時刻に同じ被写体を撮影した画像を入力する。以下では,この符号化対象の視点とは別の視点のことを参照視点と呼び,この画像のことを参照視点画像と呼ぶ。参照視点画像メモリ104は,入力された参照視点画像を蓄積する。
視点合成部105は,参照視点画像を用いて符号化対象視点における画像を合成する。以下では,この合成された画像のことを視点合成画像と呼ぶ。視点合成画像メモリ106は,生成された視点合成画像を蓄積する。
最適予測画像生成部107は,予測画像候補生成手段,予測画像評価手段の機能を有し,符号化対象領域に対する視点合成画像を用いて,符号化対象領域の周辺に対する復号画像から符号化対象領域の予測画像を生成する。画像信号符号化部108は,生成された予測画像を用いて,符号化対象画像を予測符号化する。画像信号復号部109は,生成された予測画像を用いて,生成された符号データを復号して復号画像を生成する。復号画像メモリ110は,生成された復号画像を蓄積する。
図2は,第1実施形態による多視点画像符号化装置100の動作を説明するためのフローチャートである。このフローチャートに従って,多視点画像符号化装置100の実行する処理について詳細に説明する。
まず,符号化対象画像入力部101より符号化対象画像Orgが入力され,符号化対象画像メモリ102に格納され,参照視点画像入力部103より符号化対象画像Orgと同時刻に参照視点で撮影された参照視点画像Refn (n=1,2,…,N)が入力され,参照視点画像メモリ104に蓄積される(ステップS101)。ここで入力される参照視点画像は,既に符号化済みの画像を復号したものとする。これは,復号装置で得られる情報と全く同じ情報を用いることで,ドリフト等の符号化ノイズの発生を抑えるためである。ただし,そのような符号化ノイズの発生を許容する場合には,符号化前のオリジナルのものが入力されてもかまわない。なお,nは参照視点を示すインデックスであり,Nは利用可能な参照視点の数である。
次に,視点合成部105で,参照視点画像の画像信号を用いて,符号化対象画像と同時刻に同じ視点で撮影された画像を合成し,生成された視点合成画像Synを視点合成画像メモリ106に蓄積する(ステップS102)。この視点合成画像の生成には,どのような方法を用いてもかまわない。例えば,参照視点画像の他に参照視点画像に対するデプス情報が与えられるのであれば,非特許文献3や非特許文献4などに記載されている手法を用いることができる。
また,符号化対象画像に対するデプス情報が与えられた場合には,非特許文献5などに記載されている手法を用いることも可能である。
全くデプス情報が得られない場合では,非特許文献6などに記載のステレオ法やデプス推定法と呼ばれる手法を用いて,参照視点画像もしくは符号化対象画像に対するデプス情報を生成した後に,前述のような手法を適用して視点合成画像を生成することができる(非特許文献7)。また,デプス情報を明には生成せずに参照視点画像から視点合成画像を直接生成する方法もある(非特許文献8)。
なお,これらの手法を用いるには,通常,カメラの位置関係やカメラによる投影プロセスを示すカメラパラメータが必要となる。これらのカメラパラメータも参照視点画像から推定することが可能である。なお,デプス情報やカメラパラメータなどを復号側で推定しない場合,符号化装置内で使用したそれらの情報は別途符号化して伝送する必要がある。
視点合成画像の生成が終了したら,符号化対象画像を分割し,その領域ごとに予測画像を生成して,符号化対象画像の画像信号を符号化する(ステップS103〜S109)。つまり,符号化対象ブロックインデックスをblk,総符号化対象ブロック数をnumBlksで表すとすると,blkを0で初期化した後(ステップS103),blkに1を加算しながら(ステップS108),blkがnumBlksになるまで(ステップS109),以下の処理(ステップS104〜ステップS107)を繰り返す。
なお,上記視点合成画像の生成をブロックごとに行うことが可能であれば,視点合成画像の生成も符号化対象ブロックごとに繰り返す処理の一部として行ってもかまわない。例えば,符号化対象画像に対するデプス情報が与えられている場合は,視点合成画像をブロックごとに生成することが可能である。
符号化対象ブロックごとに繰り返される処理では,まず,最適予測画像生成部107で,ブロックblkに対する視点合成画像Syn[blk]を用いて,ブロックblkに対する最適予測画像生成法modeを決定し(ステップS104),復号画像メモリ110に蓄積されているブロックblk周辺の復号画像を用いて,ブロックblkに対する予測画像Pred[blk]を生成する(ステップS105)。
ブロックblkに対する最適予測画像生成法を決定する処理は,視点合成画像Syn[blk]をターゲット画像とみなして,適合度を最大化もしくは乖離度を最小化する画面内予測画像を生成するための方法を,予め定められた予測方法の集合の中から求める処理である。この第1実施形態では,乖離度を示す評価値を用いるものとする。乖離度を示す評価値の具体例としては,次の式(1) で表される視点合成画像とのSAD(差分絶対値和)や式(2) で表される視点合成画像とのSSD(差分二乗和)などがある。
cost(m)=Σp |Syn[p]−Predm [p]| 式(1)
cost(m)=Σp (Syn[p]−Predm [p])2 式(2)
ここで,costは評価値,mは画面内予測画像を生成する方法を示すインデックス値,Predm は方法mに従って復号画像メモリ110に蓄積されているブロックblk周辺の復号画像から生成された予測画像候補を示す。Σp は∀p∈blkについての和を表している。これら以外に視点合成画像と予測画像候補の差分値をDCTやアダマール変換などを用いて変換した値を用いた方法がある。その変換を行列Aで表すと,次の式(3) で表すことができる。なお,‖X‖はXのノルムを表す。
cost(m)=‖A・(Syn[blk]−Predm [blk])‖ 式(3)
また,上記のような視点合成画像と予測画像候補との乖離度のみを測る方法ではなく,発生する符号量と歪み量を鑑みたRDコストを用いてもかまわない。ここで用いるRDコストは,Predm [blk]を予測画像としてSyn[blk]を符号化した際の符号量R(m)と,その結果得られる復号画像のSyn[blk]からの歪み量D(m)とを用いて,次の式(4) で表すことができる。なお,λはラグランジュの未定乗数であり,予め定められた値を用いる。
cost(m)=D(m)+λR(m) 式(4)
したがって,ステップS104では,次の式(5) で表される,評価値を最小化する最適予測画像生成法を求める処理を行う。
mode=argminm (cost(m)) 式(5)
図3に,ステップS104で行う予測画像生成を決定する処理の詳細フローを示す。予測画像生成を決定するにあたっては,各予測画像生成法の評価値を求め,その評価値を比較することで,最適予測画像生成法を決定する。
つまり,予測画像生成法インデックスmを0で,評価済み予測画像生成法のうち最も評価値の良かったものを記録する変数modeを0で,予測画像生成法modeにおける評価値min_costを絶対に取り得ない最大値MAXで,それぞれ初期化し(ステップS1401),mを1ずつ加算しながら(ステップS1406),mが予測画像生成法の数numModesになるまで(ステップS1407),以下の処理(ステップS1402〜ステップS1405)を繰り返す。なお,ここでは評価値が小さいほど良い予測画像生成法であることを示すものとする。
予測画像生成法ごとに繰り返される処理では,まず,mで示される予測画像生成法に従って,復号画像メモリ110に蓄積されているブロックblkの周辺の復号画像を用いて予測画像候補Predm [blk]を生成する(ステップS1402)。
予測画像候補が生成できたら,予測画像候補と視点合成画像とを比較して評価値cost(m)を求める(ステップS1403)。評価値の計算には,上述の式(1) 〜式(4) など,復号側と同じである限りは任意のものを用いることができる。
評価値が求まったら,その値がmin_costよりも小さいかどうかを調べ(ステップS1404),小さい場合にはmodeをmで,min_costをcost(m)で書き換えて(ステップS1405),次の予測画像生成法へ移る。min_cost以上であった場合には,そのまま次の予測画像生成法へ移る。なお,処理がendに辿り着いた際のmodeがブロックblkに対する最適予測画像生成法となる。
ステップS105の予測画像Pred[blk]を生成する処理は,次の式(6) で表される。なお,ステップS104の評価を行う際に,最も評価値が小さい予測画像候補を蓄積しておき,ステップS105では得られた予測方法modeで予測画像を生成せずに,蓄積してあった予測画像候補を予測画像として設定してもかまわない。
Pred[blk]=Predmode[blk] 式(6)
画面内予測画像を生成するための方法の集合としては,復号側と同じであれば,どのような方法が含まれていてもかまわないし,その集合の大きさがいくつであってもかまわない。例えば,H.264/AVCのイントラ予測のように,8つ異なる予測方向に従ったイントラ予測,隣接画素の復号画像の平均値で予測画像を生成するDC予測,グラデーションを想定して隣接画素を線形補間することで予測画像を生成するPlane予測からなる集合を用いてもかまわない。また,非特許文献2や非特許文献9のようにさらに多数の予測方向を集合に加えてもかまわないし,また,非特許文献9のように先に一部分を符号化し,その情報を用いて双方向予測を行う方法を集合に加えてもかまわない。
予測画像が得られたら,画像信号符号化部108で,ブロックblkに対する画像信号Org[blk]を予測符号化する(ステップS106)。符号化にはどのような方法を用いてもかまわない。MPEG−2やH.264/AVCなどの一般的な符号化では,ブロックblkの画像信号と予測画像との差分信号(Org[blk]−Pred[blk])に対して,DCTなどの周波数変換,量子化,2値化,エントロピー符号化を順に施すことで符号化を行う。
次に,画像信号復号部109で,符号化結果として得られた符号データと予測画像とを用いて,ブロックblkに対する画像信号を復号し,復号結果であるところの復号画像Dec[blk]を復号画像メモリ110に蓄積する(ステップS107)。ここでは,符号化時に用いた手法に対応する手法を用いる。例えば,MPEG−2やH.264/AVCなどの一般的な符号化であれば,符号データに対して,エントロピー復号,逆2値化,逆量子化,IDCTなどの周波数逆変換を順に施し,得られた2次元信号に対して予測信号を加え,最後に画素値の値域でクリッピングを行うことで画像信号を復号する。復号して得られた画像信号は,他のブロックを符号化する際の予測画像を生成するために用いられる。
第1実施形態では,すべての画素において視点合成画像が同程度の精度で生成できるものとしているが,視点合成の確からしさを考慮して予測画像生成法の評価を行ってもかまわない。
図4に,視点合成の確からしさを用いて予測画像生成法を決定する場合の多視点画像符号化装置のブロック図を示す。図4に示す多視点画像符号化装置1001が,図1に示す多視点画像符号化装置100と違う点は,視点合成画像に対して合成の確からしさを計算して最適予測画像生成部107へ通知する信頼度設定部111が加わった点である。
図5に,多視点画像符号化装置1001の処理フローを示す。図2に示す多視点画像符号化装置100の処理フローとの違いは,符号化処理ブロックごとに視点合成画像の信頼度を計算し(ステップS1035),その信頼度とブロックblkに対する視点合成画像Syn[blk]とを用いて,ブロックblkに対する最適予測画像生成法modeを決定する(ステップS104′)という点である。
本実施形態では,信頼度ρは,0〜1までの実数とするが,0以上で大きな値がより信頼度が高いとするような定義のものであれば,どのように表現してもかまわない。例えば,1以上の8ビット整数で表現してもかまわない。
信頼度ρは,前述の通り合成がどれぐらい正確に行われたかを示すことができればどのようなものでもかまわない。例えば,最も簡単なものとしては,視点合成画像の各画素が対応する参照視点フレーム上の画素の画素値の分散値を用いる方法がある。ただし,分散の最大値は不明であるため,画像全体における分散値の最大値が1になるように正規化する必要がある。視点合成画像上の画素Syn[p]を視点合成するのに使用した各参照画像上の画素をRefn [pn ]で表すとすると,信頼度ρは次の式(7) や式(8) を用いて表すことが可能である。
ρ[p]=1−var1(p)/maxq (val1(q)) 式(7)
ρ[p]=1−var2(p)/maxq (val2(q)) 式(8)
なお,maxは与えられた集合に対する最大値を返す関数であるとし,その他の関数は次の式(9) で表現されるものである。
var1(p)=Σn |Refn [pn ]−ave(p)|/N
var2(p)=Σn (Refn [pn ]−ave(p))2 /N 式(9)
ave(p)=Σn Refn [pn ]/N
分散以外にも,次の式(10)で表される対応する参照視点画像の画素の最大値と最小値の差を用いる方法もある。
ρ[p]=1−diff(p)/maxq (diff(q)) 式(10)
diff(q)=maxn (Refn [pn ])−minn (Refn [pn ])
なお,minは,与えられた集合に対する最小値を返す関数である。これらの方法は,単純であるが,オクルージョンの発生を考慮していないため,常に最適な信頼度が得られるとは限らない。そこで,オクルージョンの発生を考慮して,参照視点画像上の対応画素の集合を画素値によってクラスタリングし,最も大きいクラスタに属する画素の画素値に対して,分散値や最大値と最小値の差を計算して用いてもかまわない。
さらに別の方法としては,視点間の対応点における誤差が正規分布やラプラス分布に従うと仮定し,分布の平均値や分散値をパラメータとして,前記式(10)のdiffなどで求められる各画素の誤差量に対応する確率の値を用いてもかまわない。分布のモデルやその平均値や分散値は予め定められたものを用いてもかまわないし,情報を符号化して伝送してもかまわない。一般に被写体が完全拡散反射しているのであれば,理論的に分布の平均値は0とすることができる。
また,被写体の完全拡散反射を考慮して,視点合成画像を生成した際の対応点が得られるデプス付近で,対応画素の画素値の誤差量が最小であると仮定すると,デプスを微小に変化させたときの誤差量の変化から誤差分布モデルを推定し,その誤差分布モデルや,その誤差分布モデルと視点合成画像生成時の参照視点画像上の対応画素の画素値に基づいた値を用いる方法を用いてもかまわない。誤差分布モデルに基づいた値としては,その分布に従う際に誤差が一定の範囲内に収まる確率を用いる方法がある。誤差分布モデルと視点合成画像生成時の参照視点画像上の対応画素の画素値に基づいた値としては,誤差の発生確率が推定した分布に従うとした場合に,視点合成画像生成時の参照視点フレーム上の対応画素の画素値で表される状況が発生する確率を用いる方法がある。
さらに別な方法として,視点合成を行う際に必要となる視差やデプスを推定する際にBelief Propagationと呼ばれる手法(非特許文献6参照)を用いた場合,各画素において,視差やデプスに対する確率分布が得られるため,その情報を用いてもかまわない。Belief Propagation以外でも視点合成画像の各画素について合成の確からしさを計算するものであれば,その情報を用いることが可能である。
視点合成画像生成時に対応点探索やステレオ法,デプス推定を行う場合には,それらの情報を求める処理の一部が信頼度計算の一部と同じになることがある。そのような場合においては,視点合成画像生成と信頼度計算を同時に行うことで,演算量を削減することが可能である。
その信頼度とブロックblkに対する視点合成画像Syn[blk]とを用いて,ブロックblkに対する予測画像生成法modeを決定する処理(ステップS104′)では,前述の式(1) 〜式(3) の代わりに,次の式(11)〜式(13)によって評価値costを定義し,式(5) で表される最小化処理を行う。
cost(m)=Σp ρ(p)・|Syn[p]−Predm [p]| 式(11)
cost(m)=Σp ρ(p)・(Syn[p]−Predm [p])2 式(12)
ここで,costは評価値,mは画面内予測画像を生成する方法を示すインデックス値,Predm は方法mに従って復号画像メモリ110に蓄積されているブロックblk周辺の復号画像から生成された予測画像候補を示す。これら以外に視点合成画像と予測画像候補の差分値をDCTやアダマール変換などを用いて変換した値を用いる方法がある。その変換を行列Aで表すと次の式(13)で表すことができる。なお,‖X‖はXのノルムを,演算子・は行列積を,演算子*は要素ごとの乗算を表す。
cost(m)=‖ρ[blk]*A・(Syn[blk]−Predm [blk])‖ 式(13)
第1実施形態では,予測画像生成法を決定する際に,復号画像メモリ110に蓄積されている,ブロックblkの周辺の既に符号化済み画素を用いて評価を行っているが,復号画像を用いずに,視点合成画像のみを用いて評価を行ってもかまわない。
図6に,視点合成画像のみから予測画像生成法を決定する場合の多視点画像符号化装置のブロック図を示す。図6に示す多視点画像符号化装置1002が,図1に示す多視点画像符号化装置100と違う点は,最適予測画像生成部107が,最適予測画像生成法決定部112と予測画像生成部113とに分割された点である。
最適予測画像生成法決定部112は,視点合成画像のみを用いて,予め定められた予測画像生成法の中から,ブロックblkに対する予測画像を生成するのに適した方法を1つ決定する。予測画像生成部113は,与えられた予測画像生成法に従って,復号画像メモリ110に蓄積されている,ブロックblkの周辺の復号画像を用いて予測画像を生成する。
多視点画像符号化装置1002の処理フローは,図2に示す多視点画像符号化装置100の処理フローと同じであるが,ステップS104における詳細処理が異なる。図7に,ステップS104で,最適予測画像生成法決定部112が行う処理の詳細フローを示す。
最適予測画像生成法決定部112では,各予測画像生成法の評価値を求め,その評価値を比較することで,予測画像生成法を決定する。つまり,予測画像生成法インデックスmを0で,評価済み予測画像生成法のうち最も評価値の良かったものを記録する変数modeを0で,予測画像生成法modeにおける評価値min_costを絶対に取り得ない最大値MAXで,それぞれ初期化し(ステップS1411),mを1ずつ加算しながら(ステップS1416),mが予測画像生成法の数numModesになるまで(ステップS1417),以下の処理(ステップS1412〜ステップS1415)を繰り返す。なお,ここでは評価値が小さいほど良い予測画像生成法であることを示すものとする。
予測画像生成法ごとに繰り返される処理では,まず,mで示される予測画像生成法に従って,ブロックblkの周辺の視点合成画像を用いて疑似予測画像QPredm [blk]を生成する(ステップS1412)。なお,図3のステップS1402との違いは,復号画像ではなく視点合成画像を用いて画像を生成する点である。
疑似予測画像が生成できたら,疑似予測画像と視点合成画像とを比較して評価値cost(m)を求める(ステップS1413)。ここでの処理は,Predm がQPredm と置き換わるだけで,図3のステップS1403と同じである。つまり,評価値の計算には,上述の式(1) 〜式(4) のPredm をQPredm と置き換えたものなど,復号側と同じである限りは任意のものを用いることができる。
評価値が求まったら,その値がmin_costよりも小さいかどうかを調べ(ステップS1414),小さい場合にはmodeをmで,min_costをcost(m)で書き換えて(ステップS1415),次の予測画像生成法へ移る。min_cost以上であった場合には,そのまま次の予測画像生成法へ移る。なお,処理がendに辿り着いた際のmodeがブロックblkに対する予測画像生成法となる。
予測画像生成部113は,このmodeに従って,復号画像メモリ110に蓄積されているブロックblkの周辺の復号画像を用いて予測画像Predを生成する。なお,予測画像生成法の評価を行う際に生成したものは視点合成画像を使用しているため,図1の多視点画像符号化装置100と異なり,ここでは必ず予測画像の生成処理を行う必要がある。
このように予測画像生成法の評価にあたって視点合成画像のみを用いると,並列演算処理が可能になるという利点が生まれる。図1に示す多視点画像符号化装置100では,ブロックblkの予測画像生成法を決定するために,ブロックblk周辺の復号画像が生成されている必要がある。つまり,ブロックblkの予測画像生成法を決定するためには,ブロックblk周辺の符号化処理の終了を待たなくてはならない。しかしながら,本実施形態の多視点画像符号化装置1002では,ブロックblkの予測画像生成法を視点合成画像のみから決定するため,各ブロックの符号化処理とは独立して予測画像生成法を決定することが可能となる。
つまり,ブロックblkに対する予測画像生成法の決定処理をPblk ,画像信号の符号化処理をEblk で表し,ラスタースキャン順にブロックを符号化すると仮定すると,多視点画像符号化装置100は,図8(A)のように交互に処理を行う必要がある。一方,多視点画像符号化装置1002では,図8(B)のように,それぞれ独立して処理を行うことが可能となり,処理時間を大幅に削減できる。
図8は,予測画像生成法の決定処理と画像信号の符号化処理の処理時間が同じである場合を示したが,両者の処理時間が同一でない場合においても処理時間を削減することが可能である。図9に,予測画像生成法の決定処理より符号化処理の方が処理時間が長い場合を示す。符号化処理において複雑な2値化や算術符号化を行う場合が,図9の例に該当する。この場合,符号化処理は待ち時間なく行うことが可能となる。
図10は,符号化処理より予測画像生成法の決定処理の方が処理時間が長い場合を示している。予測画像生成法の数が非常に多い場合などが,この場合に該当する。この場合,符号化処理は予測画像生成法の決定を待たなくてはならないが,符号化処理を行いながら次のブロックの予測画像生成法の決定処理を行うことができるため,処理時間を短縮することが可能となる。また,予測画像生成法の決定処理もブロックごとに独立しているため,予測画像生成法を決定する処理を並列に行うことで,待ち時間なしで符号化処理を行うようにすることも可能である。図11は,予測画像生成法の決定処理を2つ同時に行う場合を示している。
多視点画像符号化装置1002においても,視点合成処理の信頼度を考慮して,より適切な予測画像生成法を設定することが可能である。その場合の多視点画像符号化装置は図12で示される。図12に示す多視点画像符号化装置1003には,図6に示す多視点画像符号化装置1002に対して,信頼度設定部111が加わっている。信頼度設定部111は,視点合成画像に対して合成の確からしさを計算し,最適予測画像生成法決定部112へ通知する。この信頼度設定部111が行う処理は,図4の多視点画像符号化装置1001で説明した信頼度設定部111の処理と同様である。
〔第2実施形態:多視点画像符号化装置〕
次に,本発明の第2実施形態について説明する。図13は,本発明の第2実施形態による多視点画像符号化装置の構成を示すブロック図である。多視点画像符号化装置200は,図13に示すように,符号化対象画像入力部201,符号化対象画像メモリ202,参照視点画像入力部203,参照視点画像メモリ204,視点合成部205,視点合成画像メモリ206,予測画像生成法推定部207,予測画像生成部208,予測情報符号化部209,画像信号符号化部210,画像信号復号部211,復号画像メモリ212,および多重化部213を備えている。
符号化対象画像入力部201は,符号化対象画像を入力する。符号化対象画像メモリ202は,入力された符号化対象画像を蓄積する。参照視点画像入力部203は,参照視点画像を入力する。参照視点画像メモリ204は,入力された参照視点画像を蓄積する。視点合成部205は,参照視点画像を用いて符号化対象視点における画像を合成する。視点合成画像メモリ206は,生成された視点合成画像を蓄積する。
予測画像生成法推定部207は,符号化対象領域に対する視点合成画像を用いて,符号化対象領域の周辺に対する復号画像から符号化対象領域の予測画像を生成する方法を推定する。予測画像生成部208は,符号化対象領域に対する符号化対象画像を用いて,符号化対象領域の周辺に対する復号画像から符号化対象領域の予測画像を生成する方法を決定し,予測画像を生成する。予測情報符号化部209は,予測画像の生成方法とその推定値から,予測画像の生成方法を示すための情報を符号化する。以下では,この符号化される情報を予測情報と呼ぶ。
画像信号符号化部210は,生成された予測画像を用いて,符号化対象画像を予測符号化する。画像信号復号部211は,生成された予測画像を用いて,生成された符号データを復号して復号画像を生成する。復号画像メモリ212は,生成された復号画像を蓄積する。多重化部213は,予測情報の符号データと画像信号の符号データとを多重化して出力する。
図14は,第2実施形態による多視点画像符号化装置200の動作を説明するためのフローチャートである。このフローチャートに従って,多視点画像符号化装置200の実行する処理について詳細に説明する。
まず,符号化対象画像入力部201より符号化対象画像Orgが入力され,符号化対象画像メモリ202に格納され,参照視点画像入力部203より符号化対象画像Orgと同時刻に参照視点で撮影された参照視点画像Refn (n=1,2,…,N)が入力され,参照視点画像メモリ204に蓄積される(ステップS201)。ここで入力される参照視点画像は,既に符号化済みの画像を復号したものとする。これは,復号装置で得られる情報と全く同じ情報を用いることで,ドリフト等の符号化ノイズの発生を抑えるためである。ただし,そのような符号化ノイズの発生を許容する場合には,符号化前のオリジナルのものが入力されてもかまわない。なお,nは参照視点を示すインデックスであり,Nは利用可能な参照視点の数である。
次に,視点合成部205で,参照視点画像の画像信号を用いて,符号化対象画像と同時刻に同じ視点で撮影された画像を合成し,生成された視点合成画像Synを視点合成画像メモリ206に蓄積する(ステップS202)。ここでの処理は,第1実施形態のステップS102と同じである。
視点合成画像の生成が終了したら,符号化対象画像を分割し,その領域ごとに予測画像を生成して,符号化対象画像の画像信号を符号化する(ステップS203〜S212)。つまり,符号化対象ブロックインデックスをblk,総符号化対象ブロック数をnumBlksで表すとすると,blkを0で初期化した後(ステップS203),blkに1を加算しながら(ステップS211),blkがnumBlksになるまで(ステップS212),以下の処理(ステップS204〜ステップS210)を繰り返す。
なお,上記視点合成画像の生成をブロックごとに行うことが可能であれば,視点合成画像の生成も符号化対象ブロックごとに繰り返す処理の一部として行ってもかまわない。例えば,符号化対象画像に対するデプス情報が与えられている場合には,視点合成画像をブロックごとに生成することが可能である。
符号化対象ブロックごとに繰り返される処理では,まず,予測画像生成法推定部207で,ブロックblkに対する視点合成画像Syn[blk]を用いて,ブロックblkに対する予測画像生成法の推定値pmodeを生成する(ステップS204)。ここでの処理は,第1実施形態のステップS104と同じである。
次に,予測画像生成部208で,ブロックblkに対する符号化対象画像Org[blk]を用いて,ブロックblkに対する予測画像生成法modeを決定し(ステップS205),復号画像メモリ212に蓄積されているブロックblk周辺の復号画像を用いて,ブロックblkに対する予測画像Pred[blk]を生成する(ステップS206)。
ブロックblkに対する予測画像生成法を決定する処理は,符号化対象画像Org[blk]をターゲット画像とみなして,適合度を最大化もしくは乖離度を最小化する画面内予測画像を生成するための方法を,予め定められた予測方法の集合の中から求める処理である。つまり,ここでの処理は視点合成画像Syn[blk]の代わりに,符号化対象画像Org[blk]を用いた第1実施形態のステップS104と同じ処理である。ただし,評価値としてRDコストを用いる場合,予測情報の符号量を考慮に入れる必要がある。予測画像生成法の推定値がpmodeで,予測画像生成法がmのときの予測情報の符号量をO(pmode,m)で表すとすると,RDコストを用いた評価値は,次の式(14)で表される。なお,DとRは式(4) と同じである。
cost(m)=D(m)+λ{R(m)+O(pmode,m)} 式(14)
ブロックblkに対する予測画像Pred[blk]を生成する処理は,第1実施形態のステップS105と同じ処理である。なお,同様に,ステップS205で各予測画像生成法の評価を行う際に,最も評価値が小さい予測画像候補を蓄積しておき,ステップS206では得られた予測方法modeで予測画像を生成せずに,蓄積してあった予測画像候補を予測画像として設定してもかまわない。
次に,予測情報符号化部209で,得られた予測画像生成法modeとその推定値pmodeとから予測情報を符号化する(ステップS207)。ここでは,pmodeとmodeが等しい場合には,予測が正しいことを示すビットフラグを符号化し,等しくない場合には,予測が正しくないことを示すビットフラグと予測画像生成法を示すための情報とを符号化する。
ビットフラグは1ビットのバイナリ情報であり,例えば予測が正しい場合には1を,正しくない場合には0を用いることができる。予測画像生成法を示すための情報は,固定のテーブルを用いて表現してもかまわないし,pmodeごとに異なるテーブルを用いて表現してもかまわない。例えば,予測画像生成法が予測の向きを示す情報である場合,pmodeの示す向きに近いものほど短い符号長となるようなテーブルを用意してもかまわない。ただし,pmodeごとに異なるテーブルを用いる場合,復号側でpmodeを全ブロックで生成する必要が生じ,復号処理の演算量が増加する。また,pmodeとmodeが異なる場合に,H.264/AVCのように隣接ブロックで使用された予測画像生成法を用いて第2の予測値を生成して,その第2の予測値が正しいか否かを示すためのビットフラグを符号化してもかまわない。なお,テーブル等を用いて予測画像生成法を二値化した後に算術符号化を用いて符号化することもできる。その際に,H.264/AVCのように隣接ブロックの状況に応じたコンテキストを生成して,そのコンテキストごとに0/1の発生確率を制御しながら符号化してもかまわない。
次に,画像信号符号化部210で,ブロックblkに対する画像信号Org[blk]を予測符号化する(ステップS208)。符号化にはどのような方法を用いてもかまわない。MPEG−2やH.264/AVCなどの一般的な符号化では,ブロックblkの画像信号と予測画像との差分信号(Org[blk]−Pred[blk])に対して,DCTなどの周波数変換,量子化,2値化,エントロピー符号化を順に施すことで符号化を行う。なお,ここでの処理は,第1実施形態のステップS106と同じである。
次に,画像信号復号部211で,符号化結果として得られた符号データと予測画像とを用いて,ブロックblkに対する画像信号を復号し,復号結果であるところの復号画像Dec[blk]を復号画像メモリ212に蓄積する(ステップS209)。ここでは,符号化時に用いた手法に対応する手法を用いる。例えば,MPEG−2やH.264/AVCなどの一般的な符号化であれば,符号データに対して,エントロピー復号,逆2値化,逆量子化,IDCTなどの周波数逆変換を順に施し,得られた2次元信号に対して予測信号を加え,最後に画素値の値域でクリッピングを行うことで画像信号を復号する。復号して得られた画像信号は,他のブロックを符号化する際の予測画像を生成するために用いられる。なお,ここでの処理は,第1実施形態のステップS107と同じである。
最後に,多重化部213で,予測情報の符号データと,画像信号の符号データとを多重化して出力する(ステップS210)。なお,ここではブロックごとに多重化しているが,全ブロックが終了してから多重化してもかまわない。ただし,その場合には符号データをバッファリングしてから多重化する必要が生じるほか,多重化の方法によっては復号側でも全ての符号データを受け取った後で逆多重化しなくてはならなくなる。
第2実施形態では,すべての画素において視点合成画像が同程度の精度で生成できるものとしているが,視点合成の確からしさを考慮して予測画像生成法の評価を行ってもかまわない。
図15に,視点合成の確からしさを用いて予測画像生成法を決定する場合の多視点画像符号化装置のブロック図を示す。図15に示す多視点画像符号化装置2001が,図13に示す多視点画像符号化装置200と違う点は,視点合成画像に対して合成の確からしさを計算して予測画像生成法推定部207へ通知する信頼度設定部215が加わった点である。
信頼度を用いる場合には,ステップS204で予測画像生成法を推定する際に,まず,ブロックblkに対する視点合成画像の信頼度を計算し,その信頼度とブロックblkに対する視点合成画像Syn[blk]とを用いて,ブロックblkに対する予測画像生成法の推定値pmodeを生成することになる。信頼度を計算する処理は,第1実施形態のステップS1035と同じであり,信頼度を用いて予測画像生成法の推定値を生成する処理は,生成される値が予測画像生成法の推定値となるだけで,第1実施形態のステップS104′と同じである。
第2実施形態では,予測画像生成法を推定する際に復号画像メモリ212に蓄積されている,ブロックblkの周辺の既に符号化済み画素を用いて評価を行っているが,復号画像を用いずに,視点合成画像のみを用いて評価を行ってもかまわない。
図16に,視点合成画像のみから予測画像生成法を決定する場合の多視点画像符号化装置のブロック図を示す。図16に示す多視点画像符号化装置2002が,図13に示す多視点画像符号化装置200と違う点は,予測画像生成法推定部207への入力が視点合成画像のみになった点である。
この場合の予測画像生成法を推定する処理(ステップS204)は,第1実施形態の図7の処理フローで示される処理と同じである。ただし,予測画像生成法modeの代わりに,予測画像生成法の推定値pmodeを求める。
このように予測画像生成法の評価にあたって視点合成画像のみを用いると,並列演算処理が可能になるという利点が生まれる。多視点画像符号化装置200では,ブロックblkの予測画像生成法を決定するために,ブロックblk周辺の復号画像が生成されている必要がある。つまり,ブロックblkの予測画像生成法を決定するためには,ブロックblk周辺の符号化処理の終了を待たなくてはならない。しかしながら,多視点画像符号化装置2002では,ブロックblkの予測画像生成法を視点合成画像のみから決定するため,各ブロックの符号化処理とは独立して予測画像生成法を決定することが可能となる。
多視点画像符号化装置2002においても,視点合成処理の信頼度を考慮して,より適切な予測画像生成法を設定することが可能である。その場合の装置構成は,図17で示される多視点画像符号化装置2003のようになる。
〔第3実施形態:多視点画像復号装置〕
次に,本発明の第3実施形態について説明する。図18は,本発明の第3実施形態による多視点画像復号装置の構成を示すブロック図である。多視点画像復号装置300は,図18に示すように,符号データ入力部301,符号データメモリ302,参照視点画像入力部303,参照視点画像メモリ304,視点合成部305,視点合成画像メモリ306,最適予測画像生成部307,画像信号復号部308,および復号画像メモリ309を備えている。
符号データ入力部301は,復号対象となる視点の画像に対する符号データを入力する。以下では,この復号対象となる視点を復号対象視点と呼び,復号される画像のことを復号対象画像と呼ぶ。符号データメモリ302は,入力された符号データを蓄積する。
参照視点画像入力部303は,復号対象視点とは別の視点から,同時刻に同じ被写体を撮影した画像を入力する。以下では,この復号対象視点とは別の視点のことを参照視点と呼び,この画像のことを参照視点画像と呼ぶ。参照視点画像メモリ304は,入力された参照視点画像を蓄積する。視点合成部305は,参照視点画像を用いて復号対象視点における画像を合成する。以下では,この合成された画像のことを視点合成画像と呼ぶ。視点合成画像メモリ306は,生成された視点合成画像を蓄積する。
最適予測画像生成部307は,復号対象領域に対する視点合成画像を用いて,復号対象領域の周辺に対する復号画像から復号対象領域の予測画像を生成する。画像信号復号部308は,生成された予測画像を用いて,入力された符号データを復号して復号画像を生成する。復号画像メモリ309は,生成された復号画像を蓄積する。
図19は,第3実施形態による多視点画像復号装置300の動作を説明するためのフローチャートである。このフローチャートに従って,多視点画像復号装置300の実行する処理について詳細に説明する。
まず,符号データ入力部301より復号対象画像に対する符号データが入力され,符号データメモリ302に格納され,参照視点画像入力部303より復号対象画像と同時刻に参照視点で撮影された参照視点画像Refn (n=1,2,…,N)が入力され,参照視点画像メモリ304に蓄積される(ステップS301)。ここで入力される参照視点画像は符号化側で用いたものと同じものとする。これは,同じ情報を用いることで,ドリフト等の符号化ノイズの発生を抑えるためである。ただし,そのような符号化ノイズの発生を許容する場合には,符号化側と異なるものが入力されてもかまわない。なお,nは参照視点を示すインデックスであり,Nは利用可能な参照視点の数である。
次に,視点合成部305で,参照視点画像の画像信号を用いて,復号対象画像と同時刻に同じ視点で撮影された画像を合成し,生成された視点合成画像Synを視点合成画像メモリ306に蓄積する(ステップS302)。この処理は,第1実施形態のステップS102の処理と同じである。なお,視点合成処理に必要なカメラの位置関係やカメラによる投影プロセスを示すカメラパラメータが符号化されている場合には,事前に復号しておく必要がある。
視点合成画像の生成が終了したら,復号対象画像を分割し,その領域ごとに予測画像を生成して,復号対象画像の画像信号を符号データから復号する(ステップS303〜S308)。つまり,復号対象ブロックインデックスをblk,総復号対象ブロック数をnumBlksで表すとすると,blkを0で初期化した後(ステップS303),blkに1を加算しながら(ステップS307),blkがnumBlksになるまで(ステップS308),以下の処理(ステップS304〜ステップS306)を繰り返す。
なお,上記視点合成画像の生成をブロックごとに行うことが可能であれば,視点合成画像の生成も復号対象ブロックごとに繰り返す処理の一部として行ってもかまわない。例えば,復号対象画像に対するデプス情報が与えられている場合には,視点合成画像をブロックごとに生成することが可能である。
復号対象ブロックごとに繰り返される処理では,まず,最適予測画像生成部307で,ブロックblkに対する視点合成画像Syn[blk]を用いて,ブロックblkに対する予測画像生成法modeを決定し(ステップS304),復号画像メモリ309に蓄積されているブロックblk周辺の復号画像を用いて,ブロックblkに対する予測画像Pred[blk]を生成する(ステップS305)。ここでの処理は,それぞれ第1実施形態のステップS104およびステップS105と同じである。
予測画像が得られたら,画像信号復号部308で,符号データと予測画像とを用いて,ブロックblkに対する画像信号を復号する(ステップS306)。ここでは,符号化時に用いた手法に対応する手法を用いる。例えば,MPEG−2やH.264/AVCなどの一般的な符号化であれば,符号データに対して,エントロピー復号,逆2値化,逆量子化,IDCTなどの周波数逆変換を順に施し,得られた2次元信号に対して予測信号を加え,最後に画素値の値域でクリッピングを行うことで画像信号を復号する。復号して得られた復号画像Dec[blk]は多視点画像復号装置300の出力となると共に,他のブロックの予測画像生成に用いるために復号画像メモリ309に蓄積する。
第3実施形態では,すべての画素において視点合成画像が同程度の精度で生成できるものとしているが,視点合成の確からしさを考慮して予測画像生成法の評価を行ってもかまわない。ただし,視点合成の確からしさを考慮するか否かは符号化側と同じにする必要がある。これはドリフト等の符号化ノイズの発生を防ぐためである。
図20に,視点合成の確からしさを用いて予測画像生成法を決定する場合の多視点画像復号装置のブロック図を示す。図20に示す多視点画像復号装置3001が,図18に示す多視点画像復号装置300と違う点は,視点合成画像に対して合成の確からしさを計算して最適予測画像生成部307へ通知する信頼度設定部310が加わった点である。
図21に,多視点画像復号装置3001の処理フローを示す。図19の多視点画像復号装置300の処理フローとの違いは,復号処理ブロックごとに視点合成画像の信頼度を計算し(ステップS3035),その信頼度とブロックblkに対する視点合成画像Syn[blk]とを用いて,ブロックblkに対する予測画像生成法modeを決定する(ステップS304′)という点である。これらの処理は,それぞれ第1実施形態のステップS1035,S104′と同じである。
信頼度には,第1実施形態で説明したものなど,合成がどれぐらい正確に行われたかを示すことができれば任意の定義のものを用いてもかまわない。しかし,符号化側で用いた定義と同一のものを用いる必要がある。これはドリフト等の符号化ノイズの発生を防ぐためである。
第3実施形態では,予測画像生成法を決定する際に復号画像メモリ309に蓄積されている,ブロックblkの周辺の既に符号化済み画素を用いて評価を行っているが,復号画像を用いずに,視点合成画像のみを用いて評価を行ってもかまわない。
図22に,視点合成画像のみから予測画像生成法を決定する場合の多視点画像復号装置のブロック図を示す。図22に示す多視点画像復号装置3002が,図18に示す多視点画像復号装置300と違う点は,最適予測画像生成部307が,最適予測画像生成法決定部311と予測画像生成部312とに分割された点である。
最適予測画像生成法決定部311は,予測画像候補生成手段,予測画像評価手段の機能を有し,視点合成画像のみを用いて,予め定められた予測画像生成法の中から,ブロックblkに対する予測画像を生成するのに適した方法を1つ決定する。予測画像生成部312は,与えられた予測画像生成法に従って,復号画像メモリ309に蓄積されている,ブロックblkの周辺の復号画像を用いて予測画像を生成する。
多視点画像復号装置3002の処理フローは,図19に示す多視点画像復号装置300の処理フローと同じであるが,ステップS304における詳細処理が異なる。ここでは,図7に示す処理フローに従って,最適予測画像生成法決定部311で予測画像生成法を決定する。処理の内容は第1実施形態において図7を用いて説明したものと同じである。
予測画像生成部312は,このmodeに従って,復号画像メモリ309に蓄積されているブロックblkの周辺の復号画像を用いて予測画像Predを生成する。なお,予測画像生成法を決定する際に生成した画像は視点合成画像を使用した疑似予測画像であるため,図18の多視点画像復号装置300と異なり,ここでは必ず予測画像の生成処理を行う必要がある。
このように予測画像生成法の評価にあたって視点合成画像のみを用いると,並列演算処理が可能になるという利点が生まれる。多視点画像復号装置300では,ブロックblkの予測画像生成法を決定するために,ブロックblk周辺の復号画像が復号画像メモリ309に蓄積されている必要がある。つまり,ブロックblkの予測画像生成法を決定するためには,ブロックblk周辺の復号処理の終了を待たなくてはならない。しかしながら,多視点画像復号装置3002では,ブロックblkの予測画像生成法を視点合成画像のみから決定するため,各ブロックの画像信号の復号処理とは独立して予測画像生成法を決定することが可能となる。
つまり,ブロックblkに対する予測画像生成法の決定処理をPblk ,画像信号の復号処理をDblk で表し,ラスタースキャン順にブロックを復号すると仮定すると,多視点画像復号装置300は図23(A)のように交互に処理を行う必要がある。一方,多視点画像復号装置3002では図23(B)のように,それぞれ独立して処理を行うことが可能となり,処理時間を大幅に削減できる。図23では,予測画像生成法の決定処理と画像信号の復号処理に係る時間が同じとしているが,両者の時間が異なる場合でも,並列化によって処理時間を大幅に減らすことができる。
多視点画像復号装置3002においても,視点合成処理の信頼度を考慮して,より適切な予測画像生成法を設定することが可能である。その場合の装置構成は,図24で示される多視点画像復号装置3003のようになる。
〔第4実施形態:多視点画像復号装置〕
次に,本発明の第4実施形態について説明する。図25は,本発明の第4実施形態による多視点画像復号装置の構成を示すブロック図である。多視点画像復号装置400は,図25に示すように,符号データ入力部401,符号データメモリ402,参照視点画像入力部403,参照視点画像メモリ404,視点合成部405,視点合成画像メモリ406,分離部407,予測情報復号部408,予測画像生成法推定部409,予測画像生成部410,画像信号復号部411,および復号画像メモリ412を備えている。
符号データ入力部401は,復号対象画像の符号データを入力する。符号データメモリ402は,入力された符号データを蓄積する。参照視点画像入力部403は,参照視点画像を入力する。参照視点画像メモリ404は,入力された参照視点画像を蓄積する。視点合成部405は,参照視点画像を用いて符号化対象視点における画像を合成する。視点合成画像メモリ406は,生成された視点合成画像を蓄積する。分離部407は,入力された符号データを,予測情報の符号データと画像信号の符号データとに分離する。予測情報復号部408は,予測情報の符号データを復号し,予測画像の生成法を示すための情報を生成する。
予測画像生成法推定部409は,復号対象領域に対する視点合成画像を用いて,復号対象領域の周辺に対する復号画像から復号対象領域の予測画像を生成する方法を推定する。予測画像生成部410は,与えられた予測画像生成法に従って,復号対象領域の周辺に対する復号画像から復号対象領域の予測画像を生成する。画像信号復号部411は,生成された予測画像を用いて,符号データを復号して復号画像を生成する。復号画像メモリ412は,生成された復号画像を蓄積する。
図26は,第4実施形態による多視点画像復号装置400の動作を説明するためのフローチャートである。このフローチャートに従って,多視点画像復号装置400の実行する処理について詳細に説明する。
まず,符号データ入力部401より復号対象画像の符号データが入力され,符号データメモリ402に格納され,参照視点画像入力部403より復号対象画像と同時刻に参照視点で撮影された参照視点画像Refn (n=1,2,…,N)が入力され,参照視点画像メモリ404に蓄積される(ステップS401)。ここで入力される参照視点画像は,符号化側で使用したものと同じものとする。なお,nは参照視点を示すインデックスであり,Nは利用可能な参照視点の数である。
次に,視点合成部405で,参照視点画像の画像信号を用いて,復号対象画像と同時刻に同じ視点で撮影された画像を合成し,生成された視点合成画像Synを視点合成画像メモリ406に蓄積する(ステップS402)。ここでの処理は,第3実施形態のステップS302と同じである。
視点合成画像の生成が終了したら,復号対象画像を分割し,その領域ごとに予測画像を生成して,符号データより復号対象画像の画像信号を復号する(ステップS403〜S412)。つまり,復号対象ブロックインデックスをblk,総復号対象ブロック数をnumBlksで表すとすると,blkを0で初期化した後(ステップS403),blkに1を加算しながら(ステップS411),blkがnumBlksになるまで(ステップS412),以下の処理(ステップS404〜ステップS410)を繰り返す。
なお,上記視点合成画像の生成をブロックごとに行うことが可能であれば,視点合成画像の生成も復号対象ブロックごとに繰り返す処理の一部として行ってもかまわない。例えば,復号対象画像に対するデプス情報が与えられている場合には,視点合成画像をブロックごとに生成することが可能である。
復号対象ブロックごとに繰り返される処理では,まず,分離部407でブロックblkに対する符号データを予測情報の符号データと画像信号の符号データとに分離する(ステップS404)。次に,予測情報復号部408で,予測情報の符号データより,予測が正しいか否かを表す予測成否フラグflagを復号する(ステップS405)。予測成否フラグが得られたら,その予測成否フラグをチェックし(ステップS406),それに従って予測画像生成法を決定する(ステップS407,ステップS408)。図26のフローでは,flagが1の場合に予測が正しいことを示し,flagが0の場合に予測が誤りであることを示す。
予測が正しいと判断された場合には,予測画像生成法推定部409で,ブロックblkに対する視点合成画像Syn[blk]を用いて,ブロックblkに対する予測画像生成法modeを推定する(ステップS407)。ここでの処理は,第2実施形態のステップS204と同じである。ただし,推定された値は予測画像生成法の推定値pmodeではなく,予測画像生成法modeとして設定される。
予測が誤りと判断された場合には,予測情報復号部408で,予測画像生成法を予測情報の符号データから復号する(ステップS408)。ここでは符号化側で行われた方法に対応する方法を用いる。つまり,符号化の際に2値化とエントロピー符号化が行われている場合には,符号データに対してエントロピー復号処理を施し,得られたバイナリ列を逆2値化することで予測画像生成法modeを得る。
予測画像生成法が得られたら,予測画像生成部410で,予測画像生成法modeに従って,復号画像メモリ412に蓄積されているブロックblk周辺の復号画像から,ブロックblkに対する予測画像Pred[blk]を生成する(ステップS409)。予測画像生成法を予測して得た場合,ステップS407で各予測画像生成法を用いて予測画像候補を生成しているため,最小の評価値となる予測画像候補を蓄積し,ここでは蓄積してあった予測画像候補を予測画像として設定してもかまわない。なお,予測画像生成法を復号して得た場合には,ここで常に予測画像を生成する必要がある。
予測画像が得られたら,画像信号復号部411で,画像信号の符号データと予測画像とを用いて,ブロックblkに対する画像信号を復号する(ステップS410)。ここでの処理は第3実施形態のステップS306と同じである。復号して得られた復号画像は多視点画像復号装置400の出力となると共に,他のブロックの予測画像生成に用いるために復号画像メモリ412に蓄積する。
なお,上述の説明では,常に画像全体に対して視点合成画像を生成するものとして説明したが,ブロックごとに視点合成画像を生成することが可能な場合,ステップS402を省略し,ステップS407の直前でブロックblkに対する視点合成画像のみを生成するようにしてもかまわない。この場合,使用されない視点合成画像を生成することがなくなり,復号処理の演算量を削減することが可能となる。
また,上記の説明では,予測画像生成法modeは予測画像生成法の推定値pmodeによらない方法で符号化されているものとして説明した。しかし,pmodeによって符号テーブルを変えて符号化されていることもある。その場合の処理フローを図27に示す。基本的な処理は同じであるが,図27の処理フローでは,予測成否フラグによらず,予測画像生成法推定部409で,ブロックblkに対する視点合成画像Syn[blk]を用いて,ブロックblkに対する予測画像生成法の推定値pmodeを生成する(ステップS407′)。この処理は,第2実施形態のステップS204と同じである。そして,予測成否フラグによって予測が正しいと判断された場合には,pmodeを予測画像生成法modeとし(ステップS407″),予測が誤りと判断された場合には,pmodeに従ってテーブルを変化させながら,予測情報の符号データより,予測画像生成法modeを復号する(ステップS408′)。
第4実施形態では,すべての画素において視点合成画像が同程度の精度で生成できるものとしているが,視点合成の確からしさを考慮して予測画像生成法の評価を行ってもかまわない。図28に,視点合成の確からしさを用いて予測画像生成法を決定する場合の多視点画像復号装置のブロック図を示す。図28に示す多視点画像復号装置4001が,図25に示す多視点画像復号装置400と違う点は,視点合成画像に対して合成の確からしさを計算して予測画像生成法推定部409へ通知する信頼度設定部413が加わった点である。
信頼度を用いる場合には,ステップS407やステップS407′で予測画像生成法を推定する際に,まず,ブロックblkに対する視点合成画像の信頼度を計算し,その信頼度とブロックblkに対する視点合成画像Syn[blk]とを用いて,ブロックblkに対する予測画像生成法modeまたはその推定値pmodeを生成することになる。信頼度を計算する処理は第3実施形態のステップS3035と同じであり,信頼度を用いて予測画像生成法またはその推定値を生成する処理は,生成した値の扱いが異なるだけで,第1実施形態のステップS104′と同じである。
信頼度には,第1実施形態で説明したものなど,合成がどれぐらい正確に行われたかを示すことができれば任意の定義のものを用いてもかまわない。しかし,符号化側で用いた定義と同一のものを用いる必要がある。これはドリフト等の符号化ノイズの発生を防ぐためである。
第4実施形態では,予測画像生成法を推定する際に復号画像メモリ412に蓄積されている,ブロックblkの復号画像を用いて評価を行っているが,復号画像を用いずに,視点合成画像のみを用いて評価を行ってもかまわない。図29に,視点合成画像のみから予測画像生成法を決定する場合の多視点画像復号装置のブロック図を示す。図29に示す多視点画像復号装置4002が,図25に示す多視点画像復号装置400と違う点は,予測画像生成法推定部207への入力が視点合成画像のみになった点である。
この場合の予測画像生成法を推定する処理(ステップS407,ステップS407′)は,第1実施形態のS104と同じであり,図7に示す処理フローに従って,予測画像生成法推定部409で予測画像生成法modeを生成する。ただし,ステップS407′では,予測画像生成法modeの代わりに,予測画像生成法の推定値pmodeを求める。
このように予測画像生成法の評価にあたって視点合成画像のみを用いると,並列演算処理が可能になるという利点が生まれる。多視点画像復号装置400では,ブロックblkの予測画像生成法を決定するために,ブロックblk周辺の復号画像が生成されている必要がある。つまり,ブロックblkの予測画像生成法を決定するためには,ブロックblk周辺の復号処理の終了を待たなくてはならない。しかしながら,多視点画像復号装置4002では,ブロックblkの予測画像生成法を視点合成画像のみから決定するため,各ブロックの画像信号の復号処理とは独立して予測画像生成法を決定することが可能となる。
なお,このように並列処理性を向上させた場合で,予測画像生成法の推定値を生成しない場合は,予測画像生成法を決定する処理(ステップS407)の直前で,視点合成画像をブロックblkおよび疑似予測画像の生成に使用するブロックblkの周辺画素に対してのみ生成するようにしてもかまわない。この場合,使用されない視点合成画像を生成することがなくなり,復号処理の演算量を削減することが可能となる。
多視点画像復号装置4002においても,視点合成処理の信頼度を考慮して,より適切な予測画像生成法を設定することが可能である。その場合の装置構成は,図30で示される多視点画像復号装置4003のようになる。
上述した第1〜第4実施形態では,画像中の全てのブロックを本発明のイントラ予測によって符号化および復号する処理を説明したが,H.264/AVC Annex.Hなどで用いられる視差補償予測に代表されるインタービュー予測と,イントラ予測とを切り替えながら符号化および復号を行ってもかまわない。その場合には,ブロックごとにイントラ予測が用いられたか,インタービュー予測が用いられたかを示す情報を符号化および復号する必要がある。
上述した第1〜第4実施形態では,多視点画像を符号化および復号する処理を説明したが,複数の連続する画像に対して適応することで多視点動画像の符号化および復号にも適用することができる。また,動画像の一部のフレームや一部のブロックのみに適用することも可能である。
上述した第1〜第4実施形態では,参照視点画像として,符号化対象画像または復号対象画像と同時刻に参照視点で撮影された画像を入力し,視点合成画像の生成に利用する場合を説明した。しかし,多視点動画像の符号化および復号を行う場合に,符号化対象画像または復号対象画像とは異なる時刻に参照視点で撮影された既に符号化または復号済みの画像を入力し,その画像を用いて時空間的に視点合成画像を生成してもかまわない。どの時刻に参照視点で撮影された画像を入力するかは,視点合成画像を生成するアルゴリズムに依存する。ただし,ドリフトなどの符号化ノイズの発生を防ぐためには,符号化側と復号側で同じものを入力し,使用する必要がある。
また,上述の説明では,予測画像生成方法は画面内予測に限定して説明したが,視差補償予測や動き補償予測などのフレーム間予測を含めるように拡張することは容易に類推可能である。フレーム間予測が含まれた場合も,同様にして既に符号化済みの参照フレームから予測画像を生成し,その予測画像と視点合成画像とを比較することで,その予測画像生成法を同じように評価することが可能である。また,参照フレームに対する視点合成画像を生成することで疑似予測画像を生成し,予測画像生成方法の決定処理と画像信号の符号化/復号処理を並列化することも可能である。このような拡張を行うことで,ブロックごとに画面内予測とフレーム間予測とのどちらを用いたかを示す情報の符号量を削減することが可能となる。
以上説明した多視点画像符号化および多視点画像復号の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。
図31に,多視点画像符号化装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成例を示す。本システムは,プログラムを実行するCPU50と,CPU50がアクセスするプログラムやデータが格納されるRAM等のメモリ51と,カメラ等からの符号化対象の画像信号を入力する符号化対象画像入力部52(ディスク装置等による画像信号を記憶する記憶部でもよい)と,例えばネットワークを介して参照視点の画像信号を入力する参照視点画像入力部53(ディスク装置等による画像信号を記憶する記憶部でもよい)と,図1および図2等で説明した処理をCPU50に実行させるソフトウェアプログラムである多視点画像符号化プログラム541が格納されたプログラム記憶装置54と,CPU50がメモリ51にロードされた多視点画像符号化プログラム541を実行することにより生成された符号データを,例えばネットワークを介して出力する符号データ出力部55(ディスク装置等による多重化符号データを記憶する記憶部でもよい)とが,バスで接続された構成になっている。
図示省略するが,他に,視点合成画像記憶部,予測画像候補記憶部,予測画像記憶部,符号データ記憶部,復号画像記憶部などのハードウェアが設けられ,本手法の実施に利用される。また,信頼度記憶部,疑似予測画像記憶部,予測画像生成法記憶部,予測画像生成法推定値記憶部,画像信号符号データ記憶部,予測情報符号データ記憶部が用いられることもある。
図32に,多視点画像復号装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成例を示す。本システムは,プログラムを実行するCPU60と,CPU60がアクセスするプログラムやデータが格納されるRAM等のメモリ61と,多視点画像符号化装置が本手法により符号化した符号データを入力する符号データ入力部62(ディスク装置等による多重化符号データを記憶する記憶部でもよい)と,例えばネットワークを介して参照視点の画像信号を入力する参照視点画像入力部63(ディスク装置等による画像信号を記憶する記憶部でもよい)と,図18および図19等で説明した処理をCPU60に実行させるソフトウェアプログラムである多視点画像復号プログラム641が格納されたプログラム記憶装置64と,CPU60がメモリ61にロードされた多視点画像復号プログラム641を実行することにより,符号データを復号して得られた復号画像を,再生装置などに出力する復号画像出力部65とが,バスで接続された構成になっている。
図示省略するが,他に,視点合成画像記憶部,予測画像候補記憶部,予測画像記憶部,復号画像記憶部などのハードウェアが設けられ,本手法の実施に利用される。また,信頼度記憶部,疑似予測画像記憶部,予測画像生成法記憶部,予測画像生成法推定値記憶部,予測成否フラグ記憶部,画像信号符号データ記憶部,予測情報符号データ記憶部が用いられることもある。
以上,図面を参照して本発明の実施の形態を説明してきたが,上記実施の形態は本発明の例示に過ぎず,本発明が上記実施の形態に限定されるものではないことは明らかである。したがって,本発明の精神および技術的範囲を逸脱しない範囲での構成要素の追加,省略,置換,その他の変更を行ってもよい。
100,1001,1002,1003,200,2001,2002,2003 多視点画像符号化装置
101,201 符号化対象画像入力部
102,202 符号化対象画像メモリ
103,203,303,403 参照視点画像入力部
104,204,304,404 参照視点画像メモリ
105,205,305,405 視点合成部
106,206,306,406 視点合成画像メモリ
107,307 最適予測画像生成部
108,210 画像信号符号化部
109,211,308,411 画像信号復号部
110,212,309,412 復号画像メモリ
111,215,310,413 信頼度設定部
112,311 最適予測画像生成法決定部
113,208,312,410 予測画像生成部
207,409 予測画像生成法推定部
209 予測情報符号化部
213 多重化部
300,3001,3002,3003,400,4001,4002,4003 多視点画像復号装置
301,401 符号データ入力部
302,402 符号データメモリ
407 分離部
408 予測情報復号部

Claims (18)

  1. 多視点画像のある符号化対象視点に対する画像を符号化するにあたって,前記符号化対象視点とは異なる1つまたは複数の参照視点で符号化対象画像と同時刻に撮影された既に符号化済みの参照視点画像を用いて,符号化対象画像を分割した領域ごとに予測符号化を行う多視点画像符号化方法であって,
    前記参照視点画像を用いて,前記符号化対象視点における視点合成画像を生成する視点合成画像生成ステップと,
    符号化対象領域ごとに周辺の既に符号化済みの領域の復号画像から複数の画面内予測画像候補を生成する予測画像候補生成ステップと,
    前記視点合成画像を用いて前記画面内予測画像候補の評価値を決定する予測画像候補評価ステップと,
    前記評価値に基づいて前記画面内予測画像候補から画面内予測画像を生成する予測画像生成ステップと,
    前記画面内予測画像を用いて符号化対象領域の前記符号化対象画像を予測符号化する画像信号符号化ステップと
    を有することを特徴とする多視点画像符号化方法。
  2. 前記視点合成画像の各画素について,前記視点合成画像の確からしさを示す信頼度を設定する信頼度設定ステップをさらに含み,
    前記予測画像候補評価ステップは,前記信頼度に基づいて評価値に重みを付ける
    ことを特徴とする請求項1に記載の多視点画像符号化方法。
  3. 前記予測画像候補生成ステップは,符号化対象領域ごとに周辺の既に符号化済みの領域の視点合成画像から複数の画面内予測画像候補を生成し,
    前記予測画像生成ステップは,前記評価値に基づいて符号化対象領域周辺の既に符号化済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項1または請求項2に記載の多視点画像符号化方法。
  4. 符号化対象領域ごとに,符号化対象画像を用いて画面内予測画像の生成方法を決定する予測画像生成法決定ステップと,
    前記評価値に基づいて前記画面内予測画像の生成方法を推定する予測画像生成法推定ステップと,
    前記画面内予測画像の生成方法の推定値と前記予測画像の生成方法が等しい場合には推定が正しいという情報を符号化し,そうでない場合には推定が誤りという情報と前記予測画像の生成方法を示す情報とを符号化する予測方法符号化ステップとをさらに含み,
    前記予測画像生成ステップでは,前記予測画像の生成方法に従って,符号化対象領域周辺の既に符号化済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項1,請求項2または請求項3に記載の多視点画像符号化方法。
  5. 多視点画像のある復号対象視点に対する画像の符号データを復号するにあたって,前記復号対象視点とは異なる1つまたは複数の参照視点で復号対象画像と同時刻に撮影された既に復号済みの参照視点画像を用いて,復号対象画像を分割した領域ごとに復号対象画像を復号する多視点画像復号方法であって,
    前記参照視点画像を用いて,前記復号対象視点における視点合成画像を生成する視点合成画像生成ステップと,
    復号対象領域ごとに周辺の既に復号済みの領域の復号画像から複数の画面内予測画像候補を生成する予測画像候補生成ステップと,
    前記視点合成画像を用いて前記画面内予測画像候補の評価値を決定する予測画像候補評価ステップと,
    前記評価値に基づいて前記画面内予測画像候補から画面内予測画像を生成する予測画像生成ステップと,
    前記画面内予測画像を予測信号として,予測符号化されている復号対象画像を符号データから復号する画像信号復号ステップと
    を有することを特徴とする多視点画像復号方法。
  6. 前記視点合成画像の各画素について,前記視点合成画像の確からしさを示す信頼度を設定する信頼度設定ステップをさらに含み,
    前記予測画像候補評価ステップは,前記信頼度に基づいて評価値に重みを付ける
    ことを特徴とする請求項5に記載の多視点画像復号方法。
  7. 前記予測画像候補生成ステップは,復号対象領域ごとに周辺の既に復号済みの領域の視点合成画像から複数の画面内予測画像候補を生成し,
    前記予測画像生成ステップは,前記評価値に基づいて復号対象領域周辺の既に符号化済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項5または請求項6に記載の多視点画像復号方法。
  8. 前記評価値に基づいて画面内予測画像の生成方法を推定する予測画像生成法推定ステップと,
    前記画面内予測画像の生成方法の推定値が正しいか否かを示すフラグを符号データから復号するフラグ復号ステップと,
    前記フラグが推定値が正しいことを示していた場合には前記画面内予測画像の生成方法の推定値を,そうでない場合には前記画面内予測画像の生成方法を示す情報を符号データから復号して得られた値を,前記予測画像の生成方法として設定する予測画像生成法設定ステップとをさらに含み,
    前記予測画像生成ステップでは,前記予測画像生成法に従って,復号対象領域周辺の既に復号済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項5,請求項6または請求項7に記載の多視点画像復号方法。
  9. 多視点画像のある符号化対象視点に対する画像を符号化するにあたって,前記符号化対象視点とは異なる1つまたは複数の参照視点で符号化対象画像と同時刻に撮影された既に符号化済みの参照視点画像を用いて,符号化対象画像を分割した領域ごとに予測符号化を行う多視点画像符号化装置であって,
    前記参照視点画像を用いて,前記符号化対象視点における視点合成画像を生成する視点合成画像生成手段と,
    符号化対象領域ごとに周辺の既に符号化済みの領域の復号画像から複数の画面内予測画像候補を生成する予測画像候補生成手段と,
    前記視点合成画像を用いて前記画面内予測画像候補の評価値を決定する予測画像候補評価手段と,
    前記評価値に基づいて前記画面内予測画像候補から画面内予測画像を生成する予測画像生成手段と,
    前記画面内予測画像を用いて符号化対象領域の前記符号化対象画像を予測符号化する画像信号符号化手段と
    を備えることを特徴とする多視点画像符号化装置。
  10. 前記視点合成画像の各画素について,前記視点合成画像の確からしさを示す信頼度を設定する信頼度設定手段をさらに含み,
    前記予測画像候補評価手段は,前記信頼度に基づいて評価値に重みを付ける
    ことを特徴とする請求項9に記載の多視点画像符号化装置。
  11. 前記予測画像候補生成手段は,符号化対象領域ごとに周辺の既に符号化済みの領域の視点合成画像から複数の画面内予測画像候補を生成し,
    前記予測画像生成手段は,前記評価値に基づいて符号化対象領域周辺の既に符号化済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項9または請求項10に記載の多視点画像符号化装置。
  12. 符号化対象領域ごとに,符号化対象画像を用いて画面内予測画像の生成方法を決定する予測画像生成法決定手段と,
    前記評価値に基づいて前記画面内予測画像の生成方法を推定する予測画像生成法推定手段と,
    前記画面内予測画像の生成方法の推定値と前記予測画像の生成方法が等しい場合には推定が正しいという情報を符号化し,そうでない場合には推定が誤りという情報と前記予測画像の生成方法を示す情報とを符号化する予測方法符号化手段とをさらに含み,
    前記予測画像生成手段は,前記予測画像の生成方法に従って,符号化対象領域周辺の既に符号化済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項9,請求項10または請求項11に記載の多視点画像符号化装置。
  13. 多視点画像のある復号対象視点に対する画像の符号データを復号するにあたって,前記復号対象視点とは異なる1つまたは複数の参照視点で復号対象画像と同時刻に撮影された既に復号済みの参照視点画像を用いて,復号対象画像を分割した領域ごとに復号対象画像を復号する多視点画像復号装置であって,
    前記参照視点画像を用いて,前記符号化対象視点における視点合成画像を生成する視点合成画像生成手段と,
    復号対象領域ごとに周辺の既に復号済みの領域の復号画像から複数の画面内予測画像候補を生成する予測画像候補生成手段と,
    前記視点合成画像を用いて前記画面内予測画像候補の評価値を決定する予測画像候補評価手段と,
    前記評価値に基づいて前記画面内予測画像候補から画面内予測画像を生成する予測画像生成手段と,
    前記画面内予測画像を予測信号として,予測符号化されている復号対象画像を符号データから復号する画像信号復号手段と
    を備えることを特徴とする多視点画像復号装置。
  14. 前記視点合成画像の各画素について,前記視点合成画像の確からしさを示す信頼度を設定する信頼度設定手段をさらに含み,
    前記予測画像候補評価手段は,前記信頼度に基づいて評価値に重みを付ける
    ことを特徴とする請求項13に記載の多視点画像復号装置。
  15. 前記予測画像候補生成手段は,復号対象領域ごとに周辺の既に復号済みの領域の視点合成画像から複数の画面内予測画像候補を生成し,
    前記予測画像生成手段は,前記評価値に基づいて復号対象領域周辺の既に符号化済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項13または請求項14に記載の多視点画像復号装置。
  16. 前記評価値に基づいて画面内予測画像の生成方法を推定する予測画像生成法推定手段と,
    前記画面内予測画像の生成方法の推定値が正しいか否かを示すフラグを符号データから復号するフラグ復号手段と,
    前記フラグが推定値が正しいことを示していた場合には前記画面内予測画像の生成方法の推定値を,そうでない場合には前記画面内予測画像の生成方法を示す情報を符号データから復号して得られた値を,前記予測画像の生成方法として設定する予測画像生成法設定手段とをさらに含み,
    前記予測画像生成手段は,前記予測画像生成法に従って,復号対象領域周辺の既に復号済みの領域の復号画像から画面内予測画像を生成する
    ことを特徴とする請求項13,請求項14または請求項15に記載の多視点画像復号装置。
  17. 請求項1から請求項4までのいずれか1項に記載の多視点画像符号化方法をコンピュータに実行させるための多視点画像符号化プログラム。
  18. 請求項5から請求項8までのいずれか1項に記載の多視点画像復号方法をコンピュータに実行させるための多視点画像復号プログラム。
JP2010271259A 2010-12-06 2010-12-06 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム Active JP5281632B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2010271259A JP5281632B2 (ja) 2010-12-06 2010-12-06 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
US13/991,861 US20130301721A1 (en) 2010-12-06 2011-12-05 Multiview image encoding method, multiview image decoding method, multiview image encoding device, multiview image decoding device, and programs of same
KR1020137014153A KR101550680B1 (ko) 2010-12-06 2011-12-05 다시점 화상 부호화 방법, 다시점 화상 복호 방법, 다시점 화상 부호화 장치, 다시점 화상 복호 장치 및 그 프로그램
KR1020157012606A KR101631183B1 (ko) 2010-12-06 2011-12-05 다시점 화상 부호화 방법, 다시점 화상 복호 방법, 다시점 화상 부호화 장치, 다시점 화상 복호 장치 및 그 프로그램
CA 2820133 CA2820133A1 (en) 2010-12-06 2011-12-05 Multiview image encoding method, multiview image decoding method, multiview image encoding device, multiview image decoding device, and programs of same
PCT/JP2011/078065 WO2012077634A1 (ja) 2010-12-06 2011-12-05 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置およびそれらのプログラム
CN2011800582632A CN103370938A (zh) 2010-12-06 2011-12-05 多视点图像编码方法、多视点图像译码方法、多视点图像编码装置、多视点图像译码装置及它们的程序
EP11847646.4A EP2651136A4 (en) 2010-12-06 2011-12-05 MULTI-VIEW IMAGE CODING METHOD, MULTI-VIEW IMAGE DECODING METHOD, MULTI-VIEW IMAGE CODING DEVICE, MULTI-VIEW IMAGE DECODING DEVICE AND PROGRAMS THEREFOR
BR112013013722A BR112013013722A2 (pt) 2010-12-06 2011-12-05 método de codificação de imagem de múltiplos panoramas, método de decodificação de imagem de múltiplos panoramas, dispositivo de decodificação de imagem de múltiplos panoramas e programas dos mesmos
TW100144827A TWI499277B (zh) 2010-12-06 2011-12-06 多視點畫像編碼方法、多視點畫像解碼方法、多視點畫像編碼裝置、多視點畫像解碼裝置及這些程式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010271259A JP5281632B2 (ja) 2010-12-06 2010-12-06 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム

Publications (3)

Publication Number Publication Date
JP2012124564A true JP2012124564A (ja) 2012-06-28
JP2012124564A5 JP2012124564A5 (ja) 2012-09-06
JP5281632B2 JP5281632B2 (ja) 2013-09-04

Family

ID=46207122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010271259A Active JP5281632B2 (ja) 2010-12-06 2010-12-06 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム

Country Status (9)

Country Link
US (1) US20130301721A1 (ja)
EP (1) EP2651136A4 (ja)
JP (1) JP5281632B2 (ja)
KR (2) KR101631183B1 (ja)
CN (1) CN103370938A (ja)
BR (1) BR112013013722A2 (ja)
CA (1) CA2820133A1 (ja)
TW (1) TWI499277B (ja)
WO (1) WO2012077634A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072881A (ja) * 2012-10-02 2014-04-21 Nippon Hoso Kyokai <Nhk> 画像符号化装置および画像復号装置
WO2014103966A1 (ja) * 2012-12-27 2014-07-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
WO2014168082A1 (ja) * 2013-04-11 2014-10-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
WO2014168121A1 (ja) * 2013-04-11 2014-10-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
WO2015141613A1 (ja) * 2014-03-20 2015-09-24 日本電信電話株式会社 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
JP2020088532A (ja) * 2018-11-21 2020-06-04 日本電信電話株式会社 評価装置、評価方法、及びプログラム。
US10701396B2 (en) 2015-11-23 2020-06-30 Electronics And Telecommunications Research Institute Multi-viewpoint video encoding/decoding method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042771B2 (en) * 2016-11-10 2021-06-22 Nippon Telegraph And Telephone Corporation Image evaluation device, image evaluation method, and image evaluation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282014A (ja) * 2006-04-10 2007-10-25 Megachips Lsi Solutions Inc 画像データの生成方法
JP2008271217A (ja) * 2007-04-20 2008-11-06 Kddi Corp 多視点映像符号化装置
JP2010226528A (ja) * 2009-03-24 2010-10-07 Canon Inc 符号化装置およびその方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus
CN100463527C (zh) * 2005-10-18 2009-02-18 宁波大学 一种多视点视频图像视差估计的方法
JP4999859B2 (ja) * 2006-10-30 2012-08-15 日本電信電話株式会社 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
ES2439444T3 (es) * 2006-10-30 2014-01-23 Nippon Telegraph And Telephone Corporation Método de codificación y método de descodificación de vídeo, aparatos para los mismos, programas para los mismos y medios de almacenamiento que almacenan los programas
RU2446618C2 (ru) * 2006-12-28 2012-03-27 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования и способ декодирования видео, устройства для их осуществления и носители памяти, хранящие программы
EP2398241A1 (en) * 2009-02-12 2011-12-21 Nippon Telegraph And Telephone Corporation Multi-view image encoding method, multi-view image decoding method, multi-view image encoding device, multi-view image decoding device, multi-view image encoding program, and multi-view image decoding program
US9654792B2 (en) * 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282014A (ja) * 2006-04-10 2007-10-25 Megachips Lsi Solutions Inc 画像データの生成方法
JP2008271217A (ja) * 2007-04-20 2008-11-06 Kddi Corp 多視点映像符号化装置
JP2010226528A (ja) * 2009-03-24 2010-10-07 Canon Inc 符号化装置およびその方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072881A (ja) * 2012-10-02 2014-04-21 Nippon Hoso Kyokai <Nhk> 画像符号化装置および画像復号装置
CN107318027A (zh) * 2012-12-27 2017-11-03 日本电信电话株式会社 图像编码/解码方法、图像编码/解码装置、以及图像编码/解码程序
CN104885450B (zh) * 2012-12-27 2017-09-08 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
US9924197B2 (en) 2012-12-27 2018-03-20 Nippon Telegraph And Telephone Corporation Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
CN104885450A (zh) * 2012-12-27 2015-09-02 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
JP6027143B2 (ja) * 2012-12-27 2016-11-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
WO2014103966A1 (ja) * 2012-12-27 2014-07-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
WO2014168082A1 (ja) * 2013-04-11 2014-10-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5926451B2 (ja) * 2013-04-11 2016-05-25 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP5947977B2 (ja) * 2013-04-11 2016-07-06 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
CN105075257A (zh) * 2013-04-11 2015-11-18 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
WO2014168121A1 (ja) * 2013-04-11 2014-10-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
WO2015141613A1 (ja) * 2014-03-20 2015-09-24 日本電信電話株式会社 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
JPWO2015141613A1 (ja) * 2014-03-20 2017-04-06 日本電信電話株式会社 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
US10701396B2 (en) 2015-11-23 2020-06-30 Electronics And Telecommunications Research Institute Multi-viewpoint video encoding/decoding method
JP2020088532A (ja) * 2018-11-21 2020-06-04 日本電信電話株式会社 評価装置、評価方法、及びプログラム。
JP7168848B2 (ja) 2018-11-21 2022-11-10 日本電信電話株式会社 評価装置、評価方法、及びプログラム。

Also Published As

Publication number Publication date
TWI499277B (zh) 2015-09-01
BR112013013722A2 (pt) 2016-09-13
EP2651136A4 (en) 2014-05-07
KR101550680B1 (ko) 2015-09-07
TW201233142A (en) 2012-08-01
KR20150061010A (ko) 2015-06-03
CN103370938A (zh) 2013-10-23
EP2651136A1 (en) 2013-10-16
CA2820133A1 (en) 2012-06-14
KR20130103568A (ko) 2013-09-23
KR101631183B1 (ko) 2016-06-16
JP5281632B2 (ja) 2013-09-04
WO2012077634A1 (ja) 2012-06-14
US20130301721A1 (en) 2013-11-14
WO2012077634A9 (ja) 2012-10-11

Similar Documents

Publication Publication Date Title
JP5281632B2 (ja) 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
US9066096B2 (en) Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs
JP6232076B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
KR20120000485A (ko) 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
JP6307152B2 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
JP6039178B2 (ja) 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
WO2014103966A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP6571646B2 (ja) マルチビュービデオのデコード方法及び装置
US20230199175A1 (en) Method and device for subpicture-based image encoding/decoding, and method for transmitting bitstream
KR20150122706A (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 및 화상 복호 프로그램
JP2009164865A (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
JP5706291B2 (ja) 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
JP6386466B2 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
JP2015128252A (ja) 予測画像生成方法、予測画像生成装置、予測画像生成プログラム及び記録媒体
US20140132713A1 (en) Image encoding device, image encoding method, image decoding device, image decoding method, and computer program product
JP6232117B2 (ja) 画像符号化方法、画像復号方法、及び記録媒体
US20160227246A1 (en) Video encoding apparatus and method, and video decoding apparatus and method
JP2013179554A (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5281632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350