JP5744333B2 - シーンのマルチビュービデオを処理する方法及びシステム - Google Patents
シーンのマルチビュービデオを処理する方法及びシステム Download PDFInfo
- Publication number
- JP5744333B2 JP5744333B2 JP2014522261A JP2014522261A JP5744333B2 JP 5744333 B2 JP5744333 B2 JP 5744333B2 JP 2014522261 A JP2014522261 A JP 2014522261A JP 2014522261 A JP2014522261 A JP 2014522261A JP 5744333 B2 JP5744333 B2 JP 5744333B2
- Authority
- JP
- Japan
- Prior art keywords
- reference picture
- view
- adaptive
- synthesized
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 113
- 238000012545 processing Methods 0.000 title claims description 10
- 230000002123 temporal effect Effects 0.000 claims description 75
- 239000002131 composite material Substances 0.000 claims description 51
- 230000003044 adaptive effect Effects 0.000 claims description 39
- 239000000872 buffer Substances 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 75
- 230000015572 biosynthetic process Effects 0.000 description 60
- 238000003786 synthesis reaction Methods 0.000 description 60
- 230000033001 locomotion Effects 0.000 description 46
- 230000008569 process Effects 0.000 description 45
- 238000012937 correction Methods 0.000 description 29
- 230000000875 corresponding effect Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 24
- 238000000354 decomposition reaction Methods 0.000 description 22
- 238000007726 management method Methods 0.000 description 17
- 238000007906 compression Methods 0.000 description 13
- 230000006835 compression Effects 0.000 description 13
- 230000011664 signaling Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
- H04N19/619—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/27—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
- H04N19/615—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
- H04N19/635—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
図4は、本発明の実施形態によるMCTF/DCVF分解400を示す。入力ビデオ401〜404のフレームが、異なる姿勢を有するカメラ1〜4によってシーン5に関して取得される。なお、図8に示すように、カメラのうちのいくつか1a及び1bは、同一位置にあり、ただし異なる向きであってもよい。どの対のカメラ間にも或る量のビューの重なりがあると仮定される。カメラの姿勢は、マルチビュービデオの取得中に変化し得る。通常、カメラは互いに同期される。各入力ビデオは、シーンの異なる「ビュー」を提供する。入力フレーム401〜404はMCTF/DCVF分解400に送られる。この分解は、符号化された低域フレーム411、符号化された高域フレーム412、及び関連するサイド情報413を生成する。高域フレームは、低域フレームを参照ピクチャとして用いて予測誤差を符号化する。分解は、選択された予測モード410に従って行われる。予測モードは、空間予測モード、時間予測モード、ビュー合成予測モード、及びイントラ予測モードを含む。予測モードは、各現フレームに関してマクロブロックごとに適応的に選択することができる。イントラ予測を用いる場合、現マクロブロックは、同一フレーム内の他のマクロブロックから予測される。
図7に示すように、分解400の出力411及び412は信号エンコーダー710に供給され、出力413はサイド情報エンコーダー720に供給される。信号エンコーダー710は、変換、量子化及びエントロピーコーディングを行って、分解された低域フレーム411及び高域フレーム412に残存する相関を除去する。このような操作は当該技術分野において既知である(Netravali及びHaskell「Digital Pictures:Representation,Compression and Standards」Second Edition,Plenum Press,1995)。
ビットストリーム731を復号化して(740)、入力マルチビュービデオ401〜404に対応する出力マルチビュービデオ741を生成することができる。任意で、合成ビデオも生成することができる。概して、デコーダーは、エンコーダーの逆の操作を行ってマルチビュービデオを再構成する。全ての低域フレーム及び高域フレームが復号化されれば、空間(ビュー)次元及び時間次元の両方において符号化品質の完全なフレーム集合が再構成され利用可能になる。
図8に示すように、ビュー合成は、1つ又は複数の実際のマルチビュービデオのフレーム803から合成ビデオのフレーム801を生成するプロセスである。言い換えれば、ビュー合成は、シーン5の選択された新たなビュー802に対応するフレーム801を合成する手段を提供する。この新たなビュー802は、入力マルチビュービデオ401〜404が取得された時点では存在しない「仮想」カメラ800に対応してもよく、又は、取得されるカメラビューに対応することができ、よって、合成ビューは、後述のようにそのビューの予測及び符号化/復号化に用いられる。
マクロブロック適応的MCTF/DCVF分解において、各マクロブロックの予測モードmは、コスト関数をマクロブロックごとに適応的に最小化することによって選択することができる。
図9は、従来技術のシングルビューの符号化及び復号化システムのための参照ピクチャ管理を示す。時間参照ピクチャ901は、復号ピクチャバッファ(DPB:decoded picture buffer)940への時間参照ピクチャ901の挿入(920)及び削除(930)を決めるシングルビュー参照ピクチャリスト(RPL:reference picture list)マネージャ910によって管理される。参照ピクチャリスト950もまた保持されて、DPB940に格納されているフレームを示す。RPLは、挿入(920)及び削除(930)といった参照ピクチャ管理操作、並びにエンコーダー及びデコーダーの両方における時間予測960のために用いられる。
エンコーダーにおいて現フレームを符号化する前、又はデコーダーにおいて現フレームを復号化する前に、マルチビューRPL1050においてマルチビュー参照ピクチャ1005の集合を指示することができる。従来及び本明細書中で定義されるように、集合は要素を全く有しなくても(空集合)、1つ又は複数の要素を有してもよい。RPLの同一コピーが、現フレームごとにエンコーダー及びデコーダーの両方によって保持される。
RPLを保持するプロセスは、エンコーダー700とデコーダー740との間で調整される。特に、エンコーダー及びデコーダーは、特定の現フレームを予測する際にマルチビュー参照ピクチャリストの同一コピーを保持する。
マルチビューRPLマネージャ1010は、マルチビュー参照ピクチャがDPBに格納される順序が、符号化及び復号化の効率を高める上でのピクチャの「有用性」に対応するようにRPLを保持する。具体的には、RPLの初めの方の参照ピクチャは、RPLの終わりの方の参照ピクチャよりも少ないビットで予測(predicatively)符号化することができる。
本発明の実施形態によるマルチビューピクチャ管理の1つの重要な利点は、既存のシングルビューのビデオコーディングシステム及び設計と互換性があることである。このマルチビューピクチャ管理は、既存のシングルビュービデオコーディング規格に加える変更が最小であるだけでなく、既存のシングルビュービデオコーディングシステムからのソフトウェア及びハードウェアを、本明細書に記載するマルチビュービデオコーディングに使用することも可能にする。
図8に関して上述したように、ビュー合成は、仮想カメラ800の合成ビュー802に対応するフレーム801を、既存のビデオから取得されるフレーム803から生成するプロセスである。言い換えれば、ビュー合成は、入力ビデオが取得された時点では存在しない仮想カメラによるシーンの選択された新たなビューに対応するフレームを合成する手段を提供する。1つ又は複数の実際のビデオのフレームの画素値及びシーン中の点の奥行き値が与えられると、合成ビデオビューのフレーム内の画素を外挿及び/又は内挿により生成することができる。
図16は、奥行き1901の情報が符号化マルチビュービットストリーム731に含まれている時に、ビュー合成モードを用いて再構成マクロブロックを生成するプロセスを示す。所与のマクロブロックの奥行きは、サイド情報デコーダー1910によって復号化される。奥行き1901及び空間参照ピクチャ1902を用いてビュー合成1920を行い、合成マクロブロック1904を生成する。次に、合成マクロブロック1904と復号化された残差マクロブロック1905とを加算する(1930)ことによって再構成マクロブロック1903が形成される。
以下では、マルチビュービデオに対応する奥行き画像は、入力データの一部でないと仮定される。しかしながら、このプロセスは、奥行き画像が入力データの一部として存在するときは変更することができる。
ビュー合成モード2091を用いて、合成ビューの奥行き情報及び変位ベクトルを、1つ又は複数のマルチビュービデオの復号化フレームから推定することができる。奥行き情報は、適用されるプロセスに応じて、立体カメラから推定される画素ごとの奥行きであってもよく、又は、マクロブロックマッチングから推定されるマクロブロックごとの奥行きであってもよい。
従来のビデオ中のフレームに対しランダムアクセスを提供するために、Iフレームとしても知られるイントラフレームが通常、ビデオ全体に間隔を置いて配置される。これにより、デコーダーは、復号化シーケンス中の任意のフレームにアクセスすることが可能になるが、圧縮効率は低下する。
上記セクションは、マルチビューのコーディング及び奥行き推定における予測を改善するためのビュー合成を説明する。次に、可変ブロックサイズの奥行き及び動き探索、レート−歪み(RD:rate−distotion)の決定、サブペル参照奥行き探索、並びに奥行き情報の文脈適応2進法算術コーディング(CABAC:context−adaptive binary arithmetic coding)の実装を説明する。コーディングは、エンコーダーにおける符号化及びデコーダーにおける復号化を含み得る。CABACは、H.264規格パート10(引用することにより本明細書中の一部をなす)により規定される。
カメラ間及び時刻間の両方に存在する相関を取り込むために、2つのブロック予測方法を実施した。
視差補償ビュー予測(DCVP:disparity compensated view prediction)、及び
ビュー合成予測(VSP:view synthesis prediction)
第1の方法であるDCVPは、同一(ビュー)カメラの異なる時刻からのフレームを使用するのではなく、同時刻における異なるカメラ(ビュー)からのフレームを使用して現フレームを予測することに対応する。DCVPは、例えば遮蔽、物体がシーンに入ってくるか又はシーンから出て行くこと、又は速い動きのために時間的相関が空間的相関よりも低い場合に利得を提供する。
第2の方法であるVSPは、仮想カメラのフレームを合成してフレームシーケンスを予測する。VSPは、カメラビュー間の並進でない動きの存在によりDCVPに対して相補的であり、実際の応用において多くの場合にそうであるように、カメラパラメータが高品質の仮想ビューを提供するのに十分に正確である場合に利得を提供する。
上記では、構文を変更することなくDCVPの使用を可能にするピクチャバッファの管理方法を説明した。カメラビュー間の視差ベクトルは、動き推定ステップを用いることによって求め、単なる拡張参照タイプとして用いることができた。VSPをもう1つのタイプの参照として用いるために、通常の動き推定プロセスを以下のように拡張する。
本発明では、ブロックベースの奥行き探索プロセスを用いて、可変サイズのサブマクロブロックごとに最適な奥行きを求める。具体的には、最小奥行き値Dmin、最大奥行き値Dmax、及び増分奥行き値Dstepを定義する。次に、予測したいフレーム内の可変サイズのサブマクロブロックごとに、次式の合成ブロックの誤差を最小化する奥行きを選択する。
異なるカメラの2つの対応する画素の視差は概して、整数の正確な倍数では与えられないため、式(2)により与えられる予測を行う基準としたいカメラc’のフレームのターゲット座標[x’,y’,z’]は、常に整数グリッドの点に該当するとは限らない。したがって、本発明では内挿を用いて、参照フレーム内のサブペル位置の画素値を生成する。これにより、整数ペルではなく最も近いサブペル参照点を選択できるようになり、画素間の真の視差により正確に近似する。
本発明では、サブペル精度の補正ベクトルの使用を可能にすることにより合成品質を更に高めることができる。これは特に、上述のサブペル参照マッチングと組み合わせる場合に当てはまる。なお、サブペル動きベクトル探索とこのサブペル補正ベクトル探索との間にはわずかな違いがある。
奥行き推定では、規則化により、より滑らかな奥行きマップを達成することができる。規則化は、合成予測の視覚的品質を改善するが、差分絶対値和(SAD:sum of abusolute differences)により測定した場合にその予測品質をわずかに低下させる。
モード決定は、次のように定義されるラグランジュコスト関数Jmodeを最小化するmb_typeを選択することによって行うことができる。
本発明では、各合成MBがRDモード決定により最良の参照として選択される場合に、そのMBの奥行き値及び補正ベクトルを符号化しなければならないことに留意されたい。奥行き値及び補正ベクトルの両方が、連結単項/三次指数ゴロム(concatenated unary/3rd−order Exp−Golomb)(UEG3)2値化を用いて、signedValFlag=1とし、カットオフパラメータuCoff=9として、動きベクトルと全く同様に量子化される。
上述のように、本発明では、時間参照及び純粋なマルチビュー参照に加えて合成参照ピクチャを組み込む。上記では、上記で参照したH.264/AVC規格における既存の参照ピクチャリスト管理と互換性のあるマルチビュー参照ピクチャリスト管理方法を説明した。
従来のスキップモードでは、動きベクトル情報及び参照インデックスは、同じ場所にあるマクロブロック又は近傍マクロブロックから導出される。ビュー合成に基づくビュー間予測を考えると、その同じ場所にあるマクロブロック又は近傍マクロブロックから奥行きベクトルの情報及び補正ベクトルの情報を導出する類似のモードも同様に考えられる。この新たな符号化モードを合成スキップモードと呼ぶ。
スキップモードと同様に、Bスライスのための従来のダイレクトモードもまた、近傍マクロブロックから動きベクトル情報及び参照インデックスを導出する。ダイレクトモードは残差データも存在する点でスキップモードと異なる。合成スキップモードを提供するのと同じ理由から、本発明では合成ダイレクトモード及び適応基準ダイレクトモードと呼ぶ、ダイレクトモードの類似の拡張も説明する。
depthd_l0[mbPartIdx][0]は、使用される奥行き値とその予測との間の差を指定する。インデックスmbPartIdxは、どのマクロブロック境界にdepthd_l0を割り当てるのかを指定する。マクロブロックの分割はmb_typeにより指定される。
depthd_l1[mbPartIdx][0]は、depthd_l0と同じ意味を有し、l0がl1に置き換わっている。
corr_vd_l0[mbPartIdx][0][compIdx]は、使用される補正ベクトル成分とその予測との間の差を指定する。インデックスmbPartIdxは、どのマクロブロック境界にcorr_vd_l0を割り当てるのかを指定する。マクロブロックの分割はmb_typeにより指定される。水平方向の補正ベクトル成分の差が復号化順で最初に復号化され、CompIdx=0が割り当てられる。垂直方向の補正ベクトル成分が復号化順で次に復号化され、CompIdx=1が割り当てられる。
corr_vd_l1[mbPartIdx][0][compIdx]は、corr_vd_l0と同じ意味を有し、l0がl1に置き換わっている。
depthd_l0[mbPartIdx][subMbPartIdx]はdepthd_l0と同じ意味を有するが、ただし、subMbPartIdxを有するサブマクロブロック境界インデックスに適用される。インデックスmbPartIdx及びsubMbPartIdxは、どのマクロブロック境界及びサブマクロブロック境界にdepthd_l0を割り当てるのかを指定する。
depthd_l1[mbPartIdx][subMbPartIdx]はdepthd_l0と同じ意味を有し、l0がl1に置き換わっている。
corr_vd_l0[mbPartIdx][subMbPartIdx][compIdx]は、corr_vd_l0と同じ意味を有するが、ただし、subMbPartIdxを有するサブマクロブロック境界インデックスに適用される。インデックスmbPartIdx及びsubMbPartIdxは、どのマクロブロック境界及びサブマクロブロック境界にcorr_vd_l0を割り当てるのかを指定する。
corr_vd_l1[mbPartIdx][subMbPartIdx][compIdx]はcorr_vd_l1と同じ意味を有し、l0がl1に置き換わっている。
multiview_typeが1である場合、現ビューが他のビューから合成されることを指定する。multiview_typeが0である場合、現ビューが合成されたものではないことを示す。
multiview_synth_ref0は、合成に用いられる第1のビューのインデックスを指定する。
multiview_synth_ref1は、合成に用いられる第2のビューのインデックスを指定する。
Claims (23)
- シーンのマルチビュービデオを処理する方法であって、各ビデオは、特定の姿勢に配置された対応するカメラによって取得され、各カメラのビューは、少なくとも1つの他のカメラの前記ビューと重なり、前記方法は、
前記マルチビュービデオの特定のビューを合成するサイド情報を取得するステップと、
前記マルチビュービデオ及び前記サイド情報から合成マルチビュービデオを合成するステップと、
前記マルチビュービデオのそれぞれの各現フレーム用の参照ピクチャリストを保持するステップであって、前記参照ピクチャリストは、取得された前記マルチビュービデオの時間参照ピクチャ及び空間参照ピクチャと、前記合成マルチビュービデオの前記合成参照ピクチャとをインデックス付けする、ステップと、
適応基準スキップモード又は適応基準ダイレクトモードによって、関連する前記参照ピクチャリストによりインデックス付けされた参照ピクチャに基づいて、前記マルチビュービデオの各現フレームを予測するステップと、を含み、
前記適応基準スキップモード及び前記適応基準ダイレクトモードは、複数の前記参照ピクチャのうちの1つを用いるものであって、指示された前記参照ピクチャが前記合成参照ピクチャの場合は前記合成参照ピクチャ以外の参照ピクチャを指示するよう変更するとともに、指示された前記参照ピクチャが前記合成参照ピクチャ以外の参照ピクチャの場合は前記合成参照ピクチャを指示するよう変更する、
シーンのマルチビュービデオを処理する方法。 - 前記適応基準スキップモードによってインデックス付された参照ピクチャは、前記合成参照ピクチャに関連する、請求項1に記載の方法。
- 前記適応基準スキップモードによってインデックス付された参照ピクチャは、時間参照ピクチャに関連する、請求項1に記載の方法。
- 前記適応基準スキップモードによってインデックス付された参照ピクチャは、空間参照ピクチャに関連する、請求項1に記載の方法。
- 前記適応基準スキップモードは付加的なビットを追加することによってシグナリングされる、請求項1に記載の方法。
- 前記付加的なビットは、mb_skip_flagが1に等しいときに追加される、請求項5に記載の方法。
- 前記適応基準スキップモードは或るスライス層においてシグナリングされ、前記スライス内の全てのマクロブロックに前記適応基準スキップモードがまとめてシグナリングされる、請求項2に記載の方法。
- 近傍ブロックの前記参照ピクチャインデックスを用いて、各現フレームのブロックの前記参照ピクチャインデックスを導出することを更に含む、請求項1に記載の方法。
- 前記適応基準スキップモードは、Pスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが非合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の第1の合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
- 前記適応基準スキップモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが非合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
- 前記適応基準スキップモードは、Pスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の第1の非合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
- 前記適応基準スキップモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の非合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
- 前記適応基準ダイレクトモードによってインデックス付された参照ピクチャは、前記合成参照ピクチャに関連する、請求項1に記載の方法。
- 前記適応基準ダイレクトモードによってインデックス付された参照ピクチャは、時間参照ピクチャに関連する、請求項1に記載の方法。
- 前記適応基準ダイレクトモードによってインデックス付された参照ピクチャは、空間参照ピクチャに関連する、請求項1に記載の方法。
- 前記適応基準ダイレクトモードは付加的なビットを追加することによってシグナリングされる、請求項1に記載の方法。
- 前記適応基準ダイレクトモードは或るスライス層においてシグナリングされ、前記スライス内の全てのマクロブロックに前記適応基準ダイレクトモードがまとめてシグナリングされる、請求項1に記載の方法。
- 前記適応基準ダイレクトモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが非合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
- 前記適応基準ダイレクトモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の非合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
- 前記サイド情報は、奥行き値を含む、請求項1に記載の方法。
- 前記サイド情報はエンコーダーにおいて得られる、請求項1に記載の方法。
- 前記サイド情報はデコーダーにおいて得られる、請求項1に記載の方法。
- シーンのマルチビュービデオを処理するシステムであって、
複数のカメラであって、各カメラは、シーンのマルチビュービデオを取得するように構成され、各カメラは、特定の姿勢に配置され、各カメラのビューは、少なくとも1つの他のカメラの前記ビューと重なる、複数のカメラと、
前記マルチビュービデオの特定のビューを合成するサイド情報を取得する手段と、
前記マルチビュービデオ及び前記サイド情報から合成マルチビュービデオを合成する手段と、
前記マルチビュービデオのそれぞれの各現フレーム用の参照ピクチャリストを保持するように構成されたメモリバッファーであって、前記参照ピクチャリストは、取得された前記マルチビュービデオの時間参照ピクチャ及び空間参照ピクチャと、前記合成マルチビュービデオの前記合成参照ピクチャとをインデックス付けする、メモリバッファーと、
適応基準スキップモード又は適応基準ダイレクトモードによって、関連する前記参照ピクチャリストによりインデックス付けされた参照ピクチャに基づいて、前記マルチビュービデオの各現フレームを予測する手段と、を備え、
前記適応基準スキップモード及び前記適応基準ダイレクトモードは、複数の前記参照ピクチャのうちの1つを用いるものであって、指示された前記参照ピクチャが前記合成参照ピクチャの場合は前記合成参照ピクチャ以外の参照ピクチャを指示するよう変更するとともに、指示された前記参照ピクチャが前記合成参照ピクチャ以外の参照ピクチャの場合は前記合成参照ピクチャを指示するよう変更する、
シーンのマルチビュービデオを処理するシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/299,195 US8854486B2 (en) | 2004-12-17 | 2011-11-17 | Method and system for processing multiview videos for view synthesis using skip and direct modes |
US13/299,195 | 2011-11-17 | ||
PCT/JP2012/073763 WO2013073282A1 (en) | 2011-11-17 | 2012-09-11 | Method and system for processing multiview videos of scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015502057A JP2015502057A (ja) | 2015-01-19 |
JP5744333B2 true JP5744333B2 (ja) | 2015-07-08 |
Family
ID=47010678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014522261A Active JP5744333B2 (ja) | 2011-11-17 | 2012-09-11 | シーンのマルチビュービデオを処理する方法及びシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8854486B2 (ja) |
EP (1) | EP2781090B1 (ja) |
JP (1) | JP5744333B2 (ja) |
WO (1) | WO2013073282A1 (ja) |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
US8823821B2 (en) | 2004-12-17 | 2014-09-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using motion vector predictor list |
US8854486B2 (en) * | 2004-12-17 | 2014-10-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using skip and direct modes |
US8923399B2 (en) * | 2007-01-24 | 2014-12-30 | Lg Electronics Inc. | Method and an apparatus for processing a video signal |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
EP2289235A4 (en) | 2008-05-20 | 2011-12-28 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
KR101479011B1 (ko) * | 2008-12-17 | 2015-01-13 | 삼성전자주식회사 | 다중 대역 스케쥴링 방법 및 이를 이용한 방송 서비스 시스템 |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8928793B2 (en) | 2010-05-12 | 2015-01-06 | Pelican Imaging Corporation | Imager array interfaces |
US9241160B2 (en) * | 2010-07-21 | 2016-01-19 | Dolby Laboratories Licensing Corporation | Reference processing using advanced motion models for video coding |
KR20120009861A (ko) * | 2010-07-22 | 2012-02-02 | 에스케이 텔레콤주식회사 | 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치 |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
WO2012155119A1 (en) | 2011-05-11 | 2012-11-15 | Pelican Imaging Corporation | Systems and methods for transmitting and receiving array camera image data |
US20140085418A1 (en) * | 2011-05-16 | 2014-03-27 | Sony Corporation | Image processing device and image processing method |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
KR102002165B1 (ko) | 2011-09-28 | 2019-07-25 | 포토내이션 리미티드 | 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법 |
US9131217B2 (en) | 2011-12-09 | 2015-09-08 | Qualcomm Incorporated | Reference picture list modification for view synthesis reference pictures |
US9288506B2 (en) * | 2012-01-05 | 2016-03-15 | Qualcomm Incorporated | Signaling view synthesis prediction support in 3D video coding |
WO2013111551A1 (ja) * | 2012-01-27 | 2013-08-01 | パナソニック株式会社 | 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置 |
US9412206B2 (en) | 2012-02-21 | 2016-08-09 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
US9525861B2 (en) * | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
US9445076B2 (en) * | 2012-03-14 | 2016-09-13 | Qualcomm Incorporated | Disparity vector construction method for 3D-HEVC |
US9503702B2 (en) * | 2012-04-13 | 2016-11-22 | Qualcomm Incorporated | View synthesis mode for three-dimensional video coding |
US20130271567A1 (en) * | 2012-04-16 | 2013-10-17 | Samsung Electronics Co., Ltd. | Image processing method and apparatus for predicting motion vector and disparity vector |
US9549180B2 (en) | 2012-04-20 | 2017-01-17 | Qualcomm Incorporated | Disparity vector generation for inter-view prediction for video coding |
CN103379348B (zh) * | 2012-04-20 | 2016-11-16 | 乐金电子(中国)研究开发中心有限公司 | 一种编码深度信息时的视点合成方法、装置及编码器 |
WO2013159643A1 (en) * | 2012-04-24 | 2013-10-31 | Mediatek Inc. | Method and apparatus of motion vector derivation for 3d video coding |
CN103379349B (zh) * | 2012-04-25 | 2016-06-29 | 浙江大学 | 一种视点合成预测编码方法、解码方法、对应的装置及码流 |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
JP2013247651A (ja) * | 2012-05-29 | 2013-12-09 | Canon Inc | 符号化装置、符号化方法およびプログラム |
CN104508681B (zh) | 2012-06-28 | 2018-10-30 | Fotonation开曼有限公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法 |
US9961369B2 (en) | 2012-06-28 | 2018-05-01 | Hfi Innovation Inc. | Method and apparatus of disparity vector derivation in 3D video coding |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
CN104429079B (zh) * | 2012-07-09 | 2016-08-24 | 三菱电机株式会社 | 利用运动矢量预测列表处理用于视图合成的多视图视频的方法和系统 |
CN104662589B (zh) | 2012-08-21 | 2017-08-04 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
EP2888698A4 (en) | 2012-08-23 | 2016-06-29 | Pelican Imaging Corp | PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE |
EP2713624A1 (en) * | 2012-09-20 | 2014-04-02 | Advanced Digital Broadcast S.A. | Method and system for generating an instantaneous decoding refresh (IDR) picture slice in an H.264/AVC compliant video data stream |
WO2014052974A2 (en) * | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating images from light fields utilizing virtual viewpoints |
JP2014082541A (ja) * | 2012-10-12 | 2014-05-08 | National Institute Of Information & Communication Technology | 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置 |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US9774927B2 (en) * | 2012-12-21 | 2017-09-26 | Telefonaktiebolaget L M Ericsson (Publ) | Multi-layer video stream decoding |
US10805605B2 (en) * | 2012-12-21 | 2020-10-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Multi-layer video stream encoding and decoding |
WO2014130849A1 (en) | 2013-02-21 | 2014-08-28 | Pelican Imaging Corporation | Generating compressed light field representation data |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
WO2014138695A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for measuring scene information while capturing images using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
JP2014176034A (ja) * | 2013-03-12 | 2014-09-22 | Ricoh Co Ltd | 映像伝送装置 |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
EP2973476A4 (en) | 2013-03-15 | 2017-01-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
KR102193620B1 (ko) | 2013-04-05 | 2020-12-21 | 삼성전자주식회사 | 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 디스패리티 벡터 예측 방법 |
RU2543549C2 (ru) * | 2013-07-09 | 2015-03-10 | Сергей Александрович Соболев | Телевизионный многоракурсный способ получения, передачи и приема стереоинформации о наблюдаемом пространстве с его автоматическим измерением. система "третий глаз" |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
EP3066690A4 (en) | 2013-11-07 | 2017-04-05 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
TWI472231B (zh) | 2013-11-27 | 2015-02-01 | Ind Tech Res Inst | 用於移動估計的視訊前處理方法與裝置 |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
WO2015141613A1 (ja) * | 2014-03-20 | 2015-09-24 | 日本電信電話株式会社 | 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム |
EP3201877B1 (en) | 2014-09-29 | 2018-12-19 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
US10368084B2 (en) * | 2014-11-27 | 2019-07-30 | Kt Corporation | Video signal processing method and device |
KR102553844B1 (ko) | 2014-11-27 | 2023-07-10 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10242474B2 (en) * | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
WO2018048078A1 (ko) * | 2016-09-08 | 2018-03-15 | 가온미디어 주식회사 | 공간적 구조 정보를 이용한 동기화된 다시점 영상의 부호화/복호화 방법 및 그 장치 |
EP3301933A1 (en) * | 2016-09-30 | 2018-04-04 | Thomson Licensing | Methods, devices and stream to provide indication of mapping of omnidirectional images |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
US10009550B1 (en) * | 2016-12-22 | 2018-06-26 | X Development Llc | Synthetic imaging |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US10880617B2 (en) * | 2017-04-25 | 2020-12-29 | Sharp Kabushiki Kaisha | Systems and methods for signaling quality information for regions in virtual reality applications |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
CA3085185C (en) * | 2017-12-20 | 2024-04-09 | Leia Inc. | Cross-render multiview camera, system, and method |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
WO2021055585A1 (en) | 2019-09-17 | 2021-03-25 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
MX2022004163A (es) | 2019-10-07 | 2022-07-19 | Boston Polarimetrics Inc | Sistemas y metodos para la deteccion de estandares de superficie con polarizacion. |
MX2022005289A (es) | 2019-11-30 | 2022-08-08 | Boston Polarimetrics Inc | Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion. |
WO2021154386A1 (en) | 2020-01-29 | 2021-08-05 | Boston Polarimetrics, Inc. | Systems and methods for characterizing object pose detection and measurement systems |
US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
CN114969419A (zh) * | 2022-06-06 | 2022-08-30 | 金陵科技学院 | 自驱动多视图特征引导的基于草图的三维模型检索方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2933487B2 (ja) | 1994-07-15 | 1999-08-16 | 松下電器産業株式会社 | クロマフォーマット変換の方法 |
US6055012A (en) | 1995-12-29 | 2000-04-25 | Lucent Technologies Inc. | Digital multi-view video compression with complexity and compatibility constraints |
US6259470B1 (en) | 1997-12-18 | 2001-07-10 | Intel Corporation | Image capture system having virtual camera |
US6055274A (en) | 1997-12-30 | 2000-04-25 | Intel Corporation | Method and apparatus for compressing multi-view video |
US6781618B2 (en) | 2001-08-06 | 2004-08-24 | Mitsubishi Electric Research Laboratories, Inc. | Hand-held 3D vision system |
KR100433625B1 (ko) | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
KR100481732B1 (ko) | 2002-04-20 | 2005-04-11 | 전자부품연구원 | 다 시점 동영상 부호화 장치 |
US20050008240A1 (en) | 2003-05-02 | 2005-01-13 | Ashish Banerji | Stitching of video for continuous presence multipoint video conferencing |
US20060206582A1 (en) | 2003-11-17 | 2006-09-14 | David Finn | Portable music device with song tag capture |
TWI238996B (en) | 2004-09-22 | 2005-09-01 | Benq Corp | Optical disk device |
US8854486B2 (en) * | 2004-12-17 | 2014-10-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using skip and direct modes |
US7671894B2 (en) * | 2004-12-17 | 2010-03-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using skip and direct modes |
KR101245251B1 (ko) | 2006-03-09 | 2013-03-19 | 삼성전자주식회사 | 균일한 화질을 제공하는 다시점 영상 부호화 및 복호화방법 및 장치 |
US20100091845A1 (en) | 2006-03-30 | 2010-04-15 | Byeong Moon Jeon | Method and apparatus for decoding/encoding a video signal |
US8923399B2 (en) * | 2007-01-24 | 2014-12-30 | Lg Electronics Inc. | Method and an apparatus for processing a video signal |
KR101560182B1 (ko) * | 2008-01-07 | 2015-10-15 | 삼성전자주식회사 | 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치 |
US20110109721A1 (en) * | 2009-11-06 | 2011-05-12 | Sony Corporation | Dynamic reference frame reordering for frame sequential stereoscopic video encoding |
-
2011
- 2011-11-17 US US13/299,195 patent/US8854486B2/en active Active
-
2012
- 2012-09-11 JP JP2014522261A patent/JP5744333B2/ja active Active
- 2012-09-11 WO PCT/JP2012/073763 patent/WO2013073282A1/en active Application Filing
- 2012-09-11 EP EP12770266.0A patent/EP2781090B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US8854486B2 (en) | 2014-10-07 |
US20120062756A1 (en) | 2012-03-15 |
EP2781090A1 (en) | 2014-09-24 |
EP2781090B1 (en) | 2023-01-18 |
WO2013073282A1 (en) | 2013-05-23 |
JP2015502057A (ja) | 2015-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5744333B2 (ja) | シーンのマルチビュービデオを処理する方法及びシステム | |
JP5116394B2 (ja) | 或るシーンの複数のマルチビュービデオを処理する方法及びシステム | |
JP5013993B2 (ja) | 或るシーンの複数のマルチビュービデオを処理する方法及びシステム | |
JP4890201B2 (ja) | マルチビュービデオを管理する方法及びシステム | |
JP5274766B2 (ja) | マルチビュービデオを予測する方法及びシステム | |
JP5106830B2 (ja) | マルチビュービデオにランダムにアクセスする方法及びシステム | |
JP5154679B2 (ja) | マルチビュービデオをデコードする方法 | |
US7728878B2 (en) | Method and system for processing multiview videos for view synthesis using side information | |
JP2015519834A (ja) | 動きベクトル予測子リストを用いてビュー合成のためにマルチビュービデオを処理する方法及びシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20141222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5744333 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |