JP7284221B2 - エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 - Google Patents
エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 Download PDFInfo
- Publication number
- JP7284221B2 JP7284221B2 JP2021125888A JP2021125888A JP7284221B2 JP 7284221 B2 JP7284221 B2 JP 7284221B2 JP 2021125888 A JP2021125888 A JP 2021125888A JP 2021125888 A JP2021125888 A JP 2021125888A JP 7284221 B2 JP7284221 B2 JP 7284221B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- enhancement layer
- prediction
- prediction signal
- base layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000010410 layer Substances 0.000 title claims description 1723
- 239000011229 interlayer Substances 0.000 title claims description 176
- 238000000034 method Methods 0.000 claims description 213
- 238000001914 filtration Methods 0.000 claims description 61
- 238000012546 transfer Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 11
- 230000001131 transforming effect Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 455
- 239000013598 vector Substances 0.000 description 153
- 230000002123 temporal effect Effects 0.000 description 86
- 238000010586 diagram Methods 0.000 description 51
- 230000011664 signaling Effects 0.000 description 48
- 230000008569 process Effects 0.000 description 44
- 230000003595 spectral effect Effects 0.000 description 40
- 238000009795 derivation Methods 0.000 description 31
- 230000003044 adaptive effect Effects 0.000 description 30
- 230000006870 function Effects 0.000 description 30
- 238000005192 partition Methods 0.000 description 30
- 238000000354 decomposition reaction Methods 0.000 description 27
- 238000007476 Maximum Likelihood Methods 0.000 description 22
- 238000009826 distribution Methods 0.000 description 18
- 230000015572 biosynthetic process Effects 0.000 description 16
- 230000001419 dependent effect Effects 0.000 description 16
- 230000006872 improvement Effects 0.000 description 14
- 238000012935 Averaging Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000013139 quantization Methods 0.000 description 10
- 238000000638 solvent extraction Methods 0.000 description 9
- 238000003491 array Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000002349 favourable effect Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 230000034994 death Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000012447 hatching Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010899 nucleation Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/198—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/48—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
- H04N19/615—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
- H04N19/865—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness with detection of the former encoding block subdivision in decompressed video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/34—Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/36—Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
・非ブロック化120の後、しかし、別のループ内過程140(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)の前の再構成されたベース層サンプル200b。
・非ブロック化120とさらにループ内過程140(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)後の、または、複数のループ内過程段階の間の再構成されたベース層サンプル200a。
最先端の主な技術の1つは、H.264/SVC内の層間残差予測である。H.264/SVC内の層間残差予測は、それらがベースモードフラグまたは従来のマクロブロックタイプのどれかを使用することによってシグナリングされたSVCマクロブロックタイプを使用して、符号化されるか否かに関係なく、全てのインター符号化されたマクロブロックに対して採用される。フラグは、空間かつ品質のエンハンスメント層のためのマクロブロック構文(層間残差予測の用法をシグナリングする)に追加される。この残差予測フラグが1と等しいとき、参照層内の対応する領域の残差信号が、双線型フィルタを使用してブロック的にアップサンプリングされ、エンハンスメント層マクロブロックの残差信号のための予測として使用される。その結果、対応する差分信号だけが、エンハンスメント層内で符号化される必要がある。
このセクションの記述において、以下の記法が使用される。
t0:=現在の画像の時間インデックス
t1:=既に再構成された画像の時間インデックス
EL:=エンハンスメント層
BL:=ベース層
EL(t0):=符号化されるべき現在のエンハンスメント層画像
EL_reco:=エンハンスメント層再構成
BL_reco:=ベース層再構成
BL_resi:=ベース層残差信号(ベース層変換係数の逆変換、または、ベース層再構成とベース層予測との間の差)
EL_diff:=エンハンスメント層再構成と、アップサンプリングされた/フィルタにかけられたベース層再構成との間の差
異なるベース層信号とエンハンスメント層信号とは、図28内で説明された記載内で使用される。
・直線性:記述内で言及した多くのフィルタが直線的であるけれども、非線形のフィルタも使用される。
・出力サンプルの数:アップサンプリング操作において、出力サンプルの数は、入力サンプルの数より大きい。ここで、入力データのフィルタリングは、入力値より多いサンプルを作り出す。従来のフィルタリングでは、出力サンプルの数は、入力のサンプルの数と等しい。そのようなフィルタリング操作は、例えば、高品質スケーラブル符号化内で使用される。
・位相遅延:整数位置でのサンプルのフィルタリングに対して、位相遅延は、通常、ゼロ(または、サンプル内の整数値の遅延)である。断片的な位置(例えば、半ペルの位置または4分の1ペルの位置)のサンプルの発生に対して、通常、(サンプルのユニット内の)断片的な遅延を有するフィルタが、整数格子のサンプルに適用される。
EL prediction=filter(BL_resi(t0))+MCP_filter(EL_reco(t1))
エンハンスメント層再構成信号の2つ以上仮説が使用されることも、可能である。例えば、
EL prediction=filter(BL_resi(t0))+MCP_filter1(EL_reco(t1))+MCP_filter2(EL_reco(t2))
エンハンスメント層(EL)参照画像の上で使用される動き補償予測(MCP)フィルタは、整数または断片的なサンプル精度のものである。EL参照画像の上で使用されるMCPフィルタは、BL復号化過程の間に、BL参照画像の上で使用されるMCPフィルタと同じである、または、異なる。
動きベクトルMV(x、y、t)は、EL参照画像内の特定の位置を示すために定義される。パラメータxとyが、画像内の空間位置を示す。パラメータtは、参照画像の時間インデックスを記述するために使用され、参照インデックスとも呼ばれる。しばしば、動きベクトルという用語は、2つの空間要素(x、y)だけについて言及するために使用される。MVの整数部分は、参照画像からの1セットのサンプルを取ってくるために使用される。そして、MVの分数部分は、1セットのフィルタからMCPフィルタを選択するために使用される。取得された参照サンプルは、フィルタにかけられた参照サンプルを作り出すために、フィルタにかけられる。動きベクトルは、一般に、異なる予測を使用して符号化される。それは、動きベクトル予測器が、既に符号化された動きベクトル(そして、構文要素が、潜在的動きベクトル予測器のセットの使用された1つを、潜在的に示す)に基づいて得られ、そして、異なるベクトルが、ビットストリーム内に含まれていることを意味する。最終動きベクトルは、送信された動きベクトル差を、動きベクトル予測器に加えることによって得られる。通常、ブロックのための動きパラメータを完全に得ることも可能である。従って、通常、潜在的動きパラメータ候補のリストは、既に符号化されたデータに基づいて構成される。このリストは、参照フレーム内の併置されたブロック内の動きパラメータに基づいて得られる動きパラメータと同様に、空間的に隣接するブロックの動きパラメータを含むことができる。
ベース層(BL)残差信号は、以下の1つと定義できる。
変換係数の逆変換、または、
・BL再構成とBL予測との間の差、または、
・BL変換係数の逆変換がゼロであるBLブロックに対して、それは、BL(例えば、再構成されたBLブロックのハイパスフィルタにかけられたバージョン)から得られた別の信号に取り替えることができる、または、
・上の方法の組み合わせ。
現在のBL残差からEL予測要素を計算するために、ELの画像内の考慮される領域と併置されたBL画像内の領域が特定され、そして、残差信号が、特定されたBL領域から取り出される。併置された領域の定義は、それが、BL解像度の整数のスケーリング係数(例えば、2×スケーラビリティ)、または、BL解像度の断片的なけたスケーリング係数(例えば、1.5×スケーラビリティ)を説明するように作られる。または、BL解像度と同じEL解像度(例えば、品質スケーラビリティ)を生み出すことさえできる。品質スケーラビリティの場合、BL画像内の併置されたブロックは、予測されるべきELブロックと同じ座標を有する。
併置されたBL残差は、フィルタにかけられたBL残差サンプルを発生させるためにアップサンプリングされる/フィルタにかけられることができる。
最終EL予測は、フィルタにかけられたEL再構成サンプルと、フィルタにかけられたBL残差サンプルとを加えることによって得られる。
EL prediction=filter(BL_reco(t0))+MCP_filter(EL_diff(t1))
EL prediction=filter(BL_resi(t0))+MCP_filter1(EL_diff(t1))+MCP_filter2(EL_diff(t2))
・EL再構成とアップサンプリングされた/フィルタにかけられたBL再構成との間の差分、または、
・(非ブロック化、SAO、ALFのような)ループフィルタリング段階の前または間のEL再構成と、アップサンプリングされた/フィルタにかけられたBL再構成との間の差分。
・差分画像のMCPに対して、再構成された画像のMCPと異なる補間フィルタが使用できる。
・差分画像のMCPに対して、補間フィルタが、差分画像内の対応する領域の特性に基づいて、(または、ビットストリーム内の符号化パラメータに基づいて、または、送信された情報に基づいて、)選択される。
・非ブロック化および更にループ内過程の前の再構成されたベース層サンプル(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)。
・非ブロック化の後、しかし、更にループ内過程の前の再構成されたベース層サンプル(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)。
・非ブロック化および更なるループ内過程(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)の後、あるいは、複数のループ内過程ステップの間の再構成されたベース層サンプル。
・(アップサンプリングされた/フィルタにかけられた)BL信号を使用する方法の複数のバージョンが、使用される。これらのバージョンのために採用されたアップサンプリングされた/フィルタにかけられたBL信号が、使用された(整数サンプル位置もフィルタにかける補間フィルタを含む)補間フィルタと異なることができる、または、2番目のバージョンのためにアップサンプリングされた/フィルタにかけられたBL信号が、最初のバージョンのためにアップサンプリングされた/フィルタにかけられたBL信号を、フィルタにかけることによって得られる。異なるバージョンの1つの選択が、系列で、画像で、スライスで、最も大きい符号化ユニットで、符号化ユニットレベルで、または、画像パーティションの別のレベルでシグナリングされる。あるいは、それは、対応する再構成されたBL信号、または、送信された符号化パラメータの特性から推論される。
・異なるフィルタは、BL_recoモードの場合のアップサンプリングされた/フィルタにかけられたBL再構成された信号と、BL_resiモードの場合のBL残差信号とのために使用される。
・アップサンプリングされた/フィルタにかけられたBL信号は、動き補償された差分信号の2つ以上の仮説に結合されることも可能である。これは図32で説明される。
・ローパスフィルタでベース層予測信号をフィルタにかけて、ハイパスフィルタでインター予測信号をフィルタにかけて、得られたフィルタにかけられた信号を合計すること。
・ベース層予測信号とインター予測信号とを変換して、得られた変換ブロックを重畳すること。そこでは、異なる重み付け係数が、異なる周波数位置のために使用される。次に、得られた変換ブロックは、逆変換され、エンハンスメント層予測信号として使用される。あるいは、得られた変換係数は、スケーリングされた送信された変換係数レベルに追加され、非ブロック化およびループ内過程の前に再構成されたブロックを得るために逆変換される。
EL prediction=BL_weighting(BL_reco(t0))+EL_weighting(MCP_filter(EL_reco(t1)))
64,63,61,49,
63,62,57,40,
61,56,44,28,
49,46,32,15,
そして、EL再構成変換係数のための重み付けマトリックスは、例えば、以下の通りである。
0,2,8,24,
3,7,16,32,
9,18,20,26,
22,31,30,23,
1.ベース層符号化パラメータに基づいて、N×Mエンハンスメント層ブロック内の各サンプル位置のための符号化パラメータの導出。
2.特定のサブブロック内の全てのサンプル位置が、同一の関連した符号化パラメータを持つように、サブブロック中のN×Mエンハンスメント層ブロックのパーティションの導出。
c=fc(pel)
また、関数fc(pel)は、特定のエンハンスメント層サンプル位置が、ベース層サンプル位置の間の距離のユニット内の断片的な成分を有する場合において、符号化パラメータを補間できる。
a)最高レベルをサイズN×Mのブロックに対応するレベルに設定すること。現在のレベルを、最も低いレベル(すなわち、正方形または長方形のブロックが、最小のブロックサイズの単一ブロックを含むレベル)に設定すること。ステップb)に行く。
b)現在のレベルでそれぞれの正方形または長方形のブロックに対して、仮に、正方形または長方形のブロックの許された分解が存在するならば、それぞれのサブブロック内の全てのサンプル位置が、同じ符号化パラメータに関連する、または、(何らかの差の大きさに従って、)小さい差で符号化パラメータに関連する。その分解は、候補分解である。全ての候補分解のうち、正方形または長方形のブロックを、サブブロックの最少の数に分解するものを選択する。仮に、現在のレベルが最高レベルであれば、ステップc)に行く。さもなければ、現在のレベルを、次のより高いレベルに設定して、ステップb)に行く。 c)終了
・動き補償のために、得られた動きパラメータと、再構成されたエンハンスメント層参照画像とを使用して、エンハンスメント層ブロックのための予測信号を得ること。
・(アップサンプリングされた/フィルタにかけられた)ベース層再構成を、再構成されたエンハンスメント層の画像から引き算することによって発生する、得られた動きパラメータとエンハンスメント層参照画像を使用して、(a)現在の画像のための(アップサンプリングされた/フィルタにかけられた)ベース層再構成と、(b)動き補償信号との組み合わせ。
・(a)(アップサンプリングされた/フィルタにかけられた)ベース層残差電流画像(再構成された信号と予測との間の差、または、符号化された変換係数値の逆変換)と、(b)得られた動きパラメータと再構成されたエンハンスメント層参照画像を使用する動き補償信号との組み合わせ。
・対応するベース層再構成の(アップサンプリングされた/フィルタにかけられた)バージョンは、イントラ予測信号として使用される。
・得られたイントラ予測パラメータは、エンハンスメント層内に空間イントラ予測のために使用される。
t(u-v)=w
・最初に、ベース層サンプル位置は、pbl=fp,4×4(pel)として得る。
・仮に、pblが、以前に符号化されたベース層ブロックとマージすることによって得られた関連したインター予測パラメータを持つ(または、同じ動きパラメータを持つ)ならば、cは、ベース層内でマージするために使用される、ベース層ブロックに対応するエンハンスメント層ブロックの動きパラメータと等しい(すなわち、動きパラメータは、対応するエンハンスメント層ブロックからコピーされる)。
・さもなければ、cはpblに関連した符号化パラメータと等しい。
別の実施の形態では、ベース層から符号化パラメータを推論することによって得られたパーティションは、ビットストリーム内でシグナリングされたサイド情報に基づいてさらに改良される。
別の実施の形態では、符号化パラメータがベース層から推論されるブロックのための残差符号化は、ベース層から推論されるブロック内のパーティションから独立している。例えば、それは、ベース層からの符号化パラメータの推論が、ブロックを、符号化パラメータの別々のセットを有してそれぞれいくつかのサブブロックに仕切るけれども、単一の変換がブロックに適用されることを意味する。または、サブブロックのためのパーティションと符号化パラメータとがベース層から推論されるブロックが、残差を変換符号化する目的のために、より小さいブロックに分割される。そこでは、変換ブロックへの分割が、異なる符号化パラメータを有するブロック内の推論されたパーティションから独立している。
仮に、「ベースモードフラグ」が1に等しく、かつ、ベース層内の対応する参照マクロブロックがインター符号化されるならば、エンハンスメント層マクロブロックも、インター符号化される。そして、全ての動きパラメータが、併置されたベース層ブロックから推論される。さもなければ(「ベースモードフラグ」が0に等しいならば)、各動きベクトル(いわゆる「動き予測フラグ」の構文要素)は、ベース層動きベクトルが動きベクトル予測器として使用されるか否かに関係なく、送信され、指定される。仮に、「動き予測フラグ」が1に等しいならば、ベース層の併置された参照ブロックの動きベクトル予測器は、解像度比率に従ってスケーリングされて、動きベクトル予測器として使用される。仮に、「動き予測フラグ」が0に等しいならば、動きベクトル予測器は、H.264/AVCで規定されるように計算される。
HEVCにおいて、動きパラメータは、適応動きベクトル予測(AMVP)を適用することによって予測される。AMVPは互いに競争する2つの空間動きベクトル予測器と1つの時間動きベクトル予測器とを特色とする。空間候補は、現在の予測ブロックの左または上に位置した、隣接する予測ブロックの位置から選択される。時間候補は、前に符号化された画像の併置された位置の中で選択される。全ての空間的で時間的候補の位置は、図36内で表示される。
HEVCは、更に、符号化構成に基づいた四分木から生じる符号化冗長動きパラメータの減少を狙うブロックマージアルゴリズムを用いる。これは、特定動きパラメータを共有する多重予測ブロックから成る領域を、作成することによって達成される。これらの動きパラメータは、新しい動き情報の種を蒔いている各領域の最初の予測ブロックのために、一度符号化される必要があるだけである。AMVPと同様に、ブロックマージアルゴリズムは、それぞれの予測ブロックのために、可能なマージ候補を含むリストを構成する。候補の数は、スライスヘッダー内でシグナリングされて1から5までの範囲がある「NumMergeCands」によって定義される。候補は、空間的近傍予測ブロックと併置された時間画像内の予測ブロックとから推論される。候補であるとみなされる予測ブロックのための可能なサンプル位置は、図36に示された位置と等しい。HEVC内の可能な予測ブロックのパーティションを有するブロックマージアルゴリズムの例は、図37で説明される。図37(a)内の太線は、1つの領域にマージされて特定の動きデータを保持する予測ブロックを全て定義する。この動きデータはブロックSだけに送られる。符号化されるべき現在の予測ブロックは、「X」によって示される。縞模様領域内の予想ブロックは、ブロック走査順序内で予測ブロックXの後継者であるので、関連した予測データをまだ有さない。ドットは、可能な空間マージ候補である隣接するブロックのサンプル位置を示す。可能な候補が予測器リストに挿入される前に、空間候補のための冗長検査が、図37(b)内で示されるように実行される。
実施の形態において、動きベクトルは、ベース層の併置された予測ブロック内心位置C1から得られ、最初のエントリーとして候補リストの先頭に加えられる。動きベクトル予測器の候補リストは、1つの項目によって拡張される。仮に、サンプル位置C1のために利用可能なベース層内に動きデータが全くなければ、リスト構造は触れられない。別の実施の形態では、ベース層内のサンプル位置のどんな系列も、動きデータに対してチェックされる。動きデータが見つけられた場合において、対応する位置の動きベクトル予測器は、候補リストに挿入され、エンハンスメント層の動き補償予測のために利用可能である。その上、ベース層から得られた動きベクトル予測器は、リストのいかなる他の位置の候補リストにも挿入される。別の実施の形態では、仮に、所定の規制が認められるならば、ベース層動き予測器は候補リストに挿入されるだけである。これらの制約は、ゼロと等しくなければならない、併置された参照ブロックのマージフラグの値を含む。別の制約は、解像度比率に対してベース層の併置された予測ブロックの広さと等しいエンハンスメント層内の予測ブロックの広さである。例えば、K×空間スケーラビリティの応用において、仮に、ベース層内の併置されたブロックの幅がNと等しく、エンハンスメント層内の符号化されるべき予測ブロックの幅がK*Nと等しい場合のみ、動きベクトル予測器が推論される。
別の実施の形態では、ベース層の数個のサンプル位置からの1個以上の動きベクトル予測器が、エンハンスメント層の候補リストに追加される。別の実施の形態では、併置されたブロックから推論された動きベクトル予測器を有する候補が、リストを拡張することよりむしろ、リスト内の空間的で時間的な候補に置き代わる。また、動きベクトル予測器候補リスト内のベース層データから得られた多重動きベクトル予測器を含むことも可能である。
実施の形態において、図38のサンプル位置C1をカバーするベース層内の併置されたブロックの動きベクトル予測器は、エンハンスメント層内の現在予測ブロックを符号化するための可能なマージ候補であるとみなされる。しかしながら、仮に、参照ブロックの「merge_flag」(マージフラグ)が1と等しい、または、併置された参照ブロックが動きデータを全く含んでいないならば、動きベクトル予測器はリストに挿入されない。いかなる他の場合でも、得られた動きベクトル予測器は、2番目のエントリーとしてマージ候補リストに追加される。この実施の形態では、マージ候補リストの長さが保有され、拡張されないことに注意されたい。別の実施の形態では、図38に表現されているように、1個以上の動きベクトル予測器が、候補リストをマージするために加えられるように、サンプル位置のいずれもカバーする予測ブロックから得られる。別の実施の形態では、ベース層の1個または数個の動きベクトル予測器が、どんな位置にてもマージ候補リストに追加される。別の実施の形態では、仮に、特定の制約を満たすならば、1個または複数個の動きベクトル予測器が、マージ候補リストに追加されるだけである。そのような制約は、(動きベクトル予測のために前の実施の形態のセクション内で記載された解像度比率に関する)ベース層の併置されたブロックの広さに整合するエンハンスメント層の予測ブロックの広さを含む。別の実施の形態内の別の制約は、1に等しい「merge_flag」の値である。別の実施の形態では、マージ候補リストの長さが、ベース層の併置された参照ブロックから推論された動きベクトル予測器の数によって拡張される。
実施の形態では、併置されたベース層ブロックは、図38に表現されるように、サンプル位置A1をカバーする予測ブロックから発生する候補と共に動き補償予測される。仮に、エンハンスメント層内の予測ブロックのマージ候補リストが、動きベクトル予測器がエンハンスメント層内に対応するサンプル位置A1から発生する候補を含むならば、この候補は、最初のエントリーとしてリスト内に置かれる。その結果、この候補は、インデックス0によって索引付けられ、従って、最も短い固定長符号ワードを割り当てられる。この実施の形態において、このステップは、エンハンスメント層内のマージ候補リストに対して、併置されたベース層ブロックの動きベクトル予測器の導出の後に実行される。従って、再順序付け過程は、併置されたベース層ブロックの動きベクトル予測器として、対応するブロックから発生する候補に最も低いインデックスを割り当てる。2番目に低いインデックスは、このセクションの2番目の部分で説明されているように、ベース層内の併置されたブロックから導出する候補に割り当てられる。その上、再順序付けの過程は、ベース層内の併置されたブロックの「merge_flag」が1と等しい場合にだけ、行われる。別の実施の形態では、再順序付けの過程は、ベース層内の併置された予測ブロックの「merge_flag」の値の如何に関わらず実行される。別の実施の形態において、対応するオリジナルの動きベクトル予測器を有する候補は、マージ候補リストのどんな位置にも置かれる。別の実施の形態では、再順序付けの過程は、マージ候補リスト内の他の全ての候補を取り除く。ここに、動きベクトル予測器が、ベース層内の併置されたブロックの動き補償予測のために使用される動きベクトル予測器と同じオリジナルを有している候補だけが、リスト内に留まる。この場合、単独の候補が利用され、そして、インデックスは全く送信されない。
実施の形態において、併置されたベース層ブロックは、図38に表わされるように、サンプル位置A1をカバーする予測ブロックから発生する候補と共に、動き補償予測される。仮に、エンハンスメント層内のブロックの動きベクトル予測器候補リストが、動きベクトル予測器がエンハンスメント層内に対応するサンプル位置A1から発生する候補を含むならば、この候補は最初のエントリーとしてリスト内に置かれる。その結果、この候補は、インデックス0によって索引付けられ、従って、最も短い固定長符号ワードを割り当てられる。この実施の形態において、このステップは、エンハンスメント層内の動きベクトル予測器リストに対して、併置されたベース層ブロックの動きベクトル予測器の導出の後に実行される。従って、再順序付け過程は、併置されたベース層ブロックの動きベクトル予測器として、対応するブロックから発生する候補に最も低いインデックスを割り当てる。2番目に低いインデックスは、このセクションの最初の部分で説明されているように、ベース層内の併置されたブロックから導出する候補に割り当てられる。その上、再順序付けの過程は、ベース層内の併置されたブロックの「merge_flag」が0と等しい場合にだけ、行われる。別の実施の形態では、再順序付けの過程は、ベース層内の併置された予測ブロックの「merge_flag」の値の如何に関わらず実行される。別の実施の形態において、対応するオリジナルの動きベクトル予測器を有する候補は、動きベクトル予測器候補リストのどんな位置にも置かれる。
・併置された再構成されたベース層信号
・併置された残差ベース層信号
・エンハンスメント層予測信号を再構成されたベース層信号から引き算することによって得られた、推定されたエンハンスメント層の残差信号
・ベース層フレームの画像パーティション
勾配パラメータは以下の通り得られる:
調査されたブロックの各画素に対して、勾配が計算される。これらの勾配から、大きさと角度が計算される。ブロック内で最も発生した角度は、ブロックに関連する(ブロック角度)。角度は、3つの方向のみ、水平(0°)、垂直(90°)、対角(45°)を使用するように丸められる。
エッジ検出器は、以下のような調査されたブロックに適用される:
最初に、ブロックが、n×n平滑化フィルタ(例えば、ガウシアン)によって平滑化される。
サイズm×mの勾配マトリクスが、各画素の勾配を計算するために使用される。あらゆる画素の大きさと角度が計算される。角度は、3つの方向のみ、水平(0°)、垂直(90°)、対角(45°)を使用するように向く。
所定の閾値1より大きい大きさを有するあらゆる画素に対して、隣接する画素がチェックされる。仮に、隣接する画素が閾値2より大きい大きさを有し、そして、現在の画素と同じ角度を有しているならば、この角度の計数器が増加する。全体のブロックに対して、最高値の計数器がブロックの角度として選択される。
特定のTUに対して、ベース層信号の周波数領域から符号化パラメータを得るために、調査され併置された信号(再構成されたベース層信号/残差ベース層信号/推定されたエンハンスメント層信号)は、周波数領域内で変換される。好ましくは、これは、その特定のエンハンスメント層TUによって使用される同じ変換を使用して、実行される。
結果としてもたらされるベース層変換係数は、量子化されても、されなくてもよい。
エンハンスメント層ブロックと比較可能な係数分布を得るために、変更されたラムダによるレート歪量子化が使用される。
特定の重要な係数分布の走査有効スコアが、以下の通り定義される:
調査されたブロックの各位置を、調査された走査の順にインデックスによって表わせてください。次に、重要な係数位置のインデックス値の合計が、この走査の有効スコアと定義される。その結果、より小さいスコアを有する走査であればあるほど、特定の分布は、より良い効率性を表わす。
仮に、いくつかの走査が、特定のTUに対して利用可能であるならば、走査の1つを唯一選択する規則が、定義される必要がある。
選択された走査が、(どんな追加データも送信されること無く)既に復号化された信号から直接得ることができる。これは、併置されたベース層信号の特性に基づいて、または、エンハンスメント層信号だけを利用することによってのどちらかによって可能である。
走査パターンが、以下によって、EL信号から得ることができる。
・前述された最先端の導出規則。
・併置された輝度残差のために選択された色差残差のための走査パターンを使用すること。
・符号化モードと使用した走査パターンとの間の固定写像を定義すること。
・最後の重要な係数位置から走査パターンを得ること(推定された固定走査パターンに比例して)。
・好ましい実施の形態において、走査パターンが、以下の通り既に復号化された最後の位置に依存して選択される:
・それぞれの利用可能な走査に対して、ベース層係数を符号化するためのコストが評価される。最低コストを有する走査は、エンハンスメント層係数を復号化のために使用される。
・それぞれの利用可能な走査の有効スコアは、ベース層係数分布のために計算される。最小のスコアを有する走査は、エンハンスメント層係数を復号化するために使用される。
・変換ブロック内のベース層係数の分布は、特定の走査パターンに関連している分布の事前に定義されたセットの1つに分類される。
・走査パターンは、最後の重要なベース層係数に依存して選択される。
変換ブロックの走査パターンが、エンコーダによってレート歪の意味で選択され、次に、ビットストリーム内でシグナリングされる。
特定のTUに対して、走査パターン候補を選択する過程は、前述した、どんな符号化パラメータも利用してよい、および/または、その特定のTUの特定の特性を利用する所定の規則に従う。それらの中には、以下が存在する。
・TUは輝度/色差分信号の残差を表わす。
・TUは、特定のサイズを有する。
・TUは特定の予測モードの残差を表わす。
・TU内の最後の重要な位置は、デコーダによって知られ、TUの特定のサブ分割内に属する。
・TUは1つのI/B/P-スライス(Slice)の部分である。
・TUの係数は、特定の量子化パラメータを使用して、量子化される。
走査パターンを得るために前述したいずれかの方法が、特定のTUに対して、明白な走査パターンにシグナリングするための文脈モデルを得るために使用される。
・別々の文脈モデルが、ベース層情報を使用して、全てのまたはサブセットの符号化モードに対して使用される。また、異なる文脈モデルを、ベース層情報を有する異なるモードに対して使用することも可能である。
・文脈モデルは、併置されたベース層ブロック内のデータに依存できる(例えば、ベース層内の変換係数分布、ベース層の勾配情報、併置されたベース層ブロック内の最後のキャン位置)。
・最後の走査位置が、最後のベース層走査位置との差として符号化できる。
・仮に、最後の走査位置が、TU内で、xとy位置にシグナリングすることによって符号化されるならば、2番目のシグナリングされた座標の文脈モデルは、最初のシグナリングの値に依存できる。
・最後の重要な位置から独立している走査パターンを得るために、前述のいずれかの方法が、最後の重要な位置にシグナリングするために、文脈モデルを得るために使用される。
・仮に、最後の走査位置が、TU内で、そのxとy位置にシグナリングすることによって符号化されるならば、2番目の座標の文脈モデルは、既に最初の座標を知るとき、まだ可能な候補であるそれらの走査パターンに依存できる。
・仮に、最後の走査位置が、TU内で、そのxとy位置にシグナリングすることによって符号化されるならば、2番目の座標の文脈モデルは、既に最初の座標を知るとき、走査パターンが既に唯一選択されるかどうかに依存できる。
・文脈モデルは、特定のTU内の使用された走査パターンに依存できる。
・走査パターンを得るために前述した方法のいずれかが、最後の重要な位置にシグナリングするために文脈モデルを得るために使用される。
・別々の文脈モデルは、ベース層情報を使用する全てのまたはサブセットの符号化モードに対して使用される。また、ベース層情報を有する異なるモードに対して異なる文脈モデルを使用することも可能である。
・文脈モデルは、併置されたベース層ブロック内のデータ(例えば、特定の周波数位置対して、重要な変換係数の数)に依存できる。
・走査パターンを得るために前述した方法のいずれかが、重要な位置および/またはそれらのレベルにシグナリングするために、文脈モデルを得るために使用される。
・符号化されるべき係数の空間的近傍内の既に符号化された変換係数レベルの重要な数、および、同様の周波数位置の併置されたベース層信号内の重要な変換係数の数の両方を評価する一般化されたテンプレートが、使用される。
・符号化されるべき係数の空間的近傍内の既に符号化された変換係数レベルの重要な数、および、同様の周波数位置の併置されたベース層信号内の重要な変換係数のレベルの両方を評価する一般化されたテンプレートが、使用される。
・サブグループフラグのためにモデル化される文脈は、使用された走査パターンおよび/または特定の変換サイズに依存する。
・エンハンスメント層は、初期化値の別々のセットを使用する。
・エンハンスメント層は、異なる操作モード(空間的/時間的、または、品質のスケーラビリティ)に対して、初期化値の別々のセットを使用する。
・ベース層内の計数部分を有するエンハンスメント層文脈モデルが、初期化状態として、それらの計数部分の状態を使用する。
・文脈の初期状態を得るためのアルゴリズムが、ベース層QPおよび/またはデルタQPに依存する。
ビットストリームを符号化するスケーラブルビデオは、異なる層で構成される:完全な復号化可能ビデオを提供するベース層と、復号化のために追加して使用されるエンハンスメント層とである。エンハンスメント層は、より高い空間解像度(空間的スケーラビリティ)、時間解像度(時間的スケーラビリティ)または品質(SNRスケーラビリティ)を提供できる。
H.264/AVC SVCのような以前の規格では、動きベクトル、参照画像インデックスまたはイントラ予測モードのような構文要素は、符号化されたベース層内の対応する構文要素から直接に予測される。
エンハンスメント層内では、メカニズムは、ブロックレベルで、ベース層構文要素から得られた、あるいは、別のエンハンスメント層構文要素または復号化されたエンハンスメント層サンプルから予測された予測信号を使用して、その間において切り換えるために存在する。
空間的または品質的エンハンスメント層の画像のブロック(a)に対して、ベース層の画像の対応するブロック(b)が決定される。それは同じ画像領域をカバーする。
エンハンスメント層のブロック(a)のためのインター予測信号は、以下の方法を使用して形成される:
1.動き補償パラメータセット候補は、例えば、時間的または空間的に隣接するエンハンスメント層ブロックまたはそれの導出物から決定される。
2.動き補償は、各候補の動き補償パラメータセットに対して、エンハンスメント層内でインター予測信号を形成するために実行される。
3.最も良い動き補償パラメータセットは、エンハンスメント層ブロック(a)のための予測信号と、ベース層ブロック(b)の再構成信号との間の誤差の大きさを最小にすることによって選択される。空間的スケーラビリティにおいて、ベース層ブロック(b)は、補間フィルタを使用して、空間的にアップサンプリングされる。
エンコーダとデコーダの両方が、利用可能な候補内で、最適動き補償パラメータセットを選択して、同じ予測信号を作成するために、同じ予測ステップを実行できる。これらのパラメータは、符号化映像ビットストリーム内ではシグナリングされない。
別の実施例は、動き補償パラメータセット候補を生成させるために、HEVCのマージモード候補リストを使用する。
空間的または品質のエンハンスメント層の画像のブロック(a)に対して、同じ画像領域をカバーするベース層の画像の対応するブロック(b)が決定される。
1.動きベクトル予測が選択される。
2.検索位置の定義されたセットの動きの推定が、エンハンスメント層の参照画像で実行される。
3.それぞれの検索位置に対して、誤差の大きさが決定され、最も小さい誤差を有する動きベクトルが選択される。
4.ブロック(a)の予測信号が、選択された動きベクトルを使用して形成される。
エンハンスメント層(n)画像内の各ブロック(a)に対して、再構成されたベース層(n-1)の画像内の同じ領域をカバーする、対応するブロック(b)が決定される。
1)イントラ予測信号は、エンハンスメント層のイントラ予測のための規則に従い、しかし、ベース層からサンプル値を使用して、それぞれの利用可能なイントラ予測モードのために生成される。
2)最も良い予測モード(pbest)は、イントラ予測信号と復号化されたベース層ブロック(b)との間の誤差の大きさ(例えば、絶対差の合計)を最小にすることによって決定される。
3)ステップ2)内で選択された予測(pbest)モードは、エンハンスメント層のためのイントラ予測規則をサポートして、エンハンスメント層ブロック(a)のための予測信号を生成するために使用される。
スケーラブルまたは品質のエンハンスメント層のブロック(a)(図45参照)のためのイントラ予測信号を形成するためのスケーラブルビデオデコーダにおいて、同じ層の周囲領域からのサンプル(b)のラインは、ブロック領域内に満たされるように使用される。これらのサンプルは、既に符号化された領域から取得される(通常、しかし、上側と左側の境界上には必要ない)。
a)仮に、周囲領域内の画素が、まだ符号化されていないならば、画素値は、現在のブロックを予測するために使用されない。
b)仮に、周囲領域内の画素が、まだ符号化されていないならば、画素値は、既に符号化された隣接する画素から得られる(例えば、反復によって)。
c)仮に、周囲領域内の画素が、まだ符号化されていないならば、画素値は、復号化されたベース層の画像の対応する領域内で画素から得られる。
可能な角度の数は制限される。
代替の実施の形態では、ベース層の画像のサンプルだけが、オフセット(oi)を決定するために使用される。
別の予測情報が、例えば、サブブロック内のブロックのパーティションのために、方法1~3と同様にして推論される。
1)予測信号は、テストされたパラメータのそれぞれの可能な値のために生成される。
2)最も良い予測モード(pbest)が、予測信号と復号化されたベース層ブロック(b)との間の誤差大きさ(例えば、絶対差の合計)を最小にすることによって決定される。
3)ステップ2)で選択された予測(pbest)モードが、エンハンスメント層ブロック(a)のための予測信号を生成するために使用される。
主な実施例:エンハンスメント層内のブロックを符号化することに対して、再構成されたベース層のサンプルを使用してイントラ予測信号を生成するための多重方法が、再構成されたエンハンスメント層のサンプルだけに基づく予測信号を生成する方法に加えて、提供される。
・多重方法は以下の方法を含む。(アップサンプリングされた/フィルタにかけられた)再構成されたベース層信号は、エンハンスメント層予測信号として直接に使用される。
・多重方法は以下の方法を含む。(アップサンプリングされた/フィルタにかけられた)再構成されたベース層信号は、空間イントラ予測信号に結合される。そこでは、空間イントラ予測が、隣接するブロックに対して差分サンプルに基づいて得られる。差分サンプルは、再構成されたエンハンスメント層信号と(アップサンプリングされた/フィルタにかけられた)再構成されたベース層信号との差を表わす(実施例A参照)。
・多重方法は以下の方法を含む。(隣接する再構成されたエンハンスメント層のサンプルを使用して得られた)従来の空間イントラ予測信号は、(アップサンプリングされた/フィルタにかけられた)ベース層残差信号(ベース層変換係数の逆変換、または、ベース層再構成とベース層予測の差)に結合される(実施例B参照)。
・多重方法は以下の方法を含む。(アップサンプリングされた/フィルタにかけられた)再構成されたベース層信号は、空間イントラ予測信号に結合される。そこでは、空間イントラ予測が、隣接するブロックの再構成されたエンハンスメント層のサンプルに基づいて得られる。最終予測信号が、異なる周波数成分が異なる重み付けを使用する方法で、空間予測信号とベース層予測信号とに重み付けすることによって得られる(実施例C1参照)。
これは、例えば、以下のどれかによって実現される。
○ベース層予測信号を、ローパスフィルタによってフィルタにかけ、空間イントラ予測信号を、ハイパスフィルタによってフィルタにかけ、得られたフィルタにかけられた信号を加算すること(実施例C2参照)。
○ベース層予測信号とエンハンスメント層予測信号を変換し、得られた変換ブロックを重ねる。そこでは、異なる重み付け係数が、異なる周波数位置に対して使用される(実施例C3参照)。得られた変換ブロックは、逆変換され、エンハンスメント層予測信号として使用される。あるいは、得られた変換係数は、スケーリングされた送信された変換係数レベルに追加され、次に、非ブロック化およびループ内過程の前に再構成されたブロックを得るために、逆変換される(実施例C4参照)。
・再構成されたベース層信号を使用する方法に対して、以下のバージョンが使用される。これは固定される、または、それは、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルでシグナリングされる。または、それは、別の符号化パラメータに依存して作成される。
○非ブロック化およびループ内過程の前の再構成されたベース層のサンプル(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)。
○非ブロック化の後で、ループ内過程の前の再構成されたベース層のサンプル(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)。
○非ブロック化およびさらなるループ内過程(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)の後、または、多重ループ内過程ステップの間の後の再構成されたベース層のサンプル(実施例D参照)
・(アップサンプリングされた/フィルタにかけられた)ベース層信号を使用する方法の多重バージョンが使用される。これらのバージョンのために採用された、アップサンプリングされた/フィルタにかけられたベース層信号が、使用された補間フィルタ(整数サンプル位置をフィルタにかける補間フィルタを含む)内で異なる。または、2番目のバージョンのためにアップサンプリングされた/フィルタにかけられたベース層信号が、最初のバージョンのためにアップサンプリングされた/フィルタにかけられたベース層信号をフィルタにかけることによって得られる。異なるバージョンの1つの選択が、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルでシグナリングされる。それは、対応する再構成されたベース層信号、または、送信された符号化パラメータの特性から推論される(実施例E参照)。
・異なるフィルタが、再構成されたベース層信号(実施例E参照)およびベース層残差信号(実施例F参照)を、アップサンプリングする/フィルタにかけるために使用される。
・残差信号がゼロであるベース層ブロックに対して、それは、ベース層から得られた別の信号(例えば、再構成されたベース層ブロックのハイパスフィルタにかけられたバージョン)に取り替えられる、(実施例G参照)。
・空間イントラ予測を使用するモードに対して、(特定の符号化順序による)エンハンスメント層内の利用できない隣接するサンプルが、アップサンプリングされた/フィルタにかけられたベース層信号の対応するサンプルに取り替えられる(実施例H参照)。
・空間イントラ予測を使用するモードに対して、イントラ予測モードの符号化が変更される。最尤モードのリストは、併置されたベース層信号のイントラ予測モードを含む。
・特定のバージョンにおいて、エンハンスメント層の画像は、2段階の過程内で復号化される。最初の段階では、予測のために、ベース層信号を使用するブロックだけ(隣接するブロックを使用しない)が、または、インター予測信号が、復号化され、再構成される。2番目の段階では、予測のための隣接するサンプルを使用する残差ブロックは、再構成される。2番目の段階で再構成されたブロックに対して、空間イントラ予測概念が拡張される(実施例I参照)。既に再構成されたブロックの有用性に基づいて、現在のブロックの上側や左側に隣接するサンプルだけではなく、下側や右側に隣接するサンプルも、空間イントラ予測のために使用される。
主な実施例:エンハンスメント層内のブロックを符号化することに対して、再構成されたベース層のサンプルを使用して、インター予測信号を発生させるための多重方法が、再構成されたエンハンスメント層のサンプルだけに基づいて予測信号を発生させる方法に追加して提供される。
・多重方法は以下の方法を含む。(既に再構成されたエンハンスメント層の画像の動き補償された補間によって得られる)従来のインター予測信号は、(アップサンプリングされた/フィルタにかけられた)ベース層残差信号(ベース層変換係数の逆変換、または、ベース層再構成とベース層予測との間の差)に結合される。
・多重方法は以下の方法を含む。(アップサンプリングされた/フィルタにかけられた)再構成されたベース層信号は、動き補償予測信号に結合される。そこでは、動き補償予測信号が、動き補償差分画像によって得られる。差分画像は、参照画像に対して、再構成されたエンハンスメント層信号と(アップサンプリングされた/フィルタにかけられた)再構成されたベース層信号との間の差を表わす(実施例J参照)。
・多重方法は以下の方法を含む。(アップサンプリングされた/フィルタにかけられた)再構成されたベース層信号は、インター予測信号に結合される。そこでは、インター予測が、再構成されたエンハンスメント層の画像を使用して、動き補償予測によって得られる。最終予測信号が、異なる周波数成分が異なる重み付け付けを使用する方法で、インター予測信号およびベース層予測信号を重み付けすることによって得られる(実施例C参照)。
これは、例えば、以下のどれかによって実現できる。
○ローパスフィルタでベース層予測信号をフィルタにかけ、ハイパスフィルタでインター予測信号をフィルタにかけ、得られたフィルタにかけられた信号を加算すること。
○ベース層予測信号およびインター予測信号を変換し、得られた変換ブロックを重ねる。そこでは、異なる重み付け係数が、異なる周波数位置に対して使用される。得られた変換ブロックは、非ブロック化およびループ内過程の前に再構成されたブロックを得るために、逆変換され、エンハンスメント層予測信号として使用される、あるいは、得られた変換係数が、スケーリングされた送信された変換係数レベルに追加され、次に、逆変換される。
・再構成されたベース層信号を使用する方法に対して、以下のバージョンが使用される。これが固定される、または、それが、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルでシグナリングされる。または、それが、別の符号化パラメータに依存して作成される。
○非ブロック化およびループ内過程の前の再構成されたベース層のサンプル(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)。
○非ブロック化の後で、ループ内過程の前の再構成されたベース層のサンプル(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)。
○非ブロック化およびループ内過程(サンプル適応型オフセットフィルタまたは適応型ループフィルタなど)の後、または、多重ループ内過程ステップの間の再構成されたベース層のサンプル(実施例D参照)。
・残差信号がゼロであるベース層ブロックに対して、それは、ベース層から得られた別の信号(例えば、再構成されたベース層ブロックのハイパスフィルタにかけられたバージョン)に取り替えられる、(実施例G参照)。
・(アップサンプリングされた/フィルタにかけられた)ベース層信号を使用する方法の多重バージョンが使用される。これらのバージョンのために採用された、アップサンプリングされた/フィルタにかけられたベース層信号が、使用された補間フィルタ(整数サンプル位置をフィルタにかける補間フィルタを含む)内で異なる。または、2番目のバージョンのためにアップサンプリングされた/フィルタにかけられたベース層信号が、最初のバージョンのためにアップサンプリングされた/フィルタにかけられたベース層信号をフィルタにかけることによって得られる。異なるバージョンの1つの選択が、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルでシグナリングされる。それは、対応する再構成されたベース層信号、または、送信された符号化パラメータの特性から推論される(実施例E参照)。
・異なるフィルタが、再構成されたベース層信号(実施例E参照)およびベース層残差信号(実施例F参照)を、アップサンプリングする/フィルタにかけるために使用される。
・差分画像(エンハンスメント層再構成と、アップサンプリングされた/フィルタにかけられたベース層信号との間の差)の動き補償予測に対して(実施例J参照)、異なる補間フィルタが、再構成された画像の動き補償予測に対してより使用される。
・差分画像(エンハンスメント層再構成と、アップサンプリングされた/フィルタにかけられたベース層信号との間の差)の動き補償予測に対して(実施例J参照)、補間フィルタが、差分画像内の対応する領域の特性に基づいて(または、符号化パラメータに基づいて、または、ビットストリーム内で送信された情報に基づいて)選択される。
主な実施例:エンハンスメント層動きパラメータ符号化のために、複数のエンハンスメント層予測器と、ベース層から得られた少なくとも1つの予測器との使用。
・(スケーリングされた)ベース層動きベクトルを、動きベクトル予測器リストに追加すること(実施例K参照)。
○現在のブロックの中央位置の併置されたサンプルをカバーするベース層ブロックの使用(可能な別の導出)。
○解像度比率に従うスケール動きベクトル。
・併置されたベース層ブロックの動きデータをマージ候補リストに加えること(実施例K参照)。
○現在のブロックの中央位置の併置されたサンプルをカバーするベース層ブロックの使用(可能な別の導出)。
○解像度比率に従うスケール動きベクトル。
○仮に、ベース層内で「マージ_フラグ」が1と等しいならば、加算しない。
・ベース層マージ情報に基づくマージ候補リストの再順序付け(実施例L参照)
○仮に、併置されたベース層ブロックが、特定の候補にマージされるならば、対応するエンハンスメント層候補が、エンハンスメント層マージ候補リスト内で、最初のエントリーとして使用される。
・ベース層動き予測器情報に基づく動き予測器候補リストの再順序付け(実施例L参照)
○仮に、併置されたベース層ブロックが、特定の動きベクトル予測器を使用するならば、対応するエンハンスメント層動きベクトル予測器が、エンハンスメント層動きベクトル予測器候補リスト内で、最初のエントリーとして使用される。
・マージインデックスの導出(すなわち、現在のブロックがマージされる候補)は、併置されたブロック内のベース層情報に基づく(実施例M参照)。例として、仮に、ベース層ブロックが、特定の隣接するブロックにマージされ、そして、それが、エンハンスメント層ブロックもマージするビットストリーム内でシグナリングされるならば、マージインデックスは、全く送信されないけれども、代わりに、エンハンスメント層ブロックが、併置されたベース層ブロックとして、同じ隣接するブロック(しかし、エンハンスメント層内の)にマージされる。
主な実施例:ベース層パーティションおよび動きパラメータに基づいた、エンハンスメント層パーティションおよび動きパラメータの推論(おそらく、この実施例をサブ実施例のどれかに結合することが要求される)。
・併置されたベース層動きデータに基づくエンハンスメント層のN×Mサブブロックのための動きパラメータを得ること。同じ得られたパラメータ(または、小さい差を有するパラメータ)を有するブロックを、より大きいブロックに纏めること。予測と符号化ユニットを決定すること。(実施例T参照)
・動きパラメータは、動き仮説、参照インデックスリスト、動きベクトル、動きベクトル予測器識別子、マージ識別子の数を含む。
・エンハンスメント層予測信号を発生させるための多重方法の1つにシグナリングすること。そのような方法は以下を含む。
○得られた動きパラメータおよび再構成されたエンハンスメント層の参照画像を使用する動き補償。
○(a)現在の画像のための(アップサンプリングされた/フィルタにかけられた)ベース層再構成と、(b)得られた動きパラメータを使用する動き補償信号と、再構成されたエンハンスメント層の画像から、(アップサンプリングされた/フィルタにかけられた)ベース層再構成を引き算することによって発生するエンハンスメント層の参照画像とを結合すること。
○(a)現在の画像のための(アップサンプリングされた/フィルタにかけられた)ベース層残差(再構成された信号と予測との間の差、または、符号化された変換係数値の逆変換)と、(b)得られた動きパラメータを使用する動き補償信号と、再構成されたエンハンスメント層の参照画像とを結合すること。
・仮に、ベース層内の併置されたブロックが、イントラ符号化されているならば、対応するエンハンスメント層M×Nブロック(または、CU)も、また、イントラ符号化される。そこでは、イントラ予測信号が、ベース層情報を使用して得られる(実施例U参照)。例えば、
○対応するベース層再構成の(アップサンプリングされた/フィルタにかけられた)バージョンは、イントラ予測信号として使用される(実施例U参照)。
○イントラ予測モードは、ベース層内で使用されたイントラ予測モードに基づいて得られる。そして、このイントラ予測モードは、エンハンスメント層内の空間イントラ予測のために使用される。
・仮に、M×Nエンハンスメント層ブロック(サブブロック)のための併置されたベース層ブロックが、以前に符号化されたベース層ブロックにマージされる(または、同じ動きパラメータを有する)ならば、M×Nエンハンスメント層(サブ)ブロックも、また、ベース層内でマージするために使用されるベース層ブロックに対応するエンハンスメント層ブロックにマージされる(すなわち、動きパラメータは、対応するエンハンスメント層ブロックからコピーされる)(実施例M参照)。
主な実施例:異なる走査パターンを使用して、変換係数を符号化すること。エンハンスメント層に対して、符号化モードおよび/またはベース層データに基づいて文脈をモデル化すること、そして、文脈モードに対して異なる初期化をすること。
・1つ以上の追加走査パターン、例えば、水平で垂直な走査パターンを導入すること。追加走査パターンのためにサブブロックを再定義すること。4×4サブブロックの代わりに、例えば16×1または1×16サブブロックが使用される。または、8×2や8×2サブブロックが使用される。追加走査パターンは、特定のサイズ、例えば8×8または16×16より大きいまたは等しいブロックに対してのみ導入される(実施例V参照)。
・(仮に、符号化されたブロックフラグが1と等しいならば、)選択された走査パターンは、ビットストリーム内でシグナリングされる(実施例N参照)。対応する構文要素にシグナリングするために、固定文脈が使用される。または、対応する構文要素のための文脈導出は、以下のどれかに依存できる。
○併置された再構成されたベース層信号または再構成されたベース層残差の勾配。または、ベース層信号内で検出されたエッジ。
○併置されたベース層ブロック内の変換係数分布。
・選択された走査は、併置されたベース層信号の特性に基づいて、ベース層信号(どんな追加データも送信されることなく)から直接に得られる(実施例N参照)。
○併置された再構成されたベース層信号または再構成されたベース層残差の勾配。または、ベース層信号内で検出されたエッジ。
○併置されたベース層ブロック内の変換係数分布。
・異なる走査が、変換係数がエンコーダ側で量子化の後に再順序付けされ、かつ、従来の符号化が使用される方法で実現される。デコーダ側では、変換係数は、従来通り復号化され、スケーリングおよび逆変換前に(または、スケーリング後および逆変換前に)、再順序付けされる。
・重要なフラグ(単一の変換係数のためのサブグループフラグおよび/または重要なフラグ)を符号化するために、以下の変更が、エンハンスメント層内で使用される。
○分離文脈モデルが、ベース層情報を使用する符号化モードの全てまたはサブセットのために使用される。また、ベース層情報を有する異なるモードに対して、異なる文脈モデルを使用することも可能である。
○文脈モデル化は、併置されたベース層ブロックのデータ(例えば、特定の周波数位置のための重要な変換係数の数)に依存できる(実施例O参照)。
○符号化されるべき係数の空間的近傍内の既に符号化された重要な変換係数レベルの数、および、同じ周波数位置の併置されたベース層信号内の重要な変換係数の数の両方を評価した一般化されたテンプレートが使用される(実施例O参照)。
・最後の重要な走査位置を符号化するために、以下の変更がエンハンスメント層内で使用される。
○分離文脈モデルが、ベース層情報を使用する符号化モードの全てまたはサブセットのために使用される。また、ベース層情報を有する異なるモードに対して、異なる文脈モデルを使用することも可能である(実施例P参照)。
○文脈モデル化は、併置されたベース層ブロック内のデータに依存できる(例えば、ベース層内の変換係数分布、ベース層の勾配情報、併置されたベース層ブロック内の最後の走査位置)。
○最後の走査位置は、最後のベース層走査位置に対する差として符号化される(実施例S参照)。
・ベース層およびエンハンスメント層のための異なる文脈初期化テーブルの使用方法。
主な実施例:エンハンスメント層符号化パラメータを得るためのベース層データの使用。
・(潜在的にアップサンプリングされる)ベース層再構成に基づいたマージ候補を得ること。エンハンスメント層内では、マージの使用のみがシグナリングされる。しかし、実際には、現在のブロックをマージするために使用される候補が、再構成されたベース層信号に基づいて得られる。従って、全てのマージ候補に対して、現在のエンハンスメント層ブロックのための(潜在的にアップサンプリングされる)ベース層信号と、(マージ候補に動きパラメータを使用して得られた)対応する予測信号との間の誤差の大きさが、全てのマージ候補(または、そのサブセット)に対して評価される。そして、最も小さい誤差の大きさに関連するマージ候補が選択される。また、誤差の大きさが、再構成されたベース層信号とベース層の参照画像とを使用して、ベース層内で計算される(実施例Q参照)。
・(潜在的にアップサンプリングされる)ベース層再構成に基づいたマージ候補を得ること。動きベクトル差は、符号化されないけれども、再構成されたベース層に基づいて推論される。現在のブロックのために、動きベクトル予測器を決定し、動きベクトル予測器の周囲に位置する定義された検索のセットを評価すること。それぞれの検索位置に対して、現在のエンハンスメント層ブロックのための(潜在的にアップサンプリングされる)ベース層信号と、置き換えられた参照フレーム(置き換えは、検索位置によって与えられる)との間の誤差の大きさを決定すること。最も小さい誤差の大きさをもたらす検索位置/動きベクトルを選択すること。検索は、いくつかの段階に分けられる。例えば、完全なペル検索が最初に行われる。続いて、半分ペル検索が、完全なペルベクトルの周囲で行われる。続いて、4分の1ペル検索が、最も良い全/半ペルベクトルの周囲でおこなわれる。また、検索は、再構成されたベース層信号とベース層の参照画像とを使用して、ベース層内で行われる。見つけられた動きベクトルは、次に、ベース層とエンハンスメント層との間の解像度変化に従ってスケーリングされる(実施例Q参照)。
・(潜在的にアップサンプリングされる)ベース層再構成に基づいたイントラ予測モードを得ること。イントラ予測モードは、符号化されないけれども、再構成されたベース層に基づいて推論される。それぞれの可能なイントラ予測モード(または、そのサブセット)に対して、(テストされた予測節(ノード)を使用して、)現在のエンハンスメント層ブロックのための(潜在的にアップサンプリングされる)ベース層信号と、イントラ予測信号との間の誤差の大きさを決定すること。最も小さい誤差の大きさをもたらす予測モードを選択すること。また、誤差の大きさの計算は、ベース層内の再構成されたベース層信号とイントラ予測信号とを使用して、ベース層内でされる。さらに、イントラブロックは、4×4ブロック(または、別のブロックサイズ)に分解できる。そして、各4×4ブロックに対して、分離イントラ予測モードが決定される(実施例Q参照)。
・イントラ予測信号は、再構成されたベース層信号を有する境界サンプルの列の整合または列の整合によって決定される。隣接するサンプルと現在のライン/列との間の移行を得るために、誤差の大きさは、隣接するサンプルの移行されたライン/列と再構成されたベース層信号との間で計算される。そして、最も小さい誤差の大きさをもたらすシフトが、選択される。隣接するサンプルとして、(アップサンプリングされた)ベース層のサンプル、または、エンハンスメント層のサンプルが使用される。また、誤差の大きさが、ベース層内で直接に計算される(実施例W参照)。
・ブロックパーティションなどの別の符号化パラメータの導出のために、後方の適応手法を使用すること。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
層間予測信号(380)を得るために、再構成されたベース層信号(200a,200b,200c)に解像度または品質改良を受け(220)させ、
エンハンスメント層信号の既に再構成された部分(400aまたは400b)と層間予測信号(380)との間の差分信号を計算(260)し、
空間イントラ予測信号を得るために、現在再構成されるべきエンハンスメント層信号(360)の部分に併置された第1の部分(440、図46に例えて)で、空間的に前記第1の部分に隣接し、かつ、エンハンスメント層信号(360)の既に再構成された部分に属する、差分信号の第2の部分(460)から差分信号を空間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、層間予測信号(380)と空間イントラ予測信号とを結合(260)し、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,580,340,300,280)することを含む、ように構成されている。
実施例A1に従って、ベース層信号は、例えば、ベース層残差信号640/480が関連する限り、変換復号化を有する前述したブロックに基づいた予測方法で、符号化データストリーム6またはサブストリーム6aから、ベース層復号化ステージ80によってそれぞれ再構成される。しかし、別の代替の再構成も可能である。
エンハンスメント層復号化ステージ60によるエンハンスメント層信号360の再構成に関する限り、再構成されたベース層信号200a,200bまたは200cが受ける解像度または品質の改良は、例えば、解像度の改良の場合にはアップサンプリング、または、品質の改良の場合にはコピー、または、ビット深さの改良の場合にはnビットからmビットへのトーン写像(m>n)を意味する。
差分信号の計算は、画素的になされる。すなわち、一方にエンハンスメント層信号および他方に予測信号380が併置された画素が、互いからを引き算される。そして、これは画素位置毎になされる。
差分信号の空間予測は、符号化データストリーム6内で、または、サブストリーム6b内で、イントラ予測方向のようなイントラ予測パラメータを送信して、そして、エンハンスメント層信号の現在の部分内のこのイントラ予測方向に沿って、現在再構成されるべきエンハンスメント層信号360の部分に接する既に再構成された画素をコピー/補間するような、何らかの方法によってなされる。組み合わせは、周波数領域内の寄与を異なって重み付けする組み合わせのように、加算、重み付けされた合計または更に精巧な組み合わせを意味する。
エンハンスメント層予測信号420を使用するエンハンスメント層信号360の予測再構成は、図に示されているように、エンハンスメント層残差信号540のエントロピー復号化および逆変換と、エンハンスメント層予測信号420および後者540の組み合わせ340とを意味する。
符号化データストリーム(6)からベース層残差信号(480)を復号化(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
層間残差予測信号(380)を得るために、再構成されたベース層残差信号(480)に、解像度または品質の改良を受け(220)させ、
エンハンスメント層イントラ予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、層間残差予測信号とエンハンスメント層イントラ予測信号とを結合(260)して、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)することを含む、ように構成されている。
符号化データストリームからのベース層残差信号の復号化は、図に示すように、エントロピー復号化と逆変換とを使用して実行される。さらに、スケーラブルビデオデコーダは、任意に、ベース層予測信号660を得て、この信号とベース層残差信号480とを結合することによって、予測的に復号化することによって、ベース層信号自体の再構成を実行する。ちょうど言及するように、これは単に任意である。
エンハンスメント層信号の再構成に関する限り、解像度または品質の改良が、実施例A)に対して前記指示したように実行される。
また、エンハンスメント層信号の部分の空間的予測に関する限り、この空間的予測は、異なる信号に関するA)に例示的に概説されているように実行される。組み合わせと予測的再構成に関する限り、同様の注意は有効である。
しかしながら、実施例B)内のベース層残差信号480が、ベース層残差信号480の明らかにシグナリングされたバージョンと等しいように制限されないということが言及される。むしろ、スケーラブルビデオデコーダが、ベース層予測信号660を有するどんな再構成されたベース層信号バージョン200も引き算すること、は可能である。その結果、フィルタ120または140のようなフィルタ関数から食い止めている偏差によって明らかにシグナリングされたものから逸れるベース層残差信号480を得る。また、後者の状態は、ベース層残差信号が層間予測に関わる別の実施例に対して有効である。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
層間予測信号(380)を得るために、再構成されたベース層信号(200)に、解像度または品質の改良を受け(220)させ、
エンハンスメント層イントラ予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分(「空間的」の場合は400a,b;「時間的」の場合は400a,b,c)から現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
層間予測信号とエンハンスメント層イントラ予測信号(380)がエンハンスメント層予測信号(420)に寄与する重み付けが、異なる空間周波数成分に亘って変化させるように、エンハンスメント層予測信号(420)を得るために、現在再構成されるべき部分で、層間予測信号とエンハンスメント層イントラ予測信号(380)との重み付け平均を形成(260)して、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)することを含む、ように構成されている。
C3)ここで、重み付け平均の形成(260)は、現在再構成されるべき部分で、変換係数を得るために、層間予測信号とエンハンスメント層イントラ予測信号とを変換(260)し、そして、重畳された変換係数を得るために、得られた変換係数に、異なる空間周波数成分に対して異なる重み付け係数を使用して重畳(260)し、そして、エンハンスメント層予測信号を得るために、重畳された変換係数を逆変換することを含む。
C4)ここで、エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号の予測再構成(320,340)は、符号化データストリーム(6)からエンハンスメント層信号のための変換係数レベルを引き出し(320)、エンハンスメント層信号の変換バージョンを得るために、変換係数レベルと重畳された変換係数の合計を実行(340)して、エンハンスメント層信号(360)を得るために、エンハンスメント層信号の変換バージョンに逆変換を受けさせる(すなわち、図中の逆変換T-1が、少なくともその符号化モードのために、加算器340の下流に置かれる)ことを含む。
ベース層信号の再構成に関する限り、参照が、一般的には図に対して、そして、実施例A)およびB)に対するように、前述に対してなされる。
同じことが、空間予測と同様に、C)内で言及された解像度または品質の改良に適用される。
C)で言及された時間予測は、動き予測パラメータを、符号化データストリーム6とサブストリーム6aからそれぞれ得ている予測プロバイダ160に関わる。動きパラメータは、動きベクトル、引用フレームインデックスを含む。あるいは、動きパラメータは、現在再構成された部分のサブブロック毎に、動きサブ分割情報と動きベクトルの組み合わせを含む。
前述したように、重み付け平均の形成は、空間領域または変換領域内で終わる。従って、加算器340での加算は、空間領域または変換領域内で実行される。後者の場合、逆変換器580は逆変換を重み付け平均に適用する。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(380)を再構成(60)し、
再構成(60)は、
層間予測信号(380)を得るために、再構成されたベース層信号に、解像度または品質の改良を受け(220)させ、
層間予測信号(380)を使用して、エンハンスメント層信号(360)を予測的に再構成(320、340)し、
ここで、エンハンスメント層信号の再構成(60)は、層間予測信号(380)が発展するように実行され、ベース層信号とエンハンスメント層信号それぞれによってスケール的に表わされたビデオの異なる部分に対して、非ブロック化およびループ内のフィルタリング(140)の何も無い(200a)、または、1つまたは全て(200b,200c)のうちの異なる1つから、符号化ビットストリーム内のサイド情報を経由して制御される、ように構成されている。
D)で言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層イントラ予測信号を得るために、エンハンスメント層信号(380)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、層間予測信号(380)とエンハンスメント層イントラ予測信号とを結合(260)することに関わる。
層間予測信号(380)が発展するという事実は、符号化されたビットストリーム(360)内のサイド情報を経由して、非ブロック化の何も無い(200a)、または、1つまたは全て(200b,200c)の異なる1つから制御され、以下に意味するビデオの異なる部分に対して、ループ内のフィルタ(140)がかけられるということがある。
当然、ベース層サブストリーム6a自体は、全てのフィルタ120,140をバイパスするように、最終ベース層信号600をもたらすために異なる手段の使用(非ブロック化のみの使用、または、ループ内フィルタリングのみの使用、または、非ブロック化およびループ内フィルタリングの両方の使用)を(任意に)シグナリングする。フィルタ伝達関数さえ、ベース層サブストリーム6a内のサイド情報によってシグナリングされ、変化される。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、予測ブロックまたはいかなる他の大きさによっても定義される。その結果、スケーラブルビデオデコーダ(符号化ステージ80)は、仮に、ベース層信号のみが再構成されるのであれば、これらの変化を適用する。しかしながら、そこから独立して(すなわち、ベース層信号6a内のちょうど言及されたサイド情報から独立して)、サブストリーム6bは、フィルタリングの組み合わせが、ベース層信号を得るために使用される新しい変化をシグナリングするサイド情報を含む。そこでは、全てのフィルタ120,140をバイパスさせて、エンハンスメント信号の予測的再構成内で使用(非ブロック化のみの使用、または、ループ内フィルタリングのみの使用、または、非ブロック化およびループ内フィルタリングとの両方の使用)される。すなわち、フィルタ伝達関数さえ、サブストリーム6b内のサイド情報によってシグナリングされ、変化される。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、または、予測ブロック、または、いかなる別の大きさによっても定義され、このシグナリングがベース層信号6a内で使用される大きさと異なる。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
層間予測信号(380)を得るために、再構成されたベース層信号に、解像度または品質の改良を受け(220)させ、
層間予測信号(380)を使用して、エンハンスメント層信号(60)を予測的に再構成(320、340)し、
ここで、エンハンスメント層信号(360)の再構成(60)は、層間予測信号が発展するように実行され、符号化されたビットストリーム(6)内のサイド情報を経由して、または、シグナリングに依存して、ベース層信号とエンハンスメント層信号それぞれによってスケール的に表わされたビデオの異なる部分に対して、アップサンプリング補間フィルタ(220)のための異なるフィルタ伝達関数から制御されることを含む、ように構成されている。
言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層イントラ予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、層間予測信号(380)とエンハンスメント層イントラ予測信号とを結合(260)することに関わる。
層間予測信号が発展するという事実は、符号化されたビットストリーム(6)内のサイド情報を経由して、または、シグナリングに依存して、以下のビデオ手段の異なる部分に対して、アップサンプリング補間フィルタ(220)のための異なるフィルタ伝達関数から制御されるということである。
当然、ベース層サブストリーム6a自体は、全てのフィルタ120,140をバイパスするように、最終ベース層信号600をもたらすために異なる手段の使用(非ブロック化のみの使用、または、ループ内フィルタリングのみの使用、または、非ブロック化およびループ内フィルタリングとの両方の使用)を(任意に)シグナリングする。フィルタ伝達関数さえ、ベース層サブストリーム6a内のサイド情報によってシグナリングされ、変化される。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、予測ブロックまたはいかなる別の大きさによっても定義される。その結果、スケーラブルビデオデコーダ(符号化ステージ80)は、仮に、ベース層信号のみが再構成されるのであれば、これらの変化を適用する。しかしながら、そこから独立して(すなわち、ベース層信号6a内のちょうど言及されたサイド情報から独立して)、サブストリーム6bは、改良された信号380を得るために、改良器220内で使用されるフィルタ伝達関数の変化を追加的にシグナリングするサイド情報を含む。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、または、予測ブロック、または、いかなる別の大きさによっても定義され、ベース層信号6aの前述の大きさと異なる。
前述のように、使用されるべき変化は、追加サイド情報の使用の有る無しに関わらず、ベース層信号またはベース層残差信号またはサブストリーム6a内の符号化パラメータから、信号に依存して推論される。
符号化データストリームからベース層残差信号(480)を復号化(100)し、
層間残差予測信号(380)を得るために、再構成されたベース層残差信号(480)に、解像度または品質の改良を受け(220)させることによって、エンハンスメント層信号(360)を再構成(60)し、そして、層間残差予測信号(380)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,340、および任意に260)し、
ここで、エンハンスメント層信号(360)の再構成(60)は、層間残差予測信号が展開するように実行され、符号化されたビットストリーム(6)内のサイド情報を経由して、または、シグナリングに依存して、ベース層信号とエンハンスメント層信号それぞれによってスケール的に表わされたビデオの異なる部分に対して、異なるフィルタ伝達関数から制御されるように構成されている。
ベース層残差信号の再構成に関する限り、参照が、一般的には図に対して、そして、実施例B)に対するように、前述に対してなされる。同じことが、解像度または品質の改良に適用される。
言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層イントラ予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層残差信号を、符号化されたデータストリームから復号化(320)し、
エンハンスメント層信号(360)を得るために、エンハンスメント層イントラ予測信号と層間残差予測信号(380)とエンハンスメント層残差信号とを結合(340と260とに関わる)することに関わる。
層間残差予測信号が発展するという事実は、符号化されたビットストリーム内のサイド情報を経由して、以下のビデオ手段の異なる部分に対して、異なるフィルタ伝達関数から制御されるということである。
当然、ベース層サブストリーム6a自体は、全てのフィルタ120,140をバイパスするように、最終ベース層信号600をもたらすために異なる手段の使用に(任意に)シグナリングする。前述のD)とE)を参照されたい。しかしながら、そこから独立して(すなわち、ベース層信号6a内のちょうど言及されたサイド情報から独立して)、サブストリーム6bは、改良された残差信号380を得るために、改良器220内で使用されるフィルタ伝達関数の変化を追加的にシグナリングするサイド情報を含む。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、または、予測ブロック、または、いかなる別の大きさによっても定義され、ベース層信号6aの前述の大きさと異なる。
前述のように、使用されるべき変化は、追加サイド情報の使用の有無に関わらず、ベース層信号またはベース層残差信号またはサブストリーム6a内の符号化パラメータから、信号に依存して推論される。
符号化データストリーム(6)からベース層信号(200)のベース層残差信号(480)を復号化(100)し、
層間残差予測信号(380)を得るために、再構成されたベース層残差信号(480)に、解像度または品質の改良を受け(220)させることによって、エンハンスメント層信号(360)を再構成(60)し、そして、層間残差予測信号(480)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,340、および任意で260)し、
ここで、エンハンスメント層信号(360)の再構成(60)は、全てをゼロにされたベース層残差信号(480)のブロックを識別(260)して、識別されたブロックを、ベース層信号(200)の部分から導出された置換信号に取り替えることを含む、
ように構成されている。
ベース層残差信号の復号化に関する限り、参照が、一般的に対して、そして、実施例B)に対するように、前述に対してなされる。同じことが、解像度または品質の改良に適用される。
言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層イントラ予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層残差信号を、符号化されたデータストリームから復号化(320)し、
エンハンスメント層信号(360)を得るために、エンハンスメント層イントラ予測信号と層間残差予測信号(380)とエンハンスメント層残差信号とを結合(340と260とに関わる)することに関わる。
好ましくは、識別は、ベース層ストリーム(6a)内の構文要素をチェックし、それぞれの変換ブロックが全てゼロであるか否かに対して、例えば、前述の符号化ユニットの別のサブ分割である変換ブロックの大きさで示すプロバイダ260に関わる。
前述するように、交換に使用されるベース層信号の部分は、例えば、ベース層信号200a,b,cのハイパスフィルタにかけられたバージョンである。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号を再構成(60)し、
再構成(60)は、
層間予測信号(380)を得るために、再構成されたベース層信号(200)に解像度または品質の改良を受け(220)させ、
エンハンスメント層予測信号(420)を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間予測(260)し、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)し、
ここで、空間予測(260)は、現在再構成されるべき部分の予め決められた隣接部分内の非利用可能な部分を、層間予測信号(380)の非利用可能な部分に併置された、併置された部分と取り替えて、層間予測信号(380)の併置された部分に依存する空間予測も実行することを含む、
ように構成されている。
ベース層信号の再構成に関する限り、参照が、一般的には図に対して、そして、実施例A)およびB)に対するように、前述に対してなされる。同じことが、前述された空間予測と予測的再構成と同様に、解像度または品質の改良に適用される。
非利用可能性は以下の事実から生じる。予め決められた隣接部分が、その右に更に拡がるサンプルと同様に、現在再構成されるべき部分/ブロックの上側エッジの上に隣接しているサンプルと、その下方に更に拡がるサンプルと同様に、再構成されるべき現在のブロック/部分の左側エッジの左に隣接しているサンプルとを含む、と仮定されたい。さらに、空間予測が、サブ分割に基づいた多分木の葉であるブロック/部分に適用され、そして、これらのブロックが、深く最初にジグザグに横断する順序で、予測再構成過程内を横断される、と仮定する。次に、あるブロックでは、問題のあるすべての隣接するサンプルが
利用できる。すなわち、それらは既に再構成されている。しかしながら、いくつかのブロックは、これらのいくつかのサンプルを欠いている。すなわち、それらは完全には再構成されていない。そして、説明されるように、初期設定サンプルが取り替えられる。潜在的に交換を必要とする別の事実は、どんなフレームに対してもイントラ内のスライス境界の位置である。交換自体は、初期設定サンプルに対して、層間予測信号(380)の併置されたサンプルをコピーすることによって行われる。次に、空間予測が、層間予測信号(380)からコピーされたサンプルと再構成されたエンハンスメント層信号からのサンプルとを含んでいる完全な(完成された)予め決められた隣接部分を使用して行われる。
フレームの異なるブロックに対して、層間予測モード、時間インター予測モードおよび空間イントラ予測モードのうちの異なる1つを使用して、エンハンスメント層信号(360)を再構成(60)するように構成され、
ここで、ケーラブルビデオデコーダは、エンハンスメント層信号(360)を再構成(60)する中で、最初の走査と、次の、2番目の走査との中で、ブロックを横断することによってブロックを再構成(60)し、最初の走査内で、空間イントラ予測モードを使用して、再構成されるべきブロックを跳ばし、層間予測モードおよびインター予測モードの1つを使用して、再構成されるべきブロックを再構成し、そして、2番目の走査内で、空間イントラ予測モードを使用して、再構成されるべきブロックを再構成するように構成されている。
「空間イントラ予測モード」と「時間インター予測モード」に関する限り、参照が、可能な実現のための前述の議論に対してなされる。「層間予測モード」に関する限り、そのようなモードのための例のいずれも、今までのところまたは以下で説明されるように、使用される。既に再構成されたサンプルによって囲まれたエンハンスメント層信号の空間的イントラ予測モードブロックの完全な外形を持つ増加する機会のために、現在予測された空間イントラ予測モードブロックのイントラが充填されるべき隣接するサンプルのテンプレートは、外形を完全に囲むために増加する。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
参照フレームと現在のフレームに対して、層間予測信号(380)を得るために、再構成されたベース層信号(200a,b,c)に、解像度または品質の改良を受け(220)させ、
参照フレームの層間予測信号(380)と参照フレームの既に再構成されたエンハンスメント層信号(360)との間の差分信号を形成(260)し、
現在のフレームの差分信号予測を得るために、差分信号に動き補償予測を受け(260)させ、
エンハンスメント層予測信号(420)を得るために、現在のフレームの層間予測信号(380)と現在のフレームの差分信号予測とを結合(260)し、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,340,300,280)することを含む、
ように構成されている。
J2)ここで、参照フレームの差分信号の形成において、使用された再構成されたエンハンスメント層信号は、非ブロック化の前、または、非ブロック化の後で任意のループ内フィルタリングの前、または、非ブロック化および任意のループ内フィルタリングの後のエンハンスメント層再構成である。
J3)ここで、参照フレームの差分信号を形成するために使用されるエンハンスメント層信号の選択は、系列、画像、またはブロックレベルで、ビットストリーム内でシグナリングされる。
動き補償予測は、エンハンスメント信号(デコーダ320に関わる導出)の現在再構成されたブロックに対して、動き予測パラメータを、それぞれ符号化データストリーム6とサブストリーム6bとか得ている予測プロバイダ260に関わる。動きベクトルは、現在再構成されるべきエンハンスメント層信号の部分の位置に適用される。そして、それぞれ置き換えられた部分は、差分信号から、(断片的なサンプル補間の有る無しに関わらず)コピーされる。このようにしてコピーされた部分は、例えば、画素的な組み合わせの中で、現在再構成されるべき部分に併置された層間予測信号(380)の部分に加算される。
符号化データストリーム(6)からベース層動きパラメータ(520)を復号し、
エンハンスメント層信号(260)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号(360)のフレームのブロックに対して、フレームの隣接する既に再構成されたブロックから動きパラメータ候補のセットを集め(260)、
ベース層動きパラメータ(520)から、エンハンスメント層信号(360)のフレームのブロックに併置されたベース層信号のブロックのベース層動きパラメータを集め(260)、
動きパラメータ候補の拡張動きパラメータ候補セットを得るために、ベース層動きパラメータまたはベース層動きパラメータのスケーリングされたバージョンを、動きパラメータ候補のセットに加算(260)し、
少なくとも拡張動きパラメータ候補セットの動きパラメータ候補の1つを選択(260)し、
動き補償予測によって、拡張動きパラメータ候補セットの動きパラメータ候補の選択された1つを使用して、エンハンスメント層信号を予測(260)することを含む、ように構成されている。
K3)ここで、スケーラブルビデオデコーダは、ベース層動きパラメータが、マージを使用して、符号化データストリーム内で符号化されるか否かをチェックし、仮に、ベース層動きパラメータが、マージを使用して、符号化データストリーム内で符号化されるならば、加算を抑圧するように構成されている。
この実施例で言及された動きパラメータは、動きベクトル(動きベクトル予測)のみに、または、ブロック毎の動き仮説、参照インデックスリスト、パーティショニング情報(マージ化)の数を含む動きパラメータの完全なセットに関連する。
従って、「スケーリングされたバージョン」は、空間スケーラビリティの場合において、ベース層信号とエンハンスメント層信号との間の空間解像度比率に従って、ベース層信号内で使用された動きパラメータのスケーリングから由来してもよい。
符号化データストリームからのベース層動きパラメータ520の復号化は、動きベクトル予測またはマージ化にも関わる。
マージ化/動きベクトル候補のセット内のベース層信号の併置された部分で、使用された動きパラメータの補間は、イントラ層候補および層間候補内で、非常に有効な索引を可能にする。
選択は、予測ブロックや符号化ユニットのようなエンハンスメント層信号内の、動きパラメータ候補の拡張されたセット/リスト内のインデックスの明白なシグナリングに関わる。あるいはまた、選択インデックスはエンハンスメント層信号6bまたは層間情報の別の情報から推論される。
符号化データストリーム(6)からベース層動きパラメータ(520)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
ベース層動きパラメータに依存するエンハンスメント層信号のための動きパラメータ候補リストを順序付け(240)し、
符号化データストリーム(6)内の明らかにシグナリングされたインデックス構文要素を経由して制御された、エンハンスメント層信号のための順序付けされた動きパラメータ候補リストからエンハンスメント層動きパラメータを選択(240)し、
動き補償パラメータによって、決められた動きパラメータを使用して、エンハンスメント層信号を予測(260)することを含む、ように構成されている。
この実施例で言及された動きパラメータに関する限り、実施例Kに関して上で述べたと同じことが適用される。
符号化データストリームからのベース層動きパラメータ520の復号化は、(任意に)動きベクトル予測またはマージにも関わる。
順序付けは、それぞれのエンハンスメント層動きパラメータ候補と、エンハンスメント層信号の現在のブロックに併置されたベース層信号のブロックに関連するベース層信号のベース層動きパラメータとの間の差を測る大きさに従ってなされる。すなわち、エンハンスメント層信号の現在のブロックに対して、エンハンスメント層動きパラメータ候補のリストが、最初に決定される。次に、順序付けが、ちょうど述べられるように実行される。以下に、選択が明白なシグナリングで実行される。
また、順序付けは、エンハンスメント層信号の現在のブロックと、ベース層内の空間的および/または時間的に隣接するブロックのベース層動きパラメータに併置されたベース層信号のブロックに関連するベース層信号のベース層動きパラメータとの間の差を測る大きさに従ってもなされる。次に、ベース層内の決められた順序付けが、エンハンスメント層に転送される。その結果、エンハンスメント層動きパラメータ候補が、対応するベース層候補に対して決められた順序付けと同じ方法で順序付けされる。ここで、関連したベース層ブロックが、考慮されたエンハンスメント層動きパラメータ候補に関連しているエンハンスメント層ブロックに、空間的/時間的に併置されるとき、ベース層動きパラメータ候補は、エンハンスメント層動きパラメータ候補に対応すると言われる。順序付けに基づいて、選択は明白なシグナリングによって実行される。
ベース層信号(200)ための動きパラメータ候補リスト内のインデックスを使用して、符号化データストリーム(6)からベース層動きパラメータ(520)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
ベース層信号のための動きパラメータ候補リスト内のインデックスに依存するエンハンスメント層信号のための動きパラメータ候補リスト内のインデックスを決定(240)し、
エンハンスメント層信号のための動きパラメータ候補リスト内のインデックスを使用して、エンハンスメント層動きパラメータを決定(240)して、
動き補償予測によって、決められた動きパラメータを使用して、エンハンスメント層信号を予測(260)することを含む、ように構成されている。
この実施例で言及された動きパラメータに関する限り、実施例Kに関して上で述べたと同じことが適用される。
ベース層動きパラメータ520の復号化は、ベース層信号のブロックに対して、
現在のブロックのための動きパラメータが、マージまたはマージ無しの方法(予測的にまたは非予測的に符号化される方法)で、ベース層サブストリーム6a内でシグナリングされるか否かに対してシグナリングするフラグを点検し、
仮に、マージを使用して、符号化される、または、予測的に符号化されるならば、ベース層動きパラメータ(例えば、ベース層動きパラメータは、決定のために使用されるベース層信号の隣接するブロックのために使用/選択される)のリストを決定し、
それぞれのリスト内のインデックスは、ベース層信号6aから得られ、リスト内のベース層動きパラメータの1つを選択するために使用され、
エンハンスメント層のためのインデックスは、インデックスされたベース層候補に関連するベース層ブロックに併置されたエンハンスメント層ブロックが、選択される方法で決定されること、を含む。
エンハンスメント層信号の現在のブロックに対して、エンハンスメント層動きパラメータのリストが決定される。例えば、エンハンスメント層信号の隣接するブロックのために使用/選択される動きパラメータは、決定のために使用される。
エンハンスメント層内の動きパラメータインデックスの選択は、それぞれのエンハンスメント層動きパラメータと、エンハンスメント層信号の現在のブロックに併置されたベース層信号のブロックに関連するベース層信号の(中で使用/選択される)ベース層動きパラメータとの間の差を測る大きさに従って実行される。
また、エンハンスメント層内の動きパラメータインデックスの選択は、エンハンスメント層信号の現在のブロックに併置されたベース層信号のブロックに関連するベース層信号のベース層動きパラメータと、ベース層内の空間的および/または時間的に隣接するブロックのベース層動きパラメータとの間の差を測る大きさに従って実行される。次に、ベース層のための選択が、エンハンスメント層に移される。その結果、選択されたベース層候補に対応するエンハンスメント層動きパラメータ候補が、選ばれる。関連ベース層ブロックが、考慮されるエンハンスメント層動きパラメータ候補に関連しているエンハンスメント層ブロックに空間的/時間的に併置されるとき、ベース層動きパラメータ候補は、エンハンスメント層動きパラメータ候補に対応すると言われる。
符号化データストリーム(6)からベース層残差信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
走査予測器(520)を得るために、ベース層残差信号(480)またはベース層信号の、スペクトル分解の勾配または情報を決定(240)し、
走査予測器(520)に依存する走査パターンを使用して、符号化データストリーム(6)から、エンハンスメント層残差信号(540)の変換係数を復号(320)することを含む、ように構成されている。
すなわち、変換係数の復号化は、そのすべてが変換ブロックを完全にカバーする、可能な走査パターンのセットからの走査パターンの選択に関わる。好ましくは、選択された走査パターンが、ベース層残差信号の重要なスペクトル成分を、可能な走査パターンのセットの別の走査パターンよりも早く横断するように、選択される。
そのすべてが変換ブロックを完全にカバーする、可能な走査パターンのセットからの走査パターンの選択によって、符号化データストリーム(6)から残差信号(540または100の出力)の変換ブロックの変換係数を復号(320)し、選択は、符号化データストリーム内の明白なシグナリングに依存するように構成されている。
R2)ここで、復号(320)は、走査パターンの(520と240を経由した)選択に依存する変換係数に関連する構文要素のための文脈モデルを使用する。
R2a)ここで、変換係数に関連する構文要素は、変換係数が、特定の走査位置に対して、ゼロに等しいか、または、ゼロに等しくないか指示する構文要素を含む。
R2b)ここで、変換係数に関連する構文要素は、特定の走査順序における最後のゼロでない変換係数の位置を指示する構文要素を含む。
R2c)ここで、変換係数に関連する構文要素は、変換ブロックのサブブロックが、ゼロに等しくない変換係数を含むか否かを指示する構文要素を含む。
R3)ここで、明白なシグナリングが、ベース層残差信号(480)またはベース層信号の勾配、またはスペクトル的分解の情報に依存する、文脈モデルを使用して、可能な走査パターンのセット内のインデックスをエントロピー復号化(320)することに関わる。
R4)ここで、変換係数レベルの復号化(320)に対して、変換ブロックはサブブロックにサブ分割され、サブブロックがゼロでない変換係数を含むか否かをシグナリングする構文要素は送信され、そして、サブブロックのサイズまたは形状は、または、サブブロック内の変換ブロックのパーティションは、選択された走査パターンに依存する。
ベース層残差信号の変換ブロックの最後の重要な変換係数の位置を指示する符号化データストリームから最初の構文要素を復号化することを含む、符号化データストリーム(6)からベース層残差信号の変換ブロックの変換係数を復号(100)し、
符号化データストリームから2番目の復号化構文要素を含み、最初の構文要素と2番目の構文要素に基づくエンハンスメント層残差信号の位置を計算する、エンハンスメント層残差信号の変換ブロックの変換係数を復号(100)するように構成されている。
符号化データストリーム(6)からベース層信号のベース層残差信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
ベース層残差信号(480)またはベース層信号に(520と240を経由して)依存する文脈モデルまたは予測器を使用して、符号化データストリーム(6)から、エンハンスメント層残差信号(540)の変換係数ブロックに関連する構文要素を復号(320)することを含む、ように構成されている。
例えば、テンプレートは、現在訪問された変換係数位置での所定の変換係数を符号化するための文脈を決定するために使用される。そして、また、テンプレートは、(ベース層とエンハンスメント層内の変換ブロックのサイズの大きさでの)位置、および、スペクトル周波数の観点から、所定の変換係数位置に対応するベース層残差信号内の1つ以上の変換ブロック内の位置に関わる。
または、ベース層残差信号(480)またはベース層信号の勾配またはスペクトル分解の情報が、文脈モデルを決定するために使用される。
符号化データストリーム(6)からベース層信号のベース層残差信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号(360)の部分と異なる予測モードに従って、エンハンスメント層信号(360)、ベース層残差信号およびベース層信号の既に再構成された部分から、エンハンスメント層信号(360)の部分を予測(260)し、
変換係数ブロックが属するエンハンスメント層信号(360)が、ベース層残差信号とベース層信号とのいずれかに基づいた層間予測に関わるか否かに(520と240を経由して)依存する文脈モデルを使用して、符号化データストリーム(6)から、エンハンスメント層残差信号(540)の変換係数ブロックに関連する構文要素を復号(320)し、
そして、エンハンスメント層予想信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)することを含む、
ように構成されている。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
層間予測信号(380)を得るために、再構成されたベース層信号(200)に解像度または品質の改良を受け(220)させ、
符号化パラメータのセットの各符号化パラメータ候補に対して、それぞれの試験的な再構成または部分的な再構成の結果を得るために、それぞれの符号化パラメータ候補を使用して、エンハンスメント層信号(360)の再構成または部分的な再構成を試験的に実行(260)し、
各符号化パラメータ候補に対して、層間予測信号(380)とそれぞれの試験的な再構成または部分的再構成の結果との間の差の大きさを決定(260)し、
各符号化パラメータ候補に対して大きさに依存して、符号化パラメータ候補のセット内で選択(260)し、
そして、選択された符号化パラメータ候補を使用して、エンハンスメント層信号(360)を等しく再構成(320,340,260)することを含む、
ように構成されている。
Q2)ここで、エンハンスメント層に対して決定された符号化パラメータは、イントラ予測モードに関連する。
Q3)ここで、エンハンスメント層に対して決定された符号化パラメータは、参照画像または動きベクトルなどの動きパラメータに関連する。
Q4)ここで、エンハンスメント層に対して決定された符号化パラメータは、マージ候補に関連する。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
符号化パラメータのセットの各符号化パラメータ候補に対して、それぞれの試験的な再構成または部分的な再構成の結果を得るために、それぞれの符号化パラメータ候補を使用して、ベース層信号(360)の再構成または部分的な再構成を試験的に実行(260)し、
各符号化パラメータ候補に対して、実際に復号化されたベース層再構成とそれぞれの実験的な再構成または部分的な再構成の結果との間の差の大きさを決定(260)し、
各符号化パラメータ候補に対して大きさに依存して、符号化パラメータ候補のセット内で選択(260)し、
選択された符号化パラメータ候補をエンハンスメント層に転送し、転送は解像度の差に従うスケーリングを含み、
そして、転送された符号化パラメータ候補を使用して、エンハンスメント層信号(360)を等しく再構成(320,340,260)することを含む、
ように構成されている。
イントラブロックのための空間イントラ予測およびインターブロックのための時間インター予測を使用して、イントラブロックおよびインターブロック内のサブ分割フレームによって、ベース層信号を予測的に再構成(100,180,160)し、
エンハンスメント層信号(360)を予測的に再構成(320,340,260)し、 再構成(320,340,260)は、
現在再構成されるべきエンハンスメント層信号(360)の部分のサブ部分を得るために、現在再構成されるべきエンハンスメント層信号(360)の部分に併置されたベース層信号のブロックのブロックサブ分割を、現在再構成されるべきエンハンスメント層信号(360)の部分に局所的に転送し、そして、関連するエンハンスメント層動きベクトルを、ベース層動きベクトルに基づくサブ部分に局所的に転送し、
ベース層動きベクトルに基づくサブ部分に関連するエンハンスメント層動きベクトルを使用して、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を、動き補償予測によって予測(260)することを含む、
ように構成されている。
ベース層信号を空間的に変化させるベース層符号化パラメータを使用して、ベース層信号を予測的に再構成(10,18,16)し、
ブロックのユニット内でエンハンスメント層信号(36)を再構成(32,34,26)し、
再構成(32,34,26)は、
ブロックの予め決められたブロックに対して、ベース層信号の併置された部分に転送されたとき、選択されたサブブロックのサブ分割が、サブ分割される可能なサブブロックのサブ分割のセット内で最も粗いように、可能なサブブロックのサブ分割のセット内のサブブロックのサブ分割を選択し、その結果、ベース層信号は、それぞれのサブブロックのサブ分割の各サブブロック内で、ベース層符号化パラメータは互いに十分同じであり、
選択されたサブブロックのサブ分割を使用して、予め決められたブロックを予測的に再構成することを含む、
ように構成されている。
イントラブロックのための空間イントラ予測とインターブロックのための時間インター予測を使用して、イントラブロックとインターブロック内のベース層信号のフレームをサブ分割して、そして、イントラブロックとインターブロックがサブ分割されるブロックのユニット内で、それぞれ空間イントラ予測と時間インター予測に関連した予測パラメータをセットすることによって、ベース層信号を予測的にそれぞれ再構成(100,180,160)し、
エンハンスメント層信号(360)を予測的に再構成(320,340,260)し、
再構成(320,340,260)は、
符号化データストリーム内の予測モード構文を経由して制御され、エンハンスメント信号のフレームが、空間イントラ予測モード、時間インター予測モードおよび層間予測モードを含む予測モードのセットのそれぞれの1つにサブ分割される符号化ユニット内のエンハンスメント信号のフレームを割り当て、
それぞれの符号化ユニットが割り当てられたそれぞれの予測モードを使用して、各符号化ユニットを予測的に再構成し、
割り当てられた空間イントラ予測モードおよび時間インター予測モードのいずれかを有する符号化ユニットに対して、
更に予測ブロック内の符号化ユニットをサブ分割して、それぞれの符号化ユニットが予測ブロックのユニット内で割り当てられたそれぞれの予測モードに関連する予測パラメータをセットし、
割り当てられた空間イントラ予測を有するそれぞれの符号化ユニットの場合には、予測パラメータセットを使用して、全ての予測ブロックに空間イントラ予測を受けさせ、そして、割り当てられた時間インター予測を有するそれぞれの符号化ユニットの場合には、予測パラメータセットを使用して、全ての予測ブロックに時間インター予測を受けさせ、
割り当てられた層間予測モードを有するそれぞれの符号化ユニットに対して、
イントラブロックおよびインターブロックの両方に局所的に重なる符号化ユニットが、非時間的モードに関連しかつイントラブロックに局所的に一致する少なくとも1つの予測ブロックと、時間インター予測モードに関連しかつインターブロックに局所的に一致する少なくとも1つの予測ブロックとにサブ分割されるように、ベース層信号のイントラブロックとインターブロックとのサブ分割を、それぞれ符号化ユニットに局所的に転送し、
割り当てられた非時間的予測モードを有するそれぞれの符号化ユニットの全ての予測ブロックに、局所的に一致するイントラブロックの予測パラメータから得られた予測パラメータを使用して、空間イントラ予測を受けさせ、あるいは、層間予測の場合には、層間予測信号(380)を得るために、ベース層信号に、解像度または品質の改良を受け(220)させ、
層間予測信号(380)を使用して、割り当てられた非時間的予測モードを有するそれぞれの符号化ユニットの予測ブロックを予測(260)し、
そして、割り当てられた時間インター予測モードを有するそれぞれの符号化ユニットの全ての予測ブロックに、局所的に一致するインターブロックの予測パラメータから得られた予測パラメータを使用して、時間インター予測を受けさせることを含む、ように構成されている。
符号化データストリーム(6)からベース層信号(200)のベース層残差信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
以下の構成によって、符号化データストリームからエンハンスメント層信号を表す変換係数の変換係数ブロックを復号し、
ベース層残差信号またはベース層信号に基づいて、可能なサブブロックのサブ分割のセット内でサブブロックのサブ分割を選択し、
1つのサブブロック内の全ての位置が、サブブロック内で定義されたサブブロックの順序で次のサブブロックに続く直ぐに連続した方法で、横断されるように、変換係数ブロックが、選択されたサブブロックのサブ分割に従って規則的にサブ分割される、サブブロックのユニット内の変換係数の位置を横断し、
現在訪問されたサブブロックに対して、
データストリームから、現在訪問されたサブブロックが重要な変換係数を有するか否かを示す構文要素を復号し、
仮に、構文要素が、現在訪問されたサブブロックは重要な変換係数を有さないことを示すならば、現在訪問されたサブブロック内の変換係数をゼロにセットし、
仮に、構文要素が、現在訪問されたサブブロックは重要な変換係数を有することを示すならば、データストリームから、現在訪問されたサブブロック内の変換係数のレベルを示す構文要素を復号することを含む、
ように構成されている。
符号化データストリーム(6)からベース層信号(200)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
以下の構成によって、エンハンスメント層信号のブロックを空間的に予測し、
層間予測信号(380)を得るために、再構成されたベース層信号(200a,200b,200c)に、解像度または品質の改良を受け(220)させ、
層間予測信号(380)の第1のラインを登録(260)し、エンハンスメント層信号の既に再構成された部分の第2のラインでブロックを局所的に重ね、第1のラインと第2のラインが両方ともライン方向に平行であるブロックを隣接させ、それによってシフト値を得て、
第1のラインの内容で、第1のラインに併置されたブロックのラインを充填(260)し、シフト値によってシフトすることを含む、ように構成されている。
例えば、ライン方向は水平または垂直である。その結果、予測は、それぞれ、列ごとに、または、行ごとになされる。
ブロック的予測と、空間イントラ予測モードと時間インター予測モードとの間のブロック的選択と、空間イントラ予測モードが選択されたベース層信号のブロックのためのイントラ予測パラメータを使用することによって、符号化データストリーム(6)からベース層信号(200)を再構成(80)し、
ブロック的予測と、空間イントラ予測モードと時間インター予測モードとの間のブロック的選択と、空間イントラ予測モードが選択されたエンハンスメント層信号のブロックのためのイントラ予測パラメータを使用することによって、符号化データストリーム(6)からエンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号の現在のブロックに隣接する、エンハンスメント層信号の隣接するブロックが、空間イントラ予測モードを使用して予測されたか否かのために、エンハンスメント層信号の隣接するブロックをチェックし、
仮に、そうであるならば、現在のブロックのためのおそらく有利なイントラ予測パラメータを、隣接するブロックのイントラ予測パラメータと選定し、
仮に、そうでなければ、現在のブロックのためのおそらく有利なイントラ予測パラメータを、現在のブロックに併置されたベース層信号のブロックのイントラ予測パラメータと選定し、
現在のブロックのための符号化データストリーム内に存在する構文要素に基づいた現在のブロックのためのイントラ予測パラメータと、おそらく有利なイントラ予測パラメータとを決定することを含む、ように構成されている。
ブロック的予測と、空間イントラ予測モードと時間インター予測モードとの間のブロック的選択と、空間イントラ予測モードが選択されたベース層信号のブロックのサブセットのための角度イントラ予測パラメータを使用することによって、符号化データストリーム(6)からベース層信号(200)を再構成(80)し、
ブロック的予測と、空間イントラ予測モードと時間インター予測モードとの間のブロック的選択と、空間イントラ予測モードが選択されたベース層信号のブロックのサブセットのための角度イントラ予測パラメータを使用することによって、符号化データストリーム(6)からエンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号の現在のブロックに隣接する、エンハンスメント層信号の隣接するブロックが、角度イントラ予測パラメータを有する空間イントラ予測モードを使用して予測されたか否かのために、エンハンスメント層信号の隣接するブロックをチェックし、
仮に、そうであるならば、現在のブロックのためのおそらく有利なイントラ予測パラメータを、隣接するブロックの角度イントラ予測パラメータと指摘し、
仮に、そうではないけれども、現在のブロックに併置されたベース層信号のブロックが、角度イントラ予測パラメータで符号化されるならば、現在のブロックのためのおそらく有利なイントラ予測パラメータを、現在のブロックに併置されたベース層信号のブロックの角度イントラ予測パラメータと指摘し、
現在のブロックのための符号化データストリーム内に存在する構文要素に基づいた現在のブロックためのイントラ予測パラメータと、おそらく有利なイントラ予測パラメータと決定することを含む、ように構成されている。
Claims (19)
- プロセッサを使用して、符号化データストリームからベース層信号を再構成して再構成されたベース層信号を得るように構成された第1の符号化ユニットと、
プロセッサを使用して、エンハンスメント層信号を再構成するように構成された第2の符号化ユニットと、
を備えるスケーラブルビデオデコーダであって、
前記エンハンスメント層信号の前記再構成は、
エンハンスメント層信号の現在の部分を、前記エンハンスメント層信号の既に再構成された部分に基づいて空間的または時間的に予測して、エンハンスメント層内部予測信号を取得することと、
前記再構成されたベース層信号に基づいて、前記エンハンスメント層信号の前記現在の部分に関連付けられた層間予測信号を取得することと、
前記符号化データストリームから、前記層間予測信号のための重み付けパラメータおよび前記エンハンスメント層内部予測信号のための重み付けパラメータを抽出し、ここで前記重み付けパラメータはエンコーダによって前記データストリームに符号化され、また前記重み付けパラメータのうちの少なくとも1つは、前記エンハンスメント層信号の前記現在の部分のエンハンスメント層予測信号を得るためには、前記層間予測信号が使用されているか、前記エンハンスメント層内部予測信号が使用されているかまたはその両方が使用されているかを示すことと、
前記エンハンスメント層予測信号を得るために、
第1の伝達関数を有する第1のフィルタで前記層間予測信号をフィルタ処理し、第2の伝達関数を有する第2のフィルタで前記エンハンスメント層内部予測信号をフィルタ処理すること、および
前記第1のフィルタによるフィルタ処理の後得られた前記層間予測信号と、前記第2のフィルタによるフィルタ処理の後得られた前記エンハンスメント層内部予測信号に前記重み付けパラメータをそれぞれ適用して、エンハンスメント層予測信号を得ること
によって、前記重み付けパラメータのうちの少なくとも1つに応答して、前記層間予測信号と前記エンハンスメント層内部予測信号との間の重み付け平均を決定することと、
前記エンハンスメント層予測信号に基づいて、前記エンハンスメント層信号を予測的に再構成(52)することと、
を含む、ように構成されることを特徴とする、スケーラブルビデオデコーダ。 - 前記層間予測信号の取得は、解像度または品質の改良を行って前記層間予測信号を取得することを含むことを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記第1のフィルタはローパスフィルタであり、前記第2のフィルタはハイパスフィルタであることを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記第1のフィルタおよび前記第2のフィルタは直交ミラー(quadrature mirror)のフィルタペアを形成していることを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記重み付け平均の決定は、前記層間予測信号および前記エンハンスメント層内部予測信号を変換して変換係数を得ることと、異なる空間周波数成分の間の異なる比率の重み付けパラメータを使用して前記変換係数を重畳して重畳済み変換係数を取得することを含むことを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記重み付け平均の決定は、前記重畳された変換係数を逆変換して前記エンハンスメント層予測信号を取得することをさらに含むことを特徴とする、請求項5に記載のスケーラブルビデオデコーダ。
- 前記エンハンスメント層予測信号を使用した前記エンハンスメント層信号の予測的な再構成は、符号化データストリームから前記エンハンスメント層信号のための変換係数レベル(59)を抽出し、
前記変換係数レベルと前記重畳された変換係数との合計を実行して前記エンハンスメント層信号の変換されたバージョンを取得し、
そして、前記エンハンスメント層信号の前記変換されたバージョンの逆変換を実行して前記エンハンスメント層信号を再構築すること
を含むことを特徴とする、請求項5に記載のスケーラブルビデオデコーダ。 - 各空間周波数成分について、前記層間予測信号のための重み付けパラメータと前記エンハンスメント層内部予測信号のための重み付けパラメータとの合計は、全ての空間周波数成分について同じ値と等しいことを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記層間予測信号を重み付けするための前記重み付けパラメータはローパス伝達関数に相当し、前記エンハンスメント層内部予測信号を重み付けするための前記重み付けパラメータはハイパス伝達関数に相当することを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記エンハンスメント層信号の再構成は、エンハンスメント層信号の既に再構成された部分と前記層間予測信号との間の差信号を計算し、
前記エンハンスメント層信号の前記現在の部分に併置された第1の部分で、前記第1の部分に空間的に隣接し、かつ前記エンハンスメント層信号の前記既に再構成された部分に属する前記差信号の第2の部分から、前記差信号を空間的に予測して空間内部予測信号を取得し、
前記層間予測信号と前記空間内部予測信号を結合して前記エンハンスメント層予測信号を再構成すること
を含むことを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。 - 前記エンハンスメント層信号の再構成は、エンハンスメント層信号の既に再構成された部分と前記層間予測信号との間の差信号を計算し、
前記エンハンスメント層信号の前記現在の部分に併置された第1の部分で、前記エンハンスメント層信号の前に再構成されたフレームに属する前記差信号の第2の部分から、前記差信号を時間的に予測して時間的に予測された差信号を取得し、
前記層間予測信号と前記時間的に予測された差信号を結合して前記エンハンスメント層予測信号を再構成すること
を含むことを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。 - 再構成されたベース層信号を得るために、符号化データストリームからベース層信号を再構成するステップと、
エンハンスメント層信号を再構成するステップと、
を含むスケーラブルビデオ復号化方法であって、
前記エンハンスメント層信号を再構成するステップは、
エンハンスメント層内部予測信号を得るために、エンハンスメント層信号の現在の部分を、前記エンハンスメント層信号の既に再構成された部分に基づいて空間的または時間的に予測するステップと、
前記再構成されたベース層信号に基づいて、前記エンハンスメント層信号の前記現在の部分に関連付けられた層間予測信号を取得するステップと、
前記符号化データストリームから、前記層間予測信号のための重み付けパラメータおよび前記エンハンスメント層内部予測信号のための重み付けパラメータを抽出するステップであって、前記重み付けパラメータはエンコーダによって前記データストリームに符号化され、前記重み付けパラメータのうちの少なくとも1つは、前記エンハンスメント層信号の前記現在の部分のためのエンハンスメント層予測信号を得るためには前記層間予測信号が使用されているか、前記エンハンスメント層内部予測信号が使用されているか、あるいは両方が使用されているかを示す、抽出するステップと、
前記エンハンスメント層予測信号を得るために、
第1の伝達関数を有する第1のフィルタによって前記層間予測信号をフィルタ処理し、第2の伝達関数を有する第2のフィルタによって前記エンハンスメント層内部予測信号をフィルタ処理すること、および
前記第1のフィルタによるフィルタ処理の後に得られた前記層間予測信号および前記第2のフィルタによるフィルタ処理の後に得られた前記エンハンスメント層内部予測信号に前記重み付けパラメータを適用してエンハンスメント層予測信号を得ること
によって、前記重み付けパラメータのうちの前記少なくとも1つに応答して、前記層間予測信号と前記エンハンスメント層内部予測信号の重み付け平均を決定するステップと、
前記エンハンスメント層予測信号に基づいて、前記エンハンスメント層信号を予測的に再構成するステップと、
を含むことを特徴とする、スケーラブルビデオ復号化方法。 - プロセッサを使用して、ベース層信号を符号化データストリームに、前記符号化データストリームから再構成されたベース層信号が再構成することができるように、符号化するように構成された、第1の符号化ユニットと、
プロセッサを使用して、エンハンスメント層信号を符号化するための第2の符号化ユニットと、
を備えるスケーラブルビデオエンコーダであって、
前記エンハンスメント層信号の前記符号化は、
エンハンスメント層信号の現在の部分を、前記エンハンスメント層信号の既に符号化された部分から空間的または時間的に予測して、エンハンスメント層内部予測信号を取得することと、
前記再構成されたベース層信号に基づいて、前記エンハンスメント層信号の前記現在の部分に関連付けられた層間予測信号を取得することと、
前記符号化ストリームに、前記層間予測信号のための重み付けパラメータと前記エンハンスメント層内部予測信号のための重み付けパラメータを挿入し、ここで前記重み付けパラメータのうちの少なくとも1つは、前記エンハンスメント層信号の前記現在の部分のためのエンハンスメント層予測信号を得るためには、前記層間予測信号が使用されるか、前記エンハンスメント層内部予測信号が使用されるか、あるいは両方が使用されるかを示すことと、
前記エンハンスメント層信号を得るために、
第1の伝達関数を有する第1のフィルタで前記層間予測信号をフィルタ処理し、第2の伝達関数を有する第2のフィルタで前記エンハンスメント層内部予測信号をフィルタ処理すること、および
前記第1のフィルタによるフィルタ処理の後に得られる前記層間予測信号および前記第2のフィルタによるフィルタ処理の後に得られる前記エンハンスメント層内部予測信号に、それぞれ前記重み付けパラメータを適用して、エンハンスメント層予測信号を得ることによって、前記重み付けパラメータのうちの前記少なくとも1つに応答して、前記層間予測信号と前記エンハンスメント層内部予測信号との重み付け平均を決定するステップと、
前記エンハンスメント層予測信号に基づいて、前記エンハンスメント層信号を予測的に符号化するステップと、
を含むことを特徴とする、スケーラブルビデオエンコーダ。 - ベース層信号を符号化データストリームに、再構成されたベース層信号が前記符号化データストリームから再構成することができるように、符号化するステップと、
エンハンスメント層信号を符号化するステップと、
を含む、スケーラブルビデオ符号化方法であって、
前記エンハンスメント層信号を符号化するステップは、
エンハンスメント層内部予測信号を得るために、前記エンハンスメント層信号の既に符号化された部分から、エンハンスメント層信号の現在の部分を空間的または時間的に予測するステップと、
前記再構成されたベース層信号に基づいて、前記エンハンスメント層信号の前記現在の部分に関連付けられた層間予測信号を取得するステップと、
前記層間予測信号のための重み付けパラメータと前記エンハンスメント層内部予測信号のための重み付けパラメータとを前記符号化データストリームに挿入するステップであって、前記重み付けパラメータのうちの少なくとも1つは、前記エンハンスメント層信号の前記現在の部分のためのエンハンスメント層予測信号を取得するためには、前記層間予測信号が使用されるか、前記エンハンスメント層内部予測信号が使用されるか、あるいは両方が使用されるかを示す、挿入するステップと、
前記エンハンスメント層予測信号を得るために、
第1の伝達関数を有する第1のフィルタで前記層間予測信号をフィルタ処理し、第2の伝達関数を有する第2のフィルタで前記エンハンスメント層内部予測信号をフィルタ処理すること、および
前記第1のフィルタによるフィルタ処理の後に得られる前記層間予測信号および前記第2のフィルタによるフィルタ処理の後に得られる前記エンハンスメント層内部予測信号に前記重み付けパラメータを適用すること
によって、前記重み付けパラメータのうちの前記少なくとも1つに応答して、前記層間予測信号と前記エンハンスメント層内部予測信号との重み付け平均を決定するステップと、
前記エンハンスメント層予測信号を使用して、前記エンハンスメント層信号を予測的に符号化するステップと、
を含むことを特徴とする、スケーラブルビデオ符号化方法。 - プログラムコードがコンピュータ上で実行されると、前記コンピュータが請求項12に記載のスケーラブルビデオ復号化方法を実行する、前記プログラムコードを有するコンピュータプログラムを含む、非一時的コンピュータ可読媒体。
- プログラムコードがコンピュータ上で実行されると、前記コンピュータが請求項14に記載のスケーラブルビデオ符号化方法を実行する、前記プログラムコードを有するコンピュータプログラムを含む、非一時的コンピュータ可読媒体。
- 前記層間予測信号のための前記重み付けパラメータと前記エンハンスメント層内部予測信号のための前記重み付けパラメータは、異なる空間周波数成分にわたって変化していくことを特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記層間予測信号のための前記重み付けパラメータと前記エンハンスメント層内部予測信号のための前記重み付けパラメータは、異なる空間周波数成分にわたって変化していくことを特徴とする、請求項12に記載のスケーラブルビデオ復号化方法。
- 前記層間予測信号のための前記重み付けパラメータと前記エンハンスメント層内部予測信号のための前記重み付けパラメータは、異なる空間周波数成分にわたって変化していくことを特徴とする、請求項13に記載のスケーラブルビデオエンコーダ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023081951A JP2023116468A (ja) | 2012-10-01 | 2023-05-18 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261708201P | 2012-10-01 | 2012-10-01 | |
US61/708,201 | 2012-10-01 | ||
JP2018122462A JP7030025B2 (ja) | 2012-10-01 | 2018-06-27 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018122462A Division JP7030025B2 (ja) | 2012-10-01 | 2018-06-27 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023081951A Division JP2023116468A (ja) | 2012-10-01 | 2023-05-18 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021185677A JP2021185677A (ja) | 2021-12-09 |
JP7284221B2 true JP7284221B2 (ja) | 2023-05-30 |
Family
ID=49274661
Family Applications (18)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015534997A Active JP6763664B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2015534996A Active JP6636802B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2015534998A Active JP6788346B2 (ja) | 2012-10-01 | 2013-10-01 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2015535000A Active JP6301933B2 (ja) | 2012-10-01 | 2013-10-01 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
JP2015534999A Active JP6301932B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2017198961A Active JP6760911B2 (ja) | 2012-10-01 | 2017-10-13 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2017240170A Active JP6693940B2 (ja) | 2012-10-01 | 2017-12-15 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
JP2018122462A Active JP7030025B2 (ja) | 2012-10-01 | 2018-06-27 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2018193886A Active JP6912438B2 (ja) | 2012-10-01 | 2018-10-12 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2018193252A Active JP6912437B2 (ja) | 2012-10-01 | 2018-10-12 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2020148098A Pending JP2020205618A (ja) | 2012-10-01 | 2020-09-03 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2021113490A Active JP7323577B2 (ja) | 2012-10-01 | 2021-07-08 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2021113786A Active JP7323578B2 (ja) | 2012-10-01 | 2021-07-08 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
JP2021125888A Active JP7284221B2 (ja) | 2012-10-01 | 2021-07-30 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
JP2023081951A Pending JP2023116468A (ja) | 2012-10-01 | 2023-05-18 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
JP2023122201A Pending JP2023159095A (ja) | 2012-10-01 | 2023-07-27 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2023122307A Pending JP2023159098A (ja) | 2012-10-01 | 2023-07-27 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
JP2023146612A Pending JP2023164991A (ja) | 2012-10-01 | 2023-09-11 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
Family Applications Before (13)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015534997A Active JP6763664B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2015534996A Active JP6636802B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2015534998A Active JP6788346B2 (ja) | 2012-10-01 | 2013-10-01 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2015535000A Active JP6301933B2 (ja) | 2012-10-01 | 2013-10-01 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
JP2015534999A Active JP6301932B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2017198961A Active JP6760911B2 (ja) | 2012-10-01 | 2017-10-13 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2017240170A Active JP6693940B2 (ja) | 2012-10-01 | 2017-12-15 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
JP2018122462A Active JP7030025B2 (ja) | 2012-10-01 | 2018-06-27 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2018193886A Active JP6912438B2 (ja) | 2012-10-01 | 2018-10-12 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2018193252A Active JP6912437B2 (ja) | 2012-10-01 | 2018-10-12 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2020148098A Pending JP2020205618A (ja) | 2012-10-01 | 2020-09-03 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2021113490A Active JP7323577B2 (ja) | 2012-10-01 | 2021-07-08 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2021113786A Active JP7323578B2 (ja) | 2012-10-01 | 2021-07-08 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023081951A Pending JP2023116468A (ja) | 2012-10-01 | 2023-05-18 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
JP2023122201A Pending JP2023159095A (ja) | 2012-10-01 | 2023-07-27 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2023122307A Pending JP2023159098A (ja) | 2012-10-01 | 2023-07-27 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
JP2023146612A Pending JP2023164991A (ja) | 2012-10-01 | 2023-09-11 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
Country Status (6)
Country | Link |
---|---|
US (17) | US10477210B2 (ja) |
EP (11) | EP2904783B1 (ja) |
JP (18) | JP6763664B2 (ja) |
KR (28) | KR102367210B1 (ja) |
CN (8) | CN105009577B (ja) |
WO (5) | WO2014053519A1 (ja) |
Families Citing this family (135)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2654301A4 (en) * | 2010-12-14 | 2016-02-17 | M&K Holdings Inc | METHOD FOR INTER-PREDICTIVE DECODING OF ENCODED FILMS |
PL4124034T3 (pl) * | 2010-12-22 | 2024-01-03 | Lg Electronics Inc. | Predykcja wewnątrzramkowa w kodowaniu wideo |
JP5950541B2 (ja) * | 2011-11-07 | 2016-07-13 | キヤノン株式会社 | 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム |
TWI523497B (zh) * | 2011-11-10 | 2016-02-21 | Sony Corp | Image processing apparatus and method |
CN110035286B (zh) * | 2012-07-09 | 2021-11-12 | Vid拓展公司 | 用于多层视频编码的编解码器架构 |
CN104685881B (zh) * | 2012-09-28 | 2018-05-15 | 夏普株式会社 | 图像解码装置、图像编码装置以及图像解码方法 |
KR101654814B1 (ko) | 2012-09-28 | 2016-09-22 | 브이아이디 스케일, 인크. | 비디오 코딩에서 크로마 신호 향상을 위한 교차-평면 필터링 |
US9826229B2 (en) * | 2012-09-29 | 2017-11-21 | Google Technology Holdings LLC | Scan pattern determination from base layer pixel information for scalable extension |
JP6763664B2 (ja) | 2012-10-01 | 2020-09-30 | ジーイー ビデオ コンプレッション エルエルシー | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
WO2014075552A1 (en) * | 2012-11-15 | 2014-05-22 | Mediatek Inc. | Inter-layer texture coding with adaptive transform and multiple inter-layer motion candidates |
US20140185671A1 (en) * | 2012-12-27 | 2014-07-03 | Electronics And Telecommunications Research Institute | Video encoding and decoding method and apparatus using the same |
US9596465B2 (en) * | 2013-01-04 | 2017-03-14 | Intel Corporation | Refining filter for inter layer prediction of scalable video coding |
US20140198846A1 (en) * | 2013-01-16 | 2014-07-17 | Qualcomm Incorporated | Device and method for scalable coding of video information |
KR20140121315A (ko) * | 2013-04-04 | 2014-10-15 | 한국전자통신연구원 | 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치 |
WO2015007754A1 (en) | 2013-07-15 | 2015-01-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low delay concept in multi-layered video coding |
FR3008840A1 (fr) * | 2013-07-17 | 2015-01-23 | Thomson Licensing | Procede et dispositif de decodage d'un train scalable representatif d'une sequence d'images et procede et dispositif de codage correspondants |
CN105765979B (zh) * | 2013-09-24 | 2019-08-09 | Vid拓展公司 | 用于可缩放视频编码的层间预测 |
US9712834B2 (en) * | 2013-10-01 | 2017-07-18 | Dolby Laboratories Licensing Corporation | Hardware efficient sparse FIR filtering in video codec |
EP2938084A4 (en) * | 2013-12-27 | 2016-10-26 | Sony Corp | IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD |
KR102071581B1 (ko) * | 2014-03-31 | 2020-04-01 | 삼성전자주식회사 | 서브블록 기반 예측을 수행하는 인터 레이어 비디오 복호화 방법 및 그 장치 및 서브블록 기반 예측을 수행하는 인터 레이어 비디오 부호화 방법 및 그 장치 |
WO2015168581A1 (en) * | 2014-05-01 | 2015-11-05 | Arris Enterprises, Inc. | Reference layer and scaled reference layer offsets for scalable video coding |
CN107077726B (zh) | 2014-10-27 | 2019-04-09 | 杜比实验室特许公司 | 使用扩展颜色范围的内容映射 |
EP3206403A4 (en) * | 2014-11-04 | 2017-11-01 | Samsung Electronics Co., Ltd. | Video encoding method and apparatus therefor, and video decoding method and apparatus therefor, in which edge type offset is applied |
EP3026913A1 (en) * | 2014-11-27 | 2016-06-01 | Thomson Licensing | Scalable encoding and decoding methods and corresponding devices with combined intraprediction and interlayer prediction |
FR3029333A1 (fr) * | 2014-11-27 | 2016-06-03 | Orange | Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants |
KR101818900B1 (ko) * | 2015-02-17 | 2018-02-21 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 향상된 동적 범위를 갖는 신호들에 대한 계층간 예측 |
EP3292687A4 (en) * | 2015-05-06 | 2019-07-03 | NGCodec Inc. | INTRA PREDICTION PROCESSOR WITH PARTITIONING OF REDUCED COST BLOCKS AND PERFECTED SELECTION OF INTRA MODES |
EP4404572A3 (en) * | 2015-07-08 | 2024-10-16 | InterDigital Madison Patent Holdings, SAS | Enhanced chroma coding using cross plane filtering |
CN107925765B (zh) * | 2015-08-19 | 2022-01-18 | 索尼公司 | 发送装置、发送方法、接收装置及接收方法 |
GB2557809B (en) | 2015-08-28 | 2021-12-01 | Kt Corp | Method and device for processing video signal |
WO2017039501A1 (en) * | 2015-09-01 | 2017-03-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Spatial improvement of transform blocks |
WO2017043816A1 (ko) * | 2015-09-10 | 2017-03-16 | 엘지전자(주) | 인터-인트라 병합 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN114697679A (zh) | 2015-09-11 | 2022-07-01 | 株式会社Kt | 图像解码方法、图像编码方法和包括比特流的设备 |
CN106612433B (zh) * | 2015-10-22 | 2019-11-26 | 中国科学院上海高等研究院 | 一种层析式编码译码方法 |
US10200719B2 (en) * | 2015-11-25 | 2019-02-05 | Qualcomm Incorporated | Modification of transform coefficients for non-square transform units in video coding |
WO2017121549A1 (en) * | 2016-01-12 | 2017-07-20 | Telefonaktiebolaget Lm Ericsson (Publ) | Frequency based prediction |
CN109155847A (zh) * | 2016-03-24 | 2019-01-04 | 英迪股份有限公司 | 用于编码/解码视频信号的方法和装置 |
WO2017178827A1 (en) * | 2016-04-15 | 2017-10-19 | Magic Pony Technology Limited | In-loop post filtering for video encoding and decoding |
EP3298783B1 (en) | 2016-04-15 | 2020-11-18 | Magic Pony Technology Limited | Motion compensation using temporal picture interpolation |
US10764576B2 (en) | 2016-05-04 | 2020-09-01 | Microsoft Technology Licensing, Llc | Intra-picture prediction using non-adjacent reference lines of sample values |
WO2017209455A2 (ko) * | 2016-05-28 | 2017-12-07 | 세종대학교 산학협력단 | 비디오 신호의 부호화 또는 복호화 방법 및 장치 |
US20170374369A1 (en) * | 2016-06-24 | 2017-12-28 | Mediatek Inc. | Methods and Apparatuses of Decoder Side Intra Mode Derivation |
US10440366B2 (en) | 2016-07-01 | 2019-10-08 | Intel Corporation | Method and system of video coding using content based metadata |
US10666946B2 (en) | 2016-07-01 | 2020-05-26 | Intel Corporation | Method and system of video coding using display modification input |
CN116708782A (zh) * | 2016-07-12 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法以及用于该方法的记录介质 |
KR102471208B1 (ko) | 2016-09-20 | 2022-11-25 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
EP3301925A1 (en) * | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method for local inter-layer prediction intra based |
CN113873260B (zh) | 2016-10-04 | 2023-02-24 | 有限公司B1影像技术研究所 | 图像数据编码/解码方法和装置 |
WO2018097669A1 (ko) * | 2016-11-24 | 2018-05-31 | 한국전자통신연구원 | 스케일러블 비디오를 처리하기 위한 방법 및 장치 |
KR102387909B1 (ko) | 2016-11-29 | 2022-04-18 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
US10694202B2 (en) * | 2016-12-01 | 2020-06-23 | Qualcomm Incorporated | Indication of bilateral filter usage in video coding |
KR102574714B1 (ko) * | 2016-12-23 | 2023-09-06 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 미리 결정된 방향성 인트라 예측 모드들의 세트를 확장하기 위한 인트라 예측 장치 |
KR20240142572A (ko) * | 2017-01-05 | 2024-09-30 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 화상의 블록 기반 예측 코딩 및 디코딩 |
US10715827B2 (en) * | 2017-01-06 | 2020-07-14 | Mediatek Inc. | Multi-hypotheses merge mode |
CN116193110A (zh) * | 2017-01-16 | 2023-05-30 | 世宗大学校产学协力团 | 影像编码/解码方法 |
WO2018190595A1 (ko) * | 2017-04-13 | 2018-10-18 | 엘지전자(주) | 비디오 신호를 엔트로피 인코딩, 디코딩하는 방법 및 장치 |
CN117014632A (zh) * | 2017-04-27 | 2023-11-07 | 松下电器(美国)知识产权公司 | 解码装置、编码装置以及非暂时性记录介质 |
WO2018200993A1 (en) | 2017-04-28 | 2018-11-01 | Zermatt Technologies Llc | Video pipeline |
US10979685B1 (en) | 2017-04-28 | 2021-04-13 | Apple Inc. | Focusing for virtual and augmented reality systems |
US10531085B2 (en) * | 2017-05-09 | 2020-01-07 | Futurewei Technologies, Inc. | Coding chroma samples in video compression |
CN107172386B (zh) * | 2017-05-09 | 2018-06-29 | 西安科技大学 | 一种基于计算机视觉的非接触式数据传输方法 |
EP3625963A4 (en) * | 2017-06-07 | 2020-11-18 | MediaTek Inc. | INTRA-INTER PREDICTION MODE METHOD AND APPARATUS FOR VIDEO CODING |
US12058309B2 (en) * | 2018-07-08 | 2024-08-06 | Mellanox Technologies, Ltd. | Application accelerator |
US11252464B2 (en) | 2017-06-14 | 2022-02-15 | Mellanox Technologies, Ltd. | Regrouping of video data in host memory |
US20200014945A1 (en) * | 2018-07-08 | 2020-01-09 | Mellanox Technologies, Ltd. | Application acceleration |
US10861142B2 (en) * | 2017-07-21 | 2020-12-08 | Apple Inc. | Gaze direction-based adaptive pre-filtering of video data |
CN107580224B (zh) * | 2017-08-08 | 2019-11-22 | 西安理工大学 | 一种面向hevc熵编码的自适应扫描方法 |
EP3451665A1 (en) | 2017-09-01 | 2019-03-06 | Thomson Licensing | Refinement of internal sub-blocks of a coding unit |
EP3457695A1 (en) * | 2017-09-18 | 2019-03-20 | Thomson Licensing | Method and apparatus for motion vector predictor adaptation for omnidirectional video |
US10986360B2 (en) * | 2017-10-16 | 2021-04-20 | Qualcomm Incorproated | Various improvements to FRUC template matching |
FR3072850B1 (fr) | 2017-10-19 | 2021-06-04 | Tdf | Procedes de codage et de decodage d'un flux de donnees representatif d'une video omnidirectionnelle |
US11297339B2 (en) * | 2017-12-06 | 2022-04-05 | V-Nova International Limited | Methods and apparatuses for hierarchically encoding and decoding a bytestream |
US10445762B1 (en) | 2018-01-17 | 2019-10-15 | Yaoshiang Ho | Online video system, method, and medium for A/B testing of video content |
EP3742403A4 (en) * | 2018-01-19 | 2021-03-17 | Panasonic Intellectual Property Corporation of America | METHOD FOR CODING THREE-DIMENSIONAL DATA, METHOD FOR DECODING THREE-DIMENSIONAL DATA, DEVICE FOR CODING THREE-DIMENSIONAL DATA AND DEVICE FOR DECODING THREE-DIMENSIONAL DATA |
JP7187566B2 (ja) * | 2018-02-09 | 2022-12-12 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | パーティションベースのイントラ符号化概念 |
US10771781B2 (en) * | 2018-03-12 | 2020-09-08 | Electronics And Telecommunications Research Institute | Method and apparatus for deriving intra prediction mode |
JP2021519546A (ja) * | 2018-03-29 | 2021-08-10 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 映像符号化のための候補変換セットの決定 |
JP7395497B2 (ja) * | 2018-05-07 | 2023-12-11 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | コード化/復号化におけるデータ依存関係 |
KR20210016581A (ko) | 2018-06-05 | 2021-02-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Ibc 및 atmvp 간의 상호 작용 |
KR102701593B1 (ko) | 2018-06-21 | 2024-08-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 칼라 컴포넌트 간의 서브 블록 mv 상속 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
KR102598576B1 (ko) | 2018-07-02 | 2023-11-06 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
US10645380B2 (en) * | 2018-07-09 | 2020-05-05 | Tencent America LLC | Method and apparatus for video coding |
US10715812B2 (en) * | 2018-07-13 | 2020-07-14 | Tencent America LLC | Method and apparatus for video coding |
US11051010B2 (en) * | 2018-07-18 | 2021-06-29 | Mediatek Inc. | Merge candidates with multiple hypothesis |
EP3824631A4 (en) | 2018-07-18 | 2022-07-06 | HFI Innovation Inc. | METHOD AND APPARATUS FOR MOTION COMPENSATION BANDWIDTH REDUCTION FOR VIDEO CODING SYSTEM USING MULTIHYPOTHEC |
US11032549B2 (en) | 2018-07-26 | 2021-06-08 | Google Llc | Spatial layer rate allocation |
CN108982521A (zh) * | 2018-08-04 | 2018-12-11 | 石修英 | 可视化土壤健康水平检测设备 |
KR20230169474A (ko) | 2018-08-29 | 2023-12-15 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치 |
BR112021004890A2 (pt) * | 2018-09-13 | 2021-06-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | intrapredições ponderadas lineares afins |
EP3844959A2 (en) | 2018-09-16 | 2021-07-07 | Huawei Technologies Co., Ltd. | Apparatus and method for filtering in video coding with look-up table selected based on bitstream information |
GB2577339A (en) * | 2018-09-24 | 2020-03-25 | Sony Corp | Image data encoding and decoding |
US11006150B2 (en) * | 2018-09-24 | 2021-05-11 | Tencent America LLC | Method and apparatus for video coding |
CN117768651A (zh) | 2018-09-24 | 2024-03-26 | 北京字节跳动网络技术有限公司 | 处理视频数据的方法、装置、介质、以及比特流存储方法 |
EP3861741A1 (en) * | 2018-10-02 | 2021-08-11 | InterDigital VC Holdings, Inc. | Method and apparatus for video encoding and decoding using list of predictor candidates |
US11184461B2 (en) | 2018-10-23 | 2021-11-23 | At&T Intellectual Property I, L.P. | VR video transmission with layered video by re-using existing network infrastructures |
CN109660794B (zh) * | 2018-11-07 | 2020-07-07 | 北京达佳互联信息技术有限公司 | 帧内预测模式的决策方法、决策装置和计算机可读存储介质 |
EP3861723A4 (en) | 2018-11-10 | 2022-04-20 | Beijing Bytedance Network Technology Co., Ltd. | ROUNDS IN PAIRS OF MEDIUM CANDIDATE BILLS |
KR102127846B1 (ko) * | 2018-11-28 | 2020-06-29 | 주식회사 카이 | 영상을 처리하는 방법, 영상을 재생하는 방법 및 그 장치들 |
PT3891980T (pt) * | 2018-12-21 | 2024-07-22 | Huawei Tech Co Ltd | Método e aparelho de filtragem de interpolação para codificação preditiva |
JP7288964B2 (ja) | 2018-12-28 | 2023-06-08 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | 動きベクトル予測因子リストを生成すること |
CN113196753B (zh) | 2018-12-28 | 2023-05-12 | 华为技术有限公司 | 用于预测译码的插值滤波锐化方法和装置 |
US11032560B2 (en) * | 2019-01-17 | 2021-06-08 | Tencent America LLC | Method and apparatus for video coding without updating the HMVP table |
CN109672690B (zh) * | 2019-01-29 | 2021-02-19 | 哈尔滨工业大学 | 一种针对数据幅值范围已知的数据流进行编码的方法 |
CN113383547A (zh) | 2019-02-01 | 2021-09-10 | 北京字节跳动网络技术有限公司 | 环路整形和帧间编解码工具之间的相互作用 |
WO2020156534A1 (en) | 2019-02-01 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Interactions between in-loop reshaping and intra block copy |
WO2020163535A1 (en) | 2019-02-05 | 2020-08-13 | Beijing Dajia Internet Information Technology Co., Ltd. | Video coding using intra sub-partition coding mode |
US11012701B2 (en) * | 2019-02-22 | 2021-05-18 | Tencent America LLC | Residual coding for transform skip mode and block differential pulse-code modulation |
US11323731B2 (en) * | 2019-03-08 | 2022-05-03 | Tencent America LLC | Method and apparatus for video coding |
WO2020182140A1 (en) * | 2019-03-11 | 2020-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Motion vector refinement in video coding |
CN113574889B (zh) | 2019-03-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
WO2020192614A1 (en) * | 2019-03-23 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on adaptive-loop filtering parameter sets |
CN113940082A (zh) * | 2019-06-06 | 2022-01-14 | 北京字节跳动网络技术有限公司 | 基于子块的帧内块复制和不同编解码工具之间的交互 |
EP3989547A4 (en) * | 2019-06-21 | 2023-04-19 | Samsung Electronics Co., Ltd. | VIDEO ENCODING METHOD AND DEVICE, AND VIDEO DECODER METHOD AND DEVICE |
WO2020256615A1 (en) * | 2019-06-21 | 2020-12-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Video coding layer up-switching indication |
WO2020259426A1 (en) | 2019-06-22 | 2020-12-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate list construction for intra block copy mode |
EP4000258A4 (en) | 2019-08-20 | 2023-03-15 | Beijing Bytedance Network Technology Co., Ltd. | SCALING POSITION-BASED COEFFICIENTS |
CN110662071B (zh) * | 2019-09-27 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 视频解码方法和装置、存储介质及电子装置 |
US11323732B2 (en) | 2020-04-13 | 2022-05-03 | Tencent America LLC | Method and apparatus for video coding |
US20230209041A1 (en) * | 2020-05-22 | 2023-06-29 | Lg Electronics Inc. | Multilayer-based image coding method in video or image coding system |
CN115443650A (zh) * | 2020-06-06 | 2022-12-06 | 阿里巴巴(中国)有限公司 | 用于帧间预测的角度加权预测 |
US11330296B2 (en) * | 2020-09-14 | 2022-05-10 | Apple Inc. | Systems and methods for encoding image data |
US12058322B2 (en) * | 2020-11-05 | 2024-08-06 | Alibaba Group Holding Limited | Methods and apparatuses for filtering intra predicted video blocks |
KR20220096624A (ko) * | 2020-12-31 | 2022-07-07 | 엘지디스플레이 주식회사 | 표시 장치 |
US11595665B2 (en) | 2021-02-11 | 2023-02-28 | Qualcomm Incorporated | Upsampling reference pixels for intra-prediction in video coding |
US12058310B2 (en) * | 2021-02-26 | 2024-08-06 | Lemon Inc. | Methods of coding images/videos with alpha channels |
US20220279185A1 (en) * | 2021-02-26 | 2022-09-01 | Lemon Inc. | Methods of coding images/videos with alpha channels |
CN113271467B (zh) * | 2021-07-19 | 2021-10-22 | 成都索贝数码科技股份有限公司 | 一种支持高效编辑的超高清视频分层编解码方法 |
GB2603559B (en) | 2021-07-22 | 2023-08-09 | Imagination Tech Ltd | Coding blocks of pixels |
GB2609218B (en) * | 2021-07-22 | 2023-08-30 | Imagination Tech Ltd | Coding blocks of pixels |
WO2023164020A2 (en) * | 2022-02-25 | 2023-08-31 | Op Solutions, Llc | Systems, methods and bitstream structure for video coding and decoding for machines with adaptive inference |
US20230396799A1 (en) * | 2022-06-06 | 2023-12-07 | Tencent America LLC | Signaling method for scaling parameter in chroma from luma intra prediction mode |
WO2024010635A1 (en) * | 2022-07-05 | 2024-01-11 | Innopeak Technology, Inc. | System and method for multiple-hypothesis prediction for video coding |
KR102617498B1 (ko) | 2022-10-13 | 2023-12-27 | 주식회사 엘지에너지솔루션 | 리튬 이차전지용 음극 및 이를 위한 음극용 자성 정렬 장치 |
US20240146902A1 (en) * | 2022-10-26 | 2024-05-02 | Tencent America LLC | Context Design for Coding and Decoding Syntax Elements in Inter Prediction Modes |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007028034A (ja) | 2005-07-14 | 2007-02-01 | Nippon Telegr & Teleph Corp <Ntt> | スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体 |
US20070223582A1 (en) | 2006-01-05 | 2007-09-27 | Borer Timothy J | Image encoding-decoding system and related techniques |
JP2009523395A (ja) | 2006-01-11 | 2009-06-18 | クゥアルコム・インコーポレイテッド | 精細粒度空間スケーラビリティによるビデオ符号化 |
Family Cites Families (261)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62145988A (ja) * | 1985-12-20 | 1987-06-30 | Fujitsu Ltd | 適応的走査線変換画像伝送方式 |
JPS631932A (ja) | 1986-06-23 | 1988-01-06 | Toshiba Corp | 振動検出器の断線検出回路 |
US5933538A (en) | 1990-07-31 | 1999-08-03 | Fujitsu Limited | Image data processing method and apparatus |
JPH05208631A (ja) | 1992-01-30 | 1993-08-20 | Aisin Seiki Co Ltd | スライドレールの取付ブラケツト |
JP3032088B2 (ja) | 1992-03-03 | 2000-04-10 | 株式会社東芝 | 動画像符号化装置 |
JPH06153180A (ja) | 1992-09-16 | 1994-05-31 | Fujitsu Ltd | 画像データ符号化方法及び装置 |
US5408580A (en) * | 1992-09-21 | 1995-04-18 | Aware, Inc. | Audio compression system employing multi-rate signal analysis |
US6252909B1 (en) * | 1992-09-21 | 2001-06-26 | Aware, Inc. | Multi-carrier transmission system utilizing channels of different bandwidth |
US5553277A (en) | 1992-12-29 | 1996-09-03 | Fujitsu Limited | Image search method for searching and retrieving desired image from memory device |
JP3189258B2 (ja) | 1993-01-11 | 2001-07-16 | ソニー株式会社 | 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置 |
EP0607484B1 (en) | 1993-01-20 | 1998-09-09 | Samsung Electronics Co. Ltd. | Method and device for encoding and decoding image data |
JP3186307B2 (ja) | 1993-03-09 | 2001-07-11 | ソニー株式会社 | 圧縮データ記録装置及び方法 |
JPH06301932A (ja) | 1993-04-15 | 1994-10-28 | Sumitomo Metal Ind Ltd | 薄膜磁気ヘッド及びその製造方法 |
CA2127151A1 (en) | 1993-09-21 | 1995-03-22 | Atul Puri | Spatially scalable video encoding and decoding |
JP3627870B2 (ja) * | 1995-02-28 | 2005-03-09 | ソニー株式会社 | 動きベクトル検出方法及び装置 |
US5619256A (en) | 1995-05-26 | 1997-04-08 | Lucent Technologies Inc. | Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions |
DE19526366A1 (de) * | 1995-07-20 | 1997-01-23 | Bosch Gmbh Robert | Verfahren zur Redundanzreduktion bei der Codierung von mehrkanaligen Signalen und Vorrichtung zur Dekodierung von redundanzreduzierten, mehrkanaligen Signalen |
JPH0951504A (ja) | 1995-08-03 | 1997-02-18 | Matsushita Electric Ind Co Ltd | 画像符号化装置及び画像復号化装置 |
EP0857392B1 (en) * | 1995-10-25 | 2004-08-11 | Sarnoff Corporation | Overlapping block zerotree wavelet image coder |
US5852565A (en) * | 1996-01-30 | 1998-12-22 | Demografx | Temporal and resolution layering in advanced television |
US6957350B1 (en) * | 1996-01-30 | 2005-10-18 | Dolby Laboratories Licensing Corporation | Encrypted and watermarked temporal and resolution layering in advanced television |
JPH09208631A (ja) | 1996-02-07 | 1997-08-12 | Mitsubishi Chem Corp | 塩化ビニル系重合体 |
JPH09238350A (ja) | 1996-03-01 | 1997-09-09 | Matsushita Electric Ind Co Ltd | 動画像符号化装置 |
US6233017B1 (en) | 1996-09-16 | 2001-05-15 | Microsoft Corporation | Multimedia compression system with adaptive block sizes |
US6545687B2 (en) | 1997-01-09 | 2003-04-08 | Canon Kabushiki Kaisha | Thumbnail manipulation using fast and aspect ratio zooming, compressing and scaling |
US6728775B1 (en) * | 1997-03-17 | 2004-04-27 | Microsoft Corporation | Multiple multicasting of multimedia streams |
AUPO951397A0 (en) | 1997-09-29 | 1997-10-23 | Canon Information Systems Research Australia Pty Ltd | A method for digital data compression |
EP0905978A3 (en) | 1997-09-29 | 2000-04-12 | Canon Kabushiki Kaisha | An encoding method and apparatus |
US6587590B1 (en) | 1998-02-02 | 2003-07-01 | The Trustees Of The University Of Pennsylvania | Method and system for computing 8×8 DCT/IDCT and a VLSI implementation |
US8050329B2 (en) | 1998-06-26 | 2011-11-01 | Mediatek Inc. | Method and apparatus for generic scalable shape coding |
AU743246B2 (en) | 1998-11-04 | 2002-01-24 | Mitsubishi Denki Kabushiki Kaisha | Image decoder and image encoder |
US6480547B1 (en) * | 1999-10-15 | 2002-11-12 | Koninklijke Philips Electronics N.V. | System and method for encoding and decoding the residual signal for fine granular scalable video |
US6476805B1 (en) | 1999-12-23 | 2002-11-05 | Microsoft Corporation | Techniques for spatial displacement estimation and multi-resolution operations on light fields |
US8117313B2 (en) | 2001-03-19 | 2012-02-14 | International Business Machines Corporation | System and method for adaptive formatting of image information for efficient delivery and presentation |
CA2582664C (en) | 2001-09-12 | 2012-04-24 | Matsushita Electric Industrial Co., Ltd. | Picture coding method and picture decoding method |
CN101448162B (zh) | 2001-12-17 | 2013-01-02 | 微软公司 | 处理视频图像的方法 |
US20030118113A1 (en) * | 2001-12-20 | 2003-06-26 | Comer Mary Lafuze | Fine-grain scalable video decoder with conditional replacement |
MXPA04007020A (es) | 2002-01-23 | 2004-10-11 | Nokia Corp | Agrupamiento de cuadros de imagen para codificacion de video. |
AU2002951574A0 (en) * | 2002-09-20 | 2002-10-03 | Unisearch Limited | Method of signalling motion information for efficient scalable video compression |
KR20050105222A (ko) * | 2003-02-17 | 2005-11-03 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 부호화 |
US8107535B2 (en) * | 2003-06-10 | 2012-01-31 | Rensselaer Polytechnic Institute (Rpi) | Method and apparatus for scalable motion vector coding |
US6900748B2 (en) | 2003-07-17 | 2005-05-31 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method and apparatus for binarization and arithmetic coding of a data value |
US20050013498A1 (en) * | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
JP2005135249A (ja) | 2003-10-31 | 2005-05-26 | Kddi Corp | 映像の領域分割装置 |
US7346111B2 (en) * | 2003-12-10 | 2008-03-18 | Lsi Logic Corporation | Co-located motion vector storage |
EP1558039A1 (en) * | 2004-01-21 | 2005-07-27 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding |
US7227894B2 (en) * | 2004-02-24 | 2007-06-05 | Industrial Technology Research Institute | Method and apparatus for MPEG-4 FGS performance enhancement |
US7627037B2 (en) | 2004-02-27 | 2009-12-01 | Microsoft Corporation | Barbell lifting for multi-layer wavelet coding |
US7418144B2 (en) * | 2004-03-03 | 2008-08-26 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Curved wavelet transform for image and video compression |
WO2005099271A1 (en) * | 2004-04-06 | 2005-10-20 | Koninklijke Philips Electronics N.V. | Device and method for receiving video data |
KR100586882B1 (ko) * | 2004-04-13 | 2006-06-08 | 삼성전자주식회사 | 모션 스케일러빌리티를 지원하는 코딩 방법 및 장치 |
US8442108B2 (en) * | 2004-07-12 | 2013-05-14 | Microsoft Corporation | Adaptive updates in motion-compensated temporal filtering |
US8340177B2 (en) * | 2004-07-12 | 2012-12-25 | Microsoft Corporation | Embedded base layer codec for 3D sub-band coding |
US8374238B2 (en) * | 2004-07-13 | 2013-02-12 | Microsoft Corporation | Spatial scalability in 3D sub-band decoding of SDMCTF-encoded video |
CN100466735C (zh) * | 2004-07-15 | 2009-03-04 | 三星电子株式会社 | 视频编码和解码方法以及视频编码器和解码器 |
KR100679011B1 (ko) * | 2004-07-15 | 2007-02-05 | 삼성전자주식회사 | 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치 |
KR100678949B1 (ko) | 2004-07-15 | 2007-02-06 | 삼성전자주식회사 | 비디오 코딩 및 디코딩 방법, 비디오 인코더 및 디코더 |
DE102004041664A1 (de) | 2004-08-27 | 2006-03-09 | Siemens Ag | Verfahren zum Codieren und Decodieren, sowie Codier- und Decodiervorrichtung zur Videocodierung |
JP2008516556A (ja) * | 2004-10-13 | 2008-05-15 | トムソン ライセンシング | コンプレクシティスケーラブル映像符号化復号化方法及び装置 |
DE102004059993B4 (de) | 2004-10-15 | 2006-08-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium |
KR100703740B1 (ko) | 2004-10-21 | 2007-04-05 | 삼성전자주식회사 | 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치 |
KR100679025B1 (ko) * | 2004-11-12 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치 |
KR100679031B1 (ko) * | 2004-12-03 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치 |
EP1817911A4 (en) * | 2004-12-03 | 2015-05-20 | Samsung Electronics Co Ltd | METHOD AND DEVICE FOR MULTILAYER VIDEO ENCODING AND DECODING |
EP1694074A1 (en) | 2005-02-18 | 2006-08-23 | Thomson Licensing | Process for scalable coding of images |
KR100888962B1 (ko) * | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
KR100888963B1 (ko) * | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
US20060153295A1 (en) * | 2005-01-12 | 2006-07-13 | Nokia Corporation | Method and system for inter-layer prediction mode coding in scalable video coding |
EP1836858A1 (en) | 2005-01-14 | 2007-09-26 | Sungkyunkwan University | Methods of and apparatuses for adaptive entropy encoding and adaptive entropy decoding for scalable video encoding |
KR100703748B1 (ko) | 2005-01-25 | 2007-04-05 | 삼성전자주식회사 | 다 계층 기반의 비디오 프레임을 효율적으로 예측하는 방법및 그 방법을 이용한 비디오 코딩 방법 및 장치 |
US7792385B2 (en) | 2005-01-25 | 2010-09-07 | Globalfoundries Inc. | Scratch pad for storing intermediate loop filter data |
US8576924B2 (en) | 2005-01-25 | 2013-11-05 | Advanced Micro Devices, Inc. | Piecewise processing of overlap smoothing and in-loop deblocking |
KR100703751B1 (ko) | 2005-02-14 | 2007-04-06 | 삼성전자주식회사 | 가상 영역의 영상을 참조하여 인코딩 및 디코딩 하는 방법및 장치 |
JP5213456B2 (ja) * | 2005-02-18 | 2013-06-19 | トムソン ライセンシング | 高分解能ピクチャの符号化情報を低分解能ピクチャから導き出す方法、並びにその方法を実現する符号化及び復号化装置 |
JP5065051B2 (ja) | 2005-02-18 | 2012-10-31 | トムソン ライセンシング | 低解像度画像から高解像度画像の符号化情報を導出する方法、並びに、係る方法を実現する符号化及び復号化装置 |
KR100703770B1 (ko) | 2005-03-25 | 2007-04-06 | 삼성전자주식회사 | 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치 |
JP4854046B2 (ja) * | 2005-04-06 | 2012-01-11 | トムソン ライセンシング | エンハンスメント層ビデオ・データを符号化する方法および装置 |
EP1711018A1 (en) * | 2005-04-08 | 2006-10-11 | Thomson Licensing | Method and apparatus for encoding video pictures, and method and apparatus for decoding video pictures |
US7876833B2 (en) | 2005-04-11 | 2011-01-25 | Sharp Laboratories Of America, Inc. | Method and apparatus for adaptive up-scaling for spatially scalable coding |
EP1878257A1 (en) | 2005-04-12 | 2008-01-16 | Nokia Corporation | Method and system for motion compensated fine granularity scalable video coding with drift control |
KR100896279B1 (ko) * | 2005-04-15 | 2009-05-07 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
US8619860B2 (en) | 2005-05-03 | 2013-12-31 | Qualcomm Incorporated | System and method for scalable encoding and decoding of multimedia data using multiple layers |
US8059608B2 (en) * | 2005-06-14 | 2011-11-15 | Qualcomm Incorporated | Transmit spatial diversity for cellular single frequency networks |
US7965773B1 (en) | 2005-06-30 | 2011-06-21 | Advanced Micro Devices, Inc. | Macroblock cache |
KR101154999B1 (ko) | 2005-07-08 | 2012-07-09 | 엘지전자 주식회사 | 영상 신호의 코딩정보를 압축/해제하기 위해 모델링하는 방법 |
KR100878827B1 (ko) * | 2005-07-08 | 2009-01-14 | 엘지전자 주식회사 | 영상 신호의 코딩정보를 압축/해제하기 위해 모델링하는방법 |
WO2007008286A1 (en) * | 2005-07-11 | 2007-01-18 | Thomson Licensing | Method and apparatus for macroblock adaptive inter-layer intra texture prediction |
US7630882B2 (en) | 2005-07-15 | 2009-12-08 | Microsoft Corporation | Frequency segmentation to obtain bands for efficient coding of digital media |
US7562021B2 (en) | 2005-07-15 | 2009-07-14 | Microsoft Corporation | Modification of codewords in dictionary used for efficient coding of digital media spectral data |
US8369406B2 (en) | 2005-07-18 | 2013-02-05 | Electronics And Telecommunications Research Institute | Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same |
US8289370B2 (en) * | 2005-07-20 | 2012-10-16 | Vidyo, Inc. | System and method for scalable and low-delay videoconferencing using scalable video coding |
MX2008000906A (es) | 2005-07-21 | 2008-03-18 | Thomson Licensing | Metodo y aparato para la prediccion ponderada para la codificacion escalable de video. |
KR100678911B1 (ko) * | 2005-07-21 | 2007-02-05 | 삼성전자주식회사 | 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치 |
US20070025444A1 (en) | 2005-07-28 | 2007-02-01 | Shigeyuki Okada | Coding Method |
KR100746011B1 (ko) * | 2005-08-24 | 2007-08-06 | 삼성전자주식회사 | 잔차 예측의 성능 개선 방법, 상기 방법을 이용한 비디오인코더 및 비디오 디코더 |
JP4490351B2 (ja) * | 2005-08-29 | 2010-06-23 | 日本電信電話株式会社 | 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体 |
KR100736086B1 (ko) | 2005-09-06 | 2007-07-06 | 삼성전자주식회사 | 엔트로피 코딩의 성능 향상 방법 및 장치, 상기 방법을이용한 비디오 코딩 방법 및 장치 |
JP4663792B2 (ja) | 2005-09-21 | 2011-04-06 | サムスン エレクトロニクス カンパニー リミテッド | 多視点動映像を符号化及び復号化する装置及び方法 |
US8340450B2 (en) * | 2005-09-23 | 2012-12-25 | Telefonaktiebolaget Lm Ericsson (Publ) | Successively refinable lattice vector quantization |
US7348903B2 (en) | 2005-09-26 | 2008-03-25 | Samsung Electronics Co., Ltd. | Method and apparatus for enhancing performance of entropy coding, and video coding method and apparatus using the entropy coding performance enhancing method |
US20070126853A1 (en) | 2005-10-03 | 2007-06-07 | Nokia Corporation | Variable length codes for scalable video coding |
KR100891662B1 (ko) * | 2005-10-05 | 2009-04-02 | 엘지전자 주식회사 | 비디오 신호 디코딩 및 인코딩 방법 |
US8180826B2 (en) * | 2005-10-31 | 2012-05-15 | Microsoft Corporation | Media sharing and authoring on the web |
FR2894421B1 (fr) * | 2005-12-07 | 2008-01-18 | Canon Kk | Procede et dispositif de decodage d'un flux video code suivant un codage hierarchique |
KR100772870B1 (ko) | 2005-12-12 | 2007-11-02 | 삼성전자주식회사 | Fgs 계층의 블록에 포함되는 계수의 특성에 따라 비디오신호를 부호화하고 복호화하는 방법 및 장치 |
JP4565392B2 (ja) | 2005-12-22 | 2010-10-20 | 日本ビクター株式会社 | 映像信号階層復号化装置、映像信号階層復号化方法、及び映像信号階層復号化プログラム |
CN101401440A (zh) | 2006-01-09 | 2009-04-01 | 诺基亚公司 | 可伸缩视频编码中的差错恢复模式判决 |
ZA200805337B (en) | 2006-01-09 | 2009-11-25 | Thomson Licensing | Method and apparatus for providing reduced resolution update mode for multiview video coding |
EP1977608B1 (en) | 2006-01-09 | 2020-01-01 | LG Electronics, Inc. | Inter-layer prediction method for video signal |
US20070201550A1 (en) * | 2006-01-09 | 2007-08-30 | Nokia Corporation | Method and apparatus for entropy coding in fine granularity scalable video coding |
US8619865B2 (en) | 2006-02-16 | 2013-12-31 | Vidyo, Inc. | System and method for thinning of scalable video coding bit-streams |
US8693538B2 (en) | 2006-03-03 | 2014-04-08 | Vidyo, Inc. | System and method for providing error resilience, random access and rate control in scalable video communications |
US8340179B2 (en) * | 2006-03-21 | 2012-12-25 | Canon Kabushiki Kaisha | Methods and devices for coding and decoding moving images, a telecommunication system comprising such a device and a program implementing such a method |
EP1859630B1 (en) | 2006-03-22 | 2014-10-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Coding scheme enabling precision-scalability |
US20070230567A1 (en) | 2006-03-28 | 2007-10-04 | Nokia Corporation | Slice groups and data partitioning in scalable video coding |
US8320450B2 (en) | 2006-03-29 | 2012-11-27 | Vidyo, Inc. | System and method for transcoding between scalable and non-scalable video codecs |
PL2008460T3 (pl) * | 2006-03-30 | 2017-10-31 | Lg Electronics Inc | Sposób i urządzenie do dekodowania/kodowania sygnału wideo |
KR100781525B1 (ko) * | 2006-04-06 | 2007-12-03 | 삼성전자주식회사 | 가중 평균합을 이용하여 fgs 계층을 인코딩 및디코딩하는 방법 및 장치 |
US8275037B2 (en) * | 2006-05-05 | 2012-09-25 | Thomson Licensing | Simplified inter-layer motion prediction for scalable video coding |
WO2007136094A1 (ja) | 2006-05-24 | 2007-11-29 | Panasonic Corporation | 動画像復号装置 |
US7773672B2 (en) * | 2006-05-30 | 2010-08-10 | Freescale Semiconductor, Inc. | Scalable rate control system for a video encoder |
CN101491107B (zh) * | 2006-07-07 | 2012-07-18 | 艾利森电话股份有限公司 | 一种对图像元素组进行解码的方法及其相关的编码器、解码器 |
WO2008004940A1 (en) * | 2006-07-07 | 2008-01-10 | Telefonaktiebolaget Lm Ericsson (Publ) | Video data management |
US8059714B2 (en) * | 2006-07-10 | 2011-11-15 | Sharp Laboratories Of America, Inc. | Methods and systems for residual layer scaling |
WO2008007792A1 (en) | 2006-07-10 | 2008-01-17 | Sharp Kabushiki Kaisha | Methods and systems for combining layers in a multi-layer bitstream |
US7885471B2 (en) | 2006-07-10 | 2011-02-08 | Sharp Laboratories Of America, Inc. | Methods and systems for maintenance and use of coded block pattern information |
US8422555B2 (en) * | 2006-07-11 | 2013-04-16 | Nokia Corporation | Scalable video coding |
JP5021739B2 (ja) | 2006-07-12 | 2012-09-12 | エルジー エレクトロニクス インコーポレイティド | 信号処理方法及び装置 |
US8155454B2 (en) | 2006-07-20 | 2012-04-10 | Qualcomm Incorporated | Method and apparatus for encoder assisted post-processing |
US8253752B2 (en) | 2006-07-20 | 2012-08-28 | Qualcomm Incorporated | Method and apparatus for encoder assisted pre-processing |
US9001899B2 (en) | 2006-09-15 | 2015-04-07 | Freescale Semiconductor, Inc. | Video information processing system with selective chroma deblock filtering |
US8942292B2 (en) | 2006-10-13 | 2015-01-27 | Qualcomm Incorporated | Efficient significant coefficients coding in scalable video codecs |
US9014280B2 (en) * | 2006-10-13 | 2015-04-21 | Qualcomm Incorporated | Video coding with adaptive filtering for motion compensated prediction |
JP2008099045A (ja) | 2006-10-13 | 2008-04-24 | Nippon Telegr & Teleph Corp <Ntt> | スケーラブル符号化方法,復号方法,これらの装置,およびこれらのプログラム並びにその記録媒体 |
EP2077038B1 (en) | 2006-10-18 | 2013-01-30 | Apple Inc. | Scalable video coding with filtering of lower layers |
US20080095228A1 (en) | 2006-10-20 | 2008-04-24 | Nokia Corporation | System and method for providing picture output indications in video coding |
WO2008051755A2 (en) * | 2006-10-20 | 2008-05-02 | Motorola, Inc. | Method and apparatus for intra-frame spatial scalable video coding |
US20080095235A1 (en) * | 2006-10-20 | 2008-04-24 | Motorola, Inc. | Method and apparatus for intra-frame spatial scalable video coding |
US8774269B2 (en) | 2006-10-25 | 2014-07-08 | Franuhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Quality scalable coding with mapping different ranges of bit depths |
MY146880A (en) | 2006-11-09 | 2012-10-15 | Invenpro M Sdn Bhd | Method for drying a substrate |
US8054885B2 (en) * | 2006-11-09 | 2011-11-08 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal |
US7545293B2 (en) * | 2006-11-14 | 2009-06-09 | Qualcomm Incorporated | Memory efficient coding of variable length codes |
US7573407B2 (en) * | 2006-11-14 | 2009-08-11 | Qualcomm Incorporated | Memory efficient adaptive block coding |
WO2008061211A2 (en) | 2006-11-15 | 2008-05-22 | Qualcomm Incorporated | Systems and methods for applications using channel switch frames |
US9445128B2 (en) | 2006-12-08 | 2016-09-13 | Freescale Semiconductor, Inc. | System and method of determining deblocking control flag of scalable video system for indicating presentation of deblocking parameters for multiple layers |
US9961372B2 (en) * | 2006-12-08 | 2018-05-01 | Nxp Usa, Inc. | Adaptive disabling of deblock filtering based on a content characteristic of video information |
EP1933563A1 (en) * | 2006-12-14 | 2008-06-18 | Thomson Licensing | Method and apparatus for encoding and/or decoding bit depth scalable video data using adaptive enhancement layer residual prediction |
US8331448B2 (en) | 2006-12-22 | 2012-12-11 | Qualcomm Incorporated | Systems and methods for efficient spatial intra predictabilty determination (or assessment) |
CN101622877A (zh) | 2006-12-22 | 2010-01-06 | 高通股份有限公司 | 用于有效空间帧内可预测性确定(或评估)的系统和方法 |
WO2008083296A2 (en) | 2006-12-28 | 2008-07-10 | Vidyo, Inc. | System and method for in-loop deblocking in scalable video coding |
ES2535314T3 (es) | 2006-12-28 | 2015-05-08 | Nippon Telegraph And Telephone Corporation | Método de codificación de vídeo, método de decodificación, dispositivo de los mismos, programa de los mismos, y medio de almacenamiento que contiene el programa |
RU2426267C2 (ru) | 2007-01-08 | 2011-08-10 | Нокиа Корпорейшн | Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала |
US8335261B2 (en) * | 2007-01-08 | 2012-12-18 | Qualcomm Incorporated | Variable length coding techniques for coded block patterns |
US8199812B2 (en) * | 2007-01-09 | 2012-06-12 | Qualcomm Incorporated | Adaptive upsampling for scalable video coding |
KR20080066522A (ko) | 2007-01-11 | 2008-07-16 | 삼성전자주식회사 | 다시점 영상의 부호화, 복호화 방법 및 장치 |
US8126062B2 (en) | 2007-01-16 | 2012-02-28 | Cisco Technology, Inc. | Per multi-block partition breakpoint determining for hybrid variable length coding |
US20080170611A1 (en) | 2007-01-17 | 2008-07-17 | Srikrishna Ramaswamy | Configurable functional multi-processing architecture for video processing |
KR101341111B1 (ko) * | 2007-01-18 | 2013-12-13 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 화질 스케일러블 비디오 데이터 스트림 |
US20080205508A1 (en) | 2007-02-22 | 2008-08-28 | Streaming Networks (Pvt.) Ltd. | Method and apparatus for low complexity video encoding and decoding |
WO2008111005A1 (en) * | 2007-03-15 | 2008-09-18 | Nokia Corporation | System and method for providing improved residual prediction for spatial scalability in video coding |
US8204129B2 (en) | 2007-03-27 | 2012-06-19 | Freescale Semiconductor, Inc. | Simplified deblock filtering for reduced memory access and computational complexity |
US8488677B2 (en) | 2007-04-25 | 2013-07-16 | Lg Electronics Inc. | Method and an apparatus for decoding/encoding a video signal |
KR20080107965A (ko) * | 2007-06-08 | 2008-12-11 | 삼성전자주식회사 | 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치 |
CN101690231A (zh) | 2007-06-28 | 2010-03-31 | 汤姆森特许公司 | 多视图编码视频的单环解码 |
WO2009003499A1 (en) * | 2007-06-29 | 2009-01-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scalable video coding supporting pixel value refinement scalability |
US8265144B2 (en) | 2007-06-30 | 2012-09-11 | Microsoft Corporation | Innovations in video decoder implementations |
WO2009011492A1 (en) | 2007-07-13 | 2009-01-22 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image |
BRPI0815108A2 (pt) | 2007-08-15 | 2015-01-27 | Thomson Licensing | Métodos e aparelho para modo de avanço de movimento em vídeo codificado de multi-visitas com o uso de vetores de disparidade regional |
US8938009B2 (en) | 2007-10-12 | 2015-01-20 | Qualcomm Incorporated | Layered encoded bitstream structure |
KR101345287B1 (ko) * | 2007-10-12 | 2013-12-27 | 삼성전자주식회사 | 스케일러블 영상 부호화 방법 및 장치와 그 영상 복호화방법 및 장치 |
US8432968B2 (en) | 2007-10-15 | 2013-04-30 | Qualcomm Incorporated | Scalable video coding techniques for scalable bitdepths |
CN101415115B (zh) | 2007-10-15 | 2011-02-02 | 华为技术有限公司 | 基于运动跳跃模式的视频编解码方法及其编解码器 |
US7777654B2 (en) | 2007-10-16 | 2010-08-17 | Industrial Technology Research Institute | System and method for context-based adaptive binary arithematic encoding and decoding |
BRPI0817770B1 (pt) * | 2007-10-16 | 2020-11-10 | Interdigital Madison Patent Holdings | métodos e aparelhos para a remoção de artefatos para a escalabilidade de profundidade em bits |
KR100918862B1 (ko) | 2007-10-19 | 2009-09-28 | 광주과학기술원 | 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체 |
RU2461978C2 (ru) | 2007-10-25 | 2012-09-20 | Ниппон Телеграф Энд Телефон Корпорейшн | Способ масштабируемого кодирования и способ масштабируемого декодирования видеоинформации, устройства для них, программы для них и носитель записи, на котором записаны программы |
KR20090055803A (ko) | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
CN101198064A (zh) * | 2007-12-10 | 2008-06-11 | 武汉大学 | 一种分辨率分层技术中的运动矢量预测方法 |
US8175158B2 (en) | 2008-01-04 | 2012-05-08 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction parameter determination |
KR101560182B1 (ko) | 2008-01-07 | 2015-10-15 | 삼성전자주식회사 | 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치 |
US8126054B2 (en) * | 2008-01-09 | 2012-02-28 | Motorola Mobility, Inc. | Method and apparatus for highly scalable intraframe video coding |
BRPI0821500A2 (pt) | 2008-01-11 | 2015-06-16 | Thomson Licensing | Codificação de vídeo e profundidade |
EP2243297B1 (en) * | 2008-02-05 | 2017-03-08 | Thomson Licensing | Methods and apparatus for implicit block segmentation in video encoding and decoding |
US8861598B2 (en) * | 2008-03-19 | 2014-10-14 | Cisco Technology, Inc. | Video compression using search techniques of long-term reference memory |
PL2835976T3 (pl) * | 2008-04-16 | 2017-04-28 | Ge Video Compression, Llc | Skalowalność głębi bitowej |
WO2009131688A2 (en) | 2008-04-25 | 2009-10-29 | Thomson Licensing | Inter-view skip modes with depth |
WO2009131703A2 (en) | 2008-04-25 | 2009-10-29 | Thomson Licensing | Coding of depth signal |
CA2727569C (en) * | 2008-06-09 | 2017-09-26 | Vidyo, Inc. | Improved view layout management in scalable video and audio communication systems |
KR101663819B1 (ko) | 2008-08-20 | 2016-10-10 | 톰슨 라이센싱 | 정제된 깊이 맵 |
US8660176B2 (en) | 2008-09-26 | 2014-02-25 | Qualcomm Incorporated | Resolving geometric relationships among video data units |
US8724697B2 (en) | 2008-09-26 | 2014-05-13 | Qualcomm Incorporated | Locating motion vectors for video data units |
US8634457B2 (en) | 2008-09-26 | 2014-01-21 | Qualcomm Incorporated | Determining availability of video data units |
US8634456B2 (en) * | 2008-10-03 | 2014-01-21 | Qualcomm Incorporated | Video coding with large macroblocks |
WO2010043773A1 (en) | 2008-10-17 | 2010-04-22 | Nokia Corporation | Sharing of motion vector in 3d video coding |
EP2348733A4 (en) | 2008-10-27 | 2012-09-12 | Lg Electronics Inc | METHOD AND APPARATUS FOR THE SYNTHESIS OF VIRTUAL VISUALIZATION IMAGES |
KR101590511B1 (ko) | 2009-01-23 | 2016-02-02 | 에스케이텔레콤 주식회사 | 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법 |
WO2010090749A1 (en) | 2009-02-06 | 2010-08-12 | Thomson Licensing | Methods and apparatus for implicit and semi-implicit intra mode signaling for video encoders and decoders |
TWI468020B (zh) * | 2009-02-19 | 2015-01-01 | Sony Corp | Image processing apparatus and method |
KR20100095992A (ko) * | 2009-02-23 | 2010-09-01 | 한국과학기술원 | 비디오 부호화에서의 분할 블록 부호화 방법, 비디오 복호화에서의 분할 블록 복호화 방법 및 이를 구현하는 기록매체 |
CN102804785A (zh) * | 2009-04-13 | 2012-11-28 | 瑞尔D股份有限公司 | 编码、解码和发布增强分辨率的立体视频 |
WO2012044487A1 (en) * | 2010-10-01 | 2012-04-05 | Dolby Laboratories Licensing Corporation | Optimized filter selection for reference picture processing |
US8780999B2 (en) * | 2009-06-12 | 2014-07-15 | Qualcomm Incorporated | Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems |
US8411746B2 (en) | 2009-06-12 | 2013-04-02 | Qualcomm Incorporated | Multiview video coding over MPEG-2 systems |
EP2265026A1 (en) * | 2009-06-16 | 2010-12-22 | Canon Kabushiki Kaisha | Method and device for deblocking filtering of SVC type video streams during decoding |
US20100329361A1 (en) | 2009-06-30 | 2010-12-30 | Samsung Electronics Co., Ltd. | Apparatus and method for in-loop filtering of image data and apparatus for encoding/decoding image data using the same |
US8665964B2 (en) | 2009-06-30 | 2014-03-04 | Qualcomm Incorporated | Video coding based on first order prediction and pre-defined second order prediction mode |
WO2011005624A1 (en) | 2009-07-04 | 2011-01-13 | Dolby Laboratories Licensing Corporation | Encoding and decoding architectures for format compatible 3d video delivery |
JP5684823B2 (ja) * | 2009-11-06 | 2015-03-18 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | ハイブリッド映像符号化 |
CN102656885B (zh) * | 2009-12-14 | 2016-01-27 | 汤姆森特许公司 | 合并编码比特流 |
EP2529184A4 (en) | 2010-01-29 | 2016-03-09 | Nokia Technologies Oy | SYSTEMS, METHODS AND APPARATUSES FOR DELIVERING CONTEXT-BASED NAVIGATION SERVICES |
US20110194613A1 (en) | 2010-02-11 | 2011-08-11 | Qualcomm Incorporated | Video coding with large macroblocks |
US9973768B2 (en) | 2010-03-16 | 2018-05-15 | Texas Instruments Incorporated | CABAC decoder with decoupled arithmetic decoding and inverse binarization |
US8410959B2 (en) | 2010-04-09 | 2013-04-02 | Qualcomm, Incorporated | Variable length codes for coding of video data |
EP2375747B1 (en) * | 2010-04-12 | 2019-03-13 | Sun Patent Trust | Filter positioning and selection |
CN113556563B (zh) | 2010-04-13 | 2024-08-20 | Ge视频压缩有限责任公司 | 显著性图和变换系数块的编码 |
US9793921B2 (en) | 2010-05-12 | 2017-10-17 | Thomson Licensing Dtv | Methods and apparatus for unified significance map coding |
US9510009B2 (en) * | 2010-05-20 | 2016-11-29 | Thomson Licensing | Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding |
US20110296009A1 (en) | 2010-05-27 | 2011-12-01 | Victor Baranov | System and method for wavelets-based adaptive mobile advertising fraud detection |
US8930562B2 (en) | 2010-07-20 | 2015-01-06 | Qualcomm Incorporated | Arranging sub-track fragments for streaming video data |
KR20120012385A (ko) * | 2010-07-31 | 2012-02-09 | 오수미 | 인트라 예측 부호화 장치 |
GB2483294B (en) | 2010-09-03 | 2013-01-02 | Canon Kk | Method and device for motion estimation of video data coded according to a scalable coding structure |
JP5703781B2 (ja) | 2010-09-03 | 2015-04-22 | ソニー株式会社 | 画像処理装置および方法 |
US8780991B2 (en) | 2010-09-14 | 2014-07-15 | Texas Instruments Incorporated | Motion estimation in enhancement layers in video encoding |
US20120075436A1 (en) | 2010-09-24 | 2012-03-29 | Qualcomm Incorporated | Coding stereo video data |
CA2811660C (en) * | 2010-10-01 | 2016-08-16 | Research In Motion Limited | Methods and devices for parallel encoding and decoding using a bitstream structured for reduced delay |
US8923395B2 (en) | 2010-10-01 | 2014-12-30 | Qualcomm Incorporated | Video coding using intra-prediction |
US9532059B2 (en) * | 2010-10-05 | 2016-12-27 | Google Technology Holdings LLC | Method and apparatus for spatial scalability for video coding |
US20120082235A1 (en) * | 2010-10-05 | 2012-04-05 | General Instrument Corporation | Coding and decoding utilizing context model selection with adaptive scan pattern |
US8861617B2 (en) | 2010-10-05 | 2014-10-14 | Mediatek Inc | Method and apparatus of region-based adaptive loop filtering |
US9525884B2 (en) | 2010-11-02 | 2016-12-20 | Hfi Innovation Inc. | Method and apparatus of slice boundary filtering for high efficiency video coding |
CN106851320B (zh) | 2010-11-04 | 2020-06-02 | Ge视频压缩有限责任公司 | 数字存储介质、解码比特流的方法 |
US20120114036A1 (en) | 2010-11-10 | 2012-05-10 | Hong Kong Applied Science and Technology Research Institute Company Limited | Method and Apparatus for Multiview Video Coding |
US9497472B2 (en) | 2010-11-16 | 2016-11-15 | Qualcomm Incorporated | Parallel context calculation in video coding |
US9042440B2 (en) | 2010-12-03 | 2015-05-26 | Qualcomm Incorporated | Coding the position of a last significant coefficient within a video block based on a scanning order for the block in video coding |
US20120163448A1 (en) | 2010-12-22 | 2012-06-28 | Qualcomm Incorporated | Coding the position of a last significant coefficient of a video block in video coding |
US20120163456A1 (en) | 2010-12-22 | 2012-06-28 | Qualcomm Incorporated | Using a most probable scanning order to efficiently code scanning order information for a video block in video coding |
CA2822929C (en) * | 2011-01-04 | 2016-07-12 | Research In Motion Limited | Coding of residual data in predictive compression |
CA2822925C (en) * | 2011-01-04 | 2017-09-19 | Research In Motion Limited | Coding of residual data in predictive compression |
US9635382B2 (en) * | 2011-01-07 | 2017-04-25 | Texas Instruments Incorporated | Method, system and computer program product for determining a motion vector |
GB2487197B (en) * | 2011-01-11 | 2015-06-17 | Canon Kk | Video encoding and decoding with improved error resilience |
WO2012096164A1 (ja) | 2011-01-12 | 2012-07-19 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置 |
US8553769B2 (en) * | 2011-01-19 | 2013-10-08 | Blackberry Limited | Method and device for improved multi-layer data compression |
JP2012149982A (ja) | 2011-01-19 | 2012-08-09 | Fujifilm Corp | 放射線画像撮影用格子ユニット及び放射線画像撮影システム、並びに格子体の製造方法 |
JP2012169762A (ja) | 2011-02-10 | 2012-09-06 | Sony Corp | 画像符号化装置と画像復号化装置およびその方法とプログラム |
US9001883B2 (en) | 2011-02-16 | 2015-04-07 | Mediatek Inc | Method and apparatus for slice common information sharing |
US9288501B2 (en) | 2011-03-08 | 2016-03-15 | Qualcomm Incorporated | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
US9338449B2 (en) | 2011-03-08 | 2016-05-10 | Qualcomm Incorporated | Harmonized scan order for coding transform coefficients in video coding |
US20120236115A1 (en) * | 2011-03-14 | 2012-09-20 | Qualcomm Incorporated | Post-filtering in full resolution frame-compatible stereoscopic video coding |
US9071848B2 (en) | 2011-03-15 | 2015-06-30 | Broadcom Corporation | Sub-band video coding architecture for packet based transmission |
US9247249B2 (en) | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
CN103597827B (zh) * | 2011-06-10 | 2018-08-07 | 寰发股份有限公司 | 可伸缩视频编码方法及其装置 |
RU2583040C2 (ru) | 2011-08-30 | 2016-05-10 | Нокиа Текнолоджиз Ой | Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов |
WO2013068547A2 (en) | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient multi-view coding using depth-map estimate and update |
WO2013072484A1 (en) | 2011-11-18 | 2013-05-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-view coding with efficient residual handling |
JP2013110518A (ja) * | 2011-11-18 | 2013-06-06 | Canon Inc | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
WO2013145021A1 (ja) * | 2012-03-30 | 2013-10-03 | 株式会社日立製作所 | 画像復号方法及び画像復号装置 |
EP2853096A4 (en) * | 2012-05-21 | 2016-07-06 | Mediatek Singapore Pte Ltd | METHOD AND APPARATUS FOR FILTERING BETWEEN LAYERS FOR SCALABLE VIDEO CODING |
JP2015167267A (ja) * | 2012-07-03 | 2015-09-24 | シャープ株式会社 | 画像復号装置、および画像符号化装置 |
US9906786B2 (en) | 2012-09-07 | 2018-02-27 | Qualcomm Incorporated | Weighted prediction mode for scalable video coding |
KR20150038249A (ko) * | 2012-09-28 | 2015-04-08 | 인텔 코포레이션 | 계층간 화소 샘플 예측 |
JP6763664B2 (ja) * | 2012-10-01 | 2020-09-30 | ジーイー ビデオ コンプレッション エルエルシー | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
-
2013
- 2013-10-01 JP JP2015534997A patent/JP6763664B2/ja active Active
- 2013-10-01 KR KR1020207036488A patent/KR102367210B1/ko active IP Right Grant
- 2013-10-01 KR KR1020157011529A patent/KR101835360B1/ko active IP Right Grant
- 2013-10-01 KR KR1020247006906A patent/KR20240034863A/ko active Application Filing
- 2013-10-01 JP JP2015534996A patent/JP6636802B2/ja active Active
- 2013-10-01 KR KR1020157011364A patent/KR20150070205A/ko active Application Filing
- 2013-10-01 WO PCT/EP2013/070492 patent/WO2014053519A1/en active Application Filing
- 2013-10-01 EP EP13770936.6A patent/EP2904783B1/en active Active
- 2013-10-01 KR KR1020247012080A patent/KR20240065272A/ko active Search and Examination
- 2013-10-01 EP EP13773692.2A patent/EP2904786B1/en active Active
- 2013-10-01 WO PCT/EP2013/070490 patent/WO2014053517A1/en active Application Filing
- 2013-10-01 EP EP13773691.4A patent/EP2904785B1/en active Active
- 2013-10-01 KR KR1020227041493A patent/KR102643661B1/ko active IP Right Grant
- 2013-10-01 KR KR1020217002851A patent/KR102379609B1/ko active IP Right Grant
- 2013-10-01 KR KR1020197039023A patent/KR102257542B1/ko active IP Right Grant
- 2013-10-01 KR KR1020157011336A patent/KR102194749B1/ko active IP Right Grant
- 2013-10-01 EP EP13776752.1A patent/EP2904803A1/en not_active Ceased
- 2013-10-01 CN CN201380062694.5A patent/CN105009577B/zh active Active
- 2013-10-01 KR KR1020227009728A patent/KR102503114B1/ko active IP Right Grant
- 2013-10-01 JP JP2015534998A patent/JP6788346B2/ja active Active
- 2013-10-01 KR KR1020217015435A patent/KR102447521B1/ko active IP Right Grant
- 2013-10-01 WO PCT/EP2013/070491 patent/WO2014053518A1/en active Application Filing
- 2013-10-01 WO PCT/EP2013/070484 patent/WO2014053512A1/en active Application Filing
- 2013-10-01 WO PCT/EP2013/070486 patent/WO2014053514A1/en active Application Filing
- 2013-10-01 KR KR1020187005900A patent/KR102063306B1/ko active IP Right Grant
- 2013-10-01 KR KR1020197008139A patent/KR102095504B1/ko active IP Right Grant
- 2013-10-01 KR KR1020187000276A patent/KR102005915B1/ko active IP Right Grant
- 2013-10-01 KR KR1020197021988A patent/KR20190091377A/ko not_active IP Right Cessation
- 2013-10-01 KR KR1020227032879A patent/KR102703618B1/ko active IP Right Grant
- 2013-10-01 EP EP19187886.7A patent/EP3618436A1/en active Pending
- 2013-10-01 KR KR1020227005755A patent/KR102534713B1/ko active IP Right Grant
- 2013-10-01 JP JP2015535000A patent/JP6301933B2/ja active Active
- 2013-10-01 KR KR1020207008700A patent/KR102187179B1/ko active IP Right Grant
- 2013-10-01 CN CN201380062705.XA patent/CN105052134B/zh active Active
- 2013-10-01 KR KR1020247016757A patent/KR20240093824A/ko unknown
- 2013-10-01 KR KR1020237016616A patent/KR102668857B1/ko active IP Right Grant
- 2013-10-01 KR KR1020157011530A patent/KR102211196B1/ko active IP Right Grant
- 2013-10-01 KR KR1020207034470A patent/KR102472484B1/ko active IP Right Grant
- 2013-10-01 EP EP20211111.8A patent/EP3846468A1/en active Pending
- 2013-10-01 EP EP19171218.1A patent/EP3588947A1/en active Pending
- 2013-10-01 CN CN201380062699.8A patent/CN105052133B/zh active Active
- 2013-10-01 KR KR1020247029537A patent/KR20240135883A/ko active Search and Examination
- 2013-10-01 EP EP18210240.0A patent/EP3474546B1/en active Active
- 2013-10-01 EP EP13773689.8A patent/EP2904801B8/en active Active
- 2013-10-01 KR KR1020157011347A patent/KR101835358B1/ko active IP Right Grant
- 2013-10-01 CN CN201380062675.2A patent/CN105052132B/zh active Active
- 2013-10-01 KR KR1020217015529A patent/KR102445274B1/ko active IP Right Grant
- 2013-10-01 EP EP18177341.7A patent/EP3429203A3/en active Pending
- 2013-10-01 CN CN201910341031.6A patent/CN110267035B/zh active Active
- 2013-10-01 KR KR1020187005899A patent/KR101962442B1/ko active IP Right Grant
- 2013-10-01 EP EP22152073.7A patent/EP4054188A1/en active Pending
- 2013-10-01 KR KR1020227031961A patent/KR102657912B1/ko active IP Right Grant
- 2013-10-01 KR KR1020237005915A patent/KR20230031984A/ko not_active Application Discontinuation
- 2013-10-01 CN CN201911194632.5A patent/CN110996100B/zh active Active
- 2013-10-01 JP JP2015534999A patent/JP6301932B2/ja active Active
- 2013-10-01 CN CN201810455061.5A patent/CN108401157B/zh active Active
- 2013-10-01 CN CN201380062701.1A patent/CN104904207B/zh active Active
-
2015
- 2015-03-24 US US14/666,600 patent/US10477210B2/en active Active
- 2015-03-24 US US14/666,634 patent/US10212419B2/en active Active
- 2015-03-24 US US14/666,662 patent/US10218973B2/en active Active
- 2015-03-24 US US14/666,658 patent/US10212420B2/en active Active
- 2015-03-31 US US14/673,908 patent/US10694182B2/en active Active
-
2017
- 2017-10-13 JP JP2017198961A patent/JP6760911B2/ja active Active
- 2017-12-15 JP JP2017240170A patent/JP6693940B2/ja active Active
-
2018
- 2018-06-27 JP JP2018122462A patent/JP7030025B2/ja active Active
- 2018-09-25 US US16/140,796 patent/US10687059B2/en active Active
- 2018-09-26 US US16/142,195 patent/US10694183B2/en active Active
- 2018-10-12 JP JP2018193886A patent/JP6912438B2/ja active Active
- 2018-10-12 JP JP2018193252A patent/JP6912437B2/ja active Active
- 2018-11-05 US US16/180,292 patent/US10681348B2/en active Active
-
2019
- 2019-07-02 US US16/459,940 patent/US11134255B2/en active Active
-
2020
- 2020-04-16 US US16/850,588 patent/US12010334B2/en active Active
- 2020-04-29 US US16/861,540 patent/US11575921B2/en active Active
- 2020-05-05 US US16/867,181 patent/US11589062B2/en active Active
- 2020-05-11 US US16/871,866 patent/US11477467B2/en active Active
- 2020-09-03 JP JP2020148098A patent/JP2020205618A/ja active Pending
-
2021
- 2021-07-08 JP JP2021113490A patent/JP7323577B2/ja active Active
- 2021-07-08 JP JP2021113786A patent/JP7323578B2/ja active Active
- 2021-07-30 JP JP2021125888A patent/JP7284221B2/ja active Active
- 2021-08-25 US US17/412,171 patent/US20210409739A1/en active Pending
-
2022
- 2022-06-23 US US17/847,673 patent/US20220400271A1/en active Pending
-
2023
- 2023-02-03 US US18/164,548 patent/US20230262241A1/en active Pending
- 2023-02-06 US US18/165,318 patent/US20230262242A1/en active Pending
- 2023-05-18 JP JP2023081951A patent/JP2023116468A/ja active Pending
- 2023-07-27 JP JP2023122201A patent/JP2023159095A/ja active Pending
- 2023-07-27 JP JP2023122307A patent/JP2023159098A/ja active Pending
- 2023-09-11 JP JP2023146612A patent/JP2023164991A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007028034A (ja) | 2005-07-14 | 2007-02-01 | Nippon Telegr & Teleph Corp <Ntt> | スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体 |
US20070223582A1 (en) | 2006-01-05 | 2007-09-27 | Borer Timothy J | Image encoding-decoding system and related techniques |
JP2009523395A (ja) | 2006-01-11 | 2009-06-18 | クゥアルコム・インコーポレイテッド | 精細粒度空間スケーラビリティによるビデオ符号化 |
Non-Patent Citations (2)
Title |
---|
HONG, Danny et al.,Scalability Support in HEVC,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Meeting: Torino, IT, 14-22 July, 2011, [JCTVC-F290],JCTVC-F290 (version 2),ITU-T,2011年07月,<URL:http://phenix.it-sudparis.eu/jct/doc_end_user/documents/6_Torino/wg11/JCTVC-F290-v2.zip>: JCTVC-F290r1.doc: pp.1-15 |
SCHWARZ, H. et al.,Description of scalable video coding technology proposal by Fraunhofer HHI (Configuration B),Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 11th Meeting: Shanghai, CN, 10-19 Oct. 2012, [JCTVC-K0043],JCTVC-K0043 (version 1),ITU-T,2012年10月,<URL:http://phenix.it-sudparis.eu/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC-K0043-v1.zip>: JCTVC-K0043.doc: pp.12-15 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7284221B2 (ja) | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230518 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7284221 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |