JP2018082447A - 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 - Google Patents
空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 Download PDFInfo
- Publication number
- JP2018082447A JP2018082447A JP2017240170A JP2017240170A JP2018082447A JP 2018082447 A JP2018082447 A JP 2018082447A JP 2017240170 A JP2017240170 A JP 2017240170A JP 2017240170 A JP2017240170 A JP 2017240170A JP 2018082447 A JP2018082447 A JP 2018082447A
- Authority
- JP
- Japan
- Prior art keywords
- block
- prediction
- base layer
- internal prediction
- enhancement layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011229 interlayer Substances 0.000 title description 3
- 238000000034 method Methods 0.000 claims description 236
- 230000002123 temporal effect Effects 0.000 claims description 93
- 230000001419 dependent effect Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 239000010410 layer Substances 0.000 description 1786
- 239000013598 vector Substances 0.000 description 152
- 230000033001 locomotion Effects 0.000 description 131
- 238000005192 partition Methods 0.000 description 68
- 230000004927 fusion Effects 0.000 description 59
- 238000010586 diagram Methods 0.000 description 51
- 230000008569 process Effects 0.000 description 50
- 238000001914 filtration Methods 0.000 description 39
- 230000003595 spectral effect Effects 0.000 description 38
- 230000006870 function Effects 0.000 description 30
- 230000006872 improvement Effects 0.000 description 30
- 238000009795 derivation Methods 0.000 description 28
- 230000003044 adaptive effect Effects 0.000 description 27
- 238000000354 decomposition reaction Methods 0.000 description 24
- 238000000605 extraction Methods 0.000 description 23
- 230000009466 transformation Effects 0.000 description 23
- 230000015572 biosynthetic process Effects 0.000 description 21
- 238000012546 transfer Methods 0.000 description 20
- 230000011664 signaling Effects 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 18
- 238000009826 distribution Methods 0.000 description 18
- 238000000638 solvent extraction Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 11
- 238000013139 quantization Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 6
- 230000036961 partial effect Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 241000023320 Luma <angiosperm> Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- IUVCFHHAEHNCFT-INIZCTEOSA-N 2-[(1s)-1-[4-amino-3-(3-fluoro-4-propan-2-yloxyphenyl)pyrazolo[3,4-d]pyrimidin-1-yl]ethyl]-6-fluoro-3-(3-fluorophenyl)chromen-4-one Chemical compound C1=C(F)C(OC(C)C)=CC=C1C(C1=C(N)N=CN=C11)=NN1[C@@H](C)C1=C(C=2C=C(F)C=CC=2)C(=O)C2=CC(F)=CC=C2O1 IUVCFHHAEHNCFT-INIZCTEOSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000004090 dissolution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/198—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/48—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
- H04N19/615—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
- H04N19/865—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness with detection of the former encoding block subdivision in decompressed video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/34—Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/36—Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
【解決手段】スケーラブルビデオ符号化の符号化効率が、ベース層信号の併置されたブロックの内部予測パラメータの使用によって、エンハンスメント層の現在のブロックの空間隣接部の中の失われている空間内部予測パラメータ候補を代用することによって増加する。このため、空間内部予測パラメータを符号化するための符号化効率は、エンハンスメント層の内部予測パラメータの組の改良された予測品質のために増加する、または、より正確に述べると、増加する見込みである。エンハンスメント層の内部予測されたブロックのための内部予測パラメータのための適切な予測器が、有用であり、その結果、それぞれのエンハンスメント層ブロックの内部予測パラメータの合図が、平均的に少ないビットで実行される、という見込みを増加させる。
【選択図】図11
Description
・非ブロック化120の後、しかし、別の内ループ過程140(サンプルとして適応型オフセットフィルタまたは適応型ループフィルタなど)の前の再構成されたベース層サンプル200b。
・非ブロック化120とさらに内ループ過程140(サンプルとして適応型オフセットフィルタまたは適応型ループフィルタなど)後の、または、複数の内ループ過程段階の間の再構成されたベース層サンプル200a。
最先端の主な技術の1つは、H.264/SVCの中の中間層残留予測である。H.264/SVCの中の中間層残留予測は、それらがベースモード旗または従来のマクロブロックタイプのどれかを使用することによって合図されたSVCマクロブロックタイプを使用して、符号化されるか否かに関係なく、全ての中間符号化されたマクロブロックに対して採用される。旗は、空間かつ品質のエンハンスメント層のためのマクロブロック構文(中間層残留予測の用法を合図する)に追加される。この残留予測旗が1と等しいとき、引用層の中の対応する領域の残留信号が、双線型フィルタを使用してブロック毎に抽出され、エンハンスメント層マクロブロックの残留信号のための予測として使用される。その結果、対応する差信号だけが、エンハンスメント層の中で符号化される必要がある。
このセクションの記述において、以下の記法が使用される。
t0:=現在の画像の時間インデックス
t1:=既に再構成された画像の時間インデックス
EL:=エンハンスメント層
BL:=ベース層
EL(t0):=符号化されるべき現在のエンハンスメント層画像
EL_reco:=エンハンスメント層再構成
BL_reco:=ベース層再構成
BL_resi:=ベース層残留信号(ベース層変換係数の逆変換、または、ベース層再構成とベース層予測との間の差)
EL_diff:=エンハンスメント層再構成と、抽出された/フィルタにかけられたベース層再構成との間の差
異なるベース層信号とエンハンスメント層信号とは、図28の中で説明された記載の中で使用される。
・直線性:記述の中で言及した多くのフィルタが直線的であるけれども、非線形のフィルタも使用される。
・出力サンプルの数:抽出操作において、出力サンプルの数は、入力サンプルの数より大きい。ここで、入力データのフィルタリングは、入力値より多いサンプルを作り出す。従来のフィルタリングでは、出力サンプルの数は、入力のサンプルの数と等しい。そのようなフィルタリング操作は、例えば、品質スケーラブル符号化の中で使用される。
・位相遅延:整数位置でのサンプルのフィルタリングに対して、位相遅延は、通常、ゼロ(または、サンプルの中の整数値の遅延)である。断片的な位置(例えば、半分ペルの位置または4分の1ペルの位置)のサンプルの発生に対して、通常、(サンプルのユニットの中の)断片的な遅延を有するフィルタが、整数格子のサンプルに適用される。
EL prediction=filter(BL_resi(t0))+MCP_filter(EL_reco(t1))
エンハンスメント層再構成信号の2つ以上仮説が使用されることも、可能である。例えば、
EL prediction=filter(BL_resi(t0))+MCP_filter1(EL_reco(t1))+MCP_filter2(EL_reco(t2))
エンハンスメント層(EL)引用画像の上で使用される作動補償予測(MCP)フィルタは、整数または断片的なサンプル精度のものである。EL引用画像の上で使用されるMCPフィルタは、BL復号化過程の間に、BL引用画像の上で使用されるMCPフィルタと同じである、または、異なる。
作動ベクトルMV(x、y、t)は、EL引用画像の中の特定の位置を示すために定義される。パラメータxとyが、画像の中の空間位置を示す。パラメータtは、引用画像の時間インデックスを記述するために使用され、引用インデックスとも呼ばれる。しばしば、用語作動ベクトルは、2つの空間要素(x、y)だけについて言及するために使用される。MVの整数部分は、引用画像からの1組のサンプルを取ってくるために使用される。そして、MVの断片的な部分は、1組のフィルタからMCPフィルタを選択するために使用される。取ってこられた引用サンプルは、フィルタにかけられた引用サンプルを作り出すために、フィルタにかけられる。作動ベクトルは、一般に、異なる予測を使用して符号化される。それは、作動ベクトル予測器が、既に符号化された作動ベクトル(そして、構文要素が、潜在的作動ベクトル予測器の組の使用された1つを、潜在的に示す)に基づいて得られ、そして、異なるベクトルが、ビットストリームの中に含まれていることを意味する。最終作動ベクトルは、送信された作動ベクトル差を、作動ベクトル予測器に加えることによって得られる。通常、ブロックのための作動パラメータを完全に得ることも可能である。従って、通常、潜在的作動パラメータ候補のリストは、既に符号化されたデータに基づいて構成される。このリストは、引用フレームの中の併置されたブロックの中の作動パラメータに基づいて得られる作動パラメータと同様に、空間的に隣接するブロックの作動パラメータを含むことができる。
ベース層(BL)残留信号は、以下の1つと定義できる。
・BL変換係数の逆変換、または、
・BL再構成とBL予測との間の差、または、
・BL変換係数の逆変換がゼロであるBLブロックに対して、それは、BL(例えば、再構成されたBLブロックのハイパスフィルタにかけられたバージョン)から得られた別の信号に取り替えることができる、または、
・上の方法の組み合わせ。
現在のBL残留からEL予測要素を計算するために、ELの画像の中の考慮される領域と併置されたBL画像の中の領域が特定され、そして、残留信号が、特定されたBL領域から取り出される。併置された領域の定義は、それが、BL解像度の整数のスケーリング係数(例えば、2×スケーラビリティ)、または、BL解像度の断片的なけたスケーリング係数(例えば、1.5×スケーラビリティ)を説明するように作られる。または、BL解像度と同じEL解像度(例えば、品質スケーラビリティ)を生み出すことさえできる。品質スケーラビリティの場合、BL画像の中の併置されたブロックは、予測されるべきELブロックと同じ座標を有する。
併置されたBL残留は、フィルタにかけられたBL残留サンプルを発生させるために抽出される/フィルタにかけられることができる。
最終EL予測は、フィルタにかけられたEL再構成サンプルと、フィルタにかけられたBL残留サンプルとを加えることによって得られる。
EL prediction=filter(BL_reco(t0))+MCP_filter(EL_diff(t1))
EL prediction=filter(BL_resi(t0))+MCP_filter1(EL_diff(t1))+MCP_filter2(EL_diff(t2))
・EL再構成と抽出された/フィルタにかけられたBL再構成との間の差、または、
・(非ブロック化、SAO、ALFのような)ループフィルタリング段階の前または間のEL再構成と、抽出された/フィルタにかけられたBL再構成との間の差。
・差画像のMCPに対して、再構成された画像のMCPと異なる補間フィルタが使用できる。
・差画像のMCPに対して、補間フィルタが、差画像の中の対応する領域の特性に基づいて、(または、ビットストリームの中の符号化パラメータに基づいて、または、送信された情報に基づいて、)選択される。
・非ブロック化および更に内ループ過程の前の再構成されたベース層サンプル(そのようなサンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)。
・非ブロック化の後、しかし、更に内ループ過程の前の再構成されたベース層サンプル(そのようなサンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)。
・非ブロック化および更に内ループ過程の後の再構成されたベース層サンプル(そのようなサンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)、あるいは、複数の内ループ過程ステップの間の再構成されたベース層サンプル。
・(抽出された/フィルタにかけられた)BL信号を使用する方法の複数のバージョンが、使用される。これらのバージョンのために採用された抽出された/フィルタにかけられたBL信号が、使用された(整数サンプル位置もフィルタにかける補間フィルタを含む)補間フィルタと異なることができる、または、2番目のバージョンのために抽出された/フィルタにかけられたBL信号が、最初のバージョンのために抽出された/フィルタにかけられたBL信号を、フィルタにかけることによって得られる。異なるバージョンの1つの選択が、系列で、画像で、スライスで、最も大きい符号化ユニットで、符号化ユニットレベルで、または、画像仕切りの別のレベルで合図される。あるいは、それは、対応する再構成されたBL信号、または、送信された符号化パラメータの特性から推論される。
・異なるフィルタは、BL_recoモードの場合の抽出された/フィルタにかけられたBL再構成された信号と、BL_resiモードの場合のBL残留信号とのために使用される。
・抽出された/フィルタにかけられたBL信号は、作動補償された差信号の2つ以上の仮説に結合されることも可能である。これは図32で説明される。
・ローパスフィルタでベース層予測信号をフィルタにかけて、ハイパスフィルタで中間予測信号をフィルタにかけて、得られたフィルタにかけられた信号を合計すること。
・ベース層予測信号と中間予測信号とを変換して、得られた変換ブロックを重畳すること。そこでは、異なる重み付け係数が、異なる周波数位置のために使用される。次に、得られた変換ブロックは、逆変換され、エンハンスメント層予測信号として使用される。あるいは、得られた変換係数は、スケーリングされた送信された変換係数レベルに追加され、非ブロック化および内ループ過程の前に再構成されたブロックを得るために逆変換される。
EL prediction=BL_weighting(BL_reco(t0))+EL_weighting(MCP_filter(EL_reco(t1)))
64,63,61,49,
63,62,57,40,
61,56,44,28,
49,46,32,15,
そして、EL再構成変換係数のための重み付けマトリックスは、例えば、以下の通りである。
0,2,8,24,
3,7,16,32,
9,18,20,26,
22,31,30,23,
1.ベース層符号化パラメータに基づいて、N×Mエンハンスメント層ブロックの中の各サンプル位置のための符号化パラメータの派生。
2.特定の副ブロックの中の全てのサンプル位置が、同一の関係した符号化パラメータを持つように、副ブロック中のN×Mエンハンスメント層ブロックの仕切りの派生。
c=fc(pel)
また、関数fc(pel)は、特定のエンハンスメント層サンプル位置が、ベース層サンプル位置の間の距離のユニットの中の断片的な成分を有する場合において、符号化パラメータを補間できる。
a)最高レベルをサイズN×Mのブロックに対応するレベルに設定すること。現在のレベルを、最も低いレベル(すなわち、正方形または長方形のブロックが、最小のブロックサイズの単一ブロックを含むレベル)に設定すること。ステップb)に行く。
b)現在のレベルでそれぞれの正方形または長方形のブロックに対して、仮に、正方形または長方形のブロックの許された分解が存在するならば、それぞれの副ブロックの中の全てのサンプル位置が、同じ符号化パラメータに関係する、または、(何らかの差の大きさに従って、)小さい差で符号化パラメータに関係する。その分解は、候補分解である。全ての候補分解のうち、正方形または長方形のブロックを、副ブロックの最少の数に分解するものを選択する。仮に、現在のレベルが最高レベルであれば、ステップc)に行く。さもなければ、現在のレベルを、次のより高いレベルに設定して、ステップb)に行く。
c)終了
・作動補償のために、得られた作動パラメータと、再構成されたエンハンスメント層引用画像とを使用して、エンハンスメント層ブロックのための予測信号を得ること。
・(抽出された/フィルタにかけられた)ベース層再構成を、再構成されたエンハンスメント層の画像から引き算することによって発生する、得られた作動パラメータとエンハンスメント層引用画像を使用して、(a)現在の画像のための(抽出されるた/フィルタにかけられた)ベース層再構成と、(b)作動補償信号との組み合わせ。
・(a)(抽出されるた/フィルタにかけられた)ベース層残留電流画像(再構成された信号と予測との間の差、または、符号化された変換係数値の逆変換)と、(b)得られた作動パラメータと再構成されたエンハンスメント層引用画像を使用する作動補償信号との組み合わせ。
・対応するベース層再構成の(抽出された/フィルタにかけられた)バージョンは、内部予測信号として使用される。
・得られた内部予測パラメータは、エンハンスメント層の中に空間内部予測のために使用される。
t(u−v)=w
・最初に、ベース層サンプル位置は、pbl=fp,4×4(pel)として得る。
・仮に、pblが、以前に符号化されたベース層ブロックと融合することによって得られた関係した中間予測パラメータを持つ(または、同じ作動パラメータを持つ)ならば、cは、ベース層の中で融合するために使用される、ベース層ブロックに対応するエンハンスメント層ブロックの作動パラメータと等しい(すなわち、作動パラメータは、対応するエンハンスメント層ブロックからコピーされる)。
・さもなければ、cはpblに関係した符号化パラメータと等しい。
別の実施の形態では、ベース層から符号化パラメータを推論することによって得られた仕切りは、ビットストリームの中で合図されたサイド情報に基づいてさらに改良される。
別の実施の形態では、符号化パラメータがベース層から推論されるブロックのための残留符号化は、ベース層から推論されるブロックの中の仕切りから独立している。例えば、それは、ベース層からの符号化パラメータの推論が、ブロックを、符号化パラメータの別々の組を有してそれぞれいくつかの副ブロックに仕切るけれども、単一の変換がブロックに適用されることを意味する。または、副ブロックのための仕切りと符号化パラメータとがベース層から推論されるブロックが、残留を変換符号化する目的のために、より小さいブロックに分割される。そこでは、変換ブロックへの分割が、異なる符号化パラメータを有するブロックの中の推論された仕切りから独立している。
仮に、「ベースモード旗」が1に等しく、かつ、ベース層の中の対応する引用マクロブロックが中間符号化されるならば、エンハンスメント層マクロブロックも、中間符号化される。そして、全ての作動パラメータが、併置されたベース層ブロックから推論される。さもなければ(「ベースモード旗」が0に等しいならば)、各作動ベクトル(いわゆる「作動予測旗」の構文要素)は、ベース層作動ベクトルが作動ベクトル予測器として使用されるか否かに関係なく、送信され、指定される。仮に、「作動予測旗」が1に等しいならば、ベース層の併置された引用ブロックの作動ベクトル予測器は、解像度比率に従ってスケーリングされて、作動ベクトル予測器として使用される。仮に、「作動予測旗」が0に等しいならば、作動ベクトル予測器は、H.264/AVCで規定されるように計算される。
HEVCにおいて、作動パラメータは、高度な作動ベクトル競争(AMVP)を適用することによって予測される。AMVPは互いに競争する2つの空間作動ベクトル予測器と1つの時間作動ベクトル予測器とを特色とする。空間候補は、現在の予測ブロックの左または上に位置した、隣接する予測ブロックの位置から選択される。時間候補は、前に符号化された画像の併置された位置の中で選択される。全ての空間的で時間的候補の位置は、図36の中で表示される。
HEVCは、更に、符号化構成に基づいた四枝ツリーから生じる符号化冗長作動パラメータの減少を狙うブロック融合アルゴリズムを用いる。これは、特定作動パラメータを共有する多重予測ブロックから成る領域を、作成することによって達成される。これらの作動パラメータは、新しい作動情報の種を蒔いている各領域の最初の予測ブロックのために、一度符号化される必要があるだけである。AMVPと同様に、ブロック融合アルゴリズムは、それぞれの予測ブロックのために、可能な融合候補を含むリストを構成する。候補の数は、スライスヘッダーの中で合図されて1から5までの範囲がある「NumMergeCands」によって定義される。候補は、空間隣接予測ブロックと併置された時間画像の中の予測ブロックとから推論される。候補であるとみなされる予測ブロックのための可能なサンプル位置は、図36に示された位置と等しい。HEVCの中の可能な予測ブロック仕切りを有するブロック融合アルゴリズムの例は、図37で説明される。図37(a)の中の太い線は、1つの領域に融合されて特定の作動データを保持する予測ブロックを全て定義する。この作動データはブロックSだけに送られる。符号化されるべき現在の予測ブロックは、「X」によって示される。取り外された領域の中の予想ブロックは、ブロック走査順序の中で予測ブロックXの後継者であるので、関係した予測データをまだ有さない。ドットは、可能な空間融合候補である隣接するブロックのサンプル位置を示す。可能な候補が予測器リストに挿入される前に、空間候補のための冗長検査が、図37(b)の中で指示されるように実行される。
実施の形態において、作動ベクトルは、ベース層の併置された予測ブロックの中心位置C1から得られ、最初のエントリーとして候補リストの先頭に加えられる。作動ベクトル予測器の候補リストは、1つの項目によって拡張される。仮に、サンプル位置C1のために利用可能なベース層の中に作動データが全くなければ、リスト構造は触れられない。別の実施の形態では、ベース層の中のサンプル位置のどんな系列も、作動データに対してチェックされる。作動データが見つけられた場合において、対応する位置の作動ベクトル予測器は、候補リストに挿入され、エンハンスメント層の作動補償予測のために利用可能である。その上、ベース層から得られた作動ベクトル予測器は、リストのいかなる他の位置の候補リストにも挿入される。別の実施の形態では、仮に、所定の規制が認められるならば、ベース層作動予測器は候補リストに挿入されるだけである。これらの規制は、ゼロと等しくなければならない、併置された引用ブロックの融合旗の値を含む。別の規制は、解像度比率に対してベース層の併置された予測ブロックの広さと等しいエンハンスメント層の中の予測ブロックの広さである。例えば、K×空間スケーラビリティの応用において、仮に、ベース層の中の併置されたブロックの幅がNと等しく、エンハンスメント層の中の符号化されるべき予測ブロックの幅がK*Nと等しいならば、作動ベクトル予測器が推論されるのみである。
別の実施の形態では、ベース層の数個のサンプル位置からの1個以上の作動ベクトル予測器が、エンハンスメント層の候補リストに追加される。別の実施の形態では、併置されたブロックから推論された作動ベクトル予測器を有する候補が、リストを拡張することよりむしろ、リストの中の空間的で時間的な候補に置き代わる。また、作動ベクトル予測器候補リストの中のベース層データから得られた多重作動ベクトル予測器を含むことも可能である。
実施の形態において、図38のサンプル位置C1をカバーするベース層の中の併置されたブロックの作動ベクトル予測器は、エンハンスメント層の中の現在予測ブロックを符号化するための可能な融合候補であるとみなされる。しかしながら、仮に、引用ブロックの「merge_flag」(融合旗)が1と等しい、または、併置された引用ブロックが作動データを全く含んでいないならば、作動ベクトル予測器はリストに挿入されない。いかなる他の場合でも、得られた作動ベクトル予測器は、2番目のエントリーとして融合候補リストに追加される。この実施の形態では、融合候補リストの長さが保有され、拡張されないことに注意しなさい。別の実施の形態では、図38に表現されているように、1個以上の作動ベクトル予測器が、候補リストを融合するために加えられるように、サンプル位置のいずれもカバーする予測ブロックから得られる。別の実施の形態では、ベース層の1個または数個の作動ベクトル予測器が、どんな位置にても融合候補リストに追加される。別の実施の形態では、仮に、所定の規制が認められるならば、1個または複数個の作動ベクトル予測器が、融合候補リストに追加されるだけである。そのような規制は、(作動ベクトル予測のために前の実施の形態のセクションの中で記載された解像度比率に関する)ベース層の併置されたブロックの広さに整合するエンハンスメント層の予測ブロックの広さを含む。別の実施の形態の中の別の規制は、1に等しい「merge_flag」の値である。別の実施の形態では、融合候補リストの長さが、ベース層の併置された引用ブロックから推論された作動ベクトル予測器の数によって拡張される。
実施の形態では、併置されたベース層ブロックは、図38に表現されるように、サンプル位置A1をカバーする予測ブロックから発生する候補と共に作動補償予測される。仮に、エンハンスメント層の中の予測ブロックの融合候補リストが、作動ベクトル予測器がエンハンスメント層の中に対応するサンプル位置A1から発生する候補を含むならば、この候補は、最初のエントリーとしてリストの中に置かれる。その結果、この候補は、インデックス0によって索引を付けられ、従って、最も短い固定長符号ワードを割り当てられる。この実施の形態において、このステップは、エンハンスメント層の中の融合候補リストに対して、併置されたベース層ブロックの作動ベクトル予測器の派生の後に実行される。従って、再順序付け過程は、併置されたベース層ブロックの作動ベクトル予測器として、対応するブロックから発生する候補に最も低いインデックスを割り当てる。2番目に低いインデックスは、このセクションの2番目の部分で説明されているように、ベース層の中の併置されたブロックから派生する候補に割り当てられる。その上、再順序付けの過程は、ベース層の中の併置されたブロックの「merge_flag」が1と等しい場合にだけ、行われる。別の実施の形態では、再順序付けの過程は、ベース層の中の併置された予測ブロックの「merge_flag」の値の如何に関わらず実行される。別の実施の形態において、対応するオリジナルの作動ベクトル予測器を有する候補は、融合候補リストのどんな位置にも置かれる。別の実施の形態では、再順序付けの過程は、融合候補リストの中の他の全ての候補を取り除く。ここに、作動ベクトル予測器が、ベース層の中の併置されたブロックの作動補償予測のために使用される作動ベクトル予測器と同じオリジナルを有している候補だけが、リストの中に留まる。この場合、単独の候補が利用され、そして、インデックスは全く送信されない。
実施の形態において、併置されたベース層ブロックは、図38に表わされるように、サンプル位置A1をカバーする予測ブロックから発生する候補と共に、作動補償予測される。仮に、エンハンスメント層の中のブロックの作動ベクトル予測器候補リストが、作動ベクトル予測器がエンハンスメント層の中に対応するサンプル位置A1から発生する候補を含むならば、この候補は最初のエントリーとしてリストの中に置かれる。その結果、この候補は、インデックス0によって索引を付けられ、従って、最も短い固定長符号ワードを割り当てられる。この実施の形態において、このステップは、エンハンスメント層の中の作動ベクトル予測器リストに対して、併置されたベース層ブロックの作動ベクトル予測器の派生の後に実行される。従って、再順序付け過程は、併置されたベース層ブロックの作動ベクトル予測器として、対応するブロックから発生する候補に最も低いインデックスを割り当てる。2番目に低いインデックスは、このセクションの最初の部分で説明されているように、ベース層の中の併置されたブロックから派生する候補に割り当てられる。その上、再順序付けの過程は、ベース層の中の併置されたブロックの「merge_flag」が0と等しい場合にだけ、行われる。別の実施の形態では、再順序付けの過程は、ベース層の中の併置された予測ブロックの「merge_flag」の値の如何に関わらず実行される。別の実施の形態において、対応するオリジナルの作動ベクトル予測器を有する候補は、作動ベクトル予測器候補リストのどんな位置にも置かれる。
・併置された再構成されたベース層信号
・併置された残留ベース層信号
・エンハンスメント層予測信号を再構成されたベース層信号から引き算することによって得られた、推定されたエンハンスメント層の残留信号
・ベース層フレームの画像仕切り
勾配パラメータは以下の通り得られる:
調査されたブロックの各画素に対して、勾配が計算される。これらの勾配から、大きさと角度が計算される。ブロックの中で最も起きた角度は、ブロックに関係する(ブロック角度)。角度は、3つの方向のみ、水平(0°)、垂直(90°)、対角(45°)を使用するように向く。
エッジ検出器は、以下のような調査されたブロックに適用される:
最初に、ブロックが、n×n円滑フィルタ(例えば、ガウス系)によって円滑にされる。
サイズm×mの勾配マトリクスが、各画素の勾配を計算するために使用される。あらゆる画素の大きさと角度が計算される。角度は、3つの方向のみ、水平(0°)、垂直(90°)、対角(45°)を使用するように向く。
所定の閾値1より大きい大きさを有するあらゆる画素に対して、隣接する画素がチェックされる。仮に、隣接する画素が閾値2より大きい大きさを有し、そして、現在の画素と同じ角度を有しているならば、この角度の計数器が増加する。全体のブロックに対して、最高値の計数器がブロックの角度として選択される。
特定のTUに対して、ベース層信号の周波数領域から符号化パラメータを得るために、調査され併置された信号(再構成されたベース層信号/残留ベース層信号/推定されたエンハンスメント層信号)は、周波数領域の中で変換される。好ましくは、これは、その特定のエンハンスメント層TUによって使用される同じ変換を使用して、実行される。
結果としてもたらされるベース層変換係数は、量子化されても、されなくてもよい。
エンハンスメント層ブロックと比較可能な係数分布を得るために、変更されたラムダによる比率歪量子化が使用される。
特定の重要な係数分布の走査有効スコアが、以下の通り定義される:
調査されたブロックの各位置を、調査された走査の順にインデックスによって表わせてください。次に、重要な係数位置のインデックス値の合計が、この走査の有効スコアと定義される。その結果、より小さいスコアを有する走査であればあるほど、特定の分布は、より良い効率性を表わす。
仮に、いくつかの走査が、特定のTUに対して利用可能であるならば、走査の1つを唯一選択する規則が、定義される必要がある。
選択された走査が、(どんな追加データも送信されること無く)既に復号化された信号から直接得ることができる。これは、併置されたベース層信号の特性に基づいて、または、エンハンスメント層信号だけを利用することによってのどちらかによってできる。
走査パターンが、以下によって、EL信号から得ることができる。
・前述された最先端の派生規則。
・併置された輝度残留のために選択された色差残留のための走査パターンを使用すること。
・符号化モードと使用した走査パターンとの間の固定写像を定義すること。
・最後の重要な係数位置から走査パターンを得ること(推定された固定走査パターンに比例して)。
・
好ましい実施の形態において、走査パターンが、以下の通り既に復号化された最後の位置に依存して選択される:
・それぞれの利用可能な走査に対して、ベース層係数を符号化するための費用が評価される。最低費用を有する走査は、エンハンスメント層係数を復号化のために使用される。
・それぞれの利用可能な走査の有効スコアは、ベース層係数分布のために計算される。最小のスコアを有する走査は、エンハンスメント層係数を復号化するために使用される。
・変換ブロックの中のベース層係数の分布は、特定の走査パターンに関係している分布の事前に定義された組の1つに分類される。
・走査パターンは、最後の重要なベース層係数に依存して選択される。
変換ブロックの走査パターンが、エンコーダによって比率歪価値の中で選択され、次に、ビットストリームの中で合図される。
特定のTUに対して、走査パターン候補を選択する過程は、前述した、どんな符号化パラメータも利用してよい、および/または、その特定のTUの特定の特性を利用する所定の規則に従う。それらの中に、以下がある。
・TUは輝度/色差信号の残留を表わす。
・TUは、特定のサイズを有する。
・TUは特定の予測モードの残留を表わす。
・TUの中の最後の重要な位置は、デコーダによって知られ、TUの特定の副分割の中に属する。
・TUは1つのI/B/P−スライス(Sice)の部分である。
・TUの係数は、特定の量子化パラメータを使用して、量子化される。
走査パターンを得るために前述したいずれかの方法が、特定のTUに対して、明白な走査パターンに合図するための文脈モデルを得るために使用される。
・別々の文脈モデルが、ベース層情報を使用して、全てのまたは副組の符号化モードに対して使用される。また、異なる文脈モデルを、ベース層情報を有する異なるモードに対して使用することも可能である。
・文脈モデルは、併置されたベース層ブロックの中のデータに依存できる(例えば、ベース層の中の変換係数分布、ベース層の勾配情報、併置されたベース層ブロックの中の最後のキャン位置)。
・最後の走査位置が、最後のベース層走査位置との差として符号化できる。
・仮に、最後の走査位置が、TUの中で、xとy位置に合図することによって符号化されるならば、2番目の合図された座標の文脈モデルは、最初の合図の値に依存できる。
・最後の重要な位置から独立している走査パターンを得るために、前述のいずれかの方法が、最後の重要な位置に合図するために、文脈モデルを得るために使用される。
・仮に、最後の走査位置が、TUの中で、そのxとy位置に合図することによって符号化されるならば、2番目の座標の文脈モデルは、既に最初の座標を知るとき、まだ可能な候補であるそれらの走査パターンに依存できる。
・仮に、最後の走査位置が、TUの中で、そのxとy位置に合図することによって符号化されるならば、2番目の座標の文脈モデルは、既に最初の座標を知るとき、走査パターンが既に唯一選択されるかどうかに依存できる。
・文脈モデルは、特定のTUの中の使用された走査パターンに依存できる。
・走査パターンを得るために前述した方法のいずれかが、最後の重要な位置に合図するために文脈モデルを得るために使用される。
・別々の文脈モデルは、ベース層情報を使用する全てのまたは副組の符号化モードに対して使用される。また、ベース層情報を有する異なるモードに対して異なる文脈モデルを使用することも可能である。
・文脈モデルは、併置されたベース層ブロックの中のデータ(例えば、特定の周波数位置対して、重要な変換係数の数)に依存できる。
・走査パターンを得るために前述した方法のいずれかが、重要な位置および/またはそれらのレベルに合図するために、文脈モデルを得るために使用される。
・符号化されるべき係数の空間的近傍の中の既に符号化された変換係数レベルの重要な数、および、同様の周波数位置の併置されたベース層信号の中の重要な変換係数の数の両方を評価する一般化されたテンプレートが、使用される。
・符号化されるべき係数の空間的近傍の中の既に符号化された変換係数レベルの重要な数、および、同様の周波数位置の併置されたベース層信号の中の重要な変換係数のレベルの両方を評価する一般化されたテンプレートが、使用される。
・副グループ旗のためにモデル化される文脈は、使用された走査パターンおよび/または特定の変換サイズに依存する。
・エンハンスメント層は、初期化値の別々の組を使用する。
・エンハンスメント層は、異なる操作モード(空間的/時間的、または、品質のスケーラビリティ)に対して、初期化値の別々の組を使用する。
・ベース層の中の計数部分を有するエンハンスメント層文脈モデルが、初期化状態として、それらの計数部分の状態を使用する。
・文脈の初期状態を得るためのアルゴリズムが、ベース層QPおよび/またはデルタQP依存である。
ビットストリームを符号化するスケーラブルビデオは、異なる層で構成される:完全な復号化可能ビデオを提供するベース層と、復号化のために追加して使用されるエンハンスメント層とである。エンハンスメント層は、より高い空間解像度(空間的スケーラビリティ)、時間解像度(時間的スケーラビリティ)または品質(SNRスケーラビリティ)を提供できる。
H.264/AVC SVCのような以前の規格では、作動ベクトル、引用画像インデックスまたは内部予測モードのような構文要素は、符号化されたベース層の中の対応する構文要素から直接に予測される。
エンハンスメント層の中では、メカニズムは、ブロックレベルで、ベース層構文要素から得られた、あるいは、別のエンハンスメント層構文要素または復号化されたエンハンスメント層サンプルから予測された予測信号を使用して、その間において切り換えるために存在する。
空間的または品質的エンハンスメント層の画像のブロック(a)に対して、ベース層の画像の対応するブロック(b)が決定される。それは同じ画像領域をカバーする。
エンハンスメント層のブロック(a)のための中間予測信号は、以下の方法を使用して形成される:
1.作動補償パラメータ組候補は、例えば、時間的または空間的に隣接するエンハンスメント層ブロックまたはそれの派生物から決定される。
2.作動補償は、各候補の作動補償パラメータ組に対して、エンハンスメント層の中で中間予測信号を形成するために実行される。
3.最も良い作動補償パラメータ組は、エンハンスメント層ブロック(a)のための予測信号と、ベース層ブロック(b)の再構成信号との間の誤差の大きさを最小にすることによって選択される。空間的スケーラビリティにおいて、ベース層ブロック(b)は、補間フィルタを使用して、空間的に抽出される。
エンコーダとデコーダの両方が、利用可能な候補の中で、最適作動補償パラメータ組を選択して、同じ予測信号を作成するために、同じ予測ステップを実行できる。これらのパラメータは、符号化映像ビットストリームの中で合図されない。
別の実施例は、作動補償パラメータ組候補を生成させるために、HEVCの融合モード候補リストを使用する。
空間的または品質のエンハンスメント層の画像のブロック(a)に対して、同じ画像領域をカバーするベース層の画像の対応するブロック(b)が決定される。
1.作動ベクトル予測が選択される。
2.検索位置の定義された組の作動の推定が、エンハンスメント層の引用画像で実行される。
3.それぞれの検索位置に対して、誤差の大きさが決定され、最も小さい誤差を有する作動ベクトルが選択される。
4.ブロック(a)の予測信号が、選択された作動ベクトルを使用して形成される。
エンハンスメント層(n)画像の中の各ブロック(a)に対して、再構成されたベース層(n−1)の画像の中の同じ領域をカバーする、対応するブロック(b)が決定される。
1)内部予測信号は、エンハンスメント層の内部予測のための規則に従い、しかし、ベース層からサンプル値を使用して、それぞれの利用可能な内部予測モードのために生成される。
2)最も良い予測モード(pbest)は、内部予測信号と復号化されたベース層ブロック(b)との間の誤差の大きさ(例えば、絶対差の合計)を最小にすることによって決定される。
3)ステップ2)の中で選択された予測(pbest)モードは、エンハンスメント層のための内部予測規則をサポートして、エンハンスメント層ブロック(a)のための予測信号を生成するために使用される。
スケーラブルまたは品質のエンハンスメント層のブロック(a)(図45参照)のための内部予測信号を形成するためのスケーラブルビデオデコーダにおいて、同じ層の周囲領域からのサンプル(b)のラインは、ブロック領域の中に満たされるように使用される。これらのサンプルは、既に符号化された領域から取られる(通常、しかし、上側と左側の境界上に必要ない)。
a)仮に、周囲領域の中の画素が、まだ符号化されていないならば、画素値は、現在のブロックを予測するために使用されない。
b)仮に、周囲領域の中の画素が、まだ符号化されていないならば、画素値は、既に符号化された隣接する画素から得られる(例えば、反復によって)。
c)仮に、周囲領域の中の画素が、まだ符号化されていないならば、画素値は、復号化されたベース層の画像の対応する領域の中で画素から得られる。
可能な角度の数は制限される。
代替の実施の形態では、ベース層の画像のサンプルだけが、オフセット(oi)を決定するために使用される。
別の予測情報が、例えば、副ブロックの中のブロックの仕切りのために、方法1〜3と同様にして推論される。
1)予測信号は、テストされたパラメータのそれぞれの可能な値のために生成される。
2)最も良い予測モード(pbest)が、予測信号と復号化されたベース層ブロック(b)との間の誤差大きさ(例えば、絶対差の合計)を最小にすることによって決定される。
3)ステップ2)で選択された予測(pbest)モードが、エンハンスメント層ブロック(a)のための予測信号を生成するために使用される。
主な実施例:エンハンスメント層の中のブロックを符号化することに対して、再構成されたベース層のサンプルを使用して内部予測信号を生成するための多重方法が、再構成されたエンハンスメント層のサンプルだけに基づく予測信号を生成する方法に加えて、提供される。
・多重方法は以下の方法を含む。(抽出された/フィルタにかけられた)再構成されたベース層信号は、エンハンスメント層予測信号として直接に使用される。
・多重方法は以下の方法を含む。(抽出された/フィルタにかけられた)再構成されたベース層信号は、空間内部予測信号に結合される。そこでは、空間内部予測が、隣接するブロックに対して差サンプルに基づいて得られる。差サンプルは、再構成されたエンハンスメント層信号と(抽出された/フィルタにかけられた)再構成されたベース層信号との差を表わす(実施例A参照)。
・多重方法は以下の方法を含む。(隣接する再構成されたエンハンスメント層のサンプルを使用して得られた)従来の空間内部予測信号は、(抽出された/フィルタにかけられた)ベース層残留信号(ベース層変換係数の逆変換、または、ベース層再構成とベース層予測の差)に結合される(実施例B参照)。
・多重方法は以下の方法を含む。(抽出された/フィルタにかけられた)再構成されたベース層信号は、空間内部予測信号に結合される。そこでは、空間内部予測が、隣接するブロックの再構成されたエンハンスメント層のサンプルに基づいて得られる。最終予測信号が、異なる周波数成分が異なる重み付けを使用する方法で、空間予測信号とベース層予測信号とに重み付けすることによって得られる(実施例C1参照)。
これは、例えば、以下のどれかによって実現される。
○ベース層予測信号を、ローパスフィルタによってフィルタにかけ、空間内部予測信号を、ハイパスフィルタによってフィルタにかけ、得られたフィルタにかけられた信号を加算すること(実施例C2参照)。
○ベース層予測信号とエンハンスメント層予測信号を変換し、得られた変換ブロックを重ねる。そこでは、異なる重み付け係数が、異なる周波数位置に対して使用される(実施例C3参照)。得られた変換ブロックは、逆変換され、エンハンスメント層予測信号として使用される。あるいは、得られた変換係数は、スケーリングされた送信された変換係数レベルに追加され、次に、非ブロック化および内ループ過程の前に再構成されたブロックを得るために、逆変換される(実施例C4参照)。
・再構成されたベース層信号を使用する方法に対して、以下のバージョンが使用される。これは固定される、または、それは、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルで合図される。または、それは、別の符号化パラメータに依存して作成される。
○非ブロック化および内ループ過程の前の再構成されたベース層のサンプル(サンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)。
○非ブロック化の後で、内ループ過程の前の再構成されたベース層のサンプル(サンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)。
○非ブロック化および内ループ過程の後の再構成されたベース層のサンプル(サンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)、または、多重内ループ過程ステップの間の再構成されたベース層のサンプル(実施例D参照)。
・(抽出された/フィルタにかけられた)ベース層信号を使用する方法の多重バージョンが使用される。これらのバージョンのために採用された、抽出された/フィルタにかけられたベース層信号が、使用された補間フィルタ(整数サンプル位置をフィルタにかける補間フィルタを含む)の中で異なる。または、2番目のバージョンのために抽出された/フィルタにかけられたベース層信号が、最初のバージョンのために抽出された/フィルタにかけられたベース層信号をフィルタにかけることによって得られる。異なるバージョンの1つの選択が、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルで合図される。それは、対応する再構成されたベース層信号、または、送信された符号化パラメータの特性から推論される(実施例E参照)。
・異なるフィルタが、再構成されたベース層信号(実施例E参照)およびベース層残留信号(実施例F参照)を、抽出する/フィルタにかけるために使用される。
・残留信号がゼロであるベース層ブロックに対して、それは、ベース層から得られた別の信号(例えば、再構成されたベース層ブロックのハイパスフィルタにかけられたバージョン)に取り替えられる、(実施例G参照)。
・空間内部予測を使用するモードに対して、(特定の符号化順序による)エンハンスメント層の中の利用できない隣接するサンプルが、抽出された/フィルタにかけられたベース層信号の対応するサンプルに取り替えられる(実施例H参照)。
・空間内部予測を使用するモードに対して、内部予測モードの符号化が変更される。最もありそうなモードのリストは、併置されたベース層信号の内部予測モードを含む。
・特定のバージョンにおいて、エンハンスメント層の画像は、2段階の過程の中で復号化される。最初の段階では、予測のために、ベース層信号を使用するブロックだけ(隣接するブロックを使用しない)が、または、中間予測信号が、復号化され、再構成される。2番目の段階では、予測のための隣接するサンプルを使用する残留ブロックは、再構成される。2番目の段階で再構成されたブロックに対して、空間内部予測概念が拡張される(実施例I参照)。既に再構成されたブロックの有用性に基づいて、現在のブロックの上側や左側に隣接するサンプルだけではなく、下側や右側に隣接するサンプルも、空間内部予測のために使用される。
主な実施例:エンハンスメント層の中のブロックを符号化することに対して、再構成されたベース層のサンプルを使用して、中間予測信号を発生させるための多重方法が、再構成されたエンハンスメント層のサンプルだけに基づいて予測信号を発生させる方法に追加して提供される。
・多重方法は以下の方法を含む。(既に再構成されたエンハンスメント層の画像の作動補償された補間によって得られる)従来の中間予測信号は、(抽出された/フィルタにかけられた)ベース層残留信号(ベース層変換係数の逆変換、または、ベース層再構成とベース層予測との間の差)に結合される。
・多重方法は以下の方法を含む。(抽出された/フィルタにかけられた)再構成されたベース層信号は、作動補償予測信号に結合される。そこでは、作動補償予測信号が、作動補償差画像によって得られる。差画像は、引用画像に対して、再構成されたエンハンスメント層信号と(抽出された/フィルタにかけられた)再構成されたベース層信号との間の差を表わす(実施例J参照)。
・多重方法は以下の方法を含む。(抽出された/フィルタにかけられた)再構成されたベース層信号は、中間予測信号に結合される。そこでは、中間予測が、再構成されたエンハンスメント層の画像を使用して、作動補償予測によって得られる。最終予測信号が、異なる周波数成分が異なる重み付け付けを使用する方法で、中間予測信号およびベース層予測信号を重み付けすることによって得られる(実施例C参照)。
これは、例えば、以下のどれかによって実現できる。
○ローパスフィルタでベース層予測信号をフィルタにかけ、ハイパスフィルタで中間予測信号をフィルタにかけ、得られたフィルタにかけられた信号を加算すること。
○ベース層予測信号および中間予測信号を変換し、得られた変換ブロックを重ねる。そこでは、異なる重み付け係数が、異なる周波数位置に対して使用される。得られた変換ブロックは、非ブロック化および内ループ過程の前に再構成されたブロックを得るために、逆変換され、エンハンスメント層予測信号として使用される、あるいは、得られた変換係数が、スケーリングされた送信された変換係数レベルに追加され、次に、逆変換される。
・再構成されたベース層信号を使用する方法に対して、以下のバージョンが使用される。これが固定される、または、それが、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルで合図される。または、それが、別の符号化パラメータに依存して作成される。
○非ブロック化および内ループ過程の前の再構成されたベース層のサンプル(サンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)。
○非ブロック化の後で、内ループ過程の前の再構成されたベース層のサンプル(サンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)。
○非ブロック化および内ループ過程の後の再構成されたベース層のサンプル(サンプルとして、適応型オフセットフィルタまたは適応型ループフィルタ)、または、多重内ループ過程ステップの間の再構成されたベース層のサンプル(実施例D参照)。
・残留信号がゼロであるベース層ブロックに対して、それは、ベース層から得られた別の信号(例えば、再構成されたベース層ブロックのハイパスフィルタにかけられたバージョン)に取り替えられる、(実施例G参照)。
・(抽出された/フィルタにかけられた)ベース層信号を使用する方法の多重バージョンが使用される。これらのバージョンのために採用された、抽出された/フィルタにかけられたベース層信号が、使用された補間フィルタ(整数サンプル位置をフィルタにかける補間フィルタを含む)の中で異なる。または、2番目のバージョンのために抽出された/フィルタにかけられたベース層信号が、最初のバージョンのために抽出された/フィルタにかけられたベース層信号をフィルタにかけることによって得られる。異なるバージョンの1つの選択が、系列レベル、画像レベル、スライスレベル、最も大きい符号化ユニットレベル、符号化ユニットレベルで合図される。それは、対応する再構成されたベース層信号、または、送信された符号化パラメータの特性から推論される(実施例E参照)。
・異なるフィルタが、再構成されたベース層信号(実施例E参照)およびベース層残留信号(実施例F参照)を、抽出する/フィルタにかけるために使用される。
・差画像(エンハンスメント層再構成と、抽出された/フィルタにかけられたベース層信号との間の差)の作動補償予測に対して(実施例J参照)、異なる補間フィルタが、再構成された画像の作動補償予測に対してより使用される。
・差画像(エンハンスメント層再構成と、抽出された/フィルタにかけられたベース層信号との間の差)の作動補償予測に対して(実施例J参照)、補間フィルタが、差分画像の中の対応する領域の特性に基づいて(または、符号化パラメータに基づいて、または、ビットストリームの中で送信された情報に基づいて)選択される。
主な実施例:エンハンスメント層作動パラメータ符号化のために、複数のエンハンスメント層予測器と、ベース層から得られた少なくとも1つの予測器との使用。
・(スケーリングされた)ベース層作動ベクトルを、作動ベクトル予測器リストに追加すること(実施例K参照)。
○現在のブロックの中央位置の併置されたサンプルをカバーするベース層ブロックの使用(可能な別の派生)。
○解像度比率に従うスケール作動ベクトル。
・併置されたベース層ブロックの作動データを融合候補リストに加えること(実施例K参照)。
○現在のブロックの中央位置の併置されたサンプルをカバーするベース層ブロックの使用(可能な別の派生)。
○解像度比率に従うスケール作動ベクトル。
○仮に、ベース層の中で「融合_旗」が1と等しいならば、加算しない。
・ベース層融合情報に基づく融合候補リストの再順序付け(実施例L参照)
○仮に、併置されたベース層ブロックが、特定の候補に融合されるならば、対応するエンハンスメント層候補が、エンハンスメント層融合候補リストの中で、最初のエントリーとして使用される。
・ベース層作動予測器情報に基づく作動予測器候補リストの再順序付け(実施例L参照)
○仮に、併置されたベース層ブロックが、特定の作動ベクトル予測器を使用するならば、対応するエンハンスメント層作動ベクトル予測器が、エンハンスメント層作動ベクトル予測器候補リストの中で、最初のエントリーとして使用される。
・融合インデックスの派生(すなわち、現在のブロックが融合される候補)は、併置されたブロックの中のベース層情報に基づく(実施例M参照)。例として、仮に、ベース層ブロックが、特定の隣接するブロックに融合され、そして、それが、エンハンスメント層ブロックも融合するビットストリームの中で合図されるならば、融合インデックスは、全く送信されないけれども、代わりに、エンハンスメント層ブロックが、併置されたベース層ブロックとして、同じ隣接するブロック(しかし、エンハンスメント層の中の)に融合される。
主な実施例:ベース層仕切りおよび作動パラメータに基づいた、エンハンスメント層仕切りおよび作動パラメータの推論(たぶん、この実施例を副実施例のどれかに結合することが要求される)。
・併置されたベース層作動データに基づくエンハンスメント層のN×M副ブロックのための作動パラメータを得ること。同じ得られたパラメータ(または、小さい差を有するパラメータ)を有するブロックを、より大きいブロックに纏めること。予測と符号化ユニットを決定すること。(実施例T参照)
・作動パラメータは、作動仮説、引用インデックスリスト、作動ベクトル、作動ベクトル予測器識別子、融合識別子の数を含む。
・エンハンスメント層予測信号を発生させるための多重方法の1つに合図すること。そのような方法は以下を含む。
○得られた作動パラメータおよび再構成されたエンハンスメント層の引用画像を使用する作動補償。
○(a)現在の画像のための(抽出された/フィルタにかけられた)ベース層再構成と、(b)得られた作動パラメータを使用する作動補償信号と、再構成されたエンハンスメント層の画像から、(抽出された/フィルタにかけられた)ベース層再構成を引き算することによって発生するエンハンスメント層の引用画像とを結合すること。
○(a)現在の画像のための(抽出された/フィルタにかけられた)ベース層残留(再構成された信号と予測との間の差、または、符号化された変換係数値の逆変換)と、(b)得られた作動パラメータを使用する作動補償信号と、再構成されたエンハンスメント層の引用画像とを結合すること。
・仮に、ベース層の中の併置されたブロックが、内部符号化されているならば、対応するエンハンスメント層M×Nブロック(または、CU)も、また、内部符号化される。そこでは、内部予測信号が、ベース層情報を使用して得られる(実施例U参照)。例えば、
○対応するベース層再構成の(抽出された/フィルタにかけられた)バージョンは、内部予測信号として使用される(実施例U参照)。
○内部予測モードは、ベース層の中で使用された内部予測モードに基づいて得られる。そして、この内部予測モードは、エンハンスメント層の中の空間内部予測のために使用される。
・仮に、M×Nエンハンスメント層ブロック(副ブロック)のための併置されたベース層ブロックが、以前に符号化されたベース層ブロックに融合される(または、同じ作動パラメータを有する)ならば、M×Nエンハンスメント層(副)ブロックも、また、ベース層の中で融合するために使用されるベース層ブロックに対応するエンハンスメント層ブロックに融合される(すなわち、作動パラメータは、対応するエンハンスメント層ブロックからコピーされる)(実施例M参照)。
主な実施例:異なる走査パターンを使用して、変換係数を符号化すること。エンハンスメント層に対して、符号化モードおよび/またはベース層データに基づいて文脈をモデル化すること、そして、文脈モードに対して異なる初期化をすること。
・1つ以上の追加走査パターン、例えば、水平で垂直な走査パターンを導入すること。追加走査パターンのために副ブロックを再定義すること。4×4副ブロックの代わりに、例えば16×1または1×16副ブロックが使用される。または、8×2や8×2副ブロックが使用される。追加走査パターンは、特定のサイズ、例えば8×8または16×16より大きいまたは等しいブロックに対してのみ導入される(実施例V参照)。
・(仮に、符号化されたブロック旗が1と等しいならば、)選択された走査パターンは、ビットストリームの中で合図される(実施例N参照)。対応する構文要素に合図するために、固定文脈が使用される。または、対応する構文要素のための文脈派生は、以下のどれかに依存できる。
○併置された再構成されたベース層信号または再構成されたベース層残留の勾配。または、ベース層信号の中で検出されたエッジ。
○併置されたベース層ブロックの中の変換係数分布。
・選択された走査は、併置されたベース層信号の特性に基づいて、ベース層信号(どんな追加データも送信されることなく)から直接に得られる(実施例N参照)。
○併置された再構成されたベース層信号または再構成されたベース層残留の勾配。または、ベース層信号の中で検出されたエッジ。
○併置されたベース層ブロックの中の変換係数分布。
・異なる走査が、変換係数がエンコーダ側で量子化の後に再順序付けされ、かつ、従来の符号化が使用される方法で実現される。デコーダ側では、変換係数は、従来通り復号化され、スケーリングおよび逆変換前に(または、スケーリング後および逆変換前に)、再順序付けされる。
・重要な旗(単一の変換係数のための副グループ旗および/または重要な旗)を符号化するために、以下の変更が、エンハンスメント層の中で使用される。
○分離文脈モデルが、ベース層情報を使用する符号化モードの全てまたは副組のために使用される。また、ベース層情報を有する異なるモードに対して、異なる文脈モデルを使用することも可能である。
○文脈モデル化は、併置されたベース層ブロックのデータ(例えば、特定の周波数位置のための重要な変換係数の数)に依存できる(実施例O参照)。
○符号化されるべき係数の空間的近傍の中の既に符号化された重要な変換係数レベルの数、および、同じ周波数位置の併置されたベース層信号の中の重要な変換係数の数の両方を評価した一般化されたテンプレートが使用される(実施例O参照)。
・最後の重要な走査位置を符号化するために、以下の変更がエンハンスメント層の中で使用される。
○分離文脈モデルが、ベース層情報を使用する符号化モードの全てまたは副組のために使用される。また、ベース層情報を有する異なるモードに対して、異なる文脈モデルを使用することも可能である(実施例P参照)。
○文脈モデル化は、併置されたベース層ブロックの中のデータに依存できる(例えば、ベース層の中の変換係数分布、ベース層の勾配情報、併置されたベース層ブロックの中の最後の走査位置)。
○最後の走査位置は、最後のベース層走査位置に対する差として符号化される(実施例S参照)。
・ベース層およびエンハンスメント層のための異なる文脈初期化テーブルの使用方法。
主な実施例:エンハンスメント層符号化パラメータを得るためのベース層データの使用。
・(潜在的に抽出される)ベース層再構成に基づいた融合候補を得ること。エンハンスメント層の中では、融合の使用だけが合図される。しかし、実際には、現在のブロックを融合するために使用される候補が、再構成されたベース層信号に基づいて得られる。従って、全ての融合候補に対して、現在のエンハンスメント層ブロックのための(潜在的に抽出される)ベース層信号と、(融合候補に作動パラメータを使用して得られた)対応する予測信号との間の誤差の大きさが、全ての融合候補(または、その副組)に対して評価される。そして、最も小さい誤差の大きさに関係する融合候補が選択される。また、誤差の大きさが、再構成されたベース層信号とベース層の引用画像とを使用して、ベース層の中で計算される(実施例Q参照)。
・(潜在的に抽出される)ベース層再構成に基づいた融合候補を得ること。作動ベクトル差は、符号化されないけれども、再構成されたベース層に基づいて推論される。現在のブロックのために、作動ベクトル予測器を決定し、作動ベクトル予測器の周囲に位置する定義された検索の組を評価すること。それぞれの検索位置に対して、現在のエンハンスメント層ブロックのための(潜在的に抽出される)ベース層信号と、置き換えられた引用フレーム(置き換えは、検索位置によって与えられる)との間の誤差の大きさを決定すること。最も小さい誤差の大きさをもたらす検索位置/作動ベクトルを選択すること。検索は、いくつかの段階に分けられる。例えば、完全なペル検索が最初に行われる。続いて、半分ペル検索が、完全なペルベクトルの周囲で行われる。続いて、4分の1ペル検索が、最も良い完全な/半分ペルベクトルの周囲でおこなわれる。また、検索は、再構成されたベース層信号とベース層の引用画像とを使用して、ベース層の中で行われる。見つけられた作動ベクトルは、次に、ベース層とエンハンスメント層との間の解像度変化に従ってスケーリングされる(実施例Q参照)。
・(潜在的に抽出される)ベース層再構成に基づいた内部予測モードを得ること。内部予測モードは、符号化されないけれども、再構成されたベース層に基づいて推論される。それぞれの可能な内部予測モード(または、その副組)に対して、(テストされた予測節(ノード)を使用して、)現在のエンハンスメント層ブロックのための(潜在的に抽出される)ベース層信号と、内部予測信号との間の誤差の大きさを決定すること。最も小さい誤差の大きさをもたらす予測モードを選択すること。また、誤差の大きさの計算は、ベース層の中の再構成されたベース層信号と内部予測信号とを使用して、ベース層の中でされる。さらに、内部ブロックは、4×4ブロック(または、別のブロックサイズ)に分解できる。そして、各4×4ブロックに対して、分離内部予測モードが決定される(実施例Q参照)。
・内部予測信号は、再構成されたベース層信号を有する境界サンプルの列の整合または列の整合によって決定される。隣接するサンプルと現在のライン/列との間の移行を得るために、誤差の大きさは、隣接するサンプルの移行されたライン/列と再構成されたベース層信号との間で計算される。そして、最も小さい誤差の大きさをもたらすシフトが、選択される。隣接するサンプルとして、(抽出された)ベース層のサンプル、または、エンハンスメント層のサンプルが使用される。また、誤差の大きさが、ベース層の中で直接に計算される(実施例W参照)。
・ブロック仕切りなどの別の符号化パラメータの派生のために、後方の適応手法を使用すること。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
中間層予測信号(380)を得るために、再構成されたベース層信号(200a,200b,200c)に解像度または品質改良を受け(220)させ、
エンハンスメント層信号の既に再構成された部分(400aまたは400b)と中間層予測信号(380)との間の差信号を計算(260)し、
空間内部予測信号を得るために、現在再構成されるべきエンハンスメント層信号(360)の部分に併置された第1の部分(440、図46に例えて)で、空間的に前記第1の部分に隣接し、かつ、エンハンスメント層信号(360)の既に再構成された部分に属する、差信号の第2の部分(460)から差信号を空間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、中間層予測信号(380)と空間内部予測信号とを結合(260)し、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,580,340,300,280)することを含む、ように構成されている。
実施例A1に従って、ベース層信号は、例えば、ベース層残留信号640/480が関係する限り、変換復号化を有する前述したブロックに基づいた予測方法で、符号化データストリーム6または副ストリーム6aから、ベース層復号化ステージ80によってそれぞれ再構成される。しかし、別の代替の再構成も可能である。
エンハンスメント層復号化ステージ60によるエンハンスメント層信号360の再構成に関する限り、再構成されたベース層信号200a,200bまたは200cが受ける解像度または品質の改良は、例えば、解像度の改良の場合には抽出、または、品質の改良の場合にはコピー、または、ビット深さの改良の場合にはnビットからmビットへのトーン写像(m>n)を意味する。
差信号の計算は、画素的になされる。すなわち、一方にエンハンスメント層信号および他方に予測信号380が併置された画素が、互いからを引き算される。そして、これは画素位置毎になされる。
差信号の空間予測は、符号化データストリーム6の中で、または、副ストリーム6bの中で、内部予測方向のような内部予測パラメータを送信して、そして、エンハンスメント層信号の現在の部分の中のこの内部予測方向に沿って、現在再構成されるべきエンハンスメント層信号360の部分に接する既に再構成された画素をコピー/補間するような、何らかの方法によってなされる。組み合わせは、周波数領域の中の寄与を異なって重み付けする組み合わせのように、加算、重み付けされた合計または更に精巧な組み合わせを意味する。
エンハンスメント層予測信号420を使用するエンハンスメント層信号360の予測再構成は、図に示されているように、エンハンスメント層残留信号540のエントロピー復号化および逆変換と、エンハンスメント層予測信号420および後者540の組み合わせ340とを意味する。
符号化データストリーム(6)からベース層残留信号(480)を復号化(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
中間層残留予測信号(380)を得るために、再構成されたベース層残留信号(480)に、解像度または品質の改良を受け(220)させ、
エンハンスメント層内部予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、中間層残留予測信号とエンハンスメント層内部予測信号とを結合(260)して、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)することを含む、ように構成されている。
符号化データストリームからのベース層残留信号の復号化は、図に示すように、エントロピー復号化と逆変換とを使用して実行される。さらに、スケーラブルビデオデコーダは、任意に、ベース層予測信号660を得て、この信号とベース層残留信号480とを結合することによって、予測的に復号化することによって、ベース層信号自体の再構成を実行する。ちょうど言及するように、これは単に任意である。
エンハンスメント層信号の再構成に関する限り、解像度または品質の改良が、実施例A)に対して前記指示したように実行される。
また、エンハンスメント層信号の部分の空間的予測に関する限り、この空間的予測は、異なる信号に関するA)に例示的に概説されているように実行される。組み合わせと予測的再構成に関する限り、同様の注意は有効である。
しかしながら、実施例B)の中のベース層残留信号480が、ベース層残留信号480の明らかに合図されたバージョンと等しいように制限されないということが言及される。むしろ、スケーラブルビデオデコーダが、ベース層予測信号660を有するどんな再構成されたベース層信号バージョン200も引き算すること、は可能である。その結果、フィルタ120または140のようなフィルタ関数から食い止めている偏差によって明らかに合図されたものから逸れるベース層残留信号480を得る。また、後者の状態は、ベース層残留信号が中間層予測に関わる別の実施例に対して有効である。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
中間層予測信号(380)を得るために、再構成されたベース層信号(200)に、解像度または品質の改良を受け(220)させ、
エンハンスメント層内部予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分(「空間的」の場合は400a,b;「時間的」の場合は400a,b,c)から現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
中間層予測信号とエンハンスメント層内部予測信号(380)がエンハンスメント層予測信号(420)に寄与する重み付けが、異なる空間周波数成分に亘って変化させるように、エンハンスメント層予測信号(420)を得るために、現在再構成されるべき部分で、中間層予測信号とエンハンスメント層内部予測信号(380)との重み付け平均を形成(260)して、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)することを含む、ように構成されている。
C3)ここで、重み付け平均の形成(260)は、現在再構成されるべき部分で、変換係数を得るために、中間層予測信号とエンハンスメント層内部予測信号とを変換(260)し、そして、重畳された変換係数を得るために、得られた変換係数に、異なる空間周波数成分に対して異なる重み付け係数を使用して重畳(260)し、そして、エンハンスメント層予測信号を得るために、重畳された変換係数を逆変換することを含む。
C4)ここで、エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号の予測再構成(320,340)は、符号化データストリーム(6)からエンハンスメント層信号のための変換係数レベルを引き出し(320)、エンハンスメント層信号の変換バージョンを得るために、変換係数レベルと重畳された変換係数の合計を実行(340)して、エンハンスメント層信号(360)を得るために、エンハンスメント層信号の変換バージョンに逆変換を受けさせる(すなわち、図の中の逆変換T-1が、少なくともその符号化モードのために、加算器340の下流に置かれる)ことを含む。
ベース層信号の再構成に関する限り、引用が、一般的には図に対して、そして、実施例A)およびB)に対するように、前述に対してなされる。
同じことが、空間予測と同様に、C)の中で言及されたを解像度または品質の改良に適用される。
C)で言及された時間予測は、作動予測パラメータを、符号化データストリーム6と副ストリーム6aからそれぞれ得ている予測プロバイダ160に関わる。作動パラメータは、作動ベクトル、引用フレームインデックスを含む。あるいは、作動パラメータは、現在再構成された部分の副ブロック毎に、作動副分割情報と作動ベクトルの組み合わせを含む。
前述したように、重み付け平均の形成は、空間領域または変換領域の中で終わる。従って、加算器340での加算は、空間領域または変換領域の中で実行される。後者の場合、逆変換器580は逆変換を重み付け平均に適用する。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(380)を再構成(60)し、
再構成(60)は、
中間層予測信号(380)を得るために、再構成されたベース層信号に、解像度または品質の改良を受け(220)させ、
中間層予測信号(380)を使用して、エンハンスメント層信号(360)を予測的に再構成(320、340)し、
ここで、エンハンスメント層信号の再構成(60)は、中間層予測信号(380)が発展するように実行され、ベース層信号とエンハンスメント層信号それぞれによってスケール的に表わされたビデオの異なる部分に対して、非ブロック化および内ループのフィルタリング(140)の何も無い(200a)、または、1つまたは全て(200b,200c)のうちの異なる1つから、符号化ビットストリームの中のサイド情報を経由して制御される、ように構成されている。
D)で言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層内部予測信号を得るために、エンハンスメント層信号(380)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、中間層予測信号(380)とエンハンスメント層内部予測信号とを結合(260)することに関わる。
中間層予測信号(380)が発展するという事実は、符号化されたビットストリーム(360)の中のサイド情報を経由して、非ブロック化の何も無い(200a)、または、1つまたは全て(200b,200c)の異なる1つから制御され、以下に意味するビデオの異なる部分に対して、内ループのフィルタ(140)がかけられるということがある。
当然、ベース層副ストリーム6a自体は、全てのフィルタ120,140をバイパスするように、最終ベース層信号600をもたらすために異なる手段の使用(非ブロック化のみの使用、または、内ループフィルタリングのみの使用、または、非ブロック化および内ループフィルタリングの両方の使用)を(任意に)合図する。フィルタ伝達関数さえ、ベース層副ストリーム6aの中のサイド情報によって合図され、変化される。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、予測ブロックまたはいかなる他の大きさによっても定義される。その結果、スケーラブルビデオデコーダ(符号化ステージ80)は、仮に、ベース層信号のみが再構成されるのであれば、これらの変化を適用する。しかしながら、そこから独立して(すなわち、ベース層信号6aの中のちょうど言及されたサイド情報から独立して)、副ストリーム6bは、フィルタリングの組み合わせが、ベース層信号を得るために使用される新しい変化を合図するサイド情報を含む。そこでは、全てのフィルタ120,140をバイパスさせて、エンハンスメント信号の予測的再構成の中で使用(非ブロック化のみの使用、または、内ループフィルタリングのみの使用、または、非ブロック化および内ループフィルタリングとの両方の使用)される。すなわち、フィルタ伝達関数さえ、副ストリーム6bの中のサイド情報によって合図され、変化される。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、または、予測ブロック、または、いかなる別の大きさによっても定義され、この合図がベース層信号6aの中で使用される大きさと異なる。
符号化データストリーム(6)からベース層信号(200a,200b,200c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
中間層予測信号(380)を得るために、再構成されたベース層信号に、解像度または品質の改良を受け(220)させ、
中間層予測信号(380)を使用して、エンハンスメント層信号(60)を予測的に再構成(320、340)し、
ここで、エンハンスメント層信号(360)の再構成(60)は、中間層予測信号が発展するように実行され、符号化されたビットストリーム(6)の中のサイド情報を経由して、または、合図に依存して、ベース層信号とエンハンスメント層信号それぞれによってスケール的に表わされたビデオの異なる部分に対して、抽出補間フィルタ(220)のための異なるフィルタ伝達関数から制御されることを含む、ように構成されている。
言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層内部予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層予測信号(420)を得るために、中間層予測信号(380)とエンハンスメント層内部予測信号とを結合(260)することに関わる。
中間層予測信号が発展するという事実は、符号化されたビットストリーム(6)の中のサイド情報を経由して、または、合図に依存して、以下のビデオ手段の異なる部分に対して、抽出補間フィルタ(220)のための異なるフィルタ伝達関数から制御されるということである。
当然、ベース層副ストリーム6a自体は、全てのフィルタ120,140をバイパスするように、最終ベース層信号600をもたらすために異なる手段の使用(非ブロック化のみの使用、または、内ループフィルタリングのみの使用、または、非ブロック化および内ループフィルタリングとの両方の使用)を(任意に)合図する。フィルタ伝達関数さえ、ベース層副ストリーム6aの中のサイド情報によって合図され、変化される。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、予測ブロックまたはいかなる別の大きさによっても定義される。その結果、スケーラブルビデオデコーダ(符号化ステージ80)は、仮に、ベース層信号のみが再構成されるのであれば、これらの変化を適用する。しかしながら、そこから独立して(すなわち、ベース層信号6aの中のちょうど言及されたサイド情報から独立して)、副ストリーム6bは、改良された信号380を得るために、改良器220の中で使用されるフィルタ伝達関数の変化を追加的に合図するサイド情報を含む。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、または、予測ブロック、または、いかなる別の大きさによっても定義され、ベース層信号6aの前述の大きさと異なる。
前述のように、使用されるべき変化は、追加サイド情報の使用の有る無しに関わらず、ベース層信号またはベース層残留信号または副ストリーム6aの中の符号化パラメータから、信号に依存して推論される。
符号化データストリームからベース層残留信号(480)を復号化(100)し、
中間層残留予測信号(380)を得るために、再構成されたベース層残留信号(480)に、解像度または品質の改良を受け(220)させることによって、エンハンスメント層信号(360)を再構成(60)し、そして、中間層残留予測信号(380)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,340、および任意に260)し、
ここで、エンハンスメント層信号(360)の再構成(60)は、中間層残留予測信号が発展するように実行され、符号化されたビットストリーム(6)の中のサイド情報を経由して、または、合図に依存して、ベース層信号とエンハンスメント層信号それぞれによってスケール的に表わされたビデオの異なる部分に対して、異なるフィルタ伝達関数から制御されるように構成されている。
ベース層残留信号の再構成に関する限り、引用が、一般的には図に対して、そして、実施例B)に対するように、前述に対してなされる。同じことが、解像度または品質の改良に適用される。
言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層内部予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層残留信号を、符号化されたデータストリームから復号化(320)し、
エンハンスメント層信号(360)を得るために、エンハンスメント層内部予測信号と中間層残留予測信号(380)とエンハンスメント層残留信号とを結合(340と260とに関わる)することに関わる。
中間層残留予測信号が発展するという事実は、符号化されたビットストリームの中のサイド情報を経由して、以下のビデオ手段の異なる部分に対して、異なるフィルタ伝達関数から制御されるということである。
当然、ベース層副ストリーム6a自体は、全てのフィルタ120,140をバイパスするように、最終ベース層信号600をもたらすために異なる手段の使用に(任意に)合図する。前述のD)とE)を参照してください。しかしながら、そこから独立して(すなわち、ベース層信号6aの中のちょうど言及されたサイド情報から独立して)、副ストリーム6bは、改良された残留信号380を得るために、改良器220の中で使用されるフィルタ伝達関数の変化を追加的に合図するサイド情報を含む。これらの変化が行われる異なる部分を定義する大きさは、前述の符号化ユニット、または、予測ブロック、または、いかなる別の大きさによっても定義され、ベース層信号6aの前述の大きさと異なる。
前述のように、使用されるべき変化は、追加サイド情報の使用の有る無しに関わらず、ベース層信号またはベース層残留信号または副ストリーム6aの中の符号化パラメータから、信号に依存して推論される。
符号化データストリーム(6)からベース層信号(200)のベース層残留信号(480)を復号化(100)し、
中間層残留予測信号(380)を得るために、再構成されたベース層残留信号(480)に、解像度または品質の改良を受け(220)させることによって、エンハンスメント層信号(360)を再構成(60)し、そして、中間層残留予測信号(480)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,340、および任意に260)し、
ここで、エンハンスメント層信号(360)の再構成(60)は、全てをゼロにされたベース層残留信号(480)のブロックを識別(260)して、識別されたブロックを、ベース層信号(200)の部分から得られた交換信号に取り替えることを含む、
ように構成されている。
ベース層残留信号の復号化に関する限り、引用が、一般的に対して、そして、実施例B)に対するように、前述に対してなされる。同じことが、解像度または品質の改良に適用される。
言及された予測再構成は、前述したように、予測プロバイダ160に関わる。そして、予測再構成は、
エンハンスメント層内部予測信号を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間的または時間的に予測(260)し、
エンハンスメント層残留信号を、符号化されたデータストリームから復号化(320)し、
エンハンスメント層信号(360)を得るために、エンハンスメント層内部予測信号と中間層残留予測信号(380)とエンハンスメント層残留信号とを結合(340と260とに関わる)することに関わる。
好ましくは、識別は、ベース層ストリーム(6a)の中の構文要素をチェックし、それぞれの変換ブロックが全てゼロであるか否かに対して、例えば、前述の符号化ユニットの別の副分割である変換ブロックの大きさで示すプロバイダ260に関わる。
前述するように、交換に使用されるベース層信号の部分は、例えば、ベース層信号200a,b,cのハイパスフィルタにかけられたバージョンである。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号を再構成(60)し、
再構成(60)は、
中間層予測信号(380)を得るために、再構成されたベース層信号(200)に解像度または品質の改良を受け(220)させ、
エンハンスメント層予測信号(420)を得るために、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を空間予測(260)し、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)し、
ここで、空間予測(260)は、現在再構成されるべき部分の予め決められた隣接部分の中の非利用可能な部分を、中間層予測信号(380)の非利用可能な部分に併置された、併置された部分と取り替えて、中間層予測信号(380)の併置された部分に依存する空間予測も実行することを含む、
ように構成されている。
ベース層信号の再構成に関する限り、引例が、一般的には図に対して、そして、実施例A)およびB)に対するように、前述に対してなされる。同じことが、前述された空間予測と予測的再構成と同様に、解像度または品質の改良に適用される。
非利用可能性は以下の事実から生じる。予め決められた隣接部分が、その右に更に拡がるサンプルと同様に、現在再構成されるべき部分/ブロックの上側エッジの上に隣接しているサンプルと、その下方に更に拡がるサンプルと同様に、再構成されるべき現在のブロック/部分の左側エッジの左に隣接しているサンプルとを含む、と想像してください。さらに、空間予測が、副分割に基づいた多枝ツリーの葉であるブロック/部分に適用され、そして、これらのブロックが、深く最初にジグザグに横断する順序で、予測再構成過程の中を横断される、と想像してください。次に、いくつかのブロックが、利用可能な問題の中に全ての隣接するサンプルを有している。すなわち、それらは既に再構成されている。しかしながら、いくつかのブロックは、これらのいくつかのサンプルを欠いている。すなわち、それらは完全には再構成されていない。そして、説明されるように、初期設定サンプルが取り替えられる。潜在的に交換を必要とする別の事実は、どんなフレームに対しても内部の中のスライス境界の位置である。交換自体は、初期設定サンプルに対して、中間層予測信号(380)の併置されたサンプルをコピーすることによって行われる。次に、空間予測が、中間層予測信号(380)からコピーされたサンプルと再構成されたエンハンスメント層信号からのサンプルとを含んでいる完全な(完成された)予め決められた隣接部分を使用して行われる。
フレームの異なるブロックに対して、中間層予測モード、時間中間予測モードおよび空間内部予測モードのうちの異なる1つを使用して、エンハンスメント層信号(360)を再構成(60)するように構成され、
ここで、ケーラブルビデオデコーダは、エンハンスメント層信号(360)を再構成(60)する中で、最初の走査と、次の、2番目の走査との中で、ブロックを横断することによってブロックを再構成(60)し、最初の走査の中で、空間内部予測モードを使用して、再構成されるべきブロックを跳ばし、中間層予測モードおよび中間予測モードの1つを使用して、再構成されるべきブロックを再構成し、そして、2番目の走査の中で、空間内部予測モードを使用して、再構成されるべきブロックを再構成するように構成されている。
「空間内部予測モード」と「時間中間予測モード」に関する限り、引用が、可能な実現のための前述の議論に対してなされる。「中間層予測モード」に関する限り、そのようなモードのための例のいずれも、今までのところまたは以下で説明されるように、使用される。既に再構成されたサンプルによって囲まれたエンハンスメント層信号の空間的内部予測モードブロックの完全な外形を持つ増加する機会のために、現在予測された空間内部予測モードブロックの内部が充填されるべき隣接するサンプルのテンプレートは、外形を完全に囲むために増加する。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
引用フレームと現在のフレームに対して、中間層予測信号(380)を得るために、再構成されたベース層信号(200a,b,c)に、解像度または品質の改良を受け(220)させ、
引用フレームの中間層予測信号(380)と引用フレームの既に再構成されたエンハンスメント層信号(360)との間の差信号を形成(260)し、
現在のフレームの差信号予測を得るために、差信号に作動補償予測を受け(260)させ、
エンハンスメント層予測信号(420)を得るために、現在のフレームの中間層予測信号(380)と現在のフレームの差信号予測とを結合(260)し、
エンハンスメント層予測信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(320,340,300,280)することを含む、
ように構成されている。
J2)ここで、引用フレームの差信号の形成において、使用された再構成されたエンハンスメント層信号は、非ブロック化の前、または、非ブロック化の後で任意の内ループフィルタリングの前、または、非ブロック化および任意の内ループフィルタリングの後のエンハンスメント層再構成である。
J3)ここで、引用フレームの差信号を形成するために使用されるエンハンスメント層信号の選択は、系列、画像、またはブロックレベルで、ビットストリームの中で合図される。
作動補償予測は、エンハンスメント信号(デコーダ320に関わる派生)の現在再構成されたブロックに対して、作動予測パラメータを、それぞれ符号化データストリーム6と副ストリーム6bとか得ている予測プロバイダ260に関わる。作動ベクトルは、現在再構成されるべきエンハンスメント層信号の部分の位置に適用される。そして、それぞれ置き換えられた部分は、差信号から、(断片的なサンプル補間の有る無しに関わらず)コピーされる。このようにしてコピーされた部分は、例えば、画素的な組み合わせの中で、現在再構成されるべき部分に併置された中間層予測信号(380)の部分に加算される。
符号化データストリーム(6)からベース層作動パラメータ(520)を復号し、
エンハンスメント層信号(260)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号(360)のフレームのブロックに対して、フレームの隣接する既に再構成されたブロックから作動パラメータ候補の組を集め(260)、
ベース層作動パラメータ(520)から、エンハンスメント層信号(360)のフレームのブロックに併置されたベース層信号のブロックのベース層作動パラメータを集め(260)、
作動パラメータ候補の拡張作動パラメータ候補組を得るために、ベース層作動パラメータまたはベース層作動パラメータのスケーリングされたバージョンを、作動パラメータ候補の組に加算(260)し、
少なくとも拡張作動パラメータ候補組の作動パラメータ候補の1つを選択(260)し、
作動補償予測によって、拡張作動パラメータ候補組の作動パラメータ候補の選択された1つを使用して、エンハンスメント層信号を予測(260)することを含む、ように構成されている。
K3)ここで、スケーラブルビデオデコーダは、ベース層作動パラメータが、融合を使用して、符号化データストリームの中で符号化されるか否かをチェックし、仮に、ベース層作動パラメータが、融合を使用して、符号化データストリームの中で符号化されるならば、加算を抑圧するように構成されている。
この実施例で言及された作動パラメータは、作動ベクトル(作動ベクトル予測)のみに、または、ブロック毎の作動仮説、引用インデックスリスト、仕切っている情報(融合化)の数を含む作動パラメータの完全な組に関係する。
従って、「スケーリングされたバージョン」は、空間スケーラビリティの場合において、ベース層信号とエンハンスメント層信号との間の空間解像度比率に従って、ベース層信号の中で使用された作動パラメータのスケーリングから由来してもよい。
符号化データストリームからのベース層作動パラメータ520の復号化は、作動ベクトル予測または融合化にも関わる。
融合化/作動ベクトル候補の組の中のベース層信号の併置された部分で、使用された作動パラメータの補間は、内部層候補および中間層候補の中で、非常に有効な索引を可能にする。
選択は、予測ブロックや符号化ユニットのようなエンハンスメント層信号の中の、作動パラメータ候補の拡張された組/リストの中のインデックスの明白な合図に関わる。あるいはまた、選択インデックスはエンハンスメント層信号6bまたは中間層情報の別の情報から推論される。
符号化データストリーム(6)からベース層作動パラメータ(520)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
ベース層作動パラメータに依存するエンハンスメント層信号のための作動パラメータ候補リストを順序付け(240)し、
符号化データストリーム(6)の中の明らかに合図されたインデックス構文要素を経由して制御された、エンハンスメント層信号のための順序付けされた作動パラメータ候補リストからエンハンスメント層作動パラメータを選択(240)し、
作動補償パラメータによって、決められた作動パラメータを使用して、エンハンスメント層信号を予測(260)することを含む、ように構成されている。
この実施例で言及された作動パラメータに関する限り、実施例Kに関して上で述べたと同じことが適用される。
符号化データストリームからのベース層作動パラメータ520の復号化は、(任意に)作動ベクトル予測または融合にも関わる。
順序付けは、それぞれのエンハンスメント層作動パラメータ候補と、エンハンスメント層信号の現在のブロックに併置されたベース層信号のブロックに関係するベース層信号のベース層作動パラメータとの間の差を測る大きさに従ってなされる。すなわち、エンハンスメント層信号の現在のブロックに対して、エンハンスメント層作動パラメータ候補のリストが、最初に決定される。次に、順序付けが、ちょうど述べられるように実行される。以下に、選択が明白な合図で実行される。
また、順序付けは、エンハンスメント層信号の現在のブロックと、ベース層の中の空間的および/または時間的に隣接するブロックのベース層作動パラメータに併置されたベース層信号のブロックに関係するベース層信号のベース層作動パラメータとの間の差を測る大きさに従ってもなされる。次に、ベース層の中の決められた順序付けが、エンハンスメント層に移送される。その結果、エンハンスメント層作動パラメータ候補が、対応するベース層候補に対して決められた順序付けと同じ方法で順序付けされる。ここで、関係したベース層ブロックが、考慮されたエンハンスメント層作動パラメータ候補に関係しているエンハンスメント層ブロックに、空間的/時間的に併置されるとき、ベース層作動パラメータ候補は、エンハンスメント層作動パラメータ候補に対応すると言われる。順序付けに基づいて、選択は明白な合図によって実行される。
ベース層信号(200)ための作動パラメータ候補リストの中のインデックスを使用して、符号化データストリーム(6)からベース層作動パラメータ(520)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
ベース層信号のための作動パラメータ候補リストの中のインデックスに依存するエンハンスメント層信号のための作動パラメータ候補リストの中のインデックスを決定(240)し、
エンハンスメント層信号のための作動パラメータ候補リストの中のインデックスを使用して、エンハンスメント層作動パラメータを決定(240)して、
作動補償予測によって、決められた作動パラメータを使用して、エンハンスメント層信号を予測(260)することを含む、ように構成されている。
この実施例で言及された作動パラメータに関する限り、実施例Kに関して上で述べたと同じことが適用される。
ベース層作動パラメータ520の復号化は、ベース層信号のブロックに対して、
現在のブロックのための作動パラメータが、融合または融合無しの方法(予測的にまたは非予測的に符号化される方法)で、ベース層副ストリーム6aの中で合図されるか否かに対して合図する旗を点検し、
仮に、融合を使用して、符号化される、または、予測的に符号化されるならば、ベース層作動パラメータ(例えば、ベース層作動パラメータは、決定のために使用されるベース層信号の隣接するブロックのために使用/選択される)のリストを決定し、
それぞれのリストの中のインデックスは、ベース層信号6aから得られ、リストの中のベース層作動パラメータの1つを選択するために使用され、
エンハンスメント層のためのインデックスは、インデックスされたベース層候補に関係するベース層ブロックに併置されたエンハンスメント層ブロックが、選択される方法で決定されること、を含む。
エンハンスメント層信号の現在のブロックに対して、エンハンスメント層作動パラメータのリストが決定される。例えば、エンハンスメント層信号の隣接するブロックのために使用/選択される作動パラメータは、決定のために使用される。
エンハンスメント層の中の作動パラメータインデックスの選択は、それぞれのエンハンスメント層作動パラメータと、エンハンスメント層信号の現在のブロックに併置されたベース層信号のブロックに関係するベース層信号の(中で使用/選択される)ベース層作動パラメータとの間の差を測る大きさに従って実行される。
また、エンハンスメント層の中の作動パラメータインデックスの選択は、エンハンスメント層信号の現在のブロックに併置されたベース層信号のブロックに関係するベース層信号のベース層作動パラメータと、ベース層の中の空間的および/または時間的に隣接するブロックのベース層作動パラメータとの間の差を測る大きさに従って実行される。次に、ベース層のための選択が、エンハンスメント層に移される。その結果、選択されたベース層候補に対応するエンハンスメント層作動パラメータ候補が、選ばれる。関係ベース層ブロックが、考慮されるエンハンスメント層作動パラメータ候補に関係しているエンハンスメント層ブロックに空間的/時間的に併置されるとき、ベース層作動パラメータ候補は、エンハンスメント層作動パラメータ候補に対応すると言われる。
符号化データストリーム(6)からベース層残留信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
走査予測器(520)を得るために、ベース層残留信号(480)またはベース層信号の、スペクトル分解の勾配または情報を決定(240)し、
走査予測器(520)に依存する走査パターンを使用して、符号化データストリーム(6)から、エンハンスメント層残留信号(540)の変換係数を復号(320)することを含む、ように構成されている。
すなわち、変換係数の復号化は、そのすべてが変換ブロックを完全にカバーする、可能な走査パターンの組からの走査パターンの選択に関わる。好ましくは、選択された走査パターンが、ベース層残留信号の重要なスペクトル成分を、可能な走査パターンの組の別の走査パターンよりも早く横断するように、選択される。
そのすべてが変換ブロックを完全にカバーする、可能な走査パターンの組からの走査パターンの選択によって、符号化データストリーム(6)から残留信号(540または100の出力)の変換ブロックの変換係数を復号(320)し、選択は、符号化データストリームの中の明白な合図に依存するように構成されている。
R2)ここで、復号(320)は、走査パターンの(520と240を経由した)選択に依存する変換係数に関係する構文要素のための文脈モデルを使用する。
R2a)ここで、変換係数に関係する構文要素は、変換係数が、特定の走査位置に対して、ゼロに等しいか、または、ゼロに等しくないか指示する構文要素を含む。
R2b)ここで、変換係数に関係する構文要素は、特定の走査順序における最後のゼロでない変換係数の位置を指示する構文要素を含む。
R2c)ここで、変換係数に関係する構文要素は、変換ブロックの副ブロックが、ゼロに等しくない変換係数を含むか否かを指示する構文要素を含む。
R3)ここで、明白な合図が、ベース層残留信号(480)またはベース層信号の、勾配、または、スペクトル的分解の情報に依存する、文脈モデルを使用して、可能な走査パターンの組の中のインデックスをエントロピー復号化(320)することに関わる。
R4)ここで、変換係数レベルの復号化(320)に対して、変換ブロックは副ブロックに副分割され、副ブロックがゼロでない変換係数を含むか否かを合図する構文要素は送信され、そして、副ブロックのサイズまたは形状は、または、副ブロックの中の変換ブロックの仕切りは、選択された走査パターンに依存する。
ベース層残留信号の変換ブロックの最後の重要な変換係数の位置を指示する符号化データストリームから最初の構文要素を復号化することを含む、符号化データストリーム(6)からベース層残留信号の変換ブロックの変換係数を復号(100)し、
符号化データストリームから2番目の復号化構文要素を含み、最初の構文要素と2番目の構文要素に基づくエンハンスメント層残留信号の位置を計算する、エンハンスメント層残留信号の変換ブロックの変換係数を復号(100)するように構成されている。
符号化データストリーム(6)からベース層信号のベース層残留信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
ベース層残留信号(480)またはベース層信号に(520と240を経由して)依存する文脈モデルまたは予測器を使用して、符号化データストリーム(6)から、エンハンスメント層残留信号(540)の変換係数ブロックに関係する構文要素を復号(320)することを含む、ように構成されている。
例えば、テンプレートは、現在訪問された変換係数位置での所定の変換係数を符号化するための文脈を決定するために使用される。そして、また、テンプレートは、(ベース層とエンハンスメント層の中の変換ブロックのサイズの大きさでの)位置、および、スペクトル周波数の観点から、所定の変換係数位置に対応するベース層残留信号の中の1つ以上の変換ブロックの中の位置に関わる。
または、ベース層残留信号(480)またはベース層信号の勾配またはスペクトル分解の情報が、文脈モデルを決定するために使用される。
符号化データストリーム(6)からベース層信号のベース層残留信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号(360)の部分と異なる予測モードに従って、エンハンスメント層信号(360)、ベース層残留信号およびベース層信号の既に再構成された部分から、エンハンスメント層信号(360)の部分を予測(260)し、
変換係数ブロックが属するエンハンスメント層信号(360)が、ベース層残留信号とベース層信号とのいずれかに基づいた中間層予測に関わるか否かに(520と240を経由して)依存する文脈モデルを使用して、符号化データストリーム(6)から、エンハンスメント層残留信号(540)の変換係数ブロックに関係する構文要素を復号(320)し、
そして、エンハンスメント層予想信号(420)を使用して、エンハンスメント層信号(360)を予測的に再構成(340)することを含む、
ように構成されている。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
中間層予測信号(380)を得るために、再構成されたベース層信号(200)に解像度または品質の改良を受け(220)させ、
符号化パラメータの組の各符号化パラメータ候補に対して、それぞれの試験的な再構成または部分的な再構成の結果を得るために、それぞれの符号化パラメータ候補を使用して、エンハンスメント層信号(360)の再構成または部分的な再構成を試験的に実行(260)し、
各符号化パラメータ候補に対して、中間層予測信号(380)とそれぞれの試験的な再構成または部分的再構成の結果との間の差の大きさを決定(260)し、
各符号化パラメータ候補に対して大きさに依存して、符号化パラメータ候補の組の中で選択(260)し、
そして、選択された符号化パラメータ候補を使用して、エンハンスメント層信号(360)を等しく再構成(320,340,260)することを含む、
ように構成されている。
Q2)ここで、エンハンスメント層に対して決定された符号化パラメータは、内部予測モードに関係する。
Q3)ここで、エンハンスメント層に対して決定された符号化パラメータは、引用画像または作動ベクトルなどの作動パラメータに関係する。
Q4)ここで、エンハンスメント層に対して決定された符号化パラメータは、融合候補に関係する。
符号化データストリーム(6)からベース層信号(200a,b,c)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
符号化パラメータの組の各符号化パラメータ候補に対して、それぞれの試験的な再構成または部分的な再構成の結果を得るために、それぞれの符号化パラメータ候補を使用して、ベース層信号(360)の再構成または部分的な再構成を試験的に実行(260)し、
各符号化パラメータ候補に対して、実際に復号化されたベース層再構成とそれぞれの実験的な再構成または部分的な再構成の結果との間の差の大きさを決定(260)し、
各符号化パラメータ候補に対して大きさに依存して、符号化パラメータ候補の組の中で選択(260)し、
選択された符号化パラメータ候補をエンハンスメント層に移送し、移送は解像度の差に従うスケーリングを含み、
そして、移送された符号化パラメータ候補を使用して、エンハンスメント層信号(360)を等しく再構成(320,340,260)することを含む、
ように構成されている。
内部ブロックのための空間内部予測および中間ブロックのための時間中間予測を使用して、内部ブロックおよび中間ブロックの中の副分割フレームによって、ベース層信号を予測的に再構成(100,180,160)し、
エンハンスメント層信号(360)を予測的に再構成(320,340,260)し、
再構成(320,340,260)は、
現在再構成されるべきエンハンスメント層信号(360)の部分の副部分を得るために、現在再構成されるべきエンハンスメント層信号(360)の部分に併置されたベース層信号のブロックのブロック副分割を、現在再構成されるべきエンハンスメント層信号(360)の部分に局所的に移送し、そして、関係するエンハンスメント層作動ベクトルを、ベース層作動ベクトルに基づく副部分に局所的に移送し、
ベース層作動ベクトルに基づく副部分に関係するエンハンスメント層作動ベクトルを使用して、エンハンスメント層信号(360)の既に再構成された部分から、現在再構成されるべきエンハンスメント層信号(360)の部分を、作動補償予測によって予測(260)することを含む、
ように構成されている。
ベース層信号を空間的に変化させるベース層符号化パラメータを使用して、ベース層信号を予測的に再構成(10,18,16)し、
ブロックのユニットの中でエンハンスメント層信号(36)を再構成(32,34,26)し、
再構成(32,34,26)は、
ブロックの予め決められたブロックに対して、ベース層信号の併置された部分に移送されたとき、選択された副ブロックの副分割が、副分割される可能な副ブロックの副分割の組の中で最も粗いように、可能な副ブロックの副分割の組の中の副ブロックの副分割を選択し、その結果、ベース層信号は、それぞれの副ブロックの副分割の各副ブロックの中で、ベース層符号化パラメータは互いに十分同じであり、
選択された副ブロックの副分割を使用して、予め決められたブロックを予測的に再構成することを含む、
ように構成されている。
内部ブロックのための空間内部予測と中間ブロックのための時間中間予測を使用して、内部ブロックと中間ブロックの中のベース層信号のフレームを副分割して、そして、内部ブロックと中間ブロックが副分割されるブロックのユニットの中で、それぞれ空間内部予測と時間中間予測に関係した予測パラメータをセットすることによって、ベース層信号を予測的にそれぞれ再構成(100,180,160)し、
エンハンスメント層信号(360)を予測的に再構成(320,340,260)し、
再構成(320,340,260)は、
符号化データストリームの中の予測モード構文を経由して制御され、エンハンスメント信号のフレームが、空間内部予測モード、時間中間予測モードおよび中間層予測モードを含む予測モードの組のそれぞれの1つに副分割される符号化ユニットの中のエンハンスメント信号のフレームを割り当て、
それぞれの符号化ユニットが割り当てられたそれぞれの予測モードを使用して、各符号化ユニットを予測的に再構成し、
割り当てられた空間内部予測モードおよび時間中間予測モードのいずれかを有する符号化ユニットに対して、
更に予測ブロックの中の符号化ユニットを副分割して、それぞれの符号化ユニットが予測ブロックのユニットの中で割り当てられたそれぞれの予測モードに関係する予測パラメータをセットし、
割り当てられた空間内部予測を有するそれぞれの符号化ユニットの場合には、予測パラメータ組を使用して、全ての予測ブロックに空間内部予測を受けさせ、そして、割り当てられた時間中間予測を有するそれぞれの符号化ユニットの場合には、予測パラメータ組を使用して、全ての予測ブロックに時間中間予測を受けさせ、
割り当てられた中間層予測モードを有するそれぞれの符号化ユニットに対して、
内部ブロックおよび中間ブロックの両方に局所的に重なる符号化ユニットが、非時間的モードに関係しかつ内部ブロックに局所的に一致する少なくとも1つの予測ブロックと、時間中間予測モードに関係しかつ中間ブロックに局所的に一致する少なくとも1つの予測ブロックとに副分割されるように、ベース層信号の内部ブロックと中間ブロックとの副分割を、それぞれ符号化ユニットに局所的に移送し、
割り当てられた非時間的予測モードを有するそれぞれの符号化ユニットの全ての予測ブロックに、局所的に一致する内部ブロックの予測パラメータから得られた予測パラメータを使用して、空間内部予測を受けさせ、あるいは、中間層予測の場合には、中間層予測信号(380)を得るために、ベース層信号に、解像度または品質の改良を受け(220)させ、
中間層予測信号(380)を使用して、割り当てられた非時間的予測モードを有するそれぞれの符号化ユニットの予測ブロックを予測(260)し、
そして、割り当てられた時間中間予測モードを有するそれぞれの符号化ユニットの全ての予測ブロックに、局所的に一致する中間ブロックの予測パラメータから得られた予測パラメータを使用して、時間中間予測を受けさせることを含む、ように構成されている。
符号化データストリーム(6)からベース層信号(200)のベース層残留信号(480)を復号(100)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
以下の構成によって、符号化データストリームからエンハンスメント層信号を表す変換係数の変換係数ブロックを復号し、
ベース層残留信号またはベース層信号に基づいて、可能な副ブロックの副分割の組の中で副ブロックの副分割を選択し、
1つの副ブロックの中の全ての位置が、副ブロックの中で定義された副ブロックの順序で次の副ブロックに続く直ぐに連続した方法で、横断されるように、変換係数ブロックが、選択された副ブロックの副分割に従って規則的に副分割される、副ブロックのユニットの中の変換係数の位置を横断し、
現在訪問された副ブロックに対して、
データストリームから、現在訪問された副ブロックが重要な変換係数を有するか否かを示す構文要素を復号し、
仮に、構文要素が、現在訪問された副ブロックは重要な変換係数を有さないことを示すならば、現在訪問された副ブロックの中の変換係数をゼロにセットし、
仮に、構文要素が、現在訪問された副ブロックは重要な変換係数を有することを示すならば、データストリームから、現在訪問された副ブロックの中の変換係数のレベルを示す構文要素を復号することを含む、
ように構成されている。
符号化データストリーム(6)からベース層信号(200)を再構成(80)し、
エンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
以下の構成によって、エンハンスメント層信号のブロックを空間的に予測し、
中間層予測信号(380)を得るために、再構成されたベース層信号(200a,200b,200c)に、解像度または品質の改良を受け(220)させ、
中間層予測信号(380)の第1のラインを登録(260)し、エンハンスメント層信号の既に再構成された部分の第2のラインでブロックを局所的に重ね、第1のラインと第2のラインが両方ともライン方向に平行であるブロックを隣接させ、それによってシフト値を得て、
第1のラインの内容で、第1のラインに併置されたブロックのラインを充填(260)し、シフト値によってシフトすることを含む、ように構成されている。
例えば、ライン方向は水平または垂直である。その結果、予測は、それぞれ、列に従って、または、行に従ってなされる。
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、空間内部予測モードが選択されたベース層信号のブロックのための内部予測パラメータを使用することによって、符号化データストリーム(6)からベース層信号(200)を再構成(80)し、
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、空間内部予測モードが選択されたエンハンスメント層信号のブロックのための内部予測パラメータを使用することによって、符号化データストリーム(6)からエンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号の現在のブロックに隣接する、エンハンスメント層信号の隣接するブロックが、空間内部予測モードを使用して予測されたか否かのために、エンハンスメント層信号の隣接するブロックをチェックし、
仮に、そうであるならば、現在のブロックのためのたぶん有利な内部予測パラメータを、隣接するブロックの内部予測パラメータと指摘し、
仮に、そうでなければ、現在のブロックのためのたぶん有利な内部予測パラメータを、現在のブロックに併置されたベース層信号のブロックの内部予測パラメータと指摘し、
現在のブロックのための符号化データストリームの中に存在する構文要素に基づいた現在のブロックための内部予測パラメータと、たぶん有利な内部予測パラメータとを決定することを含む、ように構成されている。
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、空間内部予測モードが選択されたベース層信号のブロックの副組のための角度内部予測パラメータを使用することによって、符号化データストリーム(6)からベース層信号(200)を再構成(80)し、
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、空間内部予測モードが選択されたベース層信号のブロックの副組のための角度内部予測パラメータを使用することによって、符号化データストリーム(6)からエンハンスメント層信号(360)を再構成(60)し、
再構成(60)は、
エンハンスメント層信号の現在のブロックに隣接する、エンハンスメント層信号の隣接するブロックが、角度内部予測パラメータを有する空間内部予測モードを使用して予測されたか否かのために、エンハンスメント層信号の隣接するブロックをチェックし、
仮に、そうであるならば、現在のブロックのためのたぶん有利な内部予測パラメータを、隣接するブロックの角度内部予測パラメータと指摘し、
仮に、そうではないけれども、現在のブロックに併置されたベース層信号のブロックが、角度内部予測パラメータで符号化されるならば、現在のブロックのためのたぶん有利な内部予測パラメータを、現在のブロックに併置されたベース層信号のブロックの角度内部予測パラメータと指摘し、
現在のブロックのための符号化データストリームの中に存在する構文要素に基づいた現在のブロックための内部予測パラメータと、たぶん有利な内部予測パラメータと決定することを含む、ように構成されている。
Claims (16)
- ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、前記空間内部予測モードが選択されたベース層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)からベース層信号(200)を再構成(80)し、
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、前記空間内部予測モードが選択されたエンハンスメント層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)からエンハンスメント層信号(400)を再構成(60)するように構成されたスケーラブルビデオデコーダであって、
前記エンハンスメント層信号の前記再構成(60)は、
前記エンハンスメント層信号の現在のブロック(28)に隣接する、前記エンハンスメント層信号の隣接ブロック(92,94)が、空間内部予測モードを使用して予測されたかどうかをチェックし、
前記チェックに依存して、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の前記隣接するブロックの前記内部予測パラメータ、もしくは、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の、前記現在のブロック(28)に併置された前記ベース層信号のブロック(108)の前記内部予測パラメータ(112)を包含し、そして、
前記現在のブロックのための前記符号化データストリームの中に存在する構文要素(114)に基づいて前記現在のブロック(28)のための前記内部予測パラメータ(116)と、前記たぶん有利な内部予測パラメータ(116)の組とを決定することを含む、ように構成されていること、
を特徴とする、スケーラブルビデオデコーダ。 - 前記エンハンスメント層信号の現在のブロック(28)に隣接する、前記エンハンスメント層信号の隣接するブロックの組に関して、前記チェックおよび前記チェックに依存する前記包含を実行するように構成されていること、を特徴とする、請求項1に記載のスケーラブルビデオデコーダ。
- 前記現在のブロックのための前記たぶん有利な内部予測パラメータの組の中に、初期設定内部予測パラメータを含むように構成されていること、を特徴とする、請求項1または請求項2に記載のスケーラブルビデオデコーダ。
- 仮に、前記エンハンスメント層信号の前記隣接するブロック(92,94)が、空間内部予測モードを使用して予測されたならば、前記隣接するブロックの前記内部予測パラメータが、前記現在のブロックのための前記たぶん有利な内部予測パラメータの組の中に含まれ、そして、仮に、前記エンハンスメント層信号の前記隣接するブロック(92,94)が、空間内部予測モードを使用して予測されていないならば、前記現在のブロック(28)に併置された前記ベース層信号のブロック(108)の前記内部予測パラメータ(112)が、前記たぶん有利な内部予測パラメータの組の中に含まれる、ように構成されていること、を特徴とする、請求項1ないし請求項3のいずれかに記載のスケーラブルビデオデコーダ。
- 前記隣接するブロックの前記内部予測パラメータが、特定の基準を満たすか否かを更にチェックし、前記更なるチェックに更に依存して前記包含を実行するように構成されていること、を特徴とする、請求項1ないし請求項4のいずれかに記載のスケーラブルビデオデコーダ。
- 仮に、前記エンハンスメント層信号の前記隣接するブロック(92,94)が空間内部予測モードを使用して予測され、かつ、前記隣接するブロックの前記内部予測パラメータが角度内部予測パラメータであるならば、前記隣接するブロックの前記内部予測パラメータが、前記現在のブロックのための前記たぶん有利な内部予測パラメータの組の中に含まれ、そして、仮に、前記エンハンスメント層信号の前記隣接ブロック(92,94)が空間内部予測モードを使用して予測されていない、もしくは、前記隣接するブロックの前記内部予測パラメータが角度内部予測パラメータでないならば、現在のブロック(28)に併置された前記ベース層信号のブロック(108)の前記内部予測パラメータ(112)が、前記たぶん有利な内部予測パラメータの組の中に含まれるように構成されていること、を特徴とする、請求項5に記載のスケーラブルビデオデコーダ。
- 前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)について、前記空間内部予測モードが選択されたか否かを更にチェックするように構成されていること、を特徴とする、請求項1ないし請求項6のいずれかに記載のスケーラブルビデオデコーダ。
- 前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)について、前記空間内部予測モードが選択されたか否か、そして、前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)の前記内部予測パラメータ(112)が、角度内部予測パラメータであるか否かを更にチェックさえするように構成されていること、を特徴とする、請求項1ないし請求項7のいずれかに記載のスケーラブルビデオデコーダ。
- 仮に、前記エンハンスメント層信号の前記隣接するブロック(92,94)が空間内部予測モードを使用して予測され、かつ、前記隣接するブロックの前記内部予測パラメータが角度内部予測方向であるならば、前記隣接するブロックの前記内部予測パラメータが、前記現在のブロックのための前記たぶん有利な内部予測パラメータの組の中に含まれ、
仮に、前記エンハンスメント層信号の前記隣接するブロック(92,94)が空間内部予測モードを使用して予測されていない、もしくは、前記隣接するブロックの前記内部予測パラメータが角度内部予測方向でないが、前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)について、前記空間内部予測モードが選択され、かつ、前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)の前記内部予測パラメータ(112)が角度内部予測パラメータであるならば、前記現在のブロック(28)に併置された前記ベース層信号のブロック(108)の前記内部予測パラメータ(112)が、前記たぶん有利な内部予測パラメータの組の中に含まれ、そして、
仮に、前記エンハンスメント層信号の前記隣接するブロック(92,94)が空間内部予測モードを使用して予測されていない、もしくは、前記隣接するブロックの前記内部予測パラメータが角度内部予測方向でなく、かつ、前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)について、前記空間内部予測モードが選択されていない、もしくは、前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)の前記内部予測パラメータ(112)が角度内部予測パラメータでないならば、前記隣接するブロックの前記内部予測パラメータも、前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)の内部予測パラメータ(112)も、前記現在のブロックのための前記たぶん有利な内部予測パラメータの組の中に含まれないように構成されていること、を特徴とする、請求項8に記載のスケーラブルビデオデコーダ。 - 仮に、前記隣接するブロックの前記内部予測パラメータも、前記現在のブロック(28)に併置された前記ベース層信号の前記ブロック(108)のための内部予測パラメータ(112)も選択されなかったならば、初期設定内部予測パラメータが前記現在のブロックのための前記たぶん有利な内部予測パラメータの組の中に含まれるように構成されていること、を特徴とする、請求項7または請求項8に記載のスケーラブルビデオデコーダ。
- 前記現在のブロック(28)のための前記内部予測パラメータ(116)が、前記たぶん有利な内部予測パラメータ(116)の組のメンバーであるか否かを、前記構文要素(114)に基づいて最初にチェックし、仮にそうであるならば、前記構文要素(114)を使用して前記たぶん有利な内部予測パラメータ(116)の組の1つに索引をつけ、仮にそうでなければ、前記構文要素(114)を使用して、前記たぶん有利な内部予測パラメータ(116)の組のメンバーでない、可能な内部予測モードの組の別の1つを引き出すことによって、前記現在のブロックのための前記符号化データストリームの中に存在する前記構文要素に基づいて、前記現在のブロック(28)のための前記内部予測パラメータ(116)を決定するように構成されていること、を特徴とする、請求項1ないし請求項10のいずれかに記載のスケーラブルビデオデコーダ。
- 前記現在のブロックの中間層予測(39)と前記現在のブロックのエンハンスメント層内部予測(34)との間の重み付けが、異なる空間周波数成分に亘って変化するように、前記ベース層信号の再構成されたバージョンから得られた前記現在のブロック(28)の前記中間層予測(39)と、決定された前記内部予測パラメータ(112)を使用して再構成された前記現在のブロックのエンハンスメント層内部予測(34)との重み付け平均(41)を形成して前記現在のブロック(28)のエンハンスメント層予測を得ることによって、前記エンハンスメント層信号の前記現在のブロックを再構成するように構成されていること、を特徴とする、請求項1ないし請求項11のいずれかに記載のスケーラブルビデオデコーダ。
- ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、前記空間内部予測モードが選択されたベース層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)からベース層信号(200)を再構成(80)するステップと、
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択によって、かつ、前記空間内部予測モードが選択されたエンハンスメント層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)からエンハンスメント層信号(400)を再構成(60)するステップを含む、スケーラブルビデオ復号化方法であって、
前記エンハンスメント層信号の前記再構成(60)は、
前記エンハンスメント層信号の現在のブロック(28)に隣接する、前記エンハンスメント層信号の隣接するブロック(92,94)が、空間内部予測モードを使用して予測されたどうか、前記エンハンスメント層信号の前記隣接するブロックをチェックするステップと、
前記チェックに依存して、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の前記隣接するブロックの前記内部予測パラメータ、もしくは、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の、前記現在のブロック(28)に併置された前記ベース層信号のブロック(108)の前記内部予測パラメータ(112)を包含するステップと、そして、
前記現在のブロックのための前記符号化データストリームの中に存在する構文要素(114)に基づいて前記現在のブロック(28)のための前記内部予測パラメータ(116)と、前記たぶん有利な内部予測パラメータ(116)の組とを決定するステップとを含むこと、
を特徴とする、スケーラブルビデオ復号化方法。 - ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、前記空間内部予測モードが選択されたベース層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)の中のベース層信号(200)を符号化し、
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、前記空間内部予測モードが選択されたエンハンスメント層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)の中のエンハンスメント層信号(400)を符号化するように構成されたスケーラブルビデオエンコーダであって、
前記エンハンスメント層信号の前記符号化は、
前記エンハンスメント層信号の現在のブロック(28)に隣接する、前記エンハンスメント層信号の隣接するブロック(92,94)が、空間内部予測モードを使用して予測されたかどうか、前記エンハンスメント層信号の前記隣接するブロックをチェックし、
前記チェックに依存して、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の前記隣接するブロックの前記内部予測パラメータ、もしくは、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の、前記現在のブロック(28)に併置された前記ベース層信号のブロック(108)の前記内部予測パラメータ(112)を包含し、そして、
前記現在のブロックのための前記符号化データストリームの中に存在する構文要素(114)に基づいて前記現在のブロック(28)のための前記内部予測パラメータ(116)と、前記たぶん有利な内部予測パラメータ(116)の組とを決定することを含む、ように構成されていること、
を特徴とする、スケーラブルビデオエンコーダ。 - ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、前記空間内部予測モードが選択されたベース層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)の中のベース層信号(200)を符号化するステップと、
ブロック毎の予測と、空間内部予測モードと時間中間予測モードとの間のブロック毎の選択と、前記空間内部予測モードが選択されたエンハンスメント層信号のブロックの少なくとも1つの副組のための内部予測パラメータを使用することによって、符号化データストリーム(6)の中のエンハンスメント層信号(400)を符号化するステップを含む、スケーラブルビデオ符号化方法であって、
前記エンハンスメント層信号の前記符号化は、
前記エンハンスメント層信号の現在のブロック(28)に隣接する、前記エンハンスメント層信号の隣接ブロック(92,94)が、空間内部予測モードを使用して予測されたかどうか、前記エンハンスメント層信号の前記隣接するブロックをチェックするステップと、
前記チェックに依存して、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の前記隣接ブロックの前記内部予測パラメータ、もしくは、
前記現在のブロックのためのたぶん有利な内部予測パラメータの組の中の、前記現在のブロック(28)に併置された前記ベース層信号のブロック(108)の前記内部予測パラメータ(112)を包含するステップと、そして、
前記現在のブロックのための前記符号化データストリームの中に存在する構文要素(114)に基づいて前記現在のブロック(28)のための前記内部予測パラメータ(116)と、前記たぶん有利な内部予測パラメータ(116)の組とを決定するステップとを含むこと、
を特徴とする、スケーラブルビデオ符号化方法。 - プログラム符号がコンピュータ上で実行されると、前記コンピュータが請求項13に記載のスケーラブルビデオ復号化方法または請求項15に記載のスケーラブルビデオ符号化方法を実行する、前記プログラム符号を有するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261708201P | 2012-10-01 | 2012-10-01 | |
US61/708,201 | 2012-10-01 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015535000A Division JP6301933B2 (ja) | 2012-10-01 | 2013-10-01 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018082447A true JP2018082447A (ja) | 2018-05-24 |
JP2018082447A5 JP2018082447A5 (ja) | 2019-09-19 |
JP6693940B2 JP6693940B2 (ja) | 2020-05-13 |
Family
ID=49274661
Family Applications (18)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015534997A Active JP6763664B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2015534996A Active JP6636802B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2015534998A Active JP6788346B2 (ja) | 2012-10-01 | 2013-10-01 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2015535000A Active JP6301933B2 (ja) | 2012-10-01 | 2013-10-01 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
JP2015534999A Active JP6301932B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2017198961A Active JP6760911B2 (ja) | 2012-10-01 | 2017-10-13 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2017240170A Active JP6693940B2 (ja) | 2012-10-01 | 2017-12-15 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
JP2018122462A Active JP7030025B2 (ja) | 2012-10-01 | 2018-06-27 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2018193886A Active JP6912438B2 (ja) | 2012-10-01 | 2018-10-12 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2018193252A Active JP6912437B2 (ja) | 2012-10-01 | 2018-10-12 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2020148098A Pending JP2020205618A (ja) | 2012-10-01 | 2020-09-03 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2021113490A Active JP7323577B2 (ja) | 2012-10-01 | 2021-07-08 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2021113786A Active JP7323578B2 (ja) | 2012-10-01 | 2021-07-08 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
JP2021125888A Active JP7284221B2 (ja) | 2012-10-01 | 2021-07-30 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
JP2023081951A Pending JP2023116468A (ja) | 2012-10-01 | 2023-05-18 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
JP2023122201A Pending JP2023159095A (ja) | 2012-10-01 | 2023-07-27 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2023122307A Pending JP2023159098A (ja) | 2012-10-01 | 2023-07-27 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
JP2023146612A Pending JP2023164991A (ja) | 2012-10-01 | 2023-09-11 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
Family Applications Before (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015534997A Active JP6763664B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2015534996A Active JP6636802B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2015534998A Active JP6788346B2 (ja) | 2012-10-01 | 2013-10-01 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2015535000A Active JP6301933B2 (ja) | 2012-10-01 | 2013-10-01 | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 |
JP2015534999A Active JP6301932B2 (ja) | 2012-10-01 | 2013-10-01 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2017198961A Active JP6760911B2 (ja) | 2012-10-01 | 2017-10-13 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
Family Applications After (11)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018122462A Active JP7030025B2 (ja) | 2012-10-01 | 2018-06-27 | エンハンスメント層予測に中間層の予測寄与を使用するスケーラブルビデオ符号化 |
JP2018193886A Active JP6912438B2 (ja) | 2012-10-01 | 2018-10-12 | ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化 |
JP2018193252A Active JP6912437B2 (ja) | 2012-10-01 | 2018-10-12 | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2020148098A Pending JP2020205618A (ja) | 2012-10-01 | 2020-09-03 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
JP2021113490A Active JP7323577B2 (ja) | 2012-10-01 | 2021-07-08 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2021113786A Active JP7323578B2 (ja) | 2012-10-01 | 2021-07-08 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
JP2021125888A Active JP7284221B2 (ja) | 2012-10-01 | 2021-07-30 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
JP2023081951A Pending JP2023116468A (ja) | 2012-10-01 | 2023-05-18 | エンハンスメント層予測に層間予測寄与を使用するスケーラブルビデオ符号化 |
JP2023122201A Pending JP2023159095A (ja) | 2012-10-01 | 2023-07-27 | エンハンスメント層動きパラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
JP2023122307A Pending JP2023159098A (ja) | 2012-10-01 | 2023-07-27 | ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化 |
JP2023146612A Pending JP2023164991A (ja) | 2012-10-01 | 2023-09-11 | エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化 |
Country Status (6)
Country | Link |
---|---|
US (17) | US10477210B2 (ja) |
EP (11) | EP2904783B1 (ja) |
JP (18) | JP6763664B2 (ja) |
KR (28) | KR102367210B1 (ja) |
CN (8) | CN105009577B (ja) |
WO (5) | WO2014053519A1 (ja) |
Families Citing this family (135)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2654301A4 (en) * | 2010-12-14 | 2016-02-17 | M&K Holdings Inc | METHOD FOR INTER-PREDICTIVE DECODING OF ENCODED FILMS |
PL4124034T3 (pl) * | 2010-12-22 | 2024-01-03 | Lg Electronics Inc. | Predykcja wewnątrzramkowa w kodowaniu wideo |
JP5950541B2 (ja) * | 2011-11-07 | 2016-07-13 | キヤノン株式会社 | 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム |
TWI523497B (zh) * | 2011-11-10 | 2016-02-21 | Sony Corp | Image processing apparatus and method |
CN110035286B (zh) * | 2012-07-09 | 2021-11-12 | Vid拓展公司 | 用于多层视频编码的编解码器架构 |
CN104685881B (zh) * | 2012-09-28 | 2018-05-15 | 夏普株式会社 | 图像解码装置、图像编码装置以及图像解码方法 |
KR101654814B1 (ko) | 2012-09-28 | 2016-09-22 | 브이아이디 스케일, 인크. | 비디오 코딩에서 크로마 신호 향상을 위한 교차-평면 필터링 |
US9826229B2 (en) * | 2012-09-29 | 2017-11-21 | Google Technology Holdings LLC | Scan pattern determination from base layer pixel information for scalable extension |
JP6763664B2 (ja) | 2012-10-01 | 2020-09-30 | ジーイー ビデオ コンプレッション エルエルシー | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
WO2014075552A1 (en) * | 2012-11-15 | 2014-05-22 | Mediatek Inc. | Inter-layer texture coding with adaptive transform and multiple inter-layer motion candidates |
US20140185671A1 (en) * | 2012-12-27 | 2014-07-03 | Electronics And Telecommunications Research Institute | Video encoding and decoding method and apparatus using the same |
US9596465B2 (en) * | 2013-01-04 | 2017-03-14 | Intel Corporation | Refining filter for inter layer prediction of scalable video coding |
US20140198846A1 (en) * | 2013-01-16 | 2014-07-17 | Qualcomm Incorporated | Device and method for scalable coding of video information |
KR20140121315A (ko) * | 2013-04-04 | 2014-10-15 | 한국전자통신연구원 | 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치 |
WO2015007754A1 (en) | 2013-07-15 | 2015-01-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low delay concept in multi-layered video coding |
FR3008840A1 (fr) * | 2013-07-17 | 2015-01-23 | Thomson Licensing | Procede et dispositif de decodage d'un train scalable representatif d'une sequence d'images et procede et dispositif de codage correspondants |
CN105765979B (zh) * | 2013-09-24 | 2019-08-09 | Vid拓展公司 | 用于可缩放视频编码的层间预测 |
US9712834B2 (en) * | 2013-10-01 | 2017-07-18 | Dolby Laboratories Licensing Corporation | Hardware efficient sparse FIR filtering in video codec |
EP2938084A4 (en) * | 2013-12-27 | 2016-10-26 | Sony Corp | IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD |
KR102071581B1 (ko) * | 2014-03-31 | 2020-04-01 | 삼성전자주식회사 | 서브블록 기반 예측을 수행하는 인터 레이어 비디오 복호화 방법 및 그 장치 및 서브블록 기반 예측을 수행하는 인터 레이어 비디오 부호화 방법 및 그 장치 |
WO2015168581A1 (en) * | 2014-05-01 | 2015-11-05 | Arris Enterprises, Inc. | Reference layer and scaled reference layer offsets for scalable video coding |
CN107077726B (zh) | 2014-10-27 | 2019-04-09 | 杜比实验室特许公司 | 使用扩展颜色范围的内容映射 |
EP3206403A4 (en) * | 2014-11-04 | 2017-11-01 | Samsung Electronics Co., Ltd. | Video encoding method and apparatus therefor, and video decoding method and apparatus therefor, in which edge type offset is applied |
EP3026913A1 (en) * | 2014-11-27 | 2016-06-01 | Thomson Licensing | Scalable encoding and decoding methods and corresponding devices with combined intraprediction and interlayer prediction |
FR3029333A1 (fr) * | 2014-11-27 | 2016-06-03 | Orange | Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants |
KR101818900B1 (ko) * | 2015-02-17 | 2018-02-21 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 향상된 동적 범위를 갖는 신호들에 대한 계층간 예측 |
EP3292687A4 (en) * | 2015-05-06 | 2019-07-03 | NGCodec Inc. | INTRA PREDICTION PROCESSOR WITH PARTITIONING OF REDUCED COST BLOCKS AND PERFECTED SELECTION OF INTRA MODES |
EP4404572A3 (en) * | 2015-07-08 | 2024-10-16 | InterDigital Madison Patent Holdings, SAS | Enhanced chroma coding using cross plane filtering |
CN107925765B (zh) * | 2015-08-19 | 2022-01-18 | 索尼公司 | 发送装置、发送方法、接收装置及接收方法 |
GB2557809B (en) | 2015-08-28 | 2021-12-01 | Kt Corp | Method and device for processing video signal |
WO2017039501A1 (en) * | 2015-09-01 | 2017-03-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Spatial improvement of transform blocks |
WO2017043816A1 (ko) * | 2015-09-10 | 2017-03-16 | 엘지전자(주) | 인터-인트라 병합 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN114697679A (zh) | 2015-09-11 | 2022-07-01 | 株式会社Kt | 图像解码方法、图像编码方法和包括比特流的设备 |
CN106612433B (zh) * | 2015-10-22 | 2019-11-26 | 中国科学院上海高等研究院 | 一种层析式编码译码方法 |
US10200719B2 (en) * | 2015-11-25 | 2019-02-05 | Qualcomm Incorporated | Modification of transform coefficients for non-square transform units in video coding |
WO2017121549A1 (en) * | 2016-01-12 | 2017-07-20 | Telefonaktiebolaget Lm Ericsson (Publ) | Frequency based prediction |
CN109155847A (zh) * | 2016-03-24 | 2019-01-04 | 英迪股份有限公司 | 用于编码/解码视频信号的方法和装置 |
WO2017178827A1 (en) * | 2016-04-15 | 2017-10-19 | Magic Pony Technology Limited | In-loop post filtering for video encoding and decoding |
EP3298783B1 (en) | 2016-04-15 | 2020-11-18 | Magic Pony Technology Limited | Motion compensation using temporal picture interpolation |
US10764576B2 (en) | 2016-05-04 | 2020-09-01 | Microsoft Technology Licensing, Llc | Intra-picture prediction using non-adjacent reference lines of sample values |
WO2017209455A2 (ko) * | 2016-05-28 | 2017-12-07 | 세종대학교 산학협력단 | 비디오 신호의 부호화 또는 복호화 방법 및 장치 |
US20170374369A1 (en) * | 2016-06-24 | 2017-12-28 | Mediatek Inc. | Methods and Apparatuses of Decoder Side Intra Mode Derivation |
US10440366B2 (en) | 2016-07-01 | 2019-10-08 | Intel Corporation | Method and system of video coding using content based metadata |
US10666946B2 (en) | 2016-07-01 | 2020-05-26 | Intel Corporation | Method and system of video coding using display modification input |
CN116708782A (zh) * | 2016-07-12 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法以及用于该方法的记录介质 |
KR102471208B1 (ko) | 2016-09-20 | 2022-11-25 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
EP3301925A1 (en) * | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method for local inter-layer prediction intra based |
CN113873260B (zh) | 2016-10-04 | 2023-02-24 | 有限公司B1影像技术研究所 | 图像数据编码/解码方法和装置 |
WO2018097669A1 (ko) * | 2016-11-24 | 2018-05-31 | 한국전자통신연구원 | 스케일러블 비디오를 처리하기 위한 방법 및 장치 |
KR102387909B1 (ko) | 2016-11-29 | 2022-04-18 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
US10694202B2 (en) * | 2016-12-01 | 2020-06-23 | Qualcomm Incorporated | Indication of bilateral filter usage in video coding |
KR102574714B1 (ko) * | 2016-12-23 | 2023-09-06 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 미리 결정된 방향성 인트라 예측 모드들의 세트를 확장하기 위한 인트라 예측 장치 |
KR20240142572A (ko) * | 2017-01-05 | 2024-09-30 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 화상의 블록 기반 예측 코딩 및 디코딩 |
US10715827B2 (en) * | 2017-01-06 | 2020-07-14 | Mediatek Inc. | Multi-hypotheses merge mode |
CN116193110A (zh) * | 2017-01-16 | 2023-05-30 | 世宗大学校产学协力团 | 影像编码/解码方法 |
WO2018190595A1 (ko) * | 2017-04-13 | 2018-10-18 | 엘지전자(주) | 비디오 신호를 엔트로피 인코딩, 디코딩하는 방법 및 장치 |
CN117014632A (zh) * | 2017-04-27 | 2023-11-07 | 松下电器(美国)知识产权公司 | 解码装置、编码装置以及非暂时性记录介质 |
WO2018200993A1 (en) | 2017-04-28 | 2018-11-01 | Zermatt Technologies Llc | Video pipeline |
US10979685B1 (en) | 2017-04-28 | 2021-04-13 | Apple Inc. | Focusing for virtual and augmented reality systems |
US10531085B2 (en) * | 2017-05-09 | 2020-01-07 | Futurewei Technologies, Inc. | Coding chroma samples in video compression |
CN107172386B (zh) * | 2017-05-09 | 2018-06-29 | 西安科技大学 | 一种基于计算机视觉的非接触式数据传输方法 |
EP3625963A4 (en) * | 2017-06-07 | 2020-11-18 | MediaTek Inc. | INTRA-INTER PREDICTION MODE METHOD AND APPARATUS FOR VIDEO CODING |
US12058309B2 (en) * | 2018-07-08 | 2024-08-06 | Mellanox Technologies, Ltd. | Application accelerator |
US11252464B2 (en) | 2017-06-14 | 2022-02-15 | Mellanox Technologies, Ltd. | Regrouping of video data in host memory |
US20200014945A1 (en) * | 2018-07-08 | 2020-01-09 | Mellanox Technologies, Ltd. | Application acceleration |
US10861142B2 (en) * | 2017-07-21 | 2020-12-08 | Apple Inc. | Gaze direction-based adaptive pre-filtering of video data |
CN107580224B (zh) * | 2017-08-08 | 2019-11-22 | 西安理工大学 | 一种面向hevc熵编码的自适应扫描方法 |
EP3451665A1 (en) | 2017-09-01 | 2019-03-06 | Thomson Licensing | Refinement of internal sub-blocks of a coding unit |
EP3457695A1 (en) * | 2017-09-18 | 2019-03-20 | Thomson Licensing | Method and apparatus for motion vector predictor adaptation for omnidirectional video |
US10986360B2 (en) * | 2017-10-16 | 2021-04-20 | Qualcomm Incorproated | Various improvements to FRUC template matching |
FR3072850B1 (fr) | 2017-10-19 | 2021-06-04 | Tdf | Procedes de codage et de decodage d'un flux de donnees representatif d'une video omnidirectionnelle |
US11297339B2 (en) * | 2017-12-06 | 2022-04-05 | V-Nova International Limited | Methods and apparatuses for hierarchically encoding and decoding a bytestream |
US10445762B1 (en) | 2018-01-17 | 2019-10-15 | Yaoshiang Ho | Online video system, method, and medium for A/B testing of video content |
EP3742403A4 (en) * | 2018-01-19 | 2021-03-17 | Panasonic Intellectual Property Corporation of America | METHOD FOR CODING THREE-DIMENSIONAL DATA, METHOD FOR DECODING THREE-DIMENSIONAL DATA, DEVICE FOR CODING THREE-DIMENSIONAL DATA AND DEVICE FOR DECODING THREE-DIMENSIONAL DATA |
JP7187566B2 (ja) * | 2018-02-09 | 2022-12-12 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | パーティションベースのイントラ符号化概念 |
US10771781B2 (en) * | 2018-03-12 | 2020-09-08 | Electronics And Telecommunications Research Institute | Method and apparatus for deriving intra prediction mode |
JP2021519546A (ja) * | 2018-03-29 | 2021-08-10 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 映像符号化のための候補変換セットの決定 |
JP7395497B2 (ja) * | 2018-05-07 | 2023-12-11 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | コード化/復号化におけるデータ依存関係 |
KR20210016581A (ko) | 2018-06-05 | 2021-02-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Ibc 및 atmvp 간의 상호 작용 |
KR102701593B1 (ko) | 2018-06-21 | 2024-08-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 칼라 컴포넌트 간의 서브 블록 mv 상속 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
KR102598576B1 (ko) | 2018-07-02 | 2023-11-06 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
US10645380B2 (en) * | 2018-07-09 | 2020-05-05 | Tencent America LLC | Method and apparatus for video coding |
US10715812B2 (en) * | 2018-07-13 | 2020-07-14 | Tencent America LLC | Method and apparatus for video coding |
US11051010B2 (en) * | 2018-07-18 | 2021-06-29 | Mediatek Inc. | Merge candidates with multiple hypothesis |
EP3824631A4 (en) | 2018-07-18 | 2022-07-06 | HFI Innovation Inc. | METHOD AND APPARATUS FOR MOTION COMPENSATION BANDWIDTH REDUCTION FOR VIDEO CODING SYSTEM USING MULTIHYPOTHEC |
US11032549B2 (en) | 2018-07-26 | 2021-06-08 | Google Llc | Spatial layer rate allocation |
CN108982521A (zh) * | 2018-08-04 | 2018-12-11 | 石修英 | 可视化土壤健康水平检测设备 |
KR20230169474A (ko) | 2018-08-29 | 2023-12-15 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치 |
BR112021004890A2 (pt) * | 2018-09-13 | 2021-06-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | intrapredições ponderadas lineares afins |
EP3844959A2 (en) | 2018-09-16 | 2021-07-07 | Huawei Technologies Co., Ltd. | Apparatus and method for filtering in video coding with look-up table selected based on bitstream information |
GB2577339A (en) * | 2018-09-24 | 2020-03-25 | Sony Corp | Image data encoding and decoding |
US11006150B2 (en) * | 2018-09-24 | 2021-05-11 | Tencent America LLC | Method and apparatus for video coding |
CN117768651A (zh) | 2018-09-24 | 2024-03-26 | 北京字节跳动网络技术有限公司 | 处理视频数据的方法、装置、介质、以及比特流存储方法 |
EP3861741A1 (en) * | 2018-10-02 | 2021-08-11 | InterDigital VC Holdings, Inc. | Method and apparatus for video encoding and decoding using list of predictor candidates |
US11184461B2 (en) | 2018-10-23 | 2021-11-23 | At&T Intellectual Property I, L.P. | VR video transmission with layered video by re-using existing network infrastructures |
CN109660794B (zh) * | 2018-11-07 | 2020-07-07 | 北京达佳互联信息技术有限公司 | 帧内预测模式的决策方法、决策装置和计算机可读存储介质 |
EP3861723A4 (en) | 2018-11-10 | 2022-04-20 | Beijing Bytedance Network Technology Co., Ltd. | ROUNDS IN PAIRS OF MEDIUM CANDIDATE BILLS |
KR102127846B1 (ko) * | 2018-11-28 | 2020-06-29 | 주식회사 카이 | 영상을 처리하는 방법, 영상을 재생하는 방법 및 그 장치들 |
PT3891980T (pt) * | 2018-12-21 | 2024-07-22 | Huawei Tech Co Ltd | Método e aparelho de filtragem de interpolação para codificação preditiva |
JP7288964B2 (ja) | 2018-12-28 | 2023-06-08 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | 動きベクトル予測因子リストを生成すること |
CN113196753B (zh) | 2018-12-28 | 2023-05-12 | 华为技术有限公司 | 用于预测译码的插值滤波锐化方法和装置 |
US11032560B2 (en) * | 2019-01-17 | 2021-06-08 | Tencent America LLC | Method and apparatus for video coding without updating the HMVP table |
CN109672690B (zh) * | 2019-01-29 | 2021-02-19 | 哈尔滨工业大学 | 一种针对数据幅值范围已知的数据流进行编码的方法 |
CN113383547A (zh) | 2019-02-01 | 2021-09-10 | 北京字节跳动网络技术有限公司 | 环路整形和帧间编解码工具之间的相互作用 |
WO2020156534A1 (en) | 2019-02-01 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Interactions between in-loop reshaping and intra block copy |
WO2020163535A1 (en) | 2019-02-05 | 2020-08-13 | Beijing Dajia Internet Information Technology Co., Ltd. | Video coding using intra sub-partition coding mode |
US11012701B2 (en) * | 2019-02-22 | 2021-05-18 | Tencent America LLC | Residual coding for transform skip mode and block differential pulse-code modulation |
US11323731B2 (en) * | 2019-03-08 | 2022-05-03 | Tencent America LLC | Method and apparatus for video coding |
WO2020182140A1 (en) * | 2019-03-11 | 2020-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Motion vector refinement in video coding |
CN113574889B (zh) | 2019-03-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
WO2020192614A1 (en) * | 2019-03-23 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on adaptive-loop filtering parameter sets |
CN113940082A (zh) * | 2019-06-06 | 2022-01-14 | 北京字节跳动网络技术有限公司 | 基于子块的帧内块复制和不同编解码工具之间的交互 |
EP3989547A4 (en) * | 2019-06-21 | 2023-04-19 | Samsung Electronics Co., Ltd. | VIDEO ENCODING METHOD AND DEVICE, AND VIDEO DECODER METHOD AND DEVICE |
WO2020256615A1 (en) * | 2019-06-21 | 2020-12-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Video coding layer up-switching indication |
WO2020259426A1 (en) | 2019-06-22 | 2020-12-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate list construction for intra block copy mode |
EP4000258A4 (en) | 2019-08-20 | 2023-03-15 | Beijing Bytedance Network Technology Co., Ltd. | SCALING POSITION-BASED COEFFICIENTS |
CN110662071B (zh) * | 2019-09-27 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 视频解码方法和装置、存储介质及电子装置 |
US11323732B2 (en) | 2020-04-13 | 2022-05-03 | Tencent America LLC | Method and apparatus for video coding |
US20230209041A1 (en) * | 2020-05-22 | 2023-06-29 | Lg Electronics Inc. | Multilayer-based image coding method in video or image coding system |
CN115443650A (zh) * | 2020-06-06 | 2022-12-06 | 阿里巴巴(中国)有限公司 | 用于帧间预测的角度加权预测 |
US11330296B2 (en) * | 2020-09-14 | 2022-05-10 | Apple Inc. | Systems and methods for encoding image data |
US12058322B2 (en) * | 2020-11-05 | 2024-08-06 | Alibaba Group Holding Limited | Methods and apparatuses for filtering intra predicted video blocks |
KR20220096624A (ko) * | 2020-12-31 | 2022-07-07 | 엘지디스플레이 주식회사 | 표시 장치 |
US11595665B2 (en) | 2021-02-11 | 2023-02-28 | Qualcomm Incorporated | Upsampling reference pixels for intra-prediction in video coding |
US12058310B2 (en) * | 2021-02-26 | 2024-08-06 | Lemon Inc. | Methods of coding images/videos with alpha channels |
US20220279185A1 (en) * | 2021-02-26 | 2022-09-01 | Lemon Inc. | Methods of coding images/videos with alpha channels |
CN113271467B (zh) * | 2021-07-19 | 2021-10-22 | 成都索贝数码科技股份有限公司 | 一种支持高效编辑的超高清视频分层编解码方法 |
GB2603559B (en) | 2021-07-22 | 2023-08-09 | Imagination Tech Ltd | Coding blocks of pixels |
GB2609218B (en) * | 2021-07-22 | 2023-08-30 | Imagination Tech Ltd | Coding blocks of pixels |
WO2023164020A2 (en) * | 2022-02-25 | 2023-08-31 | Op Solutions, Llc | Systems, methods and bitstream structure for video coding and decoding for machines with adaptive inference |
US20230396799A1 (en) * | 2022-06-06 | 2023-12-07 | Tencent America LLC | Signaling method for scaling parameter in chroma from luma intra prediction mode |
WO2024010635A1 (en) * | 2022-07-05 | 2024-01-11 | Innopeak Technology, Inc. | System and method for multiple-hypothesis prediction for video coding |
KR102617498B1 (ko) | 2022-10-13 | 2023-12-27 | 주식회사 엘지에너지솔루션 | 리튬 이차전지용 음극 및 이를 위한 음극용 자성 정렬 장치 |
US20240146902A1 (en) * | 2022-10-26 | 2024-05-02 | Tencent America LLC | Context Design for Coding and Decoding Syntax Elements in Inter Prediction Modes |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007028034A (ja) * | 2005-07-14 | 2007-02-01 | Nippon Telegr & Teleph Corp <Ntt> | スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体 |
JP2009523395A (ja) * | 2006-01-11 | 2009-06-18 | クゥアルコム・インコーポレイテッド | 精細粒度空間スケーラビリティによるビデオ符号化 |
JP2009532979A (ja) * | 2006-04-06 | 2009-09-10 | サムスン エレクトロニクス カンパニー リミテッド | 加重平均合を用いてfgs階層をエンコーディングおよびデコーディングする方法および装置 |
JP2015167267A (ja) * | 2012-07-03 | 2015-09-24 | シャープ株式会社 | 画像復号装置、および画像符号化装置 |
Family Cites Families (260)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62145988A (ja) * | 1985-12-20 | 1987-06-30 | Fujitsu Ltd | 適応的走査線変換画像伝送方式 |
JPS631932A (ja) | 1986-06-23 | 1988-01-06 | Toshiba Corp | 振動検出器の断線検出回路 |
US5933538A (en) | 1990-07-31 | 1999-08-03 | Fujitsu Limited | Image data processing method and apparatus |
JPH05208631A (ja) | 1992-01-30 | 1993-08-20 | Aisin Seiki Co Ltd | スライドレールの取付ブラケツト |
JP3032088B2 (ja) | 1992-03-03 | 2000-04-10 | 株式会社東芝 | 動画像符号化装置 |
JPH06153180A (ja) | 1992-09-16 | 1994-05-31 | Fujitsu Ltd | 画像データ符号化方法及び装置 |
US5408580A (en) * | 1992-09-21 | 1995-04-18 | Aware, Inc. | Audio compression system employing multi-rate signal analysis |
US6252909B1 (en) * | 1992-09-21 | 2001-06-26 | Aware, Inc. | Multi-carrier transmission system utilizing channels of different bandwidth |
US5553277A (en) | 1992-12-29 | 1996-09-03 | Fujitsu Limited | Image search method for searching and retrieving desired image from memory device |
JP3189258B2 (ja) | 1993-01-11 | 2001-07-16 | ソニー株式会社 | 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置 |
EP0607484B1 (en) | 1993-01-20 | 1998-09-09 | Samsung Electronics Co. Ltd. | Method and device for encoding and decoding image data |
JP3186307B2 (ja) | 1993-03-09 | 2001-07-11 | ソニー株式会社 | 圧縮データ記録装置及び方法 |
JPH06301932A (ja) | 1993-04-15 | 1994-10-28 | Sumitomo Metal Ind Ltd | 薄膜磁気ヘッド及びその製造方法 |
CA2127151A1 (en) | 1993-09-21 | 1995-03-22 | Atul Puri | Spatially scalable video encoding and decoding |
JP3627870B2 (ja) * | 1995-02-28 | 2005-03-09 | ソニー株式会社 | 動きベクトル検出方法及び装置 |
US5619256A (en) | 1995-05-26 | 1997-04-08 | Lucent Technologies Inc. | Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions |
DE19526366A1 (de) * | 1995-07-20 | 1997-01-23 | Bosch Gmbh Robert | Verfahren zur Redundanzreduktion bei der Codierung von mehrkanaligen Signalen und Vorrichtung zur Dekodierung von redundanzreduzierten, mehrkanaligen Signalen |
JPH0951504A (ja) | 1995-08-03 | 1997-02-18 | Matsushita Electric Ind Co Ltd | 画像符号化装置及び画像復号化装置 |
EP0857392B1 (en) * | 1995-10-25 | 2004-08-11 | Sarnoff Corporation | Overlapping block zerotree wavelet image coder |
US5852565A (en) * | 1996-01-30 | 1998-12-22 | Demografx | Temporal and resolution layering in advanced television |
US6957350B1 (en) * | 1996-01-30 | 2005-10-18 | Dolby Laboratories Licensing Corporation | Encrypted and watermarked temporal and resolution layering in advanced television |
JPH09208631A (ja) | 1996-02-07 | 1997-08-12 | Mitsubishi Chem Corp | 塩化ビニル系重合体 |
JPH09238350A (ja) | 1996-03-01 | 1997-09-09 | Matsushita Electric Ind Co Ltd | 動画像符号化装置 |
US6233017B1 (en) | 1996-09-16 | 2001-05-15 | Microsoft Corporation | Multimedia compression system with adaptive block sizes |
US6545687B2 (en) | 1997-01-09 | 2003-04-08 | Canon Kabushiki Kaisha | Thumbnail manipulation using fast and aspect ratio zooming, compressing and scaling |
US6728775B1 (en) * | 1997-03-17 | 2004-04-27 | Microsoft Corporation | Multiple multicasting of multimedia streams |
AUPO951397A0 (en) | 1997-09-29 | 1997-10-23 | Canon Information Systems Research Australia Pty Ltd | A method for digital data compression |
EP0905978A3 (en) | 1997-09-29 | 2000-04-12 | Canon Kabushiki Kaisha | An encoding method and apparatus |
US6587590B1 (en) | 1998-02-02 | 2003-07-01 | The Trustees Of The University Of Pennsylvania | Method and system for computing 8×8 DCT/IDCT and a VLSI implementation |
US8050329B2 (en) | 1998-06-26 | 2011-11-01 | Mediatek Inc. | Method and apparatus for generic scalable shape coding |
AU743246B2 (en) | 1998-11-04 | 2002-01-24 | Mitsubishi Denki Kabushiki Kaisha | Image decoder and image encoder |
US6480547B1 (en) * | 1999-10-15 | 2002-11-12 | Koninklijke Philips Electronics N.V. | System and method for encoding and decoding the residual signal for fine granular scalable video |
US6476805B1 (en) | 1999-12-23 | 2002-11-05 | Microsoft Corporation | Techniques for spatial displacement estimation and multi-resolution operations on light fields |
US8117313B2 (en) | 2001-03-19 | 2012-02-14 | International Business Machines Corporation | System and method for adaptive formatting of image information for efficient delivery and presentation |
CA2582664C (en) | 2001-09-12 | 2012-04-24 | Matsushita Electric Industrial Co., Ltd. | Picture coding method and picture decoding method |
CN101448162B (zh) | 2001-12-17 | 2013-01-02 | 微软公司 | 处理视频图像的方法 |
US20030118113A1 (en) * | 2001-12-20 | 2003-06-26 | Comer Mary Lafuze | Fine-grain scalable video decoder with conditional replacement |
MXPA04007020A (es) | 2002-01-23 | 2004-10-11 | Nokia Corp | Agrupamiento de cuadros de imagen para codificacion de video. |
AU2002951574A0 (en) * | 2002-09-20 | 2002-10-03 | Unisearch Limited | Method of signalling motion information for efficient scalable video compression |
KR20050105222A (ko) * | 2003-02-17 | 2005-11-03 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 부호화 |
US8107535B2 (en) * | 2003-06-10 | 2012-01-31 | Rensselaer Polytechnic Institute (Rpi) | Method and apparatus for scalable motion vector coding |
US6900748B2 (en) | 2003-07-17 | 2005-05-31 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method and apparatus for binarization and arithmetic coding of a data value |
US20050013498A1 (en) * | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
JP2005135249A (ja) | 2003-10-31 | 2005-05-26 | Kddi Corp | 映像の領域分割装置 |
US7346111B2 (en) * | 2003-12-10 | 2008-03-18 | Lsi Logic Corporation | Co-located motion vector storage |
EP1558039A1 (en) * | 2004-01-21 | 2005-07-27 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding |
US7227894B2 (en) * | 2004-02-24 | 2007-06-05 | Industrial Technology Research Institute | Method and apparatus for MPEG-4 FGS performance enhancement |
US7627037B2 (en) | 2004-02-27 | 2009-12-01 | Microsoft Corporation | Barbell lifting for multi-layer wavelet coding |
US7418144B2 (en) * | 2004-03-03 | 2008-08-26 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Curved wavelet transform for image and video compression |
WO2005099271A1 (en) * | 2004-04-06 | 2005-10-20 | Koninklijke Philips Electronics N.V. | Device and method for receiving video data |
KR100586882B1 (ko) * | 2004-04-13 | 2006-06-08 | 삼성전자주식회사 | 모션 스케일러빌리티를 지원하는 코딩 방법 및 장치 |
US8442108B2 (en) * | 2004-07-12 | 2013-05-14 | Microsoft Corporation | Adaptive updates in motion-compensated temporal filtering |
US8340177B2 (en) * | 2004-07-12 | 2012-12-25 | Microsoft Corporation | Embedded base layer codec for 3D sub-band coding |
US8374238B2 (en) * | 2004-07-13 | 2013-02-12 | Microsoft Corporation | Spatial scalability in 3D sub-band decoding of SDMCTF-encoded video |
CN100466735C (zh) * | 2004-07-15 | 2009-03-04 | 三星电子株式会社 | 视频编码和解码方法以及视频编码器和解码器 |
KR100679011B1 (ko) * | 2004-07-15 | 2007-02-05 | 삼성전자주식회사 | 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치 |
KR100678949B1 (ko) | 2004-07-15 | 2007-02-06 | 삼성전자주식회사 | 비디오 코딩 및 디코딩 방법, 비디오 인코더 및 디코더 |
DE102004041664A1 (de) | 2004-08-27 | 2006-03-09 | Siemens Ag | Verfahren zum Codieren und Decodieren, sowie Codier- und Decodiervorrichtung zur Videocodierung |
JP2008516556A (ja) * | 2004-10-13 | 2008-05-15 | トムソン ライセンシング | コンプレクシティスケーラブル映像符号化復号化方法及び装置 |
DE102004059993B4 (de) | 2004-10-15 | 2006-08-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium |
KR100703740B1 (ko) | 2004-10-21 | 2007-04-05 | 삼성전자주식회사 | 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치 |
KR100679025B1 (ko) * | 2004-11-12 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치 |
KR100679031B1 (ko) * | 2004-12-03 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치 |
EP1817911A4 (en) * | 2004-12-03 | 2015-05-20 | Samsung Electronics Co Ltd | METHOD AND DEVICE FOR MULTILAYER VIDEO ENCODING AND DECODING |
EP1694074A1 (en) | 2005-02-18 | 2006-08-23 | Thomson Licensing | Process for scalable coding of images |
KR100888962B1 (ko) * | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
KR100888963B1 (ko) * | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
US20060153295A1 (en) * | 2005-01-12 | 2006-07-13 | Nokia Corporation | Method and system for inter-layer prediction mode coding in scalable video coding |
EP1836858A1 (en) | 2005-01-14 | 2007-09-26 | Sungkyunkwan University | Methods of and apparatuses for adaptive entropy encoding and adaptive entropy decoding for scalable video encoding |
KR100703748B1 (ko) | 2005-01-25 | 2007-04-05 | 삼성전자주식회사 | 다 계층 기반의 비디오 프레임을 효율적으로 예측하는 방법및 그 방법을 이용한 비디오 코딩 방법 및 장치 |
US7792385B2 (en) | 2005-01-25 | 2010-09-07 | Globalfoundries Inc. | Scratch pad for storing intermediate loop filter data |
US8576924B2 (en) | 2005-01-25 | 2013-11-05 | Advanced Micro Devices, Inc. | Piecewise processing of overlap smoothing and in-loop deblocking |
KR100703751B1 (ko) | 2005-02-14 | 2007-04-06 | 삼성전자주식회사 | 가상 영역의 영상을 참조하여 인코딩 및 디코딩 하는 방법및 장치 |
JP5213456B2 (ja) * | 2005-02-18 | 2013-06-19 | トムソン ライセンシング | 高分解能ピクチャの符号化情報を低分解能ピクチャから導き出す方法、並びにその方法を実現する符号化及び復号化装置 |
JP5065051B2 (ja) | 2005-02-18 | 2012-10-31 | トムソン ライセンシング | 低解像度画像から高解像度画像の符号化情報を導出する方法、並びに、係る方法を実現する符号化及び復号化装置 |
KR100703770B1 (ko) | 2005-03-25 | 2007-04-06 | 삼성전자주식회사 | 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치 |
JP4854046B2 (ja) * | 2005-04-06 | 2012-01-11 | トムソン ライセンシング | エンハンスメント層ビデオ・データを符号化する方法および装置 |
EP1711018A1 (en) * | 2005-04-08 | 2006-10-11 | Thomson Licensing | Method and apparatus for encoding video pictures, and method and apparatus for decoding video pictures |
US7876833B2 (en) | 2005-04-11 | 2011-01-25 | Sharp Laboratories Of America, Inc. | Method and apparatus for adaptive up-scaling for spatially scalable coding |
EP1878257A1 (en) | 2005-04-12 | 2008-01-16 | Nokia Corporation | Method and system for motion compensated fine granularity scalable video coding with drift control |
KR100896279B1 (ko) * | 2005-04-15 | 2009-05-07 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
US8619860B2 (en) | 2005-05-03 | 2013-12-31 | Qualcomm Incorporated | System and method for scalable encoding and decoding of multimedia data using multiple layers |
US8059608B2 (en) * | 2005-06-14 | 2011-11-15 | Qualcomm Incorporated | Transmit spatial diversity for cellular single frequency networks |
US7965773B1 (en) | 2005-06-30 | 2011-06-21 | Advanced Micro Devices, Inc. | Macroblock cache |
KR101154999B1 (ko) | 2005-07-08 | 2012-07-09 | 엘지전자 주식회사 | 영상 신호의 코딩정보를 압축/해제하기 위해 모델링하는 방법 |
KR100878827B1 (ko) * | 2005-07-08 | 2009-01-14 | 엘지전자 주식회사 | 영상 신호의 코딩정보를 압축/해제하기 위해 모델링하는방법 |
WO2007008286A1 (en) * | 2005-07-11 | 2007-01-18 | Thomson Licensing | Method and apparatus for macroblock adaptive inter-layer intra texture prediction |
US7630882B2 (en) | 2005-07-15 | 2009-12-08 | Microsoft Corporation | Frequency segmentation to obtain bands for efficient coding of digital media |
US7562021B2 (en) | 2005-07-15 | 2009-07-14 | Microsoft Corporation | Modification of codewords in dictionary used for efficient coding of digital media spectral data |
US8369406B2 (en) | 2005-07-18 | 2013-02-05 | Electronics And Telecommunications Research Institute | Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same |
US8289370B2 (en) * | 2005-07-20 | 2012-10-16 | Vidyo, Inc. | System and method for scalable and low-delay videoconferencing using scalable video coding |
MX2008000906A (es) | 2005-07-21 | 2008-03-18 | Thomson Licensing | Metodo y aparato para la prediccion ponderada para la codificacion escalable de video. |
KR100678911B1 (ko) * | 2005-07-21 | 2007-02-05 | 삼성전자주식회사 | 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치 |
US20070025444A1 (en) | 2005-07-28 | 2007-02-01 | Shigeyuki Okada | Coding Method |
KR100746011B1 (ko) * | 2005-08-24 | 2007-08-06 | 삼성전자주식회사 | 잔차 예측의 성능 개선 방법, 상기 방법을 이용한 비디오인코더 및 비디오 디코더 |
JP4490351B2 (ja) * | 2005-08-29 | 2010-06-23 | 日本電信電話株式会社 | 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体 |
KR100736086B1 (ko) | 2005-09-06 | 2007-07-06 | 삼성전자주식회사 | 엔트로피 코딩의 성능 향상 방법 및 장치, 상기 방법을이용한 비디오 코딩 방법 및 장치 |
JP4663792B2 (ja) | 2005-09-21 | 2011-04-06 | サムスン エレクトロニクス カンパニー リミテッド | 多視点動映像を符号化及び復号化する装置及び方法 |
US8340450B2 (en) * | 2005-09-23 | 2012-12-25 | Telefonaktiebolaget Lm Ericsson (Publ) | Successively refinable lattice vector quantization |
US7348903B2 (en) | 2005-09-26 | 2008-03-25 | Samsung Electronics Co., Ltd. | Method and apparatus for enhancing performance of entropy coding, and video coding method and apparatus using the entropy coding performance enhancing method |
US20070126853A1 (en) | 2005-10-03 | 2007-06-07 | Nokia Corporation | Variable length codes for scalable video coding |
KR100891662B1 (ko) * | 2005-10-05 | 2009-04-02 | 엘지전자 주식회사 | 비디오 신호 디코딩 및 인코딩 방법 |
US8180826B2 (en) * | 2005-10-31 | 2012-05-15 | Microsoft Corporation | Media sharing and authoring on the web |
FR2894421B1 (fr) * | 2005-12-07 | 2008-01-18 | Canon Kk | Procede et dispositif de decodage d'un flux video code suivant un codage hierarchique |
KR100772870B1 (ko) | 2005-12-12 | 2007-11-02 | 삼성전자주식회사 | Fgs 계층의 블록에 포함되는 계수의 특성에 따라 비디오신호를 부호화하고 복호화하는 방법 및 장치 |
JP4565392B2 (ja) | 2005-12-22 | 2010-10-20 | 日本ビクター株式会社 | 映像信号階層復号化装置、映像信号階層復号化方法、及び映像信号階層復号化プログラム |
GB0600141D0 (en) * | 2006-01-05 | 2006-02-15 | British Broadcasting Corp | Scalable coding of video signals |
CN101401440A (zh) | 2006-01-09 | 2009-04-01 | 诺基亚公司 | 可伸缩视频编码中的差错恢复模式判决 |
ZA200805337B (en) | 2006-01-09 | 2009-11-25 | Thomson Licensing | Method and apparatus for providing reduced resolution update mode for multiview video coding |
EP1977608B1 (en) | 2006-01-09 | 2020-01-01 | LG Electronics, Inc. | Inter-layer prediction method for video signal |
US20070201550A1 (en) * | 2006-01-09 | 2007-08-30 | Nokia Corporation | Method and apparatus for entropy coding in fine granularity scalable video coding |
US8619865B2 (en) | 2006-02-16 | 2013-12-31 | Vidyo, Inc. | System and method for thinning of scalable video coding bit-streams |
US8693538B2 (en) | 2006-03-03 | 2014-04-08 | Vidyo, Inc. | System and method for providing error resilience, random access and rate control in scalable video communications |
US8340179B2 (en) * | 2006-03-21 | 2012-12-25 | Canon Kabushiki Kaisha | Methods and devices for coding and decoding moving images, a telecommunication system comprising such a device and a program implementing such a method |
EP1859630B1 (en) | 2006-03-22 | 2014-10-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Coding scheme enabling precision-scalability |
US20070230567A1 (en) | 2006-03-28 | 2007-10-04 | Nokia Corporation | Slice groups and data partitioning in scalable video coding |
US8320450B2 (en) | 2006-03-29 | 2012-11-27 | Vidyo, Inc. | System and method for transcoding between scalable and non-scalable video codecs |
PL2008460T3 (pl) * | 2006-03-30 | 2017-10-31 | Lg Electronics Inc | Sposób i urządzenie do dekodowania/kodowania sygnału wideo |
US8275037B2 (en) * | 2006-05-05 | 2012-09-25 | Thomson Licensing | Simplified inter-layer motion prediction for scalable video coding |
WO2007136094A1 (ja) | 2006-05-24 | 2007-11-29 | Panasonic Corporation | 動画像復号装置 |
US7773672B2 (en) * | 2006-05-30 | 2010-08-10 | Freescale Semiconductor, Inc. | Scalable rate control system for a video encoder |
CN101491107B (zh) * | 2006-07-07 | 2012-07-18 | 艾利森电话股份有限公司 | 一种对图像元素组进行解码的方法及其相关的编码器、解码器 |
WO2008004940A1 (en) * | 2006-07-07 | 2008-01-10 | Telefonaktiebolaget Lm Ericsson (Publ) | Video data management |
US8059714B2 (en) * | 2006-07-10 | 2011-11-15 | Sharp Laboratories Of America, Inc. | Methods and systems for residual layer scaling |
WO2008007792A1 (en) | 2006-07-10 | 2008-01-17 | Sharp Kabushiki Kaisha | Methods and systems for combining layers in a multi-layer bitstream |
US7885471B2 (en) | 2006-07-10 | 2011-02-08 | Sharp Laboratories Of America, Inc. | Methods and systems for maintenance and use of coded block pattern information |
US8422555B2 (en) * | 2006-07-11 | 2013-04-16 | Nokia Corporation | Scalable video coding |
JP5021739B2 (ja) | 2006-07-12 | 2012-09-12 | エルジー エレクトロニクス インコーポレイティド | 信号処理方法及び装置 |
US8155454B2 (en) | 2006-07-20 | 2012-04-10 | Qualcomm Incorporated | Method and apparatus for encoder assisted post-processing |
US8253752B2 (en) | 2006-07-20 | 2012-08-28 | Qualcomm Incorporated | Method and apparatus for encoder assisted pre-processing |
US9001899B2 (en) | 2006-09-15 | 2015-04-07 | Freescale Semiconductor, Inc. | Video information processing system with selective chroma deblock filtering |
US8942292B2 (en) | 2006-10-13 | 2015-01-27 | Qualcomm Incorporated | Efficient significant coefficients coding in scalable video codecs |
US9014280B2 (en) * | 2006-10-13 | 2015-04-21 | Qualcomm Incorporated | Video coding with adaptive filtering for motion compensated prediction |
JP2008099045A (ja) | 2006-10-13 | 2008-04-24 | Nippon Telegr & Teleph Corp <Ntt> | スケーラブル符号化方法,復号方法,これらの装置,およびこれらのプログラム並びにその記録媒体 |
EP2077038B1 (en) | 2006-10-18 | 2013-01-30 | Apple Inc. | Scalable video coding with filtering of lower layers |
US20080095228A1 (en) | 2006-10-20 | 2008-04-24 | Nokia Corporation | System and method for providing picture output indications in video coding |
WO2008051755A2 (en) * | 2006-10-20 | 2008-05-02 | Motorola, Inc. | Method and apparatus for intra-frame spatial scalable video coding |
US20080095235A1 (en) * | 2006-10-20 | 2008-04-24 | Motorola, Inc. | Method and apparatus for intra-frame spatial scalable video coding |
US8774269B2 (en) | 2006-10-25 | 2014-07-08 | Franuhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Quality scalable coding with mapping different ranges of bit depths |
MY146880A (en) | 2006-11-09 | 2012-10-15 | Invenpro M Sdn Bhd | Method for drying a substrate |
US8054885B2 (en) * | 2006-11-09 | 2011-11-08 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal |
US7545293B2 (en) * | 2006-11-14 | 2009-06-09 | Qualcomm Incorporated | Memory efficient coding of variable length codes |
US7573407B2 (en) * | 2006-11-14 | 2009-08-11 | Qualcomm Incorporated | Memory efficient adaptive block coding |
WO2008061211A2 (en) | 2006-11-15 | 2008-05-22 | Qualcomm Incorporated | Systems and methods for applications using channel switch frames |
US9445128B2 (en) | 2006-12-08 | 2016-09-13 | Freescale Semiconductor, Inc. | System and method of determining deblocking control flag of scalable video system for indicating presentation of deblocking parameters for multiple layers |
US9961372B2 (en) * | 2006-12-08 | 2018-05-01 | Nxp Usa, Inc. | Adaptive disabling of deblock filtering based on a content characteristic of video information |
EP1933563A1 (en) * | 2006-12-14 | 2008-06-18 | Thomson Licensing | Method and apparatus for encoding and/or decoding bit depth scalable video data using adaptive enhancement layer residual prediction |
US8331448B2 (en) | 2006-12-22 | 2012-12-11 | Qualcomm Incorporated | Systems and methods for efficient spatial intra predictabilty determination (or assessment) |
CN101622877A (zh) | 2006-12-22 | 2010-01-06 | 高通股份有限公司 | 用于有效空间帧内可预测性确定(或评估)的系统和方法 |
WO2008083296A2 (en) | 2006-12-28 | 2008-07-10 | Vidyo, Inc. | System and method for in-loop deblocking in scalable video coding |
ES2535314T3 (es) | 2006-12-28 | 2015-05-08 | Nippon Telegraph And Telephone Corporation | Método de codificación de vídeo, método de decodificación, dispositivo de los mismos, programa de los mismos, y medio de almacenamiento que contiene el programa |
RU2426267C2 (ru) | 2007-01-08 | 2011-08-10 | Нокиа Корпорейшн | Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала |
US8335261B2 (en) * | 2007-01-08 | 2012-12-18 | Qualcomm Incorporated | Variable length coding techniques for coded block patterns |
US8199812B2 (en) * | 2007-01-09 | 2012-06-12 | Qualcomm Incorporated | Adaptive upsampling for scalable video coding |
KR20080066522A (ko) | 2007-01-11 | 2008-07-16 | 삼성전자주식회사 | 다시점 영상의 부호화, 복호화 방법 및 장치 |
US8126062B2 (en) | 2007-01-16 | 2012-02-28 | Cisco Technology, Inc. | Per multi-block partition breakpoint determining for hybrid variable length coding |
US20080170611A1 (en) | 2007-01-17 | 2008-07-17 | Srikrishna Ramaswamy | Configurable functional multi-processing architecture for video processing |
KR101341111B1 (ko) * | 2007-01-18 | 2013-12-13 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 화질 스케일러블 비디오 데이터 스트림 |
US20080205508A1 (en) | 2007-02-22 | 2008-08-28 | Streaming Networks (Pvt.) Ltd. | Method and apparatus for low complexity video encoding and decoding |
WO2008111005A1 (en) * | 2007-03-15 | 2008-09-18 | Nokia Corporation | System and method for providing improved residual prediction for spatial scalability in video coding |
US8204129B2 (en) | 2007-03-27 | 2012-06-19 | Freescale Semiconductor, Inc. | Simplified deblock filtering for reduced memory access and computational complexity |
US8488677B2 (en) | 2007-04-25 | 2013-07-16 | Lg Electronics Inc. | Method and an apparatus for decoding/encoding a video signal |
KR20080107965A (ko) * | 2007-06-08 | 2008-12-11 | 삼성전자주식회사 | 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치 |
CN101690231A (zh) | 2007-06-28 | 2010-03-31 | 汤姆森特许公司 | 多视图编码视频的单环解码 |
WO2009003499A1 (en) * | 2007-06-29 | 2009-01-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scalable video coding supporting pixel value refinement scalability |
US8265144B2 (en) | 2007-06-30 | 2012-09-11 | Microsoft Corporation | Innovations in video decoder implementations |
WO2009011492A1 (en) | 2007-07-13 | 2009-01-22 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image |
BRPI0815108A2 (pt) | 2007-08-15 | 2015-01-27 | Thomson Licensing | Métodos e aparelho para modo de avanço de movimento em vídeo codificado de multi-visitas com o uso de vetores de disparidade regional |
US8938009B2 (en) | 2007-10-12 | 2015-01-20 | Qualcomm Incorporated | Layered encoded bitstream structure |
KR101345287B1 (ko) * | 2007-10-12 | 2013-12-27 | 삼성전자주식회사 | 스케일러블 영상 부호화 방법 및 장치와 그 영상 복호화방법 및 장치 |
US8432968B2 (en) | 2007-10-15 | 2013-04-30 | Qualcomm Incorporated | Scalable video coding techniques for scalable bitdepths |
CN101415115B (zh) | 2007-10-15 | 2011-02-02 | 华为技术有限公司 | 基于运动跳跃模式的视频编解码方法及其编解码器 |
US7777654B2 (en) | 2007-10-16 | 2010-08-17 | Industrial Technology Research Institute | System and method for context-based adaptive binary arithematic encoding and decoding |
BRPI0817770B1 (pt) * | 2007-10-16 | 2020-11-10 | Interdigital Madison Patent Holdings | métodos e aparelhos para a remoção de artefatos para a escalabilidade de profundidade em bits |
KR100918862B1 (ko) | 2007-10-19 | 2009-09-28 | 광주과학기술원 | 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체 |
RU2461978C2 (ru) | 2007-10-25 | 2012-09-20 | Ниппон Телеграф Энд Телефон Корпорейшн | Способ масштабируемого кодирования и способ масштабируемого декодирования видеоинформации, устройства для них, программы для них и носитель записи, на котором записаны программы |
KR20090055803A (ko) | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
CN101198064A (zh) * | 2007-12-10 | 2008-06-11 | 武汉大学 | 一种分辨率分层技术中的运动矢量预测方法 |
US8175158B2 (en) | 2008-01-04 | 2012-05-08 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction parameter determination |
KR101560182B1 (ko) | 2008-01-07 | 2015-10-15 | 삼성전자주식회사 | 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치 |
US8126054B2 (en) * | 2008-01-09 | 2012-02-28 | Motorola Mobility, Inc. | Method and apparatus for highly scalable intraframe video coding |
BRPI0821500A2 (pt) | 2008-01-11 | 2015-06-16 | Thomson Licensing | Codificação de vídeo e profundidade |
EP2243297B1 (en) * | 2008-02-05 | 2017-03-08 | Thomson Licensing | Methods and apparatus for implicit block segmentation in video encoding and decoding |
US8861598B2 (en) * | 2008-03-19 | 2014-10-14 | Cisco Technology, Inc. | Video compression using search techniques of long-term reference memory |
PL2835976T3 (pl) * | 2008-04-16 | 2017-04-28 | Ge Video Compression, Llc | Skalowalność głębi bitowej |
WO2009131688A2 (en) | 2008-04-25 | 2009-10-29 | Thomson Licensing | Inter-view skip modes with depth |
WO2009131703A2 (en) | 2008-04-25 | 2009-10-29 | Thomson Licensing | Coding of depth signal |
CA2727569C (en) * | 2008-06-09 | 2017-09-26 | Vidyo, Inc. | Improved view layout management in scalable video and audio communication systems |
KR101663819B1 (ko) | 2008-08-20 | 2016-10-10 | 톰슨 라이센싱 | 정제된 깊이 맵 |
US8660176B2 (en) | 2008-09-26 | 2014-02-25 | Qualcomm Incorporated | Resolving geometric relationships among video data units |
US8724697B2 (en) | 2008-09-26 | 2014-05-13 | Qualcomm Incorporated | Locating motion vectors for video data units |
US8634457B2 (en) | 2008-09-26 | 2014-01-21 | Qualcomm Incorporated | Determining availability of video data units |
US8634456B2 (en) * | 2008-10-03 | 2014-01-21 | Qualcomm Incorporated | Video coding with large macroblocks |
WO2010043773A1 (en) | 2008-10-17 | 2010-04-22 | Nokia Corporation | Sharing of motion vector in 3d video coding |
EP2348733A4 (en) | 2008-10-27 | 2012-09-12 | Lg Electronics Inc | METHOD AND APPARATUS FOR THE SYNTHESIS OF VIRTUAL VISUALIZATION IMAGES |
KR101590511B1 (ko) | 2009-01-23 | 2016-02-02 | 에스케이텔레콤 주식회사 | 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법 |
WO2010090749A1 (en) | 2009-02-06 | 2010-08-12 | Thomson Licensing | Methods and apparatus for implicit and semi-implicit intra mode signaling for video encoders and decoders |
TWI468020B (zh) * | 2009-02-19 | 2015-01-01 | Sony Corp | Image processing apparatus and method |
KR20100095992A (ko) * | 2009-02-23 | 2010-09-01 | 한국과학기술원 | 비디오 부호화에서의 분할 블록 부호화 방법, 비디오 복호화에서의 분할 블록 복호화 방법 및 이를 구현하는 기록매체 |
CN102804785A (zh) * | 2009-04-13 | 2012-11-28 | 瑞尔D股份有限公司 | 编码、解码和发布增强分辨率的立体视频 |
WO2012044487A1 (en) * | 2010-10-01 | 2012-04-05 | Dolby Laboratories Licensing Corporation | Optimized filter selection for reference picture processing |
US8780999B2 (en) * | 2009-06-12 | 2014-07-15 | Qualcomm Incorporated | Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems |
US8411746B2 (en) | 2009-06-12 | 2013-04-02 | Qualcomm Incorporated | Multiview video coding over MPEG-2 systems |
EP2265026A1 (en) * | 2009-06-16 | 2010-12-22 | Canon Kabushiki Kaisha | Method and device for deblocking filtering of SVC type video streams during decoding |
US20100329361A1 (en) | 2009-06-30 | 2010-12-30 | Samsung Electronics Co., Ltd. | Apparatus and method for in-loop filtering of image data and apparatus for encoding/decoding image data using the same |
US8665964B2 (en) | 2009-06-30 | 2014-03-04 | Qualcomm Incorporated | Video coding based on first order prediction and pre-defined second order prediction mode |
WO2011005624A1 (en) | 2009-07-04 | 2011-01-13 | Dolby Laboratories Licensing Corporation | Encoding and decoding architectures for format compatible 3d video delivery |
JP5684823B2 (ja) * | 2009-11-06 | 2015-03-18 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | ハイブリッド映像符号化 |
CN102656885B (zh) * | 2009-12-14 | 2016-01-27 | 汤姆森特许公司 | 合并编码比特流 |
EP2529184A4 (en) | 2010-01-29 | 2016-03-09 | Nokia Technologies Oy | SYSTEMS, METHODS AND APPARATUSES FOR DELIVERING CONTEXT-BASED NAVIGATION SERVICES |
US20110194613A1 (en) | 2010-02-11 | 2011-08-11 | Qualcomm Incorporated | Video coding with large macroblocks |
US9973768B2 (en) | 2010-03-16 | 2018-05-15 | Texas Instruments Incorporated | CABAC decoder with decoupled arithmetic decoding and inverse binarization |
US8410959B2 (en) | 2010-04-09 | 2013-04-02 | Qualcomm, Incorporated | Variable length codes for coding of video data |
EP2375747B1 (en) * | 2010-04-12 | 2019-03-13 | Sun Patent Trust | Filter positioning and selection |
CN113556563B (zh) | 2010-04-13 | 2024-08-20 | Ge视频压缩有限责任公司 | 显著性图和变换系数块的编码 |
US9793921B2 (en) | 2010-05-12 | 2017-10-17 | Thomson Licensing Dtv | Methods and apparatus for unified significance map coding |
US9510009B2 (en) * | 2010-05-20 | 2016-11-29 | Thomson Licensing | Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding |
US20110296009A1 (en) | 2010-05-27 | 2011-12-01 | Victor Baranov | System and method for wavelets-based adaptive mobile advertising fraud detection |
US8930562B2 (en) | 2010-07-20 | 2015-01-06 | Qualcomm Incorporated | Arranging sub-track fragments for streaming video data |
KR20120012385A (ko) * | 2010-07-31 | 2012-02-09 | 오수미 | 인트라 예측 부호화 장치 |
GB2483294B (en) | 2010-09-03 | 2013-01-02 | Canon Kk | Method and device for motion estimation of video data coded according to a scalable coding structure |
JP5703781B2 (ja) | 2010-09-03 | 2015-04-22 | ソニー株式会社 | 画像処理装置および方法 |
US8780991B2 (en) | 2010-09-14 | 2014-07-15 | Texas Instruments Incorporated | Motion estimation in enhancement layers in video encoding |
US20120075436A1 (en) | 2010-09-24 | 2012-03-29 | Qualcomm Incorporated | Coding stereo video data |
CA2811660C (en) * | 2010-10-01 | 2016-08-16 | Research In Motion Limited | Methods and devices for parallel encoding and decoding using a bitstream structured for reduced delay |
US8923395B2 (en) | 2010-10-01 | 2014-12-30 | Qualcomm Incorporated | Video coding using intra-prediction |
US9532059B2 (en) * | 2010-10-05 | 2016-12-27 | Google Technology Holdings LLC | Method and apparatus for spatial scalability for video coding |
US20120082235A1 (en) * | 2010-10-05 | 2012-04-05 | General Instrument Corporation | Coding and decoding utilizing context model selection with adaptive scan pattern |
US8861617B2 (en) | 2010-10-05 | 2014-10-14 | Mediatek Inc | Method and apparatus of region-based adaptive loop filtering |
US9525884B2 (en) | 2010-11-02 | 2016-12-20 | Hfi Innovation Inc. | Method and apparatus of slice boundary filtering for high efficiency video coding |
CN106851320B (zh) | 2010-11-04 | 2020-06-02 | Ge视频压缩有限责任公司 | 数字存储介质、解码比特流的方法 |
US20120114036A1 (en) | 2010-11-10 | 2012-05-10 | Hong Kong Applied Science and Technology Research Institute Company Limited | Method and Apparatus for Multiview Video Coding |
US9497472B2 (en) | 2010-11-16 | 2016-11-15 | Qualcomm Incorporated | Parallel context calculation in video coding |
US9042440B2 (en) | 2010-12-03 | 2015-05-26 | Qualcomm Incorporated | Coding the position of a last significant coefficient within a video block based on a scanning order for the block in video coding |
US20120163448A1 (en) | 2010-12-22 | 2012-06-28 | Qualcomm Incorporated | Coding the position of a last significant coefficient of a video block in video coding |
US20120163456A1 (en) | 2010-12-22 | 2012-06-28 | Qualcomm Incorporated | Using a most probable scanning order to efficiently code scanning order information for a video block in video coding |
CA2822929C (en) * | 2011-01-04 | 2016-07-12 | Research In Motion Limited | Coding of residual data in predictive compression |
CA2822925C (en) * | 2011-01-04 | 2017-09-19 | Research In Motion Limited | Coding of residual data in predictive compression |
US9635382B2 (en) * | 2011-01-07 | 2017-04-25 | Texas Instruments Incorporated | Method, system and computer program product for determining a motion vector |
GB2487197B (en) * | 2011-01-11 | 2015-06-17 | Canon Kk | Video encoding and decoding with improved error resilience |
WO2012096164A1 (ja) | 2011-01-12 | 2012-07-19 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置 |
US8553769B2 (en) * | 2011-01-19 | 2013-10-08 | Blackberry Limited | Method and device for improved multi-layer data compression |
JP2012149982A (ja) | 2011-01-19 | 2012-08-09 | Fujifilm Corp | 放射線画像撮影用格子ユニット及び放射線画像撮影システム、並びに格子体の製造方法 |
JP2012169762A (ja) | 2011-02-10 | 2012-09-06 | Sony Corp | 画像符号化装置と画像復号化装置およびその方法とプログラム |
US9001883B2 (en) | 2011-02-16 | 2015-04-07 | Mediatek Inc | Method and apparatus for slice common information sharing |
US9288501B2 (en) | 2011-03-08 | 2016-03-15 | Qualcomm Incorporated | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
US9338449B2 (en) | 2011-03-08 | 2016-05-10 | Qualcomm Incorporated | Harmonized scan order for coding transform coefficients in video coding |
US20120236115A1 (en) * | 2011-03-14 | 2012-09-20 | Qualcomm Incorporated | Post-filtering in full resolution frame-compatible stereoscopic video coding |
US9071848B2 (en) | 2011-03-15 | 2015-06-30 | Broadcom Corporation | Sub-band video coding architecture for packet based transmission |
US9247249B2 (en) | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
CN103597827B (zh) * | 2011-06-10 | 2018-08-07 | 寰发股份有限公司 | 可伸缩视频编码方法及其装置 |
RU2583040C2 (ru) | 2011-08-30 | 2016-05-10 | Нокиа Текнолоджиз Ой | Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов |
WO2013068547A2 (en) | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient multi-view coding using depth-map estimate and update |
WO2013072484A1 (en) | 2011-11-18 | 2013-05-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-view coding with efficient residual handling |
JP2013110518A (ja) * | 2011-11-18 | 2013-06-06 | Canon Inc | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
WO2013145021A1 (ja) * | 2012-03-30 | 2013-10-03 | 株式会社日立製作所 | 画像復号方法及び画像復号装置 |
EP2853096A4 (en) * | 2012-05-21 | 2016-07-06 | Mediatek Singapore Pte Ltd | METHOD AND APPARATUS FOR FILTERING BETWEEN LAYERS FOR SCALABLE VIDEO CODING |
US9906786B2 (en) | 2012-09-07 | 2018-02-27 | Qualcomm Incorporated | Weighted prediction mode for scalable video coding |
KR20150038249A (ko) * | 2012-09-28 | 2015-04-08 | 인텔 코포레이션 | 계층간 화소 샘플 예측 |
JP6763664B2 (ja) * | 2012-10-01 | 2020-09-30 | ジーイー ビデオ コンプレッション エルエルシー | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
-
2013
- 2013-10-01 JP JP2015534997A patent/JP6763664B2/ja active Active
- 2013-10-01 KR KR1020207036488A patent/KR102367210B1/ko active IP Right Grant
- 2013-10-01 KR KR1020157011529A patent/KR101835360B1/ko active IP Right Grant
- 2013-10-01 KR KR1020247006906A patent/KR20240034863A/ko active Application Filing
- 2013-10-01 JP JP2015534996A patent/JP6636802B2/ja active Active
- 2013-10-01 KR KR1020157011364A patent/KR20150070205A/ko active Application Filing
- 2013-10-01 WO PCT/EP2013/070492 patent/WO2014053519A1/en active Application Filing
- 2013-10-01 EP EP13770936.6A patent/EP2904783B1/en active Active
- 2013-10-01 KR KR1020247012080A patent/KR20240065272A/ko active Search and Examination
- 2013-10-01 EP EP13773692.2A patent/EP2904786B1/en active Active
- 2013-10-01 WO PCT/EP2013/070490 patent/WO2014053517A1/en active Application Filing
- 2013-10-01 EP EP13773691.4A patent/EP2904785B1/en active Active
- 2013-10-01 KR KR1020227041493A patent/KR102643661B1/ko active IP Right Grant
- 2013-10-01 KR KR1020217002851A patent/KR102379609B1/ko active IP Right Grant
- 2013-10-01 KR KR1020197039023A patent/KR102257542B1/ko active IP Right Grant
- 2013-10-01 KR KR1020157011336A patent/KR102194749B1/ko active IP Right Grant
- 2013-10-01 EP EP13776752.1A patent/EP2904803A1/en not_active Ceased
- 2013-10-01 CN CN201380062694.5A patent/CN105009577B/zh active Active
- 2013-10-01 KR KR1020227009728A patent/KR102503114B1/ko active IP Right Grant
- 2013-10-01 JP JP2015534998A patent/JP6788346B2/ja active Active
- 2013-10-01 KR KR1020217015435A patent/KR102447521B1/ko active IP Right Grant
- 2013-10-01 WO PCT/EP2013/070491 patent/WO2014053518A1/en active Application Filing
- 2013-10-01 WO PCT/EP2013/070484 patent/WO2014053512A1/en active Application Filing
- 2013-10-01 WO PCT/EP2013/070486 patent/WO2014053514A1/en active Application Filing
- 2013-10-01 KR KR1020187005900A patent/KR102063306B1/ko active IP Right Grant
- 2013-10-01 KR KR1020197008139A patent/KR102095504B1/ko active IP Right Grant
- 2013-10-01 KR KR1020187000276A patent/KR102005915B1/ko active IP Right Grant
- 2013-10-01 KR KR1020197021988A patent/KR20190091377A/ko not_active IP Right Cessation
- 2013-10-01 KR KR1020227032879A patent/KR102703618B1/ko active IP Right Grant
- 2013-10-01 EP EP19187886.7A patent/EP3618436A1/en active Pending
- 2013-10-01 KR KR1020227005755A patent/KR102534713B1/ko active IP Right Grant
- 2013-10-01 JP JP2015535000A patent/JP6301933B2/ja active Active
- 2013-10-01 KR KR1020207008700A patent/KR102187179B1/ko active IP Right Grant
- 2013-10-01 CN CN201380062705.XA patent/CN105052134B/zh active Active
- 2013-10-01 KR KR1020247016757A patent/KR20240093824A/ko unknown
- 2013-10-01 KR KR1020237016616A patent/KR102668857B1/ko active IP Right Grant
- 2013-10-01 KR KR1020157011530A patent/KR102211196B1/ko active IP Right Grant
- 2013-10-01 KR KR1020207034470A patent/KR102472484B1/ko active IP Right Grant
- 2013-10-01 EP EP20211111.8A patent/EP3846468A1/en active Pending
- 2013-10-01 EP EP19171218.1A patent/EP3588947A1/en active Pending
- 2013-10-01 CN CN201380062699.8A patent/CN105052133B/zh active Active
- 2013-10-01 KR KR1020247029537A patent/KR20240135883A/ko active Search and Examination
- 2013-10-01 EP EP18210240.0A patent/EP3474546B1/en active Active
- 2013-10-01 EP EP13773689.8A patent/EP2904801B8/en active Active
- 2013-10-01 KR KR1020157011347A patent/KR101835358B1/ko active IP Right Grant
- 2013-10-01 CN CN201380062675.2A patent/CN105052132B/zh active Active
- 2013-10-01 KR KR1020217015529A patent/KR102445274B1/ko active IP Right Grant
- 2013-10-01 EP EP18177341.7A patent/EP3429203A3/en active Pending
- 2013-10-01 CN CN201910341031.6A patent/CN110267035B/zh active Active
- 2013-10-01 KR KR1020187005899A patent/KR101962442B1/ko active IP Right Grant
- 2013-10-01 EP EP22152073.7A patent/EP4054188A1/en active Pending
- 2013-10-01 KR KR1020227031961A patent/KR102657912B1/ko active IP Right Grant
- 2013-10-01 KR KR1020237005915A patent/KR20230031984A/ko not_active Application Discontinuation
- 2013-10-01 CN CN201911194632.5A patent/CN110996100B/zh active Active
- 2013-10-01 JP JP2015534999A patent/JP6301932B2/ja active Active
- 2013-10-01 CN CN201810455061.5A patent/CN108401157B/zh active Active
- 2013-10-01 CN CN201380062701.1A patent/CN104904207B/zh active Active
-
2015
- 2015-03-24 US US14/666,600 patent/US10477210B2/en active Active
- 2015-03-24 US US14/666,634 patent/US10212419B2/en active Active
- 2015-03-24 US US14/666,662 patent/US10218973B2/en active Active
- 2015-03-24 US US14/666,658 patent/US10212420B2/en active Active
- 2015-03-31 US US14/673,908 patent/US10694182B2/en active Active
-
2017
- 2017-10-13 JP JP2017198961A patent/JP6760911B2/ja active Active
- 2017-12-15 JP JP2017240170A patent/JP6693940B2/ja active Active
-
2018
- 2018-06-27 JP JP2018122462A patent/JP7030025B2/ja active Active
- 2018-09-25 US US16/140,796 patent/US10687059B2/en active Active
- 2018-09-26 US US16/142,195 patent/US10694183B2/en active Active
- 2018-10-12 JP JP2018193886A patent/JP6912438B2/ja active Active
- 2018-10-12 JP JP2018193252A patent/JP6912437B2/ja active Active
- 2018-11-05 US US16/180,292 patent/US10681348B2/en active Active
-
2019
- 2019-07-02 US US16/459,940 patent/US11134255B2/en active Active
-
2020
- 2020-04-16 US US16/850,588 patent/US12010334B2/en active Active
- 2020-04-29 US US16/861,540 patent/US11575921B2/en active Active
- 2020-05-05 US US16/867,181 patent/US11589062B2/en active Active
- 2020-05-11 US US16/871,866 patent/US11477467B2/en active Active
- 2020-09-03 JP JP2020148098A patent/JP2020205618A/ja active Pending
-
2021
- 2021-07-08 JP JP2021113490A patent/JP7323577B2/ja active Active
- 2021-07-08 JP JP2021113786A patent/JP7323578B2/ja active Active
- 2021-07-30 JP JP2021125888A patent/JP7284221B2/ja active Active
- 2021-08-25 US US17/412,171 patent/US20210409739A1/en active Pending
-
2022
- 2022-06-23 US US17/847,673 patent/US20220400271A1/en active Pending
-
2023
- 2023-02-03 US US18/164,548 patent/US20230262241A1/en active Pending
- 2023-02-06 US US18/165,318 patent/US20230262242A1/en active Pending
- 2023-05-18 JP JP2023081951A patent/JP2023116468A/ja active Pending
- 2023-07-27 JP JP2023122201A patent/JP2023159095A/ja active Pending
- 2023-07-27 JP JP2023122307A patent/JP2023159098A/ja active Pending
- 2023-09-11 JP JP2023146612A patent/JP2023164991A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007028034A (ja) * | 2005-07-14 | 2007-02-01 | Nippon Telegr & Teleph Corp <Ntt> | スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体 |
JP2009523395A (ja) * | 2006-01-11 | 2009-06-18 | クゥアルコム・インコーポレイテッド | 精細粒度空間スケーラビリティによるビデオ符号化 |
JP2009532979A (ja) * | 2006-04-06 | 2009-09-10 | サムスン エレクトロニクス カンパニー リミテッド | 加重平均合を用いてfgs階層をエンコーディングおよびデコーディングする方法および装置 |
JP2015167267A (ja) * | 2012-07-03 | 2015-09-24 | シャープ株式会社 | 画像復号装置、および画像符号化装置 |
Non-Patent Citations (2)
Title |
---|
JIE DONG ET AL.: "Description of scalable video coding technology proposal by InterDigital Communications", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-K0034_r1, JPN6019000092, October 2012 (2012-10-01), pages 1 - 30, ISSN: 0004103724 * |
KEN MCCANN ET AL.: "Description of high efficiency scalable video coding technology proposal by Samsung and Vidyo", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-K0044, JPN6019000093, October 2012 (2012-10-01), pages 1 - 31, ISSN: 0004103725 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6301933B2 (ja) | 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化 | |
JP2018082447A5 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190411 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6693940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |