JP5732125B2 - Video decoder that uses low resolution data to reduce power at low resolution - Google Patents

Video decoder that uses low resolution data to reduce power at low resolution Download PDF

Info

Publication number
JP5732125B2
JP5732125B2 JP2013501481A JP2013501481A JP5732125B2 JP 5732125 B2 JP5732125 B2 JP 5732125B2 JP 2013501481 A JP2013501481 A JP 2013501481A JP 2013501481 A JP2013501481 A JP 2013501481A JP 5732125 B2 JP5732125 B2 JP 5732125B2
Authority
JP
Japan
Prior art keywords
data
low resolution
resolution
low
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013501481A
Other languages
Japanese (ja)
Other versions
JP2013531401A (en
Inventor
マ,ザン
クリストファー エー. シーガル
クリストファー エー. シーガル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/838,335 external-priority patent/US20120014445A1/en
Priority claimed from US12/838,381 external-priority patent/US8767828B2/en
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2013531401A publication Critical patent/JP2013531401A/en
Application granted granted Critical
Publication of JP5732125B2 publication Critical patent/JP5732125B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • H04N19/428Recompression, e.g. by spatial or temporal decimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Description

本発明は、電力を削減するビデオデコーダに関する。   The present invention relates to a video decoder for reducing power.

H.264/AVCといった既存の映像符号化規格は、一般的に、計算複雑性の増大という代償により、相対的に符号化効率を高めている。計算複雑性が相対的に増大することにより電力消費が著しくなるが、このことが、携帯電話のような電力の少ないデバイスにとっては特に問題になる。   H. Existing video coding standards such as H.264 / AVC generally increase coding efficiency relatively at the cost of increased computational complexity. Power consumption is significant due to the relatively increased computational complexity, which is particularly problematic for low power devices such as mobile phones.

一般的に、電力削減は、2つの主要な技術を用いて実現される。電力削減のための1つ目の技術は機会主義的(opportunistic)なものであり、映像符号化システムは、デコードが容易なシーケンスを処理している時にはその処理能力を低下させる。この処理能力の低下は、周波数スケーリング、電圧スケーリング、オンチップデータプリフェッチング(キャッシング)、および/または、系統的なアイドリング方法によって実現できる。多くの場合、結果として、デコーダの処理は規格に準拠したものとなっている。電力削減のための2つ目の技術は、デコード処理中にフレームまたは画像データを破棄するものである。   In general, power reduction is achieved using two main technologies. The first technique for reducing power is opportunistic, and video coding systems reduce their processing power when processing sequences that are easy to decode. This reduction in processing power can be achieved by frequency scaling, voltage scaling, on-chip data prefetching (caching), and / or systematic idling methods. In many cases, as a result, the processing of the decoder is compliant with the standard. The second technique for reducing power is to discard the frame or image data during the decoding process.

一般的に、この技術のほうがより一層電力を節約できるものの、画質の低下が目に見えてしまうという代償を払うことになる。さらに、結果として、デコーダの処理は、規格に準拠しなくなってしまう。   In general, this technique saves even more power, but at the cost of visibly degrading image quality. Furthermore, as a result, the processing of the decoder is not compliant with the standard.

本発明の一実施形態が開示しているのは、映像をデコードするビデオデコーダであって、(a)上記映像を規定するビットストリームをデコードするエントロピー復号部と、(b)デコードされた上記ビットストリームを変換する逆変換部と、(c)デコードされた上記ビットストリームに基づいて、イントラ予測および動き補償予測を選択的に実行する予測部と、(d)上記動き補償予測に使用される圧縮画像データを含むバッファと、を備え、上記圧縮画像データは、低解像度データと高解像度データとを含んでおり、上記予測部は、上記低解像度データに基づいて、上記高解像度データを用いずに上記ビットストリームからデコードされる高解像度の予測情報を用いて、低解像度データセットと高解像度データセットとの両方を予測するビデオデコーダである。   An embodiment of the present invention discloses a video decoder that decodes video, (a) an entropy decoding unit that decodes the bit stream that defines the video, and (b) the decoded bit. An inverse transform unit that transforms the stream; (c) a prediction unit that selectively executes intra prediction and motion compensated prediction based on the decoded bit stream; and (d) a compression used for the motion compensated prediction. A buffer including image data, wherein the compressed image data includes low resolution data and high resolution data, and the prediction unit uses the high resolution data based on the low resolution data. Predict both low and high resolution data sets using high resolution prediction information decoded from the above bitstream A video decoder.

本発明の別の一実施形態が開示しているのは、映像をデコードするビデオデコーダであって、(a)上記映像を規定するビットストリームをデコードするエントロピー復号部と、(b)デコードされた上記ビットストリームを変換する逆変換部と、(c)デコードされた上記ビットストリームに対して、イントラ予測および動き補償予測を選択的に実行する予測部と、(d)上記動き補償予測に使用される圧縮画像データを含むバッファと、を備え、(e)上記圧縮画像データは、低解像度データセットと高解像度データセットとを含んでおり、上記低解像度データセットは上記高解像度データセットとは独立しており、上記低解像度データセットは低解像度モードにおけるデコードに使用され、上記低解像度データセットおよび上記高解像度データセットは、両方とも、高解像度モードでのデコード時に使用されるビデオデコーダである。   Another embodiment of the present invention discloses a video decoder for decoding video, wherein (a) an entropy decoding unit that decodes the bit stream that defines the video, and (b) decoded An inverse transform unit that transforms the bitstream; (c) a prediction unit that selectively executes intra prediction and motion compensated prediction on the decoded bitstream; and (d) used for the motion compensated prediction. (E) the compressed image data includes a low-resolution data set and a high-resolution data set, and the low-resolution data set is independent of the high-resolution data set. The low-resolution data set is used for decoding in the low-resolution mode, and the low-resolution data set and the high-resolution data set are used. Data sets are both a video decoder to be used when decoding in the high resolution mode.

本発明の上述およびその他の目的、特徴および利点は、添付の図面を参酌しつつ以降の発明の詳細な説明を考慮すれば、容易に理解できるであろう。   The above and other objects, features and advantages of the present invention will be readily understood in view of the following detailed description of the invention with reference to the accompanying drawings.

図1は、デコーダを示している。FIG. 1 shows a decoder. 図2は、低解像度における予測を示している。FIG. 2 shows the prediction at low resolution. 図3Aは、デコーダ、および、デコーダにおけるデータの流れを示している。FIG. 3A shows a decoder and a data flow in the decoder. 図3Bは、デコーダ、および、デコーダにおけるデータの流れを示している。FIG. 3B shows the decoder and the data flow in the decoder. 図4は、フレームバッファのサンプル構造を示している。FIG. 4 shows a sample structure of the frame buffer. 図5は、デコーダ内のフレームバッファの統合を示している。FIG. 5 shows the integration of the frame buffer in the decoder. 図6Aは、2つのブロックの代表画素値を示している。FIG. 6A shows representative pixel values of two blocks. 図6Bは、2つのブロックの代表画素値を示している。FIG. 6B shows representative pixel values of two blocks.

一般的にフレームデータの破棄に付随して得られる顕著な電力節約を、得られる画質に目に見える劣化があったり、規格に準拠しなかったりといったことなく可能にすることが望ましい。適切に実装されれば、符号化効率への影響が最小限のシステムを使用できる。画像の劣化および符号化効率のロスを最小限にしつつ、電力の節約を促進するために、システムは、低解像度データおよび高解像度データを択一的に処理するべきである。低解像度データおよび高解像度データの組み合わせは、フル解像度データになり得る。低解像度データの使用は、送信されるコンテンツの解像度よりもディスプレイの解像度が小さい場合に特に適している。   It is desirable to enable significant power savings typically associated with discarding frame data without any visible degradation in image quality or non-compliance with standards. If implemented properly, a system with minimal impact on coding efficiency can be used. In order to promote power savings while minimizing image degradation and loss of coding efficiency, the system should alternatively process low and high resolution data. The combination of low resolution data and high resolution data can be full resolution data. The use of low resolution data is particularly suitable when the resolution of the display is smaller than the resolution of the content being transmitted.

電力は、より高解像度のデコーダを設計する際の1つの要素である。電力の使用に大きく関与しているもののひとつがメモリの帯域幅である。従来から、メモリの帯域幅は、解像度およびフレームレートとともに増加し、システムを設計する上でしばしば顕著なボトルネックおよびコスト要因になっている。電力の使用に大きく関与しているものの2つ目が高解像度画素の数である。高解像度画素の数は、直接的には、画像フレームの解像度により決定され、画素の処理量及び計算量を増大させる。各画素の処理に必要な電力量は、デコード処理の複雑さにより決定される。歴史的に、デコードの複雑さは、映像符号化規格が「改善」されるたびに増大してきた。   Power is one factor in designing higher resolution decoders. One of the major contributors to power usage is memory bandwidth. Traditionally, memory bandwidth has increased with resolution and frame rate, and has often become a significant bottleneck and cost factor in designing systems. The second thing that is greatly involved in the use of power is the number of high resolution pixels. The number of high resolution pixels is directly determined by the resolution of the image frame, increasing the amount of processing and computation of the pixels. The amount of power required for processing each pixel is determined by the complexity of the decoding process. Historically, decoding complexity has increased as video coding standards have been “improved”.

図1を参照すると、システムは、エントロピー復号部10、(逆量子化、IDCTを用いた逆変換のような)逆変換部20、イントラ予測部30、動き補償予測部40、加算器80、デブロッキングフィルタ50および電力適応ループフィルタ60を備え、バッファ70に関連するメモリ圧縮/伸張モジュールを備えている。ビデオシステムの様々なモジュールの配置および選択は、必要に応じて変更してもよい。一態様では、システムは、バッファの高解像度画素数、および、メモリ帯域幅の両方に関する電力要求を削減することが好ましい。ビデオコーダの設計にフレームバッファ圧縮技術を使用することでメモリ帯域幅は削減される。フレームバッファ圧縮技術の目的は、参照ピクチャのバッファ内のデータにアクセスするのに必要なメモリ帯域幅(および電力)を削減することにある。参照ピクチャのバッファ自体が元の画像データの圧縮版であるものとすると、多くの応用において、著しい符号化ロスを生じることなく参照フレームを圧縮できる。   Referring to FIG. 1, the system includes an entropy decoding unit 10, an inverse transform unit 20 (such as inverse transform using IDCT), an intra prediction unit 30, a motion compensation prediction unit 40, an adder 80, A blocking filter 50 and a power adaptive loop filter 60 are provided, and a memory compression / decompression module associated with the buffer 70 is provided. The arrangement and selection of the various modules of the video system may be varied as needed. In one aspect, the system preferably reduces power requirements for both the high resolution pixel count of the buffer and the memory bandwidth. Using frame buffer compression techniques in video coder design reduces memory bandwidth. The purpose of the frame buffer compression technique is to reduce the memory bandwidth (and power) required to access the data in the reference picture buffer. Assuming that the reference picture buffer itself is a compressed version of the original image data, the reference frame can be compressed in many applications without significant coding loss.

高解像度画素数に対処するために、ビデオコーデックは、ドリフトのない低解像度処理モードをサポートすべきである。これは、デコーダが低解像度とフル解像度との間で処理ポイントを切り替え、規格に準拠してもよいことを意味している。これは、フル解像度の予測情報を用いるが低解像度の画像データのみを用いて、低解像度データおよび高解像度データの両方を予測することにより実現できる。さらに、これは、低解像度データのみを用いてブロック歪除去を決定するデブロッキング処理を用いて改善できる。デブロッキングは、低解像度データに適用できるが、必要に応じて、高解像度データにも適用できる。低解像度画素のデブロッキングは、高解像度画素には依存しない。低解像度のデブロッキングと高解像度のデブロッキングとは、順番に、および/または、並列的に、実行されてもよい。しかしながら、高解像度画素のデブロッキングは、低解像度画素に依存し得る。この方法では、低解像度の処理が高解像度の処理と独立しているので電力節約モードが有効になる一方、高解像度の処理が低解像度の処理に依存するため必要な時に画質を良好にできる。   In order to deal with the high resolution pixel count, the video codec should support a low resolution processing mode with no drift. This means that the decoder may switch between processing points between low resolution and full resolution and comply with the standard. This can be realized by predicting both low resolution data and high resolution data using full resolution prediction information but using only low resolution image data. Furthermore, this can be improved by using a deblocking process that determines block distortion removal using only low resolution data. Deblocking can be applied to low resolution data, but can also be applied to high resolution data as needed. Low resolution pixel deblocking does not depend on high resolution pixels. Low resolution deblocking and high resolution deblocking may be performed sequentially and / or in parallel. However, deblocking of high resolution pixels may depend on low resolution pixels. In this method, since the low resolution processing is independent of the high resolution processing, the power saving mode is effective. On the other hand, since the high resolution processing depends on the low resolution processing, the image quality can be improved when necessary.

図2を参照すると、低解像度モードの処理時に(S10)、デコーダは、低解像度予測および改良デブロッキングの特性(properties)を用いて、処理すべき画素数を大きく削減できる。これは、低解像度データのみを予測する(S12)ことで、実現できる。そして、低解像度データを予測した後に、低解像度画素(すなわち、画素位置)のみについて残差データを計算し、高解像度画素(すなわち、画素位置)については残差データを計算しない(S14)。残差データは、一般的に、ビットストリームの状態で伝送される。低解像度の画素値について計算された残差データは、フル解像度の残差データと同じ画素値を低解像度画素の位置において有している。主な違いは、残差データが、低解像度画素の位置において計算のみが必要のある点である。残差の計算に続き、低解像度の画素値を求めるために、低解像度の残差が、低解像度の予測に加えられる(S16)。そして、得られた信号はデブロックされる。電力消費を削減するために、デブロッキングは、低解像度の画素位置のみで実行する(S18)ことが望ましい。最後に、将来の予測のために、参照ピクチャのフレームバッファ内に結果が格納される。オプションとして、結果は、適応ループフィルタを用いて処理されてもよい。適応ループフィルタは、フル解像度データの適応ループフィルタに関するものであってもよいし、独立してシグナリングされてもよいし、省略されてもよい。   Referring to FIG. 2, when processing in the low resolution mode (S10), the decoder can greatly reduce the number of pixels to be processed using the low resolution prediction and improved deblocking properties. This can be realized by predicting only the low resolution data (S12). Then, after predicting low resolution data, residual data is calculated only for low resolution pixels (ie, pixel positions), and residual data is not calculated for high resolution pixels (ie, pixel positions) (S14). Residual data is generally transmitted in the form of a bit stream. The residual data calculated for the low resolution pixel value has the same pixel value as the full resolution residual data at the position of the low resolution pixel. The main difference is that the residual data only needs to be calculated at the position of the low resolution pixels. Following the calculation of the residual, the low resolution residual is added to the low resolution prediction to determine a low resolution pixel value (S16). The obtained signal is deblocked. In order to reduce power consumption, it is desirable to perform deblocking only at low-resolution pixel positions (S18). Finally, the result is stored in the frame buffer of the reference picture for future prediction. Optionally, the result may be processed using an adaptive loop filter. The adaptive loop filter may relate to an adaptive loop filter for full resolution data, may be signaled independently, or may be omitted.

低解像度モードで動作するシステムの典型的な図が図3Aおよび図3Bに示されている。システムは、同様に、フル解像度モードで動作するモードを備えていてもよい。図3Aおよび図3Bに示すように、エントロピー復号100は、フル解像度で実行されてもよい。一方、逆量子化・逆DCT(逆量子化 IDCT)200および予測(イントラ予測300、動き補償予測(MCP)400)は、低解像度で実行されることが望ましい。低解像度画素のデブロッキングがさらなる高解像度データに依存しないように、デブロッキング500は、段階的に実行されることが望ましい。最後に、メモリ圧縮を含むフレームバッファは、将来の予測のために使用される低解像度データを格納する。   A typical diagram of a system operating in the low resolution mode is shown in FIGS. 3A and 3B. The system may also have a mode that operates in full resolution mode. As shown in FIGS. 3A and 3B, entropy decoding 100 may be performed at full resolution. On the other hand, it is desirable that the inverse quantization / inverse DCT (inverse quantization IDCT) 200 and the prediction (intra prediction 300, motion compensated prediction (MCP) 400) are executed at a low resolution. Deblocking 500 is preferably performed in stages so that the deblocking of low resolution pixels does not depend on additional high resolution data. Finally, a frame buffer that includes memory compression stores low resolution data that is used for future predictions.

図3Aに示すエントロピー復号100によって、フル解像度画素の残差データ(101)がエントロピー復号される。残差101における影が付された画素は低解像度の位置を表している。一方、影が付されていない画素は、高解像度の位置を表している。逆量子化・逆DCT200は、残差101における低解像度画素データのみを逆変換し、逆量子化および逆DCT後の残差(residual-after-Dequant-and-IDCT)201を生成する。   The residual data (101) of the full resolution pixel is entropy decoded by the entropy decoding 100 shown in FIG. 3A. Pixels with shadows in the residual 101 represent low-resolution positions. On the other hand, pixels not shaded represent high-resolution positions. The inverse quantization / inverse DCT 200 inversely transforms only the low-resolution pixel data in the residual 101 to generate a residual-after-dequant-and-IDCT 201 after inverse quantization and inverse DCT.

イントラピクチャの場合、イントラ予測300によって、(陰影のある画素によって描かれた)低解像度の位置についてのみ予測情報301が生成される。加算器800は、逆量子化および逆DCT後の残差201の低解像度画素データを予測情報301内の低解像度画素データに加算することで、(陰影のある画素によって描かれた)低解像度の位置のみについて再構成データ801を生成する。   In the case of an intra picture, intra prediction 300 generates prediction information 301 only for low resolution positions (drawn by shaded pixels). The adder 800 adds the low-resolution pixel data of the residual 201 after inverse quantization and inverse DCT to the low-resolution pixel data in the prediction information 301, thereby reducing the low-resolution (drawn by the shaded pixels). Reconstruction data 801 is generated only for the position.

インターピクチャの場合、図3Bに示されているMCP400により、参照ピクチャの低解像度画素データ(参照ピクチャデータ702内の影が付された画素で描かれた)がメモリ700から読み出され、既に取り除かれた高解像度画素データが補間により生成される。例えば、補間401に示されているように、MCP400によって、補間により、隣接する画素群の低解像度画素データから高解像度画素データCが生成される。a)Cの上側および下側に位置する画素群の低解像度画素データの平均値、b)Cの左側および右側に位置する画素群の低解像度画素データの平均値、c)Cの上側、下側、左側および右側に位置する画素群の低解像度画素データの平均値の各平均値を補間として使用してもよい。   In the case of an inter picture, the MCP 400 shown in FIG. 3B reads out the low-resolution pixel data of the reference picture (drawn with the shaded pixels in the reference picture data 702) from the memory 700 and has already removed it. The high-resolution pixel data thus generated is generated by interpolation. For example, as indicated by the interpolation 401, the MCP 400 generates high resolution pixel data C from the low resolution pixel data of the adjacent pixel group by interpolation. a) Average value of low-resolution pixel data of pixel groups located above and below C, b) Average value of low-resolution pixel data of pixel groups located on the left and right sides of C, c) Above and below C The average values of the average values of the low-resolution pixel data of the pixel groups located on the left side, the left side, and the right side may be used as interpolation.

デブロッキング500は、段階的に実行される。デブロッキング500は、最初に、低解像度データをフィルタリングする(501)。次に、デブロッキング500は、高解像度データをフィルタリングする(502)。より具体的には、デブロッキング500は、次の方法により実行される。
ステップ1)(501)
デブロッキング500は、低解像度データと補間による高解像度データとを用いて、低解像度データに対してのみ適用される。
ステップ2)(502)
デブロッキング500は、低解像度データと補間による高解像度データとを用いて、高解像度データに対してのみ適用される。
Deblocking 500 is performed in stages. Deblocking 500 first filters the low resolution data (501). Next, the deblocking 500 filters the high resolution data (502). More specifically, the deblocking 500 is performed by the following method.
Step 1) (501)
Deblocking 500 is applied only to low resolution data using low resolution data and high resolution data by interpolation.
Step 2) (502)
Deblocking 500 is applied only to high resolution data using low resolution data and high resolution data by interpolation.

デブロッキング500の後のピクチャはメモリ700に格納される。以下は、デブロッキング500の後にメモリ700に格納され、MCP400のために読み出されたピクチャ(701、702、703)について説明する。デブロッキング500の後のピクチャ502はフル解像度のピクチャであるが、ピクチャ701と称してもよい。デブロッキング500の後のピクチャ701は、チェッカーボードのパターンで間引かれることで、低解像度の位置のみが残されてメモリ700に格納される。予測に使用されるときに、(702の影が付されていない画素で描かれた)間引かれた高解像度画素データは補間され、補間後のピクチャは、予測ピクチャを生成するために使用される。   The picture after deblocking 500 is stored in memory 700. The following describes the pictures (701, 702, 703) stored in the memory 700 after the deblocking 500 and read out for the MCP 400. The picture 502 after the deblocking 500 is a full resolution picture, but may be referred to as a picture 701. The picture 701 after the deblocking 500 is thinned out with a checkerboard pattern, so that only the low-resolution position is left and stored in the memory 700. When used for prediction, the thinned out high resolution pixel data (drawn with 702 unshaded pixels) is interpolated and the interpolated picture is used to generate the predicted picture The

フレームバッファ圧縮技術は、低解像度機能のコンポーネントであることが望ましい。フレームバッファ圧縮技術は、画素データを、画素データの第1の組が他の組に依存しないような複数の組に分割することが望ましい。一形態では、システムは、図4に示したようなチェッカーボードを用いる。図4では、影が付された画素群の位置が第1の組に属し、影が付されていない画素群が第2の組に属している。必要に応じて、他のサンプル構造を使用してもよい。例えば、列方向に沿った画素群を1列おきに第1の組に割り当ててもよい。あるいは、行方向に沿った画素群を1行おきに第1の組に割り当ててもよい。同様に、列方向に沿った画素群を1列おきに第1の組に割り当てるとともに、行方向に沿った画素群を1行おきに第1の組に割り当ててもよい。画素群の複数の組に分割するために適切な任意の方法が使用可能である。   The frame buffer compression technique is preferably a component of a low resolution function. The frame buffer compression technique desirably divides the pixel data into a plurality of sets such that the first set of pixel data does not depend on other sets. In one form, the system uses a checkerboard as shown in FIG. In FIG. 4, the positions of the pixel groups with shadows belong to the first group, and the pixel groups without shadows belong to the second group. Other sample structures may be used as needed. For example, pixel groups along the column direction may be assigned to the first group every other column. Alternatively, pixel groups along the row direction may be assigned to the first group every other row. Similarly, pixel groups along the column direction may be assigned to the first group every other column, and pixel groups along the row direction may be assigned to the first group every other row. Any method suitable for dividing into groups of pixel groups can be used.

メモリ圧縮/伸張のために、フレームバッファ圧縮技術では、画素に関する第2の組の画素群が、画素に関する第1の組の画素群から線形予測されることが望ましい。予測は予め定められていてもよい。あるいは、予測は、空間的に変わってもよいし、他の任意の適切な技術を用いて決定されてもよい。   For memory compression / decompression, in the frame buffer compression technique, it is desirable that the second set of pixels for pixels be linearly predicted from the first set of pixels for pixels. The prediction may be determined in advance. Alternatively, the prediction may vary spatially or may be determined using any other suitable technique.

一実施形態では、画素に関する第1の組の画素群は符号化される。この符号化は、任意の適切な技術を用いたものであってよい。そのような技術としては、例えば、以下の文献に記載されたブロックトランケーション符号化(BTC;block truncation coding)、
・ヒーリー(Healy,D.)、ミッシェル(Mitchell,O.)共著の「ブロックトランケーション符号化を用いたデジタルビデオの帯域幅の圧縮(Digital Video Bandwidth Compression Using Block Truncation Coding)」、IEEE Transatcions on Communications[legacy,pre-1988]、第29巻、第12番(1809ページ〜1817ページ)、1981年12月、
以下の文献に記載された絶対モーメントブロックトランケーション符号化(AMBTC;absolute moment block truncation coding)、
・レマ(Lema,M.)、ミッシェル(Mitchell,O.)共著の「絶対モーメントブロックトランケーション符号化とカラー画像に対するその応用(Absolute Moment Block Truncation Coding and Its Application to Color Images)」、IEEE Transatcions on Communications[legacy,pre-1988]、第32巻、第10番(1148ページ〜1157ページ)、1984年10月、
または、スカラー量子化が挙げられる。同様に、画素に関する第2の組の画素群は、任意の適切な技術を用いて符号化および予測が成されてもよい。例えば、フレームバッファ圧縮エンコーダおよびフレームバッファ圧縮デコーダについて知られている線形プロセスを用いて予測がされてもよい。そして、予測値と画素値との差が計算されてもよい。最後に、計算された差分は、圧縮されてもよい。一実施形態では、システムは、ブロックトランケーション符号化(BTC)を用いて第2の組の画素群を圧縮してもよい。別の一実施形態では、システムは、絶対モーメントブロックトランケーション符号化(AMBTC)を用いて第2の組の画素群を圧縮してもよい。別の一実施形態では、システムは、量子化を用いて第2の組の画素群を圧縮してもよい。さらに別の一実施形態では、システムは、バイリニア補間を用いて第2の組の画素群の画素値を予測してもよい。さらに別の実施形態では、システムは、バイキュービック補間を用いて第2の組の画素群の画素値を予測してもよい。別の実施形態では、システムは、バイリニア補間を用いて第2の組の画素群の画素値を予測し、絶対モーメントブロックトランケーション符号化(AMBTC)を用いて、第2の組の画素値群の予測画素値と第2の組の画素値群との残差を圧縮してもよい。
In one embodiment, the first set of pixels for a pixel is encoded. This encoding may use any suitable technique. Examples of such techniques include block truncation coding (BTC) described in the following documents,
・ "Digital Video Bandwidth Compression Using Block Truncation Coding" co-authored by Healy, D. and Mitchell, O., IEEE Transatcions on Communications [ legacy, pre-1988], Vol. 29, No. 12 (pages 1809-1817), December 1981,
Absolute moment block truncation coding (AMBTC) described in the following documents,
・ "Absolute Moment Block Truncation Coding and Its Application to Color Images", co-authored by Lema, M. and Mitchell, O., IEEE Transatcions on Communications [legacy, pre-1988], Volume 32, No. 10 (pages 1148 to 1157), October 1984,
Another example is scalar quantization. Similarly, the second set of pixels for a pixel may be encoded and predicted using any suitable technique. For example, the prediction may be made using a linear process known for frame buffer compression encoders and frame buffer compression decoders. Then, the difference between the predicted value and the pixel value may be calculated. Finally, the calculated difference may be compressed. In one embodiment, the system may compress the second set of pixels using block truncation coding (BTC). In another embodiment, the system may compress the second set of pixels using absolute moment block truncation coding (AMBTC). In another embodiment, the system may compress the second set of pixels using quantization. In yet another embodiment, the system may predict pixel values for the second set of pixels using bilinear interpolation. In yet another embodiment, the system may predict the pixel values of the second set of pixels using bicubic interpolation. In another embodiment, the system predicts the pixel values of the second set of pixels using bilinear interpolation and uses absolute moment block truncation coding (AMBTC) for the second set of pixel values. The residual between the predicted pixel value and the second set of pixel value groups may be compressed.

フレームバッファ圧縮技術の特性は、低解像度処理が可能であることを示すためのフラグを用いた制御にある。一形態において、低解像度処理が可能であることをこのフラグが示していない場合には、フレームバッファデコーダは、場合により圧縮されている第1の組の画素値群(すなわち、低解像度画素データ)と、第1の組の画素値群から予測され、任意選択の残差データによって精緻化された第2の組の画素値群(すなわち、高解像度画素データ)と、を含む出力フレームを生成する。別の一形態において、低解像度処理が可能であることをこのフラグが示している場合には、フレームバッファデコーダは、場合により圧縮されている第1の組の画素値群と、第1の組の画素値群から予測されるが、任意選択の残差データによって精緻化されてはいない第2の組の画素値群と、を含む出力フレームを生成する。したがって、このフラグは、任意選択の残差データを使用するか否かを示している。残差データは、予測画素値の群と、実際の画素値の群と、の差分を示すものであってもよい。   A characteristic of the frame buffer compression technique is control using a flag for indicating that low-resolution processing is possible. In one form, if this flag does not indicate that low resolution processing is possible, the frame buffer decoder may optionally include a first set of pixel value groups (ie, low resolution pixel data). And a second set of pixel values (ie, high resolution pixel data) predicted from the first set of pixel values and refined by optional residual data. . In another form, if the flag indicates that low resolution processing is possible, the frame buffer decoder may include a first set of pixel values, optionally compressed, and a first set. A second set of pixel value groups is generated that are predicted from the pixel value groups, but not refined by the optional residual data. Therefore, this flag indicates whether or not to use optional residual data. The residual data may indicate the difference between the predicted pixel value group and the actual pixel value group.

フレームバッファ圧縮エンコーダに関し、低解像度処理が可能でないことをフラグが示している場合、このエンコーダは、場合により圧縮形式で、第1の組の画素値群を保存する。そして、このエンコーダは、第1の組の画素値群から第2の組の画素値群を予測する。いくつかの実施形態では、エンコーダは、予測画素値と実際の画素値との残差を特定し、場合により圧縮形式で、この残差を保存する。いくつかの実施形態では、このエンコーダは、第2の組の画素群に関して好ましい予測方法を複数の予測方法の中から選択する。そして、このエンコーダは、選択された予測方法をフレームバッファに保存する。一実施形態では、複数の予測方法は複数の線形フィルタから構成され、エンコーダは、各線形フィルタについて予測画素値を計算するとともに、実際の画素値に最も近い予測画素値を計算する線形フィルタを選択することで、予測方法を選択する。一実施形態では、複数の予測方法は複数の線形フィルタから構成され、エンコーダは、各線形フィルタについて複数の画素位置からなるブロックにおける予測画素値の群を計算するとともに、予測画素値の群が実際の画素値の群に最も近いブロックにおけるそれらの予測画素値を計算する線形フィルタを選択することで、予測方法を選択する。画素群のブロックは、画像内部の画素の集合である。予測画素値の群が実際の画素値の群に最も近いブロックは、実際の画素値の群と予測画素値の群との差の絶対値の総和が最も小さいブロックを選択することで決定されてもよい。あるいは、ブロックを選択するために平方差の総和を使用してもよい。他の実施形態では、残差はブロックトランケーション符号化(BTC)により圧縮される。一実施形態では、残差は絶対モーメントブロックトランケーション符号化(AMBTC)により圧縮される。一実施形態では、第2の組の画素群を圧縮するために使用されるパラメータ群は、第1の組の画素群を圧縮するために使用されるパラメータ群から決定される。一実施形態では、第1の組の画素群および第2の組の画素群はAMBTCを使用し、第1の組の画素群にAMBTC方式で使用される第1のパラメータは、第2の組の画素群にAMBTC方式で使用される第1のパラメータに関係している。一実施形態では、第2の組の画素群に使用される上記第1のパラメータは、第1の組の画素群に使用される上記第1のパラメータと同一であり、保存されていない。別の一実施形態では、第2の組の画素群に使用される上記第1のパラメータは、第1の組の画素群に使用される上記第1のパラメータに関係している。一実施形態では、その関係は、スケール因子として定義されてもよく、第2の組の画素群に使用される上記第1のパラメータの代わりにそのスケール因子が保存されていてもよい。他の実施形態では、その関係は、スケール因子のルックアップテーブルへのインデックスとして定義されてもよく、第2の組の画素群に使用される上記第1のパラメータの代わりにそのインデックスが保存されていてもよい。別の実施形態では、その関係は予め定められていてもよい。別の実施形態では、エンコーダは、選択された予測方法と、残差決定ステップとを結合する。比較すると、低解像度処理が可能であることをフラグが示す場合には、エンコーダは、第1の組の画素群を場合によって圧縮形式で保存する。しかしながら、エンコーダは、残差情報を保存しない。選択された予測方法を特定する上述の実施形態では、エンコーダは、選択された予測方法を再構成されたデータからは計算しない。代わりに、任意の選択された予測方法は、エンコードからデコーダに伝えられる。   For a frame buffer compression encoder, if the flag indicates that low resolution processing is not possible, the encoder stores the first set of pixel values, possibly in a compressed format. The encoder predicts a second group of pixel values from the first group of pixel values. In some embodiments, the encoder identifies the residual between the predicted pixel value and the actual pixel value and stores this residual, possibly in a compressed form. In some embodiments, the encoder selects a preferred prediction method from among multiple prediction methods for the second set of pixels. Then, the encoder stores the selected prediction method in the frame buffer. In one embodiment, the multiple prediction methods consist of multiple linear filters, and the encoder calculates a predicted pixel value for each linear filter and selects a linear filter that calculates the predicted pixel value closest to the actual pixel value. By doing so, the prediction method is selected. In one embodiment, the plurality of prediction methods are composed of a plurality of linear filters, and the encoder calculates a group of predicted pixel values in a block composed of a plurality of pixel positions for each linear filter, and the group of predicted pixel values is actually A prediction method is selected by selecting a linear filter that calculates those predicted pixel values in the block closest to the group of pixel values. A pixel group block is a set of pixels inside an image. The block whose predicted pixel value group is closest to the actual pixel value group is determined by selecting the block having the smallest sum of absolute values of differences between the actual pixel value group and the predicted pixel value group. Also good. Alternatively, the sum of square differences may be used to select a block. In other embodiments, the residual is compressed by block truncation coding (BTC). In one embodiment, the residual is compressed by absolute moment block truncation coding (AMBTC). In one embodiment, the parameter group used to compress the second set of pixel groups is determined from the parameter group used to compress the first set of pixel groups. In one embodiment, the first set of pixels and the second set of pixels use AMBTC, and the first parameter used in the AMBTC scheme for the first set of pixels is the second set. This is related to the first parameter used in the AMBTC system for the pixel group. In one embodiment, the first parameter used for the second set of pixels is the same as the first parameter used for the first set of pixels and is not stored. In another embodiment, the first parameter used for the second set of pixels is related to the first parameter used for the first set of pixels. In one embodiment, the relationship may be defined as a scale factor, and the scale factor may be stored instead of the first parameter used for the second set of pixels. In other embodiments, the relationship may be defined as an index into a scale factor look-up table, where the index is stored instead of the first parameter used for the second set of pixels. It may be. In another embodiment, the relationship may be predetermined. In another embodiment, the encoder combines the selected prediction method and the residual determination step. In comparison, if the flag indicates that low resolution processing is possible, the encoder stores the first set of pixels, possibly in a compressed format. However, the encoder does not store residual information. In the embodiment described above that identifies the selected prediction method, the encoder does not calculate the selected prediction method from the reconstructed data. Instead, any selected prediction method is communicated from the encoding to the decoder.

フラグの伝達により、低解像度デコードの機能が有効になる。デコーダは、低解像度デコードが可能であることをフラグが示している場合であっても、低解像度シーケンスをデコードする必要はない。代わりに、デコーダは、フル解像度シーケンスか低解像度シーケンスかのいずれかをデコードしてもよい。これらのシーケンスは、低解像度グリッド上の画素位置におけるデコード後の画素値が同一である。これらのシーケンスは、高解像度グリッド上の画素位置におけるデコード後の画素値が同一であっても同一でなくてもよい。フラグの伝達は、フレーム毎に行われてもよいし、シーケンス毎に行われてもいし、他の基準で行われてもよい。   By transmitting the flag, the low resolution decoding function becomes effective. The decoder need not decode the low resolution sequence even if the flag indicates that low resolution decoding is possible. Alternatively, the decoder may decode either a full resolution sequence or a low resolution sequence. In these sequences, the pixel values after decoding at the pixel positions on the low resolution grid are the same. These sequences may or may not have the same pixel values after decoding at pixel positions on the high resolution grid. The flag transmission may be performed for each frame, may be performed for each sequence, or may be performed based on other criteria.

デコーダは、ビットストリーム内にフラグが現れた時に、以下のステップを実行することが好ましい。
(a)フレームバッファ圧縮技術による残差計算を無効にする。図5に示すように、この工程には、参照フレームの保存中に残差データの計算を無効にする工程に加え、参照フレームの読み込み中に残差データの計算を無効にする工程が含まれている。
(b)前述したように、低解像度の画素値群を用いて低解像度デブロッキングを行う。前述したように、より高解像度の位置におけるサンプル位置に対しては、別のデブロッキング処理を用いる。
(c)適応ループフィルタを適用する前に参照フレームを保存する。
The decoder preferably performs the following steps when a flag appears in the bitstream.
(A) Invalidate the residual calculation by the frame buffer compression technique. As shown in FIG. 5, this step includes the step of invalidating the calculation of residual data while reading the reference frame in addition to the step of invalidating the calculation of residual data while saving the reference frame. ing.
(B) As described above, low resolution deblocking is performed using a low resolution pixel value group. As described above, another deblocking process is used for sample positions at higher resolution positions.
(C) Save the reference frame before applying the adaptive loop filter.

これらの変更により、デコーダは、フル解像度モードでの処理を継続できる。具体的には、未来のフレームについて、デコーダは、圧縮された参照バッファからフル解像度のフレームを取り出し、動き補償を実行し、残差を加算し、デブロッキング処理を実行し、ループフィルタによるフィルタリングを行うことができる。そして、フル解像度のフレームが得られる。このフレームは、まだ、フル解像度画素のグリッドの全範囲を占める周波数成分を含んでいる。   With these changes, the decoder can continue processing in the full resolution mode. Specifically, for future frames, the decoder retrieves the full resolution frame from the compressed reference buffer, performs motion compensation, adds the residual, performs deblocking processing, and performs filtering by the loop filter. It can be carried out. A full resolution frame is then obtained. This frame still contains frequency components that occupy the entire range of the grid of full resolution pixels.

ただし、代わりに、デコーダは低解像度データのみを処理することを選択してもよい。これが可能であるのは、バッファ圧縮構造において低解像度のグリッドがより高解像度のグリッドと独立しているからである。動き補償に関しては、高解像度画素が低解像度データと線形の関係にあるという事実を活用するように補間プロセスが変更されてもよい。したがって、動き補償処理は、変更後の補間フィルタを用いて低解像度で実行されてもよい。同様に、残差の計算に関しては、システムは、デコーダの後続ステップにおいて低解像度データが高解像度データに依存しないという事実を活用してもよい。したがって、システムは、フル解像度の変換係数から低解像度画素を計算するだけの簡易逆変換処理を使用する。最後に、システムは、高解像度画素とは独立している低解像度データ(高解像度は低解像度に依存している)にデブロッキング処理を施すデブロッキングフィルタを使用する。これは、高解像度データと低解像度データとの間に線形の関係があるためである。   However, instead, the decoder may choose to process only low resolution data. This is possible because the low resolution grid is independent of the higher resolution grid in the buffer compression structure. For motion compensation, the interpolation process may be modified to take advantage of the fact that high resolution pixels are in a linear relationship with low resolution data. Therefore, the motion compensation process may be executed at a low resolution using the changed interpolation filter. Similarly, for residual computation, the system may take advantage of the fact that low resolution data does not depend on high resolution data in subsequent steps of the decoder. Therefore, the system uses a simple inverse transform process that only calculates low resolution pixels from the full resolution transform coefficients. Finally, the system uses a deblocking filter that deblocks low resolution data that is independent of the high resolution pixels (high resolution depends on the low resolution). This is because there is a linear relationship between high resolution data and low resolution data.

8×8のブロックサイズでは、JCT-VCの検討中テストモデルJCTVC-A119における既存のデブロッキングフィルタが望ましい。輝度デブロッキングフィルタでは、ブロックの境界がデブロッキング処理されているかを判定することによって処理が始まる。これは次式を計算することにより実現できる。   For the block size of 8 × 8, the existing deblocking filter in the JCT-VC under consideration test model JCTVC-A119 is desirable. In the luminance deblocking filter, the process starts by determining whether the block boundary is deblocked. This can be realized by calculating the following equation.

Figure 0005732125
Figure 0005732125

ここで、dは変数であり、pijおよびqijは画素値である。画素値の位置は図6に描かれている。図6では、4×4の符号化ユニットが2つ描かれている。ただし、ブロック境界に関係する画素の位置を考慮することで、任意のブロックサイズから画素値を決定してもよい。 Here, d is a variable, and pi j and qi j are pixel values. The position of the pixel value is depicted in FIG. In FIG. 6, two 4 × 4 encoding units are depicted. However, the pixel value may be determined from an arbitrary block size by considering the position of the pixel related to the block boundary.

次に、dとして求められた値は閾値と比較される。もし値dが閾値よりも小さい場合、デブロッキングフィルタが作動する。もし値dが閾値以上である場合、フィルタリングは適用されず、デブロッキング処理がされた画素の値は、入力画素値と同じ値になる。なお、閾値は、量子化パラメータの関数であってもよく、beta(QP)と記述してもよい。デブロッキングは、水平方向の境界と垂直方向の境界とで独立して決定される。   Next, the value obtained as d is compared with a threshold value. If the value d is smaller than the threshold value, the deblocking filter is activated. If the value d is greater than or equal to the threshold value, filtering is not applied and the value of the pixel subjected to the deblocking process becomes the same value as the input pixel value. Note that the threshold may be a function of a quantization parameter, and may be described as beta (QP). Deblocking is determined independently at the horizontal and vertical boundaries.

境界のd値がデブロッキングを決定するような値である場合、プロセスは、続いて、適用するフィルタのタイプを決定する工程に進む。デブロッキング処理で使用されるフィルタのタイプは、強いフィルタであってもよいし弱いフィルタであってもよい。フィルタリングの強度の選択は、すでに計算されたd、beta(QP)、さらに、追加の局所差分に基づいている。これは、デブロッキングの境界の各ライン(行または列)について計算される。例えば、図6に示されている画素位置の最初の行については、次式のような計算がされる。   If the boundary d value is such a value that determines deblocking, the process then proceeds to determine the type of filter to apply. The type of filter used in the deblocking process may be a strong filter or a weak filter. The selection of the strength of the filtering is based on the already calculated d, beta (QP), as well as additional local differences. This is calculated for each line (row or column) of the deblocking boundary. For example, the following equation is calculated for the first row of pixel positions shown in FIG.

Figure 0005732125
Figure 0005732125

ここで、tCは閾値であり、一般的に量子化パラメータQPの関数になっている。 Here, t C is a threshold and is generally a function of the quantization parameter QP.

輝度サンプルの場合、前述のプロセスにより、境界をデブロッキング処理し、続いて、ライン(行または列)を弱いフィルタでデブロッキング処理することが決定された場合、フィルタリング処理は次のようであってもよい。ここで、図6のブロックAとブロックBとの境界に対するフィルタリング処理によって説明する。処理は、   For luminance samples, if the above process determines that the boundary is deblocked and then the line (row or column) is deblocked with a weak filter, the filtering process is as follows: Also good. Here, a description will be given by filtering processing for the boundary between block A and block B in FIG. Processing is

Figure 0005732125
Figure 0005732125

となる。ここで、Δはオフセットであり、Clip0-255()は入力値を範囲[0,255]にマッピングするオペレータである。別の実施形態では、オペレータは入力値を別の範囲([16,235]、[0,1023]、またはその他の範囲)にマッピングするものであってもよい。 It becomes. Here, Δ is an offset, and Clip 0-255 () is an operator that maps the input value to the range [0,255]. In another embodiment, the operator may map the input value to another range ([16,235], [0,1023], or other range).

輝度サンプルの場合、前述のプロセスにより、境界をデブロッキング処理し、続いて、ライン(行または列)を強いフィルタでデブロッキング処理することが決定された場合、フィルタリング処理は次のようであってもよい。ここで、図6のブロックAとブロックBとの境界に対するフィルタリング処理によって説明する。処理は、   For luminance samples, if the above process determines that the boundary is deblocked and then the line (row or column) is deblocked with a strong filter, the filtering process is as follows: Also good. Here, a description will be given by filtering processing for the boundary between block A and block B in FIG. Processing is

Figure 0005732125
Figure 0005732125

となる。ここで、Clip0-255()は入力値を範囲[0,255]にマッピングするオペレータである。別の実施形態では、オペレータは入力値を別の範囲([16,235]、[0,1023]、またはその他の範囲)にマッピングするものであってもよい。 It becomes. Here, Clip 0-255 () is an operator that maps the input value to the range [0,255]. In another embodiment, the operator may map the input value to another range ([16,235], [0,1023], or other range).

色差サンプルの場合、前述のプロセスにより、境界をデブロッキング処理することが決定された場合、色差成分のすべてのライン(行もしくは列)は弱いフィルタリング処理によって処理される。ここで、図6のブロックAとブロックBとの境界に対するフィルタリング処理によって説明する。図6では、これらのブロックが色差の画素値を含んでいるものとする。処理は、
For chrominance samples, if the above process determines that the boundary is deblocked , all lines (rows or columns ) of the chrominance component are processed by weak filtering. Here, a description will be given by filtering processing for the boundary between block A and block B in FIG. In FIG. 6, it is assumed that these blocks include color difference pixel values. Processing is

Figure 0005732125
Figure 0005732125

となる。ここで、本明細書でデルタとも呼称されるΔはオフセットであり、Clip0-255()は入力値を範囲[0,255]にマッピングするオペレータである。別の実施形態では、オペレータは入力値を別の範囲([16,235]、[0,1023]、またはその他の範囲)にマッピングするものであってもよい。 It becomes. Here, Δ, also referred to as delta in this specification, is an offset, and Clip 0-255 () is an operator that maps input values to the range [0,255]. In another embodiment, the operator may map the input value to another range ([16,235], [0,1023], or other range).

画像フレーム内の画素位置は、2以上の組に区分けられてもよい。ビットストリーム内でフラグが伝送されるか、任意の方法で伝達される場合、システムは、第2の組の画素位置の画素値を除外して、第1の組の画素位置に対する処理を有効にする。図4には、この区分けの一例が示されている。図4では、ブロックが画素の2つの組に区分けされている。第1の組は影が付された位置に対応し、第2の組は影が付されていない位置に対応する。   The pixel positions in the image frame may be divided into two or more sets. If the flag is transmitted in the bitstream or communicated in any way, the system will exclude the pixel values for the second set of pixel locations and enable processing for the first set of pixel locations. To do. FIG. 4 shows an example of this division. In FIG. 4, the block is divided into two sets of pixels. The first set corresponds to a position with a shadow, and the second set corresponds to a position with no shadow.

この別のモードが有効になると、システムは、これまでのデブロッキング処理を次のように変更する。   When this other mode is enabled, the system changes the previous deblocking process as follows.

第1に、境界がデブロッキング処理されるべきかを求める際に、システムは、前述の式またはその他の適切な式を使用する。ただし、第1の組の画素群には属していない画素位置に対応する画素値については、第1の組の画素位置から導出した画素値を使用してもよい。図6Aおよび図6Bのp01、p03、p05、p07、q00、q02、q04、q06は、エントロピー復号、逆変換および予測により計算された第1の組の画素である。p00、p02、p04、p06、q01、q03、q05、q07は図3Bまたは図5に示したような式で計算され、   First, in determining whether a boundary should be deblocked, the system uses the above equation or other suitable equation. However, for pixel values corresponding to pixel positions that do not belong to the first set of pixel groups, pixel values derived from the first set of pixel positions may be used. 6A and 6B, p01, p03, p05, p07, q00, q02, q04, and q06 are the first set of pixels calculated by entropy decoding, inverse transformation, and prediction. p00, p02, p04, p06, q01, q03, q05, q07 are calculated by the equations as shown in FIG. 3B or FIG.

Figure 0005732125
Figure 0005732125

式1、式2、式3、式4および式5は、これらの画素値を用いて計算される。 Equation 1, Equation 2, Equation 3, Equation 4, and Equation 5 are calculated using these pixel values.

一実施形態では、システムは、第1の組の画素群の隣接する複数の画素値の線形加重として、画素値を導出する。第2の実施形態では、システムは、第1の組の画素群の複数の画素値のバイリニア補間を用いる。好ましい実施形態では、システムは、第1の組の画素群の画素値であって現在の画素位置よりも上側にある画素値と、第1の組の画素群の画素値であって現在の画素位置よりも下側にある画素値と、の線形平均を算出する。なお、上の説明は、システムが垂直方向のブロック境界を処理し(水平方向のデブロッキング処理を適用している)ことを前提としたものである。システムは、水平方向のブロック境界を処理し(垂直方向のデブロッキング処理を適用している)場合には、現在位置の左方および右方の画素の平均を計算する。別の実施形態では、システムは、同一ブロック内の画素値の平均計算を制限してもよい。例えば、現在の画素の上側に位置する画素値は同一ブロックに属さないが現在の画素の下側に位置する画素値は同一ブロックに属する場合、現在の画素の画素値は、現在の画素の下側に位置する画素値と等しい値にセットされる。   In one embodiment, the system derives the pixel value as a linear weighting of adjacent pixel values of the first set of pixels. In the second embodiment, the system uses bilinear interpolation of a plurality of pixel values of the first set of pixels. In a preferred embodiment, the system includes a pixel value of the first set of pixel groups that is above the current pixel position, and a pixel value of the first set of pixel groups that is the current pixel. A linear average of pixel values below the position is calculated. The above explanation is based on the premise that the system processes a vertical block boundary (applies a horizontal deblocking process). When the system processes horizontal block boundaries (applying vertical deblocking), it calculates the average of the pixels to the left and right of the current position. In another embodiment, the system may limit the average calculation of pixel values within the same block. For example, if the pixel value located above the current pixel does not belong to the same block but the pixel value located below the current pixel belongs to the same block, the pixel value of the current pixel is below the current pixel. It is set to a value equal to the pixel value located on the side.

第2に、境界が強いフィルタを使用すべきか弱いフィルタを使用すべきかを計算する際には、システムは、上述の方法と同じ方法を使用してもよい。すなわち、第1の組の画素群に対応しない画素値は、第1の組の画素から導出される。計算により前述の決定を行った後、システムは、その決定に基づいて、第1の組の画素群を処理してもよい。後続の組の画素群を処理しているデコーダは、同じ決定に基づいて、後続の組の画素群を処理する。   Second, in calculating whether to use a filter with a strong boundary or a weak filter, the system may use the same method as described above. That is, pixel values that do not correspond to the first set of pixels are derived from the first set of pixels. After making the aforementioned determination by computation, the system may process the first set of pixels based on the determination. The decoder processing the subsequent set of pixels processes the subsequent set of pixels based on the same determination.

前述の処理により、境界をデブロッキング処理し、続いて、ライン(行または列)を弱いフィルタでデブロッキング処理することが決定された場合、システムは、上述の弱いフィルタリング処理を用いてもよい。ただし、Δの値を計算する際には、システムは、第1の組に続く組の画素群に対応する画素値を使用しない。代わりに、システムは、前述のように、画素値を導出してもよい。例を挙げると、Δの値は第1の組の実際の画素値に適用され、デルタ値(Δの値)は第2の組の実際の画素値に適用される。   If the above process determines that the boundary is deblocked and then the line (row or column) is deblocked with a weak filter, the system may use the weak filtering process described above. However, when calculating the value of Δ, the system does not use the pixel values corresponding to the group of pixels following the first group. Alternatively, the system may derive pixel values as described above. By way of example, the value of Δ is applied to a first set of actual pixel values, and the delta value (value of Δ) is applied to a second set of actual pixel values.

前述の処理により、境界をデブロッキング処理し、続いて、ライン(行または列)を強いフィルタでデブロッキング処理することが決定された場合、システムは、次の処理を実行してもよい。   If the above process determines that the boundary is deblocked and then the line (row or column) is deblocked with a strong filter, the system may perform the following process.

すなわち、一実施形態では、システムは、前述の強い輝度フィルタの式を用いてもよい。ただし、第1の組の画素位置にない画素値に関しては、システムは、前述したように、第1の組の画素位置から画素値を導出してもよい。そして、システムは、第1の組の画素位置に対するフィルタ処理の計算結果を保存する。続いて、後続の画素位置を出力として生成するデコーダに関し、システムは、第1の画素位置に関する前に得られた強いフィルタの計算結果、および、後続の画素位置の再構成処理の(フィルタ処理ではない)計算結果に対して、前述の強い輝度フィルタの式を用いる。そして、システムは、後続の画素位置のみにこのフィルタを適用する。出力は、最初のフィルタ処理に対応するフィルタ済の第1の画素位置、および、追加のフィルタパスに対応するフィルタ済の後続の画素位置となる。   That is, in one embodiment, the system may use the strong luminance filter equation described above. However, for pixel values that are not in the first set of pixel positions, the system may derive the pixel values from the first set of pixel positions, as described above. Then, the system stores the calculation result of the filter processing for the first set of pixel positions. Subsequently, for a decoder that generates the subsequent pixel position as an output, the system performs the calculation of the strong filter previously obtained for the first pixel position and the reconstruction process of the subsequent pixel position (in the filter process). No) For the calculation result, the above-described strong luminance filter formula is used. The system then applies this filter only to subsequent pixel locations. The output will be the filtered first pixel location corresponding to the initial filtering and the filtered subsequent pixel location corresponding to the additional filter path.

まとめると、前述のように、システムは、第1の画素値を使用して、抜けている画素値を補間し、第1の画素値に対する強いフィルタリング処理の結果を計算する。そして、システムは、抜けている画素値を実際の再構成値に更新し、抜けている画素位置に対する強いフィルタリング処理の結果を計算する。   In summary, as described above, the system uses the first pixel value to interpolate the missing pixel value and calculate the result of the strong filtering process for the first pixel value. The system then updates the missing pixel value to the actual reconstruction value and calculates the result of a strong filtering process for the missing pixel position.

第2の実施形態では、システムは、前述の強い輝度フィルタの式を使用する。システムは、第1の組の画素位置にない画素値については、前述のように、第1の組の画素位置から導出する。そして、システムは、導出した値を用いて、第1の組の画素位置と後続の組の画素位置との両方について、強いフィルタリング処理の結果を計算する。最後に、システムは、後続の位置における再構成された画素値と後続の位置に対する強いフィルタリング処理の出力と、の重み付け平均を計算する。一実施形態では、重みはエンコーダからデコーダに送信される。別の実施形態では、重みは固定値である。   In the second embodiment, the system uses the strong luminance filter equation described above. The system derives pixel values that are not in the first set of pixel positions from the first set of pixel positions, as described above. The system then uses the derived value to calculate a strong filtering result for both the first set of pixel positions and the subsequent set of pixel positions. Finally, the system calculates a weighted average of the reconstructed pixel value at the subsequent position and the output of the strong filtering process for the subsequent position. In one embodiment, the weight is transmitted from the encoder to the decoder. In another embodiment, the weight is a fixed value.

前述の処理により、色差において境界をデブロッキング処理することが決定された場合、システムは、前述のように、弱いフィルタリング処理を使用する。ただし、Δの値を計算する際には、システムは、第1の組に続く組の画素群に対応する画素値を使用しない。代わりに、システムは、前述のように、画素値を導出することが望ましい。例を挙げると、Δの値は第1の組の実際の画素値に適用され、デルタ値(Δの値)は第2の組の実際の画素値に適用される。   If the above process determines to deblock the boundary in the color difference, the system uses a weak filtering process as described above. However, when calculating the value of Δ, the system does not use the pixel values corresponding to the group of pixels following the first group. Instead, it is desirable for the system to derive pixel values as described above. By way of example, the value of Δ is applied to a first set of actual pixel values, and the delta value (value of Δ) is applied to a second set of actual pixel values.

これまで明細書で使用してきた用語および表現は、限定ではなく説明の用語として使用されており、かかる用語および表現の使用には、図示および説明された特徴の均等物またはそれらの一部を排除する意図はない。本発明の範囲は、続く特許請求の範囲によってのみ規定および制限されることを認識すべきである。   The terms and expressions used up to now in the specification are used as terms for description rather than limitation, and the use of such terms and expressions excludes equivalents of the features shown and described or portions thereof. There is no intention to do. It should be recognized that the scope of the invention is defined and limited only by the claims that follow.

Claims (10)

映像をデコードするビデオデコーダであって、
(a)上記映像を規定するビットストリームをデコードするエントロピー復号部と、
(b)デコードされた上記ビットストリームを逆量子化及び逆変換する逆量子化逆変換部と、
(c)デコードされた上記ビットストリームに基づいて、イントラ予測および動き補償予測を選択的に実行する予測部と、
(d)上記イントラ予測及び動き補償予測に使用される画像データであって、低解像度データと高解像度データとを含む画像データを含むバッファと、
(e)上記予測部によって生成された予測データ、及び上記逆量子化逆変換部によって逆量子化及び逆変換されたビットストリームに基づいて、再構成画像データを生成する加算器と、
(f)上記再構成画像データに対して、選択的にデブロッキング処理を行うデブロック部と
を備え、
上記エントロピー復号部は、上記ビットストリームから、低解像度デコードが可能である低解像度モードまたは低解像度デコードが可能でない高解像度モードを示すフラグを受信し、
フラグが低解像度モードを示す時は、上記バッファに低解像度の画像データを格納し、高解像度の画像データを格納しない
ことを特徴とするビデオデコーダ。
A video decoder for decoding video,
(A) an entropy decoding unit that decodes a bitstream that defines the video;
(B) an inverse quantization and inverse transform unit that inversely quantizes and inversely transforms the decoded bitstream;
(C) a prediction unit that selectively executes intra prediction and motion compensation prediction based on the decoded bitstream;
(D) a buffer including image data used for the intra prediction and motion compensation prediction, the image data including low resolution data and high resolution data;
(E) an adder that generates reconstructed image data based on the prediction data generated by the prediction unit and the bitstream inversely quantized and inversely transformed by the inverse quantization inverse transform unit;
(F) a deblocking unit that selectively performs deblocking processing on the reconstructed image data,
The entropy decoding unit receives, from the bitstream, a flag indicating a low resolution mode in which low resolution decoding is possible or a high resolution mode in which low resolution decoding is not possible ,
A video decoder , wherein when the flag indicates a low resolution mode, low resolution image data is stored in the buffer, and high resolution image data is not stored .
上記予測部は、上記フラグが上記低解像度モードを示しているときに、低解像度データのみを用いて、低解像度画素位置に処理を施す、請求項1に記載のビデオデコーダ。   The video decoder according to claim 1, wherein when the flag indicates the low resolution mode, the prediction unit performs processing on a low resolution pixel position using only low resolution data. 上記予測部は、上記フラグが上記低解像度モードを示しているときに、低解像度データと、当該低解像度データから補間された高解像度データとを用いて、高解像度画素位置に処理を施す、請求項2に記載のビデオデコーダ。   The prediction unit performs processing on a high-resolution pixel position using low-resolution data and high-resolution data interpolated from the low-resolution data when the flag indicates the low-resolution mode. Item 3. The video decoder according to Item 2. 上記予測部は、上記フラグが上記高解像度モードを示しているときに、高解像度データを用いて、高解像度画素位置に処理を施す、請求項1に記載のビデオデコーダ。   The video decoder according to claim 1, wherein when the flag indicates the high resolution mode, the prediction unit performs processing on a high resolution pixel position using high resolution data. 上記低解像度データは上記高解像度データとは独立であり、
上記フラグが上記低解像度モードを示しているとき、上記低解像度データのみが用いられ、
上記フラグが上記高解像度モードを示しているとき、上記低解像度データと上記高解像度データとが共に用いられる、請求項1に記載のビデオデコーダ。
The low resolution data is independent of the high resolution data,
When the flag indicates the low resolution mode, only the low resolution data is used,
The video decoder according to claim 1, wherein when the flag indicates the high resolution mode, the low resolution data and the high resolution data are used together.
上記デブロック部は、上記フラグが上記低解像度モードを示しているとき、低解像度画素位置の再構成画像データのデブロッキング処理のために、上記低解像度画素位置の再構成画像データのみを用いる、請求項1に記載のビデオデコーダ。   The deblocking unit uses only the reconstructed image data at the low resolution pixel position for deblocking processing of the reconstructed image data at the low resolution pixel position when the flag indicates the low resolution mode. The video decoder according to claim 1. 上記デブロック部は、上記フラグが上記低解像度モードを示しているとき、高解像度画素位置の再構成画像データのデブロッキング処理のために、上記高解像度画素位置の補間画像データをも用いる、請求項6に記載のビデオデコーダ。   The deblocking unit also uses the interpolated image data at the high resolution pixel position for deblocking processing of the reconstructed image data at the high resolution pixel position when the flag indicates the low resolution mode. Item 7. The video decoder according to Item 6. 上記デブロック部は、上記フラグが上記高解像度モードを示しているとき、高解像度画素位置の再構成画像データのデブロッキング処理のために、上記高解像度画素位置の再構成画像データを用いる、請求項1に記載のビデオデコーダ。   The deblocking unit uses the reconstructed image data at the high resolution pixel position for deblocking processing of the reconstructed image data at the high resolution pixel position when the flag indicates the high resolution mode. Item 4. The video decoder according to Item 1. 上記補間された高解像度データは、上記低解像度データから線形予測されたものである、請求項3に記載のビデオデコーダ。   4. The video decoder according to claim 3, wherein the interpolated high resolution data is linearly predicted from the low resolution data. 上記高解像度画素位置の再構成画像データは、上記低解像度画素位置の再構成画像データから線形予測されたものである、請求項7に記載のビデオデコーダ。   The video decoder according to claim 7, wherein the reconstructed image data at the high resolution pixel position is linearly predicted from the reconstructed image data at the low resolution pixel position.
JP2013501481A 2010-07-16 2011-07-14 Video decoder that uses low resolution data to reduce power at low resolution Active JP5732125B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US12/838,335 US20120014445A1 (en) 2010-07-16 2010-07-16 System for low resolution power reduction using low resolution data
US12/838,381 2010-07-16
US12/838,335 2010-07-16
US12/838,381 US8767828B2 (en) 2010-07-16 2010-07-16 System for low resolution power reduction with compressed image
PCT/JP2011/066636 WO2012008614A1 (en) 2010-07-16 2011-07-14 Video decoder for low resolution power reduction using low resolution data

Publications (2)

Publication Number Publication Date
JP2013531401A JP2013531401A (en) 2013-08-01
JP5732125B2 true JP5732125B2 (en) 2015-06-10

Family

ID=45469597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013501481A Active JP5732125B2 (en) 2010-07-16 2011-07-14 Video decoder that uses low resolution data to reduce power at low resolution

Country Status (5)

Country Link
EP (1) EP2594074A4 (en)
JP (1) JP5732125B2 (en)
CN (1) CN103004202A (en)
EA (1) EA024279B1 (en)
WO (1) WO2012008614A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012161345A1 (en) * 2011-05-26 2012-11-29 Sharp Kabushiki Kaisha Video decoder
JP6512741B2 (en) * 2014-03-28 2019-05-15 株式会社メガチップス Image processing apparatus and image processing method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3575508B2 (en) * 1996-03-04 2004-10-13 Kddi株式会社 Encoded video playback device
JP3844844B2 (en) * 1997-06-06 2006-11-15 富士通株式会社 Moving picture coding apparatus and moving picture coding method
JP3384727B2 (en) * 1997-11-05 2003-03-10 三洋電機株式会社 Image decoding device
US6959116B2 (en) * 2001-09-18 2005-10-25 Emc Corporation Largest magnitude indices selection for (run, level) encoding of a block coded picture
AU2003237279A1 (en) * 2002-05-29 2003-12-19 Pixonics, Inc. Classifying image areas of a video signal
EP1728393A2 (en) * 2004-03-08 2006-12-06 Koninklijke Philips Electronics N.V. Video decoder with scalable compression and buffer for storing and retrieving reference frame data
US8213508B2 (en) * 2004-04-02 2012-07-03 Thomson Licensing Complexity scalable video encoding
KR100679035B1 (en) * 2005-01-04 2007-02-06 삼성전자주식회사 Deblocking filtering method considering intra BL mode, and video encoder/decoder based on multi-layer using the method
KR101292676B1 (en) * 2005-04-14 2013-08-02 톰슨 라이센싱 Method and apparatus for slice adaptive motion vector coding for spatial scalable video encoding and decoding
JP4774315B2 (en) * 2006-02-20 2011-09-14 株式会社日立製作所 Image decoding apparatus and image decoding method
CN101202906A (en) * 2006-12-11 2008-06-18 国际商业机器公司 Method and equipment for processing video stream in digital video broadcast system
JP2009296300A (en) * 2008-06-05 2009-12-17 Panasonic Corp Image encoding device and method

Also Published As

Publication number Publication date
WO2012008614A1 (en) 2012-01-19
EP2594074A4 (en) 2014-08-06
EA024279B1 (en) 2016-09-30
CN103004202A (en) 2013-03-27
EA201390113A1 (en) 2013-12-30
JP2013531401A (en) 2013-08-01
EP2594074A1 (en) 2013-05-22

Similar Documents

Publication Publication Date Title
RU2694144C1 (en) Improved intra prediction encoding using planar views
JP6055555B2 (en) Video codec architecture for next generation video
CN105791838B (en) The flexible band modes of deflection in the adaptive offset of sampling in HEVC
JP2022526990A (en) Video processing methods, equipment, storage media, and recording media
US8548062B2 (en) System for low resolution power reduction with deblocking flag
JP2022533190A (en) Matrix-based intra-prediction using upsampling
JP2022531147A (en) Matrix-based intra-prediction with filtering
US8767828B2 (en) System for low resolution power reduction with compressed image
US11438596B2 (en) Method and device for processing video signal by using cross-component linear model
JP2024026317A (en) Methods, apparatus and programs for decoding and encoding encoding units
KR20120117613A (en) Method and apparatus for encoding a moving picture
US9313523B2 (en) System for low resolution power reduction using deblocking
US20120014445A1 (en) System for low resolution power reduction using low resolution data
JP5732125B2 (en) Video decoder that uses low resolution data to reduce power at low resolution
EP1919213A1 (en) Method for interpolating chrominance signal in video encoder and decoder
US20120300844A1 (en) Cascaded motion compensation
US20120300838A1 (en) Low resolution intra prediction
WO2012008616A1 (en) Video decoder for low resolution power reduction using low resolution data
US20120014447A1 (en) System for low resolution power reduction with high resolution deblocking
RU2815738C2 (en) Determination of chromaticity coding mode using matrix-based intra-frame prediction
RU2815175C2 (en) Compilation of list of most probable modes for matrix intra-frame prediction
WO2023015161A1 (en) Adaptive up-sampling filter for luma and chroma with reference picture resampling (rpr)
JP2024056945A (en) Method, apparatus and program for decoding and encoding coding units
KR20230140450A (en) Metadata for signaling information indicating the energy consumption of the decoding process.
CN117397238A (en) Encoding and decoding method and device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150410

R150 Certificate of patent or registration of utility model

Ref document number: 5732125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150