JP2004135252A - Encoding processing method, encoding apparatus, and decoding apparatus - Google Patents

Encoding processing method, encoding apparatus, and decoding apparatus Download PDF

Info

Publication number
JP2004135252A
JP2004135252A JP2002332905A JP2002332905A JP2004135252A JP 2004135252 A JP2004135252 A JP 2004135252A JP 2002332905 A JP2002332905 A JP 2002332905A JP 2002332905 A JP2002332905 A JP 2002332905A JP 2004135252 A JP2004135252 A JP 2004135252A
Authority
JP
Japan
Prior art keywords
type
code
encoding
data
quantization parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002332905A
Other languages
Japanese (ja)
Inventor
Kazufumi Sato
佐藤 数史
Teruhiko Suzuki
鈴木 輝彦
Yoichi Yagasaki
矢ケ崎 陽一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002332905A priority Critical patent/JP2004135252A/en
Publication of JP2004135252A publication Critical patent/JP2004135252A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the processing load in encoding processing without lowering the encoding efficiency. <P>SOLUTION: Allocations of code numbers respectively allocated for each kind of MB types are adaptively switched in accordance with a quantization parameter value QP, so that thresholding is made possible without using a thresholding table and the processing load in encoding processing is reduced without lowering the encoding efficiency regardless of an increase/decrease in generation frequency of an eight-pixel MB type. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は符号化処理方法、符号化装置及び復号化装置に関し、例えば衛星放送やインターネット等のネットワークを介して画像圧縮情報を送受信する送受信システムに適用して好適なものである。
【0002】
【従来の技術】
従来、送受信システムは、符号化装置では、例えば動画像信号をディジタル化することにより得られる動画像データに対して、所定の画像符号化方式に準拠した符号化処理を施すことにより画像圧縮情報を生成し、これをネットワークを介して画像復号化装置に送信する。
【0003】
一方、復号化装置では、符号化装置から送信された画像圧縮情報を受信し、その画像圧縮情報に対して、当該符号化装置と同一の画像符号化方式に準拠した復号化処理を施すことにより動画像データを復元するようになされている。
【0004】
かかる画像符号化方式としては、ISO/IECの符号化専門家グループ(MPEG)により汎用画像の符号化を目的として標準化されたMPEGと呼ばれる画像符号化方式と、ITU団体によりテレビ会議用画像の符号化を目的として標準化されたH.26と呼ばれる画像符号化方式とが知られている。
【0005】
また近年における携帯電話機等の携帯端末装置の普及により、一段と高い符号化効率を実現するための画像符号化方式の必要性が示唆されており、これに対応すべく現在では、MPEGとITU団体とによって、JVT(Joint Model of Enhanced−Compression Video Coding)と呼ばれる画像符号化方式(以下、これをJVT符号化方式と呼ぶ)の標準化が進められている。
【0006】
このJVT符号化方式においては、縦横16×16画素の画素ブロックであるマクロブロックについて、図14に示すように、縦横16×16画素でなる1組の区割領域AR1、縦横8×16画素に区割りされた2組の区割領域AR2及びAR3、縦横16×8画素に区割りされた2組の区割領域AR4及びAR5、縦横8×8画素に区割りされた4組の区割領域AR6、AR7、AR8及びAR9でなる4種類の区割パターンTP1〜TP4のいずれかを指定することが可能である。
【0007】
またマクロブロックについて4組の区割領域AR6、AR7、AR8及びAR9でなる区割パターンを指定した際には、当該4組の区割領域AR6、AR7、AR8及びAR9それぞれについて縦横8×8画素でなる1組の区割領域AR10、縦横4×8画素に区割りされた2組の区割領域AR11及びAR12、縦横8×4画素に区割りされた2組の区割領域AR13及びAR14、縦横4×4画素に区割りされた4組の区割領域AR15、AR16、AR17及びAR18でなる4種類のサブ区割パターンTP5〜TP8のいずれかを指定するようになされている。
【0008】
この場合、JVT符号化方式においては、1つのマクロブロックについて、区割パターンTP1〜TP3のいずれかを指定するか、あるいは8画素MBタイプとサブ区割パターンTP5〜TP8のいずれかとの組み合わせを指定することにより得られる区割領域AR1〜AR18ごとに、それぞれ独立して動きベクトルを持つことができる。
【0009】
これに伴ってJVT符号化方式においては、かかる区割領域AR1〜AR9と、当該区割領域AR1〜AR9に対する予測モードとの組み合わせを表すマクロブロックタイプ(以下、これをMBタイプと呼ぶ)の種類に応じて、それぞれ異なるバイナリ列を対応付けた2値化テーブルがピクチャタイプごとに詳細に規定されている。
【0010】
また区割領域AR10〜AR18と、当該区割領域AR10〜AR18に対する予測モードとの組み合わせを表すサブマクロブロックタイプ(以下、これをサブMBタイプと呼ぶ)の種類に応じて、それぞれ異なるバイナリ列を対応付けた2値化テーブルもピクチャタイプごとに詳細に規定されている。
【0011】
ここで、Pピクチャ、SPピクチャ及びBピクチャにおけるMBタイプの2値化テーブルを表1に示すと共に、サブMBタイプの2値化テーブルを表2に示す。
【0012】
【表1】

Figure 2004135252
【0013】
【表2】
Figure 2004135252
【0014】
表1のMBタイプ項目(Value of mb_type)及び表2のサブMBタイプ項目(Value of sub_mb_type)において、「0」、「1」……はコード番号を表し、当該コード番号に続くかっこ内は、予測モードの態様と区割領域AR1、AR2、……、又はAR18のサイズとを表している。
【0015】
実際上、符号化装置では、JVT符号化方式に規定される符号化処理手法として例えばCABAC(Context−based Variable Length Coding)と呼ばれる2値適応算術手法に従い、任意のマクロブロックについて動き予測補償処理が行われた結果得られるMBタイプ情報がPピクチャ、SPピクチャ及びBピクチャである場合、まずは表1におけるMBタイプの2値化テーブルを参照し、当該MBタイプに該当するコード番号に対応するバイナリ列に従って2値化する。
【0016】
そして符号化装置は、表1においてMBタイプに該当するコード番号が「4」又は「22」である場合、すなわち8画素MBタイプであった場合には、さらに表2におけるサブMBタイプの2値化テーブルを参照し、当該サブMBタイプに該当するコード番号に対応するバイナリ列に従って2値化した後、出現確率を用いた算術符号化処理を行うことにより符号化データを生成するようになされている(例えば非特許文献1参照)。
【0017】
【非特許文献1】
DRAFT ISO/IEC 14496−10:2002(E)
【0018】
ここで、かかる非特許文献1におけるJVT符号化方式の2値化に関する部分の日本語訳を記載する。
【0019】
JVT符号化方式に定められているCABACの符号化方式について説明する。画像圧縮情報における任意のシンタスク要素に関して、まず、過去の履歴に応じて、シンボルに対する適切なモデルが選択される。隣接するシンボルの状態に応じたモデル化をコンテキストモデル化と呼ぶ。
【0020】
次に、シンボルが2値化されていないものに関しては、2値化が行われる。2値化されたシンボルは、確率推計を用いた適応算術符号化が施される。符号化処理が行われた後、関連するモデルの更新が行われるため、それぞれのモデルは実際の画像圧縮情報の統計に応じた符号化処理を行うことが可能なのである。
【0021】
以下では、JVT符号化方式において規定されている2値化処理(binarization)について述べる。
【0022】
unary codeによるbinarizationの最初の5symbolに対する表を表3に示す。
【0023】
【表3】
Figure 2004135252
【0024】
Code symbol Cに対しては、C個‘1’の最後に‘0’を付けたbinary列が対応する。binの最初のbitにはbin number=1が対応し、2番目のbitにはbin number=2、と、最後のbitに行くに従って対応するbin numberは増えていく。
【0025】
Truncated unary(TU)binarizationは有限個のシンボル〔0,……,Cmax〕に対して適用される。SymbolC<Cmax;に対しては表3で規定されたunary binarizationを行い、シンボルCmaxにはCmax個の1を割り当てる。Bin numberの割り振り方はunary binarizationの場合と同じである。
【0026】
Concatenated unary/kth−order Exp−Golomb(UEGk)binarizationは、Cmax=Ucoff(Ucoff.Cut off parameter)としたtruncated unary binarization code(prefix code)とk次のExp−Golomb符号(suffix code)とが連接されたものが変換後のbinary列となる。SymbolCがC<Ucoffの場合suffix codeは無く、C≧Ucoffの場合suffix codeはSymbolC−Ucoffに対するExp−Golomb符号となる。
【0027】
SymbolSに対するk次のExp−Golomb codeは表4のように構成される:
【0028】
【表4】
Figure 2004135252
【0029】
Bin numberは、unary codeの第1ビット目をbin_num=1として、Exp−Golomb符号のLSBに向かって1ずつ増えていく。
【0030】
有限個のシンボル〔0,……,Cmax〕に対し、L−bit(L=log|Cmax|+1)のbinarizationを適用する。Bin numberはLSBをbin_num=1とし、MSBに向かって増えていく。
【0031】
次に、上記の方法により2値化が行われるbinに対するコンテキストモデルについて述べる。
【0032】
一般的なcontext variableの設定方法を説明するためにFigure9−2を用いる。ブロックCに対して隣接する左ブロックと上ブロックにおける同一シンタクス要素のsymbolまたはbinがA,Bとして図示されている。
【0033】
コンテキストを決める式の第一番目は以下の通りとなる。
【0034】
【数1】
Figure 2004135252
【0035】
この他に、3つのテンプレートが以下のように定義される。
【0036】
【数2】
Figure 2004135252
【0037】
表5において2つの隣接シンボルからのコンテキスト変数の求め方を示す。
【0038】
【表5】
Figure 2004135252
【0039】
ctx_cbp4は表7に示される6つのblock type(Luma−DC,Luma−AC,Chroma−U−DC,Chroma−V−DC,Chroma−U−AC,Chroma−V−AC)によって決定される。
【0040】
ctx−abs−mvd−h[1]及びctx−abs−mvd−v[1]の定義は以下の式により与えられる。
【0041】
【数3】
Figure 2004135252
【0042】
compは水平成分(h)又は垂直成分(v)を意味する。隣接ブロックは異なるマクロブロック分割に属する可能性がある為、以下のような隣接ブロックを特定する為の方法が規定されている。最初に4x4blockの動きベクトルはoversampleされている、つまり、対応するブロックがより粗く分割されていた場合、quadtreeにおける親ブロックの動きベクトルを継承しているとみなす。逆に、block Cが隣接blockより粗く分割されていた場合、隣接blockの左上のsub−blockの動きベクトルを対応動きベクトルとする。これらの処理によっり隣接blockにおける対応する値を求めた後、式(3)を用いてコンテキスト変数を得る。
【0043】
(b,……,b)がsymbolCのbinarizationに相当すると仮定した場合、Cのk番目のbinに対応するコンテキスト変数は以下のように規定される。
【0044】
【数4】
Figure 2004135252
【0045】
ただし、1<k≦Nとする。表6において、この種のコンテキスト変数の与え方の一覧を示す。
【0046】
【表6】
Figure 2004135252
【0047】
変換係数の条件付けの為には、さらに3つの異なるコンテキスト識別子が追加で用いられる。これらのコンテキスト識別子は表7で示されるcontext_categoryに依存して決まる。
【0048】
【表7】
Figure 2004135252
【0049】
【発明が解決しようとする課題】
ところで、かかるJVT符号化方式を適用した符号化装置においては、数多くのコード番号を有する2値化テーブルを常時参照しながらMBタイプを2値化しているのみならず、当該MBタイプが8画素MBタイプの領域サイズ(縦横8×8画素)であった場合には、表1におけるMBタイプの2値化テーブルを参照して2値化した後に、再び表2におけるサブMBタイプの2値化テーブルを参照して2値化していることにより、符号化処理における処理負荷が増大してしまうという問題があった。
【0050】
本発明は以上の点を考慮してなされたもので、符号化効率を低下させるこなく符号化処理の処理負荷を低減し得る符号化処理方法、符号化装置及び復号化装置を提案しようとするものである。
【0051】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、画素ブロックについて所定の区割パターンが指定されることにより得られる区割領域と、当該区割領域に対する予測モードとの組み合わせを表すマクロブロックタイプに対して2値算術符号化処理を施す符号化処理方法であって、マクロブロックタイプの種類ごとにそれぞれ割り当てられたコード番号に2値コードを適用し、コード番号の割り当てを量子化パラメータ値に応じて切り換えるようにする。
【0052】
従って、2値化テーブルを用いることなく2値コードによって2値化することができると共に、量子化パラメータ値の変動によってマクロブロックタイプの発生頻度が増加した場合であっても、マクロブロックタイプの種類ごとにそれぞれ割り当てられたコード番号を量子化パラメータ値に応じて切り換えるので、当該増加したマクロブロックタイプへ割り当てられるコード番号に、データ長の長い2値コードが対応してしまうことを回避することができる。
【0053】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0054】
(1)送受信システムの構成
図1において、1は全体として送受信システムを示し、送信対象の画像符号化装置2と、受信対象の画像復号化装置3とがインターネット等のネットワーク4を介して接続されることにより構築される。
【0055】
画像符号化装置2は、JVT符号化方式の規定に従って符号化処理を実行し、画像復号化装置3は、当該画像符号化装置2と同様のJVT符号化方式の規定に従って復号化処理を実行し得るようになされている。
【0056】
(2)本発明を適用した画像符号化装置の構成
(2−1)画像符号化装置の全体構成
図2に示すように、画像符号化装置2は、外部から供給される動画像信号S1をA/D変換部5を介して動画像データD1を生成し、これを画像並替バッファ6に一旦記憶する。
【0057】
そして画像符号化装置2は、画像並替バッファ6において動画像データD1をフレーム画像単位で圧縮符号化順に並び替え、当該並び替えたフレーム画像をフレームデータD2として後段の各回路部に順次送出する。
【0058】
この場合、画像符号化装置2は、送出対象のフレームデータD2がIピクチャである場合には加算器7だけに送出すると共に、当該フレームデータD2がIピクチャ以外の画像タイプである場合には加算器7及び動き予測補償部8に送出するようになされている。
【0059】
動き予測補償部8は、画像並替バッファ6から与えられるフレームデータD2を縦横16×16画素の画素ブロックでなるマクロブロックに分割した後、これらマクロブロックについて、図14において上述したようにJVT符号化方式に規定される区割パターンTP1〜TP3、及び8画素MBタイプとサブ区割パターンTP5〜TP8との組み合わせのうち例えば区割パターンTP2を指定する。
【0060】
次いで動き予測補償部8は、かかる指定によって得られる区割領域AR2及びAR3について、当該領域AR2及びAR3に対して時間的に過去及び又は未来の参照用ピクチャとのブロックマッチング法により当該領域AR2及びAR3ごとにそれぞれ動きベクトルD3aを検出する。
【0061】
そして動き予測補償部8は、動きベクトルD3aに基づいて予測モードを決定し、当該決定した予測モードを実行することにより、フレームメモリ14に記憶されている参照用ピクチャを動きベクトルD3aに応じて動き補償し、その結果得られる予測データD4を加算器7及び13に送出する。
【0062】
このとき動き予測補償部8は、動きベクトルD3aを可逆符号化処理部17に送出すると共に、マクロブロックについて指定した例えば区割パターンTP2と、当該区割パターンTP2に対して実行した予測モードの種類とに基づいてMBタイプ情報D3bを生成して可逆符号化処理部17に送出するようになされている。
【0063】
このように動き予測補償部8は、従来の符号化方式には規定されていないブロックサイズ(区割パターンTP2、TP3及びTP5〜TP8)に基づく動き予測補償を実行し得るようになされている。
【0064】
加算器7は、動き予測補償部8から予測データD4が与えられる場合には、画像並替バッファ6より与えられるフレームデータD2(Iピクチャ以外の画像タイプ)から当該予測データD4を減算することにより、予測残差である差分データD5として直交変換部9に送出する。
【0065】
これに対して加算器7は、予測データD4が与えられない場合には、画像並替バッファ6より与えられるフレームデータD2(Iピクチャ)をそのまま差分データD5として直交変換部9に送出する。
【0066】
直交変換部9は、差分データD5に対して離散コサイン変換等の直交変換処理を施すことにより直交変換係数データD6を生成し、これを量子化部10に送出する。
【0067】
量子化部10は、直交変換係数データD6に対して量子化処理を施すことにより量子化データD7を生成し、これを逆量子化部11及び可逆符号化処理部17にそれぞれ送出する。
【0068】
この場合、量子化部10においては、量子化パラメータ値を決定づけるための量子化制御データD8がレート制御部16によるフィードバック制御に従って与えられており、当該量子化制御データD8の量子化パラメータ値に応じて量子化データD7を生成し得るようになされている。
【0069】
逆量子化部11は、量子化部10から与えられる量子化データD7に対して逆量子化処理を施すことにより、直行変換係数データD6に相当する直交変換係数データD9を復元し、これを逆直交変換部12に送出する。
【0070】
逆直交変換部12は、逆量子化部11から与えられる直交変換係数データD9に対して逆直交変換処理を施すことにより、差分データD5に相当する差分データD10を復元し、これを加算器13に送出する。
【0071】
加算器13は、動き予測補償部8から予測データD4が与えられる場合には、逆直行変換部11より与えられる差分データD10に当該予測データD4を加算することにより、フレームデータD2に相当するフレームデータD11を復元し、これをデブロックフィルタ14に送出する。
【0072】
これに対して加算器13は、動き予測補償部8から予測データD4が与えられない場合には、逆直行変換部11より与えられる差分データD10をそのままフレームデータD11としてデブロックフィルタ14に送出する。
【0073】
デブロックフィルタ14は、加算器13から与えられるフレームデータD11のうち互いに隣接するマクロブロック間に歪みが生じている場合には、当該歪み部分をフィルタリングすることにより滑らかにした後、必要に応じて参照用ピクチャとしてフレームメモリ15に記憶する。
【0074】
これに対してデブロックフィルタ14は、フレームデータD11のうち互いに隣接するマクロブロック間に歪みが生じていない場合には、当該フレームデータD11を必要に応じて参照用ピクチャとしてフレームメモリ15に記憶する。
【0075】
一方、可逆符号化処理部17は、量子化部10から与えられる量子化データD7、動き予測補償部8から与えられる動きベクトルD3a及びMBタイプ情報D3bに対してそれぞれ2値適応算術符号化処理を施すことにより量子化符号化データD13、動きベクトル符号化データD14及びMBタイプ符号化データD15をそれぞれ生成する。
【0076】
そして可逆符号化処理部17は、量子化符号化データD13、動きベクトル符号化データD14及びMBタイプ符号化データD15を蓄積バッファ18に蓄積した後、これらを画像圧縮情報D16として送信部(図示せず)及びインターネット4(図1)を順次介して画像復号化装置3に送信するようになされている。
【0077】
かかる構成に加えて、セマンティクス制御部19は、量子化部10から与えられる量子化制御データD8に示される所定の量子化パラメータ値(後述する)に応じて、可逆符号化処理部17において用いられるユナリコード(Unary Code)の割り当てを切換制御するためのコード切換データD17を生成し、これを可逆符号化処理部17に送出し得るようになされている。
【0078】
(2−2)可逆符号化処理部の構成
次に、可逆符号化処理部17の具体的な回路構成について説明する。但し、可逆符号化処理部17は、量子化データD7、動きベクトルD3a及びMBタイプ情報D3b(図2)に対してそれぞれ別々の処理系列で2値適応算術符号化処理を実行するが、ここでは本発明に係るMBタイプ情報D3bに対する処理系列の回路構成について説明する。
【0079】
図3に示すように、可逆符号化処理部17は、コンテキストモデル部20と、2値化部21と、適応2値算術符号化器22とによって構成される。
【0080】
コンテキストモデル部20は、既に符号化された過去のMBタイプ情報に基づいて、動き予測補償部8から与えられる符号化対象のMBタイプ情報D3bに対する符号化モードを選択し、当該選択した符号化モードに応じてそれぞれ異なる処理系列に振り分ける。但し、ここでは説明の便宜上、同系列で行うものとして当該MBタイプ情報D3bを2値化部21に送出する。
【0081】
2値化部21は、コンテキストモデル部20から与えられるMBタイプ情報D3bについて、表1及び表2に示した2値化テーブルに代えて、表3に示したユナリコードを適用して2値化する。
【0082】
このユナリコードにおいては、上述したように、n番目のユナリコードシンボルに対して、n個の‘1,の最後に‘0,を付加してなる単純な規則性を有するバイナリ列が生成される。
【0083】
実際上、2値化部21は、コンテキストモデル部20から供給されるMBタイプ情報D3bがPピクチャである場合、図4(A)に示すように、当該MBタイプの種類に対応させて予め割り当てられているコード番号に、ユナリコードを対応付けた状態(以下、これをPタイプ第1割当状態と呼ぶ)で、PピクチャにおけるMBタイプの種類を2値化するようになされている。
【0084】
従って2値化部21は、表1に示したPピクチャにおけるMBタイプの2値化テーブルを参照することなくMBタイプの種類に応じて2値化することができ、これによりPピクチャにおけるMBタイプの2値化テーブルを参照しない分だけ処理負荷を低減し得るようになされている。
【0085】
因みに、図4(A)中に示される「Intra」については、イントラ符号化を表しており、区割パターンTP1〜TP4のいずれもが該当し得る。
【0086】
ここで、JVT符号化方式に規定されているPピクチャのテスト画像に対してJVT符号化方式の規定に則って符号化した際に、量子化パラメータ値に応じたMBタイプの発生頻度を図5に示す。
【0087】
図5に示されているように、量子化パラメータ値QPの減少に応じて、コード番号「4」(図4(A))に割り当てられている縦横8×8画素でなるMBタイプ(以下、これを8画素MBタイプと呼ぶ)の発生頻度が極端に増加しているのが分かる。これは、量子化パラメータ値QPが小さいほど転送レートが高くなるので発生符号量を多く割り当てることができることによるものである。
【0088】
従って、2値化部21は、量子化パラメータ値QPが小さいとき(即ち8画素MBタイプの発生頻度が高いとき)にPタイプ第1割当状態(図4(A))で2値化し続けると、コード番号「4」に最もデータ長の長いユナリコードが対応していることにより、表1における2値化テーブルを用いて2値化した際に得られるバイナリ列のデータ長よりも長くなってしまうことになり、後段の2値適応算術符号化器22で算術符号化処理を実行する際の符号化効率が低下してしまう。
【0089】
ここで、量子化パラメータ値QPと、8画素MBタイプと、ユナリコードのデータ長との関係をまとめてみると、量子化パラメータ値QP(図5)が大きければ8画素MBタイプの発生頻度が低くなり、当該発生頻度が低ければ8画素MBタイプに対するユナリコードのデータ長が長くても符号化効率の低下しない関係にある。
【0090】
これに対して量子化パラメータ値QP(図5)が小さければ8画素MBタイプの発生頻度が高くなり、当該発生頻度が高ければ8画素MBタイプに対するユナリコードのデータ長が長いと符号化効率の低下してしまう関係にある。
【0091】
すなわち、8画素MBタイプの発生頻度と、当該8画素MBタイプに対するユナリコードのデータ長とにおける増減に所定の相関関係が成立しており、従って図5中において、8画素MBタイプに対する発生頻度のほぼ中間にあたる量子化パラメータ値「32」を指標とすれば、コード番号「4」に対してユナリコードにより生成されるデータ長が符号化効率の低下に起因するか否かの指標とし得る。
【0092】
また、量子化パラメータ値の変動に応じて、MBタイプの種類ごとの発生頻度がそれぞれ変化しているので、切換後におけるMBタイプの種類ごとの発生頻度に応じた全体としてのユナリコードのデータ長に比して、切換前におけるMBタイプの種類ごとの発生頻度に応じた全体としてのユナリコードのデータ長のほうが短くなる場合もある。
【0093】
かかる関係の平均的な値となる量子化パラメータ値Qとして「32」を指標とする。
【0094】
また、量子化パラメータ値QP(図5)が小さいとき、量子化パラメータ値QPの変動に応じて発生頻度の増減が大きい縦横16×8画素でなるMBタイプの発生頻度については、低くなっているのが分かる。つまり、8画素MBタイプの発生頻度が高くなれば、縦横16×8画素でなるMBタイプの発生頻度が低くなっており、この増減の相関関係の中間となる量子化パラメータ値QPとして「32」を指標とする。
【0095】
そこで、2値化部21は、量子化パラメータ値QPとして「32」未満の場合には、8画素MBタイプに割り当てられていたコード番号「4」(図4(A))の割り当てを、図4(B)に示すように「1」に切り換え、これに伴ってコード番号「1」及び「2」の割り当てをそれぞれ「2」及び「4」(図5(B))に切り換えた状態(以下、これをPピクチャ第2割当状態と呼ぶ)とし、当該コード番号「4」に対するユナリコードのデータ長を変更する。
【0096】
従って2値化部21は、量子化パラメータ値QPが「32」未満であっても、8画素MBタイプに割り当てられたコード番号「4」に対応するユナリコードのデータ長が極端に長くなることを回避することができ、その結果、当該8画素MBタイプにを符号化する際における符号化効率の低下を防止し得るようになされている。
【0097】
このように2値化部21は、量子化パラメータQPが「32」以上の場合にはPピクチャ第1割当状態に従ってMBタイプ情報D3bを2値化し、これに対して「32」未満の場合にはPピクチャ第2割当状態に従ってMBタイプ情報D3bを2値化することにより、MBタイプTP4の発生頻度に係わらず、2値化処理自体の処理負荷を低減し、かつ符号化効率の低下を防止し得るようになされている。
【0098】
一方、2値化部21は、コンテキストモデル部20から供給されるMBタイプ情報D3bがBピクチャである場合、Pピクチャと同様に、図6に示すように、当該MBタイプの種類に対応させて予め割り当てられているコード番号に、ユナリコードを割り当てた状態(以下、これをBタイプ第1割当状態と呼ぶ)で、PピクチャにおけるMBタイプの種類を2値化する。
【0099】
従って2値化部21は、表1に示したBピクチャのMBタイプに対する2値化テーブルを参照しない分だけ処理負荷を低減し得るようになされている。
【0100】
この場合、2値化部21は、Pピクチャよりもはるかにコード数が多いBピクチャのMBタイプの2値化テーブルを参照しない分だけ、Pピクチャよりも一段と処理負荷を低減し得るようになされている。
【0101】
ここで、図7に示すように、Pピクチャと同様に、量子化パラメータ値QPの減少に応じて、コード番号「22」(図6)に割り当てられている8画素MBタイプの発生頻度が極端に増加しているのが分かる。
【0102】
従って2値化部21は、Pピクチャと同様に、量子化パラメータ値QPが「32」未満の場合には、8画素MBタイプに割り当てられていたコード番号「22」(図6)の割り当てを、図8に示すようにコード番号「4」へ切り換え、これに伴ってMBタイプTP2及びTP3に対応するユナリコードシンボルの割り当てを1つずつ繰り下げた状態(以下、これをBタイプ第2割当状態と呼ぶ)とし、当該コード番号「22」に対応するユナリコードのデータ長を変更するようになされている。
【0103】
そして2値化部21は、かかる割当状態(以下、これをBタイプ第2割当状態と呼ぶ)で2値化処理を実行することにより、BピクチャにおけるMBタイプの種類に応じたバイナリ列を生成する。
【0104】
この場合、2値化部21は、Bタイプ第1割当状態(図6)における8画素MBタイプに対するユナリコードのデータ長と、Bタイプ第1割当状態(図8)における8画素MBタイプに対するユナリコードのデータ長との差分が大きいので、当該Bタイプ第1割当状態からBタイプ第2割当状態へ切り換えることにより、8画素MBタイプに対するユナリコードのデータ長を極端に短くすることができ、その結果、当該ユナリコードを符号化する際の符号化効率の低下をPピクチャに比して一段と防止し得るようになされている。
【0105】
また、2値化部21は、コンテキストモデル部20から供給されるMBタイプ情報D3bがPピクチャ又はBピクチャにおけるサブMBタイプTP5〜TP8を示している場合には、当該サブMBタイプの種類に対応させて予め割り当てられているコード番号(表2)に、ユナリコードを割り当てることによりサブMBタイプの種類を2値化する。
【0106】
従って2値化部21は、表2におけるサブMBタイプの2値化テーブルを参照することなく、サブMBタイプTP5〜TP8を2値化することができ、これにより当該2値化テーブルを参照しない分だけ処理負荷を低減し得るようになされている。
【0107】
ここで、Pピクチャ及びBピクチャにおける量子化パラメータ値QPに応じたサブMBタイプの発生頻度について図9及び図10に示すように、MBタイプ(図5及び図7)とは異なり、量子化パラメータ値に変動があっても、コード番号「3」(図10)及び「12」(図10)に相当する縦横4×4画素でなるサブMBタイプの発生頻度の増減差が小さいのが分かる。
【0108】
従って2値化部21は、サブMBタイプについては、量子化パラメータ値QPに応じてサブMBタイプの種類にそれぞれ予め割り当てられているコード番号をあえて切り換えなくても、縦横4×4画素でなるサブMBタイプに対するユナリコードのデータ長が極端に長くはならないので、符号化効率の低下を招くことなく符号化し得るようになされている。
【0109】
このようにして2値化部21は、コンテックスモデル部20から供給されるMBタイプ情報D3bに対してユナリコードに基づく2値化処理を施すことにより2値化データD21生成し、これを2値適応算術符号化器22に送出する。
【0110】
実際上、2値化部21は、セマンティクス制御部19(図2)から供給されるコード切換データD17に基づいて、量子化パラメータ値QP「32」を境界としてコード番号の割り当てを切り換えるようになされている。
【0111】
2値適応算術符号化器22は、2値化部21から供給された2値化データD21に対して、例えばアルスメディックコーディングと呼ばれる2値適応算術符号化処理を施すことによりMBタイプ符号化データD22を生成し、これを蓄積バッファ18(図2)に送出する。
【0112】
因みに、可逆符号化処理部17においては、Pピクチャ及びBピクチャにおけるMBタイプとサブMBタイプとをそれぞれ別々の処理系列でコンテキストモデル化処理、2値化処理及び2値適応算術符号化処理を行っているので、同一のユナリコードを共用しても誤認等がおこらないようになされている。
【0113】
(2−3)符号化処理手順
次に、可逆符号化処理部17における符号化処理手順について図11に示すフローチャートを用いて説明するが、ここでは本発明に係るPピクチャ及びBピクチャのMBタイプのうち、Pピクチャ及びBピクチャのMBタイプについて説明する。すなわち可逆符号化処理部17は、ルーチンRT1の開始ステップから続くステップSP1へ移る。
【0114】
ステップSP1において可逆符号化処理部17は、符号化対象のPピクチャにおけるMBタイプ情報D3bを受け付けたか否かを判断する。ここで否定結果が得られると、当該MBタイプ情報D3bを待ち受ける。
【0115】
これに対して肯定結果が得られると、このことはPピクチャにおけるMBタイプ情報D3bを受け付けたこと、即ちPピクチャにおけるMBタイプ情報D3bを、対応する処理系列に入力したことを表しており、このとき可逆符号化処理部17は、次のステップSP2へ移る。
【0116】
ステップSP2において可逆符号化処理部17は、PピクチャにおけるMBタイプ情報D3bに対してコンテキストモデル化処理を施すことにより符号化モードを選択し、次のステップSP3へ移る。
【0117】
ステップSP3において可逆符号化処理部17は、セマンティクス制御回路19(図2)から与えられるコード切換データD17を受け取ったか否かを判断する。
【0118】
ここで否定結果が得られると、このことはレート制御部16から供給される量子化制御データD8(図2)の量子化パラメータ値QP(図5)が「32」以上の状態から「32」未満の状態へ移行していない、あるいは「32」未満の状態から「32」以上の状態へ移行していないことを表しており、このとき可逆符号化処理部17は、次のステップSP5へ移る。
【0119】
これに対して肯定結果が得られると、このことはレート制御部16から供給される量子化制御データD8(図2)の量子化パラメータ値QP(図5)が「32」以上の状態から「32」未満の状態へ移行した、あるいは「32」未満の状態から「32」以上の状態へ移行したことを表しており、このとき可逆符号化処理部17は、次のステップSP4へ移る。
【0120】
ステップSP4において可逆符号化処理部17は、MBタイプの各種類に対するコード番号の割り当て状態がPピクチャ第1割当状態(図4(A))であった場合には、当該割り当てをPピクチャ第2割当状態(図4(B))に切り換え、これに対してPピクチャ第2割当状態(図4(B))であった場合には、当該割り当てをPピクチャ第1割当状態(図4(B))に切り換え、次のステップSP5へ移る。
【0121】
ステップSP5において可逆符号化処理部17は、今現在MBタイプの種類ごとに割り当てられている割当状態で2値化処理を実行することにより、PピクチャにおけるMBタイプの種類に応じたユナリコードを2値化データD21として生成し、次のステップSP6へ移る。
【0122】
ステップSP6において可逆符号化処理部17は、ステップSP5で生成した2値化データD21に対して2値適応算術符号化処理を実行することによりMBタイプ符号化データD22を生成し、これを蓄積バッファ18に送出した後、ステップSP1に戻る。
【0123】
このように可逆符号化処理部17は、コード切換データD17に応じてMBタイプに対するコード番号の割り当てを適応的に切り換えることにより、符号化処理の処理負荷を低減し、かつ、符号化効率の低下を防止し得るようになされている。
【0124】
(3)本発明を適用した画像復号化装置の構成
(3−1)画像復号化装置の全体構成
図12に示すように、画像復号化装置3は、インターネット(図1)及び受信部(図示せず)を順次介して受信した画像圧縮情報D16(図2)を蓄積バッファ37に蓄積し、当該蓄積した画像圧縮情報D16を参照することにより量子化制御データD8を認識し、これをセマンティクス制御部32に送出する。
【0125】
セマンティクス制御部32は、蓄積バッファ31から与えられる量子化制御データD8の量子化パラメータ値に応じてコード切換データD24を生成し、これを復号側可逆符号化処理部33に送出し得るようになされている。
【0126】
復号側可逆符号化処理部33は、蓄積バッファ31に蓄積された画像圧縮情報D16を量子化符号化データD13、動きベクトル符号化データD14及びMBタイプ符号化データD15としてそれぞれ読み出す。
【0127】
次いで復号側可逆符号化処理部33は、量子化符号化データD13、動きベクトル符号化データD14及びMBタイプ符号化データD15に対して2値適応算術符号化処理を施すことにより、量子化データD7、動きベクトルD3a及びMBタイプ情報D3b(図2)に相当する量子化データD25、動きベクトル情報D26及びMBタイプ情報D27をそれぞれ復元する。
【0128】
そして復号側可逆符号化処理部33、量子化データD25を逆量子化部34に送出すると共に、動きベクトル情報D26及びMBタイプ情報D27を動き予測補償部37に送出する。
【0129】
逆量子化部34は、復号側可逆符号化処理部33から与えられる量子化データD25に対して逆量子化処理を施すことにより、直交変換係数データD6(図2)に相当する直交変換係数データD28を復元し、これを逆直交変換部35に送出する。
【0130】
逆直交変換部35は、逆量子化部34から与えられる直交変換係数データD28に対して逆直交変換処理を施すことにより、差分データD5(図2)に相当する差分データD29を復元し、これを加算器36に送出する。
【0131】
一方、動き予測補償部37は、復号側可逆符号化処理部33から与えられる動きベクトル情報D26及びMBタイプ情報D27に基づいて予測モードを実行することにより、フレームメモリ38に記憶されている参照用ピクチャを動きベクトルに応じて動き補償し、その結果得られる予測データD30を加算器36に送出する。
【0132】
加算器36は、動き予測補償部37から予測データD30が与えられる場合には、逆直行変換部35より与えられる差分データD29に当該予測データD30を加算することにより、フレームデータD2(図2)に相当するフレームデータD31を復元し、これをデブロックフィルタ39に送出する。
【0133】
これに対して加算器36は、動き予測補償部37から予測データD30が与えられない場合には、逆直行変換部35より与えられる差分データD29をそのままフレームデータD31としてデブロックフィルタ39に送出する。
【0134】
デブロックフィルタ39は、加算器36から与えられるフレームデータD31のうち互いに隣接するマクロブロック間に歪みが生じている場合には、当該歪み部分をフィルタリングすることにより滑らかにし、その結果得られる補正フレームデータD32を生成し、これを画像並替バッファ40に一旦記憶すると共に、当該補正フレームデータD32を参照用ピクチャとして必要に応じてフレームメモリ38に記憶する。
【0135】
これに対してデブロックフィルタ39は、フレームデータD31のうち互いに隣接するマクロブロック間に歪みが生じていない場合には、当該フレームデータD31を補正フレームデータD32として画像並替バッファ40に一旦記憶すると共に、当該フレームデータD31を必要に応じて参照用ピクチャとしてフレームメモリ38に記憶する。
【0136】
画像復号化装置3は、画像並替バッファ40に順次記憶された補正フレームデータD32を送出順に並び替えた後、動画像データD33としてD/A変換部41に送出し、当該D/A変換部41を介して得られる動画像信号S2を外部に送出するようになされている。
【0137】
(3−2)復号側可逆符号化処理部の構成
次に、図13に示す復号側可逆復号化処理部33の回路構成について説明するが、上述した可逆符号化処理部17と同様の処理を行っていることにより、ここでは簡単に説明する。
【0138】
但し、復号側可逆復号化処理部33は、量子化符号化データD13、動きベクトル符号化データD14及びMBタイプ符号化データD15(図12)に対してそれぞれ別々の処理系列で2値適応算術符号化処理を実行するが、ここでは本発明に係るMBタイプ情報D3bに対する処理系列の回路構成について説明する。
【0139】
復号側可逆符号化処理部33は、MBタイプ符号化データD15に対して2値適応算術符号化処理を実行することにより、2値化データD21(図3)に相当する2値化データD35を生成し、これを2値化部51に送出する。
【0140】
2値化部51は、復号側可逆符号化処理部33から与えられる2値化データD21に対してユナリコードに基づく逆2値化処理を施すことにより、MBタイプ情報D3b(図3)に相当するMBタイプ情報D36を生成し、これをコンテキストモデル部52を介してMBタイプ情報D27として動き予測補償部37に送出するようになされている。
【0141】
ここで、2値化部51は、セマンティクス制御回路19から与えられるコード切換データD51を受け取ると、量子化パラメータ値QPに応じてMBタイプに対するユナリコードのコード番号の割り当てを適応的に切り換えることにより、当該2値化処理自体の負荷処理を低減し、かつ符号化効率の低下を防止し得るようになされている。
【0142】
以上の構成において、画像符号化装置2は、動き予測補償部8から与えられるMBタイプ情報D3bを2値化する際に、当該MBタイプ情報D3bに示されるMBタイプと、当該MBタイプTP1〜TP4をさらに細分するサブMBタイプとの各タイプに分けて2値化する。
【0143】
この場合、画像符号化装置2は、MBタイプ及びサブMBタイプに定められているコード番号に、JVT符号化方式において本来MBタイプ情報D3b以外に用いられているユナリコードを割り当てることにより2値化するようにした。
【0144】
これにより画像符号化装置2は、JVT符号化方式で規定されている表1及び表2に示した2値化テーブルを参照しない分だけ処理負荷を低減することができ、また、特にMBタイプについては表2における2値化テーブルを用いて2値化する場合に比して極端にデータ列の短い状態で2値化することができるので、当該サブMBタイプを符号化する際の符号化効率を向上し得るようになされている。
【0145】
さらに、画像符号化装置2は、MBタイプについて2値化する際には、量子化パラメータ値QPとして「32」指標として、8画素MBタイプに割り当てるコード番号を、第1割当状態(図4(A)又は図6)から第2割当状態(図4(B)又は図8)あるいは第2割当状態から第1割当状態へ適応的に切り換えることにより、当該コード番号に対するユナリコードのデータ長を変更し、当該8画素MBタイプの発生頻度の増減にかかわらず、符号化効率を低下させるこなく符号化処理の処理負荷を低減することができる。
【0146】
以上の構成によれば、MBタイプの種類ごとにそれぞれ割り当てられたコード番号の割り当てを、量子化パラメータ値QPに応じて適応的に切り換えるようにしたことにより、2値化テーブルを用いることなく2値化することができると共に、8画素MBタイプの発生頻度の増減にかかわらず、符号化効率を低下させるこなく符号化処理の処理負荷を低減することができる。
【0147】
なお上述の実施の形態においては、画像としての動画像信号を圧縮符号化することにより得られる画像圧縮情報を送受信する場合について述べたが、本発明はこれに限らず、静止画像信号を圧縮符号化することにより得られる画像圧縮情報を送受信するようにしても良い。
【0148】
また上述の実施の形態においては、所定の区割パターンとして4種類の区割パターンTP1〜TP4に従ってマクロブロックを区割りする場合について述べたが、本発明はこれに限らず、例えばマクロブロックを縦横16×4画素に区割りされた4組の領域等、この他種々の領域に区割りされた区割パターンに従ってマクロブロックを区割りするようにしても良い。
【0149】
さらに上述の実施の形態においては、2値コードとしてのユナリコードを用いる場合について述べたが、本発明はこれに限らず、単純な生成則であればこの他種々の2値コードを用いるようにしても良い。
【0150】
さらに上述の実施の形態においては、符号化装置としての可逆符号化処理部17及びが図3について上述したハードウェア構成によって符号化処理を実行する場合について述べたが、本発明はこれに限らず、当該ハードウェア構成に代えて、図11について上述した符号化処理手順を実行する符号化処理プログラムによって符号化処理を実行するようにしても良い。
【0151】
この場合、可逆符号化処理部17は、内部ROM(図示せず)等に格納した符号化処理プログラムを内部RAM(図示せず)に展開することにより符号化処理手順を実行するようにしても良く、また当該符号化処理プログラムが格納されたプログラム媒体をインストールすることにより符号化処理手順を実行するようにしても良い。
【0152】
かかるプログラム媒体としては、CD−ROM(Compact Disc−Read Only Memory)やDVD(Digital Versatile Disc)等のパッケージメディアのみならず、半導体メモリや磁気ディスク等で実現しても良い。またこれらプログラム媒体にプログラムを格納する手段としては、ローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線又は無線通信媒体を利用してもよく、ルータやモデム等の各種インターフェイスを介して格納するようにしても良い。
【0153】
【発明の効果】
上述のように本発明によれば、画素ブロックについて所定の区割パターンが指定されることにより得られる区割領域と、当該区割領域に対する予測モードとの組み合わせを表すマクロブロックタイプに対して2値算術符号化処理を施す符号化処理方法であって、マクロブロックタイプの種類ごとにそれぞれ割り当てられたコード番号に2値コードを適用し、コード番号の割り当てを量子化パラメータ値に応じて切り換えるようにした。
【0154】
従って、2値化テーブルを用いることなく2値コードによって2値化することができると共に、量子化パラメータ値の変動によってマクロブロックタイプの発生頻度が増加した場合であっても、マクロブロックタイプの種類ごとにそれぞれ割り当てられたコード番号を量子化パラメータ値に応じて切り換えるので、当該増加したマクロブロックタイプへ割り当てられるコード番号に、データ長の長い2値コードが対応してしまうことを回避することができ、かくして、符号化効率を低下させることなく符号化処理の処理負荷を低減することができる。
【図面の簡単な説明】
【図1】画像送受信システムの構成を示すブロック図である。
【図2】画像符号化装置の構成を示すブロック図である。
【図3】可逆符号化処理部の構成を示すブロック図である。
【図4】PピクチャのMBタイプに対するユナリコードの割当状態を示す略線図である。
【図5】Pピクチャにおける量子化パラメータに応じたMBタイプの発生頻度を示す略線図である。
【図6】BピクチャのMBタイプに対するユナリコードの割当状態(1)を示す略線図である。
【図7】Bピクチャにおける量子化パラメータに応じたMBタイプの発生頻度を示す略線図である。
【図8】BピクチャのMBタイプに対するユナリコードの割当状態(2)を示す略線図である。
【図9】Pピクチャにおける量子化パラメータに応じたサブMBタイプの発生頻度を示す略線図である。
【図10】Bピクチャにおける量子化パラメータに応じたサブMBタイプの発生頻度を示す略線図である。
【図11】符号化処理手順を示すフローチャートである。
【図12】画像復号化装置の構成を示すブロック図である。
【図13】復号側符号化処理部の構成を示すブロック図である。
【図14】区割タイプを示す略線図である。
【符号の説明】
2……画像符号化装置、3……画像復号化装置、8、37……動き予測補償部、17、33……可逆符号化処理部、19、32……セマンティクス制御部、20、52……コンテキストモデル部、21、51……2値化部、22、50……適応2値算術符号化部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an encoding method, an encoding device, and a decoding device, and is suitably applied to, for example, a transmission / reception system that transmits and receives image compression information via a network such as satellite broadcasting or the Internet.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in a transmission / reception system, an encoding device converts image compression information by performing an encoding process based on a predetermined image encoding method on moving image data obtained by digitizing a moving image signal, for example. It is generated and transmitted to the image decoding device via the network.
[0003]
On the other hand, the decoding device receives the image compression information transmitted from the encoding device, and performs a decoding process on the image compression information in accordance with the same image encoding method as that of the encoding device. The moving image data is restored.
[0004]
Such an image coding system includes an image coding system called MPEG standardized by the ISO / IEC Coding Experts Group (MPEG) for the purpose of general-purpose image coding, and a video conferencing image coding system by the ITU group. H. standardized for the purpose of An image coding method called H.26 is known.
[0005]
In recent years, with the spread of portable terminal devices such as portable telephones, the necessity of an image encoding method for realizing higher encoding efficiency has been suggested. Accordingly, standardization of an image coding method called JVT (Joint Model of Enhanced-Compression Video Coding) (hereinafter, referred to as JVT coding method) is being promoted.
[0006]
In this JVT coding method, as shown in FIG. 14, a macroblock, which is a pixel block of 16 × 16 pixels vertically and horizontally, is divided into a set of divided areas AR1 composed of 16 × 16 pixels vertically and horizontally and 8 × 16 pixels vertically and horizontally. Two sets of divided areas AR2 and AR3, two sets of divided areas AR4 and AR5 divided into 16 × 8 pixels vertically and horizontally, and four sets of divided areas AR6 and AR7 divided into 8 × 8 pixels vertically and horizontally. , AR8 and AR9, it is possible to designate any of the four types of division patterns TP1 to TP4.
[0007]
When a division pattern consisting of four sets of division areas AR6, AR7, AR8, and AR9 is specified for a macroblock, each of the four sets of division areas AR6, AR7, AR8, and AR9 has 8 × 8 pixels. , A set of divided areas AR10, two sets of divided areas AR11 and AR12 divided into 4 × 8 pixels, and a set of divided areas AR13 and AR14 divided into 8 × 4 pixels. One of four types of sub-partitioning patterns TP5 to TP8 consisting of four sets of partitioning areas AR15, AR16, AR17 and AR18 divided into × 4 pixels is designated.
[0008]
In this case, in the JVT encoding method, one of the division patterns TP1 to TP3 is specified for one macroblock, or a combination of the 8-pixel MB type and one of the sub-division patterns TP5 to TP8 is specified. By doing so, each divided area AR1 to AR18 can have a motion vector independently.
[0009]
Accordingly, in the JVT encoding method, the type of a macroblock type (hereinafter, referred to as an MB type) representing a combination of the divided areas AR1 to AR9 and the prediction modes for the divided areas AR1 to AR9. , A binary table in which different binary strings are associated with each other is defined in detail for each picture type.
[0010]
In addition, different binary strings are respectively set according to the types of sub-macroblock types (hereinafter, referred to as sub-MB types) that represent combinations of the partition areas AR10 to AR18 and the prediction modes for the partition areas AR10 to AR18. The associated binarization table is also defined in detail for each picture type.
[0011]
Here, Table 1 shows the binarization table of the MB type in the P picture, SP picture, and B picture, and Table 2 shows the binarization table of the sub MB type.
[0012]
[Table 1]
Figure 2004135252
[0013]
[Table 2]
Figure 2004135252
[0014]
In the MB type item (Value of mb_type) in Table 1 and the sub MB type item (Value of sub_mb_type) in Table 2, “0”, “1”,... Represent code numbers, and the parentheses following the code numbers are in parentheses. It shows the mode of the prediction mode and the size of the divided areas AR1, AR2,... Or AR18.
[0015]
In practice, the encoding apparatus performs motion prediction compensation processing for an arbitrary macroblock according to a binary adaptive arithmetic technique called, for example, CABAC (Context-based Variable Length Coding) as an encoding technique defined in the JVT encoding scheme. When the MB type information obtained as a result of the execution is a P picture, an SP picture, and a B picture, first, refer to the binarization table of the MB type in Table 1 to determine the binary sequence corresponding to the code number corresponding to the MB type. Is binarized according to
[0016]
If the code number corresponding to the MB type in Table 1 is “4” or “22”, that is, if the code number is an 8-pixel MB type, the encoding apparatus further converts the binary value of the sub MB type in Table 2. After referring to the conversion table and binarizing according to the binary string corresponding to the code number corresponding to the sub-MB type, encoded data is generated by performing an arithmetic coding process using an appearance probability. (For example, see Non-Patent Document 1).
[0017]
[Non-patent document 1]
DRAFT ISO / IEC 14496-10: 2002 (E)
[0018]
Here, a Japanese translation of a part related to the binarization of the JVT encoding method in Non-Patent Document 1 is described.
[0019]
A CABAC coding method defined in the JVT coding method will be described. Regarding any thin task element in the image compression information, first, an appropriate model for the symbol is selected according to the past history. Modeling according to the state of adjacent symbols is called context modeling.
[0020]
Next, if the symbol is not binarized, binarization is performed. The binarized symbols are subjected to adaptive arithmetic coding using probability estimation. After the encoding process is performed, the related models are updated, so that each model can perform the encoding process according to the statistics of the actual image compression information.
[0021]
Hereinafter, a binarization process (binarization) defined in the JVT encoding method will be described.
[0022]
Table 3 shows the table for the first 5 symbols of binarization by unary code.
[0023]
[Table 3]
Figure 2004135252
[0024]
For Code symbol C, a binary sequence obtained by adding '0' to the end of C '1's corresponds to the code symbol C. The bin number = 1 corresponds to the first bit of the bin, the bin number = 2 to the second bit, and the corresponding bin number increases toward the last bit.
[0025]
Truncated unary (TU) binarization is a finite number of symbols [0, ..., C max ]. SymbolC <C max ; Is subjected to unary binarization defined in Table 3 to obtain a symbol C max Has C max Assign one. The assignment method of Bin number is the same as in the case of unary binarization.
[0026]
Concatenate unary / k th -Order Exp-Golomb (UEGk) binarization is C max A converted binary sequence in which a truncated unary binary code (prefix code) with Ucoff (Ucoff. Cut off parameter) and a k-th Exp-Golomb code (suffix code) are connected. When SymbolC is C <Ucoff, there is no suffix code, and when C ≧ Ucoff, the suffix code is an Exp-Golomb code for SymbolC-Ucoff.
[0027]
The Exp-Golomb code of order k for SymbolS is constructed as shown in Table 4:
[0028]
[Table 4]
Figure 2004135252
[0029]
Bin number sets the first bit of unary code as bin_num = 1, and increases by one toward the LSB of the Exp-Golomb code.
[0030]
A finite number of symbols [0, ..., C max ], L-bit (L = log 2 | C max | +1) binarization is applied. Bin number sets the LSB to bin_num = 1 and increases toward the MSB.
[0031]
Next, a context model for bins binarized by the above method will be described.
[0032]
FIG. 9-2 is used to explain a general method of setting the context variable. Symbols or bins of the same syntax element in the left block and the upper block adjacent to the block C are shown as A and B.
[0033]
The first expression that determines the context is:
[0034]
(Equation 1)
Figure 2004135252
[0035]
In addition, three templates are defined as follows.
[0036]
(Equation 2)
Figure 2004135252
[0037]
Table 5 shows how to determine a context variable from two adjacent symbols.
[0038]
[Table 5]
Figure 2004135252
[0039]
ctx_cbp4 is determined by six block types (Luma-DC, Luma-AC, Chroma-U-DC, Chroma-V-DC, Chroma-U-AC, Chroma-V-AC) shown in Table 7.
[0040]
The definitions of ctx-abs-mvd-h [1] and ctx-abs-mvd-v [1] are given by the following equations.
[0041]
[Equation 3]
Figure 2004135252
[0042]
comp means the horizontal component (h) or the vertical component (v). Since an adjacent block may belong to a different macroblock division, the following method for specifying an adjacent block is defined. Initially, a motion vector of 4 × 4 block is oversampled, that is, if the corresponding block is roughly divided, it is considered that the motion vector of the parent block in quadtree is inherited. Conversely, if the block C is divided more coarsely than the adjacent block, the sub-block motion vector at the upper left of the adjacent block is set as the corresponding motion vector. After obtaining the corresponding value in the adjacent block by these processes, the context variable is obtained using Expression (3).
[0043]
(B 1 , ……, b N ) Is equivalent to symbolC binarization, the context variable corresponding to the k-th bin of C is defined as follows.
[0044]
(Equation 4)
Figure 2004135252
[0045]
However, it is assumed that 1 <k ≦ N. Table 6 shows a list of how to provide this kind of context variable.
[0046]
[Table 6]
Figure 2004135252
[0047]
Three additional different context identifiers are additionally used for conditioning the transform coefficients. These context identifiers depend on the context_category shown in Table 7.
[0048]
[Table 7]
Figure 2004135252
[0049]
[Problems to be solved by the invention]
By the way, in the encoding apparatus to which the JVT encoding method is applied, not only the MB type is binarized while always referring to the binarization table having a large number of code numbers, but the MB type is an 8-pixel MB. In the case of the type area size (vertical and horizontal 8 × 8 pixels), the binarization is performed with reference to the binarization table of the MB type in Table 1, and then the binarization table of the sub MB type in Table 2 again. , There is a problem that the processing load in the encoding process increases.
[0050]
The present invention has been made in view of the above points, and intends to propose an encoding method, an encoding device, and a decoding device that can reduce the processing load of the encoding process without lowering the encoding efficiency. Things.
[0051]
[Means for Solving the Problems]
In order to solve such a problem, in the present invention, a macroblock type representing a combination of a divided area obtained by designating a predetermined divided pattern for a pixel block and a prediction mode for the divided area. A coding method for performing a binary arithmetic coding process, wherein a binary code is applied to a code number assigned to each type of macroblock type, and assignment of the code numbers is switched according to a quantization parameter value. To do.
[0052]
Therefore, the binarization can be performed by the binary code without using the binarization table, and even if the occurrence frequency of the macroblock type increases due to the fluctuation of the quantization parameter value, the type of the macroblock type can be increased. Since the code numbers respectively assigned to the macroblock types are switched according to the quantization parameter value, it is possible to avoid that a binary code having a long data length corresponds to the code number assigned to the increased macroblock type. it can.
[0053]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0054]
(1) Configuration of transmission / reception system
In FIG. 1, reference numeral 1 denotes a transmission / reception system as a whole, which is constructed by connecting a transmission target image encoding device 2 and a reception target image decoding device 3 via a network 4 such as the Internet.
[0055]
The image encoding device 2 performs an encoding process according to the JVT encoding method, and the image decoding device 3 performs a decoding process according to the same JVT encoding method as the image encoding device 2. Have been made to get.
[0056]
(2) Configuration of image coding apparatus to which the present invention is applied
(2-1) Overall configuration of image coding apparatus
As shown in FIG. 2, the image encoding device 2 generates moving image data D1 from an externally supplied moving image signal S1 via an A / D converter 5 and temporarily stores the moving image data D1 in an image rearranging buffer 6. Remember.
[0057]
Then, the image encoding device 2 rearranges the moving image data D1 in the image encoding buffer 6 in the order of compression encoding in units of frame images, and sequentially transmits the rearranged frame images as frame data D2 to each subsequent circuit unit. .
[0058]
In this case, the image encoding device 2 transmits the frame data D2 to be transmitted only to the adder 7 when the frame data D2 to be transmitted is an I picture, and adds the frame data D2 when the frame data D2 is an image type other than the I picture. It is sent to the motion detector 7 and the motion prediction compensation unit 8.
[0059]
The motion prediction compensator 8 divides the frame data D2 given from the image rearrangement buffer 6 into macroblocks composed of 16 × 16 pixel blocks in the vertical and horizontal directions, and then, as described above with reference to FIG. For example, the division pattern TP2 is specified among the division patterns TP1 to TP3 specified in the conversion scheme and the combination of the 8-pixel MB type and the sub-division patterns TP5 to TP8.
[0060]
Next, the motion prediction / compensation unit 8 uses the block matching method of temporally past and / or future reference pictures for the divided areas AR2 and AR3 obtained by the designation, for the divided areas AR2 and AR3. A motion vector D3a is detected for each AR3.
[0061]
Then, the motion prediction compensation unit 8 determines a prediction mode based on the motion vector D3a, and executes the determined prediction mode, thereby moving the reference picture stored in the frame memory 14 according to the motion vector D3a. It compensates and sends the resulting prediction data D4 to adders 7 and 13.
[0062]
At this time, the motion prediction compensation unit 8 sends the motion vector D3a to the lossless encoding processing unit 17, and also specifies, for example, a division pattern TP2 specified for the macroblock and the type of prediction mode executed for the division pattern TP2. The MB type information D3b is generated based on the above and transmitted to the lossless encoding processing unit 17.
[0063]
As described above, the motion prediction compensation unit 8 can execute the motion prediction compensation based on the block size (the division patterns TP2, TP3, and TP5 to TP8) which is not defined in the conventional encoding method.
[0064]
When the prediction data D4 is supplied from the motion prediction compensation unit 8, the adder 7 subtracts the prediction data D4 from the frame data D2 (image type other than the I picture) supplied from the image rearrangement buffer 6. Is transmitted to the orthogonal transform unit 9 as difference data D5 that is a prediction residual.
[0065]
On the other hand, when the prediction data D4 is not provided, the adder 7 sends the frame data D2 (I picture) provided from the image rearrangement buffer 6 to the orthogonal transformation unit 9 as the difference data D5 as it is.
[0066]
The orthogonal transform unit 9 generates orthogonal transform coefficient data D6 by performing orthogonal transform processing such as discrete cosine transform on the difference data D5, and sends this to the quantizing unit 10.
[0067]
The quantization unit 10 generates quantization data D7 by performing a quantization process on the orthogonal transform coefficient data D6, and sends the generated data to the inverse quantization unit 11 and the lossless encoding processing unit 17, respectively.
[0068]
In this case, in the quantization unit 10, the quantization control data D8 for determining the quantization parameter value is given according to the feedback control by the rate control unit 16, and according to the quantization parameter value of the quantization control data D8. To generate the quantized data D7.
[0069]
The inverse quantization unit 11 restores the orthogonal transform coefficient data D9 corresponding to the orthogonal transform coefficient data D6 by performing an inverse quantization process on the quantized data D7 provided from the quantization unit 10, and inversely transforms the orthogonal transform coefficient data D9. It is sent to the orthogonal transform unit 12.
[0070]
The inverse orthogonal transform unit 12 restores the difference data D10 corresponding to the difference data D5 by performing an inverse orthogonal transform process on the orthogonal transform coefficient data D9 supplied from the inverse quantization unit 11, and outputs the restored data to the adder 13 To send to.
[0071]
When the prediction data D4 is provided from the motion prediction compensation unit 8, the adder 13 adds the prediction data D4 to the difference data D10 provided from the inverse orthogonal transform unit 11, thereby obtaining a frame corresponding to the frame data D2. The data D11 is restored and sent to the deblocking filter 14.
[0072]
On the other hand, when the prediction data D4 is not supplied from the motion prediction compensation unit 8, the adder 13 sends the difference data D10 supplied from the inverse orthogonal transform unit 11 as it is to the deblocking filter 14 as frame data D11. .
[0073]
If there is distortion between adjacent macroblocks in the frame data D11 given from the adder 13, the deblocking filter 14 smoothes the distortion portion by filtering, and then, if necessary, It is stored in the frame memory 15 as a reference picture.
[0074]
On the other hand, if no distortion occurs between adjacent macroblocks in the frame data D11, the deblocking filter 14 stores the frame data D11 in the frame memory 15 as a reference picture as necessary. .
[0075]
On the other hand, the lossless encoding processing unit 17 performs binary adaptive arithmetic encoding processing on the quantized data D7 given from the quantization unit 10, the motion vector D3a given from the motion prediction compensation unit 8, and the MB type information D3b. By performing this, the quantized coded data D13, the motion vector coded data D14, and the MB type coded data D15 are respectively generated.
[0076]
Then, the lossless encoding processing unit 17 accumulates the quantized encoded data D13, the motion vector encoded data D14, and the MB type encoded data D15 in the accumulation buffer 18, and then transmits them as image compression information D16 (shown in FIG. ) And via the Internet 4 (FIG. 1) to the image decoding device 3 sequentially.
[0077]
In addition to such a configuration, the semantics control unit 19 is used in the lossless encoding processing unit 17 according to a predetermined quantization parameter value (described later) indicated in the quantization control data D8 given from the quantization unit 10. Code switching data D17 for switching control of the assignment of the Unary Code (Unary Code) is generated, and can be transmitted to the lossless encoding processing unit 17.
[0078]
(2-2) Configuration of lossless encoding processing unit
Next, a specific circuit configuration of the lossless encoding processing unit 17 will be described. However, the lossless encoding processing unit 17 executes the binary adaptive arithmetic encoding process on the quantized data D7, the motion vector D3a, and the MB type information D3b (FIG. 2) in separate processing sequences. A circuit configuration of a processing sequence for the MB type information D3b according to the present invention will be described.
[0079]
As shown in FIG. 3, the lossless encoding processing unit 17 includes a context model unit 20, a binarization unit 21, and an adaptive binary arithmetic encoder 22.
[0080]
The context model unit 20 selects an encoding mode for the encoding target MB type information D3b given from the motion prediction compensation unit 8 based on the past encoded MB type information, and selects the selected encoding mode. Are allocated to different processing sequences. However, here, for convenience of description, the MB type information D3b is transmitted to the binarization unit 21 assuming that the MB type information is performed in the same stream.
[0081]
The binarization unit 21 binarizes the MB type information D3b given from the context model unit 20 by applying the unary codes shown in Table 3 instead of the binarization tables shown in Tables 1 and 2. .
[0082]
In this unary code, as described above, a binary sequence having a simple regularity is generated by adding '0' to the end of n '1, for the nth unary code symbol.
[0083]
In practice, when the MB type information D3b supplied from the context model unit 20 is a P-picture, the binarization unit 21 assigns in advance the MB type information D3b corresponding to the type of the MB type as shown in FIG. The type of the MB type in the P picture is binarized in a state where the unary code is associated with the assigned code number (hereinafter, this is referred to as a P type first allocation state).
[0084]
Therefore, the binarization unit 21 can perform binarization according to the type of the MB type without referring to the binarization table of the MB type in the P picture shown in Table 1, whereby the MB type in the P picture The processing load can be reduced by an amount that does not refer to the binarization table.
[0085]
By the way, “Intra” shown in FIG. 4A indicates intra coding, and any of the division patterns TP1 to TP4 may be applicable.
[0086]
Here, when a P-picture test image specified in the JVT encoding method is encoded in accordance with the JVT encoding method, the MB type occurrence frequency according to the quantization parameter value is shown in FIG. Shown in
[0087]
As shown in FIG. 5, according to the decrease in the quantization parameter value QP, an MB type (hereinafter, referred to as “8 × 8” pixels) assigned to a code number “4” (FIG. 4A). It can be seen that the frequency of occurrence of this is called an 8-pixel MB type is extremely increased. This is because the smaller the quantization parameter value QP, the higher the transfer rate, so that a larger amount of generated codes can be allocated.
[0088]
Therefore, when the quantization parameter value QP is small (that is, when the occurrence frequency of the 8-pixel MB type is high), the binarization unit 21 continues to binarize in the P type first allocation state (FIG. 4A). Since the unary code having the longest data length corresponds to the code number “4”, the data length becomes longer than the data length of the binary string obtained when binarization is performed using the binarization table in Table 1. As a result, the coding efficiency at the time of executing the arithmetic coding process in the binary adaptive arithmetic coder 22 at the subsequent stage is reduced.
[0089]
Here, the relationship between the quantization parameter value QP, the 8-pixel MB type, and the data length of the Unary code is summarized. If the quantization parameter value QP (FIG. 5) is large, the frequency of occurrence of the 8-pixel MB type is low. That is, if the occurrence frequency is low, the encoding efficiency does not decrease even if the data length of the unary code for the 8-pixel MB type is long.
[0090]
On the other hand, if the quantization parameter value QP (FIG. 5) is small, the frequency of occurrence of the 8-pixel MB type increases, and if the frequency of occurrence is high, the encoding efficiency decreases if the data length of the unary code for the 8-pixel MB type is long. There is a relationship that will do.
[0091]
That is, a predetermined correlation is established between the occurrence frequency of the 8-pixel MB type and the increase / decrease in the data length of the unary code for the 8-pixel MB type. Therefore, in FIG. If an intermediate quantization parameter value “32” is used as an index, it can be used as an index as to whether or not the data length generated by the unary code with respect to the code number “4” is due to a decrease in coding efficiency.
[0092]
In addition, since the occurrence frequency for each type of MB type changes in accordance with the variation of the quantization parameter value, the data length of the unary code as a whole corresponding to the occurrence frequency for each type of MB type after switching is changed. In comparison, the data length of the unary code as a whole depending on the frequency of occurrence for each type of MB type before switching may be shorter.
[0093]
“32” is used as an index as a quantization parameter value Q that is an average value of the relationship.
[0094]
In addition, when the quantization parameter value QP (FIG. 5) is small, the occurrence frequency of the MB type composed of 16 × 8 pixels in the vertical and horizontal directions whose occurrence frequency increases and decreases according to the variation of the quantization parameter value QP is low. I understand. That is, when the frequency of occurrence of the 8-pixel MB type increases, the frequency of occurrence of the MB type consisting of 16 × 8 pixels in the vertical and horizontal directions decreases, and “32” is used as the quantization parameter value QP which is in the middle of the increase / decrease correlation. Is an index.
[0095]
Therefore, when the quantization parameter value QP is less than “32”, the binarization unit 21 assigns the code number “4” (FIG. 4A) assigned to the 8-pixel MB type to the figure. 4 (B), the code numbers “1” and “2” are assigned to “2” and “4” (FIG. 5 (B)), respectively. Hereinafter, this is referred to as a P picture second allocation state), and the data length of the unary code corresponding to the code number “4” is changed.
[0096]
Therefore, the binarization unit 21 determines that the data length of the unary code corresponding to the code number “4” assigned to the 8-pixel MB type becomes extremely long even if the quantization parameter value QP is less than “32”. As a result, it is possible to prevent a decrease in encoding efficiency when encoding the 8-pixel MB type.
[0097]
As described above, the binarization unit 21 binarizes the MB type information D3b according to the P-picture first allocation state when the quantization parameter QP is equal to or greater than “32”, while Reduces the processing load of the binarization process itself and prevents a decrease in coding efficiency by binarizing the MB type information D3b according to the P picture second allocation state, regardless of the frequency of occurrence of the MB type TP4 It has been made to be able to.
[0098]
On the other hand, when the MB type information D3b supplied from the context model unit 20 is a B picture, the binarization unit 21 associates the MB type information with the type of the MB type as shown in FIG. The type of the MB type in the P picture is binarized in a state where the unary code is allocated to the code number allocated in advance (hereinafter, this is referred to as a B type first allocation state).
[0099]
Therefore, the binarization unit 21 can reduce the processing load by not referring to the binarization table for the MB type of the B picture shown in Table 1.
[0100]
In this case, the binarizing unit 21 can further reduce the processing load more than the P picture by not referring to the MB type binarization table of the B picture having a much larger number of codes than the P picture. ing.
[0101]
Here, as shown in FIG. 7, as in the case of the P picture, the occurrence frequency of the 8-pixel MB type assigned to the code number “22” (FIG. 6) extremely increases in accordance with the decrease in the quantization parameter value QP. You can see that it has increased.
[0102]
Therefore, when the quantization parameter value QP is less than “32”, the binarizing unit 21 assigns the code number “22” (FIG. 6) assigned to the 8-pixel MB type similarly to the P picture. As shown in FIG. 8, the code number is switched to "4", and the assignment of the Unary code symbols corresponding to the MB types TP2 and TP3 is moved down one by one (hereinafter, this is referred to as the B type second assignment state). The data length of the unary code corresponding to the code number “22” is changed.
[0103]
Then, the binarization unit 21 generates a binary string according to the type of the MB type in the B picture by executing the binarization processing in the allocation state (hereinafter, referred to as a B type second allocation state). I do.
[0104]
In this case, the binarization unit 21 determines the data length of the unary code for the 8-pixel MB type in the B-type first allocation state (FIG. 6) and the data length of the unary code for the 8-pixel MB type in the B-type first allocation state (FIG. 8). Since the difference from the data length is large, by switching from the B-type first allocation state to the B-type second allocation state, the data length of the unary code for the 8-pixel MB type can be extremely reduced. A reduction in the coding efficiency when encoding the Unary code can be further prevented as compared with the P picture.
[0105]
When the MB type information D3b supplied from the context model unit 20 indicates the sub MB types TP5 to TP8 in the P picture or the B picture, the binarization unit 21 corresponds to the type of the sub MB type. Then, the type of the sub MB type is binarized by assigning the unary code to the code number (Table 2) assigned in advance.
[0106]
Accordingly, the binarization unit 21 can binarize the sub MB types TP5 to TP8 without referring to the binarization table of the sub MB type in Table 2, and thereby does not refer to the binarization table. The processing load can be reduced by the amount.
[0107]
Here, the occurrence frequency of the sub MB type according to the quantization parameter value QP in the P picture and the B picture is different from the MB type (FIGS. 5 and 7) as shown in FIGS. It can be seen that even if the value fluctuates, the difference in the increase / decrease in the occurrence frequency of the sub-MB type consisting of 4 × 4 pixels vertically and horizontally corresponding to the code numbers “3” (FIG. 10) and “12” (FIG. 10) is small.
[0108]
Therefore, the binarizing unit 21 has 4 × 4 pixels in the vertical and horizontal directions without substituting the code numbers pre-assigned to the types of the sub-MB types according to the quantization parameter value QP. Since the data length of the unary code for the sub MB type does not become extremely long, encoding can be performed without lowering the encoding efficiency.
[0109]
In this way, the binarization unit 21 performs binarization processing based on the unary code on the MB type information D3b supplied from the context model unit 20, thereby generating binarized data D21, It is sent to the adaptive arithmetic encoder 22.
[0110]
In practice, the binarizing section 21 switches the code number assignment on the basis of the quantization parameter value QP “32” based on the code switching data D17 supplied from the semantics control section 19 (FIG. 2). ing.
[0111]
The binary adaptive arithmetic coder 22 performs, for example, a binary adaptive arithmetic coding process called "alsmedic coding" on the binary data D21 supplied from the binarizing unit 21, thereby obtaining MB-type coded data. D22 is generated and sent to the accumulation buffer 18 (FIG. 2).
[0112]
Incidentally, the lossless encoding processing unit 17 performs context modeling, binarization, and binary adaptive arithmetic encoding of the MB type and the sub MB type in the P picture and the B picture in separate processing sequences. Therefore, even if the same unary code is shared, an erroneous recognition or the like does not occur.
[0113]
(2-3) Encoding processing procedure
Next, the coding procedure in the lossless coding processing unit 17 will be described with reference to the flowchart shown in FIG. 11. Here, among the MB types of the P picture and the B picture according to the present invention, the P picture and the B picture The MB type will be described. That is, the lossless encoding processing unit 17 proceeds from the start step of the routine RT1 to the subsequent step SP1.
[0114]
In step SP1, the lossless encoding processing unit 17 determines whether the MB type information D3b in the P picture to be encoded has been received. Here, if a negative result is obtained, it waits for the MB type information D3b.
[0115]
On the other hand, if a positive result is obtained, this means that the MB type information D3b in the P picture has been received, that is, the MB type information D3b in the P picture has been input to the corresponding processing sequence. At this time, the lossless encoding processing unit 17 proceeds to the next step SP2.
[0116]
In step SP2, the lossless encoding processing unit 17 selects an encoding mode by performing a context modeling process on the MB type information D3b in the P picture, and proceeds to the next step SP3.
[0117]
In step SP3, the lossless encoding processing unit 17 determines whether or not the code switching data D17 given from the semantics control circuit 19 (FIG. 2) has been received.
[0118]
Here, if a negative result is obtained, this means that the quantization parameter value QP (FIG. 5) of the quantization control data D8 (FIG. 2) supplied from the rate control unit 16 is changed from “32” or more to “32”. This indicates that the state has not transitioned to the state of less than “32” or that the state of less than “32” has not transitioned to the state of “32” or more. At this time, the lossless encoding processing unit 17 proceeds to the next step SP5. .
[0119]
On the other hand, if an affirmative result is obtained, this means that the quantization parameter value QP (FIG. 5) of the quantization control data D8 (FIG. 2) supplied from the rate control unit 16 is changed from “32” or more to “32”. This indicates that the state has shifted to a state of less than "32" or a state of less than "32" to a state of "32" or more. At this time, the lossless encoding processing unit 17 proceeds to the next step SP4.
[0120]
In step SP4, the lossless encoding processing unit 17 determines that the allocation of the code number to each type of the MB type is the P-picture first allocation state (FIG. 4A), The state is switched to the allocation state (FIG. 4 (B)), and if the state is the P-picture second allocation state (FIG. 4 (B)), the allocation is changed to the P-picture first allocation state (FIG. 4 (B)). )) And proceeds to the next step SP5.
[0121]
In step SP5, the lossless encoding processing unit 17 executes the binarization process in the assignment state currently assigned for each type of MB type, thereby converting the unary code corresponding to the type of MB type in the P picture into a binary code. It is generated as coded data D21, and proceeds to the next step SP6.
[0122]
In step SP6, the lossless encoding processing unit 17 generates MB-type encoded data D22 by executing a binary adaptive arithmetic encoding process on the binary data D21 generated in step SP5, and stores this in an accumulation buffer. After sending to step 18, the process returns to step SP1.
[0123]
As described above, the lossless encoding processing unit 17 adaptively switches the assignment of the code number to the MB type according to the code switching data D17, thereby reducing the processing load of the encoding process and decreasing the encoding efficiency. Is to be prevented.
[0124]
(3) Configuration of image decoding apparatus to which the present invention is applied
(3-1) Overall configuration of image decoding apparatus
As shown in FIG. 12, the image decoding device 3 stores the image compression information D16 (FIG. 2) received via the Internet (FIG. 1) and the receiving unit (not shown) sequentially in the storage buffer 37, and The quantization control data D8 is recognized by referring to the stored image compression information D16, and is transmitted to the semantics control unit 32.
[0125]
The semantics control unit 32 generates code switching data D24 according to the quantization parameter value of the quantization control data D8 given from the accumulation buffer 31, and can send this to the decoding-side lossless encoding processing unit 33. ing.
[0126]
The decoding-side lossless encoding unit 33 reads out the image compression information D16 accumulated in the accumulation buffer 31 as quantized encoded data D13, motion vector encoded data D14, and MB type encoded data D15.
[0127]
Next, the decoding-side lossless encoding processing unit 33 performs a binary adaptive arithmetic encoding process on the quantized encoded data D13, the motion vector encoded data D14, and the MB type encoded data D15, thereby obtaining the quantized data D7. , The quantized data D25, the motion vector information D26, and the MB type information D27 corresponding to the motion vector D3a and the MB type information D3b (FIG. 2), respectively.
[0128]
Then, the decoding-side lossless encoding processing section 33 sends the quantized data D25 to the inverse quantization section 34, and sends the motion vector information D26 and the MB type information D27 to the motion prediction compensation section 37.
[0129]
The inverse quantization unit 34 performs an inverse quantization process on the quantized data D25 given from the decoding-side lossless encoding processing unit 33, thereby obtaining orthogonal transform coefficient data corresponding to the orthogonal transform coefficient data D6 (FIG. 2). D28 is restored and sent to the inverse orthogonal transform unit 35.
[0130]
The inverse orthogonal transform unit 35 restores the difference data D29 corresponding to the difference data D5 (FIG. 2) by performing the inverse orthogonal transform process on the orthogonal transform coefficient data D28 given from the inverse quantization unit 34. To the adder 36.
[0131]
On the other hand, the motion prediction compensation unit 37 executes the prediction mode based on the motion vector information D26 and the MB type information D27 given from the decoding-side lossless encoding processing unit 33, thereby obtaining the reference data stored in the frame memory 38. The picture is motion compensated according to the motion vector, and the resulting prediction data D30 is sent to the adder.
[0132]
When the prediction data D30 is provided from the motion prediction compensation unit 37, the adder 36 adds the prediction data D30 to the difference data D29 provided from the inverse orthogonal transform unit 35, thereby obtaining the frame data D2 (FIG. 2). Is restored and transmitted to the deblocking filter 39.
[0133]
On the other hand, when the prediction data D30 is not provided from the motion prediction / compensation unit 37, the adder 36 sends the difference data D29 provided from the inverse orthogonal transform unit 35 to the deblocking filter 39 as frame data D31 as it is. .
[0134]
If distortion occurs between adjacent macroblocks in the frame data D31 provided from the adder 36, the deblocking filter 39 smoothes the distortion by filtering the distortion portion, and obtains a correction frame obtained as a result. The data D32 is generated and temporarily stored in the image rearrangement buffer 40, and the corrected frame data D32 is stored in the frame memory 38 as a reference picture as necessary.
[0135]
On the other hand, when no distortion occurs between adjacent macroblocks in the frame data D31, the deblocking filter 39 temporarily stores the frame data D31 in the image rearrangement buffer 40 as corrected frame data D32. At the same time, the frame data D31 is stored in the frame memory 38 as a reference picture as necessary.
[0136]
The image decoding device 3 rearranges the correction frame data D32 sequentially stored in the image rearrangement buffer 40 in the transmission order, and then transmits the corrected frame data D32 to the D / A conversion unit 41 as moving image data D33. A moving image signal S2 obtained via the terminal 41 is sent to the outside.
[0137]
(3-2) Configuration of decoding-side lossless encoding processing unit
Next, the circuit configuration of the decoding-side reversible decoding processing unit 33 shown in FIG. 13 will be described. However, since the same processing as that of the above-described reversible coding processing unit 17 is performed, a brief description will be given here.
[0138]
However, the decoding-side lossless decoding unit 33 performs binary adaptive arithmetic coding on the quantized coded data D13, the motion vector coded data D14, and the MB type coded data D15 (FIG. 12) in separate processing sequences. The following describes the circuit configuration of the processing sequence for the MB type information D3b according to the present invention.
[0139]
The decoding-side lossless encoding processing unit 33 executes the binary adaptive arithmetic encoding process on the MB type encoded data D15 to convert the binary data D21 (FIG. 3) into the binary data D35. It is generated and sent to the binarization unit 51.
[0140]
The binarization unit 51 performs inverse binarization processing based on the Unary code on the binarized data D21 provided from the decoding-side lossless encoding processing unit 33, and thus corresponds to MB type information D3b (FIG. 3). The MB type information D36 is generated and sent to the motion prediction compensation unit 37 as the MB type information D27 via the context model unit 52.
[0141]
Here, upon receiving the code switching data D51 given from the semantics control circuit 19, the binarization unit 51 adaptively switches the assignment of the code number of the unary code to the MB type according to the quantization parameter value QP. The load processing of the binarization processing itself is reduced, and a decrease in encoding efficiency can be prevented.
[0142]
In the above configuration, when the image encoding device 2 binarizes the MB type information D3b given from the motion prediction compensator 8, the MB type indicated in the MB type information D3b and the MB types TP1 to TP4 Is further binarized into sub-MB types, which are further subdivided.
[0143]
In this case, the image encoding device 2 binarizes the code numbers defined for the MB type and the sub-MB type by assigning a Unary code that is originally used for other than the MB type information D3b in the JVT encoding method. I did it.
[0144]
Accordingly, the image encoding device 2 can reduce the processing load by not referring to the binarization tables shown in Tables 1 and 2 defined in the JVT encoding method. Can be binarized in a state where the data string is extremely short as compared with the case where binarization is performed using the binarization table in Table 2, so that the encoding efficiency when encoding the sub-MB type is considered. Has been made to be able to improve.
[0145]
Further, when binarizing the MB type, the image encoding device 2 assigns a code number to be assigned to the 8-pixel MB type as a “32” index as the quantization parameter value QP to the first allocation state (FIG. A) or FIG. 6), the data length of the unary code for the code number is changed by adaptively switching from the second allocation state (FIG. 4 (B) or FIG. 8) or the second allocation state to the first allocation state. Regardless of whether the frequency of occurrence of the 8-pixel MB type increases or decreases, the processing load of the encoding process can be reduced without lowering the encoding efficiency.
[0146]
According to the above configuration, the allocation of the code numbers respectively allocated to the types of the MB types is adaptively switched according to the quantization parameter value QP. It is possible to reduce the processing load of the encoding process without lowering the encoding efficiency irrespective of whether the frequency of occurrence of the 8-pixel MB type increases or decreases.
[0147]
In the above-described embodiment, the case where image compression information obtained by compression-encoding a moving image signal as an image has been described. However, the present invention is not limited to this. The image compression information obtained by the conversion may be transmitted and received.
[0148]
Further, in the above-described embodiment, a case has been described in which macroblocks are divided according to four types of division patterns TP1 to TP4 as predetermined division patterns. However, the present invention is not limited to this. Macroblocks may be divided according to a division pattern divided into various other regions such as four sets of regions divided into × 4 pixels.
[0149]
Further, in the above-described embodiment, the case where the unary code is used as the binary code has been described. However, the present invention is not limited to this, and other various binary codes may be used if a simple generation rule is used. Is also good.
[0150]
Further, in the above-described embodiment, a case has been described where the lossless encoding processing unit 17 as the encoding device and the hardware configuration described above with reference to FIG. 3 execute the encoding process, but the present invention is not limited to this. Instead of the hardware configuration, the encoding processing may be executed by an encoding processing program that executes the encoding processing procedure described above with reference to FIG.
[0151]
In this case, the lossless encoding processing unit 17 may execute the encoding processing procedure by expanding the encoding processing program stored in the internal ROM (not shown) or the like in the internal RAM (not shown). Alternatively, the encoding processing procedure may be executed by installing a program medium storing the encoding processing program.
[0152]
Such a program medium may be realized not only by a package medium such as a CD-ROM (Compact Disc-Read Only Memory) or a DVD (Digital Versatile Disc), but also by a semiconductor memory or a magnetic disk. As a means for storing the program in these program media, a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting may be used, and the program may be stored via various interfaces such as a router or a modem. May be.
[0153]
【The invention's effect】
As described above, according to the present invention, a macroblock type that represents a combination of a divided area obtained by designating a predetermined divided pattern for a pixel block and a prediction mode for the divided area has two types. A coding method for performing a value arithmetic coding process, wherein a binary code is applied to a code number assigned to each type of macroblock type, and the assignment of the code numbers is switched according to a quantization parameter value. I made it.
[0154]
Therefore, the binarization can be performed by the binary code without using the binarization table, and even if the occurrence frequency of the macroblock type increases due to the fluctuation of the quantization parameter value, the type of the macroblock type can be increased. Since the code number assigned to each macro is switched according to the quantization parameter value, it is possible to avoid that a binary code having a long data length corresponds to the code number assigned to the increased macroblock type. Thus, the processing load of the encoding process can be reduced without lowering the encoding efficiency.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image transmission / reception system.
FIG. 2 is a block diagram illustrating a configuration of an image encoding device.
FIG. 3 is a block diagram illustrating a configuration of a lossless encoding processing unit.
FIG. 4 is a schematic diagram showing an allocation state of a unary code for an MB type of a P picture.
FIG. 5 is a schematic diagram illustrating an occurrence frequency of an MB type according to a quantization parameter in a P picture.
FIG. 6 is a schematic diagram showing a state (1) of assigning a unary code to an MB type of a B picture.
FIG. 7 is a schematic diagram illustrating a frequency of occurrence of an MB type according to a quantization parameter in a B picture.
FIG. 8 is a schematic diagram illustrating a state (2) of assigning a unary code to an MB type of a B picture.
FIG. 9 is a schematic diagram illustrating a frequency of occurrence of a sub MB type according to a quantization parameter in a P picture.
FIG. 10 is a schematic diagram illustrating a frequency of occurrence of a sub-MB type according to a quantization parameter in a B picture.
FIG. 11 is a flowchart showing an encoding processing procedure.
FIG. 12 is a block diagram illustrating a configuration of an image decoding device.
FIG. 13 is a block diagram illustrating a configuration of a decoding-side encoding processing unit.
FIG. 14 is a schematic diagram showing division types.
[Explanation of symbols]
2 ... image encoding device, 3 ... image decoding device, 8, 37 ... motion prediction compensation unit, 17, 33 ... lossless encoding processing unit, 19, 32 ... semantics control unit, 20, 52 ... ... Context model part, 21, 51 ... Binarization part, 22, 50 ... Adaptive binary arithmetic coding part.

Claims (5)

画素ブロックについて所定の区割パターンが指定されることにより得られる区割領域と、当該区割領域に対する予測モードとの組み合わせを表すマクロブロックタイプに対して2値算術符号化処理を施す符号化処理方法であって、
上記マクロブロックタイプの種類ごとにそれぞれ割り当てられたコード番号に、2値コードを適用する2値コード適用ステップと、
上記コード番号の割り当てを、量子化パラメータ値に応じて切り換える切換ステップと
を具えることを特徴とする符号化処理方法。
An encoding process for performing a binary arithmetic encoding process on a macroblock type representing a combination of a segmented region obtained by designating a predetermined segmentation pattern for a pixel block and a prediction mode for the segmented region The method,
A binary code applying step of applying a binary code to a code number assigned to each type of the macroblock type;
A switching step of switching the assignment of the code numbers according to a quantization parameter value.
上記量子化パラメータ値は、最も小さい最小区割領域の発生頻度と、当該最小区割領域に係るマクロブロックタイプに割り当てられたコード番号に対する上記2値コードのデータ長とにおける増減の相関関係がほぼ中間となる値である
ことを特徴とする請求項1に記載の符号化処理方法。
The quantization parameter value is almost equal to the increase / decrease correlation between the frequency of occurrence of the smallest minimum division area and the data length of the binary code with respect to the code number assigned to the macroblock type related to the minimum division area. 2. The encoding processing method according to claim 1, wherein the value is an intermediate value.
上記量子化パラメータ値は、「32」である
ことを特徴とする請求項2に記載の符号化処理方法。
The encoding method according to claim 2, wherein the quantization parameter value is "32".
画素ブロックについて所定の区割パターンが指定されることにより得られる区割領域と、当該区割領域に対する予測モードとの組み合わせを表すマクロブロックタイプに対して2値算術符号化処理を施す符号化装置であって、
上記マクロブロックタイプの種類ごとにそれぞれ割り当てられたコード番号に、2値コードを適用する2値コード適用手段と、
上記コード番号の割り当てを、量子化パラメータ値に応じて切り換える切換手段と
を具えることを特徴とする符号化装置。
A coding apparatus that performs a binary arithmetic coding process on a macroblock type that represents a combination of a divided area obtained by designating a predetermined divided pattern for a pixel block and a prediction mode for the divided area. And
A binary code application unit for applying a binary code to a code number assigned to each of the macroblock types,
A coding device, comprising: switching means for switching the assignment of the code numbers according to a quantization parameter value.
画素ブロックについて所定の区割パターンが指定されることにより得られる区割領域と、当該区割領域に対する予測モードとの組み合わせを表すマクロブロックタイプに対して2値算術符号化処理を施す復号化装置であって、
所定の2値コードに基づいて、上記マクロブロックタイプのコード番号に割り当てられた上記マクロブロックタイプの種類に変換する変換手段と、
上記コード番号の割り当てを、量子化パラメータ値に応じて切り換える切換手段と
を具えることを特徴とする復号化装置。
A decoding device that performs a binary arithmetic coding process on a macroblock type that represents a combination of a divided area obtained by designating a predetermined divided pattern for a pixel block and a prediction mode for the divided area. And
Conversion means for converting the macroblock type into a macroblock type assigned to the macroblock type code number based on a predetermined binary code;
Switching means for switching the code number assignment according to a quantization parameter value.
JP2002332905A 2002-10-09 2002-10-09 Encoding processing method, encoding apparatus, and decoding apparatus Pending JP2004135252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002332905A JP2004135252A (en) 2002-10-09 2002-10-09 Encoding processing method, encoding apparatus, and decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002332905A JP2004135252A (en) 2002-10-09 2002-10-09 Encoding processing method, encoding apparatus, and decoding apparatus

Publications (1)

Publication Number Publication Date
JP2004135252A true JP2004135252A (en) 2004-04-30

Family

ID=32290216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002332905A Pending JP2004135252A (en) 2002-10-09 2002-10-09 Encoding processing method, encoding apparatus, and decoding apparatus

Country Status (1)

Country Link
JP (1) JP2004135252A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008065814A1 (en) * 2006-11-30 2008-06-05 Panasonic Corporation Coder
WO2009025281A1 (en) * 2007-08-20 2009-02-26 Ntt Electronics Corporation Binary arithmetic coder
WO2011007719A1 (en) * 2009-07-17 2011-01-20 ソニー株式会社 Image processing apparatus and method
US8170359B2 (en) 2006-11-28 2012-05-01 Panasonic Corporation Encoding device and encoding method
JP2015165723A (en) * 2009-02-05 2015-09-17 トムソン ライセンシングThomson Licensing Methods and apparatus for adaptive mode video encoding and decoding
JP2016129405A (en) * 2010-04-09 2016-07-14 三菱電機株式会社 Image decoder, image encoder and data structure of encoding data
JP2017135726A (en) * 2010-04-13 2017-08-03 ジーイー ビデオ コンプレッション エルエルシー Inheritance in sample array multitree subdivision
US20190089962A1 (en) 2010-04-13 2019-03-21 Ge Video Compression, Llc Inter-plane prediction
US20190164188A1 (en) 2010-04-13 2019-05-30 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10681390B2 (en) 2010-04-13 2020-06-09 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division

Cited By (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170359B2 (en) 2006-11-28 2012-05-01 Panasonic Corporation Encoding device and encoding method
US7839312B2 (en) 2006-11-30 2010-11-23 Panasonic Corporation Coder
WO2008065814A1 (en) * 2006-11-30 2008-06-05 Panasonic Corporation Coder
WO2009025281A1 (en) * 2007-08-20 2009-02-26 Ntt Electronics Corporation Binary arithmetic coder
US8072359B2 (en) 2007-08-20 2011-12-06 Ntt Electronics Corporation Binary arithmetic coding device
JP2015165723A (en) * 2009-02-05 2015-09-17 トムソン ライセンシングThomson Licensing Methods and apparatus for adaptive mode video encoding and decoding
WO2011007719A1 (en) * 2009-07-17 2011-01-20 ソニー株式会社 Image processing apparatus and method
CN102474618A (en) * 2009-07-17 2012-05-23 索尼公司 Image processing apparatus and method
JP2016129405A (en) * 2010-04-09 2016-07-14 三菱電機株式会社 Image decoder, image encoder and data structure of encoding data
US10390011B2 (en) 2010-04-09 2019-08-20 Mitsubishi Electric Corporation Moving image encoding device and moving image decoding device based on adaptive switching among transformation block sizes
US10554970B2 (en) 2010-04-09 2020-02-04 Mitsubishi Electric Corporation Moving image encoding device and moving image decoding device based on adaptive switching among transformation block sizes
US9973753B2 (en) 2010-04-09 2018-05-15 Mitsubishi Electric Corporation Moving image encoding device and moving image decoding device based on adaptive switching among transformation block sizes
US10469839B2 (en) 2010-04-09 2019-11-05 Mitsubishi Electric Corporation Moving image encoding device and moving image decoding device based on adaptive switching among transformation block sizes
US10412385B2 (en) 2010-04-09 2019-09-10 Mitsubishi Electric Corporation Moving image encoding device and moving image decoding device based on adaptive switching among transformation block sizes
US10803485B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10855995B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US20190197579A1 (en) 2010-04-13 2019-06-27 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US20190089962A1 (en) 2010-04-13 2019-03-21 Ge Video Compression, Llc Inter-plane prediction
JP2019004505A (en) * 2010-04-13 2019-01-10 ジーイー ビデオ コンプレッション エルエルシー Inheritance in sample array multi-tree subdivision
JP2019004504A (en) * 2010-04-13 2019-01-10 ジーイー ビデオ コンプレッション エルエルシー Inheritance in sample array multi-tree subdivision
JP2017153085A (en) * 2010-04-13 2017-08-31 ジーイー ビデオ コンプレッション エルエルシー Inheritance in sample array multitree subdivision
US10672028B2 (en) 2010-04-13 2020-06-02 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10681390B2 (en) 2010-04-13 2020-06-09 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10687086B2 (en) 2010-04-13 2020-06-16 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10687085B2 (en) 2010-04-13 2020-06-16 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10694218B2 (en) 2010-04-13 2020-06-23 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10708628B2 (en) 2010-04-13 2020-07-07 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10708629B2 (en) 2010-04-13 2020-07-07 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10719850B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10721495B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10721496B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10748183B2 (en) 2010-04-13 2020-08-18 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10764608B2 (en) 2010-04-13 2020-09-01 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10771822B2 (en) 2010-04-13 2020-09-08 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
JP2017135726A (en) * 2010-04-13 2017-08-03 ジーイー ビデオ コンプレッション エルエルシー Inheritance in sample array multitree subdivision
US10803483B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10805645B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10848767B2 (en) 2010-04-13 2020-11-24 Ge Video Compression, Llc Inter-plane prediction
US10856013B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10855990B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US10855991B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US20190164188A1 (en) 2010-04-13 2019-05-30 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10863208B2 (en) 2010-04-13 2020-12-08 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10873749B2 (en) 2010-04-13 2020-12-22 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US10880581B2 (en) 2010-04-13 2020-12-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10880580B2 (en) 2010-04-13 2020-12-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10893301B2 (en) 2010-04-13 2021-01-12 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11037194B2 (en) 2010-04-13 2021-06-15 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11051047B2 (en) 2010-04-13 2021-06-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US20210211743A1 (en) 2010-04-13 2021-07-08 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11087355B2 (en) 2010-04-13 2021-08-10 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11102518B2 (en) 2010-04-13 2021-08-24 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11546642B2 (en) 2010-04-13 2023-01-03 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11546641B2 (en) 2010-04-13 2023-01-03 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11553212B2 (en) 2010-04-13 2023-01-10 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11611761B2 (en) 2010-04-13 2023-03-21 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US11736738B2 (en) 2010-04-13 2023-08-22 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using subdivision
US11734714B2 (en) 2010-04-13 2023-08-22 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11765363B2 (en) 2010-04-13 2023-09-19 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US11765362B2 (en) 2010-04-13 2023-09-19 Ge Video Compression, Llc Inter-plane prediction
US11778241B2 (en) 2010-04-13 2023-10-03 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11785264B2 (en) 2010-04-13 2023-10-10 Ge Video Compression, Llc Multitree subdivision and inheritance of coding parameters in a coding block
US11810019B2 (en) 2010-04-13 2023-11-07 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11856240B1 (en) 2010-04-13 2023-12-26 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11900415B2 (en) 2010-04-13 2024-02-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11910029B2 (en) 2010-04-13 2024-02-20 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division preliminary class
US11910030B2 (en) 2010-04-13 2024-02-20 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11983737B2 (en) 2010-04-13 2024-05-14 Ge Video Compression, Llc Region merging and coding parameter reuse via merging

Similar Documents

Publication Publication Date Title
US9338478B2 (en) Video compression using multiple variable length coding methods for multiple types of transform coefficient blocks
RU2676871C2 (en) Initialization of rice parameter for codification at coefficient level during video coding process
US7088271B2 (en) Method and apparatus for binarization and arithmetic coding of a data value
JP2020017970A (en) Video encoded data
JP3764457B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, and program
JP6285559B2 (en) Low complexity sample adaptive offset coding
RU2679566C1 (en) Improved palette mode in hevc
RU2611992C2 (en) Increasing throughput capacity for cabac coefficients level encoding
US7843998B2 (en) Method for improved entropy coding
US7760806B2 (en) Video frame encoding and decoding
US7379608B2 (en) Arithmetic coding for transforming video and picture data units
WO2019125787A1 (en) Probability initialization and signaling for adaptive arithmetic coding in video coding
KR20070118978A (en) Method and system for video compression using an iterative encoding algorithm
JP2011507450A (en) Variable length coding method and apparatus
TW202107891A (en) Methods and apparatus for encoding/decoding transform coefficients corresponding to prediction residues in video coding siystems
TW202038615A (en) Method and apparatus of transform coefficient coding with tb-level constraint
JP2004135252A (en) Encoding processing method, encoding apparatus, and decoding apparatus
US20080144721A1 (en) Video coding apparatus
EP2196031B1 (en) Method for alternating entropy coding
JP2022539311A (en) Separate CABAC for subsections of pictures
Hong et al. Arithmetic coding with adaptive context-tree weighting for the H. 264 video coders
Chen et al. Coding of motion vectors for motion-compensated predictive/interpolative video coder
최정 The Optimization of Context-based Binary Arithmetic Coding in AVS2. 0
Dai et al. Adaptive Binarization for Arithmetic Coding in Video Compression