JP5851987B2 - 算術符号化及び復号化方法 - Google Patents

算術符号化及び復号化方法 Download PDF

Info

Publication number
JP5851987B2
JP5851987B2 JP2012516690A JP2012516690A JP5851987B2 JP 5851987 B2 JP5851987 B2 JP 5851987B2 JP 2012516690 A JP2012516690 A JP 2012516690A JP 2012516690 A JP2012516690 A JP 2012516690A JP 5851987 B2 JP5851987 B2 JP 5851987B2
Authority
JP
Japan
Prior art keywords
probability model
current
probability
model
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012516690A
Other languages
English (en)
Other versions
JP2012531776A (ja
Inventor
ボルデ,フィリップ
トロ,ドミニク
ヴィロン,ジェローム
フランソワ,エドゥアール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41668494&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP5851987(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2012531776A publication Critical patent/JP2012531776A/ja
Application granted granted Critical
Publication of JP5851987B2 publication Critical patent/JP5851987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • H03M7/4012Binary arithmetic codes
    • H03M7/4018Context adapative binary arithmetic codes [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/93Run-length coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は、画像信号を表すシンボルなどのシンボルの符号化の領域に関する。より詳細には、本発明は、ストリームにおけるシンボルの算術符号化方法に関する。本発明はまた、ストリームの形式により符号化されたシンボルの算術復号化方法に関する。
ビデオ又はオーディオ信号などの信号を表すシンボルをバイナリコードに変換するため、エントリピー符号化方法を利用することが当該分野において知られている。このようなエントロピー符号化方法は、符号化コストを低減するため、最も頻度の高いシンボル値、すなわち、出現確率が最も高いものにより短いバイナリワードを関連付ける。一例として、確率1/4,1/2,1/4により値{a,b,c}をとるシンボルSを検討でき、このとき、エントロピー符号化方法は、シンボルSが最も高い出現確率となる値“b”をとる場合、長さ1のバイナリコードなどを関連付けるであろう。
VLC(Variable Length Coding)は、エントロピー符号化方法の既知の例である。この方法によると、各シンボルについてVLCテーブルが規定される。テーブルは、対象となるシンボルが可能性のある各値をとる確率、すなわち、当該値の出現確率に長さが依存するバイナリコードを、関連付けされたシンボルの各値と関連付ける。これらのテーブルは、以降に符号化される必要のある信号を表すかなり多数の信号を解析することによって規定される。この解析ステップは、オフラインで実行され、テーブルはデコーダに一度送信されるか、又は送信される必要のないデコーダに既知である符号化規格により規定される。
算術符号化は、エントロピー符号化方法の他の例である。この方法によると、シンボルが値をとる確率が、画像スタート時、又は画像を表すシンボルケースでは画像スライス時などに初期化される。これらの確率は、その後に符号化中のソース信号の特性を考慮するため、画像スライスの画像符号化中にそれぞれ定期的に更新される。
上述された符号化方法の問題点の1つは、シンボルが所与の値をとる確率が事前に知られていないソース信号の特性に本質的にリンクしているということである。この問題点は、図1及び2により説明される。各図において、画像の符号化処理の進捗がx軸に示され、シンボルSが値“a”をとる確率がy軸に示される。実線は、画像の符号化中の実際の確率P(S=a)の進捗を表す。破線は、対応する推定確率を表す。VLCのケース(図1)では、推定確率は、画像全体において一定であると考えられる。ACのケース(図2)では、推定確率は、画像の符号化に従って更新される。しかしながら、この更新は、実際の確率を取得する前の収束時間(Td)を前提としている。上述された2つの例では、推定確率は、現在のソース信号の符号化前に実行された解析に従って事前に設定されたものであり、実際の確率とは乖離が生じる可能性があるか(VLCのケース)、又は実際の確率により近くなるように現在の信号の符号化中に定期的に更新されるが、遅延時間のため(ACのケース)、実際の確率が符号化処理中に変動するとき、より大きなものになる。
本発明の目的は、従来技術の問題点の少なくとも1つを解消することである。
本発明は、ストリームにおけるシンボルの算術符号化方法であって、現在の確率モデルに従って現在のシンボルを符号化するステップと、現在のシンボルの符号化に従って現在の確率モデルを更新するステップとを有する方法に関する。
本方法はまた、ストリームに分散されるスイッチングポイントにおいて、符号化コスト基準に従って少なくとも2つの確率モデルの集合において現在の確率モデルを選択するステップと、選択された確率モデルの識別子を符号化するステップとを有する。
効果的には、本発明による算術符号化方法は、標準的なVLC又はACタイプの方法によるより迅速に実際の確率に接近することを可能にし、これにより、より効率的に、すなわち、より低い符号化コストによって、シンボルが符号化されることを可能にする。
本発明の第2実施例によると、算術符号化方法の各ステップは、連続するシンボルを符号化するため繰り返され、少なくとも2つの確率モデルの集合は、現在のシンボルの前に符号化されたシンボルから規定される第1確率モデルと、デフォルトにより規定された少なくとも第2確率モデルを有する確率モデルの部分集合とを有する。
第3実施例によると、算術符号化方法は、確率モデルの部分集合に第1確率モデルを加えるステップを有する。
本発明のある態様によると、確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、第1確率モデルは、デフォルトにより規定された第2確率モデルを除く選択された頻度が最も低い確率モデルの部分集合の確率モデルの代わりとして加えられる。
本発明の一変形によると、確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、第1確率モデルは、デフォルトにより規定された確率モデルを除く部分集合の最も古い確率モデルの代わりとして加えられる。
本発明の他の変形によると、確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、第1確率モデルは、デフォルトにより規定された確率モデルを除く、選択された頻度が最も低い部分集合のP個の確率モデルのうち、確率モデルが選択された際に計算された符号化コストの平均が最大となる確率モデルの代わりとして加えられる。
本発明の他の態様によると、前記選択するステップは、少なくとも2つの確率モデルの前記集合の各確率モデルの符号化コストを計算するステップと、前記少なくとも2つの確率モデルの集合から、前記符号化コストが前記少なくとも2つの確率モデルの集合のその他の確率モデルの各符号化コストより低い確率モデルを選択するステップとを有する。
本発明の他の態様によると、前記少なくとも2つの確率モデルの集合の各確率モデルの符号化コストを計算するステップは、前記少なくとも2つの確率モデルの集合の各確率モデルによって画像データの整数N個のブロックを符号化するステップと、前記少なくとも2つの確率モデルの集合の各確率モデルについて、前記画像データのN個のブロックの符号化コストと、前記画像データのN個のブロックの符号化に関するゆがみとを決定するステップと、前記集合の各確率モデルについて、前記符号化コストと前記ゆがみとの加重和を計算するステップとを有する。
本発明のある特徴によると、スイッチングポイントは、前記ストリームにおいて一様に分散される。
他の特徴によると、ストリームにおける前記スイッチングポイントの分散は、所与の符号化モードにより符号化されたブロックの個数の関数である。
他の特徴によると、スイッチングポイントのストリームにおける位置が、前記ストリームにおいて送信される。
他の特徴によると、スイッチングポイントのストリームにおける位置が、特定のビットシーケンスにより通知される。
実施例のある態様によると、本発明による算術符号化方法は、各画像又は各画像スライスのスタートにおいてデフォルトにより規定される確率モデルによって前記確率モデルの部分集合を初期化するステップをさらに有する。
本発明のある特徴によると、初期化するステップは、リファレンス画像においてのみ適用される。
本発明はまた、ストリームの形式により符号化されたシンボルの算術復号化方法であって、現在の確率モデルに従って現在のシンボルを復号化するステップと、現在のシンボルの復号化に従って現在の確率モデルを更新するステップとを有する。
本方法はまた、ストリームに分散されるスイッチングポイントにおいて、確率モデルの識別子を復号化するステップと、復号化された識別子に従って少なくとも2つの確率モデルの集合において現在の確率モデルを選択するステップとを有する。
本発明の他の実施例によると、算術符号化方法の各ステップは、連続するシンボルを復号化するため繰り返され、少なくとも2つの確率モデルの集合は、現在のシンボルの前に復号化されたシンボルから規定される第1確率モデルと、デフォルトにより規定された少なくとも第2確率モデルを含む確率モデルの部分集合とを有する。
本発明は、添付した図面を参照して限定することなく実施例と効果的な実現形態とによって説明される。
図1は、シンボルSが値“a”をとるVLC方法による実際の確率と推定確率とにおけるソース信号の符号化中の変化を表す。 図2は、シンボルSが値“a”をとるAC方法による実際の確率と推定確率とにおけるソース信号の符号化中の変化を表す。 図3は、本発明の第1実施例による算術符号化方法を示す。 図4は、スイッチングポイントSPが分散される2つの画像を表す。 図5は、図3,6,7に示される実施例の1つによる算術符号化方法のあるステップを示す。 図6は、本発明の第2実施例による算術符号化方法を示す。 図7は、本発明の第3実施例による算術符号化方法を示す。 図8は、図7に示される実施例による算術符号化方法のあるステップを示す。 図9は、シンボルSが値“a”をとる本発明の方法による実際の確率と推定確率とにおけるソース信号の符号化中の変化を表す。 図10は、ある実施例による算術復号化方法を示す。 図11は、他の実施例による算術復号化方法を示す。 図12は、本発明による符号化装置を示す。 図13は、本発明による復号化装置を示す。
ACエントロピー符号化は、現在のシンボルScを符号化するため、
−現在の確率モデルPcに従って現在のシンボルScを符号化するステップと、
−現在のシンボルScの符号化に従って現在の確率モデルPcを更新するステップと、
を主として有する。
確率モデルは、シンボルの可能性のある各値と確率とを関連付ける。例えば、シンボルScが集合{a,b,c,d}の各値をとる場合、確率が各値“a”,“b”,“c”,“d”と関連付けされる。シンボルScが値“b”をとる場合、現在の確率モデルPcの更新ステップにおいて、関連付けされた確率が増加される。すなわち、出現数F(Sc=b)が1だけ増分される。現在のシンボルScを符号化するのに利用される現在の確率モデルPcは、現在のシンボルScの前に符号化されたシンボルから規定される。現在のシンボルScが最初に符号化される場合、現在の確率モデルPcは、例えば、一様な確率モデルなどとしてデフォルトにより規定される。現在のシンボルScがN番目に符号化されたシンボルである場合、現在の確率モデルPcは、現在のシンボルScの前に符号化された(N−1)番目のシンボルの符号化に依存する。従って、実際には、現在の確率モデルPcは、新たなシンボルが符号化される毎に更新される。
図3は、本発明の第1実施例による算術符号化方法を示す。ステップ100において、スイッチングポイントSP上にあるか確認するため、検証される。スイッチングポイントSPは、本発明によると、現在のシンボルを符号化するのに利用される確率モデルが変更可能なレベルにおけるストリームのポイントとして規定される。スイッチングポイントSPは、ストリームにおいて一様に又は不規則的に分散される。例えば、スイッチングポイントSPは、図4の左部分に示されるようなブロックラインのスタート又は図4の右部分に示されるような不規則的なブロックラインのスタートに対応するように、ストリームに分散される。例えば、スイッチングポイントは、Nブロック毎に分散される(Nは整数)。一変形によると、スイッチングポイントは、例えば、INTRAモードにより符号化されたN個のブロックなど、所与のモードによるN個の符号化ブロック毎に分散される。他の変形によると、スイッチングポイントは、ストリームにおいて不規則的に分散され、ストリームにおける各自の位置はストリームにおいて送信される。他の変形によると、スイッチングポイントは、ストリームのあるビットシーケンスにより通知可能である。
スイッチングポイントSPにある場合、本方法はステップ102に続き、そうでない場合、ステップ106に続く。
ステップ102において、確率モデルPmが、符号化コスト基準に従って少なくとも2つの確率モデル
Figure 0005851987
の集合Lにおいて選択される(Mは整数)。Mは、集合Lの確率モデルの個数である。このステップは、図5において詳細に説明される。
ステップ1020において、LのモデルPiに関する符号化コストCiが計算される。例えば、シンボルが画像データのブロックに分割される画像を表すケースでは、シンボルScが関連付けされる現在のブロックの符号化順に後続するJ個の画像データのブロックが符号化される(Jは整数)。J個のブロックの符号化に関する符号化コストCiが計算される。一変形によると、確率モデルPiによるJ個の画像データのブロックの符号化に関するゆがみDiがまた計算される。この変形によると、符号化コストは、符号化コストと関連するゆがみ(distortion)との加重和により置き換えられる。
Ci=Di+λCi
ステップ1022において、インデックスiが1だけインクリメントされる。
ステップ1024において、iの値がMと比較される。i<Mである場合、本方法はiの新たな値によりステップ1020に戻り、そうでない場合、本方法はステップ1026に続く。
ステップ1026において、関連する符号化コストCiが最小となる集合Lの確率モデルPiが、モデルPmとして選択される。
ステップ104において、集合Lにおいて選択されたモデルの識別子mが、ストリームにおいて符号化される。効果的には、この識別子は、復号化方法が符号化方法によって選択されたモデルを集合Lにおいて再検出することを可能にする。確率モデルPmがモデルPcにおいて再コピーされる。すなわち、ステップ102において選択された確率モデルPmが、現在の確率モデルPcになる。ステップ106において、現在のシンボルScが、現在の確率モデルPcにより符号化される。
ステップ108において、現在の確率モデルPcが、AC符号化を参照して上述された方法に従って更新される。
図6に示される第2実施例によると、ステップ100〜108が、連続するシンボルを符号化するため繰り返される。図3のステップと同一の図6のステップは、同一の参照番号によって図6において特定される。
ステップ100において、当該位置がスイッチングポイントSP上であるか調べられる。スイッチングポイントSPにある場合、本方法はステップ102に続き、そうでない場合、ステップ106に続く。
ステップ102において、確率モデルPmが、符号化コスト基準に従って少なくとも2つの確率モデル
Figure 0005851987
の集合Lにおいて選択される(Mは整数)。Mは、集合Lの確率モデルの個数である。集合Lは、現在のシンボルの前に符号化されたシンボルから規定される現在の確率モデルPcと、デフォルトにより規定される確率モデルの部分集合Eとを有する。部分集合Eは、P0として記されるデフォルトにより規定された少なくとも1つの確率モデルを有する。例えば、P0は、一様確率モデルであり、すなわち、当該モデルのすべての確率が等しい。部分集合Eは、ガウス確率モデルや符号化対象の信号を表すデータベースについて学習することによって取得されたモデルなど、デフォルトにより規定される他のモデルを含むものであってもよい。現在のシンボルScが最初に符号化されたシンボルである場合、現在の確率モデルPcは、EのモデルP0と同一であってもよいデフォルトにより規定されることに留意されたい。このような確率モデルPcは、実際、ソース信号の特性に動的に適応するように、現在のシンボルScの前に符号化されたシンボルの符号化中に更新されたものである。ステップ102が、図5において詳述される。
ステップ1020において、LのモデルPiに関する符号化コストCiが計算される。例えば、シンボルが画像データのブロックに分割される画像を表す場合、シンボルScに関連する現在のブロックに符号化順で後続するJ個の画像データのブロックが符号化される(Jは整数)。J個のブロックの符号化に関する符号化コストCiが計算される。一変形によると、確率モデルPiによるJ個の画像データのブロックの符号化に関するゆがみDiがまた計算される。この変形によると、符号化コストは、符号化コストと関連するゆがみとの加重和により置き換えられる。
Ci=Di+λCi
ステップ1022において、インデックスiが1だけインクリメントされる。
ステップ1024において、iの値がMと比較される。i<Mである場合、本方法はiの新たな値によってステップ1020に戻り、そうでない場合、本方法はステップ1026に続く。
ステップ1026において、関連する符号化コストCiが最小となる集合Lの確率モデルPiが、モデルPmとして選択される。
ステップ104において、集合Lにおいて選択されるモデルの識別子mが、ストリームにおいて符号化される。効果的には、この識別子は、復号化方法が符号化方法により選択されたモデルを集合Lにおいて再検出することを可能にする。確率モデルPmはモデルPcにおいて再コピーされる。すなわち、ステップ102において選択された確率モデルPmが、現在の確率モデルPcになる。ステップ106において、現在のシンボルScが、現在の確率モデルPcにより符号化される。
ステップ108において、現在の確率モデルPcは、AC符号化を参照して上述された方法に従って更新される。
ステップ110において、シンボルの集合が符号化されたか検証される。シンボルの集合が符号化されている場合、本方法は終了し、そうでない場合、本方法はステップ112に続く。
ステップ112において、符号化対象の次のシンボルが現在のシンボルScになる。本方法は、ステップ100におけるこの新たな現在のシンボルにより繰り返される。第2実施例の第1の変形によると、ステップ102において、確率モデルPmが、現在の確率モデルPcによる類似性基準に従ってEにおいて選択される。すなわち、選択されるモデルPmは、現在のモデルPcと類似性が高いEのモデルである。2つの確率モデルP1とP2との間の類似性は、例えば、
Figure 0005851987
又は
Figure 0005851987
のように計算される。
Figure 0005851987
は、シンボルScの可能性のある値の集合を表し、Iは、これら可能性のある値を特定するインデックスの集合である。
第2実施例の第2の変形によると、ステップ102において、確率モデルPmが、現在の確率モデルPcによる類似性基準に従ってEにおいて選択される。すなわち、選択されるモデルPmは、類似度が閾値より高い、現在の確率モデルPcとより大きな類似性を有するEのモデルである。反対のケースでは、Pm=Pcである。これらの変形のケースでは、すなわち、現在の確率モデルPcとの類似性基準に従うモデルPmの選択のケースでは、集合Eにおいて選択されるモデル識別子mはストリームにおいて符号化されない。実際、モデルPmが、エンコーダ側と同様にしてデコーダ側において選択される。このため、ステップ104は省略される。
第3実施例が、図7において示される。図3,6のものと同一の図7のステップは、同一の参照番号によって図7において特定される。
ステップ100において、当該位置がスイッチングポイントSP上であるか検証される。スイッチングポイントSP上である場合、本方法はステップ102に続き、そうでない場合、ステップ106に続く。
ステップ102において、確率モデルPmが、符号化コスト基準に従って少なくとも2つの確率モデル
Figure 0005851987
の集合Lにおいて選択される(Mは整数)。Mは、集合Lの確率モデルの個数である。集合Lは、現在のシンボルScの前に符号化されたシンボルから規定される現在の確率モデルPcと、デフォルトにより規定された確率モデルの部分集合Eとを有する。部分集合Eは、P0として記されるデフォルトにより規定される少なくとも1つの確率モデルを有する。例えば、P0は一様確率モデルであり、すなわち、当該モデルのすべての確率が等しい。部分集合Eは、ガウス確率モデルや符号化対象となる信号を表すデータベース上の学習によって取得されたモデルなど、デフォルトにより規定される他のモデルを含むものであってもよい。現在のシンボルScが最初に符号化されたシンボルである場合、現在の確率モデルPcはデフォルトにより規定され、この場合、EのモデルP0と同じものであってもよい。現在のシンボルScが最初に符号化されたシンボルでない場合、現在の確率モデルPcは、現在のシンボルScの前に符号化されたシンボルを用いて規定される。このような確率モデルPcは、実際、ソース信号の特性に動的に適用させるため、現在のシンボルScの前に符号化されたシンボルの符号化中に更新されている。ステップ102が図5において詳述される。
ステップ1020において、LのモデルPiに関する符号化コストCiが算出される。例えば、シンボルが画像データのブロックに分割された画像を表す場合、シンボルScに関連付けされた現在のブロックに符号化順で後続する画像データのJ個のブロックが符号化される(Jは整数)。J個のブロックの符号化に関する符号化コストCiが算出される。一変形によると、確率モデルPiによるう画像データのJ個のブロックの符号化に関するゆがみDiがまた計算される。当該変形によると、符号化コストは、符号化コストの加重和と関連するゆがみとにより置き換えられる。
Ci=Di+λCi
ステップ1022において、インデックスiが1だけインクリメントされる。
ステップ1024において、iの値がMと比較される。i<Mである場合、本方法はiの新たな値によりステップ1020に戻り、そうでない場合、本方法はステップ1026に続く。
ステップ1026において、関連する符号化コストCiが最小となる集合Lの確率モデルPiが、モデルPmとして選択される。
ステップ104において、集合Lにおいて選択されるモデル識別子mがストリームにおいて符号化される。効果的には、この識別子は、復号化方法が符号化方法によって選択されたモデルを集合Lにおいて検出することを可能にする。
ステップ105において、現在の確率モデルPcが部分集合Eに加えられ、その後に、確率モデルにより選択されたPmがモデルPcにおいて再コピーされる。すなわち、ステップ102において選択された確率モデルPmが現在の確率モデルPcになる。部分集合Eに加えられた確率モデルPcの確率は変更されないことに留意されたい。このステップ105により、第3実施例による符号化方法は、図6を参照して説明された第2実施例による符号化方法に関してより効率的である。実際、このケースでは、部分集合Eのコンテンツは、新たな現在シンボルの各符号化においておそらく関連する現在の確率モデルを統合することによって、シンボルの符号化に従って動的に変化する。このように規定された部分集合Eは、ソース信号の特性に適応されたより多くの確率モデルを有し、すなわち、現在シンボルの以前に符号化されたシンボルの符号化を用いて規定される。例えば、EはP0として記されるデフォルトにより規定された一意的な確率モデルを初期的に有し、現在シンボルScが符号化されたk番目のシンボルであると想定すると、第2実施例によってこのシンボルを符号化するため、ステップ102において、以下の確率モデル、P0及びP K−1しかテストされない(P K−1は、(k−1)番目のシンボルの符号化中にステップ108において更新された現在の確率モデルである)。しかしながら、第3実施例によると、以下の確率モデル、P0,P K−1,{P K−m}がテストされる(mはEのサイズSizeEに依存し、{P K−m}はスイッチングポイントにおいてK番目のシンボルの前に符号化されたシンボルの符号化中にEに加えられた確率モデルを有する)。このステップは、図8に詳述される。
ステップ1050において、EのサイズSizeEが閾値Tmaxと比較される。SizeE<Tmaxである場合、本方法はステップ1054に続く。そうでない場合、本方法はステップ1052に続く。
ステップ1052において、1つの確率モデルが、P0として記されるデフォルトにより規定された第2確率モデルを除き部分集合Eから削除される。削除された確率モデルは、例えば、部分集合Eの最も古いモデルである。一変形によると、削除された確率モデルは、最も低い頻度でしか選択されないモデルである。他の変形によると、削除された確率モデルは、最も低い頻度で選択されるP個の確率モデルのうち、当該確率モデルが選択されたときにステップ1020において計算された平均符号化コストが最大であった確率モデルである。
ステップ1054において、現在の確率モデルPcがEに加えられる。
ステップ106において、現在のシンボルScは、現在の確率モデルPcにより符号化される。
ステップ108において、現在の確率モデルPcは、AC符号化を参照して上述された方法により更新される。
ステップ110において、シンボルの集合が符号化されたか検証される。シンボルの集合が符号化されている場合、本方法は終了し、そうでない場合、本方法はステップ112に続く。
ステップ112において、符号化対象となる次のシンボルが現在シンボルScになる。本方法は、ステップ100において、この新たな現在シンボルにより繰り返される。
第2実施例の第1の変形によると、ステップ102において、現在の確率モデルPcとの類似性基準によって、確率モデルPmがEにおいて選択される。すなわち、選択されたモデルPmは、現在モデルPcとより大きな類似度を有するEのモデルである。2つの確率モデルP1とP2との間の類似度は、例えば、以下のように計算される。
Figure 0005851987
又は
Figure 0005851987
ただし、
Figure 0005851987
は、シンボルScの可能な値の集合を表し、Iは当該可能な値を特定するインデックスの集合である。
第2実施例の第2の変形によると、ステップ102において、現在の確率モデルPcによる類似性基準によって、確率モデルPmがEにおいて選択される。すなわち、選択されるモデルPmは、類似度が閾値より高く、現在の確率モデルPcとのより大きな類似度を有するEのモデルである。そうでない場合、Pm=Pcである。これらの変形のケースでは、すなわち、現在の確率モデルPcとの類似性基準によるモデルPmの選択のケースでは、集合Eにおいて選択されたモデル識別子mは、ストリームにおいて符号化されない。実際、モデルPmは、符号化サイドと同様に復号化サイドにおいても同じ方法により選択される。従って、ステップ104は省略される。
画像シーケンスに適用可能な本発明の一変形によると、算術符号化は、各画像又は各画像スライスのスタート時にデフォルトP0により規定される確率モデルによる部分集合Eの初期化ステップを有する。
他の変形によると、デフォルトP0により規定される確率モデルによる部分集合Eの初期化ステップは、リファレンス画像においてのみ適用可能である。リファレンス画像は、他の画像を符号化するため当該他の画像を予測するのに利用される画像である。
図9において、x軸上に画像の符号化処理の進捗が示され、y軸上にシンボルSが値“a”をとる確率が示される。実線は実際の確率P(S=a)の変化を表し、破線は本発明の方法による画像の符号化中の対応する推定確率を表す。推定確率は、ステップ108において、画像の符号化に従って更新される。収束時間は、AC方法に関してかなり低減される(図2)。
本発明によるストリームFを復号化する方法が、図10において示される。
ステップ200において、当該位置がスイッチングポイントSP上であるか検証される。本発明によると、スイッチングポイントSPは、現在シンボルを符号化するのに用いられた確率モデルが変更可能なレベルにおけるストリームのポイントとして規定される。スイッチングポイントの位置は、例えば、当該ストリームにおいて符号化された位置を復号化することによって決定される。他の変形によると、スイッチングポイントは、N個のブロック毎に分散される(Nは整数)。他の変形によると、スイッチングポイントは、例えば、INTRAモードにより符号化されるN個のブロック毎など、所与のモデルにより符号化されたN個のブロック毎に分散される。スイッチングポイントSP上にある場合、本方法はステップ202に続き、そうでない場合、ステップ206に続く。
ステップ202において、識別子mがストリームFから復号化される。この識別子は、少なくとも2つの確率モデルの集合Lにおける確率モデルの特定を可能にする。集合Lは、現在シンボルScの前に符号化されたシンボルから規定される現在の確率モデルPcと、デフォルトにより規定された確率モデルの部分集合Eとを有する。部分集合Eは、P0として記されるデフォルトにより規定される少なくとも1つの確率モデルを有する。例えば、P0は一様確率モデルであり、すなわち、当該モデルのすべての確率が等しい。部分集合Eは、ガウス確率モデルや符号化対象の信号を表すデータベース上での学習により取得されるモデルなど、デフォルトにより規定された他のモデルを含むものであってもよい。
ステップ204において、識別子がmとなるLの確率モデルが選択される。確率モデルPmがモデルPcにおいて再コピーされ、すなわち、ステップ202において選択された確率モデルPmが、現在の確率モデルPcになる。
ステップ206において、現在シンボルScが、現在の確率モデルPcにより復号化される。
ステップ208において、現在の確率モデルPcは、AC符号化を参照して上述された方法により更新される。
ステップ210において、シンボルの集合が復号化されたか検証される。シンボルの集合が復号化されている場合、本方法は終了し、そうでない場合、本方法は、次のシンボルを復号化するためステップ200に続く。
本実施例の第1の変形によると、ステップ204において、現在の確率モデルPcによる類似性基準によって、確率モデルPmがEにおいて選択される。すなわち、選択されるモデルPmは、現在モデルPcとより大きな類似度を有するEのモデルである。2つの確率モデルP1とP2との間の類似度は、例えば、以下のように計算される。
Figure 0005851987
又は
Figure 0005851987
ただし、
Figure 0005851987
は、シンボルScの可能な値の集合を表し、Iは当該可能な値を特定するインデックスの集合である。
第2実施例の第2の変形によると、ステップ102において、確率モデルPmが、現在の確率モデルPcとの類似性基準によって、Eにおいて選択される。すなわち、選択されたモデルPmは、当該類似度が閾値より高く、現在の確率モデルPcとのより大きな類似度を有するEのモデルである。そうでない場合、Pm=Pcである。これらの変形のケースでは、すなわち、現在の確率モデルPcとの類似性基準によるモデルPmの選択のケースでは、集合Eにおいて選択されたモデル識別子mは、ストリームにおいて復号化されない。従って、ステップ202は省略される。
他の実施例が、図11に示される。図11のステップと同一の図11のステップは、同一の参照番号によって図11において特定される。
ステップ200において、当該位置がスイッチングポイントSP上であるか検証される。本発明によると、スイッチングポイントSPは、現在シンボルを符号化するのに用いられる確率モデルが変更可能なレベルにおけるストリームのポイントして規定される。スイッチングポイントの位置は、例えば、当該ストリームにおいて符号化された位置を復号化するなどによって決定される。他の変形によると、スイッチングポイントは、N個のブロック毎に分散される(Nは整数)。他の変形によると、スイッチングポイントは、例えば、INTRAモードにより符号化されたN個のブロック毎など、所与のモードにより符号化されたN個のブロック毎に分散される。他の変形によると、スイッチングポイントは、ストリームの特定のビットシーケンスにより通知可能である。スイッチングポイントSP上にある場合、本方法はステップ202に続き、そうでない場合、本方法はステップ206に続く。
ステップ202において、識別子mがストリームFから復号化される。この識別子は、少なくとも2つの確率モデルの集合Lにおける確率モデルの特定を可能にする。集合Lは、現在シンボルScの前に符号化されたシンボルから規定される現在の確率モデルPcと、デフォルトにより規定された確率モデルの部分集合Eとを有する。部分集合Eは、P0として記されるデフォルトにより規定された少なくとも1つの確率モデルを有する。例えば、P0は一様確率モデルであり、すなわち、当該モデルのすべての確率が等しい。一変形によると、P0は、規格により規定される確率モデルである。部分集合Eは、ガウス確率モデルや符号化対象の信号を表すデータベースにおける学習によって取得されるモデルなど、デフォルトにより規定された他のモデルを含むものであってもよい。現在シンボルScが符号化された最初のシンボルである場合、現在の確率モデルPcはデフォルトにより規定され、この場合、それはEのモデルP0と同じものであってもよいことに留意されたい。現在のシンボルScが符号化された最初のシンボルでない場合、現在の確率モデルPcは、現在シンボルScの前に符号化されたシンボルを用いて規定される。このような確率モデルPcは、実際、ソース信号の特性に動的に適応するため、現在シンボルScの前に符号化されたシンボルの符号化中に更新されたものである。
ステップ204において、識別子がmであるLの確率モデルが選択される。
ステップ205において、現在の確率モデルPcが部分集合Eに加えられる。このステップが、図8において詳述される。確率モデルPmは、現在の確率モデルPcにおいて再コピーされ、すなわち、ステップ204において選択された確率モデルPmが現在の確率モデルPcになる。このステップは、第3実施例による符号化方法のステップ105と同じである。
ステップ1050において、EのサイズSizeEが閾値Tmaxと比較される。SizeE<Tmaxである場合、本方法はステップ1054に続き、そうでない場合、本方法はステップ1052に続く。
ステップ1052において、1つの確率モデルが、P0として記されるデフォルトにより規定された第2の確率モデルを除き部分集合Eから削除される。削除された確率モデルは、例えば、部分集合Eにおける最も古いモデルである。一変形によると、削除された確率モデルは、選択される頻度が最も低いP個の確率モデルのうち、当該確率モデルが選択されるときに計算された平均符号化コストが最大となる確率モデルである。
ステップ206において、現在のシンボルScが、ステップ204において選択された確率モデルPmである現在の確率モデルPcにより復号化される。
ステップ208において、現在の確率モデルPcが、AC符号化を参照して上述された方法によって更新される。復号化装置サイドにおける更新ステップは、符号化装置サイドにおいて実行されるものと同じである。
ステップ210において、シンボルの集合が復号化されたか検証される。シンボルの集合が復号化された場合、本方法は終了し、そうでない場合、本方法は新たなシンボルを復号化するため、ステップ200に続く。
本実施例の第1の変形によると、ステップ204において、現在の確率モデルPcによる類似性基準によって、確率モデルPmがEにおいて選択される。すなわち、選択されるモデルPmは、現在モデルPcとより大きな類似度を有するEのモデルである。2つの確率モデルP1とP2との間の類似度は、例えば、以下のように計算される。
Figure 0005851987
又は
Figure 0005851987
ただし、
Figure 0005851987
は、シンボルScの可能な値の集合を表し、Iは当該可能な値を特定するインデックスの集合である。
第2実施例の第2の変形によると、ステップ102において、現在の確率モデルPcによる類似性基準に従って、確率モデルPmがEにおいて選択され、すなわち、選択されるモデルPmは、当該類似度が閾値より大きく、現在の確率モデルPcとより大きな類似度を有するEのモデルである。そうでない場合、Pm=Pcである。これらの変形のケースでは、すなわち、現在の確率モデルPcとの類似性基準によるモデルPmの選択のケースでは、集合Eにおいて選択されるモデルの識別子mは、ストリームにおいて復号化されない。従って、ステップ202は省略される。
図12において、本発明による画像符号化装置12が示される。符号化装置12は、画像シーケンスに属する画像Iを入力において受信する。各画像は、画像データの少なくとも1つのアイテムに関連付けされる各ピクセルブロックに分割される。符号化装置12は特に、Xresとして示される残差画像データブロック又は残差ブロックを生成するため、現在ブロックXsrcから予測ブロックXpredをピクセル単位で減じることが可能な計算モジュール1200を有する。それはさらに、残差ブロックXresを量子化データに変換及び量子化することが可能なモジュール1202を有する。変換Tは、例えば、離散コサイン変換(DCT)である。符号化モジュール12はさらに、量子化データを符号化データのストリームFに符号化可能なエントロピー符号化モジュール1204を有する。エントロピー符号化モジュール1204は、本発明による算術符号化方法のステップ100,102,104,106,108,110,112と、特にステップ102を実現する。それはまた、モジュール1202の逆の処理を実行するモジュール1206を有する。モジュール1206は、逆量子化IQに続き逆変換ITを実行する。モジュール1206は、メモリ1210に格納される再構成された画像データのブロックを生成するため、モジュール1206からのデータブロックと予測ブロックXpredとをピクセル毎に加えることが可能な計算モジュール1208に接続される。
符号化装置12はさらに、メモリ1210に格納されているリファレンス画像とブロックXsrcとの間の少なくとも1つの動きベクトルを推定することが可能な動き推定モジュール1212を有し、その後、以前に符号化された当該画像が再構成される。一変形によると、動き推定は、現在ブロックXsrcとオリジナルのリファレンス画像との間で実行可能である。当業者に周知の方法によると、動き推定モジュール1212は、動きベクトルを用いて特定されたリファレンス画像におけるリファレンスブロックXrefと現在ブロックXsrcとの間で計算されるエラーを最小化するため、リファレンス画像において動きベクトルを検索する。一変形によると、符号化装置12は動き推定モジュールを有さず、この場合、画像データブロックXsrcは、おそらく空間予測によるINTRA符号化モードによって符号化される。動きデータは、所定の符号化モード集合においてブロックXsrcの符号化モードを選択することが可能な判定モジュール1214に動き推定モジュール1212により送信される。“動きデータ”という用語は、最も広い意味において理解されるべきであり、すなわち、動きベクトルと画像シーケンスにおいて画像を特定するリファレンス画像インデックスとである。
継続される符号化モードは、例えば、ビットレートゆがみタイプ基準を最小化するものである。しかしながら、本発明は、この選択方法に限定されず、継続されるモードは、事前タイプ基準などの他の基準により選択可能である。判定モジュール1214によって選択される、符号化モードと、おそらく時間予測モード又はINTERモードのケースにおける動きデータとが、予測モジュール1216に送信される。符号化モードと可能な動きデータとはまた、ストリームFにおいて符号化されるエントロピー符号化モジュール1204に送信される。予測モジュール1216は、特に以前に再構成され、メモリ1210に格納されているリファレンス画像Irから予測ブロックXpredを決定する。この符号化モードと動きデータとは、おそらく判定モジュール1214により選択される。
図13において、本発明による復号化装置が示される。復号化装置13は、画像シーケンスを表す符号かデータのストリームFを入力において受信する。ストリームFは、例えば、符号化装置12により生成及び送信される。復号化装置13は、例えば、画像のコンテンツに関する復号化データと符号化モードなど、復号化データを生成することが可能なエントロピー復号化モジュール1300を有する。このため、エントロピー復号化モジュール1300は、本発明による算術復号化方法のステップ200,202,204,206,208,210とおそらく205とを実現する。
符号化装置12のモジュール1202からの量子化データに対応する画像のコンテンツに対する復号化データは、その後に逆量子化に続き逆変換を実行することが可能なモジュール1302に送信される。モジュール1302は、符号化されたストリームFを生成した符号化モジュール12のモジュール1206と同一である。モジュール1302は、メモリ1306に格納される再構成された画像データのブロックを生成するため、モジュール1302からのブロックと予測ブロックXpredとをピクセル毎に加えることが可能な計算モジュール1304に接続される。復号化装置13はさらに、符号化装置12のモジュール1216と同一の予測モジュール1308を有する。予測モジュール1308は、以前に再構成され、メモリ1306に格納されている特にリファレンス画像Irから予測画像Xpredを決定する。符号化モードとおそらく動きデータとが、エントロピー復号化モジュール1300によって現在ブロックXsrcについて復号化される。
図11及び12において、図示されたモジュールは、物理的に区別可能なユニットに対応するものであってもよいし、そうでなくてもよい機能ユニットである。例えば、これらのモジュール又はその一部は、単一のコンポーネントに一体にグループ化可能であるか、又は別々の物理的エンティティから構成されてもよい。他方、一部のモジュールは、別々の物理的エンティティから構成されてもよい。例えば、モジュール1202は、一方が変換を実行し、他方が量子化を実行する別々のコンポーネントにより実現可能である。
当然ながら、本発明は、上述された実施例に限定されるものでない。特に、当業者は、記載された実施例に何れかの変形を適用し、各種効果を奏するようそれらを組み合わせてもよい。特に、算術符号化及び復号化方法は、すべてのシンボルタイプ(すなわち、画像、音声、3Dなど)に適用される。本発明による算術符号化及び復号化方法は、符号化規格にリンクしていない。

Claims (15)

  1. ストリームにおけるシンボルの算術符号化方法であって、
    現在のシンボルを符号化するため前記ストリームにおいて分散されるスイッチングポイントにおいて適用される、
    前記現在のシンボルの前に符号化されたシンボルを用いて規定される現在の確率モデルと、デフォルトにより規定される少なくとも1つの確率モデルを有する確率モデルの部分集合とを有する集合において、符号化コスト基準に従って確率モデルを選択するステップと、
    前記選択された確率モデルの識別子を符号化するステップと、
    前記選択された確率モデルが前記現在の確率モデルになる、前記部分集合に前記現在の確率モデルを加えるステップと、
    前記現在の確率モデルによって前記現在のシンボルを符号化するステップと、
    前記現在のシンボルの符号化によって前記現在の確率モデルを更新するステップと、
    を有する算術符号化方法。
  2. 前記確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、前記現在の確率モデルは、デフォルトにより規定された第2確率モデルを除く選択された頻度が最も低い確率モデルの部分集合の確率モデルの代わりとして加えられる、請求項1記載の算術符号化方法。
  3. 前記確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、前記現在の確率モデルは、デフォルトにより規定された確率モデルを除く前記部分集合の最も古い確率モデルの代わりとして加えられる、請求項1記載の算術符号化方法。
  4. 前記確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、前記現在の確率モデルは、デフォルトにより規定された確率モデルを除く、選択された頻度が最も低い前記部分集合のP個の確率モデルのうち、前記確率モデルが選択された際に計算された符号化コストの平均が最大となる確率モデルの代わりとして加えられる、請求項記載の算術符号化方法。
  5. 前記スイッチングポイントは、前記ストリームにおいて一様に分散される、請求項1乃至何れか一項記載の算術符号化方法。
  6. 前記ストリームにおける前記スイッチングポイントの分散は、所与の符号化モードにより符号化されたブロックの個数に従う、請求項1乃至何れか一項記載の算術符号化方法。
  7. 前記スイッチングポイントのストリームにおける位置が、前記ストリームにおいて送信される、請求項1乃至何れか一項記載の算術符号化方法。
  8. 前記スイッチングポイントのストリームにおける位置が、特定のビットシーケンスにより通知される、請求項1乃至何れか一項記載の算術符号化方法。
  9. 各画像又は各画像スライスのスタートにおいてデフォルトにより規定される確率モデルによって前記確率モデルの部分集合を初期化するステップをさらに有する、請求項1乃至何れか一項記載の算術符号化方法。
  10. ストリームの形式により符号化されたシンボルの算術復号化方法であって、
    現在のシンボルを復号化するため前記ストリームにおいて分散されるスイッチングポイントにおいて適用される、
    前記現在のシンボルについて、前記ストリームから確率モデルの識別子を復号化するステップと、
    前記確率モデルの識別子を用いて、前記現在のシンボルの前に符号化されたシンボルから規定される現在の確率モデルと、デフォルトにより規定された少なくとも1つの確率モデルを含む部分集合とを有する集合において確率モデルを選択するステップと、
    前記選択された確率モデルが前記現在の確率モデルになる、前記部分集合に前記現在の確率モデルを加えるステップと、
    前記現在の確率モデルによって前記現在のシンボルを復号化するステップと、
    前記現在のシンボルの復号化に従って前記現在の確率モデルを更新するステップと、
    を有する算術復号化方法。
  11. 前記確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、前記現在の確率モデルは、デフォルトにより規定された第2確率モデルを除く選択された頻度が最も低い確率モデルの部分集合の確率モデルの代わりとして加えられる、請求項10記載の算術復号化方法。
  12. 前記確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、前記現在の確率モデルは、デフォルトにより規定された確率モデルを除く前記部分集合の最も古い確率モデルの代わりとして加えられる、請求項10記載の算術復号化方法。
  13. 前記確率モデルの部分集合における確率モデルの個数が閾値に等しいとき、前記現在の確率モデルは、デフォルトにより規定された確率モデルを除く、選択された頻度が最も低い前記部分集合のP個の確率モデルのうち、前記確率モデルが選択された際に計算された符号化コストの平均が最大となる確率モデルの代わりとして加えられる、請求項10記載の算術復号化方法。
  14. ストリームにおけるシンボルの算術符号化装置であって、
    現在のシンボルを符号化するため前記ストリームにおいて分散されるスイッチングポイントにおいて、前記現在のシンボルの前に符号化されたシンボルを用いて規定される現在の確率モデルと、デフォルトにより規定される少なくとも1つの確率モデルを有する確率モデルの部分集合とを有する集合において、符号化コスト基準に従って確率モデルを選択する手段と、
    前記選択された確率モデルの識別子を符号化する手段と、
    前記選択された確率モデルが前記現在の確率モデルになる、前記部分集合に前記現在の確率モデルを加える手段と、
    前記現在の確率モデルによって前記現在のシンボルを符号化する手段と、
    前記現在のシンボルの符号化によって前記現在の確率モデルを更新する手段と、
    を有する算術符号化装置。
  15. ストリームの形式により符号化されたシンボルの算術復号化装置であって、
    現在のシンボルを復号化するため前記ストリームにおいて分散されるスイッチングポイントにおいて、前記現在のシンボルについて、前記ストリームから確率モデルの識別子を復号化する手段と、
    前記確率モデルの識別子を用いて、前記現在のシンボルの前に符号化されたシンボルから規定される現在の確率モデルと、デフォルトにより規定された少なくとも1つの確率モデルを含む部分集合とを有する集合において確率モデルを選択する手段と、
    前記選択された確率モデルが前記現在の確率モデルになる、前記部分集合に前記現在の確率モデルを加える手段と、
    前記現在の確率モデルによって前記現在のシンボルを復号化する手段と、
    前記現在のシンボルの復号化に従って前記現在の確率モデルを更新する手段と、
    を有する算術復号化装置。
JP2012516690A 2009-07-01 2010-06-22 算術符号化及び復号化方法 Active JP5851987B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0954483 2009-07-01
FR0954483 2009-07-01
PCT/EP2010/058770 WO2011000734A1 (en) 2009-07-01 2010-06-22 Methods for arithmetic coding and decoding

Publications (2)

Publication Number Publication Date
JP2012531776A JP2012531776A (ja) 2012-12-10
JP5851987B2 true JP5851987B2 (ja) 2016-02-03

Family

ID=41668494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012516690A Active JP5851987B2 (ja) 2009-07-01 2010-06-22 算術符号化及び復号化方法

Country Status (8)

Country Link
US (1) US8674859B2 (ja)
EP (2) EP4224717A1 (ja)
JP (1) JP5851987B2 (ja)
KR (1) KR101730200B1 (ja)
CN (1) CN102474274B (ja)
BR (1) BRPI1011786B1 (ja)
TW (1) TWI538416B (ja)
WO (1) WO2011000734A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5592246B2 (ja) * 2010-12-21 2014-09-17 日本電信電話株式会社 コンテクスト適応エントロピー符号化方法,コンテクスト適応エントロピー復号方法,コンテクスト適応エントロピー符号化装置,コンテクスト適応エントロピー復号装置およびそれらのプログラム
CN103096062A (zh) * 2011-11-01 2013-05-08 珠海扬智电子科技有限公司 算术解码方法
WO2014106692A1 (en) * 2013-01-07 2014-07-10 Nokia Corporation Method and apparatus for video coding and decoding
KR20160105848A (ko) * 2014-01-01 2016-09-07 엘지전자 주식회사 데이터 심볼들에 대해 산술 코딩을 수행하는 방법 및 장치
CN109510627B (zh) * 2017-09-15 2020-07-07 腾讯科技(深圳)有限公司 一种整数编码方法、装置和存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5045852A (en) 1990-03-30 1991-09-03 International Business Machines Corporation Dynamic model selection during data compression
JP3495800B2 (ja) * 1994-12-28 2004-02-09 キヤノン株式会社 符号化装置及び方法
JPH09121359A (ja) * 1995-10-26 1997-05-06 Hitachi Ltd 画像符号化方法および画像復号化方法
US6757436B2 (en) * 1997-06-19 2004-06-29 Electroncs For Imaging, Inc. Methods and apparatus for data compression based on modeling schemes
JP3902698B2 (ja) * 1997-12-01 2007-04-11 日本放送協会 動画像の可逆圧縮符号化装置および可逆伸長復号化装置
JP4160689B2 (ja) * 1998-11-10 2008-10-01 株式会社リコー 算術符号化装置および算術復号装置
US6894628B2 (en) 2003-07-17 2005-05-17 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and methods for entropy-encoding or entropy-decoding using an initialization of context variables
JP2005130099A (ja) * 2003-10-22 2005-05-19 Matsushita Electric Ind Co Ltd 算術復号装置、算術符号化装置、算術符号化・復号装置、携帯端末装置、動画像撮影装置、及び、動画像記録・再生装置
EP1836858A1 (en) * 2005-01-14 2007-09-26 Sungkyunkwan University Methods of and apparatuses for adaptive entropy encoding and adaptive entropy decoding for scalable video encoding
KR100703776B1 (ko) * 2005-04-19 2007-04-06 삼성전자주식회사 향상된 코딩 효율을 갖는 컨텍스트 기반 적응적 산술 코딩및 디코딩 방법과 이를 위한 장치, 이를 포함하는 비디오코딩 및 디코딩 방법과 이를 위한 장치
CN1719903A (zh) * 2005-06-24 2006-01-11 清华大学 用于图象算术编码中的一种二值化和概率模型选择方法
US7199735B1 (en) * 2005-08-25 2007-04-03 Mobilygen Corporation Method and apparatus for entropy coding
KR100750165B1 (ko) * 2006-02-22 2007-08-17 삼성전자주식회사 압축률 향상을 위해 개선된 컨텍스트 모델 선택을 사용하는cabac 부호화 방법 및 장치, 그리고 cabac복호화 방법 및 장치
KR101365989B1 (ko) * 2007-03-08 2014-02-25 삼성전자주식회사 트리 구조를 기반으로 한 엔트로피 부호화 및 복호화 장치및 방법
US7957600B2 (en) * 2007-05-08 2011-06-07 Arris Group, Inc. Methods and systems for rate-distortion optimized quantization of transform blocks in block transform video coding
JP2009021775A (ja) * 2007-07-11 2009-01-29 Panasonic Corp 符号化装置及び符号化方法
US7864086B2 (en) * 2008-10-06 2011-01-04 Donald Martin Monro Mode switched adaptive combinatorial coding/decoding for electrical computers and digital data processing systems

Also Published As

Publication number Publication date
EP2449683A1 (en) 2012-05-09
EP4224717A1 (en) 2023-08-09
BRPI1011786A2 (pt) 2018-02-27
US20120218131A1 (en) 2012-08-30
US8674859B2 (en) 2014-03-18
CN102474274B (zh) 2014-11-26
BRPI1011786B1 (pt) 2020-08-25
JP2012531776A (ja) 2012-12-10
KR20120105412A (ko) 2012-09-25
TW201136190A (en) 2011-10-16
TWI538416B (zh) 2016-06-11
WO2011000734A1 (en) 2011-01-06
KR101730200B1 (ko) 2017-04-25
CN102474274A (zh) 2012-05-23

Similar Documents

Publication Publication Date Title
CN107743239B (zh) 一种视频数据编码、解码的方法及装置
JP5736032B2 (ja) 算術符号化のための適応型2値化
US8194737B2 (en) Apparatus and method for modifying predicted values, and decoding system
JP5071416B2 (ja) 動画像符号化装置、及び動画像復号装置、並びに動画像伝送システム
KR102600727B1 (ko) 파라미터화된 확률 추정 유한 상태 머신들을 이용한 이진 산술 코딩
US20070280353A1 (en) Picture coding device
KR101874015B1 (ko) 영상 변환 부호화/복호화 방법 및 장치
KR20120079137A (ko) 비트 스트림 복호 방법
JP5851987B2 (ja) 算術符号化及び復号化方法
WO2012139192A2 (en) Methods and devices for coding and decoding the position of the last significant coefficient
JP2012124890A (ja) 符号化信号を、この符号化信号と副情報との間の統計的依存性に基づいて復号する方法および復号器
CN108632630B (zh) 一种结合位运算和概率预测的二值图像编码方法
Zhou et al. Distributed video coding using interval overlapped arithmetic coding
CN108353180B (zh) 具有延迟重构的视频编码
JP5625808B2 (ja) データ更新装置及びプログラム、並びに、動画像復号装置及びプログラム、並びに、動画像配信システム
Vidyavathi et al. Motion-compensated video compression using variable length Huffman coding
JP6509916B2 (ja) 連結されたrom−ramテーブルに基づいて算術コーディングを遂行する方法及び装置
JP5900548B2 (ja) 動画像符号化装置
Raut et al. Adaptive super-spatial prediction approach for lossless image compression
Peel et al. Adaptive-search tree-structured residual vector quantization
JP2008131526A (ja) 動画像符号化装置及び動画像符号化プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151203

R150 Certificate of patent or registration of utility model

Ref document number: 5851987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250