JP2008536393A - 少なくとも一のデジタル画像をエンコードする方法、エンコーダ、及びコンピュータプログラム製品 - Google Patents

少なくとも一のデジタル画像をエンコードする方法、エンコーダ、及びコンピュータプログラム製品 Download PDF

Info

Publication number
JP2008536393A
JP2008536393A JP2008505271A JP2008505271A JP2008536393A JP 2008536393 A JP2008536393 A JP 2008536393A JP 2008505271 A JP2008505271 A JP 2008505271A JP 2008505271 A JP2008505271 A JP 2008505271A JP 2008536393 A JP2008536393 A JP 2008536393A
Authority
JP
Japan
Prior art keywords
layer
image
representation
cif
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008505271A
Other languages
English (en)
Inventor
リ,ゼングオ
ヤオ,ウェイ
パン リム,ケン
リン,シャオ
ラハージャ,スサント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agency for Science Technology and Research Singapore
Original Assignee
Agency for Science Technology and Research Singapore
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency for Science Technology and Research Singapore filed Critical Agency for Science Technology and Research Singapore
Publication of JP2008536393A publication Critical patent/JP2008536393A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

少なくとも一のデジタル画像をエンコードする方法が記載された。この方法では、前記画像の第1の表現を生成し、前記画像の第2の表現を生成し、前記画像の第1の表現及び前記画像の第2の表現を用いて前記画像の画素に割り当てられた符号化情報を予測することにより、前記画像の第1の表現及び前記画像の第2の表現から前記画像の第3の表現を生成する。

Description

本発明は、少なくとも一のデジタル画像をエンコードする方法、エンコーダ、及びコンピュータプログラム製品に関する。
MPEG(Moving Picture Expert Group)の作業標準化の過程で、スケーラブル(拡張可能)ビデオ符号化(SVC)方法が提案された。これは、オープンループ動き推定/動き補償(ME/MC)に基づいており、ビデオ符号化標準AVCのスケーラブル拡張である。非特許文献1及び2を参照。
AVC(非特許文献2)において利用可能なME/MCスキームに加え、提案されたSVC方法の重要な部分は層間予測スキームである。
強化層の各スライス(slice)に対し、対応する「基層」(パラメータbase_id_plus1で特定。非特許文献1参照)を選択し、「基層」における動き情報及び残余情報間の冗長と強化層における冗長とを、それぞれ排除する。
強化層の各スライスには基層が一つしか存在しないので(非特許文献1参照)、符号化効率が低い場合もある。
図1は、先行技術に係る符号化層の例を示す図である。
図1に4つの層を例示する。即ち、(QCIF、低)で示される第1層、(QCIF、中)で示される第2層、(CIF、低)で示される第3層、(CIF、低)で示される第4層である。
「低」は、これに対応する層が、「中」に対応する層よりも低い精度で量子化された符号化情報からなることを示している。これは、第1軸105でも例示されており、図1においてより右側に示された層が、高SNRの符号化情報に相当することを示している。
「QCIF」(Quarter common intermediate format)は、これに対応する層が、「CIF」(common intermediate format)に対応する層よりも低い空間分解能の符号化情報からなることを示している。これは、第2軸106でも例示されており、図1においてより上部に示された層が、高分解能の符号化情報に相当することを示している。
先行技術によれば、第1層101(QCIF、低)として総合的基層が選択される。これは、第3層103(CIF、低)及び第2層102(QCIF、中)におけるすべてのスライスに対しても基層となる。
スケーラブルビットストリームを生成する場合、第3層103(CIF、低)及び第1層101(QCIF、低)間の空間的冗長性と、第1層101(QCIF、低)及び第2層102(QCIF、中)間のSNR(信号対雑音)冗長性とは、非特許文献1の草案で提案された層間予測スキームにより排除できる。
しかしながら、第4層104(CIF、中)を符号化する際には問題がある。各スライスには「基層」が一つしか存在しないため、第3層103(CIF、低)及び第1層101(QCIF、中)のいずれか一方が「基層」として選択される。
一方、第1層101(CIF、低)が「基層」として選択される場合、第1層101(CIF、低)及び第2層102(CIF、中)間のSNR冗長性は、効率的に排除できる。
しかしながら、第2層102(CIF、中)及び第4層104(QCIF、中)間の空間的冗長性は排除できない。
他方、第2層102(QCIF、中)が「基層」として選択される場合、第2層102(QCIF、中)及び第4層104(CIF、中)間の空間的冗長性は、効率的に排除できる。しかしながら、第4層104(CIF、中)及び第3層103(CIF、低)間のSNR冗長性は排除できない。
この問題に対応するための方法が二つある。即ち、
1)
−第1層101(QCIF、低)を、第2層102(QCIF、中)の「基層」として設定する。
−第1層101(QCIF、低)を、第3層103(CIF、低)の「基層」として設定する。
−第3層103(CIF、低)を、第4層104(CIF、中)の「基層」として設定する。
この場合、上述したように、第4層104(CIF、中)の符号化効率は保証できない。
2)
−第1層101(QCIF、低)を、第2層102(QCIF、中)の「基層」として設定する。
−第2層102(QCIF、中)を、第3層103(CIF、低)の「基層」として設定する。
−第3層103(CIF、低)を、第4層104(CIF、中)の「基層」として設定する。
この場合、第4層104(CIF、中)の符号化効率は保証できる。しかしながら、第2層102(QCIF、中)が第3層103(CIF、低)の「基層」である場合の第3層103(CIF、低)の符号化効率は、第1層101(QCIF、低)が第3層103(CIF、低)の「基層」である場合よりも低い。「CIF」で示された分解能における「低」で示された品質と、「QCIF」で示された分解能における「中」で示された品質との格差が大きい場合には、その格差は2dBよりも大きくなるであろう。
本出願書類には、以下の文献が引用されている。
Julien Reichel, Heiko Schwarz and Mathias Wien. Working Draft 1.0 of 14496-10:200x/AMD 1 Scalable Video Coding, ISO/IEC JTC1/SC29 WG11 MPEG2005/N6901, Kong Hong, China. Jan. 2005. Information Technology-Coding of Audio-Visual Objects-Part 10: Advance Video Coding. ISO/IEC FDIS 14496-10. Z. G. Li, X. K. Yang, K. P. Lim, X. Lin, S. Rahardja and F. Pan. Customer Oriented Scalable Video Coding. ISO/IEC JTC1/SC29 WG11 MPEG2004/M111187, Spain, Oct 2004.
本発明の課題は、先行技術におけるエンコード方法と比較して改良強化されたデジタル画像のエンコード方法を提供することである。
上記の課題は、独立項に係る特徴を有する少なくとも一のデジタル画像をエンコードする方法、エンコーダ、並びにコンピュータプログラム製品により実現される。
少なくとも一のデジタル画像をエンコードする方法であって、前記画像の第1の表現を生成し、前記画像の第2の表現を生成し、前記画像の第1の表現及び前記画像の第2の表現を用いて前記画像の画素に割り当てられた符号化情報を予測することにより、前記画像の第1の表現及び前記画像の第2の表現から前記画像の第3の表現を生成することを特徴とする方法が提供される。
更に、上述した少なくとも一のデジタル画像をエンコードする方法に係るエンコーダ及びコンピュータプログラム製品が提供される。
本発明の例示的な実施例について、図面を参照して以下に説明する。
具体的に、二つの「基層」を有する予測スキームが用いられるが、この二層(一の実施例においては、上述のように、層(QCIF、中)及び層(CIF、低)である)は、(CIF、中)の各スライスに対する基層である。言い換えれば、(CIF、中)の各スライスに対して二つの基層が存在する。このスキームについて以下に詳細に示す。
画素に割り当てられた符号化情報は、例えば、色情報や輝度情報である。
エンコードすべき画像は、複数の画像のうちの一画像、即ち、ビデオシークエンスのうちの一のフレームであってよく、第1の表現及び第2の表現は動き補償を用いて生成できる。
少なくとも一のデジタル画像をエンコードする方法に照らして記載された実施例は、エンコーダ及びコンピュータプログラム製品に対しても同様に有効である。
一の実施例では、前記画像の第2の表現は、前記第1の表現よりも低い信号対雑音比を有するように生成される。
一の実施例では、前記画像の第2の表現は、前記第1の表現よりも高い信号対雑音比を有するように生成される。
前記第2の表現は、CIF(common intermediate format)に応じた分解能を有するように生成され、前記第1の表現は、QCIF(quarter common intermediate format)に応じた分解能を有するように生成され、前記第3の表現は、CIFに応じた分解能を有するように生成される。
図2は、本発明の実施例に係るエンコーダ200を示す図である。
符号化すべき原ビデオ信号201は、基層生成器202に(スライス状で)供給される。基層生成器は、基層(即ち、基層符号化情報)を生成する。これは予測器203に供給される。予測器203は、基層に基づいて原ビデオ信号を予測する。原ビデオ信号201及び予測器203によって行われた予測から、強化層生成器204は、強化層(即ち、強化層符号化情報)を生成する。
次に、強化層及び基層は、原ビデオ信号201に対応する符号化ビデオ信号206を形成するように、エンコード/多重化部205によってエンコード及び多重化される。
エンコーダ200に対応するデコーダを図3に示す。
図3は、本発明の実施例に係るデコーダ300を示す図である。
エンコーダ200によって生成された符号化ビデオ信号206に対応する符号化ビデオ信号301は、デコード/逆多重化部303に(スライス状で)供給される。デコード/逆多重化部303は、符号化ビデオ信号301から基層(即ち、基層符号化情報)及び強化層(即ち、強化層符号化情報)を抽出する。この基層は予測器302に供給され、予測器302は基層から予測を行う。
この予測及び強化層がポストプロセッサ304に供給され、原ビデオ信号201に対応する再構築ビデオ信号305が生成される。
エンコーダ200及びデコーダ300は、例えばMPEG(Moving Pictures Expert Group)規格又はH.264規格(本発明に係る付加的特徴を除く)に従って機能するように構成される。
エンコーダ200及びデコーダ300について、強化層の各スライスに対して基層が一つしか存在しない場合を説明したが、エンコーダ200を異なる形態で用いることができる。特に、予測器203が複数の基層を入力として受信し、これら複数の基層から予測を算出するような形態で用いることができる。簡単のため、以下の説明はエンコーダ200について行う。デコーダ300は、類似の機能性を有する。
「強化層」の各スライスに対して、例えば夫々base-layer-id1-plus1及びbase-layer-id2-plus1とラベルされた基層が二つ存在しうる。
以下の説明では、上述した(QCIF、低)、(QCIF、中)、(CIF、低)、及び(CIF、中)で示された複数の層を用いる。
上述のように、「低」は、これに対応する層が、「中」に対応する層よりも低い精度で量子化された符号化情報からなることを示している。「QCIF」(Quarter common intermediate format)は、これに対応する層が、「CIF」(common intermediate format)に対応する層よりも低い空間分解能の符号化情報からなることを示している。
例えば(QCIF、低)のような現在の「強化層」に対して「基層」が存在しない場合、パラメータbase-layer-id1-plus1及びbase-layer-id2-plus1は、両方とも−1である。例えば(CIF、低)や(QCIF、中)のような現在の「強化層」に対して「基層」が一つしか存在しない場合、パラメータbase-layer-id1-plus1は(QCIF、低)を参照し、base-layer-id2-plus1は−1である。例えば(CIF、中)のような現在の「強化層」に対して「基層」が二つ存在する場合、パラメータbase-layer-id1-plus1は(QCIF、中)を参照し、base-layer-id2-plus1は(CIF、低)を参照する。従って、予測器203により実行される(CIF、中)の層間予測には三つの形態が存在しうる。
形態1:(CIF、低)から予測(即ち、(CIF、低)を基層として用いる)
形態2:(QCIF、中)から予測(即ち、(QCIF、中)を基層として用いる)
形態3:(CIF、低)及び(QCIF、中)から予測(即ち、(CIF、低)及び(QCIF、中)を基層として用いる)。
形態1及び2は、非特許文献1及び3に記載のように実行される。
形態3の数学的記述を以下に示す。
QCIF及びCIFの分解能において、基準フレームが夫々
Figure 2008536393
及び
Figure 2008536393
であり、低品質及び中品質が夫々二つの量子化パラメータQP1及びQP2に対応すると仮定する。また(dx0, dy0)が(QCIF、中)に対して生成された動き情報を意味すると仮定する。簡単のため、D(1,1,2n,2n+1,x,y,dx0,dy0)及びD(1,2,2n,2n+1,x,y,dx0,dy0)が夫々(QCIF、低)及び(QCIF、中)で符号化された残余情報を意味すると仮定する。数学的には、これらは次式で与えられる。
Figure 2008536393
但し、SDはダウンサンプリング動作を意味する(非特許文献1及び3を参照)。
形態3が用いられる際に(CIF、中)で符号化される残余情報は、次式で与えられる。
Figure 2008536393
但し、(dx,dy)はCIFの分解能における動き情報であり、また次式が成り立つ。
Figure 2008536393
但し、SDはアップサンプリング動作を意味する(非特許文献1及び3を参照)。QQPkは量子化パラメータQPkの量子化動作を意味し、IQQPkは対応する逆量子化動作を意味する。
(i,j)の値は、高分解能における残りの残余情報を最小限にするように適宜選択される。
式(1)は、(QCIF、低)及び(QCIF、中)間のSNR(信号対雑音比)冗長性を排除するために採用される。式(2)は、(CIF、低)及び(CIF、中)間のSNR冗長性を排除するために用いられる。式(3)は、(CIF、低)及び(QCIF、低)間のSNR冗長性と(CIF、中)及び(QCIF、中)間のSNR冗長性とを排除するために適用される。
層1及び層2で示される連続する二層が用いられる場合を考える。ここで層1は、非特許文献3に記載のSNR切断スキームによって層2から切り取られる。層1におけるMBの分割時に、二つの異なるSNRスキームを用いることができる。
一方のSNR切断スキームは、MBの分割が非スケーラブル(拡張不可能)である。言い換えれば、層1におけるMBのMBタイプ(MB_type)及びサブMBタイプ(Sub_MB_type)は、層2における同じMBのMBタイプ(MB_type)及びサブMBタイプ(Sub_MB_type)と同じである。層1からの情報を用いるイントラテクスチャ予測は、層2におけるすべてのイントラMBに対して常に実行できる。MB_type及びSub_MB_typeは、層1では符号化されるが、層2では符号化される必要はない。
他方のSNR切断スキームは、MBの分割が層2において粗い。層1におけるMBのMB_type及びSub_MB_typeと、層2において同一場所に配置されたMBのMB_type及びSub_MB_typeとの関係を夫々表1及び表2に記載する。
Figure 2008536393
Figure 2008536393
ここで、仮に層1及び層2が連続する二層であり、層1は非特許文献3に記載のSNR切断スキームによって層2から切り取られるとする。層1のいずれのマクロブロック(MB)に対しても、層2において同一場所に配置された4つのマクロブロックが識別される。層1におけるMBの分割時には、二つの異なる空間切断スキームを用いることができる。
マクロブロックは、動き補償が基づく画像における固定サイズの領域である。具体的には、複数の画素(例えば、8×8矩形画素)が一のマクロブロックにグループ分けされる。
一方の空間切断スキームは、層2における4つのMBのMB_typeが、層1において同一場所に配置されたMBのMB_type及びSub_MB_typeに完全に由来する。即ち、MB_type及びSub_MB_typeは層2で符号化される必要はない。層1からの情報を用いるイントラテクスチャ予測は、層2における全イントラMBに対して常に実行できる。層1におけるMBのMB_type及びSub_MB_typeは、次の二つの場合に応じて生じる。
場合1:同一場所に配置される4つのMBのうち、一のMBは、MB_typeが16×16ではない。MB_typeは8×8であり、Sub_MB_typeは層2の対応するMBのMB_typeによって決定される。Sub_MB_type及び初期MVは、表3に示される。
Figure 2008536393
場合2:層2における4つのMBのMB_typeは、16×16である。層2のMB_typeの初期値は、8×8として設定される。4つのMVは、層2において同一場所に配置されたMBのMVを2で分割することで得られる。最終MB_type及びMVは、MVの切断に対する制約を受けてRD0により決定される。
他方の空間切断スキームは、層2における4つのMBのMB_typeが、層1において同一場所に配置されたMBのMB_type及びSub_MB_typeによって決定できない。補助Sub_MB_typeは、層1のMBに対して8×8として設定される。また補助Sub_MB_typeは、層1の各サブMBに対して層2の対応するMBのMB_typeに応じて設定される。SNRスケーラビリティ(拡張可能性)と同様に、実際のMB_type及びSub_MB_typeと補助MB_type及びSub_MB_typeとの関係を、夫々表4及び表5に記載する。
Figure 2008536393
Figure 2008536393
MPEG−4 AVC(非特許文献2)に既に採用されているCABAC(Context Adaptive Binary Arithmetic Coding)も、現草案(非特許文献1)においてエントロピー符号化に用いられる。これらの唯一の違いは、現草案が、更なるシンタックス要素とFGS符号化に対する更なるコンテクストモデルを有していることである。符号化効率を向上させるために、CABACは、シンタックス要素毎に各種コンテクストモデルを用いる。コンテクストモデリングは、隣接ブロックにおいてシンタックス要素を用いることで、シンタックス要素のバイナリ記号に対してより正確な確率モデルの推定を可能にする。
一方、前者の場合には二つの独立した動きベクトルフィールド(MVF)が存在する。他方、後者の場合には唯一つの動きベクトルフィールドが存在する。SNR/空間改善スキーム及びSNR/空間切断スキームの統計量は、通常異なっており、本発明の一の実施例に係る異なるコンテクストモデルが用いられる。よって、層1についてはエンコーダからデコーダにビットが送信され、層1が層2から切断されるか否かが特定される。ビット1は、層1が層2から切断されることを意味し、ビット0は、層1が層2から切断されないことを意味する。このビットはスライスヘッダに含まれる。
現草案(WD 1.0、非特許文献1)においては、強化層の動きフィールドをエンコードするために、基層で利用可能な形態に加えて二つのマクロブロック(MB)形態が可能である。即ち、「BASE_LAYER_MODE」と「QPEL_REFINEMENT_MODE」である。「BASE_LAYER_MODE」が用いられる場合、それ以上の情報は対応するマクロブロックに送信されない。このMB形態は、「基層」における対応MBのMB分割を含む動き/予測情報が用いられることを示す。基層が1/2の空間分解能を有する層を表す場合、MB分割を含む動きベクトルフィールドはそれ相応に見積もられる。「QPEL_REFINEMENT_MODE」は「BASE_LAYER_MODE」に類似している。基準指標及び動きベクトル(MV)と同様に、MB分割も「BASE_LAYER_MODE」に対して生じる。しかしながら、各MVについては、1/4サンプルMV改善(各MV成分に−1、0、又は+1)が、生じたMVに更に送信及び追加される。
従って、一の実施例において、新たな形態「NEIGHBORHOOD_REFINEMENT_MODE」が用いられる。これは、その「基層」における対応MBのMB分割を含む動き/予測情報が用いられ、強化層におけるブロックのMVは、その「基層」における対応ブロックのMVの近隣にあることを意味する。「QPEL_REFINEMENT_MODE」と同様に、改善情報が更に送信される。我々の「NEIGHBORHOOD_REFINEMENT_MODE」は、SNRスケーラビリティ及び空間スケーラビリティの両方に利用可能である。
「基層」におけるブロックの動きベクトル(MV)が(dx0,dy0)であるとする。SNRスケーラビリティを考慮すると、その近隣の中心は(dx0,dy0)である。空間スケーラビリティを検討する場合、その近隣の中心は(2dx0,2dy0)である。「QPEL_REFINEMENT_MODE」と同様に、改善情報が更に送信される。「NEIGHBORHOOD_REFINEMENT_MODE」は、SNRスケーラビリティ及び空間スケーラビリティの両方に利用可能である。この新たな形態は、一の実施例において、非特許文献3に記載のSNR/空間切断スキームも考慮にいれて設計されている。
仮に、基層及び強化層における動きベクトルの生成に対する量子化パラメータが夫々QPb及びQPeであるとする。通常、近隣サイズはQPb及びQPeに適応でき、通常、単調非減少関数|QPb−QPe|である。改善情報は、近隣サイズに応じて選択される。以下に一例を示す。
|QPb−QPe|が閾値よりも大きい場合の、近隣サイズ並びにSNR切断スキーム及び空間切断スキームに対する改善情報の選択について夫々表6及び表7に記載する。
Figure 2008536393
Figure 2008536393
WD1.0(非特許文献1)に記載の「QPEL_REFINEMENT_MODE」と同様に、改善情報及び整数間のマッピングは予め規定される(表8参照)。
Figure 2008536393
先行技術に係る符号化層の例を示す図である。 本発明の実施例に係るエンコーダを示す図である。 本発明の実施例に係るデコーダを示す図である。
符号の説明
201 原ビデオ信号
202 基層生成器
203 予測器
204 強化層生成器
205 エンコード/多重化部
206 符号化ビデオ信号

Claims (8)

  1. 少なくとも一のデジタル画像をエンコードする方法であって、
    前記画像の第1の表現を生成し、
    前記画像の第2の表現を生成し、
    前記画像の第1の表現及び前記画像の第2の表現を用いて前記画像の画素に割り当てられた符号化情報を予測することにより、前記画像の第1の表現及び前記画像の第2の表現から前記画像の第3の表現を生成することを特徴とするエンコード方法。
  2. 前記画像の第2の表現は、前記第1の表現よりも低い信号対雑音比を有するように生成されることを特徴とする請求項1に記載のエンコード方法。
  3. 前記画像の第2の表現は、前記第1の表現よりも高い分解能を有するように生成されることを特徴とする請求項2に記載のエンコード方法。
  4. 前記第2の表現は、CIFに応じた分解能を有するように生成されることを特徴とする請求項1に記載のエンコード方法。
  5. 前記第1の表現は、QCIFに応じた分解能を有するように生成されることを特徴とする請求項1に記載のエンコード方法。
  6. 前記第3の表現は、CIFに応じた分解能を有するように生成されることを特徴とする請求項1に記載のエンコード方法。
  7. 少なくとも一のデジタル画像をエンコードするエンコーダであって、
    前記画像の第1の表現を生成するように構成された第1生成部と、
    前記画像の第2の表現を生成するように構成された第2生成部と、
    前記画像の第1の表現及び前記画像の第2の表現を用いて前記画像の画素に割り当てられた符号化情報を予測することにより、前記画像の第1の表現及び前記画像の第2の表現から前記画像の第3の表現を生成するように構成された第3生成部と
    を備えることを特徴とするエンコーダ。
  8. 少なくとも一のデジタル画像をエンコードする方法であって、
    前記画像の第1の表現を生成し、
    前記画像の第2の表現を生成し、
    前記画像の第1の表現及び前記画像の第2の表現を用いて前記画像の画素に割り当てられた符号化情報を予測することにより、前記画像の第1の表現及び前記画像の第2の表現から前記画像の第3の表現を生成するエンコード方法を、コンピュータにより実行される際に、当該コンピュータに実行させるコンピュータプログラム製品。
JP2008505271A 2005-04-08 2006-04-06 少なくとも一のデジタル画像をエンコードする方法、エンコーダ、及びコンピュータプログラム製品 Pending JP2008536393A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US66953105P 2005-04-08 2005-04-08
PCT/SG2006/000089 WO2006107281A1 (en) 2005-04-08 2006-04-06 Method for encoding at least one digital picture, encoder, computer program product

Publications (1)

Publication Number Publication Date
JP2008536393A true JP2008536393A (ja) 2008-09-04

Family

ID=37073755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008505271A Pending JP2008536393A (ja) 2005-04-08 2006-04-06 少なくとも一のデジタル画像をエンコードする方法、エンコーダ、及びコンピュータプログラム製品

Country Status (6)

Country Link
US (1) US20090129467A1 (ja)
EP (1) EP1867172A4 (ja)
JP (1) JP2008536393A (ja)
KR (1) KR20080002936A (ja)
CN (1) CN101258754B (ja)
WO (1) WO2006107281A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8599926B2 (en) * 2006-10-12 2013-12-03 Qualcomm Incorporated Combined run-length coding of refinement and significant coefficients in scalable video coding enhancement layers
US8325819B2 (en) * 2006-10-12 2012-12-04 Qualcomm Incorporated Variable length coding table selection based on video block type for refinement coefficient coding
US8565314B2 (en) * 2006-10-12 2013-10-22 Qualcomm Incorporated Variable length coding table selection based on block type statistics for refinement coefficient coding
US9319700B2 (en) * 2006-10-12 2016-04-19 Qualcomm Incorporated Refinement coefficient coding based on history of corresponding transform coefficient values
US8126054B2 (en) * 2008-01-09 2012-02-28 Motorola Mobility, Inc. Method and apparatus for highly scalable intraframe video coding
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2127151A1 (en) * 1993-09-21 1995-03-22 Atul Puri Spatially scalable video encoding and decoding
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6493387B1 (en) * 2000-04-10 2002-12-10 Samsung Electronics Co., Ltd. Moving picture coding/decoding method and apparatus having spatially scalable architecture and signal-to-noise ratio scalable architecture together
FI120125B (fi) * 2000-08-21 2009-06-30 Nokia Corp Kuvankoodaus
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding
US6944222B2 (en) * 2002-03-04 2005-09-13 Koninklijke Philips Electronics N.V. Efficiency FGST framework employing higher quality reference frames
CN1199460C (zh) * 2002-06-19 2005-04-27 华为技术有限公司 视讯系统中的图像分层编码和交换方法
KR100664929B1 (ko) * 2004-10-21 2007-01-04 삼성전자주식회사 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치
KR100886191B1 (ko) * 2004-12-06 2009-02-27 엘지전자 주식회사 영상 블록을 디코딩 하는 방법
WO2008051995A2 (en) * 2006-10-23 2008-05-02 Vidyo, Inc. System and method for scalable video coding using telescopic mode flags

Also Published As

Publication number Publication date
EP1867172A4 (en) 2010-05-19
KR20080002936A (ko) 2008-01-04
WO2006107281A1 (en) 2006-10-12
US20090129467A1 (en) 2009-05-21
CN101258754B (zh) 2010-08-11
EP1867172A1 (en) 2007-12-19
CN101258754A (zh) 2008-09-03

Similar Documents

Publication Publication Date Title
Boyce et al. Overview of SHVC: Scalable extensions of the high efficiency video coding standard
CN108293136B (zh) 编码360度全景视频的方法、装置和计算机可读存储介质
JP6716836B2 (ja) 動画像符号化データ
Sullivan et al. Standardized extensions of high efficiency video coding (HEVC)
KR100679031B1 (ko) 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치
US7847861B2 (en) Method and apparatus for encoding video pictures, and method and apparatus for decoding video pictures
EP2008469B1 (en) Multilayer-based video encoding method and apparatus thereof
KR100891662B1 (ko) 비디오 신호 디코딩 및 인코딩 방법
EP2428042B1 (en) Scalable video coding method, encoder and computer program
US20060104354A1 (en) Multi-layered intra-prediction method and video coding method and apparatus using the same
KR100891663B1 (ko) 비디오 신호 디코딩 및 인코딩 방법
WO2014199634A1 (ja) 画像符号化装置、画像符号化方法、画像復号装置及び画像復号方法
JP2015065688A (ja) スケーラブルビデオコーディングのためのテクスチャ予想及びリサンプリングの方法及び装置
US9584808B2 (en) Device and method for scalable coding of video information
KR20160022345A (ko) 인터-컴포넌트 필터링
KR102314587B1 (ko) 비디오 정보의 스케일러블 코딩을 위한 디바이스 및 방법
CN104335585A (zh) 图像解码方法和使用其的装置
CN104813662A (zh) 用于视频编码和解码的装置、方法和计算机程序
JP6055098B2 (ja) 映像復号方法及びそれを利用する装置
JP2007266749A (ja) 符号化方法
JP2008536393A (ja) 少なくとも一のデジタル画像をエンコードする方法、エンコーダ、及びコンピュータプログラム製品
WO2006059848A1 (en) Method and apparatus for multi-layered video encoding and decoding
US9167266B2 (en) Method for deriving motion for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
US20150010083A1 (en) Video decoding method and apparatus using the same
Ma et al. Smoothed reference inter-layer texture prediction for bit depth scalable video coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110816