JP2007511938A - ビデオ信号の符号化方法 - Google Patents

ビデオ信号の符号化方法 Download PDF

Info

Publication number
JP2007511938A
JP2007511938A JP2006537455A JP2006537455A JP2007511938A JP 2007511938 A JP2007511938 A JP 2007511938A JP 2006537455 A JP2006537455 A JP 2006537455A JP 2006537455 A JP2006537455 A JP 2006537455A JP 2007511938 A JP2007511938 A JP 2007511938A
Authority
JP
Japan
Prior art keywords
segments
frame
texture
frames
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006537455A
Other languages
English (en)
Inventor
ヴィリンスキー,ピョートル
ファーレカンプ,クリスティアーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2007511938A publication Critical patent/JP2007511938A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

対応する符号化ビデオデータを生成するために画像シーケンスを有するビデオ信号を符号化する方法が提供される。該方法は、(a)画像を分析して1つ以上の画像セグメントを識別するステップと、(b)前記1つ以上のセグメントのうち空間的に確率論的性質を大幅には有していないものを識別し、決定論的に符号化し、第1の符号化中間データを生成するステップと、(c)前記1つ以上のセグメントのうち空間的に確率論的性質を大幅に有しているものを識別し、1つ以上の対応する確率論的モデルパラメータにより符号化し、第2の符号化中間データを生成するステップと、(d)第1と第2の中間データを結合して符号化ビデオデータを生成するステップと、を有する。

Description

本発明は、ビデオ信号の符号化方法に関し、特に、ビデオ画像を対応するセグメントに再分割する画像セグメンテーションを用いて、選択されるセグメントのサブグループに確率的テクスチャモデルを適用して符号化及び/または圧縮されたビデオデータを生成する方法に関するが、これに限定されない。また、本発明は、本発明により符号化されたビデオ信号の復号方法にも関する。さらにまた、本発明は、上記方法のうち1つ以上により動作するエンコーダ、デコーダ、及び符号化/復号システムに関する。また、本発明は、本発明によりビデオデータを符号化する上記方法により生成された符号化データを格納したデータ担体にも関する。
画像情報を符号化してから符号化情報を復号する方法は、従来から知られている。このような方法は、DVD、移動電話デジタル画像伝送、デジタルケーブルテレビジョン、デジタル衛星テレビジョンにおいて重要である。その結果、いろいろな符号化方法及び対応する復号方法があり、その一部は国際的な標準(例えば、MPEG−2)として認められている。
近年、国際電気通信連合(ITU)の新しい標準、すなわちITU−T標準が議論されている。この標準はH.26Lとして知られている。この新しい標準は、すでに確立された対応する標準と比較して、符号化効率が高いということで広く知られるようになった。最近の評価では、新しいH.26L標準は、以前に確立された画像符号化標準と比較して50%より低い符号化データビットで、ほぼ同じ信号ノイズ比(S/N)を達成できることが示されている。
新しい標準H.26Lによる利益は一般的に画像ピクチャサイズ(すなわち、その画像ピクセル数)と比例して減少するが、広い範囲のアプリケーションに適用される新しい標準H.26Lの潜在的可能性は疑う余地がない。この潜在的可能性は、標準H.26Lを普及させるために設立され、新しいジョイントITU−T/MPEG標準としてITU−Tに認定させたジョイントビデオチーム(JVT)の形成により認識された。この新標準は、2003年にITU−T H.264またはISO/IEC MPEG−4AVC(アドバンスビデオコーディング)として正式に認定される予定である。現在、H.264標準は、例えば、「DVB及びDVDフォーラム」等の他の標準化団体でも検討されている。さらにまた、H.264のソフトウェア及びハードウェアの両方による実装が可能となりつつある。
他の形のビデオ符号化・復号も知られている。例えば、米国特許公報第5,917,609号には、ハイブリッド波形及びモデルベース画像信号エンコーダ及び対応するデコーダが記載されている。対応するエンコーダとデコーダにおいて、圧縮後の波形が元の波形とできるだけ近くなるように、元の画像信号が波形符号化及び復号される。損失を補償するため、信号のノイズ成分(すなわち、波形符号化により失われた信号成分)がモデルベース符号化され、別途伝送または格納される。デコーダにおいては、ノイズが再生され、波形復号された画像信号に加算される。この特許公報第5,917,609号において説明されているエンコーダとデコーダは、医療用X線血管造影画像の圧縮に関するものであり、ノイズが失われると、心臓科医や放射線科医は対応する画像が歪んでいると結論する。しかし、上記の対応するエンコーダとデコーダは、スペシャリストのためのもの実装方法と考えるべきであり、確立または今後確立されるだろう画像符号化及び復号標準に必ずしも則っていない。
ビデオ圧縮の目標は、与えられたビジュアル情報を表すために割り当てられるビット量を減らすことである。余弦変換、フラクタル、ウェーブレット等の変換を用いて、ビデオ信号を表す新しくより効率的なアプローチを見つけることが可能であると考えられている。しかし、本願発明者は、ビデオ信号を表すには2通りの方法があることを発見した。すなわち、決定論的方法と確率論的方法である。画像中のテクスチャは、確率論的に表すことができ、最も類似したノイズモデルを見つけることにより実施することができるであろう。ビデオ画像の一部の領域については、人間の視覚的認知はその領域の詳細なパターンには集まらず、テクスチャの非決定論的かつ方向的特徴(directional characteristics)により多く向かう。例えば、医療用画像処理や気象学における衛星画像処理においては、従来の確率論的なテクスチャの記述は、例えば、雲の形成のように、明らかに確率的な性質を有する画像の圧縮に向けられている。
H.264標準、MPEG−2標準、MPEG−4標準、及び構造化及び/または階層化ビデオ等の新しいビデオ圧縮方法等の現在の符号化方法では、技術的には可能なほどデータ圧縮をできないことを、本願発明者は認識した。特に、本願発明者は、ビデオデータ中の一部の画像領域、特に、空間的なノイズ上の外観を有する画像部分は、符号化ビデオデータにおいて確率論的テクスチャモデルにより記述できることを認識した。さらにまた、本願発明者は、動き補償と奥行きプロファイルを利用して、符号化ビデオデータの復号の際に合成されるテクスチャを復号ビデオデータにおいてうまく描画できることを認識した。さらにまた、本願発明者は、セグメンテーションベースのビデオ符号化にも適用可能であることを認識した。
このように、本願発明者は、上記の符号化され圧縮されたビデオデータを後で復号する時に、ビデオ品質を維持しつつ、ビデオデータ符号化の際に問題となるデータ圧縮の問題を解決した。
米国特許公報第5,917,609号
本発明の第1の目的は、ビデオ信号に対応する符号化ビデオデータにおけるデータ圧縮の程度を高めることができるビデオ信号の符号化方法を提供することである。
本発明の第2の目的は、ビデオデータ中の空間的に確率論的な画像テクスチャのモデル化方法を提供することである。
本発明の第3の目的は、空間的確率論的画像コンテントを記述するパラメータを用いて符号化されたビデオデータの復号方法を提供することである。
本発明の第4の目的は、より大きな圧縮率で符号化された対応するビデオデータを生成する、入力ビデオ信号を符号化するエンコーダを提供することである。
本発明の第5の目的は、確率論的テクスチャモデリングによりビデオ信号から符号化された符号化ビデオデータ用デコーダを提供することである。
本発明の第1の態様によると、対応する符号化ビデオデータを生成するために画像シーケンスを有するビデオ信号を符号化する方法があり、該方法は、
(a) 画像を分析して1つ以上の画像セグメントを識別するステップと、
(b) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅には有していないものを識別し、決定論的に符号化し、第1の符号化中間データを生成するステップと、
(c) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅に有しているものを識別し、1つ以上の対応する確率論的モデルパラメータにより符号化し、第2の符号化中間データを生成するステップと、
(d) 第1と第2の中間データを結合して符号化ビデオデータを生成するステップと、を有する。
本発明は、符号化方法がデータ圧縮の程度をエンハンスできる点において有利である。
ステップ(c)において、空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて符号化し、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されていることが好ましい。
時間的動きがかなり大きい確率論的詳細に対応する領域を時間的動きが比較的少ない領域と区別することにより、関連づけられたエンハンス(enhance)されたデータ圧縮を用いて符号化を最適化する程度を高くすることができる。
前記方法は、以下の点でさらに異なる。すなわち、
(e) ステップ(b)において、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントは、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に符号化され、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
(f) ステップ(c)において、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントは、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて符号化され、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む、ことが好ましい。
上記において、Iフレームは、1つ以上の画像の少なくとも一部の空間的レイアウトの記述に対応するデータフィールドと対応するように解釈すべきである。さらにまた、BフレームとPフレームは、時間的動きと変調の奥行きを記述するデータフィールドに対応すると解釈すべきである。このように、本発明は、圧縮の程度をエンハンスすることができるが、その理由は、変換コーディング等により関連する画像詳細の従来の完全な記述を含む必要があるIフレームではなく、確率論的画像詳細に対応するIフレームを確率論的モデルパラメータにより、よりコンパクトな形で表すことができるからである。
本発明の第2の態様によると、対応する復号ビデオ信号を再生するために符号化ビデオデータを復号する方法があり、該方法は、
(a) 符号化ビデオデータを受け取ってその中の1つ以上のセグメントを識別するステップと、
(b) 前記1つ以上のセグメントのうち空間的に確率論的な性質を大幅には有さないものを識別して、決定論的方法で復号して第1の復号中間データを生成するステップと、
(c) 前記1つ以上のセグメントのうち空間的に確率論的な性質を本幅に有するものを識別して、前記符号化ビデオデータ入力に含まれるモデルパラメータにより駆動される1つ以上の確率論的モデルにより復号して、第2の復号中間データを生成するステップと、
(d) 第1と第2の中間データを結合して前記復号ビデオ信号を生成するステップと、
を含む。
好ましくは、前記方法は次の点でさらに区別される。すなわち、ステップ(c)において、空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて復号し、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されている。
好ましくは、前記方法はさらに次の点で区別される。すなわち、
(e) ステップ(b)において、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントは、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に復号され、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
(f) ステップ(c)において、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントは、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて復号され、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む。
本発明の第4の態様によると、対応する符号化ビデオデータを生成するために画像シーケンスを有するビデオ信号を符号化してエンコーダが提供される。該エンコーダは、
(a) 画像を分析して1つ以上の画像セグメントを識別する分析手段と、
(b) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅には有していないものを識別し、決定論的に符号化し、第1の符号化中間データを生成する第1の識別手段と、
(c) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅に有しているものを識別し、1つ以上の対応する確率論的モデルパラメータにより符号化し、第2の符号化中間データを生成する第2の識別手段と、
(d) 第1と第2の中間データを結合して符号化ビデオデータを生成するデータ結合手段と、を有する。
好ましくは、前記エンコーダにおいて、第2の識別手段は、空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて符号化するように動作可能であり、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されている。
好ましくは、前記エンコーダにおいて、
(e) 前記第1の識別手段は、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントを、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に符号化するように動作可能であり、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
(f) 前記第2の識別手段は、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントを、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて符号化するように動作可能であり、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む。
好ましくは、前記エンコーダは、電子的ハードウェアとコンピュータハードウェア上で動作するソフトウェアのうち少なくとも1つを用いて実施される。
本発明の第5の態様によると、対応する復号ビデオ信号を再生するために符号化ビデオデータを復号するデコーダが提供される。該デコーダは、
(a) 符号化ビデオデータを受け取ってその中の1つ以上のセグメントを識別する分析手段と、
(b) 前記1つ以上のセグメントのうち空間的に確率論的な性質を大幅には有さないものを識別して、決定論的方法で復号して第1の復号中間データを生成する第1の識別手段と、
(c) 前記1つ以上のセグメントのうち空間的に確率論的な性質を本幅に有するものを識別して、前記符号化ビデオデータ入力に含まれるモデルパラメータにより駆動される1つ以上の確率論的モデルにより復号して、第2の復号中間データを生成する第2の識別手段と、
(d) 第1と第2の中間データを結合して前記復号ビデオ信号を生成する結合手段と、
を含む。
好ましくは、前記デコーダは、空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて復号するように構成され、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されている点において区別される。
好ましくは、前記デコーダは、さらに次の点において区別される。すなわち、
(e) 前記第1の識別手段は、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントを、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に復号するように動作可能であり、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
(f) 前記第2の識別手段は、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントを、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて復号するように動作可能であり、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む。
好ましくは、前記デコーダは、電子的ハードウェアとコンピュータハードウェア上で動作するソフトウェアのうち少なくとも1つを用いて実施される。
当然のことながら、本発明の特徴は、本発明の範囲から逸脱することなくいかなる組み合わせによって結合することもできる。
本発明の実施形態を、添付した図面を参照して、実施例により説明する。
図1を参照して、ビデオプロセス10を示した。本プロセス10は次のステップを含む:対応する符号化ビデオデータVencodeを生成するエンコーダ20において入力ビデオ信号Vipを符号化する第1のステップと、データ担体30に符号化ビデオデータVencodeを格納、及び/または好適なブロードキャストネットワーク30を介して符号化ビデオデータVencodeを伝送する第2のステップと、ブロードキャスト及び/または格納されたビデオデータVencodeをデコーダ40において復号し、入力ビデオ信号に対応する出力ビデオ信号Vopを再構成する第3のステップ。入力ビデオ信号Vipは、好ましくは、現在知られているビデオ標準に則り、ピクチャまたは画像の時間的シーケンスを有する。エンコーダ20において、画像はフレームにより表され、フレームにはIフレーム、Bフレーム、及びPフレームがある。これらのフレームについてはビデオ符号化の技術分野において周知である。
動作中に、入力ビデオ信号Vipは、エンコーダ20に送られ、入力信号Vip中にある画像にセグメンテーションプロセスが適用される。セグメンテーションプロセスは、画像を空間的にセグメント化される領域に再分割する。セグメント化領域には、次に、確率論的テクスチャを含むかどうかを判断する第1の分析が適用される。さらにまた、セグメント化プロセスにおいて、確率論的テクスチャを有すると判断されたセグメント化領域が時間的に安定であるかを判断する第2の分析を実行する。
入力信号Vipに適用される符号化機能は、第1と第2の分析の結果により選択され、符号化出力ビデオデータVencodeが生成される。出力ビデオデータVencodeは、次にデータ担体30に記録される。データ担体30は、たとえば、
(a)EEPROM及び/またはSRAM等の固体メモリ、
(b)CD−ROM、DVD、独自仕様のブルーレイ媒体等の光記憶媒体、及び
(c)持ち運び可能磁気ハードディスク等の磁気ディスク記録媒体、
のうち少なくとも1つである。
これに加えて、またはこれに替わって、符号化ビデオデータVencodeを、例えば、地上無線を介して、衛星通信を介して、インターネット等のデータネットワークを介して、及び既存の電話ネットワークを介して、ブロードキャストすることができる。
その後、エンコーダビデオデータVencodeをブロードキャストネットワーク30から受信するか、及び/またはデータ担体30から読み出すかして、デコーダ40に入力する。デコーダ40は、出力ビデオ信号Vopとして入力ビデオ信号Vipのコピーを再構成する。符号化ビデオデータVencodeの復号において、デコーダ40は、Iフレームにセグメント化機能を適用し、エンコーダ20によりセグメントに適用されたパラメータラベルを決定し、次に、これらのラベルから確率論的テクスチャがあるかどうか決定する。確率論的テクスチャがあることが、セグメントに関連づけられたラベルにより示されている場合、デコーダ40はさらに確率論的テクスチャが時間的に安定化どうかを判断する。例えば、確率論的テクスチャ及び/または時間的安定性等のセグメントの性質に応じて、デコーダ40はセグメントに適当な機能を適用して、入力ビデオ信号Vipのコピーを再構成し、出力ビデオ信号Vopとして出力する。
このように、ビデオプロセス10の案出において、本願発明者は、一定のセグメント領域が対応する圧縮された符号化データにおいてパラメータで記述されるフレームセグメント化方法に基づきビデオ信号を圧縮する方法を案出した。かかる一定の領域は、空間的に確率論的な性質であるコンテントを有し、パラメータにより駆動されたデコーダ40で確率論的モデルを用いて再構成することができる。このような再構成をさらに支援するため、動き補償と奥行きプロファイル情報を有利に利用する。
本願発明者は、ビデオ圧縮において、ビデオテクスチャの一部分を統計的にモデル化することができることを認識した。このような統計的モデル化は、その部分の内部領域の詳細に集中するのではなく、基本的にその境界の形状に集中することにより、人間の脳が画像の部分を解釈するやりかたより、圧縮をエンハンスするアプローチとして現実的である。このように、プロセス10により生成された圧縮された符号化ビデオデータVencodeにおいて、確率論的にモデル化可能な画像の部分は、境界内のコンテントを簡単に記述するパラメータをともに、境界情報としてビデオデータ中に表される。パラメータは、デコーダ40のテクスチャジェネレータを駆動することができる。
しかし、復号画像の品質はいくつかのパラメータにより決まり、経験的には、最も重要なパラメータの1つは時間的安定性である。この安定性はテクスチャを含む画像部分の安定性にも関係する。よって、符号化ビデオデータVencodeにおいては、空間的に統計的な性格を有するテクスチャは、復号された出力ビデオ信号Vopに時間的に安定な統計的効果(statistical impression)を与えることを可能とするように記述されている。
このように、本願発明者は、符号化ビデオデータの圧縮をエンハンスするという現状の問題を認識した。画像テクスチャの確率論的性質を認識した後、そのようなテクスチャを表すための符号化ビデオデータで使用する適当なパラメータを特定するという周辺的問題を検討した。
このようなテクスチャを再生するデコーダ40においてテクスチャ奥行きと動き情報を用いて、これらの問題を本発明において解決することができる。従来、例えば、ビデオゲーム等の静的バックグラウンドテクスチャにおいて、決定論的テクスチャ生成の状況においてのみパラメータを利用してきた。
例えば、エンコーダ20にある現在のビデオストリームは、Iフレーム、Bフレーム、及びPフレームに分割される。符号化ビデオデータにおいて、Iフレームは、従来、後でビデオデータの復号の際に詳細なテクスチャの再構成ができるようなやりかたで圧縮されている。さらにまた、BフレームとPフレームは、動きベクトルと剰余情報を用いて復号の際に再構成される。本発明は、Iフレーム中のテクスチャの一部が伝送される必要がなく、それらの統計的モデルがモデルパラメータによって伝送されるだけであるという点で、従来のビデオ信号処理方法と異なる。さらにまた、本発明において、動き情報と奥行き情報の少なくとも1つをBフレームとPフレームについて計算する。デコーダ40において、符号化ビデオデータVencodeの復号の際にランダムテクスチャを生成する。テクスチャはIフレームのために生成され、BフレームとPフレームで使用するために、動き及び/または奥行き情報を継続的に生成する。動き及び/または奥行き情報の適当な利用と共にテクスチャモデリングを組み合わせることによって、ビデオデータVencodeで達成されたデータ圧縮は、前記の現在のエンコーダと比較してエンコーダ20において、復号ビデオの品質において大幅に知覚的に低下することなくより大きくなる。
プロセス10は、従来及び/または新しいビデオ圧縮方法において、使用することができる。従来の方法には、MPEG−2、MPEG−4、及びH.264の各種標準が含まれ、一方、新しい圧縮方法には、構造化ビデオ及び階層化ビデオのフォーマットが含まれる。さらにまた、本発明は、ブロックベース及びセグメントベースのビデオコードに適用可能である。
本発明をさらに説明するため、図2と3を参照して本発明の実施形態を説明する。
図2には、エンコーダ20がより詳細に例示されている。エンコーダ20は、入力信号Vipを受信するセグメント機能100を含む。セグメント機能100からの出力は、「yes」か「no」の出力を有する確率論的テクスチャ検出機能110に入力される。確率論的テクスチャ検出機能110の出力は、動作中、画像セグメントが空間的に確率論的なテクスチャディテールを含むかどうかを示す。エンコーダ20は、テクスチャ検出機能110から情報を受け取るテクスチャ時間安定性検出機能120をさらに含む。テクスチャ検出機能110からの「no」出力は、Iフレームテクスチャ圧縮機能140に入力される。このIフレームテクスチャ圧縮機能140は、データ合計機能180に直接結合され、またデータ合計機能180に第1のセグメントベース動き推定機能170を介して間接的に結合されている。同様に、安定性検出機能120からの「yes」出力は、Iフレームテクスチャモデル推定機能150に入力される。このIフレームテクスチャモデル推定機能150の出力は、合計機能180に直接結合され、また合計機能180に第2のセグメントベース動き推定機能170を介して間接的に結合されている。同様に、安定性検出機能120からの「no」出力は、Iフレームテクスチャモデル推定機能160に入力される。このIフレームテクスチャモデル推定機能160の出力は合計機能180に直接結合され、また、合計機能180に第3のセグメントベース動き推定機能170を介して間接的に結合されている。合計機能180は、受け取ったデータの組み合わせに対応する出力符号化ビデオデータVencodeからのデータ出力を含む。エンコーダ20は、コンピュータハードウェア上で実行されるソフトウェア、及び/または、例えば、特定目的集積回路(ASIC)等のカスタム化された電子的ハードウェアとしても実装することができる。
動作中において、エンコーダ20は、その入力において、入力ビデオ信号Vipを受信する。その信号は、必要に応じてアナログからデジタルフォーマットにデジタル化され、セグメント機能100と関連付けられたメモリに格納されて、格納ビデオ画像となる。機能100は、メモリ中のビデオ画像を分析し、所定の類似性を有する画像中のセグメント(例えば、画像のサブ領域)を識別する。次に、機能100は、テクスチャ検出機能110にセグメントを示すデータを出力する。有利にも、テクスチャ検出機能110は、セグメント機能100と関連付けられたメモリにアクセスできる。
テクスチャ検出機能110は、入力された画像セグメントをそれぞれ分析して、そのテクスチャコンテントを確率論的モデリングパラメータで記述できるかどうか判断する。
テクスチャ検出機能110は、確率論的モデリングが適していないと判断すると、セグメント情報をテクスチャ圧縮機能140とそれに関連づけられた第1の動き推定機能170に送り、そのセグメントに対応したビデオデータを従来のより決定論的な方法で生成し、合計機能180に送る。テクスチャ圧縮機能140と結合した第1の動き推定機能170は、BフレームとPフレームに好適なデータを提供するように動作可能であるが、テクスチャ圧縮機能140は、Iフレームタイプのデータを直接生成するように動作可能である。
逆に言えば、テクスチャ検出機能110は、確率論的モデリングが適していると判断すると、セグメント情報を時間的安定性検出機能120に送る。この機能120は、情報を受け取ったセグメントの時間的安定性を分析する。例えば、斑点のついた壁が広がっている、静止カメラにより撮影された静止したシーンの場合のように、セグメントが時間的に安定であると分かると、安定性検出機能120は、セグメント情報をテクスチャモデル推定機能150に送る。その機能150は、判断されたセグメントについてモデルパラメータを生成して、合計機能180に直接送るとともに第2の動き推定機能170を介して送る。第2の動き推定機能170は、BフレームとPフレームのために、判断されたセグメント中の動きに関するパラメータを生成する。あるいは、安定性検出機能120は、セグメントが時間的に十分安定していないと判断すると、セグメント情報をテクスチャモデル推定機能160に送る。テクスチャモデル推定機能160は、その判断されたセグメントのモデルパラメータを生成して、合計機能180に直接的及び第3の動き推定機能170を介して間接的に送る。第3の動き推定機能170は、BフレームとPフレームのために判断されたセグメント中の動きに関するパラメータを生成する。好ましくは、テクスチャモデル推定機能150、160はそれぞれ、比較的静止した画像と比較的急激に変化する画像に対処するように最適化されている。上述のように、合計機能180は、機能140、150、160、170からの出力を受け、対応する圧縮された符号化ビデオデータVencodeを出力する。
このように、動作中に、Iフレーム中の一部のテクスチャではなく等価な確率論的/統計的モデルのみを伝送するように、伝送エンコーダ20が構成されている。しかし、動き及び/または奥行き情報は、対応するBフレームとPフレームのために計算される。
エンコーダ20の動作をさらに説明するために、それがいろいろなタイプの画像の特徴を処理する方法をここで説明する。
ビデオ画像中のすべての領域を統計的に記述することはできない。ビデオ画像では、3タイプの領域に遭遇することが多い。
(a) タイプ1:空間的に非統計的なテクスチャを含む領域。エンコーダ20では、このようなタイプ1の領域は、決定論的方法で符号化出力ビデオデータVencodeのIフレーム、Bフレーム及びPフレームに圧縮される。対応するIフレームの場合、決定論的テクスチャが伝送される。さらに、関連づけられた動き情報がBフレームとPフレームで伝送される。動きデータは、デコーダ側において領域を正しく順序付けることを可能とするが、デコーダ40のレベルで伝送または再計算されることが好ましい。
(b) タイプ2:空間的に統計的であるが静止していないテクスチャを含む領域。この領域には、例えば、波や霧や炎がある。タイプ2領域の場合、エンコーダ20は統計的モデルを伝送するように動作可能である。この領域では動きが時間的にランダムなので、例えば、デコーダ40における後続のテクスチャ生成プロセスにおいては動き情報は使用しない。ビデオフレームごとに、復号の際に統計的モデルから別の表現によりテクスチャを生成する。しかし、エンコーダ出力ビデオデータVencodeにおいて、領域の形状、すなわち、領域の周辺エッジを空間的に記述する情報は動き補償される。
(c) タイプ3:比較的時間的に安定している、テクスチャを含む領域。この領域の例としては、芝生、砂、及び森林の詳細などがある。このタイプの領域では、例えば、ARMAモデル等の統計的モデルが伝送され、時間的動き及び/または奥行き情報も符号化出力ビデオデータVencode中のBフレームとPフレームで伝送される。Iフレーム、Bフレーム、及びPフレームに符号化された情報は、時間的に一貫した方法で領域のテクスチャを生成するためにデコーダ40で利用される。
このように、エンコーダ20は、画像テクスチャを、例えば、DCTやウェーブレット等の従来の方法で圧縮するか、それとも本発明の上述のパラメータ化モデルにより圧縮するかどうかを決定するように動作可能である。
図3を参照すると、デコーダ40の構成要素がより詳細に示されている。デコーダ40は、カスタムハードウェア及び/またはコンピュータハードウェア上で実行されるソフトウェアとして実装することができる。デコーダ40は、Iフレームセグメント化機能200、セグメントラベル機能210、確率論的テクスチャチェック機能220、及び時間的安定性チェック機能230を有する。さらにまた、デコーダ40は、テクスチャ再構成機能240、第1と第2のテクスチャモデリング機能250、260を有する。これらの機能240、250、260は、基本的にIフレーム情報に関する。さらにまた、デコーダ40は、セグメント形状補償されたテクスチャ生成機能290とともに第1と第2の動き及び奥行き補償されたテクスチャ生成機能270、280を有する。これらの機能270、280、290は、主にBフレームとPフレームの情報に係わる。最後に、デコーダ40は、生成機能270、280、290からの出力を結合する合計機能300を含む。
デコーダ40のいろいろな機能の相互動作をここで説明する。
図示したように、デコーダ40への符号化ビデオデータVencode入力は、セグメント化機能200の入力とセグメントラベル機能210の制御入力に結合されている。セグメント化機能200からの出力は、セグメントラベル機能210のデータ入力とも結合している。セグメントラベル機能210の出力は、テクスチャチェック機能220の入力と接続されている。さらにまた、テクスチャチェック機能220は、テクスチャ再構成機能240のデータ入力とリンクした第1の「no」出力と、安定性チェック機能230の入力と結合した「yes」出力とを有する。さらにまた、安定性チェック機能230は、第1のテクスチャ生成機能250と結合した「yes」出力と、第2のテクスチャ生成機能260と結合した対応する「no」出力を含む。機能240、250、260からのデータ出力は、図示したように、機能270、280、290の対応するデータ入力と結合している。最後に、機能270、280、290からのデータ出力は、合計機能300の合計入力と結合している。合計機能300は、上述の復号ビデオ出力Vopを提供するデータ出力も有する。
デコーダ40の動作中には、符号化ビデオデータVencodeはセグメント化機能200に送られ、データVencode中のIフレームからの画像セグメントを識別し、それをラベル機能210に送る。ラベル機能210は、識別されたセグメントを適当な関連づけられたパラメータでラベルする。ラベル機能210からのセグメントデータ出力は、テクスチャチェック機能220に送られる。テクスチャチェック機能220は、受け取ったセグメントを分析して、確率論的モデリングを使用していることを示す確率論的テクスチャパラメータが関連づけられているかどうかを判断する。確率論的テクスチャモデリングが使用されていると認められない場合、すなわち、前述のタイプ1領域である場合、セグメントデータは再構成機能240に送られる。再構成機能240は、受け取ったセグメントを従来の決定論的な方法で復号して、対応する復号Iフレームデータを生成する。そのIフレームデータは、生成機能270に送られ、動き及び奥行きに関する情報が従来の方法でその復号Iフレームデータに付加される。
チェック機能220は、受け取ったセグメントが確率論的性質を有する、すなわち、タイプ2及び/またはタイプ3の領域であると判断した場合、そのセグメントを安定性チェック機能230に転送する。その安定性チェック機能230は、そのセグメントを分析して、転送されたセグメントが符号化された比較的安定しているかどうか、すなわち前述のタイプ3領域であるか、または時間的変化の程度が比較的大きいか、すなわち前述のタイプ2領域であるかどうかを判断する。チェック機能230は、セグメントがタイプ2領域であると分かると、「yes」出力に転送して第1のテクスチャモデリング機能250に送る。その後、セグメントはテクスチャ生成機能280に送られる。反対に、チェック機能230は、セグメントがタイプ3領域であることが分かると、「no」出力から第2のテクスチャモデリング機能260に転送する。そのセグメントはその後補償テクスチャ生成機能290に送られる。合計機能300は、機能270、280、290からの出力を受け取り、合成して、復号出力ビデオデータVopを生成する。
生成機能270、280は、セグメントの動き及び奥行き再構成を実効するように最適化されているが、一方、テクスチャ生成機能290は、前述のように、空間的に確率論的な性質を有する比較的動きのないセグメントを再構成するように最適化されている。
このように、デコーダ40は、効果的にも、3つのセグメント再構成チャンネルを有する。すなわち、機能240、270を有する第1のチャンネルと、機能250、280を有する第2のチャンネルと、機能260、290を有する第3のチャンネルである。第1、第2、及び第3のチャンネルは、それぞれタイプ1、タイプ2、及びタイプ3の領域に対応する符号化セグメントの再構成と関連づけられている。
当然のことながら、前述の本発明の実施形態は、本発明の範囲から逸脱することなく修正することができる。
上記の説明においては、当然のことながら、「有する」、「含む」等の表現は非排他的に解釈しなければならず、すなわち、記載されていない別のアイテムや構成要素があってもよい。
ビデオプロセスを示す概略図であり、入力ビデオ信号を符号化して対応する符号化ビデオデータを生成する第1のステップと、符号化ビデオデータをデータ担体に記録し、及び/または符号化ビデオデータをブロードキャストする第2のステップと、符号化ビデオデータを復号して入力ビデオ信号を再構成する第3のステップとを含む。 図1に示した第1のステップを示す概略図であり、入力ビデオ信号Vipを符号化し、対応する符号化ビデオデータVencodeを生成する。 図1に示した第3のステップを示す概略図であり、符号化ビデオデータを復号し、入力ビデオ信号Vipの再構成に対応する出力ビデオ信号Vopを生成する。

Claims (15)

  1. 対応する符号化ビデオデータを生成するために画像シーケンスを有するビデオ信号を符号化する方法であって、
    (a) 画像を分析して1つ以上の画像セグメントを識別するステップと、
    (b) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅には有していないものを識別し、決定論的に符号化し、第1の符号化中間データを生成するステップと、
    (c) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅に有しているものを識別し、1つ以上の対応する確率論的モデルパラメータにより符号化し、第2の符号化中間データを生成するステップと、
    (d) 第1と第2の中間データを結合して符号化ビデオデータを生成するステップと、を有することを特徴とする方法。
  2. 請求項1に記載の方法であって、
    ステップ(c)において、空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて符号化し、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されていることを特徴とする方法。
  3. 請求項1または2に記載の方法であって、
    (e) ステップ(b)において、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントは、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に符号化され、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
    (f) ステップ(c)において、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントは、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて符号化され、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む、
    ことを特徴とする方法。
  4. 請求項1ないし3いずれか一項に記載の方法を用いて生成された符号化ビデオデータを格納したデータ担体。
  5. 対応する復号ビデオ信号を再生するために符号化ビデオデータを復号する方法であって、
    (a) 符号化ビデオデータを受け取ってその中の1つ以上のセグメントを識別するステップと、
    (b) 前記1つ以上のセグメントのうち空間的に確率論的な性質を大幅には有さないものを識別して、決定論的方法で復号して第1の復号中間データを生成するステップと、
    (c) 前記1つ以上のセグメントのうち空間的に確率論的な性質を本幅に有するものを識別して、前記符号化ビデオデータ入力に含まれるモデルパラメータにより駆動される1つ以上の確率論的モデルにより復号して、第2の復号中間データを生成するステップと、
    (d) 第1と第2の中間データを結合して前記復号ビデオ信号を生成するステップと、
    を含むことを特徴とする方法。
  6. 請求項5に記載の方法であって、
    ステップ(c)において、空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて復号し、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されていることを特徴とする方法。
  7. 請求項5または6に記載の方法であって、
    (e) ステップ(b)において、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントは、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に復号され、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
    (f) ステップ(c)において、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントは、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて復号され、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む、
    ことを特徴とする方法。
  8. 対応する符号化ビデオデータを生成するために画像シーケンスを有するビデオ信号を符号化してエンコーダであって、
    (a) 画像を分析して1つ以上の画像セグメントを識別する分析手段と、
    (b) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅には有していないものを識別し、決定論的に符号化し、第1の符号化中間データを生成する第1の識別手段と、
    (c) 前記1つ以上のセグメントのうち空間的に確率論的性質を大幅に有しているものを識別し、1つ以上の対応する確率論的モデルパラメータにより符号化し、第2の符号化中間データを生成する第2の識別手段と、
    (d) 第1と第2の中間データを結合して符号化ビデオデータを生成するデータ結合手段と、を有することを特徴とするエンコーダ。
  9. 請求項8に記載のエンコーダであって、
    第2の識別手段は、空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて符号化するように動作可能であり、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されていることを特徴とするエンコーダ。
  10. 請求項8または9に記載のエンコーダであって、
    (e) 前記第1の識別手段は、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントを、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に符号化するように動作可能であり、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
    (f) 前記第2の識別手段は、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントを、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて符号化するように動作可能であり、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む、
    ことを特徴とするエンコーダ。
  11. 請求項8ないし10いずれか一項記載のエンコーダであって、電子的ハードウェアとコンピュータハードウェア上で動作するソフトウェアのうち少なくとも1つを用いて実施されることを特徴とするエンコーダ。
  12. 対応する復号ビデオ信号を再生するために符号化ビデオデータを復号するデコーダであって、
    (a) 符号化ビデオデータを受け取ってその中の1つ以上のセグメントを識別する分析手段と、
    (b) 前記1つ以上のセグメントのうち空間的に確率論的な性質を大幅には有さないものを識別して、決定論的方法で復号して第1の復号中間データを生成する第1の識別手段と、
    (c) 前記1つ以上のセグメントのうち空間的に確率論的な性質を本幅に有するものを識別して、前記符号化ビデオデータ入力に含まれるモデルパラメータにより駆動される1つ以上の確率論的モデルにより復号して、第2の復号中間データを生成する第2の識別手段と、
    (d) 第1と第2の中間データを結合して前記復号ビデオ信号を生成する結合手段と、
    を含むことを特徴とするデコーダ。
  13. 請求項12に記載のデコーダであって、
    空間的に確率論的性質を大幅に有する1つ以上のセグメントを前記1つ以上のセグメント内に生じる時間的動きの特徴に応じて第1または第2の符号化ルーチンを用いて復号するように構成され、前記第1のルーチンは動きが生じたセグメントを処理するように構成され、前記第2のルーチンは時間的に大幅に安定したセグメントを処理するように構成されていることを特徴とするデコーダ。
  14. 請求項12または13に記載のデコーダであって、
    (e) 前記第1の識別手段は、空間的に確率論的性質を大幅には有していない前記1つ以上のセグメントを、Iフレーム、Bフレーム、及び/またはPフレームを用いて決定論的に復号するように動作可能であり、前記Iフレームは前記1つ以上のセグメントのテクスチャ成分を決定論的に記述する情報を含み、前記Bフレーム及び/またはPフレームは前記1つ以上のセグメントの時間的動きを記述する情報を含み、
    (f) 前記第2の識別手段は、テクスチャ成分を有する確率論的な性質を大幅に有する前記1つ以上のセグメントを、前記モデルパラメータ、Bフレーム、及び/またはPフレームを用いて復号するように動作可能であり、前記1つ以上のセグメント及び前記Bフレーム及び/またはPフレームのテクスチャを表す前記モデルパラメータは前記1つ以上のセグメントの時間的動きを記述する情報を含む、
    ことを特徴とするデコーダ。
  15. 請求項12ないし14いずれか一項記載のデコーダであって、電子的ハードウェアとコンピュータハードウェア上で動作するソフトウェアのうち少なくとも1つを用いて実施されることを特徴とするデコーダ。
JP2006537455A 2003-10-31 2004-10-14 ビデオ信号の符号化方法 Pending JP2007511938A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03300190 2003-10-31
PCT/IB2004/003384 WO2005043918A1 (en) 2003-10-31 2004-10-14 Method of encoding video signals

Publications (1)

Publication Number Publication Date
JP2007511938A true JP2007511938A (ja) 2007-05-10

Family

ID=34530847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006537455A Pending JP2007511938A (ja) 2003-10-31 2004-10-14 ビデオ信号の符号化方法

Country Status (6)

Country Link
US (1) US20070140335A1 (ja)
EP (1) EP1683360A1 (ja)
JP (1) JP2007511938A (ja)
KR (1) KR20060109448A (ja)
CN (1) CN1875634A (ja)
WO (1) WO2005043918A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010514246A (ja) 2006-12-18 2010-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像圧縮及び伸張
EP2289173B1 (en) * 2008-05-15 2017-10-11 Koninklijke Philips N.V. Method, apparatus, and computer program product for compression and decompression of a gene sequencing image
US8537172B2 (en) * 2008-08-25 2013-09-17 Technion Research & Development Foundation Limited Method and system for processing an image according to deterministic and stochastic fields
JP5471794B2 (ja) * 2010-05-10 2014-04-16 富士通株式会社 情報処理装置、画像送信プログラム及び画像表示方法
US9473752B2 (en) 2011-11-30 2016-10-18 Qualcomm Incorporated Activation of parameter sets for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
CN102629280B (zh) * 2012-03-29 2016-03-30 深圳创维数字技术有限公司 一种视频处理过程中缩略图提取方法及装置
US9491494B2 (en) 2012-09-20 2016-11-08 Google Technology Holdings LLC Distribution and use of video statistics for cloud-based video encoding
GB2511493B (en) * 2013-03-01 2017-04-05 Gurulogic Microsystems Oy Entropy modifier and method
US9942557B2 (en) * 2016-01-26 2018-04-10 Beamr Imaging Ltd. Method and system of video encoding optimization

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983251A (en) * 1993-09-08 1999-11-09 Idt, Inc. Method and apparatus for data analysis
CN1158874C (zh) * 1995-09-12 2004-07-21 皇家菲利浦电子有限公司 图像信号的混合波形和基于模型的编码和解码
US5764233A (en) * 1996-01-02 1998-06-09 Silicon Graphics, Inc. Method for generating hair using textured fuzzy segments in a computer graphics system
US6480538B1 (en) * 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
US6977659B2 (en) * 2001-10-11 2005-12-20 At & T Corp. Texture replacement in video sequences and images
US7606435B1 (en) * 2002-02-21 2009-10-20 At&T Intellectual Property Ii, L.P. System and method for encoding and decoding using texture replacement
WO2004004359A1 (en) * 2002-07-01 2004-01-08 E G Technology Inc. Efficient compression and transport of video over a network

Also Published As

Publication number Publication date
KR20060109448A (ko) 2006-10-20
EP1683360A1 (en) 2006-07-26
CN1875634A (zh) 2006-12-06
WO2005043918A1 (en) 2005-05-12
US20070140335A1 (en) 2007-06-21

Similar Documents

Publication Publication Date Title
CN1870754B (zh) 减少分块现象的编/解码装置和方法
JP3689334B2 (ja) ビデオシーケンス内の複数のビデオフレームを復号化する方法
US9547916B2 (en) Segment-based encoding system including segment-specific metadata
US9064298B2 (en) Segment-based encoding system using residue coding by basis function coefficients
US6597739B1 (en) Three-dimensional shape-adaptive wavelet transform for efficient object-based video coding
US20060262845A1 (en) Segment-based encoding system using segment hierarchies
WO2010084692A1 (ja) 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
US9060172B2 (en) Methods and systems for mixed spatial resolution video compression
JP2004129203A (ja) 符号化装置及び方法
US20150365698A1 (en) Method and Apparatus for Prediction Value Derivation in Intra Coding
CN101313582A (zh) 使用各种运动模型的编码器辅助式帧速率提升转换
US7082166B2 (en) Decoder for decoding segment-based encoding of video data using segmentation performed at a decoder
JP2007525920A (ja) ビデオ信号エンコーダ、ビデオ信号プロセッサ、ビデオ信号配信システム及びビデオ信号配信システムの動作方法
JP2007511938A (ja) ビデオ信号の符号化方法
JPH09331536A (ja) 誤り訂正デコーダ及び誤り訂正デコーディング方法
WO2006046550A1 (ja) 画像符号化方法および装置、ならびに画像復号方法および装置
JP2003179921A (ja) 符号化映像復号化装置
US7103103B2 (en) Segmenting encoding system encoding video data using segment-by-segment kinetic data including change information in addition to translation information
JPWO2006038679A1 (ja) 動画像符号化の装置、方法及びプログラムと、動画像復号の装置方法及びプログラム
Segall et al. Super-resolution from compressed video
JP2006510275A5 (ja)
JP2008259059A (ja) 動画像復号装置、方法及びプログラム、並びに、動画像符号化装置、方法及びプログラム
JP3387820B2 (ja) 画像予測復号化装置及び画像予測復号化方法
JP2023162141A (ja) 点群符号化装置、点群復号装置、点群符号化方法、点群復号方法及びプログラム
JPH07264594A (ja) 動画像の動き補償予測符号化方法