JP5358568B2 - モーションチューブを用いて表現される画像シーケンスを符号化および復号化する方法、装置、コンピュータプログラム製品、信号 - Google Patents

モーションチューブを用いて表現される画像シーケンスを符号化および復号化する方法、装置、コンピュータプログラム製品、信号 Download PDF

Info

Publication number
JP5358568B2
JP5358568B2 JP2010514056A JP2010514056A JP5358568B2 JP 5358568 B2 JP5358568 B2 JP 5358568B2 JP 2010514056 A JP2010514056 A JP 2010514056A JP 2010514056 A JP2010514056 A JP 2010514056A JP 5358568 B2 JP5358568 B2 JP 5358568B2
Authority
JP
Japan
Prior art keywords
tube
information
block
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010514056A
Other languages
English (en)
Other versions
JP2010532612A (ja
Inventor
パトゥ,ステファン
ル・グエン,ベンジャミン
カマス,ナタリー
アモヌ,イザベル
ケルヴァデク,シルヴァン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of JP2010532612A publication Critical patent/JP2010532612A/ja
Application granted granted Critical
Publication of JP5358568B2 publication Critical patent/JP5358568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Description

本発明は、画像シーケンスの符号化および復号化の分野に属する。
具体的には、本発明は、モーションチューブを用いて表現される、ビデオ画像のシーケンスあるいは二次元または三次元のシーン(あるいはさらに高次元のシーン)のシーケンスの処理に関する。
従来のビデオ符号化装置、例えば、ISO/IEC 14496−10に示されている、ITU(国際電気通信連合)のAVC H.264/MPEG−4規格(Advanced Video Coding)で定められているビデオ符号化装置は、画像シーケンスを符号化して、符号化シーケンス、つまり元の画像シーケンスを圧縮した符号化シーケンスを提供する。
このような符号化装置は、ビデオシーケンスの不連続な表現を用いる。具体的には、シーケンスに含まれる画像は画素のブロックに切り分けられる。ここで、各画素ブロックは、隣接する画素のグループに相当する。これらの符号化装置は、それらのブロックに含まれている情報について、変換、量子化、エントロピー符号化といった処理を行う。したがって、各ブロックは、画像内または画像間の予測により符号化される。
このような従来技術の欠点は、各画像内のブロックが、そのシーケンスの別の画像のブロックと無関係に定義されることである。このことは、シーケンス内のモーションの表現を不連続なものとし、結果的に、リアルなモーションの表現が難しくなるとともに、圧縮ビットレートの観点でコスト増加の要因となる。
そこで、メッシュに基づく代替的な手法が提案されている。これにより、モーションの連続的な表現が得られる。
しかし、このようなメッシュに基づく手法の欠点は、リージョン間のモーションが制限されることである。結果として、画像シーケンス内の、モーションが異なる二つのリージョン間で(例えば、物体の出現または消滅により)発生する可能性のあるモーションフィールドの途切れ(break)を表現することができない。
さらに、これらの手法には、使用するメッシュが不規則であることから、時間の経過に対するメッシュセルの構造を送信しなければならないという、もう一つの弱点もある。実際、このような追加的な情報の送信は、圧縮の効果という観点では不利である。
したがって、これらの従来技術の欠点を多少なりとも解消する、画像の符号化、復号化の新たな手法が求められている。
本発明は、上記従来技術の欠点を解消した新規な解決法を、画像シーケンスを表す信号を復号化する方法として提案する。
本発明の画像シーケンスを表す信号を復号化する方法は、画像シーケンスを表す信号からモーションチューブを抽出するステップであって、あるチューブは、少なくとも一つの別のチューブとは独立して変化する画素ブロックを含むことができ、ある時点において、二つのチューブは一つの画像内の同一の画素へ別々の値を割り当てることができ、前記チューブのそれぞれは少なくとも以下の情報、すなわち、参照テクスチャ情報を含んだ参照画素のブロックと、チューブの開始時点およびチューブの終了時点と、前記画像シーケンス内の少なくとも一つの時点tにおける参照ブロックを更新することを可能にする遷移情報とにより定まるものである、ステップと、前記遷移情報を処理して、ある時点tにおけるカレントイメージ(現在の画像)内の各チューブについてのカレントブロック(現在のブロック)を提供するステップと、前記カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報を結合して、該オーバーラップゾーンにおいて最適化された画素を再現(reconstruct)するステップとを含む。
したがって、本発明は、モーションチューブの形式で表現される画像シーケンスの復号化に関する新規であって進歩性を有するアプローチに基づく。
具体的には、モーションチューブは、経時的に変化(evolve)する画素ブロックに相当する。この変化の過程において、チューブは、例えば、明確なモーション(動き)、あるいは、ブロック内に存在する画素の増減を考慮するために、変化しうる。さらに、このチューブは、修正(refine)が可能である。修正されたチューブとは、例えば、ブロックのサブピクセルレベルにわたる(pass to)チューブである。
したがって、各モーションチューブが、独立して変化しうる。つまり、画像シーケンスは、画像シーケンスのモーションの軌跡に従って時間とともに空間内を移動するモーションチューブの集合により表現される。このチューブの「時間的な継続性(temporal persistence)」により、ビデオシーケンスを連続的に表現することが可能となる。さらに、この表現は、シーケンス内のモーションの連続性および不連続性のゾーンを同時に効率的に表現することを可能にする。
これに対し、上述のように、従来技術のブロック予測符号化では、各画像内のブロックは、そのシーケンス内の他の画像のブロックとは無関係に定められる。したがって、これらの予測においては、追跡(tracking)は行われない。
本発明によれば、具体的には、復号化の際に、受信した信号からモーションチューブを抽出する。これは、これらのチューブについての遷移情報を処理し、各チューブについて、再現しようとする画像内の(変化している可能性がある)カレントブロックを再現するためである。
その後、オーバーラップしている各チューブに対応するカレントブロックへと関連付けられている情報は、オーバーラップゾーン内に位置する画素を再現するために結合される。オーバーラップゾーンという表現は、具体的には、各チューブに関連付けられているカレントブロックが共通の画素を有するゾーンを意味している。
具体的には、チューブの開始時点における画素ブロック、すなわち開始ブロックは、該チューブを定義する参照画素ブロックに直接的に対応したものとすることができ、あるいは、該参照画素ブロックの修正に基づいて得ることもできる。そのような修正は、例えば、幾何学的変換(ホモグラフィック変換、アフィン変換、回転など)を含む符号化に相当する。
本発明の一実施形態によれば、結合するステップは、オーバーラップゾーン内の少なくとも一つの画素について、オーバーラップしている各チューブの画素に割り当てられているテクスチャ値の平均を計算する処理を含む。
具体的には、この平均は、以下のものからなる群から選らばれた少なくとも一つの条件の関数である重み付けがなされた平均とすることができる。
・該各チューブに関連付けられている深度情
・該各チューブに関連付けられている優先度情
・該各チューブの生成時点および/または継続時間
・該各チューブにおける対象画素についての位置情
・該各チューブのチューブタイプに関連する情
言い換えると、オーバーラップゾーンにおいて最適化される画素は、オーバーラップしている各チューブの画素に割り当てられているテクスチャ値の結合(一次結合、幾何学的結合など)に基づいて決定される。
本発明の一態様によれば、抽出するステップにより、異なるタイプのチューブが提供される。これらのチューブには、具体的には、ベースチューブと、少なくとも一つのベースチューブの再現(restitution)を改善するための修正チューブ(refinement tube)とが含まれる。
修正チューブの変化は、ベースチューブの変化とは独立なものとしうる。
具体的には、修正チューブは、以下のものを含む。
・加算チューブ(additive tube):加算チューブは、ベースチューブの情報に加算される残差情報を含む。
・記述チューブ(description tube):記述チューブは、ベースチューブの情報により提供される第一の記述に対して補足的かつ/または冗長な第二の記述を提供する記述情報を含む。例えば、第一の記述は、ブロック内の偶数画素(even pixel)の記述を可能とし、第二の記述は、奇数画素(odd pixel)の記述を可能とする。
したがって、本実施形態によれば、本発明は、品質が調整可能であって時空間解像度(spatio-temporal resolution)が可変である、データのスケーラブルな符号化および復号化に応用される。
ベースチューブと加算型の修正チューブとの間の相互関係を利用するスケーラブルな表現の実行を目的とする一態様によれば、加算型の修正チューブは、修正対象のベースチューブへと関連付けられる。したがって、加算型の修正チューブの時間的な変化は、ベースチューブの時間的な変化に依存する。
本発明の一実施例によれば、モーションチューブを定義する遷移情報は、以下のものを含む。
・該カレントイメージ内のブロックの位置および/または変位の修正に関する情
・該テクスチャの修正に関する情
これらの遷移情報は、具体的には、既に復号化された画像に対して行われた修正を考慮した、カレントイメージ内のカレントブロックの再現を可能にする。例えば、これらの修正は、画像ごとの更新、空間的変換および/または時間的変換による符号化などに相当する。
例えば、遷移情報は、以下のものからなる群から選ばれた少なくとも一つの演算を行うための、ブロックの変化に関する情報を含む。
・ホモグラフィック変換
・アフィン変換
・回転
この演算は、処理するステップにおいて、変化に関する情報を考慮して行われる。
本発明の一実施形態によれば、復号化方法は、参照チューブのリストを生成して更新するステップを含む。この、リストを生成するステップは、シーケンス内の第1番目の画像に対して実行できる。
本発明の一態様によれば、抽出するステップは、ある時点tにおいて、各チューブについて、以下の情報の少なくとも一つを読み取るステップを含む。
・該チューブを使用するか否かの情報
・該チューブについての予測を使用するか否かの情報
・画像内の該チューブの位置に関する情
・チューブタイプに関連する情
・テクスチャデータ
例えば、復号化方法は、以下のステップを含む。
Figure 0005358568
別の実施形態では、本発明は、画像シーケンスを表す信号を復号化する装置を提供する。
本発明によれば、復号化装置は、以下のものを備えている。
・信号からモーションチューブを抽出する手段: チューブは、少なくとも一つの別のチューブとは独立に変化しうる画素ブロックを含む。
・遷移情報を処理する手段: ある時点tにおけるカレントイメージ内の各チューブのカレントブロックを提供する。
・オーバーラップゾーンにおいて最適化された画素を再現するために、該カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報を結合する手段。
このような復号化装置は、特に、上述の復号化方法の実施に好適である。そのような復号化装置は、例えば、H.264型または修正H.264型のビデオ復号化装置を必要とする。
本発明の別の態様では、通信ネットワークからダウンロード可能であり、および/または、コンピュータが読み取り可能な媒体に記録され、および/または、プロセッサが実行可能なコンピュータプログラム製品であって、上述の復号化方法を実施するためのプログラムコード命令を含むコンピュータプログラム製品が提供される。
本発明の別の実施形態は、画像シーケンスを符号化する方法に関する。
本発明によれば、符号化方法は、以下のステップを含む。
・シーケンスを表す信号にモーションチューブを挿入するステップ: チューブは、少なくとも一つの別のチューブと独立に変化しうる画素ブロックを含んでいる。ある時点において、二つのチューブは、一つの画像の同一の画素へ別々の値を割り当てることが可能である。各チューブは、少なくとも以下の情報、すなわち、参照テクスチャ情報を含む参照画素ブロックと、チューブ開始時点およびチューブ終了時点と、該シーケンスの少なくとも一つの時点tにおいて該参照ブロックを更新することを可能にする遷移情報とにより定められる。
・該モーションチューブを定義する該遷移情報を生成するステップ
・これにより、復号化の際に、カレントイメージ内のオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報を結合して、オーバーラップゾーンにおいて最適化された画素を再現することができる。
そのような符号化方法は、特に、上述の復号化方法に従って復号化される画像シーケンスを符号化することに好適である。
具体的には、そのような符号化方法は、以下の二つの主なフェーズを含む。
・モーションチューブを確立するフェーズ: 情報に基づいてチューブを構成することを可能にする。
・モーションチューブを符号化するフェーズ
本発明の一実施形態以下の通りである。
Figure 0005358568
別の実施形態では、画像シーケンスを符号化する装置が提供される。
本装置は、以下のものを備えている。
・シーケンスを表す信号にモーションチューブを挿入する手段: チューブは、少なくとも一つの別のチューブと独立に変化しうる画素ブロックを含む。
・モーションチューブを定義する遷移情報を生成する手段:
これにより、復号化の際に、カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報を結合して、オーバーラップゾーンにおいて最適化された画素が再現される。
そのような符号化装置は、特に、上述の符号化方法の実施に好適である。そのような復号化装置は、例えば、H.264型または修正H.264型のビデオ符号化装置を必要とする。
本発明の別の態様では、通信ネットワークからダウンロード可能であり、および/または、コンピュータによる読み取りが可能な媒体に記録され、および/または、プロセッサによる実行が可能なコンピュータプログラム製品であって、上述の符号化方法を実施するためのプログラムコード命令を含むコンピュータプログラム製品が提供される。
本発明のさらに別の態様では、画像シーケンスを表す信号が提供される。
本信号は、モーションチューブを含む。チューブは、少なくとも一つの別のチューブとは独立に変化しうる画素ブロックを含む。ある時点において、二つのチューブが、一つの画像の同一の画素へ別々の値を割り当てることができる。
該各チューブは、少なくとも以下の情報で定義される。
・参照テクスチャ情報を含む参照画素ブロック
・チューブ開始時点およびチューブ終了時点
・該シーケンスの少なくとも一つの時点tにおいて該参照ブロックを更新することを可能にする遷移情
本信号は、各モーションチューブに関連付けられている遷移情報をさらに含む。
これにより、復号化の際に、カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報を結合して、オーバーラップゾーンにおいて最適化された画素が再現される。
本信号は、特に、上述の符号化方法に従って符号化されたデータストリームを表すことができる。もちろん、この信号は、本発明による符号化方法に関連する様々な特性を含むことができる。
単純で、例示的かつ非限定的な例として与えられる、以下の実施例の説明、ならびに以下に示す添付図面を参照することにより、本発明の特徴および利点を説明する。
モーションチューブを用いた画像シーケンスの一例を示す図である。 モーションチューブ内のブロックの経時的な変化を示す図である。 本発明の一実施形態による復号化方法の主なステップを示す図である。 オーバーラップを制御するメカニズムを示す図である。 本発明の一実施形態による符号化方法の主なステップを示す図である。 本発明の一実施形態による符号化装置の一例を示す図である。 本発明の一実施形態による復号化装置の一例を示す図である。
5.1 一般原理
本発明の一般原理は、モーションチューブを用いて表現される2次元または3次元の画像シーケンスを符号化および復号化することに基づいている。
モーションチューブによるビデオシーケンスの表現の一例について、図1を参照しながら説明する。
本例では、時点t0、t1、t2、t3にそれぞれ対応するビデオシーケンスの画像I0、I1、I2、I3の間に、四つのモーションチューブTu1、Tu2、Tu3、Tu4が存在している。
具体的には、あるモーションチューブは、画素の集合(正方形あるいは長方形のブロック、または3次元の立方体など)として定義されるものであり、その特性は以下のとおりである。
・生成時点(すなわちチューブ開始時点)
・消滅時点(すなわちチューブ終了時点)
・時点tに依存する位置(xt、yt)の集合または変位(dxt、dyt)の集合(ただし、tはチューブの生成時点と消滅時点との間にある)
・必要に応じて時間とともに変化するテクスチャ
例えば、チューブTu1は、時点t0で生成され、時点t2で消滅する。このことは、時点t0より前にはチューブTu1は存在せず、時点t2より後にはチューブTu1はもはや存在しないことを意味する。同様に、チューブTu2は、時点t0で生成され、時点t1で消滅する。チューブTu3は、時点t1で生成され、時点t3で消滅する。チューブTu4は、時点t1で生成され、時点t2で消滅する。さらに、各チューブは、テクスチャ値を有している。
言い換えると、例えば、画像I0の場合は、チューブTu1が、画像I0の画素ブロック1に対応する。これに関して、「時間的な推移(temporal extension)」としてtが適用される。tはt0からt2まで変化する。
このように、チューブは、各時点において再び初期化されることなく、画像を通じて「残存」する。特に、画像シーケンス内の連続しない複数の画像に対して、モーションチューブを定義することができる。例えば、時点tにおいてチューブが画像から「消滅」した場合には、このチューブはメモリ内に保存され、時点t+1において「再度出現」しうる。
これらのチューブは、復号化する際に、シーケンス内の画像を再現するために用いられる。例えば、チューブTu1を用いて、画像I1およびI2を予測することができる。
各チューブに関連付けられている画素ブロックは、互いに独立して変化(evolve)しうることに留意されたい。したがって、例えば、図1の時点t2におけるチューブTu3とチューブTu4のように、チューブどうしがオーバーラップすることがある。これは、メッシュに基づく手法では不可能である。
さらに、チューブの時間的な変化は、平行移動(translation)に限られないことに留意されたい。画素ブロックにおいては、最初の画像を含めて、画像ごとに幾何学的変換が行われる場合がある。このような変換としては、回転、アフィン変換、ホモグラフィック変換などがある。
図2は、チューブどうしのオーバーラップを具体的に示している。例えば、時刻tにおいて、画像It内でチューブTu、Tuが初期化されている。時刻t+1では、画像It+1内でチューブTuとチューブTuが完全にオーバーラップしている。つまり、このときチューブTuおよびチューブTuは、同じ画素ブロックに対応している。これが起こるのは、例えば、ある物体について、チューブTuの画素ブロックに関連付けられている一部分が、ブロックTuに関連付けられている別の物体によって隠されている場合である。その後、各チューブが互いに独立して変化(evolve)することにより、チューブTuとチューブTuは、各チューブに関連付けられている物体の変位に応じて、別の方向に変化していく。
また、モーションチューブは、時間とともに変化(平行移動から回転運動、アフィン変形、ホモグラフィック変形などへ拡張)しうる。例えば図2では、チューブTuが時点t+1において画像It+1内で初期化され、時点t+2において画像It+2内で消滅している。チューブTuに対応した、画像It+2内の画素ブロックは、同じチューブTuに対応した、画像It+1内の画素ブロックとは異なることがある。例えば、チューブTuは、画像It+1において8×8の画素ブロックに対応し、画像It+2においては12×8の画素ブロックに対応している。この場合、チューブを構成している画素の集合は、時間とともに変化している。画像It+2内のチューブTuに対応した画素ブロックを表現するために、画像It+1について当初定められた、修正された画素値を含んだブロックを変形することができる。このような変形としては、ホモグラフィック変換、アフィン変換、回転などがある。
つまり、あるビデオシーケンスは、そのビデオシーケンスのモーションの軌跡(trajectory)に従って時間とともに空間内を動くモーションチューブの集まりによって表現される。
5.2 復号化
本発明による復号化方法の主なステップを、図3を参照して具体的に説明する。
信号30は、復号化部が受信した画像シーケンスである。
本復号化方法では、まず抽出ステップ31において、画素ブロックに各々関連付けられているモーションチューブを信号30から抽出する。本発明においては、各チューブは互いに独立して変化しうる。さらに、所与の時点において、二つのチューブが、ある画像の同一の画素へ別々のテクスチャ値を割り当てることができる。
各チューブは、少なくとも以下の情報によって定められる。
・参照テクスチャ情報を含んだ参照画素ブロック
・チューブ開始時点およびチューブ終了時点
・当該シーケンスの少なくとも一つの時点tにおいて当該参照ブロックを更新することを可能にする遷移情
チューブの開始時点における画素ブロック(開始ブロックと呼ぶ)は、当該チューブを定める参照画素ブロックに対応したものとすることができ、あるいは、当該参照画素ブロックの修正により得られるものとすることもできる。したがって、この開始ブロックは、必ずしも当該シーケンスの画像に属するものではなく、ストレージメモリ、データベースなどから作成されることがある。
また、参照画素ブロック(あるいは、チューブの開始時点における画素ブロック)は、モーションチューブごとに異なりうる。
例えば、図1の画像I1を参照すると、チューブTu3の開始時点における画素ブロックは、ブロック3である。チューブTu4の開始時点における画素ブロックは、ブロック4である。
また、チューブの開始時点は、モーションチューブごとに異なりうる。例えば、チューブTu1の開始時点はt0であり、チューブTu3の開始時点はt1である。
これらの遷移情報は、具体的には、カレントイメージにおけるブロックの位置の修正および/または変位の修正に関する情報、ならびに、テクスチャの修正に関する情報を含んでいる。
本復号化方法は、遷移情報を処理するステップ32において、時点tにおけるカレントイメージ内の各チューブのカレントブロックを提供する。例えば、画像I2(これをカレントイメージとする)の再現が必要な場合には、時点t1における画像I1内のブロック3と、チューブTu3に関連付けられている遷移情報とに基づいて、チューブTu3の画像I2内のブロック3が時点t2において更新される。言い換えると、開始ブロックは、遷移情報を考慮に入れながら、時間とともに変化しうる。そして、それをカレントブロックと呼ぶ。
その後、本復号化方法は、ステップ33において、カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックに関連付けられている情報を結合(combine)する。これにより、オーバーラップゾーンにおいて最適化された画素を再現する。
図1を再度参照すると、例えば、チューブTu3とチューブTu4とが、画像I2内でオーバーラップしていることに留意されたい。ここで、チューブTu3およびチューブTu4に関連付けられている情報(具体的には、テクスチャ情報)を結合することに基づいた、オーバーラップを制御するメカニズムを導入する。そして、このオーバーラップを制御するメカニズムにより、オーバーラップゾーン内に位置する画素について値を再現することが可能となる。
そして、本復号化方法により、再現された画像シーケンス34が得られる。
ステップ33は、各モーションチューブについての情報を結合するステップである。これについて、図4を参照して具体的に説明する。
所与の時点における画像を画像Iとする。画像Iは、それぞれが画素ブロックに関連付けられている三つのモーションチューブを含んでいる。簡単にするために、ブロックとこれに対応するチューブとを同じ文字で表す。図4では、三つのチューブ41、42、43が、符号Hで示された、ハッチングされたオーバーラップゾーンにおいてオーバーラップしている。
このオーバーラップゾーンHを制御するために、様々な手法を用いる。
例えば、結合ステップ33では、オーバーラップゾーンの画素を再現するために、オーバーラップしているチューブのそれぞれにおける、オーバーラップゾーンHの各画素に割り当てられたテクスチャ値の平均を計算する。ゾーンHの画素Pが、ブロック41において値210を有し、ブロック42において値230を有し、ブロック43において値240を有しているとすると、再現された画素は値226(=(210+230+240)/3)を有することとなる。
各モーションチューブに重みを付けることにより、上述の平均に重みを付けることができる。例えば、各チューブに対して優先度情報(priority information)を関連付けることができる。この優先度情報は、品質情報とすることができる。この場合は、最大の優先度情報を有するチューブに関連付けられているテクスチャ値のみを考慮する。
また、優先度情報は、深度情報(depth information)とすることもできる。この場合は、最大の深度情報を有するチューブに関連付けられているテクスチャ値のみを考慮する。また、オーバーラップしているすべてのチューブに関連付けられているテクスチャ値を結合することもできる。この場合、それらの値について、各チューブに関連付けられている深度により重み付けを行う。
別の形態によれば、オーバーラップしている複数のチューブのうち、一つのチューブに関連付けられているテクスチャ値を考慮することもできる。例えば、(継続時間が)最も長いチューブ、すなわち、個数が最大の連続画像または不連続画像にわたって定義されているチューブのみを考慮したり、あるいは、直近のチューブ、すなわち、生成時点が時間的に最も近いチューブのみを考慮する。また、オーバーラップしているすべてのチューブに関連付けられているテクスチャ値を結合することもできる。この場合、それらの値について、各チューブの継続時間(終了時点と生成時点との差)、あるいは、各チューブの生成時点を起点とする時間的間隔の単調減少(または単調増加)関数(現在の時点と生成時点との差)により重み付けを行う。
さらに別の手法では、各チューブにおいて対象画素の位置を考慮する。例えば、オーバーラップゾーンH内の画素Pが、チューブ41の中心から距離d1の位置にあり、チューブ42の中心から距離d2の位置にあり、チューブ43の中心から距離d3の位置にあるとする。この場合、再現する画素に最も近いチューブ(例えば、d2<d1かつd2<d3であるとすれば、チューブ42)に関連付けられているテクスチャ値のみを考慮することができる。また、オーバーラップしているチューブの画素に対し、各チューブ内での位置に関して重み付けをすることもできる。
別の実施形態によれば、抽出ステップ31は、別のチューブタイプ、すなわち、ベースチューブ(base tube)、あるいは修正チューブ(refinement tube)を提供することに留意されたい。このような修正チューブは、具体的には、ベースチューブの再現(restitution)を改善することができる。
したがって、本実施形態によれば、本発明は、品質が調整可能であって時空間的解像度が可変であるスケーラブルなデータの符号化および復号化に応用される。
本実施形態によれば、本発明はまた、データのロバストな符号化および復号化に応用される。
本実施形態では、オーバーラップゾーンHを制御することにより、結合ステップ33において、ベースチューブの情報へ修正チューブの情報を追加することができる。
具体的には、修正チューブには次の二つのタイプがある。
・加算チューブ
これは、ベースチューブの品質を改善するものであり、残差という値を持っている。この場合、ベースチューブの情報を結合すること、および修正チューブの再現情報(restitution information)を結合することは、いずれも加算である。
・記述チューブ(descriptive tube)
参照チューブの情報により提供される第一の記述に対して補足的および/または冗長な第二の記述を提供する記述情報を含む。例えば、第一の記述は、ブロック内の偶数画素の記述し、第二の記述は、奇数画素を記述する。この場合、ベースチューブの情報を結合すること、および修正チューブの情報を結合することは、ベースチューブの情報および修正チューブの情報の重み付けである。また、ベースチューブの情報のみ、あるいは修正チューブの情報のみを考慮することもできる。
この場合、ベースチューブと、ベースチューブを詳細に表現する一つまたは複数の修正チューブとは関連付けられ、それらの時間的な変化は依存関係にあると見なされる。
画像シーケンスを表す信号を復号化する復号化方法のアルゴリズムの一例について、以下に説明する。
Figure 0005358568
つまり、カレントイメージの再現は、各モーションチューブから生まれる予測値を結合することによって行う。したがって、各チューブは、点(x、y)および時点tにおけるそのチューブのモーションの補正、ならびに必要に応じてテクスチャの内挿(interpolation)によって得られる予測値、すなわち、
Figure 0005358568
を定める。
例えば、図4に関して説明したように、これらの予測値は、次のように結合される。
Figure 0005358568
重みwおよび重みwは、複数の予測を行う際に適用する重み付けを考慮するためのものである。
したがって、第一の形態によれば、これらの重みは、次式によって定められる。
w=1/{その点における予測値の数}
第二の形態によれば、各チューブは、チューブに対する当該点の位置に関連付けられた重みw(例えば、そのチューブの中心からの距離に反比例する重み)を定める。wは、wを複数のwの合計で割ったものとして定められる。
第三の形態によれば、重み付け以外の方法(例えば、多重記述符号化(multiple description coding)をもとにした手法)によって、各チューブの予測値を結合して最終的な予測値を得ることができる。
5.3 符号化
ここでは、本発明による符号化方法の主なステップを、図5を参照して説明する。
具体的には、画像シーケンス51を符号化する。
第一の挿入ステップ52において、上述のモーションチューブを、画像シーケンスを表す信号へ挿入する。
具体的には、各モーションチューブは、少なくとも以下の情報によって定められる。
・参照テクスチャ情報を含んだ参照画素ブロック
・チューブ開始時点およびチューブ終了時点
・当該シーケンスの少なくとも一つの時点tにおいて当該参照ブロックを更新することを可能にする遷移情
次の生成ステップ53において、モーションチューブを定義する遷移情報を生成する。言い換えると、各モーションチューブについて、参照画素ブロックの時間的な変化を定義する。
このようにして、画像シーケンス51を表す信号54を生成する。信号54は、モーションチューブを含んでいる。信号54は、復号化の際に、カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックに関連付けられている情報を結合することにより、オーバーラップゾーンにおいて最適化された画素を再現することを可能とする。
画像ビデオシーケンスを符号化する符号化方法のアルゴリズムの一例を以下に説明する。このアルゴリズムには、チューブを確立するフェーズと、チューブを符号化するフェーズという二つの主なフェーズがある。
A)チューブを確立するフェーズ
最初に、ビデオシーケンスをモーションチューブの集合に分解する。
シーケンスの第一番目の画像については、その第一番目の画像をカバーしている一組のブロックのそれぞれについて、モーションチューブを初期化する。この第一番目の画像をカバーしている一組のブロックは、互いに素なブロック(すなわち、互いに共通の画素を含まないブロック)のみを含んでいるか、あるいは、部分的に重なり合っているブロック(すなわち、互いに共通の画素を含む少なくとも二つのブロック)を含んでいる。このように冗長性を考慮しており、それによって、例えば、同一のコンテンツに対して多重記述(multiple description)を施したり、境界ゾーンにおける物体のモーションをより良く推定したりすることができる。
このようなモーションチューブにより、参照チューブのリストを定義することができる。
次に、符号化の対象となる画像の符号化について説明する。ここで、既知の(例えば、既に符号化あるいは復号化されてキャッシュメモリに記憶されている)画像または参照画素ブロックのリスト、ならびに参照チューブのリストが、あらかじめ与えられているものとする。
本符号化方法におけるモーションチューブを確立するフェーズは、以下のステップを含んでいる。
Figure 0005358568
B)チューブを符号化するフェーズ
様々なチューブを符号化するために、符号化を実行する本アルゴリズムに従って、イントラ残差型(intra-residual type)のスキームを用いる。
Figure 0005358568
したがって、画像の符号化は、以下の手順により行われる。
Figure 0005358568
5.4 符号化装置および復号化装置の構造
最後に、上述したような符号化および復号化をそれぞれ実行する符号化装置および復号化装置の構造を、図6Aおよび図6Bを参照しながら説明する。
符号化装置の一例を図6Aに示している。この符号化装置は、バッファメモリからなるメモリ61と、処理ユニット62とを備えている。処理ユニット62は、マイクロプロセッサμPを備えており、コンピュータプログラム63を実行して、本発明による符号化方法を実行する。
まず、コンピュータプログラム63のコード命令が、例えば、RAMメモリにロードされ、その後、処理ユニット62内のプロセッサによって実行される。処理ユニット62は、符号化する画像シーケンス51を入力として受け取る。処理ユニット62のマイクロプロセッサは、モーションチューブにより表現された画像シーケンスを符号化するために、コンピュータプログラム63の命令に従って、上述の符号化方法の手順を実行する。そのために、符号化装置は、バッファメモリ61に加えて、モーションチューブを挿入する手段と、モーションチューブを定める遷移情報を生成する手段とを備えている。これらの手段は、処理ユニット62内のマイクロプロセッサによって実現される。
処理ユニット62は、モーションチューブを含んだ、画像シーケンスを表す信号54を出力する。
復号化装置の一例を図6Bに示している。この復号化装置は、バッファメモリからなるメモリ66と、処理ユニット67とを備えている。処理ユニット67は、マイクロプロセッサμPを備えており、コンピュータプログラム68を実行して、本発明による復号化方法を実行する。
まず、コンピュータプログラム68のコード命令が、例えば、RAMメモリにロードされ、その後、処理ユニット67内のプロセッサによって実行される。処理ユニット67は、モーションチューブを含んだ、画像シーケンスを表す信号30を入力として受け取る。処理ユニット67内のマイクロプロセッサは、シーケンスの画像を再現するために、コンピュータプログラム68の命令に従って、上述の復号化方法の手順を実行する。そのため、復号化装置は、バッファメモリ66に加えて、信号30からモーションチューブを抽出する手段と、遷移情報を処理する手段と、オーバーラップしている少なくとも二つのチューブのカレントブロックに関連付けられている情報を結合する手段とを備えている。これらの手段は、処理ユニット67内のマイクロプロセッサによって実現される。
処理ユニット67は、再現された画像シーケンス34を出力する。

Claims (14)

  1. 画像シーケンスを表す信号からモーションチューブを抽出するステップであって、あるチューブは、少なくとも一つの別のチューブとは独立して変化する画素ブロックを含むことができ、ある時点において、二つのチューブは一つの画像内の同一の画素へ別々の値を割り当てることができ、前記チューブのそれぞれは以下の情報、すなわち、
    参照テクスチャ情報を含んだ参照画素のブロックと、
    チューブの開始時点およびチューブの終了時点と、
    前記画像シーケンス内の少なくとも一つの時点tにおける参照ブロックを更新することを可能にする遷移情報と
    により定まるものである、ステップと、
    前記遷移情報を処理して、ある時点tにおけるカレントイメージ内の各チューブについてのカレントブロックを提供するステップと、
    前記カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報を組み合わせる処理により、該オーバーラップゾーンにおいて最適化された画素を再現するステップであって、前記組み合わせる処理は、前記オーバーラップゾーンの少なくとも一つの画素について、オーバーラップしている各チューブ内の当該画素へと割り当てられているテクスチャ値の平均を計算する演算を含むものである、ステップ
    を含む、画像シーケンスを表す信号を復号化する方法。
  2. 前記平均は、
    各チューブに関連付けられている深度情報と、
    各チューブに関連付けられている優先度情報と、
    各チューブの生成時点または継続時間の少なくともいずれか一方と、
    各チューブにおいて対象となる画素についての位置情報と、
    各チューブのチューブタイプに関連する情報と
    からなる群から選ばれた少なくとも一つの条件に応じて重み付けがなされた平均である、請求項に記載の方法。
  3. あるチューブの開始時点における画素ブロック、すなわち開始ブロックが、当該チューブを定める参照画素のブロックに対応するか、あるいは該参照画素ブロックの修正により得られるものである、請求項1または2に記載の方法。
  4. 前記抽出するステップは、ベースチューブと、少なくとも一つのベースチューブの再現を改善するための修正チューブとを提供するものである、請求項1からのいずれか一項に記載の方法。
  5. 前記修正チューブは、加算チューブと記述チューブとを含むものであり、
    加算チューブは、ベースチューブの情報へと加算される残差情報を含むものであり、
    記述チューブは、ベースチューブの情報により提供される第一の記述に対して補足的および/または冗長な第二の記述を提供する記述情報を含むものである、請求項に記載の方法。
  6. 前記遷移情報は、
    前記カレントイメージ内のブロックの位置および/または変位の修正に関する情報と、
    前記テクスチャの修正に関する情報と
    を含むものである、請求項1からのいずれか一項に記載の方法。
  7. 前記遷移情報は、
    ホモグラフィック変換と、
    アフィン変換と、
    回転と
    からなる群から選ばれた少なくとも一つの演算を行うための、ブロックの変化に関する情報を含むものであり、
    前記処理するステップは、前記変化に関する情報の関数として前記演算を行うものである、請求項に記載の方法。
  8. 前記抽出するステップは、ある時点tにおいて、前記各チューブに関し、以下の情報、すなわち、
    前記チューブを使用するか否かの情報と、
    前記チューブについての予測を使用するか否かの情報と、
    前記画像におけるチューブの位置に関する情報と、
    チューブタイプに関する情報と、
    テクスチャデータと
    のうちの少なくとも一つを読み取るステップを含むものである、請求項1からのいずれか一項に記載の方法。
  9. 画像シーケンスを表す信号からモーションチューブを抽出する手段であって、あるチューブは、少なくとも一つの別のチューブとは独立して変化する画素ブロックを含むものであり、ある時点において、二つのチューブが一つの画像における同一の画素へ別々の値を割り当てることができ、前記各チューブは、以下の情報、すなわち、
    参照テクスチャ情報を含んだ参照画素ブロックと、
    チューブ開始時点およびチューブ終了時点と、
    前記画像シーケンスの少なくとも一つの時点tにおける参照ブロックを更新することを可能にする遷移情報と
    により定まるものである、抽出する手段と、
    前記遷移情報を処理して、ある時点tにおけるカレントイメージ内の前記チューブのそれぞれのカレントブロックを提供する手段と、
    前記カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報を組み合わせる処理により、該オーバーラップゾーンにおいて最適化された画素を再現する手段であって、前記組み合わせる処理は、前記オーバーラップゾーンの少なくとも一つの画素について、オーバーラップしている各チューブ内の当該画素へと割り当てられているテクスチャ値の平均の計算を含むものである、手段と、
    を備えている、画像シーケンスを表す信号を復号化する装置。
  10. ある通信ネットワークからダウンロード可能であり、および/または、コンピュータが読み取り可能な媒体に記録され、および/または、プロセッサが実行可能なコンピュータプログラムであって、請求項1からのいずれか一項に記載の方法を実行するためのプログラムコード命令を有するコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。
  11. 画像シーケンスを表す信号へモーションチューブを挿入するステップであって、あるチューブは、少なくとも一つの別のチューブとは独立して変化することが可能な画素ブロックを含むものであり、ある時点において、二つのチューブが一つの画像内の同一の画素へ別々の値を割り当てることができ、前記各チューブは、以下の情報、すなわち、
    参照テクスチャ情報を含んだ参照画素ブロックと、
    チューブ開始時点およびチューブ終了時点と、
    前記画像シーケンスの少なくとも一つの時点tにおける参照ブロックを更新することを可能にする遷移情報と
    により定まるものである、挿入するステップと、
    前記モーションチューブを定める遷移情報を生成するステップと
    を含み、復号化の際に、カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報組み合わせる処理により、該オーバーラップゾーンにおいて最適化された画素が再現され、前記組み合わせる処理は、前記オーバーラップゾーンの少なくとも一つの画素について、オーバーラップしている各チューブ内の当該画素へと割り当てられているテクスチャ値の平均を計算する演算を含むものである、画像シーケンスを符号化する方法。
  12. 画像シーケンスを表す信号へモーションチューブを挿入する手段であって、あるチューブは、少なくとも一つの別のチューブとは独立に変化することが可能な画素ブロックを含むものであり、ある時点において、二つのチューブが一つの画像内の同一の画素へ別々の値を割り当てることができ、前記各チューブは、以下の情報、すなわち、
    参照テクスチャ情報を含んだ参照画素ブロックと、
    チューブ開始時点およびチューブ終了時点と、
    前記シーケンスの少なくとも一つの時点tにおける参照ブロックを更新することを可能にする遷移情報と
    により定まるものである、挿入する手段と、
    前記モーションチューブを定める遷移情報を生成する手段と
    を備えており、復号化の際に、カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報組み合わせる処理により、該オーバーラップゾーンにおいて最適化された画素が再現され、前記組み合わせる処理は、前記オーバーラップゾーンの少なくとも一つの画素について、オーバーラップしている各チューブ内の当該画素へと割り当てられているテクスチャ値の平均を計算する演算を含むものである、画像シーケンスを符号化する装置。
  13. 通信ネットワークからダウンロード可能であり、および/または、コンピュータが読み取り可能な媒体に記録され、および/または、プロセッサが実行可能なコンピュータプログラムであって、請求項11に記載の方法を実行するプログラムコード命令を有するコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。
  14. モーションチューブを含み、ここで、あるモーションチューブは、少なくとも一つの別のチューブとは独立して変化することが可能な画素ブロックを含むものであり、ある時点において、二つのチューブが一つの画像内の同一の画素へ別々の値を割り当てることができ、前記各チューブは、以下の情報、すなわち、
    参照テクスチャ情報を含んだ参照画素ブロックと、
    チューブ開始時点およびチューブ終了時点と、
    画像シーケンスの少なくとも一つの時点tにおける参照ブロックを更新することを可能にする遷移情報と
    により定まるものであり、
    前記各モーションチューブに関連付けられている遷移情報をさらに含み、
    復号化の際に、カレントイメージのオーバーラップゾーンにおいてオーバーラップしている少なくとも二つのチューブのカレントブロックへと関連付けられている情報組み合わせる処理により、該オーバーラップゾーンにおいて最適化された画素が再現される、画像シーケンスを表す信号を生成するステップであって、前記組み合わせる処理は、前記オーバーラップゾーンの少なくとも一つの画素について、オーバーラップしている各チューブ内の当該画素へと割り当てられているテクスチャ値の平均を計算する演算を含むものである、ステップと、
    前記信号を送信するステップと
    を含む方法。
JP2010514056A 2007-06-25 2008-06-23 モーションチューブを用いて表現される画像シーケンスを符号化および復号化する方法、装置、コンピュータプログラム製品、信号 Active JP5358568B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0756007A FR2917872A1 (fr) 2007-06-25 2007-06-25 Procedes et dispositifs de codage et de decodage d'une sequence d'images representee a l'aide de tubes de mouvement, produits programme d'ordinateur et signal correspondant.
FR0756007 2007-06-25
PCT/FR2008/051126 WO2009007580A2 (fr) 2007-06-25 2008-06-23 Procedes et dispositifs de codage et de decodage d'une sequence d'images representee a l'aide de tubes de mouvement, produits programme d'ordinateur et signal correspondants

Publications (2)

Publication Number Publication Date
JP2010532612A JP2010532612A (ja) 2010-10-07
JP5358568B2 true JP5358568B2 (ja) 2013-12-04

Family

ID=39229597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010514056A Active JP5358568B2 (ja) 2007-06-25 2008-06-23 モーションチューブを用いて表現される画像シーケンスを符号化および復号化する方法、装置、コンピュータプログラム製品、信号

Country Status (8)

Country Link
US (1) US8588292B2 (ja)
EP (1) EP2172024B1 (ja)
JP (1) JP5358568B2 (ja)
CN (1) CN101790888B (ja)
BR (1) BRPI0813266B1 (ja)
ES (1) ES2391234T3 (ja)
FR (1) FR2917872A1 (ja)
WO (1) WO2009007580A2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7832566B2 (en) 2002-05-24 2010-11-16 Biomet Biologics, Llc Method and apparatus for separating and concentrating a component from a multi-component material including macroparticles
US20060278588A1 (en) 2002-05-24 2006-12-14 Woodell-May Jennifer E Apparatus and method for separating and concentrating fluids containing multiple components
US9055293B2 (en) 2008-10-15 2015-06-09 France Telecom Prediction of an image by compensation during forward movement
CN102301714B (zh) * 2009-01-28 2014-01-22 法国电信公司 用于对实施运动补偿的图像序列进行编码和解码的方法、以及对应的编码和解码装置
WO2010086562A1 (fr) 2009-01-28 2010-08-05 France Telecom Procede et dispositif de codage d'images mettant en oeuvre des modes de codage distincts, procede et dispositif de decodage, et programmes d'ordinateur correspondants
US20110243442A1 (en) * 2010-03-31 2011-10-06 Agrawal Amit K Video Camera for Acquiring Images with Varying Spatio-Temporal Resolutions
US9319578B2 (en) 2012-10-24 2016-04-19 Alcatel Lucent Resolution and focus enhancement
US8644376B2 (en) 2010-09-30 2014-02-04 Alcatel Lucent Apparatus and method for generating compressive measurements of video using spatial and temporal integration
US8929456B2 (en) * 2010-09-30 2015-01-06 Alcatel Lucent Video coding using compressive measurements
US9344736B2 (en) 2010-09-30 2016-05-17 Alcatel Lucent Systems and methods for compressive sense imaging
US9634690B2 (en) 2010-09-30 2017-04-25 Alcatel Lucent Method and apparatus for arbitrary resolution video coding using compressive sampling measurements
US9398310B2 (en) 2011-07-14 2016-07-19 Alcatel Lucent Method and apparatus for super-resolution video coding using compressive sampling measurements
US9563806B2 (en) 2013-12-20 2017-02-07 Alcatel Lucent Methods and apparatuses for detecting anomalies using transform based compressed sensing matrices
US9600899B2 (en) 2013-12-20 2017-03-21 Alcatel Lucent Methods and apparatuses for detecting anomalies in the compressed sensing domain
US9894324B2 (en) 2014-07-15 2018-02-13 Alcatel-Lucent Usa Inc. Method and system for modifying compressive sensing block sizes for video monitoring using distance information
US10165300B2 (en) * 2016-10-28 2018-12-25 Blackberry Limited 3D transform and inter prediction for video coding
FR3075540A1 (fr) * 2017-12-15 2019-06-21 Orange Procedes et dispositifs de codage et de decodage d'une sequence video multi-vues representative d'une video omnidirectionnelle.

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0625853B1 (en) * 1993-05-21 1999-03-03 Nippon Telegraph And Telephone Corporation Moving image encoder and decoder
JPH0746595A (ja) * 1993-05-21 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化器および復号化器
US5923786A (en) * 1995-07-17 1999-07-13 Sony Corporation Method and device for encoding and decoding moving images
US6990248B2 (en) * 1996-05-09 2006-01-24 Koninklijke Philips Electronics N.V. Segmented video coding and decoding method and system
US5936671A (en) * 1996-07-02 1999-08-10 Sharp Laboratories Of America, Inc. Object-based video processing using forward-tracking 2-D mesh layers
AU1941797A (en) * 1997-03-17 1998-10-12 Mitsubishi Denki Kabushiki Kaisha Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system
AU4468000A (en) * 1999-04-17 2000-11-02 Pulsent Corporation Method and apparatus for efficient video processing
US6985526B2 (en) * 1999-12-28 2006-01-10 Koninklijke Philips Electronics N.V. SNR scalable video encoding method and corresponding decoding method
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US8165205B2 (en) * 2005-09-16 2012-04-24 Sony Corporation Natural shaped regions for motion compensation
EP2157800B1 (en) * 2008-08-21 2012-04-18 Vestel Elektronik Sanayi ve Ticaret A.S. Method and apparatus for increasing the frame rate of a video signal

Also Published As

Publication number Publication date
CN101790888B (zh) 2013-03-13
EP2172024A2 (fr) 2010-04-07
WO2009007580A3 (fr) 2009-03-19
BRPI0813266A2 (pt) 2014-12-30
WO2009007580A2 (fr) 2009-01-15
US8588292B2 (en) 2013-11-19
FR2917872A1 (fr) 2008-12-26
EP2172024B1 (fr) 2012-07-11
US20100189172A1 (en) 2010-07-29
CN101790888A (zh) 2010-07-28
ES2391234T3 (es) 2012-11-22
JP2010532612A (ja) 2010-10-07
BRPI0813266B1 (pt) 2020-09-15

Similar Documents

Publication Publication Date Title
JP5358568B2 (ja) モーションチューブを用いて表現される画像シーケンスを符号化および復号化する方法、装置、コンピュータプログラム製品、信号
RU2769146C1 (ru) Способ и устройство для обработки сигналов видео с использованием интер-предсказания
JP6100833B2 (ja) 多視点信号コーデック
US8229233B2 (en) Method and apparatus for estimating and compensating spatiotemporal motion of image
TW201911869A (zh) 全方位視訊之解碼方法、編碼方法及電子設備
JP5466700B2 (ja) 時間予測を実施する画像シーケンスの符号化方法及び装置と、対応する信号、データ記憶媒体、復号化方法及び装置、コンピュータプロダクト製品
KR20140021952A (ko) 멀티뷰 비디오 시퀀스 코딩을 위한 적응형 프레임 예측 방법
JP2009105894A (ja) 参照映像を用いた深さ映像生成方法およびその装置、生成された深さ映像を符号化/復号化する方法およびそのためのエンコーダ/デコーダ、並びに前記方法によって生成される映像を記録する記録媒体
KR20060043115A (ko) 베이스 레이어를 이용하는 영상신호의 엔코딩/디코딩 방법및 장치
JP2023052767A (ja) 映像処理方法及び符号化器
JP3891578B2 (ja) 映像ブロック分割方法及びその装置
CN103609111A (zh) 用于使用预滤波的层间预测的视频编码的方法和设备,以及用于使用后滤波的层间预测的视频解码的方法和设备
JP2015526008A (ja) 少なくとも1つの第2の画像成分の参照ブロックに対して第1の画像成分の現在ブロックを符号化するための方法、符号化装置および対応するコンピュータプログラム
CN115514972A (zh) 视频编解码的方法、装置、电子设备及存储介质
JP6911912B2 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
CN105103546A (zh) 编码多个输入图像的方法及装置、存放程序的存储介质
WO2014048242A1 (zh) 预测图像生成方法和装置
JP6936448B2 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
KR100996364B1 (ko) 동영상 압축을 위한 서브샘플링기반 화면내 예측 부호화/복호화 장치 및 방법
JP2020005201A (ja) 送信装置及び受信装置
JP2022525210A (ja) マルチビュービデオシーケンスをコード化および復号化するための方法およびデバイス
JP2021507593A (ja) 全方位ビデオを表すマルチビュービデオシーケンスを符号化及び復号化する方法及びデバイス
JP6882564B2 (ja) 符号化装置、復号方法
JPH11196415A (ja) 適応的にボーダーリングする形状情報符号化/復号化装置および方法
JP2013211777A (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121023

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130710

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5358568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250