JP2011505756A - 時間的画像検出 - Google Patents

時間的画像検出 Download PDF

Info

Publication number
JP2011505756A
JP2011505756A JP2010536084A JP2010536084A JP2011505756A JP 2011505756 A JP2011505756 A JP 2011505756A JP 2010536084 A JP2010536084 A JP 2010536084A JP 2010536084 A JP2010536084 A JP 2010536084A JP 2011505756 A JP2011505756 A JP 2011505756A
Authority
JP
Japan
Prior art keywords
frame
motion
frames
prediction
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010536084A
Other languages
English (en)
Other versions
JP2011505756A5 (ja
Inventor
オーリック、クリストファー・ジェイ
ウェブ、リチャード
ミラー、スコット
シールズ、ジェローム・ディー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2011505756A publication Critical patent/JP2011505756A/ja
Publication of JP2011505756A5 publication Critical patent/JP2011505756A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオシーケンスフレームのセット中の基準フレームとして連続的に機能するフレームに対して、モーション推定のセットをアクセスさせる。1つのモーション推定は、フレームのセット中の他のフレームに関して時間的に移動させた、フレームのセットの領域に関する基準フレームの各領域のピクセル関連付けたモーションを特徴付ける。付加的なモーション推定は、フレームのセットの1つのフレームとその他のフレームから時間的に移動させた、フレームのセットの2番目のフレームに関連する基準フレームの各領域のピクセルと関連付けたモーションを特徴付ける。前記最初のモーション推定と付加的なモーション推定とに対応して、前記フレームのセット全体にわたる整列した基準フレームに基づいて、時間的画像予測のセットを予測する。時間的画像予測を融合して、この融合に基づいて、前記フレームセット全体にわたって時間的予測基準を生成する。

Description

本発明は、一般的にはビデオ処理に関する。さらに詳細には、本発明の実施の形態は画像の時間的な予測に関する。
動画シーケンスに複数の連続的なフレームが含まれることがある。現代の画像処理アプリケーションでは、動画シーケンスの画像中にモーション(動き)の推定を用いる。ここで使われている、用語「モーション推定」及び「モーションの推定」は、モーションのそのような推定を示す。モーション推定には、動画シーケンスのフレームのセグメント中のフレーム間のモーションを記述するパラメータが含まれる。
画像処理アプリケーションは、動画シーケンスの画像フレームの種々の領域に関連付けられたモーションを推定することができる。アプリケーションには、種々の情報が蓄えられ伝達される(例えば、エンコードされ、伝達され、受信され、そしてデコードされる)、データの量を減少させることに関するビデオ圧縮を含むこと又は伴うことができる。
モーション推定は、ビデオ圧縮アプリケーションにおいて動画シーケンス中の画像フレームを表示するために必要なデータを著しく減少させる技術である。アプリケーションでは、動画シーケンスの1つのフレームから他の1つへ、各フレーム内の画像領域の並進運動のモーション又は他のモーションで、マッピングを試みることができる。例えば、基準フレーム「A」と、フレームAから続くフレーム「B]への画像のモーションを記述するモーションマッピングとが与えられると、フレームAからのモーションマッピングを予測することによりモーション予測フレームBを形成することができる。フレームBからモーション予測フレームBを減算することにより差分フレームBを作ることができる。
モーションマッピング及び差分フレームBの両方をエンコードするのに必要なデータの量がフレームBを直接エンコードするのに必要な量より小さい場合、圧縮が行われる。従って、アプリケーションは、フレームBと相対的に少ししか違わないモーション予測フレームBをもたらすモーションマッピングを探求することができる。圧縮に関する目的で、動画シーケンスの画像の外観の実際のモーションを表現するモーションマッピングの精度は、最初に考慮すべきことではないかもしれない。言い換えれば、圧縮を達成するとの観点からは、所定のモーションマッピングにより、モーションマッピング及び差分フレームBを権コードするのに必要なデータ量を単純に減少させれば十分であるかもしれない。
モーションの推定に用いられるアプリケーションは、動画シーケンスの複数のフレームのそれぞれに現れる画像の外観をある基準に対して整列させることができる。画像の外観が現れる各フレームの領域はモーション推定に従って動かされる。結果として生じた画像の外観を整列させた領域を、例えば公式に従って、融合することができる。正確なモーションの推定は、動画シーケンスの種々のフレームの間で外観を整列させた領域を正確に配置する上で重要である。
本発明を例示として説明するものであって、限定するものではない。添付図における形状について、類似の参照番号は、類似の構成要素を示す。
本発明の一実施の形態による、例示的な手順のフロー線図を示す。 本発明の一実施の形態による、例示的なシステムを示す。 本発明の一実施の形態による、例示的なシステム構成要素を示す。 本発明の一実施の形態による、例示的な動作を示す。 本発明の一実施の形態による、例示的なシステム構成要素を示す。 本発明の実施の形態を組み込むことができる例示的なコンピュータシステムのプラットフォームを示す。
モーション推定は、画像処理の予測及びモーション補償画像処理の速度を上げるアプリケーションにとって意義深いものとなることがある。時間的な画像予測及びモーション補償処理は、民生用として、商業用として、工業用として、医療用として、研究用として、調査用として、及び他の分野で用いられる、電子的ビデオ装置において重要となることがある。このような装置には、これらに限定されるわけではないが、テレビジョン、デジタル多用途ディスク(DVD)及びブルーレイディスク(BD)やHD−DVDのような光学的にエンコードされた媒体、グラフィックディスプレー、ケーブル、中継基地や関連する受信器、チューナーその他、医学的、科学的及び他の画像処理システム、及びHDTVのような高解像度(HD)媒体を含むことができる。
加えて、時間的画像予測及びモーション補償処理は、より「専門的な」設定と、他の技術に厳しい設定を行う点で重要である。このような専門的で技術的に厳しい設定には、これらに限定されるわけではないが、例えばコンテンツの創作中に、標準定義の素材をアップコンバージョンするような放送局の操作及び設定を行うことが含まれる。しかしモーション推定は、アプリケーション、装置、及び専門的な設定における最適な使用に十分な精度が無いことがある。
時間的画像予測をここに記載する。以下の説明において、説明目的のために多くの詳細な説明を本発明を十分理解してもらうために述べる。しかしながら、本発明はこれらの具体的説明なしで実施することができることは明らかであろう。一方、よく知られた構成及び装置については、発明を不必要に不明瞭にしたり、わかりにくくさせたり、混乱させたりすることをさけるために、完全に詳細まで記述することはしない。
(概要)
ビデオシーケンスの画像が処理される。ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに、モーション推定のセットがアクセスする。モーション推定のセットには、基準フレームの各領域に第1のモーション推定が含まれる。第1のモーション推定により、少なくとも1つのフレームがフレームセットの他のフレームに関する時間内で移動する、フレームセットの少なくとも1つの領域に関する基準フレームの領域の各ピクセルに関連するモーションが特徴づけられる。モーション推定のセットには、少なくとも1つの付加的なモーション推定も含まれる。この少なくとも1つの付加的なモーション推定は、フレームセットの少なくとも2番目のフレームの領域に関する基準フレームの各領域のピクセルに関連付けられるモーションを特徴付け、フレームセット中で少なくとも2番目のフレームは、他のフレームから少なくとも1つのフレームからの時間内で移動する。第1のそして少なくとも1つの付加的なモーション推定に対応する時間的な画像予測が予測される。時間的な画像予測のセットは、フレームセット全体にわたる基準フレームにおける領域の配列構造に基づく。時間的な画像予測のセットは融合される。時間的な画像予測のセットの融合に基づき、時間的予測基準がフレームセット全体にわたって生成される。
ここに記載の例示的実施の形態は時間的な画像予測に関する。例示的な実施の形態において、ビデオシーケンスの画像が処理される。ビデオシーケンスのフレームのセット内の基準フレームとして連続的に機能する1以上のフレームに、モーション推定のセットがアクセスする。モーション推定のセットには、基準フレームの各領域に対する第1のモーション推定が含まれる。この第1のモーション推定は、フレームセットの少なくとも1つのフレームの領域に関する基準フレームの各領域のピクセルに関連付けられるモーションを特徴付け、フレームセット中で、少なくとも1つのフレームはフレームセットの他のフレーム関する時間内で移動する。モーション推定のセットには、少なくとも1つの付加的なモーション推定も含まれる。この少なくとも1つの付加的なモーション推定は、フレームセットの少なくとも2番目のフレームの領域に関する基準フレームの各領域のピクセルに関連付けられるモーションを特徴付け、フレームセット中で少なくとも2番目のフレームは、他のフレームから少なくとも1つのフレームからの時間内で移動する。第1のそして少なくとも1つの付加的なモーション推定に対応する時間的な画像予測が予測される。時間的な画像予測のセットは、フレームセット全体にわたる基準フレームにおける領域の整列に基づく。時間的な画像予測のセットは融合される。時間的な画像予測のセットの融合に基づき、時間的予測基準がフレームセット全体にわたって生成される。
ビデオシーケンスに対して生成し仕上げの終わった時間的な予測は出力を具備する。1つの実施の形態において、空間的な予測も、現在の機能的な基準フレームのそれぞれから生成することができる。空間的予測を時間的予測と結合し空間的・時間的予測基準を生成することができ、これは代替的又は付加的に出力を具備することができる。融合して時間的予測基準の出力又は空間的・時間的予測基準の出力は、仕上げの終わった出力を具備することができる。
融合した時間的予測基準及び/又は空間的・時間的予測基準の出力は、1以上のビデオアプリケーションに提供される。ビデオアプリケーションは、時間的予測基準又は空間的・時間的予測基準を多くの目的に用いることができる。
ビデオシーケンス(例えばビデオストリーム)及びモーション推定のセットは、例えば記憶媒体から受け取られ又はアクセスすることができる。モーション推定のセットには、単一又は複数の情報源がアクセスすることができる。この情報源には、モーションの推定源、圧縮したモーション推定の源、空間的に正確なモーション推定の源、及び/又は、動画シーケンスの複数のフレームのそれぞれに生じる1以上のが像の外観を、基準フレームに対して本質的に整列させるモーション推定の源を実質的に含むことができる。
種々のモーション推定を本発明の実施の形態と共に用いることができる。モーション推定は、ビデオシーケンスの1以上のフレーム間で1以上の領域と関連付けることができる並進運動のモーションを記述する直交関係にある1対のベクトル成分を含むことができる。モーション推定は、前記ビデオシーケンスの1以上のフレーム間で1以上の領域と関連付けることができる回転運動のモーションを記述する角度成分を含むこともできる。さらに、モーション推定は、ビデオシーケンス中の複雑な又は手の込んだモーションを記述する、付加的なパラメータを含むことができる。例えば、モーション推定は、前記シーケンスの1以上のフレーム間で1以上の領域と関連付けることができる歪みやずれのようなアフィンモーションを記述する6以上のマッピングパラメータを含むことができる。
例示的な実施の形態の説明において、ブロックを、ここでは、フレーム領域の例として用いることがある。同様に、並進運動のモーションを、ここでは、モーションの記述の一例として用いることがある。原則として、そして、単に簡単化、単一化、明確化、及び/又はここにおける記述を短くするために、ブロックをフレーム領域の例として用いることがあり、並進運動のモーションをフレームセット全体の属性であるモーションの一例として用いることがある。しかしながら、ブロック及び並進運動のモーションが、ここで、一例として使われたとしても、このような用い方に限定されるものではないことは明確に了解されるべきである。逆に、本発明の実施の形態は、フレーム領域の関数、及びそれぞれの属性又は説明の仮想的なモーションの属性によく適合している。
1つの実施の形態において、1以上の時間的な画像予測が補間される。これらの時間的な画像予測は、フレームセットの少なくとも1つのフレームの領域に関する基準フレームのピクセルのモーションに関連する。時間的な画像予測は、部分ピクセル位相精度で補間される。時間的なが双予測は、フラクショナルピクセル位相精度(fractional pixel phase accuracy)により補間される。この補間に基づき、補間に基づく重み付けが時間的な予測に割り当てられる。時間的な画像予測のセットを融合させることは、重み付けに基づく割り付けられた補間に、少なくとも部分的に基づく時間的な最終予測の計算に含むことができる。
1つの実施の形態において、モーション推定のそれぞれについての精度が推定される。モーション推定に関する精度に基づき、制度に基づく重み付けが割り当てられる。時間的な画像予測のセットを融合させることには、少なくとも部分的には、割り当てられた精度に基づく重み付けに基づき最終の時間的な画像予測を計算することが含まれる。
1つの実施の形態において、ノイズ成分をビデオ画像の圧縮に関連させることができる。ビデオ画像に関連する圧縮ノイズに関する推定を受信することができる。圧縮ノイズに基づく重み付けを、推定したノイズ成分に基づいて、モーション推定の各々に割り当てることができる。時間的な画像予測のセットを融合させることには、少なくとも部分的には、圧縮ノイズに基づく重み付けに基づき最終の時間的な画像予測を計算することが含まれる。
1つの実施の形態において、空間的な予測を、基準フレームの各領域で計算する。従って、時間的な画像予測のセットを融合させることには、多数の時間的予測と空間的な予測とを融合することを含めることができる。従って、例えば、最終的な出力予測としての、ビデオ画像の空間的・時間的予測が生成される。
関連する実施の形態において、空間的な予測に関連する精度を推定する。この空間的な予測に関連する精度に基づき、空間的な予測精度に基づく重み付けが空間的な予測に割り当てられる。従って、時間的な画像予測のセットの融合させることは、少なくとも部分的には、空間的な予測精度に基づく重み付けに基づいてもよい。
1つの実施の形態において、コンピュータシステムは、上述の1以上の特徴を実行することができる。コンピュータシステムには、1以上のプロセッサが含まれ、上述の1以上の特徴を実行するために、ハードウェア、ソフトウェア、ファームウェア、及び/又はこれらの組み合わせた機能を有することができる。コンピュータシステムのプロセッサ及び/又はその他の構成要素は、1以上のコンピュータ読取可能記憶媒体でエンコードすることができ及び/又はコンピュータシステムが受け取った、コンピュータで読取可能なそしてコンピュータで実行可能な命令に従い、上述の特徴を実行する機能をもつ。
1つの実施の形態において、ハードウェア、ソフトウェア、ファームウェア、及び/又はこれらの組み合わせを含み、コンピュータプラットフォームで動作することのできる、デコーダで、上述の1以上の特徴を実行する。
(例示的手順)
ここに記載の例示的手順は、時間的な画像予測に関して行うことができる。実施の形態に組み込むことのできる手順は、ここに示した例示的なステップ及び/又は例示的な手順とは異なる順序で行うステップより多くのステップ又は少ないステップで行うことができる。この例示的手順は、1以上のコンピュータシステム、例えば、1以上のコンピュータ読み取り可能記憶媒体にエンコードされた、機械で読み取ることのできる命令の制御下で実行することができ、又は、特定用途向け集積回路(ASIC)又はプログラマブルIC装置により実行することができる。
本発明の実施の形態による例示的手順のフロー線図を示す。手順100は、ビデオシーケンスの画像の処理における時間的な画像予測を実行する。ステップ101にて、ビデオシーケンスのフレームのセットにおける基準フレームとして連続的に機能する1以上のフレームに、モーション推定(ME)のセットがアクセスする。モーション推定のセットは、圧縮したビデオストリームと共に受け取り、又は圧縮したビデオシーケンスのデコーディングに組み込み、記憶媒体から取り出すことができる。いくつかのモーション推定はセットを有することができる。モーション推定のセットは、直接モーションの推定を行うことも含めて、他の源(圧縮したビデオシーケンス/ビットストリーム以外の源)から入手することもできる。
モーション推定のセットには、基準フレームの各領域に対する第1のモーション推定が含まれる。第1のモーション推定は、フレームセットの少なくとも1つのフレームの領域に関する基準フレームの各領域のピクセルに関係付けられたモーションを特徴づける。ここで、この少なくとも1つのフレームは、フレームセットの他のフレームに対して時間的に動かされる。モーション推定のセットには、少なくとも1つの付加的なモーション推定が含まれる。この少なくとも1つの付加的なモーション推定は、フレームセットの少なくとも1つの2番目のフレームの領域に関する基準フレームの各領域のピクセルに関係付けられたモーションを特徴づける。ここで、この少なくとも1つの2番目のフレームは、少なくとも1つのフレームから及びフレームセットの他のフレームから時間的に動かされる。
ステップ102にて、ブロック又は基準フレームの他の領域は、フレームセットの少なくとも1つの対応する領域に対して整列される。この領域は、2008年11月21日に、表題「モーション推定の時間的平滑化」としてJerome D. Shields及びChristopher J. Orlickにより出願されたPCT出願番号(現時点では未定)に記載された技術により整列することができる。なおこの出願は参照としてここにそのすべてを組み込む。
領域の整列に基づき、時間的な画像予測のセットをステップ103で予測する。セット中の時間的な画像予測の各々はフレームセット中のフレームに対応する。
ブロック104にて、ビデオシーケンスの基準フレームに対して、空間的な予測を計算することができる。この空間的な予測に関する精度を推定することができる。
ブロック105にて、各推定に対する重み付けが割り当てられる。例えば、推定した精度に基づき空間的な予測に重み付けが割り当てられる。さらに、時間的な画像予測に重み付けを加えることができる。例えば、正確さの値はモーション推定の各々に関連付けることができる。さらに、ビデオシーケンスの圧縮にノイズを関連付けることができる。圧縮ノイズの成分は、デコードしたビデオシーケンスと共に推定あるいは受け取ることができる。圧縮ノイズの成分の値に基づき、重み付けを時間的な画像予測の各々に割り当てることができる。他の例として、フレームセットの少なくとも1つのフレームの領域に関連する基準フレームのピクセルのモーションに関する値は、時間的な画像予測の補間に用いることができ、フラクショナルピクセル位相値を含むことができる。フラクショナルピクセル補間に基づく重み付けは、現在のフレームのピクセルに関連する時間的な画像予測に割り当てることができる。
ステップ106にて、空間的な予測と一緒に時間的な予測を融合させる。ブロック107にて、融合した時間的な画像予測に基づき、ビデオシーケンスのフレームに対して、完成された空間的・時間的予測基準を生成する。1つの実施の形態において、空間的な予測が融合した時間的な画像予測と融合させ、ビデオシーケンスのフレームに対して、空間的・時間的予測基準を生成する。
(例示的システム)
図2は、1つの実施の形態による例示的なシステム200を示す。システム200は、時間的な画像予測機能を実行する。例えば、システム200は、図1を参照して上述したような手順100の一部を実行する働きをすることができる。
システム200は、コンピュータシステム及び/又はASIC又はプログラマブルIC装置の1以上の構成要素として作ることができる。システム200は、デコーダ、エンコーダ、専門的なビデオ編集システム及び/又は専門的なビデオ処理システム、科学的、医学的、又は他の画像処理システム、種々のコンピュータ内、通信装置、ネットワーク構成要素、テレビジョン、HD媒体を含む種々のビデオ媒体再生装置中に配置することができる。
システム200は、バッファ203を有する。ビデオシーケンスのフレームのような画像はバッファ203に貯蔵される。バッファ203はフレームをモーション補償ユニット201に提供する。
バッファ203からのビデオシーケンスのフレームとフレームのブロックに関係するモーション推定、精度、及び補間スコアを受信して、及び/又はビデオシーケンスに関連する圧縮ノイズの値と共に、モーション補償ユニット201は、そのフレームの時間的予測を予測する。モーション補償ユニット201は、精度、及び補間スコア及び圧縮ノイズの値に基づき、モーション推定に重み付けを割り当てる働きをする。モーション補償ユニット201は、フレームに対する時間的な予測P、・・・P、及びそれに対応する、割り当てられた重み付けW、・・・Wを、融合ユニット202に提供する。
融合ユニット202は、時間的な予測P、・・・Pを融合させて、完成された時間的予測基準PTにする働きをする。時間的な予測P、・・・Pを融合させて、完成された時間的予測基準PTにするときに、融合ユニット202は、割り当てられた重み付けW、・・・Wを用いることができる。
融合ユニット202は、以下の式1で与えられるような式により、時間的な予測P、・・・Pと割り当てられた重み付けW、・・・Wから、完成された時間的予測基準PTを計算する。
Figure 2011505756
時間的な画像予測機能においてシステム200によって用いられる入力には、元のビデオシーケンス、ビデオシーケンスのフレーム間の相対的なモーションを記述するモーション推定、モーション推定の精度の測度を定めるスコア、及びビデオシーケンス中の圧縮ノイズの推定を含むことができる。システム200の時間的な画像予測機能では、本質的に、モーション補償を行った時間的に近似するフレーム、例えば、各画像の「時間的に隣接するもの」を結合し、それにより、ノイズリダクション、インターレースの解除、及びスケーリング及び/又はアップコンバージョンのようなアプリケーションにおける高品質のビデオ処理を行う。
システム200の時間的な画像予測機能の最初の段階は、モーション推定に基づいて時間的に隣接するものを整列させて、時間的予測基準を生成するためのモーション補償したフィルタリングに関連する。次に、時間的予測基準を融合して完成された時間的予測基準Pを形成する。重み付けの融合は、モーション予測基準の精度を推定するスコア、予測した画像圧縮ノイズ、及びモーション補償フィルタリングに基づく整列により持ち込まれたノイズを含む、種々のデータに基づくことができる。
空間的予測基準204は、バッファ203から基準フレームに関する空間的な情報にアクセスする。空間的予測基準204は、基準フィールド(例えば、フレーム)から空間的な予測を計算する。空間的予測基準とそれに関連づけられた重み付け(例えば、図5を参照して以下に説明したような)及び完成された時間的予測基準Pは、空間的・時間的融合ユニット205に供給される。空間的及び時間的予測基準に対する重み付けは、モーション推定に関するスコアと空間的予測基準の質に関するスコアとに基づく。
ビデオ画像シーケンスにおけるモーションの正確な推定は、時間的な画像予測を行うために用いられる。モーションの推定を目的として、基準フレーム(又は「基準フィールド」又は「ビデオシーケンスの1以上のフレーム」)は垂直ブロックの成分のセットのような領域に分割される。本発明の実施の形態は、事実上どのような構成にも適合する領域を持つ関数によく調和する。ブロックはここではこのような領域の例として用いられる。モーション推定は、他のフレームに関してブロック中のピクセルの動きを最も特徴づける基準フレーム中の各ブロックに対して見つけられる。基準フィールドは多くのモーション推定を有し、各モーション推定は、ブロックといろいろな、例えば、基準フレームと元の他のフレームの両方に関する異なる時間における基準フレームに続く他のフレームとの間のモーションを記述する。
モーション推定には、1以上の様々な源からアクセスすることができる。モーション推定は、直接的なモーションの推定により取得することができる。モーション推定は、これらに限定されるわけではないが、圧縮したモーションベクトル又はその他のモーション推定からの予測、空間的な改良、及びモーション推定にフィルタリングを行うことによる平滑化操作を含む技術を組み合わせて取得することもできる。
時間的予測ユニット201は、他のフレームから複数の時間的な予測を作るためにモーション推定を用いる。図3は、1つの実施の形態による例示的な時間的予測ユニット201を示す。時間的予測ユニット201は、重み付け生成基準302と機能的に結びついた、位相に基づく補間基準301を有する。位相に基づく補間基準301は、画像情報及び他のフィールド(例えば、他のフレーム)の各々のモーション推定からピクセルデータを整列させるためにモーション補償補難フィルターを用いる。補間基準301は、このようにして時間的予測基準として用いられるフラクショナルピクセル位相データのセットを作る。時間的予測基準重み付け関数は、重み付け生成基準302(モーション推定、補間フィルター位相、及び圧縮ノイズに関するスコアと関連づけられた重み付け関数を含む)により、融合する。重み付け生成基準302は、有益な重み付け項目から合成重みを生成する。融合基準202は、合成重みを用いて時間的予測基準のセットを融合させる。
第1の重み付け項目は、モーション推定に関するスコアを具備することができる。スコアは、有用であると仮定され、モーションの推定の精度に基づき予測したデータの精度の推定を行う。スコアは、差分絶対値の総和(SAD)のような、差異に適合する直接ブロック(又は他の領域)とすることができる。スコアが低いことは、よく適合していると解釈することができる。このスコアは、(1/スコア)又は(1/スコア)のような、逆数関係の重みと解釈される。逆数関係は、高いスコア、例えば、時間的予測基準を結合させることによる芳しくない適合、より、低いスコア、例えば、高い重み付けを有する良い適合、に好ましい関係を与える。
モーション推定はサブピクセルモーション精度を有することが期待されること、及び予測出力の位置が、例えば、インターレースの解除及びスケーリング又はアプリケーションのアップコンバージョンが、本質的に、現在のフレームに対して相対的に任意的な位置となることの理由で、補間フィルター位相重み項目を両方に用いる。両方の場合において、補間基準301の補間フィルター機能は基準ピクセルをシフトさせる。実際の基準ピクセルと必要となるサブピクセルの出力位置との間に必要なシフトをここでは位相と称する。ゼロの位相は実質的にシフトがない(ゼロシフト)ことを意味する。一方、最大位相は、原則として2つの基準ピクセル間の空間的フレーム距離の半分に相当する。2つのピクセル間の距離が値Nのとき、最大シフトは実質的にN/2である。
実際の補間フィルターの帯域幅応答は、原則的に、完全ではない。従って、最小又はゼロ位相シフトにより、補間のない、あるいは、位相シフトのないピクセルの出力を生じる。この考え方から、位相シフトのない補間されていない出力ピクセルが最善な可能性となり、ここで、半分のピクセルシフトのある出力ピクセルが少なくとも望ましい。重み付け生成基準302により、補間基準301が予測される出力を生じさせるフィルターの位相に基づいて予測出力Pの各々の重み付けを調整する。例えば、補間位相アプローチN/2だけ、重み付けを減少させる。
当然のことながら、スケーリングするアプリケーション及びインターレースの解除を行うアプリケーションに対して、所定のブロック内の各出力ピクセルは、ブロック中の他のピクセルと同じモーション推定を有するにもかかわらず、一意的な補間位相を持つことができる。従って、位相・重み付けの計算は、必要に応じて、プレピクセルベースで重み付け生成基準302により計算される。
基準フレームの圧縮ノイズ推定からの重み付け項目を、重み付け生成基準302により適用することもできる。高い圧縮ノイズを有する他のフレームは、重み付けを減少させることができる。
各時間的な予測の相対的な精度は、スコア重みの逆数(1/スコア)、水平位相重み及び垂直位相重み(例えば、φWx及びφWy)、及び圧縮ノイズ重みのそれぞれを、例えば、乗算することにより、結合することにより生成される。次いで、時間的な予測のセットが、これらの3つのうちの少なくとも1以上に少なくとも部分的に基づき結合され、完成された時間的な予測Pを生成する。
空間的予測Pは、各出力ピクセルに対して基準フレームから作られる。完成された時間的予測基準P及び空間的予測Pは、システム200(図2)から完成された出力予測を具備する空間的・時間的予測を生成するために重み付けの仕組みを介して、結合される。空間的予測基準のための重み付けの仕組みは、十分な時間的情報が広い範囲で使えないとき、効率的な空間的予測基準の利用をもたらす一意的な測度である。この重み付けの仕組みは、モーション推定が十分であるとき、十分な時間的な寄与をもたらすこともできる。
基準フィールドにおける各空間的予測基準の重み付けにより、空間的予測基準は時間的な予測と結合することが可能となる。空間的予測基準の重みを生成する第1のステップとして、空間的予測「スコア」が計算される。空間的予測スコアは、フレーム領域の所定の区域に対する時間的な画像予測に関連する、空間的予測の質を定量化する。時間的な予測の質は、実際のピクセルデータとモーション推定により示された時間的データとの差に関連する。そこで、実施の形態では、以下のように、時間的な画像予測の相対的な質のスコアを定量化することができる。基準フレーム中の画像が詳細に示されていない区域は、相対的に低い、良好な時間的な予測のスコアと関連づけられることを予測することができる。逆に、基準フレーム中の詳細に示されている区域は、相対的に高いが十分であると考えることができる時間的予測基準のスコアを有する。基準フィールドのスコアは、従って、エネルギーの量又は各ブロック又は他の領域における詳細を特徴づけるために作り出される。1つの実施の形態において、時間的予測基準の質のスコアは、それにより時間的予測基準の質を評価することのできる、スライディングスケールとなる。
図4は、1つの実施の形態による例示的動作400を示す。ブロック又は他の領域内の分散のような測度を、実施の形態によっては用いることができる。時間的な予測スコアと共に比較的厳密に補間する技術は、1つの実施の形態において、SAD410に基づく。シフトしたブロック402に関して、基準ブロック401について、SAD410を計算する。シフトしたブロック402は、本質的に元のブロック401であり、1ピクセル、例えば、各水平「x」及び垂直「y」方向(フレーム401及び402間で示した並進運動モーションに対して)だけシフトする。このシフトは、モーションが各x軸及びy軸に沿って正確に1ピクセル離れたかどうかのモーションの推定のスコアと同等とみなす。当然のことながら、ブロックは、一例としてここに示すものであり発明を限定するものではない。実施の形態は、フレームのどの領域に対してもよく機能する。
直交関係にある単位ピクセルの距離分だけ離れたモーション推定は、原則的に、「おおざっぱに訂正した」モーション推定である。しかし、おおざっぱに訂正したモーション推定は、いくつかのアプリケーションでは十分でない。1つの実施の形態において、この精度の相違が時間的予測基準のスコアを評価する測度となる。基準フィールドのスコアは、かくして、時間的予測及び空間的予測の重み付けに影響を与えるために、増減することができる。1つの実施の形態において、基準フレームは、プレフィルターすることができ、又は、スコアの計算に先立ちノイズを減少させるための処理を行うことができる。これにより、モーション推定のスコアを作るために用いられるSAD計算を正確に近似させることができる。
図5は、1つの実施の形態に従い、時間的・空間的に融合させた成分205を示す。先に説明したとおり、時間的予測基準Pと空間的予測基準Pとは、時間的・空間的出力STを作り出すために、重みW及びWと融合した逆数スコアを用いて、結合される。1つの実施の形態において、時間的・空間的に融合させた成分205は、時間的予測基準Pと空間的予測基準Pとを融合させた重み付けを、以下の式2に従い結合する
Figure 2011505756
最後の出力チェックにおいて、一意的な状況についてのテストのために用いることのできる空間的予測基準と時間的予測基準を比較する。例えば、小さな対象物の速いモーション、又は、ブロック又は他の領域内の複数のモーションのような場合では、出力ピクセルは非常に異なる時間的予測基準と空間的予測基準とを有することがある。このような場合、時間的予測基準はつじつまが合っていても、空間的予測基準には食い違いが生じることがある。このため、ブロック又は他の領域のモーション推定は、それによる影響を受けた出力により、精度が失われることがある。しかし、モーション推定は、そのブロックのピクセルの大部分に対して十分正確かもしれない。このような特殊な場合では、空間的予測基準を出力として選択することができる。
(例示的なコンピュータシステムプラットフォーム)
図6は、本発明の実施の形態を組み込むことのできる例示的なコンピュータシステムプラットフォーム600を示す。コンピュータシステム600には、情報通信のためのバス602又は他の通信機構、及び、情報を処理するためのバス602に接続されたプロセッサ604(1以上のプロセッサを表す場合もある)が含まれる。コンピュータシステム600には、プロセッサ604に実行させるために情報と命令を記憶しバス602に接続されたランダムアクセスメモリ(RAM)又は他のダイナミック記憶装置も含まれる。メインメモリ606は、プロセッサ604が実行する命令を実行するときの一時的な変数や中間的な情報を記憶するためにも用いることができる。コンピュータシステム600にはさらに、プロセッサ604への固定的な情報や命令を記憶させるためにバス602に接続されたリードオンリーメモリ(ROM)608又は固定的な記憶装置が含まれる。磁気ディスクや光学的ディスクのような、情報や命令を記憶するために記憶装置610が設けられバス602に接続される。
コンピュータシステム600は、コンピュータユーザに情報を表示するために、液晶ディスプレイ(LCD)、ブラウン管(CRT)、フラットパネルディスプレイ、その他のモニターのような、ディスプレイ612にバス602経由で接続することができる。英数字キー及びその他のキーを含む入力装置614が、プロセッサ604に情報と命令を通信するために、バス602に接続されている。ユーザ入力装置の他の形式として、マウス、トラックボール、又は、プロセッサ604に命令情報と選択指令を送信する、ディスプレイ612上のカーソルの動きを制御するカーソル命令キーのような、カーソル制御616がある。この入力装置は、一般に、装置に平面上の位置を特定させるために、第1の座標軸(例えば、x)及び第2の座標軸(例えば、y)の2つの軸方向に、2の自由度を持つ。
本発明は、モーション推定の平滑化のためにコンピュータシステム600の使用に関連する。本発明の1つの実施の形態によれば、メインメモリ606中に含まれる1以上の命令の1以上のシーケンスを実行するプロセッサ604に応答して、コンピュータシステム600により、外部から書き換え可能なクエリーがなされる。このような命令は、記憶装置610のような他のコンピュータ読取可能媒体からメインメモリ606に読み込むことができる。メインメモリ606中に含まれる命令のシーケンスを実行することにより、ここに記載したプロセスのステップをプロセッサ604に行わせる。複数処理の構成となる1以上のプロセッサを、メインメモリ606中に含まれる命令のシーケンスを実行するために用いることもできる。代替的な実施の形態において、ハードワイヤードの回路を、本発明を実行するためのソフトウェア命令と組み合わせて、又はソフトウェア命令の代わりに用いることもできる。これにより、本発明の実施の形態は、特定のハードウェア回路とソフトウェアの結合に限定されるものではない。
ここで用いられる用語「コンピュータ読取可能媒体」は、プロセッサ604に実行させるための命令を与えるために使われるあらゆる媒体を意味する。このような媒体は、これらに限定されるわけではないが、不揮発性媒体、揮発性媒体、伝達媒体を含む多くの形態をとることができる。不揮発性媒体には、例えば、記憶装置610のような磁気ディスクや光学的ディスクが含まれる。揮発性媒体には、メインメモリ606のようなダイナミックメモリが含まれる。伝達媒体には、バス602を形成する電線を含む、同軸ケーブル、銅線及び他の導体及び光ファイバが含まれる。伝達媒体は、ラジオデータ通信及び赤外線データ通信において生じるような音響波又は電磁波の形態をとることができる。
コンピュータ読取可能媒体の一般的形式として、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、その他の磁気媒体、CD−ROM、その他の光学的媒体、パンチカード、紙テープ、その他の旧来の穿孔パターによる物理的な媒体、RAM、PROM、及びEPROM、FLASH-EPROM、その他のメモリチップ又はカートリッジ、以下に説明する搬送波、その他のコンピュータで読み取り可能な媒体が挙げられる。
種々の形式のコンピュータ読取可能媒体は、プロセッサ604に実行させるための1以上の命令の1以上のシーケンスの収納に用いることができる。例えば、命令をまず最初に、遠隔のコンピュータの磁気ディスクに収納しておくことができる。遠隔のコンピュータは、ダイナミックメモリに命令をロードし、この命令をモデムを用いて電話線で送ることができる。コンピュータシステム600の近くにあるモデムは、電話線でデータを受け取り、赤外線トランスミッタを用いてデータを赤外線信号に変換することができる。バス602に接続した赤外線検出器は、赤外線信号により搬送されたデータを受信しそのデータをバス602に流す。バス602はメインメモリ606にこのデータを送り、このデータからプロセッサ604は命令を読取って実行する。メインメモリ606が受信した命令は、プロセッサ604が実行する前又は後のいずれかに記憶装置610に格納することもできる。
コンピュータシステム600には、バス602に接続された通信インターフェース618も含まれる。通信インターフェース618は、ローカルネットワーク622に接続されたネットワークリンク620に接続する2方向データ通信を行う。例えば、通信インターフェース618は、統合サービスデジタルネットワーク(ISDN)カード、又はデジタル加入者回線、ケーブル、又は電話線の形式に対応するデータ通信接続を行うその他のモデムとすることができる。他の例として、通信インターフェース618は、LANと互換性のあるデータ通信接続を行うローカルエリアネットワーク(LAN)カードとすることができる。無線リンクを組み込むことも可能である。このような実施の形態のいずれにおいても通信インターフェース618は、種々の形式の情報を表すデジタルデータストリームを運ぶ電気的信号、電子的信号、又は光学的信号を送信及び受信する。
ネットワークリンク620は、通常、他のデータ装置に1以上のネットワークを介してデータ通信を行う。例えば、ネットワークリンク620は、ローカルネットワーク622を介してホストコンピュータ624、又は、インターネットサービスプロバイダ(ISP)626が運営するデータ装置への接続を行うことができる。一方、ISP626は、今では一般に“インターネット”と呼ばれる、世界的なパケットデータ通信ネットワークを介してデータ通信サービスを提供する。ローカルネットワーク622及びインターネット628はどちらも、デジタルデータストリームを運ぶ電気的、電磁的、又は光学的信号を用いる。デジタルデータをコンピュータシステム600に運びコンピュータシステム600から受け取る、種々のネットワークを通る信号、及びネットワークリンク820上の及び通信インターフェース618を通る信号は、情報を伝送する典型的な搬送波の形式となる。
コンピュータシステム600は、ネットワーク、ネットワークリンク620、及び通信インターフェース618を介して、プログラムコードを含むメッセージを送ることができ、データを受け取ることができる。インターネットの例では、サーバー630は、インターネット628、ISP626、ローカルネットワーク622、及び通信インターフェース618を介してアプリケーションプログラムの要求コードを伝送することができる。本発明によれば、このようなダウンロードされたアプリケーションは、ここに記載したような、モーション推定の時間的平滑化のためのアプリケーションを提供する。
受け取ったコードは、受け取ったときにプロセッサ604で実行することができ、及び/又は記憶装置610に格納すること又は、後で実行するために他の不揮発性記憶装置に格納することができる。このようにして、コンピュータシステム600は、搬送波の形でアプリケーションコードを入手することができる。
コンピュータシステム600は、電子装置のプラットフォームであり、又は電子装置と共に配置され、又は電子装置の1つの構成要素として実行される。コンピュータシステム600と共に動作する装置又は設備には、これらに限定されるわけではないが、TV又はHDTV、又は、他の光学的にエンコードされた媒体のBDプレーヤー又はプレーヤーアプリケーション、又は、エンコードされた磁気記憶媒体、ソリッドステート記憶媒体(例えばフラッシュメモリ)又はその他の記憶媒体、オーディオ/ビジュアル(A/V)受信器、メディアサーバー(例えば、中央集中化された個人的メディアサーバー)、医学的画像処理システム、科学的画像処理システム、又は他の科学的画像処理システム、専門的なビデオ編集及び/又は処理システム、ワークステーションコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、ハンドヘルドコンピュータ又は他のコンピュータ、ネットワーク通信装置及び/又は携帯電話のような計算装置、携帯情報端末(PDA)、携帯エンターテインメント装置、携帯ゲーム装置、又はその類を含むことができる。コンピュータシステム600の特徴の1つ以上は、その特徴を実行するよう構成した集積回路(IC)装置に組み込むことができる。ICは、特定用途向け集積回路(ASIC)及び/又は、フィールド・プログラマブル・ゲート・アレー(FPGA)、又はマイクロコントローラーのような、プログラマブルIC装置とすることができる。
(実施例)
1つの実施の形態における方法は、1以上の命令のシーケンスを伝達するコンピュータ読取可能媒体であって、該命令は、1以上のプロセッサに実行させたとき、該1以上のプロセッサに、ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに対して、前記フレームセットの少なくとも1つのフレームの領域に関連する基準フレームの各領域のピクセルに関係付けられたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、前記少なくとも1つのフレームは、前記フレームセットの他のフレームに対して時間的に移動することを特徴とする、モーション推定と、前記フレームセットの少なくとも2番目のフレームの領域に関連する基準フレームの各領域のピクセルに関係付けられたモーションを特徴付ける少なくとも1つの付加的なモーション推定であって、前記少なくとも2番目のフレームは、前記フレームセットの少なくとも1つのフレームから及び前記フレームセットの他のフレームから時間的に移動することを特徴とする、モーション推定と、を具備する、モーション推定のセットにアクセスするステップと、前記第1のモーション推定と前記少なくとも1つの付加的なモーション推定に対応するフレームセットについての前記基準フレーム中の領域の整列に基づき、前記フレームセットについて時間的な画像予測を行うステップと、時間的な画像予測のセットを融合するステップと、前記融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成するステップと、を実行させる。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、1以上のビデオアプリケーションに対する時間的予測基準を提供するステップをさらに具備する。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、前記基準フレームのピクセルのモーションに関連付けた少なくとも1つの値と前記少なくとも2番目のフレームとを補間するステップであって、該少なくとも1つの値にはフラクショナルピクセル位相値が含まれていることを特徴とするステップと、該補間するステップに基づき、前記1以上のフレームの少なくとも1つのピクセルに関連付けたモーション推定に、補間に基づく重み付けを割り当てるステップとをさらに具備し、前記融合するステップは、少なくとも部分的には、前記割り当てた補間に基づく重み付けに基づく前記時間的な予測を計算するステップを具備することを特徴とする。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、各モーション推定に関連付けた精度を推定するステップと、関連付けた該推定に基づき、各モーション推定に精度に基づく重み付けを割り当てるステップとをさらに具備し、前記融合するステップは、少なくとも部分的には、前記割り当てた補間に基づく重み付けに基づく前記時間的な予測を計算するステップを具備することを特徴とする。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、ビデオ画像シーケンス中の各フレームの圧縮に関連付けた推定ノイズ成分に基づき、圧縮ノイズに基づく重み付けを前記各モーション推定に割り当てるステップをさらに具備し、前記前記融合するステップは、少なくとも部分的には、圧縮ノイズに基づく重み付けに基づく、完成された時間的予測を計算するステップを具備することを特徴とする。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、推定した圧縮ノイズ成分を推定するステップ、又は、この推定した圧縮ノイズ成分を受け取るステップをさらに具備する。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、ビデオストリーム及びモーション推定のセットを受け取るステップをさらに具備する。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、1以上のフレームのデータの補間に基づいて、1以上のフレームのそれぞれの空間的予測を計算するステップと、ビデオシーケンスに対応する空間的・時間的予測を生成するために前記空間的予測と複数の時間的な予測とを融合するステップとをさらに具備する。
1つの実施の形態における方法又はコンピュータ読取可能媒体は、前記空間的予測に関する精度を推定するステップと、その精度に基づき、空間的予測精度基準の重み付けを前記空間的予測に割り当てるステップとをさらに具備し、前記空間的予測と時間的予測とを融合するステップは、少なくとも部分的には、前記空間的予測精度基準の重み付けに基づくことを特徴とする。
1つの実施の形態における方法又はコンピュータ読取可能媒体において、前記モーション推定の各々は複数の値を具備し、該複数の値は、前記セグメントの1以上のフレーム間の1以上の領域に関する並進運動のモーションを記述する直交関係にある1対のベクトル成分、又は、前記セグメントの1以上のフレーム間の1以上の領域に関する回転運動のモーションを記述する角度成分、又は、前記セグメントの1以上のフレーム間の1以上の領域にアフィンモーションを記述する少なくとも6個のマッピングパラメータのうちの少なくとも1つを具備する。
1つの実施の形態における方法又はコンピュータ読取可能媒体において、前記アクセスするステップは、1以上の源からモーション推定を選択するステップを具備し、該源は、実質的に直接モーションの推定を行う源、又は、圧縮したモーション推定の源、又は、空間的に精密なモーション推定の源、又は、前記動画ビデオシーケンスの複数のフレームの各々に現れる1以上の画像の外観を基準フレームに対して基本的に整列させるモーション推定の源を具備する。
1つの実施の形態におけるシステムは、バスと、該バスに接続されたプロセッサと、該バスに接続され、少なくとも1つのプロセッサにより実行させると、該少なくとも1つのプロセッサに、前記ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに対して、モーション推定のセットにアクセスするステップであって、該モーション推定のセットには、前記フレームセットの少なくとも1つのフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、該少なくとも1つのフレームは、前記フレームセットの他のフレームに関して時間的に移動させられることを特徴とする第1のモーション推定と、前記フレームセットの少なくとも2番目のフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける少なくとも1つの付加的なモーション推定であって、該少なくとも2番目のフレームは、少なくとも1つのフレームから及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする付加的なモーション推定と、が含まれることを特徴とする、モーション推定のセットにアクセスするステップと、前記第1のモーション推定と前記少なくとも1つの付加的なモーション推定とに対応する、フレームセット全体にわたる基準フレーム内における領域の整列に基づいて、前記フレームセット全体にわたる時間的な画像予測のセットを予測するステップと、該画像予測のセットを融合するステップと、該融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成するステップと、からなるステップを実行させる命令の1以上のシーケンスを有するコンピュータ読取可能媒体と、を具備することを特徴とする。
1つの実施の形態におけるシステムは、前記少なくとも1つのプロセッサと関連付けたバッファを具備し、該バッファは、時間的に意味のある順序でビデオシーケンスのフレームを連続的に貯蔵し、前記少なくとも1つのプロセッサは、前記バッファにおけるビデオシーケンスのフレームにアクセスすることを特徴とする。
1つの実施の形態におけるシステムにおいて、前記命令は、少なくとも1つのプロセッサに、時間的な予測ユニットを機能的に構成させ、該予測ユニットは、整列するステップ及び予測するステップを実行するよう構成された補間基準であって、該補間基準には、前記基準フレームのピクセルのモーションに関連付けた少なくとも1つの値と、前記少なくとも2番目のフレームとを補完するための、値の補間基準が含まれ、前記少なくとも1つの値にはフラクショナルピクセル位相値が含まれていることを特徴とする、補間基準と、 重み付け生成基準であって、該重み付け生成基準は、時間的な予測の精度、又は、前記ビデオ画像の圧縮と関連付けた推定ノイズ成分、又は、前記基準フレームと前記少なくとも2番目のフレームのピクセルのモーションと関連付けた補間であって、該補間はフラクショナルピクセル位相値を含むことを特徴とする補間、のうちの少なくとも1つに基づくモーション推定の各々に1つ以上の重み付けを割り当てるよう構成されていることを特徴とする重み付け生成基準と、を具備することを特徴とする。
1つの実施の形態におけるシステムは、前記複数のフレームの各々の画像領域の各々に関連付けた空間的予測のセットを予測するための空間的予測基準をさらに具備する。
1つの実施の形態におけるシステムでは、前記空間的予測基準は、前記空間的予測の精度に基づいて、前記空間的予測の各々に重み付けを割り当てることを特徴とする。
1つの実施の形態におけるシステムでは、前記命令は、少なくとも1つの予測融合基準のうちの少なくとも1つが、少なくとも1つの処理機能の融合を実行し処理関数を生成するような少なくとも1つの予測融合基準を少なくとも1つのプロセッサに構成させ、該少なくとも1つの予測融合基準は、時間的な画像予測のセットと空間的な画像予測セットの各予測に対応する精度の質を計算するための領域スコア計算基準と、1以上の融合基準であって、1以上の空間的予測と、複数の時間的な予測を融合するステップであって、該融合は、前記1以上の空間的予測と、複数の時間的な予測の各々に関連付けた精度の質に基づくことを特徴とするステップと、前記融合に基づいて、1以上の前記ビデオシーケンスに対応する完成された時間的な予測又は空間的・時間的予測を生成するステップと、を具備することを特徴とする1以上の融合基準と、を具備する。
1つの実施の形態における装置は、ビデオシーケンスを処理するために構成した少なくとも1つのプロセッサであって、該処理は、前記ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに対して、前記フレームセットの少なくとも1つのフレームの領域に関する基準フレームの各領域のピクセルに関連付けたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、前記少なくとも1つのフレームは前記フレームセットの他のフレームに関する時間を移動させられることを特徴とする、第1のモーション推定と、前記フレームセットの少なくとも2番目のフレームの領域に関する基準フレームの各領域のピクセルに関連付けたモーションを特徴付ける少なくとも1つの付加的なモーション推定であって、前記少なくとも2番目のフレームは前記少なくとも1つのフレーム及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする、少なくとも1つの付加的なモーション推定と、を含むモーション推定のセットにアクセスするステップと、第1のモーション推定及び少なくとも1つの付加的なモーション推定に対応する、前記フレームセット全体にわたる基準フレーム中の整列した領域に基づき、前記フレームセット全体にわたる時間的な画像予測のセットを予測するステップと、該時間的な画像予測のセットを融合するステップと、該融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成するステップと、を含むことを特徴とする少なくとも1つのプロセッサを具備する。
1つの実施の形態における装置は、前記1以上のフレームからのデータの補間に基づき、前記1以上のフレーム各々の空間的予測を計算するステップと、前記ビデオシーケンスに対応する空間的・時間的予測を生成するために前記時間的な予測に前記空間的予測を融合するステップと、を含むステップをさらに具備する。
1つの実施の形態における装置は、ビデオ デコーダ又はエンコーダのうちの少なくとも1つ、又は、ビデオ編集装置、又は、テレビジョン、又は、少なくとも1つの付加的なエンコードされた媒体に対するプレーヤーアプリケーション、又は、エンコードされた記憶媒体に対するプレーヤーアプリケーション、又は、ストリーミングデジタル信号に対するプレーヤーアプリケーション、又は、画像処理アプリケーションからの情報を生成するためのモニター、又は、携帯通信装置、又は、携帯エンターテインメント装置、又は、オーディオ/ビデオ受信装置、又は、メディアサーバー、又は、医学画像処理装置、又は、ゲームプレーイング装置、のうちの少なくとも1つをさらに具備する。
1つの実施の形態におけるシステムは、ビデオ画像のシーケンス中の1以上のフレームに対するモーション推定のセットにアクセスする手段であって、該モーション推定のセットは、前記フレームセットの少なくとも1つのフレームの領域に関する基準フレームの各領域のピクセルに関連付けたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、前記少なくとも1つのフレームは前記フレームセットの他のフレームに対して時間的に移動させられることを特徴とする、第1のモーション推定と、前記フレームセットの少なくとも2番目のフレームの領域に関する基準フレームの各領域のピクセルに関連付けたモーションを特徴付ける少なくとも1つの付加的なモーション推定であって、前記少なくとも2番目のフレームは前記少なくとも1つのフレーム及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする、少なくとも1つの付加的なモーション推定と、を含むことを特徴とするモーション推定のセットにアクセスする手段と、第1のモーション推定及び少なくとも1つの付加的なモーション推定に対応する、前記フレームセット全体にわたる基準フレーム中の整列した領域に基づき、前記フレームセット全体にわたる時間的な画像予測のセットを予測する手段と、前記時間的な画像予測のセットを融合する手段と、該融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成する手段と、を含むことを特徴とするモーション推定のセットにアクセスする手段を具備する。
1つの実施の形態におけるシステムは、前記1以上のフレームからのデータの補間に基づいて、前記1以上のフレームの各々に対して空間的予測を計算する手段と、前記ビデオシーケンスに対応する空間的・時間的予測を生成するために前記時間的な予測に前記空間的予測を融合する手段と、をさらに具備する。
1つの実施の形態におけるシステムは、フィルター機能に基づき前記基準フレームと前記少なくとも2番目のフレームのピクセルのモーションと関連付けた値を補間するための手段であって、該値は、フラクショナルピクセル位相値を含むことを特徴とする手段と、重み付け値を生成するための少なくとも1つの手段であって、該重み付け値は、前記時間的な予測の精度、又は、前記ビデオ画像の圧縮に関連付けた推定されるノイズ成分、又は、 前記基準フレームと前記少なくとも2番目のフレームのピクセルのモーションと関連付けた値を補間であって、該補間にはフラクショナルピクセル位相値が含まれることを特徴とする補間、又は、前記空間的予測に関連付けた精度、のうちの少なくとも1つが含まれることを特徴とする、重み付け値を生成するための少なくとも1つの手段と、を具備する。
(拡張、等価物、代替物、その他)
前記説明において本発明の実施の形態を、実施形態毎に異なる具体的な詳細を参照しながら説明している。従って、本発明の出願が意図するものは、本発明を、唯一かつ排他的に規定し、その後の補正を含めて具体的に記載した、この出願が発行する特許請求の範囲である。このような特許請求の範囲に含まれる用語を説明するためにここに記載した定義は、特許請求の範囲で使われる用語の意味を規定する。従って、特許請求の範囲に明示していない限定、要素、特性、外観、効果、及び、属性は、いかなる意味でもこの特許請求の範囲を限定するものではない。従って、本明細書及び図面は、限定のためではなく説明のためのものである。

Claims (25)

  1. ビデオシーケンスの画像を処理する方法であって、
    ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに対して、
    前記フレームセットの最初のフレームの領域に関連する基準フレームの各領域のピクセルに関係付けられたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、前記最初のフレームは、前記フレームセットの他のフレームに対して時間的に移動させられることを特徴とする、モーション推定と、
    前記フレームセットの2番目のフレームの領域に関連する基準フレームの各領域のピクセルに関係付けられたモーションを特徴付ける少なくとも2番目のモーション推定であって、前記2番目のフレームは、前記フレームセットの最初のフレームから及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする、モーション推定と、
    を具備する、モーション推定のセットにアクセスするステップと、
    前記第1のモーション推定と前記2番目の付加的なモーション推定に対応するフレームセット全体にわたる前記基準フレーム中の領域の整列に基づき、前記フレームセット全体にわたる時間的な画像予測を行うステップと、
    時間的な画像予測のセットを融合するステップと、
    前記融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成するステップと、
    を具備することを特徴とする、ビデオシーケンスの画像を処理する方法。
  2. 1以上のビデオアプリケーションに対する時間的予測基準を提供するステップをさらに具備することを特徴とする、請求項1に記載の方法。
  3. 前記基準フレームのピクセルのモーションに関連付けた少なくとも1つの値と前記2番目のフレームとを補間するステップであって、該少なくとも1つの値にはフラクショナルピクセル位相値が含まれていることを特徴とするステップと、
    該補間するステップに基づき、前記1以上のフレームのピクセルに関連付けたモーション推定に、補間に基づく重み付けを割り当てるステップと、
    をさらに具備し、
    前記融合するステップは、少なくとも部分的には、前記割り当てた補間に基づく重み付けに基づく前記時間的な予測を計算するステップを具備することを特徴とする、請求項1に記載の方法。
  4. 各モーション推定に関連付けた精度を推定するステップと、
    関連付けた該推定に基づき、各モーション推定に、精度に基づく重み付けを割り当てるステップと、
    をさらに具備し、
    前記融合するステップは、少なくとも部分的には、前記割り当てた、精度に基づく重み付けに基づく前記時間的な予測を計算するステップを具備することを特徴とする、請求項1に記載の方法。
  5. ビデオ画像シーケンス中の各フレームの圧縮に関連付けた推定ノイズ成分に基づき、圧縮ノイズに基づく重み付けを前記各モーション推定に割り当てるステップをさらに具備し、
    前記前記融合するステップは、少なくとも部分的には、圧縮ノイズに基づく重み付けに基づく、完成された時間的予測を計算するステップを具備することを特徴とする、請求項1に記載の方法。
  6. 推定した圧縮ノイズ成分を推定するステップ、又は、
    該推定した圧縮ノイズ成分を受け取るステップ、
    をさらに具備することを特徴とする、請求項5に記載の方法。
  7. ビデオストリーム及びモーション推定のセットを受け取るステップをさらに具備することを特徴とする、請求項1に記載の方法。
  8. 1以上のフレームのデータの補間に基づいて、1以上のフレームの各々の空間的予測を計算するステップと、
    ビデオシーケンスに対応する空間的・時間的予測を生成するために前記空間的予測と複数の時間的な予測とを融合するステップと、
    をさらに具備することを特徴とする、請求項1に記載の方法。
  9. 前記空間的予測に関する精度を推定するステップと、
    その精度に基づき、空間的予測精度基準の重み付けを前記空間的予測に割り当てるステップと、
    をさらに具備し、
    前記空間的予測と時間的予測とを融合するステップは、少なくとも部分的には、前記空間的予測精度基準の重み付けに基づくことを特徴とする、請求項8に記載の方法。
  10. 前記モーション推定の各々は複数の値を具備し、
    該複数の値は、
    前記フレームセットの1以上のフレーム間の1以上の領域に関する並進運動のモーションを記述する直交関係にある1対のベクトル成分、又は、
    前記フレームセットの1以上のフレーム間の1以上の領域に関する回転運動のモーションを記述する角度成分、又は、
    前記フレームセットの1以上のフレーム間の1以上の領域にアフィンモーションを記述する少なくとも6個のマッピングパラメータ、
    のうちの少なくとも1つを具備することを特徴とする、請求項1に記載の方法。
  11. 前記アクセスするステップは、1以上の源からモーション推定を選択するステップを具備し、該源は、
    実質的に直接モーションの推定を行う源、又は、
    圧縮したモーション推定の源、又は、
    空間的に精密なモーション推定の源、又は、
    前記動画ビデオシーケンスの複数のフレームの各々に現れる1以上の画像の外観を基準フレームに対して基本的に整列させるモーション推定の源、
    を具備することを特徴とする、請求項1に記載の方法。
  12. ビデオ信号を処理するコンピュータシステムであって、
    バスと、
    該バスに接続されたプロセッサと、
    該バスに接続され、少なくとも1つのプロセッサにより実行させると、該少なくとも1つのプロセッサに、前記ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに対して、モーション推定のセットにアクセスするステップであって、該モーション推定のセットには、
    前記フレームセットの最初のフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、該最初のフレームは、前記フレームセットの他のフレームに関して時間的に移動させられることを特徴とする第1のモーション推定と、
    前記フレームセットの2番目のフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける少なくとも2番目のモーション推定であって、該2番目のフレームは、前記フレームセットの最初のフレームから及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする付加的なモーション推定と、
    が含まれることを特徴とする、モーション推定のセットにアクセスするステップと、
    前記第1のモーション推定と前記2番目のモーション推定とに対応する、フレームセット全体にわたる基準フレーム内における領域の整列に基づいて、前記フレームセット全体にわたる時間的な画像予測のセットを予測するステップと、
    該画像予測のセットを融合するステップと、
    該融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成するステップと、
    からなるステップを実行させる命令の1以上のシーケンスを有するコンピュータ読取可能媒体と、
    を具備することを特徴とする、ビデオ信号を処理するコンピュータシステム
  13. 前記システムは、
    前記少なくとも1つのプロセッサと関連付けたバッファを具備し、
    該バッファは、時間的に意味のある順序でビデオシーケンスのフレームを連続的に貯蔵し、
    前記少なくとも1つのプロセッサは、前記バッファにおけるビデオシーケンスのフレームにアクセスすることを特徴とする、請求項12に記載のシステム。
  14. 前記命令は、少なくとも1つのプロセッサに、時間的な予測ユニットを機能的に構成させ、該予測ユニットは、
    整列するステップ及び予測するステップを実行するよう構成された補間基準であって、
    該補間基準には、前記基準フレームのピクセルのモーションに関連付けた少なくとも1つの値と、前記2番目のフレームとを補完するための、値の補間基準が含まれ、前記少なくとも1つの値にはフラクショナルピクセル位相値が含まれていることを特徴とする、補間基準と、
    重み付け生成基準であって、
    時間的な予測の精度、又は、
    前記ビデオ画像の圧縮と関連付けた推定ノイズ成分、又は、
    前記基準フレームと前記2番目のフレームのピクセルのモーションと関連付けた補間であって、該補間はフラクショナルピクセル位相値を含むことを特徴とする補間、
    のうちの少なくとも1つに基づくモーション推定の各々に1つ以上の重み付けを割り当てるよう構成されていることを特徴とする重み付け生成基準と、
    を具備することを特徴とする、請求項12に記載のシステム。
  15. 前記複数のフレームの各々の画像領域の各々に関連付けた空間的予測のセットを予測するための空間的予測基準をさらに具備することを特徴とする、請求項12に記載のシステム。
  16. 前記空間的予測基準は、前記空間的予測の精度に基づいて、前記空間的予測の各々に重み付けを割り当てることを特徴とする、請求項15に記載のシステム。
  17. 前記命令は、1以上の予測融合基準のうちの少なくとも1つが、少なくとも1つの処理機能の融合を実行し処理関数を生成するような少なくとも1つの予測融合基準を少なくとも1つのプロセッサに構成させ、該1以上の予測融合基準は、
    時間的な画像予測のセットと空間的な画像予測セットの各予測に対応する精度の質を計算するための領域スコア計算基準と、
    1以上の融合基準であって、
    1以上の空間的予測と、複数の時間的な予測を融合するステップであって、
    該融合は、前記1以上の空間的予測と、複数の時間的な予測の各々に関連付けた精度の質に基づくことを特徴とするステップと、
    前記融合に基づいて、1以上の前記ビデオシーケンスに対応する完成された時間的な予測又は空間的・時間的予測を生成するステップと、
    を具備することを特徴とする1以上の融合基準と、
    を具備することを特徴とする、請求項16に記載のシステム。
  18. ビデオ処理装置であって、
    ビデオシーケンスを処理するために構成した少なくとも1つのプロセッサであって、該処理は、
    前記ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに対して、
    前記フレームセットの最初のフレームの領域に関する基準フレームの各領域のピクセルに関連付けたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、前記最初のフレームは前記フレームセットの他のフレームに対して時間的に移動させられることを特徴とする、第1のモーション推定と、
    前記フレームセットの2番目のフレームの領域に関する基準フレームの各領域のピクセルに関連付けたモーションを特徴付ける少なくとも2番目のモーション推定であって、前記2番目のフレームは、前記フレームセットの最初のフレーム及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする、少なくとも1つの付加的なモーション推定と、
    を含むモーション推定のセットにアクセスするステップと、
    第1のモーション推定と2番目の付加的なモーション推定に対応する、前記フレームセット全体にわたる基準フレーム中の整列した領域に基づき、前記フレームセット全体にわたる時間的な画像予測のセットを予測するステップと、
    該時間的な画像予測のセットを融合するステップと、
    該融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成するステップと、
    を含むことを特徴とする少なくとも1つのプロセッサ、
    を具備することを特徴とするビデオ処理装置。
  19. 前記1以上のフレームからのデータの補間に基づき、前記1以上のフレーム各々の空間的予測を計算するステップと、
    前記ビデオシーケンスに対応する空間的・時間的予測を生成するために前記時間的な予測に前記空間的予測を融合するステップと、
    を含むステップをさらに具備することを特徴とする、請求項18に記載のビデオ処理装置。
  20. ビデオ デコーダ又はエンコーダのうちの少なくとも1つ、又は、
    ビデオ編集装置、又は、
    テレビジョン、又は、
    少なくとも1つの付加的なエンコードされた媒体に対するプレーヤーアプリケーション、又は、
    エンコードされた記憶媒体に対するプレーヤーアプリケーション、又は、
    ストリーミングデジタル信号に対するプレーヤーアプリケーション、又は、
    画像処理アプリケーションからの情報を生成するためのモニター、又は、
    携帯通信装置、又は、
    携帯エンターテインメント装置、又は、
    オーディオ/ビデオ受信装置、又は、
    メディアサーバー、又は、
    医学画像処理装置、又は、
    ゲームプレーイング装置、
    のうちの少なくとも1つをさらに具備することを特徴とする、請求項19に記載のビデオ処理装置。
  21. エンコードした命令を有するコンピュータ読み取り可能な記憶媒体であって、コンピュータシステムの1以上のプロセッサに実行させると、該命令は前記ビデオシーケンスのフレームのセット中の基準フレームとして連続的に機能する1以上のフレームに対して、
    モーション推定のセットにアクセスするステップであって、該モーション推定のセットには、
    前記フレームセットの最初のフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、前記最初のフレームは、前記フレームセットの他のフレームに関して時間的に移動させられることを特徴とする第1のモーション推定と、
    前記フレームセットの2番目のフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける少なくとも2番目のモーション推定であって、前記2番目のフレームは、前記フレームセットの最初のフレームから及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする付加的なモーション推定と、
    が含まれることを特徴とする、モーション推定のセットにアクセスするステップと、
    前記第1のモーション推定と前記2番目のモーション推定とに対応する、フレームセット全体にわたる基準フレーム内における領域の整列に基づいて、前記フレームセット全体にわたる時間的な画像予測のセットを予測するステップと、
    時間的な画像予測のセットを融合するステップと、
    該融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成するステップと、
    を上記プロセッサに実行させることを特徴とするコンピュータ読み取り可能な記憶媒体。
  22. 前記エンコードした命令は、コンピュータシステムの前記少なくとも1つのプロセッサに実行させると、
    前記1以上のフレームからのデータの補間に基づいて、前記1以上のフレームの各々に対して空間的予測を計算するステップと、
    前記ビデオシーケンスに対応する空間的・時間的予測を生成するために前記複数の時間的な予測に前記空間的予測を融合するステップと、
    を、上記少なくとも1つのプロセッサに実行させることを特徴とする請求項21に記載のコンピュータ読み取り可能な記憶媒体。
  23. モーション推定のセットにアクセスする手段であって、該モーション推定のセットには、
    前記フレームセットの最初のフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける基準フレームの各領域に対する第1のモーション推定であって、前記最初のフレームは、前記フレームセットの他のフレームに関して時間的に移動させられることを特徴とする第1のモーション推定と、
    前記フレームセットの2番目のフレームの領域に関連する基準フレームの領域の各々のピクセルと関連付けたモーションを特徴付ける少なくとも2番目のモーション推定であって、前記2番目のフレームは、前記フレームセットの最初のフレームから及び前記フレームセットの他のフレームから時間的に移動させられることを特徴とする付加的なモーション推定と、
    を具備する、モーション推定のセットにアクセスする手段と、
    前記第1のモーション推定と前記2番目のモーション推定に対応する、フレームセット全体にわたる基準フレーム内における領域の整列に基づいて、前記フレームセット全体にわたる時間的な画像予測を行う手段と、
    該画像予測のセットを融合する手段と、
    該融合するステップに基づき、前記フレームセット全体にわたる時間的予測基準を生成する手段と、
    を具備するシステム。
  24. 前記1以上のフレームからのデータの補間に基づいて、前記1以上のフレームの各々に対して空間的予測を計算する手段と、
    前記ビデオシーケンスに対応する空間的・時間的予測を生成するために前記時間的な予測に前記空間的予測を融合する手段と、
    をさらに具備することを特徴とする請求項23に記載のシステム。
  25. フィルター機能に基づき前記基準フレームと前記2番目のフレームのピクセルのモーションと関連付けた値を補間するための手段であって、該値は、フラクショナルピクセル位相値を含むことを特徴とする手段と、
    重み付け値を生成するための少なくとも1つの手段であって、該重み付け値は、
    前記時間的な予測の精度、又は、
    前記ビデオ画像の圧縮に関連付けた推定されるノイズ成分、又は、
    前記基準フレームと前記2番目のフレームのピクセルのモーションと関連付けた値を補間であって、該補間にはフラクショナルピクセル位相値が含まれることを特徴とする補間、又は、
    前記空間的予測に関連付けた精度、
    のうちの少なくとも1つが含まれることを特徴とする、重み付け値を生成するための少なくとも1つの手段と、
    を具備することを特徴とする請求項24に記載の方法。
JP2010536084A 2007-11-30 2008-11-21 時間的画像検出 Pending JP2011505756A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US99167707P 2007-11-30 2007-11-30
PCT/US2008/084395 WO2009073415A2 (en) 2007-11-30 2008-11-21 Temporal image prediction

Publications (2)

Publication Number Publication Date
JP2011505756A true JP2011505756A (ja) 2011-02-24
JP2011505756A5 JP2011505756A5 (ja) 2014-03-20

Family

ID=40524522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010536084A Pending JP2011505756A (ja) 2007-11-30 2008-11-21 時間的画像検出

Country Status (5)

Country Link
US (1) US8687693B2 (ja)
EP (1) EP2223530A2 (ja)
JP (1) JP2011505756A (ja)
CN (1) CN101878650B (ja)
WO (1) WO2009073415A2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102939749B (zh) * 2009-10-29 2016-12-28 韦斯特尔电子行业和贸易有限公司 用于处理视频序列的方法和设备
US8600188B2 (en) 2010-09-15 2013-12-03 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement
US8588535B2 (en) 2010-09-15 2013-11-19 Sharp Laboratories Of America, Inc. Methods and systems for estimation of compression noise
US8532429B2 (en) 2010-09-28 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for noise reduction and image enhancement involving selection of noise-control parameter
US8538193B2 (en) * 2010-09-28 2013-09-17 Sharp Laboratories Of America, Inc. Methods and systems for image enhancement and estimation of compression noise
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
KR20130050403A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 복원 블록 생성 방법
CN104272201A (zh) * 2012-04-27 2015-01-07 株式会社安川电机 时间图制作装置、控制器、机械元件控制系统、时间图制作方法、程序以及信息存储介质
KR20140105103A (ko) * 2013-02-21 2014-09-01 삼성전자주식회사 장기의 움직임을 추적하는 방법, 장치 및 의료 영상 시스템
KR102453803B1 (ko) * 2015-09-10 2022-10-12 삼성전자주식회사 이미지 처리 방법 및 장치
US10257449B2 (en) * 2016-01-05 2019-04-09 Nvidia Corporation Pre-processing for video noise reduction
GB2557622A (en) * 2016-12-12 2018-06-27 V Nova Int Ltd Motion compensation techniques for video
WO2018220711A1 (ja) * 2017-05-30 2018-12-06 オリンパス株式会社 画像処理装置
CN108549069A (zh) * 2018-03-08 2018-09-18 哈尔滨工程大学 一种非理想波导下的warping变换修正方法
WO2019209887A1 (en) * 2018-04-23 2019-10-31 The Regents Of The University Of Colorado, A Body Corporate Mobile and augmented reality based depth and thermal fusion scan
US11640668B2 (en) * 2021-06-10 2023-05-02 Qualcomm Incorporated Volumetric sampling with correlative characterization for dense estimation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319403A (ja) * 2002-04-09 2003-11-07 Lg Electronics Inc 改善されたダイレクトモードのブロック予測方法
WO2006006609A1 (en) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. Motion compensation method
JP2007503775A (ja) * 2003-08-26 2007-02-22 トムソン ライセンシング ハイブリッド・イントラ・インター符号化ブロックを符号化する方法及び装置
JP2007081726A (ja) * 2005-09-13 2007-03-29 Toshiba Corp 動画像符号化装置及びその方法
JP2007300380A (ja) * 2006-04-28 2007-11-15 Ntt Docomo Inc 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2645383B1 (fr) 1989-03-31 1997-06-27 Thomson Consumer Electronics Procede et dispositif d'interpolation temporelle d'images, a compensation de mouvement corrigee
GB2311184A (en) 1996-03-13 1997-09-17 Innovision Plc Motion vector field error estimation
EP0817499A3 (en) 1996-06-28 2002-05-22 Matsushita Electric Industrial Co., Ltd. Image coding method using extrapolated pixels in insignificant areas of blocks
US6249318B1 (en) 1997-09-12 2001-06-19 8×8, Inc. Video coding/decoding arrangement and method therefor
JP3855522B2 (ja) 1999-02-23 2006-12-13 松下電器産業株式会社 動画変換装置
US7412002B2 (en) 2000-04-28 2008-08-12 Texas Instruments Incorporated Image preprocessing with selective lowpass filtering from motion compensation
JP2002281505A (ja) 2001-03-16 2002-09-27 Toshiba Corp 動画像圧縮装置、同装置のカット検出用データ作成方法およびカット位置データ作成方法ならびにカット検出装置および同装置のカット検出方法
US7747094B2 (en) 2001-06-29 2010-06-29 Ntt Docomo, Inc. Image encoder, image decoder, image encoding method, and image decoding method
WO2003021971A1 (en) 2001-08-28 2003-03-13 Ntt Docomo, Inc. Moving picture encoding/transmission system, moving picture encoding/transmission method, and encoding apparatus, decoding apparatus, encoding method, decoding method, and program usable for the same
CN1744719A (zh) 2002-04-09 2006-03-08 Lg电子株式会社 块的预测方法
JP3807342B2 (ja) 2002-04-25 2006-08-09 三菱電機株式会社 デジタル信号符号化装置、デジタル信号復号装置、デジタル信号算術符号化方法、およびデジタル信号算術復号方法
WO2003098939A1 (en) 2002-05-22 2003-11-27 Matsushita Electric Industrial Co., Ltd. Moving image encoding method, moving image decoding method, and data recording medium
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
JP2006513478A (ja) 2003-01-10 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 効率的な予測画像のパラメータの推定
KR20060105407A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
EP1478189A3 (en) 2003-05-16 2004-12-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding image using image residue prediction
US7408986B2 (en) * 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
WO2005004492A2 (en) * 2003-06-25 2005-01-13 Thomson Licensing S.A. Method and apparatus for weighted prediction estimation using a displaced frame differential
US7333544B2 (en) 2003-07-16 2008-02-19 Samsung Electronics Co., Ltd. Lossless image encoding/decoding method and apparatus using inter-color plane prediction
US7894526B2 (en) 2004-02-27 2011-02-22 Panasonic Corporation Motion estimation method and moving picture coding method
KR100888963B1 (ko) 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR100723403B1 (ko) 2005-02-28 2007-05-30 삼성전자주식회사 컬러 성분간 단일 부호화 모드를 이용한 예측영상 생성 방법 및 장치와, 그를 이용한 영상 및 비디오 부호화/복호화방법 및 장치
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
FR2889004B1 (fr) 2005-07-22 2007-08-24 Canon Kk Procede et dispositif de traitement d'une sequence d'images numeriques a scalabilite spatiale ou en qualite
US7957466B2 (en) 2005-09-16 2011-06-07 Sony Corporation Adaptive area of influence filter for moving object boundaries
US7894527B2 (en) 2005-09-16 2011-02-22 Sony Corporation Multi-stage linked process for adaptive motion vector sampling in video compression
US8059719B2 (en) 2005-09-16 2011-11-15 Sony Corporation Adaptive area of influence filter
US7894522B2 (en) 2005-09-16 2011-02-22 Sony Corporation Classified filtering for temporal prediction
WO2007044556A2 (en) 2005-10-07 2007-04-19 Innovation Management Sciences, L.L.C. Method and apparatus for scalable video decoder using an enhancement stream
KR100873636B1 (ko) 2005-11-14 2008-12-12 삼성전자주식회사 단일 부호화 모드를 이용하는 영상 부호화/복호화 방법 및장치
FR2894421B1 (fr) 2005-12-07 2008-01-18 Canon Kk Procede et dispositif de decodage d'un flux video code suivant un codage hierarchique
CA2656123A1 (en) 2006-04-28 2007-11-08 Ntt Docomo, Inc. Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program
EP1855474A1 (en) 2006-05-12 2007-11-14 Sony Deutschland Gmbh Method for generating an interpolated image between two images of an input image sequence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319403A (ja) * 2002-04-09 2003-11-07 Lg Electronics Inc 改善されたダイレクトモードのブロック予測方法
JP2007503775A (ja) * 2003-08-26 2007-02-22 トムソン ライセンシング ハイブリッド・イントラ・インター符号化ブロックを符号化する方法及び装置
WO2006006609A1 (en) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. Motion compensation method
JP2007081726A (ja) * 2005-09-13 2007-03-29 Toshiba Corp 動画像符号化装置及びその方法
JP2007300380A (ja) * 2006-04-28 2007-11-15 Ntt Docomo Inc 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム

Also Published As

Publication number Publication date
WO2009073415A2 (en) 2009-06-11
WO2009073415A3 (en) 2009-07-30
EP2223530A2 (en) 2010-09-01
CN101878650A (zh) 2010-11-03
US8687693B2 (en) 2014-04-01
US20120281758A1 (en) 2012-11-08
CN101878650B (zh) 2013-07-10
WO2009073415A4 (en) 2009-09-17

Similar Documents

Publication Publication Date Title
JP2011505756A (ja) 時間的画像検出
JP2011505756A5 (ja)
JP4472986B2 (ja) 動き推定および/または補償
Kang et al. Motion compensated frame rate up-conversion using extended bilateral motion estimation
Kim et al. New frame rate up-conversion algorithms with low computational complexity
US8144778B2 (en) Motion compensated frame rate conversion system and method
US8953684B2 (en) Multiview coding with geometry-based disparity prediction
JP4780046B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP5259726B2 (ja) モーション推定の時間的平滑化
JP2002027414A (ja) 両方向動きベクトルを用いたフォーマット変換装置及びその方法
US10284810B1 (en) Using low-resolution frames to increase frame rate of high-resolution frames
JP2012516637A5 (ja)
US8610826B2 (en) Method and apparatus for integrated motion compensated noise reduction and frame rate conversion
JP5100495B2 (ja) 画像処理装置
JP2006504175A (ja) フォールバックを用いる画像処理装置
JP5669523B2 (ja) フレーム補間装置及び方法、並びにプログラム及び記録媒体
US20190141332A1 (en) Use of synthetic frames in video coding
JP2022530172A (ja) 適応解像度ビデオ符号化のためのインター符号化
Heinrich et al. Optimization of hierarchical 3DRS motion estimators for picture rate conversion
CN111526370A (zh) 视频编码、解码方法及装置和电子设备
KR20040078690A (ko) 오클루전을 고려하여 일군의 화소들의 움직임 벡터를 추정
CN111684799B (zh) 视频处理方法和装置
KR20110048252A (ko) 움직임 벡터 공유에 기초한 영상을 변환하는 방법 및 장치
JP4049087B2 (ja) 動き・静止の判定装置および判定方法、並びに画像信号の処理装置および処理方法
JP4915018B2 (ja) 映像処理装置、映像処理方法、プログラム、記録媒体、携帯端末、及び、受信装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20111011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A524 Written submission of copy of amendment under section 19 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20140128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140401