JP5089608B2 - 視覚信号の補外または補間のためのシステムおよび方法 - Google Patents

視覚信号の補外または補間のためのシステムおよび方法 Download PDF

Info

Publication number
JP5089608B2
JP5089608B2 JP2008549007A JP2008549007A JP5089608B2 JP 5089608 B2 JP5089608 B2 JP 5089608B2 JP 2008549007 A JP2008549007 A JP 2008549007A JP 2008549007 A JP2008549007 A JP 2008549007A JP 5089608 B2 JP5089608 B2 JP 5089608B2
Authority
JP
Japan
Prior art keywords
block
picture
pixel
estimated
statistical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008549007A
Other languages
English (en)
Other versions
JP2009522892A (ja
Inventor
ルー、リギャン
シェイニン、ヴァディム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2009522892A publication Critical patent/JP2009522892A/ja
Application granted granted Critical
Publication of JP5089608B2 publication Critical patent/JP5089608B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、一般に、視覚信号の補外(extrapolation)または補間(interpolation)のためのシステムおよび方法に関する。より具体的に言えば、本発明は、改良された視覚信号の補外または補間のために統計的類似性推定(statistic similarity estimation)を採用する。
イメージ、ビデオ、およびグラフィックスなどの視覚信号の補外および補間は、ビデオ・コーディング、トランスコーディング、エラー隠蔽(error concealment)、前処理、および対話型レンダリングなどを含むが、これらに限定されることのない、様々なコンテキストで、幅広く使用されてきた。
たとえば、ビデオ・コーディング応用例での補外および補間のための技法は、Aaron等によるTowardPractical Wyner-Ziv Coding of Video, PROC. IEEE INT. CONF ON IMAGE PROCESSING、869〜872ページ、スペイン、バルセロナ、Spet.(2003年)、Puri等によるPRISM: A New Robust Video Coding Architecture based on DistributedCompression Principles, ALLERTON CONFERENCE ON COMMUNICATION, CONTROL ANDCOMPUTING(2002年)、およびYaman等によるA Low-Complexity Video Encoder withDecoder Motion Estimation, Proc. ICASSP、カナダ、モントリオール(2004年)に記載されている。トランスコーディング応用例での補外および補間のための技法は、2000年5月2日発行のGolinへの「Motion VectorExtrapolation for Transcoding Video Sequences」という名称の米国特許第6058143号に記載されている。さらにビデオ・デコーディングのためのエラー隠蔽または後処理の応用例での補外および補間のための技法は、Peng等によるBlock-BasedTemporal Error Concealment for Video Packet Using Motion Vector Extrapolation,International Conf on Communications, Circuits, Systems and West Sino Expo、10〜14ページ、6月29日〜7月1日(2002年)、および、2001年9月4日発行のOzcelikへの「Methods and Apparatus for Error ConcealmentWhile Decoding a Coded Video Bit Stream」という名称の米国特許第6285715号に記載されている。ビデオ・コーディング、トランスコーディング、エラー隠蔽、ビデオ・デコーディング、および後処理の応用例で使用される視覚信号の補外および補間の方法は、通常、運動情報に基づくため、それぞれ、運動ベース補外法および運動ベース補間法と呼ばれる。
通常は他の応用例で使用される、非運動ベース補外/補間法は、仮想現実レンダリングに使用されるモデルベースのビュー補外法、事前圧縮に使用されるフィーチャ補外法、およびビデオ・フェーディング・シーン予測法を含む。たとえば、モデルベースのビュー補外法は、2002年4月23日発行のAcresへの「Model-BasedView Extrapolation for Interactive Virtual Reality Systems」という名称の米国特許第6375567号に記載されている。フィーチャ補外法は、1999年9月7日発行のChenへの「PrecompressionExtrapolation Method」という名称の米国特許第5949919号に記載されている。ビデオ・フェーディング・シーン予測は、Koto等によるAdaptiveBi-Predictive Video Coding Temporal Extrapolation, ICIP(2003年)に記載されている。
運動ベースの補外/補間法の一例が、Wyner−Zivビデオ・コーディング技法である。典型的なWyner−Zivビデオ・コーディング・システムは、ビデオ・エンコーダおよびビデオ・デコーダを含む。ビデオ・エンコーダは、低複雑度および低パワーのエンコーダであるため、運動推定などの計算量の多い信号処理タスクは、代わりにデコーダが実施する。高い効率を達成するため、Wyner−Zivデコーダは、デコーダのみが知っているソース情報とサイド情報との間の相関を活用して、受け取ったビデオ信号をデコードし、ビデオを再構築する必要がある。ソース情報とは、エンコーダ側でエンコードされ、デコーディングのためにデコーダに伝送される、ビデオ信号(たとえばピクチャ)であり、サイド情報とは、本質的に、デコードされるピクチャの推定である。Wyner−Zivシステムの性能は、サイド情報の信頼性に大きく依存するため、サイド情報を生成するためにデコーダによって使用される機構は、Wyner−Zivビデオ・コーディング・システムにおいて非常に重大な役割を果たす。通常、第1にデコーダは、運動ベクトルのセットを生成するために、以前に再構築されたピクチャ上で運動推定を実行し、その後、こうした運動ベクトルを使用して、補外または補間によって現在デコードされているピクチャの推定を生成する。この推定が、現行ピクチャのデコーディングおよび再構築のために、デコーダによってサイド情報として使用される。
図1は、当分野で周知の運動ベースの時間的補外プロセスを示す図である。具体的に言えば、現行ピクチャNを補外するために、第1に、以前に再構築された少なくとも2つのピクチャ、すなわちピクチャN−2およびN−1上で、ピクチャN−1とピクチャN−2の間のピクセルまたはピクセル・ブロックの運動(すなわち「逆」運動)を示す、ピクチャN−1内の各ピクセルまたはピクセル・ブロックに関する運動ベクトルのセットを生成するために、運動推定が実行される。次に、基礎となる運動モデルまたは想定に基づいて確立された所定の関数に従って、この運動ベクトルが操作される。たとえば、一定線形変位運動モデルが想定される場合、運動ベクトルは逆であり、図1に示されるように、運動ベクトルに関連付けられたピクセルまたはピクセル・ブロックは、ピクチャN−1内のその位置から、現行ピクチャNの推定において逆運動ベクトルによって定義された位置へと、補外(すなわちマッピング)される。運動ベクトルは、ピクチャN−2とピクチャN−1との間の運動を示すために、ピクチャN−2内の各ピクセルまたはピクセル・ブロックに関して構築することも可能であることに留意されたい。こうした発生事象では、その後、運動ベクトルがシフトされ、運動ベクトルに関連付けられたピクセルまたはピクセル・ブロックが、ピクチャN−1内のその位置から、現行ピクチャNの推定においてスケーリング済み運動ベクトルによって定義された位置へと、補外またはマッピングされるものとする。したがって、前述の運動ベースの時間的補外プロセスは、ピクチャN−1(またはピクチャN−2)内のすべてのピクセルまたはピクセル・ブロックがマッピングされた後に、現行ピクチャNの推定を作成する。
図2は、周知の運動ベースの時間的補間プロセスをさらに示す図である。第1に、以前に再構築された少なくとも2つのピクチャ、すなわちピクチャN−1およびN+1上で、ピクチャN−1からピクチャN+1へのピクセルまたはピクセル・ブロックの運動を示す、ピクチャN−1内の各ピクセルまたはピクセル・ブロックに関する運動ベクトルのセットを取得するために、運動推定が実行される。次に、一定線形変位運動モデルに関する基礎となる想定に基づいて、運動ベクトルが(たとえば2分の1に)縮小され、図2に示されるように、運動ベクトルに関連付けられたピクセルまたはピクセル・ブロックが、ピクチャN−1あるいはN+1またはそれら両方内のそれらの位置から、現行ピクチャNの推定においてスケーリング済み運動ベクトルによって定義された位置へと、補間される。運動ベクトルは、ピクチャN+1とピクチャN−1との間の運動を示すために、ピクチャN+1内の各ピクセルまたはピクセル・ブロックに関して構築することも可能であることに留意されたい。こうした発生事象では、運動ベクトルは、(たとえば2分の1に)縮小され、運動ベクトルに関連付けられたピクセルまたはピクセル・ブロックは、ピクセルN−1あるいはピクチャN+1またはその両方内のそれらの位置から、現行ピクチャNの推定においてスケーリング済み運動ベクトルによって定義された位置へと、補間されるものとする。前述のような運動ベースの時間的補間プロセスは、ピクチャN+1(またはピクチャN−1)内のすべてのピクセルまたはピクセル・ブロックがマッピングされた後に、現行ピクチャNの推定も作成する。
図3は、周知の運動ベースの補外および補間を達成するために使用される処理ステップを示す流れ図である。具体的に言えば、第1に、運動ベクトルのセットを生成するために、以前に再構築されたピクチャから取得されたピクチャ信号上で、運動推定が実行される。次にこの運動ベクトルは、デコードされるピクチャと以前に再構築されたピクチャとの間の時間的関係に依存して、補外または補間のいずれかによってデコードされるピクチャの推定を生成するために、基礎となる運動モデルまたは想定に従って操作される。
前述の従来の運動ベースの補外法および補間法には、以下を含むいくつかの重大な欠点がある。
1.オブジェクトはピクチャ間で一定運動モデル(通常は一定線形変位モデル)に追従するという基礎となる想定が、実際の視覚信号の場合は当てはまらない。
2.補外または補間の結果、以前に再構築されたピクチャと推定ピクチャとの間で、1対1のマッピングが生じない場合がある。補外または補間されたピクチャ(すなわち推定)内のいくつかのピクセル位置は、以前に再構築されたピクチャからいかなるマッピングも取得しない、すなわち空の穴を残す場合があるが、補外または補間されたピクチャ内の他のピクセル位置は、以前に再構築されたピクチャからの多重マッピングを有する、すなわち重畳スポットを残す場合がある。
米国特許第6058143号 米国特許第6285715号 米国特許第6375567号 米国特許第5949919号 Aaron等によるTowardPractical Wyner-Ziv Coding of Video, PROC. IEEE INT. CONF ON IMAGE PROCESSING、869〜872ページ、スペイン、バルセロナ、Spet.(2003年) Puri等によるPRISM: A NewRobust Video Coding Architecture based on Distributed Compression Principles,ALLERTON CONFERENCE ON COMMUNICATION, CONTROL AND COMPUTING(2002年) Yaman等によるALow-Complexity Video Encoder with Decoder Motion Estimation, Proc. ICASSP、カナダ、モントリオール(2004年) Koto等によるAdaptiveBi-Predictive Video Coding Temporal Extrapolation, ICIP(2003年)
したがって、従来の運動ベースの補外法および補間法の欠点なしに視覚信号を補外および補間するための、改良されたシステムおよび方法を提供することが望ましい。
本発明は、
少なくとも第1および第2の基準ピクチャを提供するステップと、
第1および第2の基準ピクチャのうちの少なくとも1つの、他方に対する動きを示す運動ベクトルを生成するために、第1および第2の基準ピクチャ上で運動推定を実行するステップと、
運動ベクトルを使用して、第1あるいは第2またはその両方の基準ピクチャから、補外または補間によって推定ピクチャを生成するステップと、
推定ピクチャを詳細化するステップと、
を含み、
運動推定または推定ピクチャの詳細化のいずれか、またはその両方の組み合わせにおいて、統計的類似性推定が使用される、
視覚信号の補外または補間のためのコンピュータ・ベースの方法を対象とする。
本発明で使用される基準ピクチャは、補外または補間によって推定ピクチャを構築するために使用可能な、以前に再構築されたピクチャである。
運動推定に統計的類似性推定が使用される場合、第1の基準ピクチャ上のピクセル・ブロックの統計的特徴が計算され、第2の基準ピクチャ上の1つまたは複数のピクセル・ブロックの統計的特徴と比較される。次に、第1の基準ピクチャ上のピクセル・ブロックに対するその統計的類似性に少なくとも部分的に基づいて、第2の基準ピクチャ上で最高に合致するピクセル・ブロックが決定され、第2の基準ピクチャ上で最高に合致するピクセル・ブロックに対するその動きを示す、第1の基準ピクチャ上のピクセル・ブロックに関する運動ベクトルが生成される。
統計的類似性推定が推定ピクチャを詳細化するために使用される場合、推定ピクチャ上の空のピクセル位置を満たすため、または、推定ピクチャ上の同じピクセル位置への多重マッピングを解決するために、使用することができる。
好ましくは、推定ピクチャ上の空のピクセル位置を満たすために、
推定ピクチャ上の空のピクセル位置を取り囲む隣接ブロックに関する統計的特徴を計算するステップと、
推定ピクチャの生成元である基準ピクチャ上で検索領域を識別するステップと、
検索領域内で最高に合致するブロックを検索するステップであって、最高に合致するブロックが、基準ピクチャ上の特定のピクセルを取り囲み、推定ピクチャ上の空のピクセル位置を取り囲む隣接ブロックに対する最高の統計的類似性を有する、検索するステップと、
空のピクセル位置を、基準ピクチャ上の最高に合致するブロックによって取り囲まれた特定のピクセルで満たすステップと、
が実行されるが、この限りではない。
多重マッピングのイベントでは、すなわち、推定ピクチャの生成元である基準ピクチャ上に複数のピクセルが存在し、それらすべてが推定ピクチャ上の特定ピクセル位置に補外または補間する場合、好ましくは、推定ピクチャ上の特定ピクセルに関して最高に合致するピクセルを選択するために、
推定ピクチャ上の特定ピクセル位置を取り囲む隣接ブロックに関する統計的特徴を計算するステップと、
それぞれが基準ピクチャ上の複数ピクセルのうちの1つを取り囲む、複数のピクセル・ブロックに関する統計的特徴を計算するステップと、
基準ピクチャ上の複数ピクセルを取り囲む複数ブロックの中で最高に合致するブロックを識別するステップであって、この最高に合致するブロックが、推定ピクチャ上の特定ピクセル位置を取り囲む隣接ブロックに対する最高の統計的類似性を有する、識別するステップと、
基準ピクチャ上の最高に合致するブロックによって取り囲まれたピクセルを、推定ピクチャ上の特定ピクセル位置に関する最高に合致するピクセルとして選択するステップと、
が実行されるが、この限りではない。
本発明で使用可能な統計的特徴は、ブロック・サンプル平均、ブロック・サンプル分散(variance)、隣接パラメータなどを含むが、これらに限定されることはない。
好ましいが必須ではない本発明の実施形態では、2つのピクセル・ブロック間の統計的類似性は、以下の式に従って統計的類似性指数を計算することによって決定され、
Figure 0005089608
上式で、Pはピクセル・ブロックの1つであり、Qは他のピクセル・ブロックであり、SSI(P,Q)はブロックPとQの間の統計的類似性を示す統計的類似性指数であり、μ(P)はブロックPのブロック・サンプル平均であり、μ(Q)はブロックQのブロック・サンプル平均であり、Var(P)はブロックPのブロック・サンプル分散であり、Var(Q)はブロックQのブロック・サンプル分散であり、Cov(P,Q)はブロックPとQの間の共分散であり、αおよびβは重み付け係数である。
前述の統計的類似性指数は、運動推定のため、推定ピクチャ上で空のピクセルを満たすため、あるいは、多重マッピング問題を解決するため、またはそれらすべてに、使用することが可能である。
本発明の他の態様は、
少なくとも第1および第2の基準ピクチャを取得および格納するための手段と、
第1および第2の基準ピクチャのうちの少なくとも1つの、他方に対する動きを示す運動ベクトルを生成するために、第1および第2の基準ピクチャ上で運動推定を実行するための手段と、
運動ベクトルを使用して、第1または第2の基準ピクチャから、補外または補間によって推定ピクチャを生成するための手段と、
推定ピクチャを詳細化するための手段と、
を備え、
運動推定または推定ピクチャの詳細化のいずれか、またはその両方の組み合わせにおいて、統計的類似性推定が使用される、
視覚信号の補外または補間のためのコンピュータ・ベースのシステムに関する。
本発明の他の態様、特徴、および利点については、以下の開示および添付の特許請求の範囲から、より完全に明らかになろう。
次に、本発明について、添付の図面を参照しながら単なる例として説明する。
本発明は、統計的類似性推定を使用することによる補外および補間のための改良された方法およびシステムを提供する。
具体的に言えば、図4によって示されるように、第1に、運動ベクトルのセットを生成するために、以前に再構築されたピクチャ、すなわち基準ピクチャから取得されたピクチャ信号上で、運動推定が実行され、次に運動ベクトルのセットを使用して、基準ピクチャのうちの1つから補外または補間のいずれかによって推定ピクチャが生成される一方で、運動推定を実行するため、または推定ピクチャを詳細化するため、あるいはその両方の組み合わせのために、統計的類似性推定が使用される。より具体的に言えば、統計的類似性推定は、ブロック・サンプル平均、ブロック・サンプル分散、ブロックを取り囲む近傍の均一性などの隣接パラメータ、および、2つまたはそれ以上のピクセル・ブロック間の共分散を含むが、これらに限定されることのない、2つまたはそれ以上のピクセル・ブロックの統計的特徴を比較することによって、実行される。
図5は、本発明の一実施形態に従った、補外または補間によって推定ピクチャの構築のための運動ベクトルを生成するために、運動推定において統計的類似性推定を使用する例示的処理ステップを示す。
第1に、以下では基準ピクチャと呼ばれる、少なくとも2つの事前にデコードおよび再構築されたピクチャが、デコーダによって取得および格納される。これら2つの基準ピクチャは、補外ベースの推定の場合、N−1およびN−2(または、補間ベースの推定の場合、N−1およびN+1)と称される。
基準ピクチャN−1内の各ピクセル・ブロックの場合、他方の基準ピクチャN−2(またはN+1)内で最高の合致を見つけるために、検索プロセスが実行される。基準ピクチャN−1内の特定のブロックBiに対して、基準ピクチャN−2(またはN+1)内の最高に合致するブロックBを見つけるために、検索プロセスは、基準ピクチャN−2(またはN+1)から同じサイズのピクセル・ブロックBpを選択し、BiとBpとの間の統計的類似性を示す統計的類似性指数SSIと、オプションで、BiとBpとの間のピクセル値における差異である予測エラーEと、を計算する。統計的類似性指数SSIおよび予測エラーEを組み合わせて、図5に示されるように、基準ピクチャN−2(またはN+1)内の最高に合致するブロックBを決定することができる。別の方法として、基準ピクチャN−2(またはN+1)内の最高に合致するブロックBは、統計的類似性指数SSIにのみ基づいて選択することもできる。
基準ピクチャN−2(またはN+1)内の最高に合致するブロックBが決定されると、基準ピクチャN−1内のブロックBiについて、Bに対するブロックBiの動きを示す運動ベクトルのセットを生成することができる。運動ベクトルは、ブロックBiおよびBに関連付けられた様々なパラメータから生成することができる。好ましくは、ブロックBiおよびBの空間的差異(すなわち水平および垂直座標)を取ることによって生成されるが、この限りではない。次に運動ベクトルは、以下では、ブロックBiの推定が常駐する推定ピクチャNと称される、デコードおよび再構築されるピクチャ内の位置を補外または補間するために、操作(たとえば反転、スケーリング、シフト、またはそれ以外の方法での変更)される。推定ブロックのピクセル値は、ブロックBiおよびBのピクセル値から、たとえばこれらのブロックのピクセル値を平均すること、またはこうしたピクセル値をそれ以外の方法で操作することによって、導出される。
前述の処理ステップは、基準ピクチャN−1内の各ピクセル・ブロックについて反復されるため、基準ピクチャN−1内の各ピクセル・ブロックの推定がマッピングされ、それによって完全な推定ピクチャNが形成される。
さらに図6は、2つのピクセル・ブロックPとQの間の統計的類似性を決定するための例示的処理ステップを示す。第1に、ピクセル値、輝度、コントラスト、構造などを含むがこれらに限定されることのない、ブロックPおよびQに直接関係する情報が取得される。好ましくは、ブロックPおよびQが常駐する近傍に関する情報(すなわち隣接情報)も取得されるが、この限りではない。
次に、ブロックPおよびQに直接関係する情報、およびオプションで隣接情報に基づいて、ブロックPおよびQに関する様々な統計的特徴が計算され、その後これらは、ブロックPとQの間の統計的類似性を決定するために比較される。たとえば、ブロック・サンプル平均、ブロック・サンプル分散、隣接パラメータ、ならびにブロックPとQの間の共分散などの統計的特徴が、統計的類似性を決定するために使用することができる。他の周知の統計的特徴も使用可能である。
より具体的に言えば、ブロックPおよびQがどちらもブロックサイズn×mによって特徴付けられるものと想定すると、ブロックP内のピクセル値をPijと称し、ブロックQ内のピクセル値をQijと称することが可能であり、ここでi=1、2、...、nであり、j=1、2、...、mである。Pに関するブロック・サンプル平均は、以下のように定義され、
Figure 0005089608
Qに関するブロック・サンプル平均は、以下のように定義される。
Figure 0005089608
Pに関するブロック・サンプル分散は、以下のように定義され、
Figure 0005089608
Qに関するブロック・サンプル分散は、以下のように定義される。
Figure 0005089608
ブロックPおよびQの共分散は、以下のように推定される。
Figure 0005089608
さらに、ブロックPおよびQを取り囲む近傍の均一性などの、ブロックPおよびQの隣接パラメータも、ブロックPとQの間の統計的類似性を決定するために使用することができる。近傍の均一性は、たとえば、ブロックPまたはQの運動ベクトルと、ブロックPまたはQを取り囲む1つまたは複数の既存の隣接ブロックの運動ベクトルとの間の差異に基づいて、決定することができる。
ブロックPおよびQの統計的特徴は、これら2つのブロックがどのように同様であるかを示す適切な指標を提供する。好ましくは、統計的類似性指数は、図6に示されるように、ブロックPとQの間の統計的類似性の定量的測定値を提供するために、ブロックPおよびQの統計的特徴に基づいて計算される。統計的特徴は、統計的類似性指数を計算するために、様々な方法で重み付けおよび組み合わせすることが可能である。
好ましいが必須ではない本発明の実施形態では、以下の式を使用することによって、ブロックPおよびQに関する統計的類似性指数SSIを計算することが可能であり、
Figure 0005089608
上式では、前述のように、μ(P)はブロックPのブロック・サンプル平均であり、μ(Q)はブロックQのブロック・サンプル平均であり、Var(P)はブロックPのブロック・サンプル分散であり、Var(Q)はブロックQのブロック・サンプル分散であり、Cov(P,Q)はブロックPとQの間の共分散であり、αおよびβは重み付け係数である。統計的類似性指数の値が小さいほど、2つのブロックはより類似していることになる。
さらに好ましくは、複数の統計的類似性指数を生成するために、複数のピクセル・ブロックの統計的類似性が決定され、これらの指数が正規化されるため、各指数値は0から1の間になる。
前述のように、補外および補間は推定ピクチャに対して1対1のマッピングを生成しないため、推定位置内には、いかなるマッピングも取得しない、すなわち空の穴を残す、ピクセル位置が存在する可能性がある。これに対して推定位置内には、多重マッピングを取得する、すなわち重畳スポットを残す、ピクセル位置も存在する可能性がある。推定ピクチャの品質は、空の穴または重畳スポットの存在によって悪影響を受ける。
したがって本発明は、推定ピクチャを詳細化するために統計的類似性推定を使用すること、すなわち、空のピクセル位置を満たすこと、あるいは多重マッピングを解決すること、またはその両方によって、これらの問題を解決する。
図7は、推定ピクチャN上の空のピクセル位置を満たすために、統計的類似性推定をどのように使用するかを示す。
第1に、推定ピクチャN上の空のピクセル位置を取り囲む隣接ピクセル・ブロックの統計的特徴が計算される。隣接ブロック内のピクセルの運動ベクトルを使用して、基準ピクチャN−1上の初期点を決定することが可能であり、この点から補外または補間によって推定ピクチャが生成される。次に、この初期点を取り囲む適切な検索ウィンドウが識別される。この検索ウィンドウ内で、推定ピクチャN上の隣接ブロックに最高に合致するブロックを見つけるために、検索プロセスが実行される。最高に合致するブロックは、推定ピクチャN上の隣接ブロックに関して、最高の統計的類似性によって、およびオプションで最低のピクセル値差によって、特徴付けられる。次に、図7に示されるように、基準ピクチャN−1上でこの最高に合致するブロックによって取り囲まれた特定のピクセルを使用して、推定ピクチャN内の空のピクセル位置が満たされる。
さらに、図8は、基準ピクチャN−1上の複数のピクセルが、すべて、推定ピクチャN上の同じピクセル位置に(すなわち、補外または補間によって)マッピングするイベントにおいて、推定ピクチャN上の特定のピクセル位置に関して最高に合致するピクセルを選択するために、統計的類似性推定をどのように使用するかを示す。
第1に、推定ピクチャN上の特定のピクセル位置を取り囲む隣接ピクセル・ブロックの統計的特徴が計算される。次に、それぞれが基準ピクチャN−1上の複数のピクセルのうちの1つを取り囲む複数のピクセル・ブロックに関して、統計的特徴が計算される。基準ピクチャN−1上のこれら複数のブロックの中で、推定ピクチャN上の隣接ブロックに最高に合致する1つのブロックが識別される。前述のように、最高に合致するブロックは、推定ピクチャN上の隣接ブロックに関して、最高の統計的類似性によって、およびオプションで最低のピクセル値差によって、特徴付けられる。次に、基準ピクチャN−1上のこの最高に合致するブロックによって取り囲まれた特定のピクセルが、推定ピクチャN内の特定のピクセル位置に関して最高に合致するピクセルとして選択される。
前述のような様々な計算ステップは、汎用コンピュータ、特定用途向けコンピュータ、中央プロセッサ・ユニット(CPU)、マイクロプロセッサ、または、視覚信号データを収集および処理するために配置構成および構築された集積回路を備えることが可能な、コンピュータ・ベースの視覚信号アナライザによって容易に実行可能である。こうした視覚信号アナライザは、好ましくは、本発明に従って、推定ピクチャを生成および詳細化するために、前述の視覚信号の補外法または補間法を計算的に実行するための、視覚信号補外または補間プロトコルを備える。視覚信号補外または補間プロトコルは、汎用コンピュータ、特定用途向けコンピュータ、または中央プロセッサ・ユニット(CPU)内で動作可能なソフトウェアなどの、任意の好適な形で具体化することができる。別の方法として、プロトコルは、ファームウェアとして具体化された超小型電子計算モジュールの回路内でハードワイヤード可能であるか、または位相分析のためのインターネット・サイトで動作可能なアプレットとしてオンラインで使用可能であるものとすることができる。
以上、本発明について、例示的な実施形態および特徴を参照しながら本明細書で様々に開示してきたが、前述の実施形態および特徴は本発明を限定することを意図するものでないこと、ならびに、当業者であれば、他の変形、修正、および代替実施形態を容易に思いつくであろうということを理解されよう。したがって本発明は、添付の特許請求の範囲の趣旨および範囲内にあるこうした変形、修正、および代替実施形態を含むものとして、広義に解釈されるものとする。
従来の運動ベースの時間的補外法を示す図である。 従来の運動ベースの時間的補間法を示す図である。 従来の運動ベースの補外法および補間法で使用される処理ステップを示す流れ図である。 本発明の一実施形態に従った、統計的類似性推定を使用することによる、改良された視覚信号の補外または補間のシステムおよび方法を示す流れ図である。 本発明の一実施形態に従った、補外または補間によって推定ピクチャの構築のための運動ベクトルを生成するために、運動推定において統計的類似性測定値を使用する例示的処理ステップを示す流れ図である。 本発明の一実施形態に従った、2つのピクセル・ブロックPおよびQに関して統計的類似性指数を計算するための例示的処理ステップを示す流れ図である。 本発明の一実施形態に従った、統計的類似性推定を使用することによって推定ピクチャ上の空のピクセル位置を満たすための方法を示す図である。 本発明の一実施形態に従った、統計的類似性推定を使用することによって推定ピクチャ上のピクセル位置に関する多重マッピングを解決するための方法を示す図である。

Claims (13)

  1. 視覚信号の補外または補間のためのコンピュータ・ベースの方法であって、
    少なくとも第1および第2の基準ピクチャを提供するステップと、
    前記第1および第2の基準ピクチャのうちの少なくとも1つの、他方に対する動きを示す運動ベクトルを生成するために、前記第1および第2の基準ピクチャ上で運動推定を実行するステップと、
    前記運動ベクトルを使用して、補外または補間によって推定ピクチャを生成するステップと、
    前記推定ピクチャを詳細化するステップと、
    を含み、
    運動推定または前記推定ピクチャの詳細化のいずれか、またはその両方の組み合わせにおいて、統計的類似性推定が使用され
    前記第1の基準ピクチャ上のピクセル・ブロックの統計的特徴が計算され、前記第2の基準ピクチャ上の1つまたは複数のピクセル・ブロックの統計的特徴と比較され、前記第1の基準ピクチャ上の前記ピクセル・ブロックに対するその統計的類似性に少なくとも部分的に基づいて、前記第2の基準ピクチャ上で最高に合致するピクセル・ブロックが決定され、前記第2の基準ピクチャ上で最高に合致するピクセル・ブロックに対するその動きを示す、前記第1の基準ピクチャ上の前記ピクセル・ブロックに関する運動ベクトルが生成され、
    前記第1の基準ピクチャ上のピクセル・ブロックと、前記第2の基準ピクチャ上の1つまたは複数のピクセル・ブロックとの間の統計的類似性が、以下の式に従って統計的類似性指数を計算することによって決定され、
    Figure 0005089608
    上式で、Pは前記第1の基準ピクチャ上のピクセル・ブロックであり、Qは前記第2の基準ピクチャ上のピクセル・ブロックであり、SSI(P,Q)はブロックPとQの間の統計的類似性を示す統計的類似性指数であり、μ(P)はブロックPのブロック・サンプル平均であり、μ(Q)はブロックQのブロック・サンプル平均であり、Var(P)はブロックPのブロック・サンプル分散であり、Var(Q)はブロックQのブロック・サンプル分散であり、Cov(P,Q)はブロックPとQの間の共分散であり、αおよびβは重み付け係数である、方法。
  2. 前記統計的類似性指数が正規化される、請求項に記載の方法。
  3. 統計的類似性推定が運動推定で使用される、請求項1に記載の方法。
  4. 前記ピクセル・ブロックの統計的特徴が、ブロック・サンプル平均、ブロック・サンプル分散、および隣接パラメータを含む、請求項に記載の方法。
  5. 視覚信号の補外または補間のためのコンピュータ・ベースの方法であって、
    少なくとも第1および第2の基準ピクチャを提供するステップと、
    前記第1および第2の基準ピクチャのうちの少なくとも1つの、他方に対する動きを示す運動ベクトルを生成するために、前記第1および第2の基準ピクチャ上で運動推定を実行するステップと、
    前記運動ベクトルを使用して、補外または補間によって推定ピクチャを生成するステップと、
    前記推定ピクチャを詳細化するステップと、
    を含み、
    運動推定または前記推定ピクチャの詳細化のいずれか、またはその両方の組み合わせにおいて、統計的類似性推定が使用され
    前記推定ピクチャの詳細化ステップで統計的類似性推定が使用され、
    統計的類似性推定が前記推定ピクチャ上の空のピクセル位置を満たすために使用され、
    前記推定ピクチャ上の前記空のピクセル位置を取り囲む隣接ブロックに関する統計的特徴を計算するステップと、
    前記推定ピクチャの生成元である前記基準ピクチャ上で検索領域を識別するステップと、
    前記検索領域内で最高に合致するブロックを検索するステップであって、前記最高に合致するブロックが、前記基準ピクチャ上の特定のピクセルを取り囲み、前記推定ピクチャ上の前記空のピクセル位置を取り囲む前記隣接ブロックに対する最高の統計的類似性を有する、ステップと、
    前記空のピクセル位置を、前記基準ピクチャ上の前記最高に合致するブロックによって取り囲まれた前記特定のピクセルで満たすステップとを含み、
    前記推定ピクチャ上の前記空のピクセル位置を取り囲む前記隣接ブロックと、前記検索領域内の1つまたは複数のピクセル・ブロックとの間の、統計的類似性が、以下の式に従って統計的類似性指数を計算することによって決定され、
    Figure 0005089608
    上式で、Pは前記推定ピクチャ上の前記空のピクセル位置を取り囲む前記隣接ブロックであり、Qは前記検索領域内のピクセル・ブロックであり、SSI(P,Q)はブロックPとQの間の統計的類似性を示す統計的類似性指数であり、μ(P)はブロックPのブロック・サンプル平均であり、μ(Q)はブロックQのブロック・サンプル平均であり、Var(P)はブロックPのブロック・サンプル分散であり、Var(Q)はブロックQのブロック・サンプル分散であり、Cov(P,Q)はブロックPとQの間の共分散であり、αおよびβは重み付け係数である、方法。
  6. 前記隣接ブロックの統計的特徴が、ブロック・サンプル平均、ブロック・サンプル分散、および隣接パラメータを含む、請求項に記載の方法。
  7. 視覚信号の補外または補間のためのコンピュータ・ベースの方法であって、
    少なくとも第1および第2の基準ピクチャを提供するステップと、
    前記第1および第2の基準ピクチャのうちの少なくとも1つの、他方に対する動きを示す運動ベクトルを生成するために、前記第1および第2の基準ピクチャ上で運動推定を実行するステップと、
    前記運動ベクトルを使用して、補外または補間によって推定ピクチャを生成するステップと、
    前記推定ピクチャを詳細化するステップと、
    を含み、
    運動推定または前記推定ピクチャの詳細化のいずれか、またはその両方の組み合わせにおいて、統計的類似性推定が使用され
    前記推定ピクチャの詳細化ステップで統計的類似性推定が使用され、
    前記推定ピクチャの生成元である前記基準ピクチャ上の複数のピクセルから、前記推定ピクチャ上の特定のピクセル位置に関する最高に合致するピクセルを選択するために、統計的類似性推定が使用され、前記複数のピクセルはすべて、前記推定ピクチャ上の前記特定のピクセル位置に補外または補間され、
    前記推定ピクチャ上の前記特定のピクセル位置を取り囲む隣接ブロックに関する統計的特徴を計算するステップと、
    それぞれが前記基準ピクチャ上の前記複数のピクセルのうちの1つを取り囲む、複数のピクセル・ブロックに関する統計的特徴を計算するステップと、
    前記基準ピクチャ上の前記複数のピクセルを取り囲む前記複数のブロックの中で最高に合致するブロックを識別するステップであって、前記最高に合致するブロックが、前記推定ピクチャ上の前記特定のピクセル位置を取り囲む前記隣接ブロックに対する最高の統計的類似性を有する、ステップと、
    前記基準ピクチャ上の前記最高に合致するブロックによって取り囲まれた前記ピクセルを、前記推定ピクチャ上の前記特定のピクセル位置に関する前記最高に合致するピクセルとして選択するステップと、
    をさらに含む、方法。
  8. 前記隣接ブロックの統計的特徴が、ブロック・サンプル平均、ブロック・サンプル分散、および隣接パラメータを含む、請求項に記載の方法。
  9. 前記推定ピクチャ上の前記特定のピクセル位置を取り囲む前記隣接ブロックと、前記基準ピクチャ上の前記複数のピクセルを取り囲む前記複数のブロックとの間の、統計的類似性が、以下の式に従って統計的類似性指数を計算することによって決定され、
    Figure 0005089608
    上式で、Pは前記推定ピクチャ上の前記特定のピクセル位置を取り囲む前記隣接ブロックであり、Qは前記基準ピクチャ上の前記複数のピクセルを取り囲む前記複数のブロックのうちの1つであり、SSI(P,Q)はブロックPとQの間の統計的類似性を示す統計的類似性指数であり、μ(P)はブロックPのブロック・サンプル平均であり、μ(Q)はブロックQのブロック・サンプル平均であり、Var(P)はブロックPのブロック・サンプル分散であり、Var(Q)はブロックQのブロック・サンプル分散であり、Cov(P,Q)はブロックPとQの間の共分散であり、αおよびβは重み付け係数である、請求項に記載の方法。
  10. 視覚信号の補外または補間のためのコンピュータ・ベースのシステムであって、
    少なくとも第1および第2の基準ピクチャを取得および格納するための手段と、
    前記第1および第2の基準ピクチャのうちの少なくとも1つの、他方に対する動きを示す運動ベクトルを生成するために、前記第1および第2の基準ピクチャ上で運動推定を実行するための手段と、
    前記運動ベクトルを使用して、前記第1または第2の基準ピクチャから、補外または補間によって推定ピクチャを生成するための手段と、
    前記推定ピクチャを詳細化するための手段と、
    を備え、
    運動推定または前記推定ピクチャの詳細化のいずれか、またはその両方の組み合わせにおいて、統計的類似性推定が使用され
    統計的類似性推定が前記推定ピクチャを詳細化するために使用され、
    前記推定ピクチャの生成元である前記基準ピクチャ上の複数のピクセルから、前記推定ピクチャ上の特定のピクセル位置に関する最高に合致するピクセルを選択するために、統計的類似性推定が使用され、前記複数のピクセルはすべて、前記推定ピクチャ上の前記特定のピクセル位置に補外または補間され、
    前記推定ピクチャ上の前記特定のピクセル位置を取り囲む隣接ブロックに関する統計的特徴を計算するための手段と、
    それぞれが前記基準ピクチャ上の前記複数のピクセルのうちの1つを取り囲む、複数のブロックに関する統計的特徴を計算するための手段と、
    前記基準ピクチャ上の前記複数のピクセルを取り囲む前記複数のブロックの中で最高に合致するブロックを識別するための手段であって、前記最高に合致するブロックが、前記推定ピクチャ上の前記特定のピクセル位置を取り囲む前記隣接ブロックに対する最高の統計的類似性を有する、手段と、
    前記基準ピクチャ上の前記最高に合致するブロックによって取り囲まれた前記ピクセルを、前記推定ピクチャ上の前記特定のピクセル位置に関する前記最高に合致するピクセルとして選択するための手段と、
    をさらに備える、システム。
  11. 統計的類似性推定が運動推定で使用され、前記第1の基準ピクチャ上のピクセル・ブロックの統計的特徴が計算され、前記第2の基準ピクチャ上の1つまたは複数のピクセル・ブロックの統計的特徴と比較され、前記第1の基準ピクチャ上の前記ピクセル・ブロックに対するその統計的類似性に基づいて、前記第2の基準ピクチャ上で最高に合致するピクセル・ブロックが決定され、前記第2の基準ピクチャ上で最高に合致するピクセル・ブロックに対するその動きを示す、前記第1の基準ピクチャ上の前記ピクセル・ブロックに関する運動ベクトルが生成される、請求項1に記載のシステム。
  12. 統計的類似性推定が前記推定ピクチャ上の空のピクセル位置を満たすために使用され、
    前記推定ピクチャ上の前記空のピクセル位置を取り囲む隣接ブロックに関する統計的特徴を計算するための手段と、
    前記推定ピクチャの生成元である前記基準ピクチャ上で検索領域を識別するための手段と、
    前記検索領域内で最高に合致するブロックを検索するための手段であって、前記最高に合致するブロックが、前記基準ピクチャ上の特定のピクセルを取り囲み、前記推定ピクチャ上の前記空のピクセル位置を取り囲む前記隣接ブロックに対する最高の統計的類似性を有する、手段と、
    前記空のピクセル位置を、前記基準ピクチャ上の前記最高に合致するブロックによって取り囲まれた前記特定のピクセルで満たすための手段と、
    をさらに備える、請求項1に記載のシステム。
  13. 統計的類似性推定が、運動推定と前記推定ピクチャの詳細化との両方で使用される、請求項1に記載のシステム。
JP2008549007A 2006-01-06 2007-01-03 視覚信号の補外または補間のためのシステムおよび方法 Expired - Fee Related JP5089608B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/327,072 US7965774B2 (en) 2006-01-06 2006-01-06 Method for visual signal extrapolation or interpolation
US11/327,072 2006-01-06
PCT/EP2007/050050 WO2007077243A2 (en) 2006-01-06 2007-01-03 Systems and methods for visual signal extrapolation or interpolation

Publications (2)

Publication Number Publication Date
JP2009522892A JP2009522892A (ja) 2009-06-11
JP5089608B2 true JP5089608B2 (ja) 2012-12-05

Family

ID=38092992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008549007A Expired - Fee Related JP5089608B2 (ja) 2006-01-06 2007-01-03 視覚信号の補外または補間のためのシステムおよび方法

Country Status (4)

Country Link
US (2) US7965774B2 (ja)
JP (1) JP5089608B2 (ja)
CN (1) CN101361369B (ja)
WO (1) WO2007077243A2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8179967B2 (en) * 2005-07-05 2012-05-15 Stmicroelectronics S.A. Method and device for detecting movement of an entity provided with an image sensor
US8300015B2 (en) * 2005-07-05 2012-10-30 Stmicroelectronics S.A. Method of detecting the movement of an entity equipped with an image sensor and device for implementing same
AU2007201403A1 (en) * 2007-03-30 2008-10-16 Canon Kabushiki Kaisha Improvement for Spatial Wyner Ziv coding
JP2009077309A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 動き予測装置および動き予測方法
KR100915097B1 (ko) * 2007-11-02 2009-09-02 성균관대학교산학협력단 오류정정을 이용한 분산비디오부호화 영상의 복호화 장치및 그 방법
US8295342B2 (en) * 2007-11-14 2012-10-23 International Business Machines Corporation Method and system for efficient video compression with low-complexity encoder
KR20100027384A (ko) * 2008-09-02 2010-03-11 삼성전자주식회사 예측 모드 결정 방법 및 장치
FR2936925B1 (fr) * 2008-10-03 2011-08-12 Canon Kk Procede et dispositif de decodage d'images d'une sequence d'images encodee selon un format predictif avec restauration de donnees manquantes
WO2010043809A1 (fr) * 2008-10-15 2010-04-22 France Telecom Prediction d'une image par compensation en mouvement en avant
US9549184B2 (en) 2008-10-31 2017-01-17 Orange Image prediction method and system
AU2008259744B2 (en) * 2008-12-18 2012-02-09 Canon Kabushiki Kaisha Iterative DVC decoder based on adaptively weighting of motion side information
EP2392142B1 (fr) * 2009-01-28 2018-10-24 Orange Procedes de codage et de decodage d'une sequence d'image mettant en oeuvre une compensation en mouvement, dispositifs de codage et de decodage, signal et programmes d'ordinateur correspondants
TWI408621B (zh) * 2009-11-17 2013-09-11 Mstar Semiconductor Inc 影像插補處理裝置及其方法
US9479682B2 (en) * 2011-05-18 2016-10-25 Sharp Kabushiki Kaisha Video signal processing device and display apparatus
KR102494145B1 (ko) * 2011-09-22 2023-01-31 엘지전자 주식회사 영상 정보 시그널링 방법 및 장치와 이를 이용한 디코딩 방법 및 장치
KR101977802B1 (ko) * 2012-10-10 2019-05-13 삼성전자주식회사 영상 시스템에서 움직임 추정 장치 및 방법
CN103647973B (zh) * 2013-12-10 2017-01-04 华为技术有限公司 一种帧率上采样的方法和装置
EP2960864B1 (en) * 2014-06-23 2018-12-05 Harman Becker Automotive Systems GmbH Device and method for processing a stream of video data
US11019355B2 (en) * 2018-04-03 2021-05-25 Electronics And Telecommunications Research Institute Inter-prediction method and apparatus using reference frame generated based on deep learning

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2648254B2 (fr) * 1988-09-23 1991-08-30 Thomson Csf Procede et dispositif d'estimation de mouvement dans une sequence d'images animees
WO1993023816A1 (en) * 1992-05-18 1993-11-25 Silicon Engines Inc. System and method for cross correlation with application to video motion vector estimation
JP3655651B2 (ja) * 1994-09-02 2005-06-02 テキサス インスツルメンツ インコーポレイテツド データ処理装置
KR0171147B1 (ko) * 1995-03-20 1999-03-20 배순훈 그레디언트 변화를 이용한 특징점 선정장치
US5970173A (en) * 1995-10-05 1999-10-19 Microsoft Corporation Image compression and affine transformation for image motion compensation
US6101276A (en) * 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
JPH10134193A (ja) * 1996-10-31 1998-05-22 Oki Electric Ind Co Ltd 移動ベクトル算出方法及び装置
US6078616A (en) * 1997-03-13 2000-06-20 Sony Corporation Methods and apparatus for error concealment utilizing temporal domain motion vector estimation
JP3006560B2 (ja) * 1997-09-10 2000-02-07 日本電気株式会社 位置合わせ装置及び位置合わせプログラムを記録したコンピュータが読み取り可能な記録媒体
FR2768891B1 (fr) * 1997-09-19 2000-02-04 Thomson Multimedia Sa Procede et dispositif d'interpolation temporelle d'images a compensation de mouvement
US6058143A (en) * 1998-02-20 2000-05-02 Thomson Licensing S.A. Motion vector extrapolation for transcoding video sequences
US6375567B1 (en) * 1998-04-28 2002-04-23 Acres Gaming Incorporated Method and apparatus for implementing in video a secondary game responsive to player interaction with a primary game
US6449312B1 (en) * 2000-06-08 2002-09-10 Motorola, Inc. Method of estimating motion in interlaced video
JP4337302B2 (ja) * 2002-04-17 2009-09-30 ソニー株式会社 動き補正回路及び方法
CN100553339C (zh) * 2002-07-15 2009-10-21 株式会社日立制作所 动态图像解码方法
CN100438609C (zh) * 2002-10-22 2008-11-26 皇家飞利浦电子股份有限公司 带有降质的图像处理单元
EP1578137A2 (en) * 2004-03-17 2005-09-21 Matsushita Electric Industrial Co., Ltd. Moving picture coding apparatus with multistep interpolation process
US7496736B2 (en) * 2004-08-27 2009-02-24 Siamack Haghighi Method of efficient digital processing of multi-dimensional data
US8879635B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
EP1982530A2 (en) * 2006-02-06 2008-10-22 Thomson Licensing Method and apparatus for reusing available motion information as a motion estimation predictor for videoencoding
US20070268964A1 (en) * 2006-05-22 2007-11-22 Microsoft Corporation Unit co-location-based motion estimation

Also Published As

Publication number Publication date
US7965774B2 (en) 2011-06-21
US20110164682A1 (en) 2011-07-07
US8594201B2 (en) 2013-11-26
CN101361369B (zh) 2011-09-21
JP2009522892A (ja) 2009-06-11
WO2007077243A2 (en) 2007-07-12
US20070160144A1 (en) 2007-07-12
WO2007077243A3 (en) 2008-01-10
CN101361369A (zh) 2009-02-04

Similar Documents

Publication Publication Date Title
JP5089608B2 (ja) 視覚信号の補外または補間のためのシステムおよび方法
JP7313816B2 (ja) 画像予測方法および関連装置
WO2017005146A1 (zh) 视频编码和解码方法、视频编码和解码装置
CN110741640B (zh) 用于视频代码化中的运动补偿预测的光流估计
KR100843112B1 (ko) 이미지 매칭
EP2850835B1 (en) Estimation, encoding and decoding of motion information in multidimensional signals through motion zones, and of auxiliary information through auxiliary zones
JP5044568B2 (ja) 予測誘導間引き探索を使用する動き推定
US20090147851A1 (en) Motion vector field projection dealing with covering and uncovering
WO2007110000A1 (en) A method and device of obtaining disparity vector and its multi-view encoding-decoding
US7916791B2 (en) Method and system for non-linear motion estimation
CN110692241B (zh) 使用多种全局运动模型的多样化运动
JP2018529270A (ja) 動きベクトル場の符号化方法、復号方法、符号化装置、および復号装置
JP2011029863A (ja) 復号化処理方法
CN111669600B (zh) 视频编码方法、装置、编码器及存储装置
CN110324634B (zh) 一种基于运动矢量嵌入失真分解的视频隐写方法
WO2014166412A1 (zh) 一种视频编码方法、解码方法和装置
CN117768647A (zh) 图像处理方法、装置、设备及可读存储介质
TW550953B (en) Method of performing motion estimation
CN110730344B (zh) 一种视频编码方法、装置以及计算机存储介质
JP2007110409A (ja) 画像処理装置及び画像処理方法をコンピュータに実行させるためのプログラム
JP4032049B2 (ja) 動きベクトル検出方法及びその装置
JP2008301270A (ja) 動画像符号化装置及び動画像符号化方法
KR100810391B1 (ko) 움직임 보간을 이용한 프레임 레이트 변환 방법
Lin et al. DSRA: A block matching algorithm for near-real-time video encoding
JP2011009887A (ja) 画像補正装置及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120911

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees