JP2016515776A - 平滑性の制約を用いてモーションが補償されるフレーム補間 - Google Patents

平滑性の制約を用いてモーションが補償されるフレーム補間 Download PDF

Info

Publication number
JP2016515776A
JP2016515776A JP2016505598A JP2016505598A JP2016515776A JP 2016515776 A JP2016515776 A JP 2016515776A JP 2016505598 A JP2016505598 A JP 2016505598A JP 2016505598 A JP2016505598 A JP 2016505598A JP 2016515776 A JP2016515776 A JP 2016515776A
Authority
JP
Japan
Prior art keywords
frame
motion
interpolated
interpolation
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016505598A
Other languages
English (en)
Other versions
JP6457483B2 (ja
Inventor
コカラム,アニル
ケリー,ダミアン
ジョセフ クロフォード,アンドリュー
ジョセフ クロフォード,アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2016515776A publication Critical patent/JP2016515776A/ja
Application granted granted Critical
Publication of JP6457483B2 publication Critical patent/JP6457483B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors

Abstract

【課題】本発明は、ビデオフレーム補間またはPull型フレーム補間のシステム、方法および装置を提供することにある。【解決手段】Pull型フレーム補間は、複数の入力ビデオフレームを特定すること、複数の入力ビデオフレームの第1のフレームから、複数の入力ビデオフレームの第2のフレームに、モーションを示す複数のモーションベクトルを生成すること、第1のフレームおよび第2のフレームとの間に補間ポイントを特定すること、複数のモーションベクトルに基づいて、第1のフレームから補間ポイントへのモーションおよび第2のフレームから補間ポイントまでを示す複数の候補補間モーションベクトルを生成すること、測定基準に基づいて、複数の候補補間モーションベクトルから、補間モーションベクトルを選択すること、および選択された補間モーションベクトルに基づいて、補間ポイントで補間されたフレームを生成することを含んでもよい。【選択図】図10

Description

本発明は、ビデオフレーム補間(video frame interpolation)またはPull型フレーム補間(pull frame interpolation)のシステム、方法および装置に関するものである。
デジタルビデオは、例えば、テレビ会議を介した遠隔地でのビジネス会議、高解像度ビデオエンターテインメント、ビデオ広告、またはユーザが生成したビデオの共有に用いることができる。したがって、時間的および空間的なフレーム補間を行うことには利点がある。
Pull型フレーム補間の方法の一態様は、複数の入力ビデオフレームを特定すること、前記複数の入力ビデオフレームの第1のフレームから、前記複数の入力ビデオフレームの第2のフレームに、モーションを示す複数のモーションベクトルを生成すること、前記第1のフレームおよび前記第2のフレームとの間に補間ポイントを特定すること、前記複数のモーションベクトルに基づいて、前記第1のフレームから前記補間ポイントへのモーションおよび前記第2のフレームから前記補間ポイントまでを示す複数の候補補間モーションベクトルを生成すること、測定基準に基づいて、前記複数の候補補間モーションベクトルから、補間モーションベクトルを選択すること、および選択された前記補間モーションベクトルに基づいて、前記補間ポイントで補間されたフレームを生成することを含んでもよい。
Pull型フレーム補間の方法の他の態様は、複数の入力ビデオフレームを特定すること、前記複数の入力ビデオフレームの第1のフレームから、前記複数の入力ビデオフレームの第2のフレームに、モーションを示す複数のモーションベクトルを生成すること、前記複数のモーションベクトルの平滑性の程度を判定すること、前記平滑性の程度が閾値を越える状態で、前記補間されたフレームとして前記第1のフレームまたは前記第2のフレームを使用することと、前記平滑性の程度が閾値内にある状態で、前記第1のフレームと前記第2のフレームの間の補間ポイントを特定することを共同して使用すること、組み合わせられたエネルギー機能を用いること、遮蔽を特定すること、および前記第1のフレームから前記補間ポイントへのモーションを示す候補補間モーションベクトルと、前記第2のフレームから前記補間ポイントへのモーションを示す候補補間モーションベクトルと、複数の隣接サイトに対するモーション予測に基づく候補補間モーションベクトルとを含む複数の候補補間モーションベクトルを、前記複数のモーションベクトルに基づいて生成することを含んでもよい。複数の補間サイト内の各補間サイトに対して、Pull型フレーム補間は、前記補間されたフレーム内の平滑性の制約および前記第1のフレームと前記第2のフレームの間の平滑性の制約に基づいて、前記複数の候補補間モーションベクトルから補間モーションベクトルを選択すること、補間モーションベクトルを選択すること、および前記選択された補間モーションベクトルに基づいて前記補間されたフレームを更新することを含んでもよい。Pull型フレーム補間は、前記選択された補間モーションベクトルに基づいて、前記補間ポイントで補間されたフレームを生成することを含んでもよい。前記補間されたフレームは、前記複数の補間サイトを含み、前記補間されたフレームを生成することは、前記補間されたフレームと前記第1のフレームおよび前記第2のフレームの平均とを融合することで、前記補間モーションベクトルに基づいて前記補間されたフレームの加工を修正することを含み、前記融合の程度は、高いモーション勾配を有する前記補間されたフレームの一部を、前記第1のフレームと前記第2のフレームの前記平均に対応する領域と置き換えるように、前記補間モーションベクトルに関連するモーションフィールドの勾配に基づくものでもよい。
上記の態様および他の態様における変形例は、以下に詳細に説明する。
本明細書の記載は、添付の図面を参照する。いくつかの図において、同じ参照番号は、同じ部分について述べるものである。
本発明によれば、時間的および空間的なフレーム補間を行うことができる。
本開示の実施態様に係るコンピューティング装置の図である。
本開示の実施態様に係るコンピューティングおよび通信システムの図である。
本開示の実施態様に係るフレーム補間に用いられるビデオストリームの図である。
本開示の実施態様に係るエンコーダのブロック図である。
本開示の実施態様に係るデコーダのブロック図である。
本開示の実施態様に係るビデオフレーム率変換のタイムラインの例を示す。
本開示の実施態様に係るPull型フレーム補間の一例の図を示す。
本開示の実施態様に係るPull型フレーム補間の一例の他の図を示す。
本開示の実施態様に係るサイトグリッド近接の一例の図を示す。
本開示の実施態様に係るヒットリスト生成の一例の図を示す。
本開示の実施態様に係るPull型フレーム補間の一例の図を示す。
本開示の実施態様に係るPull型フレーム補間の一例の簡略図を示す。
デジタルビデオは、例えば、テレビ会議による遠隔地とのビジネス会議、高解像度のビデオエンターテインメント、ビデオ広告、およびユーザが生成したビデオの共有等、さまざまな目的に用いることができる。ビデオ信号の生成および表示は、異なるフレームレートで実行してもよい。Pull型フレーム補間(Pull frame interpolation)を実行し、1つのフレームレートから別のフレームレートに変換し、スローモーション効果等、時間的または空間的なビデオ効果をもたらしてもよい。
ビデオ信号の生成には、アナログまたはデジタルフォーマットのビデオ信号を生成することが含まれてもよい。フォーマットによって、各々2フィールドのインタレース画像が含まれてもよく、各フレームで利用可能なラインの半分は、時間単位(またはフレームサンプリング周期)でサンプリングされる。時間単位(フレームレート)のフレーム数を変えてもよいし、あるフレームレートから別のフレームレートに変換してもよい。非モーション補償フレームレート変換は、フレームのドロップまたはリピートに基づくこともあるし、モーションを十分に維持しないこともある。フレーム補間等のモーション補償フレームレート変換では、モーションをより十分に維持してもよいし、ビデオ信号からモーション情報を使用して、新たな補間フレームを作成することを含めてもよい。
Pull型フレーム補間を用いてフレームレートを変換してもよい。いくつかの実施態様において、Pull型フレーム補間を用いて、時間的または空間的なビデオ効果もたらすようにしてもよい。例えば、Pull型フレーム補間では、追加フレームを生成し、スローモーション効果への移行またはスローモーション効果の終了、あるいは空間動作効果をもたらすために空間的に近接した入力フレーム間にフレームを補間してもよい。
Pull型フレーム補間は、連続的に存在するフレームから引き抜かれた(pulled)モーション情報を使用して補間フレームを生成することを含んでもよい。モーション情報は、いかなるモーション推定装置により生成されてもよい。補間されたモーションは、画像補間とは別に生成してもよい。Pull型フレーム補間は、モーションベクトル選択の候補に基づいて最適化することを含んでもよい。後処理を行うことにより、例えば、ぼやけているあるいは低品質な入力データの処理を改善してもよい。いくつかの実施態様において、Pull型フレーム補間は、例えば、大量のモーションを含む入力の性能を高めるマルチ解像マルチパススキーム(multiresolution multipass scheme)を使用してもよい。
図1は、本開示の実施態様に係るコンピューティング装置100の図である。コンピューティング装置100は、通信インタフェース110、通信部120、ユーザインタフェース(UI)130、プロセッサ140、メモリ150、命令160、電源170、または、いかなるそれらの組み合わせを含む。本明細書で用いられる「コンピューティング装置(computing device)」という用語は、本明細書に開示のいかなる装置、いかなる方法も実行可能な装置の組み合わせ、またはいかなる部分をも含む。
コンピューティング装置100は、パーソナルコンピュータ(PC)、サーバ、ワークステーション、ミニコンピュータ、またはメインフレーム等、移動しないコンピューティング装置でも、自動車電話、個人情報機器(PDA)、ラップトップ、またはタブレット型パソコン等のモバイルコンピュータでもよい。単一の装置として図示するが、コンピューティング装置100の1つ以上のいかなる構成要素も、いかなる数の別の物理的装置に組み込むことができる。例えば、UI130およびプロセッサ140は第1の物理装置に組み込み、メモリ150は第2の物理装置に組み込むことができる。
通信インタフェース110は、図示するように無線アンテナでもよいし、有線の通信ポートでもよく、有線または無線の電子通信媒体180に連結可能なイーサネット(登録商標)ポート、赤外線ポート、直列ポートまたは他のいかなる有線または無線装置等でもよい。
通信部120は、有線または無線の媒体180を介して信号を送信または受信するように構成することができる。例えば、図示するように、通信部120は、無線信号で通信するように構成されたアンテナに、動作可能なように接続している。図1に明示されていないが、通信部120は、無線周波数(RF)、紫外線(UV)、可視光、光ファイバ、または有線配線、あるいはそれらの組み合わせ等、いかなる有線または無線の通信メディアを介しても、送信、受信、あるいは両方を行うように構成することができる。図1は、単一の通信部120および単一の通信インタフェース110を示すが、いかなる数の通信部およびいかなる数の通信インタフェースを用いることができる。
UI130は、仮想または物理キーパッド、タッチパッド、ディスプレイ、タッチディスプレイ、スピーカ、マイクロホン、ビデオカメラ、センサ、またはいかなるそれらの組み合わせ等、ユーザとのインターフェイスとなりうるいかなる装置も含むことができる。図示するように、UI130は、プロセッサまたは電源170等、通信装置100の他のいかなる構成要素にも連結して動作可能とすることができる。単一の装置として図示するが、UI130は、1つ以上の物理装置を含んでもよい。例えば、UI130は、ユーザと音声通信を実行するための音声インターフェースと、ユーザとのコミュニケーションに基づいて、映像および接触を実行するためのタッチディスプレイとを含んでもよい。別々の装置として図示するが、通信インタフェース110、通信部120、およびUI130、またはその一部は、複合装置として構成されてもよい。例えば、通信インタフェース110、通信部120およびUI130は、外部のタッチスクリーン装置と連結可能な通信ポートとして実現されてもよい。
プロセッサ140は、光プロセッサ、量子プロセッサ、分子プロセッサ、またはそれらの組み合わせを含み、現存しているまたは今後開発される信号または他の情報を操作または処理可能ないかなる装置またはシステムも含むことができる。例えば、プロセッサ140は、汎用プロセッサ、専用プロセッサ、従来のプロセッサ、ディジタル信号処理装置(DSP)複数のマイクロプロセッサ、DSPコアに関連した1つ以上のマイクロプロセッサ、コントローラ、マイクロコントローラ、エイシック(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ、プログラマブルロジックコントローラ、マイクロコード、ファームウェア、任意の集積回路(IC)、ステートマシン、または、いかなるそれらの組み合わせも含めることができる。本明細書で用いられる「プロセッサ」という用語は、シングルプロセッサまたはマルチプロセッサを含む。プロセッサ140は、通信インタフェース110、通信部120、UI130、メモリ150、命令160、電源170、または、いかなるそれらの組み合わせとも動作可能に連結することができる。
メモリ150は、非一時的な(non-transitory)、コンピュータ使用可能な、またはコンピュータ読み取り可能な、いかなる媒体も含むことができ、プロセッサ140によって、またはプロセッサ140と連結して、命令160またはそれに関連するいかなる情報についても、例えば、含有、格納、伝達または転送可能ないかなる有形装置でもよい。非一時的コンピュータ使用可能またはコンピュータ読み取り可能な媒体は、例えば、ソリッドステートドライブ、メモリーカード、取り外し可能媒体、読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、ハードディスクを含む任意のディスク、フロッピー(登録商標)ディスク、光ディスク、磁気または光カード、特定用途向けIC(ASIC)、または電子情報格納に適する任意の非一時的なメディアとすることができる。メモリ150は、例えば、プロセッサ140に、例えば、メモリバス(明示的に図示せず)経由で接続することができる。
命令160には、いかなる方法または本明細書に開示の一部を実行するための指示を含めることができる。命令160は、ハードウェア、ソフトウェアまたはいかなるそれらの組み合わせにより実現することができる。例えば、命令160は、本明細書に開示のように、それぞれの方法、アルゴリズム、態様またはそれらの組み合わせのいずれかを実行するために、プロセッサ140によって実行されるコンピュータプログラムプログラム等、メモリ150に格納される情報として実現してもよい。命令160またはその一部は、本明細書に記載のように、方法、アルゴリズム、実施態様またはそれらの組み合わせのいずれかを実行するための専門ハードウェアを含むことが可能な専用プロセッサまたは回路として実現してもよい。命令160の一部を、同じ機械または異なる機械上の複数のプロセッサ全体に、または、LAN、WAN、インターネットまたはそれらの組み合わせ等のネットワーク全体に分配することができる。
電源170は、通信装置110に電力を供給するいかなる適切な装置とすることもできる。例えば、電源170は、有線の電源、ニッケル‐カドミウム(NiCd)、ニッケル‐亜鉛(NiZn)、ニッケル水素(NiMH)、リチウム‐イオン(リチウムイオン)等の1つ以上の乾電池、太陽電池、燃料電池、または、通信装置110に電力を供給することが可能な他のいかなる装置も含むことができる。通信インタフェース110、通信部120、UI130、プロセッサ140、命令160、メモリ150、またはいかなるそれらの組み合わせも、電源170に動作可能に連結することができる。
別々の構成要素として図示するが、通信インタフェース110、通信部120、UI130、プロセッサ140、命令160、電源170、メモリ150またはいかなるそれらの組み合わせも、1つ以上の電子装置、回路またはチップに一体化することができる。
図2は、本開示の実施態様に係るコンピューティングおよび通信システム200である。コンピューティングおよび通信システム200は、1つ以上のコンピューティングおよび通信装置100A/100B/100C、1つ以上のアクセスポイント210A/210B、1つ以上のネットワーク220、または、それらの組み合わせを含んでもよい。例えば、コンピューティングおよび通信システム200は、コンピューティングおよび通信装置100A/100B/100C等、1つ以上の有線または無線の通信装置に対して、音声、データ、ビデオ、メッセージ送信、同報通信、またはそれらの組み合わせ等の通信を可能にする複数のアクセス・システムとすることができる。説明を簡単にするために、図2は、3つのコンピューティングおよび通信装置100A/100B/100C、2つのアクセスポイント210A/210B、および1つのネットワーク220を示すが、いかなる数のコンピューティングおよび通信装置、アクセスポイント、およびネットワークも用いることができる。
コンピューティングおよび通信装置100A/100B/100Cは、例えば、図1に示すコンピューティング装置100等のコンピューティング装置とすることができる。例えば、図示するように、コンピューティングおよび通信装置100A/100Bは、モバイルコンピュータ装置、ラップトップ、シンクライアント(thin client)またはスマートフォン等のユーザ装置でもよく、コンピューティングおよび通信装置100Cは、メインフレームまたはクラスタ等のサーバとしてもよい。コンピューティングおよび通信装置100A/100Bは、ユーザ装置として説明し、コンピューティングおよび通信装置100Cは、サーバとして説明するが、いかなるコンピューティングおよび通信装置も、サーバの機能のいくらかまたは全て、ユーザ装置の機能のいくらかまたは全て、または、サーバおよびユーザ装置の機能のいくらかまたは全てを実行することができる。
各コンピューティングおよび通信装置100A/100B/100Cは、有線または無線通信を実行するよう構成することができる。例えば、コンピューティングおよび通信装置100A/100B/100Cは、有線または無線通信信号を送信または受信するように構成することができ、ユーザ機器(UE)、移動局(mobile station)、固定または移動の加入者ユニット、移動電話、パーソナルコンピュータ、タブレットコンピュータ、サーバ、家電、またはいかなる類似のデバイスも含むことができる。各コンピューティングおよび通信装置100A/100B/100Cを単一の装置として図示するが、コンピューティングおよび通信装置は、相互に連結したいかなる数の構成要素も含むことができる。
各アクセスポイント210A/210Bは、有線または無線の通信リンク180A/180B/180Cを介して、コンピューティングおよび通信装置100A/100B/100C、ネットワーク220、または両方に通信するように構成される任意デバイスとすることができる。例えば、アクセスポイント210A/210Bは、基地局、基地送受信局(BTS)、ノード‐B、拡張ノード‐B(eNode‐B)、ホームノード‐B(HNode‐B)、無線ルータ、有線ルータ、ハブ、リレー、スイッチ、またはいかなる類似の有線または無線の装置も含むことができる。各アクセスポイント210A/210Bは、単一の装置として図示するが、アクセスポイントは、相互に連結したいかなる数の構成要素も含むことができる。
ネットワーク220は、有線または無線の通信リンクを通して、音声、データ、アプリケーション、VoIP(VoIP)、または他のいかなる通信プロトコルあるいは通信プロトコルの組合せ等のサービスを提供するように構成される任意のネットワークとすることができる。例えば、ネットワーク220は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、仮想プライベートネットワーク(VPN)、モバイルまたはセルラー電話ネットワーク、インターネット、または、他のいかなる電子通信手段とすることもできる。ネットワーク220は、伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、インターネットプロトコル(IP)、リアルタイムがプロトコル(RTP)、ハイパーテキスト転送プロトコル(HTTP)、またはそれらの組み合わせ等の通信プロトコルを使用することができる。
コンピューティングおよび通信装置100A/100B/100Cは、1つ以上の有線または無線の通信リンクを用いるネットワーク220を介して、あるいは、有線および無線の通信リンクの組合せを介して、互いに通信することができる。例えば、図示するように、コンピューティングおよび通信装置100A/100Bは、無線通信リンク180A/180Bを介して通信することができ、コンピューティングおよび通信装置100Cは、有線通信リンク180Cを介して通信することができる。コンピューティングおよび通信装置100A/100B/100Cのいずれも、いかなる有線または無線の通信リンクを用いても通信することができる。例えば、第1のコンピューティングおよび通信装置100Aは、第1のタイプの通信リンクを使用する第1のアクセスポイント210Aを介して通信することができ、第2のコンピューティングおよび通信装置100Bは、第2のタイプの通信リンクを使用する第2のアクセスポイント210Bを介して通信することができ、第3のコンピューティングおよび通信装置100Cは、第3のタイプの通信リンクを使用する第3のアクセスポイント210Cを介して通信することができる。同様に、アクセスポイント210A/210Bは、有線または無線の通信リンク230A/230Bの1つ以上のタイプの通信リンクを介して、ネットワーク220と通信することができる。図2は、ネットワーク220を介して通信するコンピューティングおよび通信装置100A/100B/100Cを図示するが、コンピューティングおよび通信装置100A/100B/100Cは、直接の有線または無線の通信リンク等、いかなる数の通信リンクを介しても、それぞれ通信することができる。
コンピューティングおよび通信システム200の他の実施態様も可能である。例えば、ネットワーク220をアドホックネットワークとすることができ、1つ以上のアクセスポイント210A/210Bを省略することができる。コンピューティングおよび通信システム200は、図2に図示されていない装置、ユニット、または構成要素を含んでもよい。例えば、コンピューティングおよび通信システム200は、より多くの通信装置、ネットワークおよびアクセスポイントを含んでもよい。
図3は、本開示の実施形態に係る、符号化(encoding)、復号化(decoding)、フレーム補間(frame interpolation)またはいかなるそれらの組み合わせにも用いられるビデオストリーム300の図である。例えば、コンピュータによって生成されるビデオカメラまたはビデオストリームによって取り込まれるビデオストリーム等のビデオストリーム300は、ビデオシーケンス310を含んでもよい。ビデオシーケンス310は、一連の隣接するフレーム320を含んでもよい。3つの隣接するフレーム320を示すが、ビデオシーケンス310は、いかなる数の隣接するフレーム320を含んでもよい。隣接するフレーム320の各フレーム330は、ビデオストリームの単一の画像を表してもよい。フレーム330は、ブロック340を含んでもよい。図3に示されていないが、1ブロックには、複数のピクセルを含むことができる。例えば、1ブロックには、16x16のピクセルグループ、8x8のピクセルグループ、8x16のピクセルグループまたは他のいかなるピクセルのグループも含むことができる。本明細書において示されない限り、用語「ブロック」は、マクロブロック、セグメント、スライスまたはフレームの他のいかなる部分も含んでもよい。フレーム、ブロック、ピクセルまたはそれらの組み合わせは、輝度情報、クロミナンス情報(chrominance information)、またはビデオストリーム300またはその一部分を、格納、修正、伝達、表示のために用いることが可能な他の情報等の表示情報を含むことができる。
図4は、本開示の実施態様に係るエンコーダ400のブロック図である。エンコーダ400は、例えば、図1に示されるメモリ150等のデータ記憶部に格納されたコンピュータソフトウェアプログラムとして、図1に示すコンピュータ100や図2に示すコンピューティング及び通信デバイス1OOA/1OOB/1OOC等の装置において実行することができる。コンピュータソフトウェアプログラムは、図1に示すプロセッサ160等のプロセッサによって実行することができる機械語の指示を含むことができ、本明細書において記載するように、その装置にビデオデータを符号化させてもよい。エンコーダ400は、例えば、コンピュータ100に含まれる専門ハードウェアとして実行することができる。
エンコーダ400は、図3に示すビデオストリーム300等の入力ビデオストリーム402を符号化することができ、符号化された(圧縮された)ビットストリーム404を生成する。いくつかの実施態様において、エンコーダ400は、圧縮されたビットストリーム404を生成するためのフォワードパス(forward path)を含んでもよい。フォワードパスは、イントラ/インター予測部410、変換部420、量子化部430、エントロピー復号部440、またはいかなるそれらの組み合わせを含んでもよい。いくつかの実施態様において、エンコーダ400は、更なるブロックの符号化のためのフレームを復元するために、(破線の接続線によって示される)復元パス(reconstruction path)を含んでもよい。復元パスには、逆量子化部450、逆変換部460、再生部470、ループフィルター部480、またはいかなるそれらの組み合わせも含めることができる。エンコーダ400の他の構造上の変形例を用いて、ビデオストリーム402を符号化することができる。
ビデオストリーム402を符号化するために、ビデオストリーム402の内の各フレームを、ブロック単位で処理することができる。このように、現在のブロックをフレーム内のブロックから特定し、現在のブロックを符号化してもよい。
イントラ/インター予測部410で、現在のブロックは、単一のフレーム内にあるフレーム内予測またはフレームからフレームまでにあるフレーム間予測のいずれか使用して符号化することができる。フレーム内予測は、過去には符号化されていたが復元された現在のフレーム内のサンプルから予測ブロックを生成することを含んでもよい。フレーム間予測は、1つ以上の過去に再生された基準フレーム内のサンプルから予測ブロックを生成することを含んでもよい。現在のフレーム内の現在ブロックの予測ブロックを生成することは、基準フレーム内の適切な基準ブロックを示すモーションベクトルを生成するためのモーション推定(motion estimation)を行うことを含んでもよい。
イントラ/インター予測部410は、現在のブロック(生ブロック)から予測ブロックを減算し、残差ブロックを生成してもよい。変換部420は、ブロックに基づいた変換を実行してもよく、残差ブロックを、例えば、周波数領域の変換係数に変換することを含んでもよい。ブロックに基づいた変換の例として、クーネン−レープ変換(Karhunen-Loeve Transform)(KLT)、離散コサイン変換(Discrete Cosine Transform)(DCT)、および特異値分解変換(Singular Value Decomposition Transform)(SVD)がある。一例において、DCTは、1ブロックを周波数領域に変えることを含んでもよい。DCTは、マトリックスの左上に最も低い周波数(すなわちDC)係数を有し、マトリックスの右下に最も高い周波数係数を有する空間的周波数に基づいて変換係数値を使用することを含んでもよい。
量子化部430は、変換係数を、量子化変換係数あるいは量子化レベルと呼ばれる別々の量子値に換算してもよい。量子化変換係数は、エントロピーが符号化された係数を生成するために、エントロピー復号部440によって符号化されるエントロピーとすることができる。エントロピー符号化は、確率分布法を使用することを含んでもよい。ブロックを復号化するために用いられるエントロピーが符号化された係数および情報は、使用される予測のタイプ、モーションベクトル、および量子化部の値を含んでもよく、圧縮されたビットストリーム404へ出力することができる。圧縮されたビットストリーム404は、ランレングス符号化(run-length encoding)(RLE)およびゼロラン符号化(zero-run coding)等、さまざまな技術を用いてフォーマット化することができる。
再生パスを用いて、エンコーダ400と、図5に示すデコーダ500等の対応するデコーダとの間の基準フレーム同期化を維持することができる。再生パスは、後述する復号化プロセスと類似していてもよく、逆量子化部450で量子化された変換係数を逆量子化すること、および導関数残差ブロック(derivative residual block)を生成するように逆変換部460で逆量子化された変換係数を逆変換することを含んでもよい。再生部470は、イントラ/インター予測部410によって生成される予測ブロックを、再生ブロックを生成するために、導関数残差ブロックに追加してもよい。ブロックの加工等のひずみを減らすために、ループフィルター部480を再生ブロックに適用することができる。
エンコーダ400の他の変形例を用いて、圧縮されたビットストリーム404を符号化することができる。例えば、非変換に基づくエンコーダ400は、変換部420を用いずに直接残差ブロックを量子化することができる。いくつかの実施態様において、量子化部430および逆量子化部450を、単一の装置に結合してもよい。
図5は、本開示の実施態様に係るデコーダ500のブロック図である。デコーダ500は、例えば、図1に示されるメモリ150等のデータ記憶部に格納されるコンピュータソフトウェアプログラムとして、図1に示すコンピュータ100あるいは図2に示すコンピューティング及び通信デバイス1OOA/1OOB/1OOC等の装置において実行することができる。コンピュータソフトウェアプログラムは、図1に示すプロセッサ160等のプロセッサによって実行することができる機械語の指示を含むことができ、本明細書において記載するように、その装置にビデオデータを符号化させてもよい。エンコーダ400は、例えば、コンピュータ100に含まれる専門ハードウェアとして実行することができる。
デコーダ500は、図4に示される圧縮されたビットストリーム404等の圧縮されたビットストリーム502を受信してもよく、出力ビデオストリーム504を生成するために、圧縮されたビットストリーム502を復号化してもよい。デコーダ500は、エントロピー復号化部510、逆量子化部520、逆変換部530、イントラ/インター予測部540、再生部550、ループフィルター部560、デブロッキングフィルタ部570、またはいかなるそれらの組み合わせを含んでもよい。デコーダ500の他の構造上の変形例は、圧縮されたビットストリーム502を復号化するために用いることができる。
エントロピー復号化部510は、例えば、コンテキスト適応的なバイナリ算術的復号(Context Adaptive Binary Arithmetic Decoding)を用いて、一組の量子化された変換係数を生成するために、圧縮ビットストリーム502内でデータエレメントを復号化してもよい。逆量子化部520は、量子化された変換係数を逆量子化することができ、逆変換部530は、図4に示される逆変換部460によって生成される導関数残差ブロックに一致する導関数残差ブロックを生成するために、逆量子化された変換係数を逆変換することができる。圧縮されたビットストリーム502から復号化されるヘッダ情報を用いて、イントラ/インター予測部540は、エンコーダ400で生成される予測ブロックに対応する予測ブロックを生成してもよい。再生部550で、予測ブロックを派生的な残差ブロックに追加し、再生ブロックを生成することができる。ブロックの加工を減らすために、ループフィルター部560を再生されたブロックに適用することができる。ブロックのひずみを減らすために、デブロッキングフィルタ部570を再生されたブロックに適用することができ、その結果を出力ビデオストリーム504として出力してもよい。
デコーダ500の他の変形例を用いて、圧縮されたビットストリーム502を復号化することができる。例えば、デコーダ500は、デブロッキングフィルタ部570を使用しないで出力ビデオストリーム504を生成してもよい。
図6は、本開示の実施態様に係るビデオフレームレート変換のタイムラインの例を示す。いくつか実施態様において、ビデオフレームレート変換は、図1に示すコンピュータ100等の装置、図4に示すエンコーダ400によって実行して、図3に示されるビデオストリーム300等の入力ビデオストリームのフレームレートを、出力ビデオストリームに変換してもよい。図示するように、入力ビデオストリームの各フレーム602は円で示され、対応する出力ビデオストリーム用の補間された出力フレーム604それぞれはダイヤモンドで示される。
一番上のタイムライン610は、フレームレート変換の一例を示し、出力フレームレートは、入力フレームレートの複数倍、例えば3倍としてもよい。例えば、図示するように、入力フレームレートは、毎秒25フレーム(fps)でもよく、出力フレームレートは75fpsでもよい。図示するように、補間フレーム604の1/3は、元のフレーム602と一致し、補間フレーム604の残りの2/3は元のフレーム602との中間でもよい。出力は、25fpsの入力フレームレートで示してもよく、3倍スローダウンして現れるスローモーション効果を発生する。3倍のスローモーション指数を一例として記載するが、他のいかなる倍率のスローモーションを用いてもよい。
中央のタイムライン620は、フレームレート変換の一例を示す。入力フレームレートは25fpsでもよく、出力フレームレートは30fpsでもよい。図示すように、出力フレーム604の位置は、入力フレーム602に対して均一の間隔でなくてもよい。出力フレーム604の位置は、補間フレーム604の作成に用いることができる定期性を有してもよい。
一番下のタイムライン630は、フレームレート変換の一例を示し、入力フレームレートは25fpsで、出力フレームレートは50fpsでもよく、25fpsから50fpsへ出力フレームレートが線形に移行する。例えば、出力ビデオシーケンスは、時間の減速またはスローモーション効果を示してもよい。この最後の場合では、時間内の出力フレーム位置に単純な定期性がなくてもよい。
いくつかの実施態様において、1つのフレームまたはフィールド率と、別のものとの変換は、非動作補償変換(non-motion compensating conversion)を含んでもよい。0次保持変換(zero-order hold conversion)などのフレームリピート、またはサブサンプリング変換(subsampling conversion)などのフレームドロップを含んでもよい。例えば、30fps(秒単位60フィールド)でインタレースされたビデオを、25fps(秒単位50フィールド)でインタレースされたビデオに変換することは、30fpsのソースから、300フィールドごとに50フィールドをドロップすることを含んでもよい。このように、ソースから6フィールドごとに1フィールド分をドロップしてもよい。インタレースされた25fpsをインタレースされた30fpsに変換することは、ソースから6フィールドごとに1フィールド分をリピートすることを含んでもよい。ドロップまたはリピートされるフィールドは、低品質な変換画像を生成し、6つのうち1つのフレームは、フレームにマージされる誤ったフィールド有することになる。これにより、不完全なモーションを表す結果となり、変換されたマテリアルのスタッカー効果(stutter effect)のように感じられるかもしれない。いくつかの実施態様において、ビデオデータから補間することで、失われたフィールドを推定してもよい。例えば、ある時刻で、垂直に線を平均化することで、偶数フィールドから奇数フィールドを推定してもよい。その次の時刻において、推定されたフィールドをリピートしたり、元のフィールドをドロップしたりしてもよい。
非動作補償変換は、モーションを十分に維持しなくてもよい。例えば、フレームごとに5ピクセルのモーション等の大量のモーションは、十分に保存されないかもしれない。プログレッシブフォーマット(progressive formats)への変換またはプログレッシブフォーマット間の変換は、モーションを十分に維持しないことがある。いくつかの実施態様において、変換には、ビデオデータに由来するモーション情報を使用するモーション補償技術を含んでもよい。モーション補償変換は、モーションの軌道に沿って補間することを目的とすることで、新しいフィールドまたはフレームを補間することを含んでもよい。モーション補償変換は、遮蔽(occlusion)を取り扱うことを含んでもよい。フレームの一部があるフレームでは隠され、別のフレームでは可視となる。あるフレームまたは別のフレームにおいて遮蔽されるフレームの一部は、変換用に利用できなくてもよい。
いくつかの実施態様において、モーション補償は、回路等の専用のモーション補償ハードウェアによって実行されてもよい。例えば、リアルタイム変換は、モーション補償回路を使用して行ってもよい。ハードウェアに基づくモーション補償は、ソフトウェアまたはハードウェアおよびソフトウェアの組合せにおいて行うモーション補償と比べると、複雑性においては限界があるかもしれない。
いくつかの実施態様において、モーション補償は、ポストプロダクション(post-production)ソフトウェア等のソフトウェアで行ってもよい。例えば、ソフトウェアに基づく変換は、映画などのビデオにおけるスローモーション効果を生成するために用いてもよい。ソフトウェアに基づく非リアルタイム変換は、時間または空間の任意のポイントでフレームを補間することを含んでもよい。このように、変換は、スローモーション効果を生成するためにフレームレートを下げ、スローモーション効果から移行してフレームレートを上げることを含んでもよい。
いくつかの実施態様において、変換は、非時間的に連続するフレームの間に補間することを含んでもよい。例えば、空間的に連続するフレームを補間することで、滑らかなスペース移動効果等の効果をもたらしてもよい。いくつかの実施態様において、空間的に連続するフレームを、並行して、または、ほとんど並行して取り込んでもよい。
いくつかの実施態様において、既存のフレームからの画像データを、関連する画像の間の最少勾配の輪郭に沿って、補間フレームに押し込んで(push)もよい。Push型補間は、補間フレームに、既存のフレームからピクセル値を複製することを含んでもよい。Push型補間は、説得力のあるフレーム補間を生成することができるが、モーションの方向に沿って最適というわけではない。例えば、入力ビデオシーケンスを目標フレームレートで見ると、変換におけるモーションの適合性が正確ではないかもしれない。
いくつかの実施態様において、フレーム補間は、保管された映画フィルムやビデオ映画フィルムの失なわれたフレームを回復することを含んでもよい。フレーム回復のためのフレーム補間は、任意の瞬間で、その瞬間のモーションフィールドを回復することによって、フレームを復元することを含んでもよい。
図7は、本開示の実施態様に係るPull型フレーム補間の一例の図を示す。入力フレーム710/720/730は、ダイヤモンドの形状によって示され、単純化したシーンの左上から右下へ移動するオブジェクト740を取り込む。図7に示すように、このシーンは明らかに白い背景であるが、他の内容を含んでもよい。第1のフレーム710および第2のフレーム720間の補間フレーム750および第2のフレーム720および第3のフレーム730間の補間フレーム760を破線で示す。
例えば、第1の入力フレーム710は、第1の時刻T1でそのシーンを取り込み、第2の入力フレーム720は、第2の時刻T2でそのシーンを取り込み、第3の入力フレーム730は、第3の時刻T3でそのシーンを取り込んでもよい。第1の補間フレーム750は、第1の時刻T1および第2の時刻T2の間の時点でそのシーンを補完し、第2の補間フレーム760は、第2の時刻T2および第3の時刻T3の間の時点でそのシーンを補完してもよい。
いくつかの実施態様において、Pull型フレーム補間は、時間停止またはタイムスライス効果を発生させることを含み、カメラが空間を移動するように見え、時間は減速または停止したかのように見えてもよい。例えば、時間停止効果は、ある期間、複数の異なる空間位置に配置される複数のカメラによって並行して記録されるフレームを用いて生成されてもよい。第1の入力フレーム710は、空間T1の第1の位置で、そのシーンを取り込み、第2の入力フレーム720は、空間T2の第2の位置で、そのシーンを取り込み、第3の入力フレーム730は、空間T3の第3の位置で、そのシーンを取り込んでもよい。入力フレーム710/720/730は、同じ時点または実質的に同じ時点でそのシーンを取り込んでもよい。第1の補間フレーム750は、第1の空間点T1および第2の空間点T2との間の空間の一点で、そのシーンを補完し、第2の補間フレーム760は、第2の空間点T2および第3の空間点T3との間の空間の一点で、そのシーンを補完してもよい。補間フレーム750/760は、入力フレーム710/720/730と、時間において同じ点または実質的に同じ点と関連してもよい。
オブジェクト740により隠されたり覆われたりする背景のように、そのシーンの遮蔽された領域770が、十字ハッチングで示されている。あるフレームに示され、次のフレームで遮蔽されたシーンの覆われていない領域780が、斑点で示されている。モーション軌道ライン790行も示されている。いくつかの実施態様において、Pull型フレーム補間では、遮蔽された領域770、覆われていない領域780、およびモーション軌道790を保存することを含んでもよい。
いくつかの実施態様において、Pull型フレーム補間は、入力フレーム710/720/730のデータに基づいて、補間フレーム750/760のピクセル強度を推定することを含んでもよい。モーション情報を用いて、モーションの方向に沿って補間される位置に、入力フレーム710/720/730からのピクセル強度を複製してもよく、このように、ピクセル単位で、補間フレーム750/760ピクセルを形成する。遮蔽された領域770のピクセルは、次のフレーム用に利用できなくてもよい。覆われてない領域780のピクセルは、以前のフレーム用に利用できなくてもよい。
図8は、本開示の実施態様に係るPull型フレーム補間の一例の他の図を示す。いくつかの実施態様において、Pull型フレーム補間は、第1の入力フレーム810と第2の入力フレーム812との間に、破線で示される補間フレーム800を生成することを含んでもよい。いくつかの実施態様において、Pull型フレーム補間は、隣接する2つの入力フレームの間に、補間フレームを作成するために4つの入力フレーム810/812/814/816を使用することを含んでもよい。補間フレーム800は、時間または空間、時点t+Δと推定されてもよい。図8は、単一の補間フレーム800を示すが、いかなる数の補間フレームも、入力フレームに基づいて第1のフレーム810および第2のフレーム812の間に生成してもよい。4つの入力フレームに基づくPull型フレーム補間を本明細書において説明するが、2つ以上のフレームのいかなるシーケンスに基づいて、Pull型フレーム補間を実行してもよい。
入力フレーム810/812/814/816は、空間的または時間的シーケンスとして取り込まれるシーンを含んでもよい。例えば、第1の入力フレーム810は、第1の時刻tでそのシーンを取り込み、第2の入力フレーム812は、次の時刻t+1でそのシーンを取り込み、第3の入力フレーム814は、他の次の時刻t+2でそのシーンを取り込み、第4の入力フレーム816は、以前の時刻t−1でそのシーンを取り込んでもよい。
他の例において、第1の入力フレーム810は、空間tの第1のポイントでそのシーンを取り込み、第2の入力フレーム812は、空間t+1の次のポイントでそのシーンを取り込み、第3の入力フレーム814は、空間t+2の他の次のポイントでそのシーンを取り込み、第4の入力フレーム816は、空間t−1の以前のポイントでそのシーンを取り込んでもよい。補間フレーム800は、tの第1のフレーム810とt+1の第2のフレーム812の間のポイントt+Δで生成してもよい。1つの補間フレームを示すが、いかなる数の補間フレームを第1のフレーム810と第2のフレーム812の間のポイントで生成してもよい。
補間フレーム800は、tの第1のフレーム810から時間または空間間隔Δで、かつt+1の第2のフレーム812から1−Δでオフセットしてもよい。オブジェクト等、取り込まれたシーンのエレメントを、フレームに沿って均一に変換する長方形として示す。例えば、オブジェクトは、t−1のフレーム816の第1の位置820に、tのフレーム810の第2の位置822に、t+1のフレーム812の第3の位置824に、t+2のフレーム814の第4の位置826に示される。オブジェクトは、フレーム内で移動しているように示されるが、オブジェクトは、そのシーンのフレームおよび他のエレメント内で、静止していてもよいし、実質的に静止していてもよい。例えば、背景がオブジェクトと関連して移動してもよい。オブジェクトの補間された位置830を、t+Δの補間フレーム800に破線長方形として示す。
いくつかの実施態様において、Pull型フレーム補間は、Pull型フレーム補間から独立して生成されてもよいモーション推定情報を使用することを含んでもよい。例えば、いかなるモーション推定技法を用いて、Pull型フレーム補間の前にモーション推定情報を生成してもよい。位置xにおいて、tのフレーム810とt+1のフレーム812の間のモーションをdt,t+1(x) = [d1; d2]と表してもよい。dおよびdは、モーションの水平および垂直の構成要素を示す。フレームtのxでのピクセルの強度をIt(x)で表してもよい。
以前のフレームのモーションが補償されたピクセルの位置は、It-1(x+dt,t-1(x))で表してもよい。
t−1のフレーム814とtのフレーム810間のオブジェクトのモーションを、dt,t-1として表してもよいが、モーションベクトル840の一例を用いて表す。tのフレーム810とt+1のフレーム812の間のオブジェクトのモーションを、dt,t+1として表してもよいが、モーションベクトル842の他の例を用いて表す。t+1のフレーム812とtのフレーム810の間の背景のモーションを、dt+1,tとして表してもよいが、ゼロモーションベクトル844の一例を用いて表す。t+1のフレーム812とt+2のフレーム814の間の背景のモーションを、dt+1,t+2として表してもよいが、モーションベクトル846の他の例を用いて表す。
t+Δの補間されたフレーム800とtのフレーム810の間に補間されたモーションをdt+Δ,tとして表してもよく、t+Δの補間されたフレーム800とt+1のフレーム812の間に補間されたモーションをdt+Δ,t+1として表してもよい。
いくつかの実施態様において、Pull型フレーム補間は、遮蔽状態情報を使用することを含んでもよい。閉塞状態情報は、各ピクセルに関連した遮蔽状態をフレームに含んでもよい。例えば、フレームtの位置xのピクセルと関連した遮蔽状態は、st(x)=[00; 01; 10]として表されてもよく、st(x)=00は、ピクセルが次および以前のフレームで遮蔽されていないことを示し、st(x)=01は、ピクセルが次のフレームで遮蔽される(前方の遮蔽)ことを示し、st(x)=10は、ピクセルが以前のフレームで遮蔽されることを示す(後方の遮蔽)。遮蔽状態を有するt+Δの補間フレーム800の各位置の関連を、それぞれハッチングおよび斑点を用いてt+Δで示す。tのフレーム812およびt+1のフレーム810に存在するシーンの内容に対応する補間された画像データの遮蔽状態をs=00として表してもよい。パッチに相当する補間された画像データの遮蔽状態は、tのフレーム810では存在しないあるいは遮蔽されており、t+1のフレーム812は覆われていないので、s=10として表してもよい。パッチに相当する補間された画像データの遮蔽状態は、tのフレーム810では存在し、t+1のフレーム812では存在しないあるいは遮蔽されており、s=01として表してもよい。
いくつかの実施態様において、Pull型フレーム補間モデルを以下のように表してもよい。
Figure 2016515776
Pull型フレーム補間は、t+Δの補間フレーム800とtの入力フレーム810との間と、t+Δの補間フレーム800とt+1の入力フレーム812との間に、モーションフィールドを推定することを含んでもよく、ピクセルst+Δ(x)の状態を推定することを含んでもよい。t+Δでモーションを補間することをPull型プロセスと呼んでもよく、数2を用いて画像I+Δを作成するために、tの入力フレーム810およびt+1の入力フレーム812からピクセルを引きぬく(pull)ように、t+Δの補間フレーム800でモーションを使用することを含んでもよい。
いくつかの実施態様において、D、iは、既存のモーション推定を含み、画像データd(x)は、現在のサイトに近接する補間フレーム内のモーションを集めてもよく、ベイズ的方法(Bayesian fashion)において、後方確率分布p(dt+Δ;t+1, dt+Δt|D, i)を操作することを以下に表してもよい。
Figure 2016515776
dt+δ,の推定は、補間されたモーションとして使用される、数2で後半部分を最大にしてもよい。
いくつかの実施態様において、Pull型フレーム補間は、画像尤度を使用することを含んでもよい。画像尤度を用いて、eI(x) = It(x+dt+Δ,t)-It+1(x+dt+Δ,t+1)は、次のフレームのピクセルと以前のフレームのピクセルの間で、モーションが補償されたピクセルの差を示してもよい。例えば、画像は色画像でもよく、eIは、3色の平面に対応する3つの差のベクトルであってもよい。いくつかの実施態様において、補間されたモーションは正確であり、遮蔽が発生しない限り、3色の平面に対応する差は小さくてもよい。
いくつかの実施態様において、t+Δの画像データは演繹的に理解されることはなく、以下に表されるように、モーションは、明確にs(・)を組み込むために用いてもよい。
Figure 2016515776
いくつかの実施態様において、kIは10´2.72に等しくしてもよく、画像データの遮蔽から離間する強いバイアスを可能にする。色画像において、eI 2は、異なる3つの構成要素の二乗の平均等、測定されたベクトルの大きさでもよい。いくつかの実施態様において、δI 2は、ピクセルデータから測定可能であるか、または1:0に設定してもよい。
いくつかの実施態様において、Pull型フレーム補間は、モーション尤度を含んでもよい。モーション尤度は、本当に補間されたモーションが、既存のフレーム間にすでに推定されたモーションに一致するように用いられてもよい。Pull型フレーム補間は、モーションが補償されたモーション相違(motion compensated motion differences)を小さくすることを促進し、モーションの一致を最大にすることを含んでもよい。モーションが補償されたモーション相違を小さくすることを促進することは、以下の通りにモーションが補償されたモーション相違を表すことを含んでもよい。
Figure 2016515776
Figure 2016515776
Figure 2016515776
Figure 2016515776
Figure 2016515776
数4〜8において、補間されたモーションフィールドdt+Δのx引数は、明確にするため省略されている。
いくつかの実施態様において、s(・)を組み込んでもよく、モーション尤度を以下のように表してもよい。
Figure 2016515776
数9で、αは、遮蔽された状態10,01の時間的連続性の損失のバランスをとり、遮蔽された状態の発生を阻止するペナルティエネルギー(penalty energies)を表し、edは、加速を示すモーションベクトルペアにペナルティを課してもよい(penalize)。状態s(・) = 00のモーション尤度により、補間されたモーションがフレームt,t−1;t,t+1;t+1,t+2間の既存のモーションと一致するよう促してもよい。他の状態(01;10)において、時間的な平滑性は、それぞれt,t−1およびt=1,t+2の間のモーションによって促されてもよい。
図9は、本開示の実現態様に係る従うサイトグリッド(site grid)900付近の(隣接した)一例の図を示す。グリッドとしてのフレームの表現において、現在のピクセル910は、近接する8つの隣接グリッド920を有してもよい。
いくつかの実施態様において、Pull型フレーム補間は、モーション優先を用いることを含んでもよい。一例において、モーションフィールドは、マルコフ確率フィールド(Markov Random Fields)でもよい。モーション優先は、2つの要因からなり、pd(・)は、推定されたモーションフィールドの空間的な平滑性を実現し、pg(・)は、グローバルなモーションの予め計算された推定からモーションフィールドの大きい偏差にペナルティを課してもよい。補間されたモーションフィールドの空間的な平滑性は、以下のように表される通常のギブズエネルギー優先(Gibbs energy prior)を使用して実施してもよい。
Figure 2016515776
反対方向のモーションを同様に表してもよい。数10において、Λdは平滑性の強度を制御してもよい。例えば、Λd = 2.0も用いてもよい。排他的な用語(clique terms)のそれぞれからの負担部分は、xからの距離に反比例してλkで重みづけしてもよい。例えば、λk = 1/|vk|を用いてもよい。いくつかの実施態様において、現在のピクセルに近接する8つのピクセルがvkによってインデックスを付けられるように、Kは8としてもよい。
図9に示すように、オフセットされたベクトルは、水平および垂直方向に単位価値を有してもよい。いくつかの実施態様において、f(・)は、以下のように表される堅牢な機能でもよい。
Figure 2016515776
いくつかの実施態様において、dは、補間フレームのグローバルな(またはカメラ)モーションの予め計算された推定でもよく、f(・)は、数11で表される機能のような堅牢な機能でもよく、pg(・)は、以下のように表してもよい。
Figure 2016515776
いくつかの実施態様において、現在のフレームのモーションは、知覚可能時に、カメラのグローバルなモーションに「パチッとはまる(snap)」ように促進されてもよい。いくつかの実施態様において、強度の制約小さいもの、例えばΛd = 1.0を用いてもよい。いくつかの実施態様において、制約は、堅牢性のためにオフ(例えばΛd = 0)にされてもよい。
いくつかの実施態様において、Pull型フレーム補間は、遮蔽優先を用いることを含んでもよい。推定された状態において、遮蔽のための優先p(s(・))が空間的な平滑性を促進し、以下のように表してもよい。
Figure 2016515776
数13で、h(s1; s2)は、以下のように表されるステートペア(s1; s2)に従ってエネルギーを割り当てるエネルギー関数でもよい。
Figure 2016515776
数13で表されるエネルギー関数は、遮蔽状態01および10が境界線を共有するのを防止し、その状態を近接の場合と同じようにすることを促進してもよい。エネルギー関数は、例えば、近接するピクセルのグループ内において、空間的な平滑性の遮蔽状態を促進してもよい。現在のピクセルに近接する8つのピクセルの状態は、01であり、エネルギー関数は、現在のサイトのその状態を01にすることを促進してもよい。他の例において、現在のサイトの周囲の5つのサイトの状態は00でもよく、エネルギー関数は、現在のサイトを、局所的なエリアで最も円滑性を有する構成において生成可能な00にすることを促進してもよい。
エネルギー関数も、01および10を、8つの最も近接ピクセルが一緒になることを防止するのにも役立つ。
数13で表されるエネルギー関数は、未知のモーションdt+Δを特定するために用いてもよい。例えば、グラフカット(Graph Cuts)、信頼性伝搬(Belief Propagation)、または他のいかなる局所的な更新方式を用いて、数2を最適化することを含んでもよい。
いくつかの実施態様において、Pull型フレーム補間は最適化を含んでもよい。Pull型フレーム補間の計算負荷は、時間的モーション予測技術を用いて、補間されたモーションの局所的な候補を提案し、各サイトで最適化された候補を選択するために数13で表されるエネルギー関数を使用することによって減らしてもよい。各々を順に推定するよりも、モーションおよび遮蔽を共同で推定してもよい。最適化のプロセスは、結論がでるまで繰り返してもよい。いくつかの実施態様において、最適化は、局所的な重要性サンプリングと結合される反復条件付モード(Iterated Conditional Modes)(ICM)最適化を含んでもよい。いくつかの実施態様において、候補の生成を容易にするために、最適化は、
モーション評価、時間的なヒットリスト(hit list)生成、最初の推定の生成、またはいかなるそれらの組み合わせを含んでもよい。Pull型フレーム補間モーション推定の要素として、本明細書に記載されているが、時間的なヒットリスト生成および最初の推定の生成は、Pull型フレーム補間の前に独立して実行してもよい。
図10は、本開示の実施態様に係る候補補間モーションベクトル(ヒットリスト)のリストを生成する一例を示す。ヒットリストを生成することは、補間フレーム内の各サイトで時間的および空間的候補を特定することを含んでもよい。計算上の負荷は、Pull型フレーム補間の前に時間的または空間的モーション候補のリストを生成することによって減らしてもよい。いくつかの実施態様において、例えば、時間的モーション予測において、t+Δでピクセル位置に、モーション方向に沿って既存のフレームの間のモーションを複製することにより、補間された位置でモーションを予測することに基づいて、候補は推定されてもよい。フレームtとt+1との間の各モーションベクトルを用いて、補間されたフィールドdt+Δ, t+1のための候補ベクトルを予測してもよい。同様に、dt+1, tを用いて、dt+1, t+Δのための可能なベクトルを予測してもよい。
図10に示すように、t+Δで補間されたフレーム800のヒットリストは、モーションフィールドdt, dt+1..を使用して生成してもよい。両側1010からヒットがあるt+Δのサイトは、黒い正方形として示され、1つのヒット1020(t+1、t方向において)を示しているサイトの一例を、斑点を有する正方形として示す。D→Eからの後方のベクトルは、dt+Δ, tの候補を生成してもよく、F→Gからのベクトルは、反対方向に類似のヒットを生成してもよく、dt+Δ, t+1の候補でもよい。同様のヒットをJKおよびHIのために特定してもよい。ベクトルABは、逆方向(白い正方形)のヒットを生成してもよく、ヒットを生成するベクトルBAは存在しなくてもよい。Bで始まっているベクトルをCにマッピングしてもよい。これは、遮蔽領域の指標であってもよい。
いくつかの実施態様において、ヒットリストを生成することは、tでフレーム810のすべてのxに、全てのベクトルdt,t+1(x)を走査することで前方のヒットを特定することと、t+Δでフレーム800の各サイトx+Δdt,t+1(x)で、そのサイトでヒットを示すレコード等のdt,t+1(x)の指標を格納することとを含んでもよい。
いくつかの実施態様において、ヒットリストを生成することは、t+1でフレーム820のxごとに全てのベクトルdt+1,t(x)を走査することによって後方のヒットを特定することと、t+Δでフレーム800の各サイトx+(1-Δ)dt+1,t(x)で、そのサイトでヒットを示すレコード等のdt+1,t(x)の指標を格納することとを含んでもよい。
前方のヒットおよび後方のヒットは、t+Δで補間されたフレームの全てのサイトのための候補補間モーションベクトル(前方および後方の時間的な方向を指し示す)の、2つの同じ位置に配置されたリストCb/T’Cf/T’でもよい。いくつかの実施態様において、モーションフィールドは、不正確であってもよいので、遮蔽の処理は困難かもしれないが、ヒットリスト生成は、各リストにおいて1つ以上のヒットがあるサイトまたは全くヒットのないサイトを含んでもよい。
図11は、本開示の実施態様に係るPull型フレーム補間の一例の図を示す。いくつかの実施態様において、Pull型フレーム補間は、1100で入力フレームを特定し、1110で入力モーションベクトルを生成し、1120でモーション平滑性を決定し、1130で候補補間モーションベクトルを生成し、1140で出力情報を初期化し、1150でローカルサイトの更新を行い、1160で補間されたフレームを構築するべきかを決定し、1170で補間されたフレームを構築し、1180で後処理を行い、1190で補間されたフレームを出力する、または、いかなるそれらの組み合わせを含んでもよい。いくつかの実施態様において、1110でモーションを推定し、1120で平滑性を測定し、1130でヒットリストを生成する、または、いかなるそれらの組み合わせも、前処理と考えてもよく、補間とは独立して実行してもよい。
いくつかの実施態様において、図8に示される入力フレーム810/812/814/816等の入力フレームを1100で特定してもよい。フレームのシーケンスは、位置t−1のフレーム、位置tのフレーム、位置t+1のフレーム、および位置t+2のフレームを含んでもよい。いくつかの実施態様において、入力フレームを特定することは、補間されたフレームΔの位置がtおよびt+lの間にあるように、補間されたフレームごとに時間的または空間的な位置Δを特定することを含んでもよい。
いくつかの実施態様において、モーションは、1110で入力フレームのために生成してもよい。例えば、モーションフィールドは、フレームペアt,t-1;t,t+1;t+1, t;t+1,t+2の間で計算されてもよい。ブロックマッチング(block matching)または光フローモーション推定(optic flow motion estimation)など、いかなるモーション推定(予測)プロセスを用いてもよい。モーションフィールドは、dt;t-1; dt;t+1; dt+1;t-1; dt+1;t+2をそれぞれ初期化するために用いてもよい。モーションフィールドは、補間の間、不変であってもよい。
いくつかの実施態様において、モーション平滑は1120で決定されてもよい。モーション平滑を決定することは、1122でモーション平滑が低いかどうか決定すること、1124で補間されたフレームとして入力フレームを繰り返すこと、または両方を含んでもよい。照明が良くないシーン、あるいは高いモーションコンテントを含む低いオリジナルのフレームレートで撮影されたシーン等、いくらかのシーンで、既存のフレーム間のモーションフィールドが時間的または空間的に整合していないことがあるので(低いモーション平滑)高品質に補間されたフレームが生成される可能性は低いかもしれない。tのフレームまたはt+1のフレーム等の入力フレームに対して、低いモーション平滑となることが、補間されたフレームとして繰り返されてもよい。
1122で時間的または空間的な不一致(低いモーション平滑)を特定することは、フレームを均一にはめ込む(tile)ブロック内のフレームtおよびt+1の間のモーションが補償されたモーション相違を判定することを含んでもよい。3つの水平ブロックと2つの垂直ブロックのグリッドを、画像フレームをはめ込むために測定されるブロックサイズとともに用いてもよい。各ブロックは、B1×B2サイトを含んでもよく、Bは、ブロックbにおいて、サイトxを含んでもよく、ブロックb内のモーションを補償したモーション相違を算出することを含んでもよく、eb mは、以下のように表してもよい。
Figure 2016515776
数15において、dt,t+1(x)のxは、説明を簡単にするため省略する。モーションを補償したモーション相違は、平滑性の制限または閾値を越えてもよく、tのフレームまたはt+1のフレーム等の入力フレームは、1124で補間されたフレームとして繰り返されてもよい。
閾値(制限)δbを超えたモーションを補償したモーション相違eb mは、モーション情報が信頼できないことを示しても良いし、tのフレームまたはt+1のフレーム等の入力フレームが、1124で補間されたフレームとして繰り返されてもよい。いくつかの実施態様において、繰り返された入力フレームを、補間されたフレームΔへの近接に基づいて特定してもよい。例えば、Δは0.5以下でもよく、tのフレームは繰り返されてもよい。他の例において、Δは、0.5より大きくてもよく、t+1のフレームは繰り返されてもよい。いくつかの実施態様において、Δは0.5以上でもよく、t+1のフレームは繰り返されてもよい。
いくつかの実施態様において、一貫したモーションとしてモーションを特定することは、ビデオシーケンスのフレームのサイズによって、滑らかに変化してもよい。例えば、高解像度な画像には、高い閾値を用いても良いし、低解像度な画像には、低い閾値を用いてもよい。いくつかの実施態様において、閾値δbは、ピクセルNhの画像の横サイズに比例してもよい。例えば、閾値δbは、50×Nh/1920でもよい。
いくつかの実施態様において、候補補間モーションベクトル(ヒット)は、1130で生成されてもよい。補間フレーム用の候補補間モーションベクトルのリスト(ヒットリスト)は、入力フレームのために特定されるモーションに基づいていてもよい。例えば、ヒットリストは、図10に示すように生成されてもよい。
いくつかの実施態様において、出力情報は1140で初期化されてもよい。例えば、出力情報を初期化することは、無作為な割り当て、ヒットリストに基づく割り当て、または、それらの組み合わせを用いることを含んでも良い。いくつかの実施態様において、補間されたモーションフィールドの最初の推定を迅速に行うことは、ヒットリストを使用して行ってもよい。いくつかの実施態様において、Nb T(x)は、後向きの時間的候補(ヒット)の数を示してもよく、Nf T(x)は、前向きの時間的候補(ヒット)の数を示してもよい。最初の推定は、t+Δのサイトを探査することを含んでもよい。ヒット数は、Nb T(x)==1)&&(Nf T(x)==1)としてもよく、リスト内のモーションは、補間されたモーションに割り当てられてもよく、sは00にセットされてもよい。ヒット数は、Nb T(x)≧1)&&(Nf T(x)==0)でもよく、後向きの最初のモーションヒットは、補間されたモーションの両方の方向に割り当てられもよく、sは10にセットされてもよい。ヒット数は、Nb T(x)==0))&&(Nf T(x)≧1)でもよく、前向きの最初のモーションヒットは、補間されたモーションの両方の方向に割り当てられもよく、sは01にセットされてもよい。そうでなければ、補間されたモーションは0にセットされ、sは00にセットされてもよい。出力情報を初期化することは、反復カウンタをゼロに設定することを含んでもよい。
いくつかの実施態様において、ローカルサイトの更新は1150で実行されてもよい。ローカルサイトの更新を行うことは、補間フレームの各サイトの補間モーションベクトルを選択し、更新することを含んでもよい。ローカルサイトの更新は、補間されたフレームのサイトごとに、反復して実行されてもよい。
いくつかの実施態様において、ローカルサイトの更新を実行することは、1130で生成されるヒットリストを使用して、前向きおよび後向きの候補補間モーションベクトルを特定することを含んでもよい。ヒットリストは空のものでもよく、前向きおよび後向きのヒットが特定されないことがある。図9に示すように、現在のサイトの8つの近接するモーションを、前向きおよび後向きのモーション候補として特定してもよい。現在のサイトの現在のモーション情報が、候補として含まれてもよい。前向きおよび後向きのモーション候補リストの長さを、同じまたは類似のベクトルを削除することによって小さくしてもよい。例えば、閾値未満、例えば0.25ピクセルの相違があるモーションベクトルを取り除いてもよい。ベクトル長の減少候補リストを、前方および後方の候補のdf k’db kと呼ぶことがある。例えば、ベクトル長の減少候補リストは、Kの候補ペアを含んでもよい。モーション候補の各ペアに対して、s=00、01または10という3つの考えられる状態で、各ペアを増加することにより、3つのモーション/遮蔽候補を生成してもよい。増加候補セットを、m1 K = [df k’db k’s = 00], m2 K = [df k’db k’s = 01], m3 K = [df k’db k’s = 10]と呼ぶこともある。例えば、増加候補セットは、3×Kモーション候補を含んでもよい。3Kのモーション候補の各々のために、数4〜8に、Λo=10.0, Λd=2.0, λk=1/|vk|で示されるef, eb, efb, ebf, edを使用することで、エネルギーを算出してもよく、以下のように表してもよい。
Figure 2016515776
いくつかの実施態様において、ローカルサイトの更新を実行することは、補間されたモーションフィールドに最も低いエネルギーを有するモーション候補ペアを割り当てることを含んでもよく、そのフィールドにおける現在の値を置き換えることを含んでもよい。その候補に対して、状態値sを最小のエネルギーで示してもよい。例えば、Eooが最小のエネルギーを有する場合、s=00である。
いくつかの実施態様において、ローカルサイトの更新を実行することは、1152で分離した遮蔽状態を取り除くこと、グローバルなモーションを1154で推定すること、あるいは両方を含んでもよい。
1152で分離した遮蔽状態を取り除くことは、s(x)がs(vk+x)に等しくなく、s(vk+x)がすべて同じとなるサイトの発生を検出し、s(・)を隣接の値と置き換えることを含んでもよい。サイトのモーションを、隣接する平均的なモーションと置き換えてもよい。分離した遮蔽状態を取り除くことにより、単一のサイトを一時的に加工する機会を減らしてもよい。
すべてのサイトが訪問された場合、1154でグローバルなモーションを推定してもよい。補間されたモーションフィールドに対してグローバルなモーションを新たに推定することは、密度の高いモーションフローの使用に基づいてグローバルなモーション推定法を用いることを含んでもよい。例えば、最も頻繁に発生しているモーションベクトル、すべてのベクトルの平均、またはベクトルフィールドに適合する多項式は、シーンのグローバルなモーションとして使われてもよい。
いくつかの実施態様において、補間されたフレームを構築するべきかどうかは、1160で決定されてもよい。1150でローカルサイトの更新を実行することは、反復カウンタを繰り返し適用することを含んでもよい。反復カウンタが閾値、例えば5を超えると、補間されたフレームを1170で構築してもよい。いくつかの実施態様において、いずれの推定されたモーションにも変化がなかった場合は、補間されたフレームを1170で構築してもよい。反復カウンタが閾値内にある場合、推定されたモーションまたは両方において変化があったので、1140で出力情報を初期化し、1150でローカルサイトの更新を実行し、1160で補間されたフレームを構築するべきかどうかを判定することを、反復して実行してもよい。
いくつかの実施態様において、補間されたフレームを1170で構築してもよい。補間されたフレームは、推定されたモーションを使用することを含み、数2に基づいていてもよい。
いくつかの実施態様において、後処理を1180で実行してもよい。そのモーションが急速な場合、または弱い光のもとで記録された場合、モーションを推定することがむずかしいので、後処理を行って、画像加工の外観を小さくしたり修正したりしてもよい。このような加工は、画像It+Δ内に穴として、または、大きく遮蔽されているかまたは覆われていない領域の近くの画像の奇妙なゆがみとして現れることがある。信頼性の低い画像であると推定し、将来および過去のフレームの平均的なものと継ぎ目がないように融合させてもよい。モーションフィールドの勾配を用いてもよく、補間における信頼の尺度として、いずれがより大きいかによって、前方または後方への選択をすることを含んでもよい。
後処理は、I*(x) = (1-Δ)It(x) + ΔIt+1(x)の平均化を用いて、補間されたフレームに対して伝統的な推定行うことを含んでもよい。簡潔にするために、後方の補間されたモーションdt+Δ,t-1(x)は、[d^ 1 b(h,k), d^ 2 b(h,k)]と表してもよく、前方の補間されたモーションdt+Δ,t(x)は、[d^ 1 f(h,k), d^ 2 f(h,k)]と表してもよく、x = [h,k]である。各サイトxでモーション勾配gm(x)を測定し、重量w(x)を融合することを以下のように表してもよい。
Figure 2016515776
例えば、δt = 4を用いてもよい。
最終の出力画像を、I^(x) = w(x)I*(x)+(1-w(x))It+Δ(x)を用いて算出してもよく、非動作補償平均画像I*と前段It+Δからの出力画像の間で重みづけをして融合してもよい。いくつかの実施態様において、補間されたフレームを1190で出力してもよい。
数1を例として示し、以前のフレームおよび次のフレームで、モーション補償サイトから抽出された大量のピクセルに対して行われるメディアン演算(median operation)(または他の順序統計)等の他の再構成法を用いてもよい。
図11に図示していないが、いくつかの実施態様において、Pull型フレーム補間は、マルチ解像度方式を使用することを含んでもよい。例えば、あるシーンは大きいモーションを含んでもよく、マルチ解像度方式を使用してもよい。マルチ解像度方式を使用することは、図11に示すように、きめの粗いブロックに基づくモーションフィールドに、Pull型フレーム補間を実行することを含んでもよい。各サイトは、B×Bピクセルの1ブロックとして処理されてもよい(画像のサイズにより、B=3,4,8,16,4)。サイト画像の相違は、平均ピクセル輝度の差としてもよい。粗いレベルに補間されたブロックモーションフィールドを、次のより微細なレベルでの反復を初期化するために用いてもよい。例えば、高解像度ビデオシーケンス(1920×1080)を処理することは、サイズ960×540、480×270、240×135、120×72、60×36、あるいはそれらのいかなる組合せの画像を生成すること、および画像ピラミッド(image pyramid)のすべてのレベルでブロック長B=4を使用することを含んでもよい。最高のレベルで、反復が完了した場合に、ブロックに基づくベクトルフィールドを、最終的に補間されたモーションフィールドとして用いてもよい。
図12は、本開示の実施態様に係るPull型フレーム補間の一例の簡略図を示す。いくつかの実施態様において、Pull型フレーム補間は、1210で入力フレームを特定すること、1220でモーションベクトルを生成すること、1230で補間位置を確認すること、1240で候補補間モーションベクトルを生成すること、1250で補間モーションベクトルを選択すること、1260で補間されたフレームを生成すること、または、いかなるそれらの組み合わせを含んでもよい。
いくつかの実施態様において、入力フレームは1210で特定されてもよい。入力フレームを特定することは、特定されたフレームのシーケンスが位置t−1のフレーム、位置tのフレーム、位置t+1のフレーム、および位置t+2のフレームを含むように、図8に示される入力フレーム810/812/814/816等のように、フレームを特定することを含んでもよい。
いくつかの実施態様において、図11の1110でモーションを推定することと同じ様に、モーションベクトルは1220で生成してもよい。モーションベクトルを生成することは、図11の1120で示すように、モーションの平滑性を計測すること、図11の1122で示すように、モーションの平滑性が低いかどうか決定すること、図11の1124で示すように、入力フレームを補間されたフレームとして繰り返すこと、または、いかなるそれらの組み合わせなど、追加的な処理を含んでもよい。
いくつかの実施態様において、補間ポイントを1230で特定してもよい。補間ポイントの特定には、補間されたフレームΔの空間的位置がtとt+1の間にあるように、補間されたフレームごとに時間的または空間的位置Δを特定することを含んでもよい。
いくつかの実施態様において、候補補間モーションベクトルを1240で生成してもよい。候補補間モーションベクトルを生成することは、図11の1130に示すようにヒットリストを生成することを含んでもよい。
いくつかの実施態様において、補間モーションベクトルを1250で選択してもよい。補間モーションベクトルを選択することは、図11の1140に示すように出力情報を初期化すること、図11の1150に示すようにローカルサイト更新を実行すること、図11の1160に示すように補間されたフレームを構築するべきかどうか決定すること、または、いかなるそれらの組み合わせを含んでもよい。
いくつかの実施態様において、補間されたフレームを1260で生成してもよい。補間されたフレームを生成することは、図11の1170に示すように補間されたフレームを組み込むこと、図11の1180に示すような後処理、図11の1190に示すように補間されたフレームを出力すること、または、いかなるそれらの組み合わせを含んでもよい。
図12に示すPull型フレーム補間の図の他の実施態様が利用可能である。実施態様において、Pull型フレーム補間の追加的な要素を加えてもよく、特定の要素は結合されてもよい、および/または特定の要素は取り外されてもよい。例えば、一実施態様において、最初のパス(first pass)のPull型フレーム補間は、きめの粗いブロックに基づくモーションフィールドに対して実行されてもよく、2番目のパス(second pass)のPull型フレーム補間は、補間されたフレームを生成するために最初のバスの出力を用いて実行されてもよい。
Pull型フレーム補間またはそのいかなる部分も、図1に示されるコンピューティング装置100等の装置において実現することができる。例えば、図4に示されるエンコーダ400等のエンコーダにより、Pull型フレーム補間またはそのいかなる部分も、図1に示されるメモリ150等の、有形かつ非一時的なコンピュータ読み取り可能な媒体に保存される命令を用いて実現することができる。
用語「例(example)」または「例示的な(exemplary)」は、本明細書において使用されるが、一例、一事例、実例として機能することを意味する。「例」または「例示的な」として本明細書において記載されているいかなる態様または設計も、他の態様または設計に対して、必ずしも好適または有利なものとして解釈されるわけではない。むしろ、用語「例」または「例示的な」は、具体的な形で概念を提示することを意図している。本出願において用いられている用語「または(or)」は、排他的な「または」よりも内包的な「または」意味することを意図している。すなわち、特に明記しない限り、または前後関係から明白な限り、「Xは、AまたはBを含む」ことは、自然に内包的な置換のいずれかを意味することを意図している。すなわち、XがAを含む、XはBを含む、または、XはAおよびBの両方を含む場合、これらのいずれかの例において、「XはAまたはBを含む」が成り立つ。また、特に明記しない限り、または、単数形を意図する前後関係から明らかでない限り、本願発明および添付の請求の範囲において用いられる項目「a」および「an」は、通常、「1つ以上」を意味するために解釈されるべきである。さらに、全体で使用される用語「実施形態」または「一実施形態」または「実施態様」または「一実施態様」は、特段の記載がない限り、同じ実施形態または実施態様を意味することを意図していない。本明細書で使用するように、用語「判定する(determine)」、「特定する(identify)」、またはいかなるそれらの変形例も、選択する、確認する、計算する、検索する、受信する、決定する、確立する、取得する、あるいは、図1に示される装置の1つ以上を使用して、いかなる方法でも特定または判定することを含む。
さらに、説明を簡単にするために、図および本明細書の説明には、ステップまたはステージの連続を含むが、本明細書に開示される方法の構成要素はさまざまな順序および/または並行して行われることができる。さらに、本明細書において開示される方法の構成要素は、本明細書に明示的に提示または記載されていない他の構成要素とともに実現してもよい。さらにまた、本明細書に記載されている方法のすべての構成要素が、開示された主題に係る一の方法を実施するよう求められているというわけではない。
本明細書に記載されている符号化、復号化、およびフレーム補間の実現により、いくつかの例示的なフレーム補間技術を例示する。しかしながら、符号化および復号化は、それらの用語が本明細書において使われるように、圧縮、解凍、変換または他のいかなる処理もまたはデータの変更を含み、本明細書に用いられるように、フレーム補間およびPull型フレーム補間という用語は、新しいフレームがオリジナルフレームに取り込まれていない時間または空間のコンテンツを描くように、2つのオリジナルフレームの間に1つ以上の新しいフレームを生成することを含んでもよい。
送信装置100Aおよび/または受信装置100Bを実現すること(およびアルゴリズム、方法、命令など、その装置に保存および/またはその装置により実行されること)は、ハードウェア、ソフトウェアまたはいかなるそれらの組み合わせによって実現されてもよい。例えば、ハードウェアは、コンピュータ、知的財産(IP)コア、特定用途向け集積回路(ASIC)、プログラマブルロジックアレイ、光プロセッサ、プログラマブルロジックコントローラ、マイクロコード、マイクロコントローラ、サーバ、マイクロプロセッサ、ディジタル信号処理装置、または他のいかなる適切な回路をも含んでもよい。請求項において、用語「プロセッサ」は、単独で、または、組合せにより、前述のハードウェアのいずれかを含むとして理解されるべきである。用語「信号」及び「データ」は、交換可能に使用される。さらに、送信装置100Aおよび受信装置100Bは、必ずしも同じように実行する必要があるというわけではない。
さらに、一実施態様において、例えば、送信装置100Aまたは受信装置100Bは、実行時に、本明細書に記載されているそれぞれの方法、アルゴリズムおよび/または命令のいずれかを実施する汎用コンピュータまたは汎用プロセッサを用いて実現することができる。追加して、または、代わりに、例えば、本明細書に記載されている方法、アルゴリズム、または命令のいずれかを実行するために特化されたハードウェアを含むことが可能な専用コンピュータ/プロセッサを利用できる。
送信装置100Aおよび受信装置100Bは、例えば、リアルタイムビデオシステムのコンピュータに実現することができる。あるいは、送信装置100Aをサーバに実現してもよく、受信装置100Bをサーバとは別の装置、例えば携帯通信装置に実現してもよい。この場合、送信装置100Aは、エンコーダ400を用いてコンテンツを符号化し、符号化されたビデオ信号として、この符号化されたビデオ信号を通信装置に送信する。次に、通信装置は、その後、デコーダ500を用いて、符号化されたビデオ信号を復号化してもよい。あるいは、通信装置は、通信装置にローカルに格納されたコンテンツ、例えば、送信装置100Aによって送信されなかったコンテンツを復号化してもよい。送信装置100Aおよび受信装置100Bの、他の適切な実施方式が利用できる。例えば、携帯通信装置および/またはエンコーダ400を含む装置がデコーダ500を含んでもよいというよりも、受信装置100Bは、一般に移動しないパーソナルコンピュータとすることができる。
更に、全てまたは一部の実施態様は、例えば、有形のコンピュータ使用可能またはコンピュータ読取可能な媒体からアクセス可能なコンピュータプログラムプロダクトの形をとることができる。コンピュータ使用可能またはコンピュータ読取可能な媒体は、例えば、いかなるプロセッサに用いられる、または、関連するプログラムを明らかに含有、格納、伝達または、搬送することが可能ないかなる装置とすることもできる。媒体は、例えば、電子、磁気、光学、電磁気、または半導体装置とすることができる。他の適切な媒体も利用できる。
上記の実施態様は、本出願を容易に理解するためのものであり、限定するものではない。これに反して、本出願は、添付の請求の範囲内に含まれるさまざまな変形例および等価な調整についてもその範囲に含める。その範囲が、法律のもとで許可されるすべての変形例および等価の構成を含むように、最も広い解釈がなされるべきである。

Claims (15)

  1. 複数の入力ビデオフレームを特定すること、
    前記複数の入力ビデオフレームの第1のフレームから、前記複数の入力ビデオフレームの第2のフレームに、モーションを示す複数のモーションベクトルを生成すること、
    前記第1のフレームおよび前記第2のフレームとの間に補間ポイントを特定すること、
    前記複数のモーションベクトルに基づいて、前記第1のフレームから前記補間ポイントへのモーションおよび前記第2のフレームから前記補間ポイントまでを示す複数の候補補間モーションベクトルを生成すること、
    測定基準に基づいて、前記複数の候補補間モーションベクトルから、補間モーションベクトルを選択すること、および
    選択された前記補間モーションベクトルに基づいて、前記補間ポイントで補間されたフレームを生成することを含む方法。
  2. 前記補間モーションベクトルを選択することは、前記補間されたフレーム内における平滑性の制約に基づく請求項1に記載の方法。
  3. 前記補間モーションベクトルを選択することは、前記第1のフレームおよび前記第2のフレームとの間の平滑性の制約に基づく請求項1に記載の方法。
  4. 前記複数の入力ビデオフレームは、入力ビデオの時間的シーケンスを含み、
    前記入力ビデオの時間的シーケンスでは、
    前記第1のフレームは、前記入力ビデオの時間的シーケンスの第1の時間を表し、
    前記第2のフレームは、前記入力ビデオの時間的シーケンスの第2の時間を表し、
    前記第1の時間は、前記入力ビデオの時間的シーケンスにおいて前記第2の時間に隣接し、
    前記補間ポイントは、前記第1の時間と前記第2の時間との間の時間を示す請求項1〜3のいずれか一項に記載の方法。
  5. 前記複数の入力ビデオフレームは、入力ビデオの時間的シーケンスを含み、
    前記入力ビデオの空間的シーケンスでは、
    前記第1のフレームは、前記入力ビデオ空間的シーケンスの第1の角度から取り込まれたコンテンツを表し、
    前記第2のフレームは、前記入力ビデオ空間的シーケンスの第2の角度から取り込まれたコンテンツを表し、
    前記第1の角度は、前記入力ビデオ空間的シーケンスにおいて前記第2の角度に隣接し、
    前記補間ポイントは、前記第1の角度と前記第2の角度との間の第3の角度を示す請求項1〜3のいずれか一項に記載の方法。
  6. 前記補間されたフレームは、複数の補間サイトを含み、
    前記補間モーションベクトルを選択することは、前記複数の補間サイトの補間サイトごとに、反復的に補間モーションベクトルを選択し、
    前記選択された補間モーションベクトルに基づいて、前記補間されたフレームをアップデートすることを含む請求項1〜5のいずれか一項に記載の方法。
  7. 前記複数の候補補間モーションベクトルを生成することは、現在の補間サイトのモーション予測および複数の隣接するサイトのモーション予測に基づいて、候補補間モーションベクトルを生成することを含む請求項1〜6のいずれか一項に記載の方法。
  8. 前記補間フレームを生成することは、複数の補間ピクセルを生成することを含み、
    前記補間モーションベクトルを選択することは、
    複数の補間モーションベクトルを含む補間モーションフィールドを選択することを含み、
    前記複数の補間モーションベクトルの各補間モーションベクトルは、前記複数の補間ピクセルのうち1つの補間ピクセルと関連する請求項1〜6のいずれか一項に記載の方法。
  9. 前記補間されたフレームを生成することは、前記補間モーションフィールドに基づいて前記補間されたフレームの加工を修正することを含む請求項8に記載の方法。
  10. 前記加工を修正することは、前記補間されたフレームと、前記第1のフレームおよび前記第2のフレームの平均とを融合することを含み、
    前記融合の程度は、モーションフィールドの勾配に基づく請求項9に記載の方法。
  11. 前記補間されたフレームを融合することは、
    高いモーション勾配を有する前記補間されたフレームの一部を、前記第1のフレームと前記第2のフレームの前記平均に対応する領域と置き換えること、および
    低いモーション勾配を有する前記補間されたフレームの一部を維持することを含む請求項10に記載の方法。
  12. 前記複数のモーションベクトルを生成することは、前記複数のモーションベクトルの平滑性の程度を決定することを含み、
    前記方法は、更に、前記平滑性の程度が閾値を越える状態で、前記補間されたフレームとして前記第1のフレームまたは前記第2のフレームを使用することを含む請求項1〜11のいずれか一項に記載の方法。
  13. 前記複数の候補補間モーションベクトルを生成すること、前記補間モーションベクトルを選択すること、および前記補間されたフレームを生成することは、目標出力解像度よりも低いきめの粗い解像度と、前記目標出力解像度に等しい微細な解像度とで反復的に実行される請求項1〜12のいずれか一項に記載の方法。
  14. 前記複数の候補補間モーションベクトルを生成すること、前記補間モーションベクトルを選択すること、および前記きめの粗い解像度で補間されたフレームを生成することは、ブロックに基づくモーションフィールドを用いることを含み、
    前記複数の候補補間モーションベクトルを生成すること、前記補間モーションベクトルを選択すること、および前記微細な解像度で補間されたフレームを生成することは、より高解像度のブロックに基づくモーションフィールドまたはピクセルに基づくモーションフィールドを用いることを含む請求項13に記載の方法。
  15. 前記複数の候補補間モーションベクトルを生成することは、前記補間ポイントでの遮蔽を特定することを含む請求項1〜14のいずれか一項に記載の方法。
JP2016505598A 2013-03-29 2014-03-28 平滑性の制約を用いてモーションが補償されるフレーム補間 Active JP6457483B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/853,354 US9300906B2 (en) 2013-03-29 2013-03-29 Pull frame interpolation
US13/853,354 2013-03-29
PCT/US2014/032207 WO2014175995A1 (en) 2013-03-29 2014-03-28 Motion-compensated frame interpolation using smoothness constraints

Publications (2)

Publication Number Publication Date
JP2016515776A true JP2016515776A (ja) 2016-05-30
JP6457483B2 JP6457483B2 (ja) 2019-01-23

Family

ID=50680188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016505598A Active JP6457483B2 (ja) 2013-03-29 2014-03-28 平滑性の制約を用いてモーションが補償されるフレーム補間

Country Status (6)

Country Link
US (2) US9300906B2 (ja)
EP (1) EP2979243A1 (ja)
JP (1) JP6457483B2 (ja)
KR (1) KR102210415B1 (ja)
CN (1) CN105247569B (ja)
WO (1) WO2014175995A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021506160A (ja) * 2017-12-20 2021-02-18 影石創新科技股▲ふん▼有限公司 ビデオ復号化方法及びカメラ

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737824B1 (en) 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
US10104394B2 (en) 2014-01-31 2018-10-16 Here Global B.V. Detection of motion activity saliency in a video sequence
US20150221335A1 (en) * 2014-02-05 2015-08-06 Here Global B.V. Retiming in a Video Sequence
CN103929641A (zh) * 2014-05-12 2014-07-16 北京工商大学 一种基于虚拟参考帧的帧内编码方法
US9286653B2 (en) 2014-08-06 2016-03-15 Google Inc. System and method for increasing the bit depth of images
US9153017B1 (en) 2014-08-15 2015-10-06 Google Inc. System and method for optimized chroma subsampling
JP6463967B2 (ja) * 2014-12-25 2019-02-06 キヤノン株式会社 撮像装置及びその制御方法
US20180025686A1 (en) * 2015-02-11 2018-01-25 Max-Panck-Gesellschaft Zur Förderung Der Wissenschaften E.V. Method and device for emulating continuously varying frame rates
WO2017030380A1 (en) * 2015-08-20 2017-02-23 Lg Electronics Inc. Digital device and method of processing data therein
US10778999B2 (en) * 2016-09-30 2020-09-15 Qualcomm Incorporated Frame rate up-conversion coding mode with affine motion model
US11202028B2 (en) 2017-04-05 2021-12-14 Samsung Electronics Co., Ltd. Display device configuring multi display system and control method thereof
US10805630B2 (en) * 2017-04-28 2020-10-13 Qualcomm Incorporated Gradient based matching for motion search and derivation
US11778195B2 (en) * 2017-07-07 2023-10-03 Kakadu R & D Pty Ltd. Fast, high quality optical flow estimation from coded video
KR102406513B1 (ko) * 2017-09-21 2022-06-15 현대자동차주식회사 영상 변환 시스템 및 방법
BR112021012426A8 (pt) 2018-12-28 2022-08-02 Jvckenwood Corp Dispositivo de codificação de imagem em movimento, método de codificação de imagem em movimento, programa de codificação de imagem em movimento, dispositivo de decodificação de imagem em movimento, método de decodificação de imagem em movimento e programa de decodificação de imagem em movimento
CA3129872A1 (en) 2018-12-28 2020-07-02 Jvckenwood Corporation Dynamic image decoding device, dynamic image decoding method, dynamic image decoding program, dynamic image encoding device, dynamic image encoding method, and dynamic image encoding program
CN113766313B (zh) * 2019-02-26 2024-03-05 深圳市商汤科技有限公司 视频数据处理方法及装置、电子设备和存储介质
KR20220031682A (ko) * 2019-07-09 2022-03-11 보이지81 엘티디. 움직이는 장면들에서의 실시간 이미지 생성
US11303847B2 (en) 2019-07-17 2022-04-12 Home Box Office, Inc. Video frame pulldown based on frame analysis
EP3987770A4 (en) * 2019-08-20 2022-08-17 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE FOR IMPROVING THE GRAPHIC PERFORMANCE OF AN APPLICATION PROGRAM, AND METHOD OF OPERATION
US11847737B2 (en) * 2021-04-09 2023-12-19 Nvidia Corporation Temporal denoiser quality in dynamic scenes

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001506472A (ja) * 1997-09-23 2001-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動作評価及び動作補償された補間
JP2005210697A (ja) * 2003-12-23 2005-08-04 Genesis Microchip Inc 動き補償フレームレート変換
JP2008236098A (ja) * 2007-03-19 2008-10-02 Hitachi Ltd 映像処理装置及び映像表示装置
JP2010288098A (ja) * 2009-06-12 2010-12-24 Sony Corp 画像フレーム補間装置、画像フレーム補間方法及び画像フレーム補間プログラム
JP2011508516A (ja) * 2007-12-20 2011-03-10 インテグレーテッド・デバイス・テクノロジー・インコーポレーテッド ハローを低減する画像補間
JP2011182193A (ja) * 2010-03-01 2011-09-15 Toshiba Corp 補間フレーム生成装置及び方法
JP2012504878A (ja) * 2008-09-03 2012-02-23 サムスン エレクトロニクス カンパニー リミテッド 精密な動き予測を基盤としたフレーム補間装置およびその方法

Family Cites Families (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
DE3869475D1 (de) 1987-06-02 1992-04-30 Siemens Ag Verfahren zur ermittlung von bewegungsvektorfeldern aus digitalen bildsequenzen.
EP0466981B1 (en) 1990-07-20 1997-02-26 Koninklijke Philips Electronics N.V. Motion vector processing device
EP0524009B1 (en) * 1991-07-19 1998-09-16 Matsushita Electric Industrial Co., Ltd. Video signal processing apparatus for reducing aliasing interference
EP0533195A2 (en) 1991-09-20 1993-03-24 Sony Corporation Picture signal encoding and/or decoding apparatus
JP3263960B2 (ja) 1991-10-22 2002-03-11 ソニー株式会社 動きベクトル符号器および復号器
FI94306C (fi) 1993-07-15 1995-08-10 Nokia Technology Gmbh Menetelmä televisiokuvan pienten kuvasegmenttien liikevektoreiden määrittämiseksi
US5398068A (en) 1993-09-02 1995-03-14 Trustees Of Princeton University Method and apparatus for determining motion vectors for image sequences
US5929919A (en) 1994-04-05 1999-07-27 U.S. Philips Corporation Motion-compensated field rate conversion
JPH0837662A (ja) 1994-07-22 1996-02-06 Hitachi Ltd 画像符号化復号化装置
US5883975A (en) 1994-09-12 1999-03-16 Nippon Steel Corporation Compression and decompression methods on two-dimensional image data
US5731840A (en) 1995-03-10 1998-03-24 Kabushiki Kaisha Toshiba Video coding/decoding apparatus which transmits different accuracy prediction levels
EP2129133A3 (en) 1995-08-29 2012-02-15 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
US6058141A (en) 1995-09-28 2000-05-02 Digital Bitcasting Corporation Varied frame rate video
US6005980A (en) 1997-03-07 1999-12-21 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
US5991447A (en) 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
US6359929B1 (en) 1997-07-04 2002-03-19 Matsushita Electric Industrial Co., Ltd. Image predictive decoding method, image predictive decoding apparatus, image predictive coding apparatus, and data storage medium
KR100244291B1 (ko) 1997-07-30 2000-02-01 구본준 동영상 움직임 벡터 코딩 방법
DE69834902T2 (de) 1997-11-17 2007-02-01 Koninklijke Philips Electronics N.V. Bewegungskompensierte prädiktive bildkodierung und -dekodierung
KR100523908B1 (ko) 1997-12-12 2006-01-27 주식회사 팬택앤큐리텔 격행주사 영상에 대한 영상신호 부호화 장치 및 그 방법
EP0940774A3 (en) 1998-03-05 2000-07-05 Matsushita Electric Industrial Co., Ltd. Motion vector coding and decoding apparatus and method
US6956898B1 (en) * 1998-10-02 2005-10-18 Lucent Technologies Inc. Method and apparatus for dense motion field based coding
JP4142180B2 (ja) * 1998-10-29 2008-08-27 富士通株式会社 動きベクトル符号化装置および復号装置
US6594313B1 (en) * 1998-12-23 2003-07-15 Intel Corporation Increased video playback framerate in low bit-rate video applications
US6735249B1 (en) 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
JP3975629B2 (ja) 1999-12-16 2007-09-12 ソニー株式会社 画像復号装置及び画像復号方法
FI108900B (fi) * 1999-12-28 2002-04-15 Martti Kesaeniemi Optinen vuo ja kuvan muodostaminen
US6711211B1 (en) 2000-05-08 2004-03-23 Nokia Mobile Phones Ltd. Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
US6449312B1 (en) 2000-06-08 2002-09-10 Motorola, Inc. Method of estimating motion in interlaced video
JP3953710B2 (ja) * 2000-06-08 2007-08-08 株式会社エヌ・ティ・ティ・データ 動画像による監視システム
US7003174B2 (en) 2001-07-02 2006-02-21 Corel Corporation Removal of block encoding artifacts
US6865227B2 (en) * 2001-07-10 2005-03-08 Sony Corporation Error concealment of video data using motion vector data recovery
US8111754B1 (en) * 2001-07-11 2012-02-07 Dolby Laboratories Licensing Corporation Interpolation of video compression frames
US7133070B2 (en) 2001-09-20 2006-11-07 Eastman Kodak Company System and method for deciding when to correct image-specific defects based on camera, scene, display and demographic data
KR100396558B1 (ko) 2001-10-25 2003-09-02 삼성전자주식회사 적응 움직임 보상형 프레임 및/또는 레이트 변환 장치 및그 방법
US7054367B2 (en) 2001-12-31 2006-05-30 Emc Corporation Edge detection based on variable-length codes of block coded video
KR100441509B1 (ko) * 2002-02-25 2004-07-23 삼성전자주식회사 주사포맷변환장치 및 방법
US7324120B2 (en) 2002-07-01 2008-01-29 Xerox Corporation Segmentation method and system for scanned documents
DE10236207A1 (de) 2002-08-07 2004-02-26 Micronas Gmbh Verfahren zur bewegungsvektorgestützten Interpolation eines Bildpunktes eines Zwischenbildes einer Bildfolge
US6927804B2 (en) 2002-09-09 2005-08-09 Eastman Kodak Company Reducing color aliasing artifacts from color digital images
US7084906B2 (en) 2002-10-15 2006-08-01 Eastman Kodak Company Reducing computation time in removing color aliasing artifacts from color digital images
US7020201B2 (en) * 2002-11-20 2006-03-28 National Chiao Tung University Method and apparatus for motion estimation with all binary representation
US7158668B2 (en) 2003-08-01 2007-01-02 Microsoft Corporation Image processing using linear light values and other image processing improvements
EP1654706B1 (en) 2003-08-05 2012-10-10 Trident Microsystems (Far East) Ltd. Video encoding and decoding methods and corresponding devices
US7474355B2 (en) 2003-08-06 2009-01-06 Zoran Corporation Chroma upsampling method and apparatus therefor
US7483577B2 (en) 2004-03-02 2009-01-27 Mitsubishi Electric Research Laboratories, Inc. System and method for joint de-interlacing and down-sampling using adaptive frame and field filtering
EP1583367A1 (en) * 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion estimation employing line and column vectors
CN101023676B (zh) 2004-07-20 2012-06-27 高通股份有限公司 用于时间视频压缩中运动矢量预测的方法和设备
US7724307B2 (en) 2004-07-28 2010-05-25 Broadcom Corporation Method and system for noise reduction in digital video
US7860158B2 (en) * 2004-08-27 2010-12-28 Mitsubishi Electric Research Laboratories Inc. Coding correlated images using syndrome bits
US9071847B2 (en) 2004-10-06 2015-06-30 Microsoft Technology Licensing, Llc Variable coding resolution in video codec
JP4877449B2 (ja) * 2004-11-04 2012-02-15 カシオ計算機株式会社 動画像符号化装置および動画像符号化処理プログラム
GB0500174D0 (en) * 2005-01-06 2005-02-16 Kokaram Anil Method for estimating motion and occlusion
WO2006106508A2 (en) 2005-04-04 2006-10-12 Technion Research & Development Foundation Ltd. System and method for designing of dictionaries for sparse representation
US8422546B2 (en) 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
US7747082B2 (en) 2005-10-03 2010-06-29 Xerox Corporation JPEG detectors and JPEG image history estimators
US8582660B2 (en) * 2006-04-13 2013-11-12 Qualcomm Incorporated Selective video frame rate upconversion
US8243194B2 (en) * 2006-05-31 2012-08-14 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and apparatus for frame interpolation
JP4176114B2 (ja) 2006-06-19 2008-11-05 シャープ株式会社 画像圧縮装置およびそれを備えた画像読取装置、画像圧縮装置を備えた画像処理装置並びにそれを備えた画像形成装置、画像圧縮処理方法
EP1876823A1 (en) 2006-07-07 2008-01-09 Matsushita Electric Industrial Co., Ltd. Video processing device and method for processing videos
CA2675359A1 (en) * 2007-01-11 2008-07-17 360 Replays Ltd. Method and system for generating a replay video
US8335105B2 (en) 2007-03-07 2012-12-18 Headway Technologies, Inc. Magnetic memory cell
CN101658027B (zh) 2007-03-31 2013-04-10 索尼德国有限责任公司 用于图像帧的降噪方法和单元
US20080285656A1 (en) * 2007-05-17 2008-11-20 The Hong Kong University Of Science And Technology Three-loop temporal interpolation for error concealment of multiple description coding
GB2450121A (en) 2007-06-13 2008-12-17 Sharp Kk Frame rate conversion using either interpolation or frame repetition
US8218638B2 (en) * 2007-10-31 2012-07-10 Broadcom Corporation Method and system for optical flow based motion vector estimation for picture rate up-conversion
US8396129B2 (en) 2007-12-28 2013-03-12 Ati Technologies Ulc Apparatus and method for single-pass, gradient-based motion compensated image rate conversion
JP4930409B2 (ja) * 2008-02-21 2012-05-16 富士通株式会社 画像符号化装置、画像符号化方法および画像符号化プログラム
US8233730B1 (en) * 2008-04-22 2012-07-31 Marvell International Ltd. Filter bank based phase correlation architecture for motion estimation
EP2237560A1 (en) * 2009-03-30 2010-10-06 Vestel Elektronik Sanayi ve Ticaret A.S. Halo reducing motion-compensated interpolation
US8289444B2 (en) 2009-05-06 2012-10-16 Samsung Electronics Co., Ltd. System and method for reducing visible halo in digital video with covering and uncovering detection
US8682094B2 (en) 2009-05-12 2014-03-25 Dynamic Invention Llc Adaptive subpixel-based downsampling and filtering using edge detection
US8761531B2 (en) 2009-07-09 2014-06-24 Qualcomm Incorporated Image data compression involving sub-sampling of luma and chroma values
US8593692B2 (en) 2009-08-12 2013-11-26 Xerox Corporation Systems and methods for building a color lookup table for a printer
CA2714932A1 (en) 2009-09-23 2011-03-23 Her Majesty The Queen In The Right Of Canada As Represented By The Minister Of Industry Image interpolation for motion/disparity compensation
US8908984B2 (en) 2009-10-05 2014-12-09 I.C.V.T. Ltd. Apparatus and methods for recompression of digital images
US8724022B2 (en) * 2009-11-09 2014-05-13 Intel Corporation Frame rate conversion using motion estimation and compensation
US9445072B2 (en) * 2009-11-11 2016-09-13 Disney Enterprises, Inc. Synthesizing views based on image domain warping
US9635308B2 (en) * 2010-06-02 2017-04-25 Cisco Technology, Inc. Preprocessing of interlaced video with overlapped 3D transforms
US20130198152A1 (en) 2010-09-10 2013-08-01 LaShawn McGhee Systems and methods for data compression
CN103299623B (zh) * 2010-11-04 2017-03-08 Ge视频压缩有限责任公司 支持区块合并和跳过模式的图像编码
US9621916B2 (en) * 2010-12-14 2017-04-11 M&K Holdings Inc. Apparatus for encoding a moving picture
JP5645636B2 (ja) * 2010-12-16 2014-12-24 三菱電機株式会社 フレーム補間装置及び方法
GB2501402B (en) 2010-12-21 2015-06-24 Syndiant Inc Spatial light modulator with storage reducer
PT4120686T (pt) * 2011-01-07 2023-09-07 Ntt Docomo Inc Procedimento para descodificação preditiva, sistema para descodificação preditiva e suporte de armazenamento não transitório legível por computador
US9699456B2 (en) 2011-07-20 2017-07-04 Qualcomm Incorporated Buffering prediction data in video coding
JPWO2013088589A1 (ja) * 2011-12-14 2015-04-27 パナソニックIpマネジメント株式会社 映像信号処理装置、映像信号出力装置、及び映像信号処理方法
US9324133B2 (en) 2012-01-04 2016-04-26 Sharp Laboratories Of America, Inc. Image content enhancement using a dictionary technique
US9191551B2 (en) 2012-02-24 2015-11-17 Apple Inc. Pixel normalization
US20130257851A1 (en) * 2012-04-01 2013-10-03 Chao-Hua Lee Pipeline web-based process for 3d animation
US9153073B2 (en) * 2012-05-23 2015-10-06 Qualcomm Incorporated Spatially registered augmented video

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001506472A (ja) * 1997-09-23 2001-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動作評価及び動作補償された補間
JP2005210697A (ja) * 2003-12-23 2005-08-04 Genesis Microchip Inc 動き補償フレームレート変換
JP2008236098A (ja) * 2007-03-19 2008-10-02 Hitachi Ltd 映像処理装置及び映像表示装置
JP2011508516A (ja) * 2007-12-20 2011-03-10 インテグレーテッド・デバイス・テクノロジー・インコーポレーテッド ハローを低減する画像補間
JP2012504878A (ja) * 2008-09-03 2012-02-23 サムスン エレクトロニクス カンパニー リミテッド 精密な動き予測を基盤としたフレーム補間装置およびその方法
JP2010288098A (ja) * 2009-06-12 2010-12-24 Sony Corp 画像フレーム補間装置、画像フレーム補間方法及び画像フレーム補間プログラム
JP2011182193A (ja) * 2010-03-01 2011-09-15 Toshiba Corp 補間フレーム生成装置及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021506160A (ja) * 2017-12-20 2021-02-18 影石創新科技股▲ふん▼有限公司 ビデオ復号化方法及びカメラ
JP7159320B2 (ja) 2017-12-20 2022-10-24 影石創新科技股▲ふん▼有限公司 ビデオ復号化方法及びカメラ

Also Published As

Publication number Publication date
KR102210415B1 (ko) 2021-02-01
CN105247569A (zh) 2016-01-13
WO2014175995A1 (en) 2014-10-30
US9300906B2 (en) 2016-03-29
US9888255B1 (en) 2018-02-06
EP2979243A1 (en) 2016-02-03
KR20150138186A (ko) 2015-12-09
JP6457483B2 (ja) 2019-01-23
US20140294320A1 (en) 2014-10-02
CN105247569B (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
JP6457483B2 (ja) 平滑性の制約を用いてモーションが補償されるフレーム補間
CN110741640B (zh) 用于视频代码化中的运动补偿预测的光流估计
JP2023026683A (ja) 映像復号化方法
US20150312575A1 (en) Advanced video coding method, system, apparatus, and storage medium
US11743475B2 (en) Advanced video coding method, system, apparatus, and storage medium
TWI452907B (zh) 最佳化之解區塊濾波器
JP2007503776A (ja) インター符号化に使われる参照画像数を最小化するための方法および装置
JP2000175193A (ja) 電子ディジタル画像シ―ケンス再生システムにおける画像デ―タ補間方法、フレ―ム速度アップ変換方法、および特徴的ブロックに関連する真のモ―ション・ベクトルを決定する方法
CA2886995C (en) Rate-distortion optimizers and optimization techniques including joint optimization of multiple color components
CN105850124B (zh) 使用量化误差的额外的控制编码、解码视频信号的方法和装置
JP2013526142A (ja) 動き予測方法
US20230308679A1 (en) Motion prediction coding with coframe motion vectors
JP2012151576A (ja) 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
JP5566406B2 (ja) 画像データのブロックを予測する方法、当該方法を実現する復号化及び符号化装置
Ratnottar et al. Comparative study of motion estimation & motion compensation for video compression
WO2016193949A1 (en) Advanced video coding method, system, apparatus and storage medium
JP5946980B1 (ja) 画像復号化方法
JP5951915B2 (ja) 画像復号化方法
WO2023205371A1 (en) Motion refinement for a co-located reference frame
JP5911982B2 (ja) 画像復号化方法
JP5750191B2 (ja) 画像復号化方法
CN118055253A (zh) 用于视频代码化中的运动补偿预测的光流估计
Kang et al. Power-rate-distortion optimized resource allocation for low-complexity multiview distributed video coding
Pradeep Kumar et al. Intra-frame Prediction Mode Decision for Efficient Compression and Signal Quality
US20170302921A1 (en) Method for encoding, decoding video signal and device therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181220

R150 Certificate of patent or registration of utility model

Ref document number: 6457483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250