JP5619692B2 - より正確な動き情報を用いたフレーム補間 - Google Patents

より正確な動き情報を用いたフレーム補間 Download PDF

Info

Publication number
JP5619692B2
JP5619692B2 JP2011174804A JP2011174804A JP5619692B2 JP 5619692 B2 JP5619692 B2 JP 5619692B2 JP 2011174804 A JP2011174804 A JP 2011174804A JP 2011174804 A JP2011174804 A JP 2011174804A JP 5619692 B2 JP5619692 B2 JP 5619692B2
Authority
JP
Japan
Prior art keywords
motion
skipped
frame
motion information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011174804A
Other languages
English (en)
Other versions
JP2012010381A (ja
Inventor
ファン・シ
ビジャヤラクシュミ・アール.・ラビーンドラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2012010381A publication Critical patent/JP2012010381A/ja
Application granted granted Critical
Publication of JP5619692B2 publication Critical patent/JP5619692B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Description

優先権の主張
本出願は、その全体が参照によって本明細書に組み込まれている2005年9月27日出願の米国仮出願60/721,346号の優先権を主張する。
本願は、マルチメディア・エンコードおよびデコードに関し、更に詳しくは、マルチメディア・アプリケーションのため、スキップされたフレームを補間する技術に関する。
多くの異なるビデオ・エンコード規格が、デジタル・マルチメディア・シーケンスのコーディングのために確立された。MPEG(Moving Picture Experts Group)は、例えば、MPEG−1、MPEG−2およびMPEG−4を含む多くの規格を開発した。その他の例は、国際電気通信連合(ITU)H.263規格、および、"Advanced Audio Coding"と題され、MPEG−4でも記載されている新たなH.264規格を含む。これらのビデオ・コーディング規格は、一般に、データを圧縮方式でコーディングすることによって、マルチメディア・シーケンスの改善された送信効率をサポートする。圧縮は、マルチメディア・フレームの有効な送信のために送信される必要のある全体データ量を低減する。ビデオ・コーディングは、有線送信媒体および無線送信媒体の両方によって、ビデオ・ストリーミング・アプリケーション、ビデオ・カムコーダ・アプリケーション、ビデオ・テレフォニー(VT)・アプリケーション、およびビデオ・ブロードキャスト・アプリケーションを含む多くの状況において用いられる。
MPEG−4規格、ITU H.263規格、およびITU H.264規格は、例えば、フレーム間圧縮を提供するために、時間相関またはインター・フレーム相関と称される連続的なマルチメディア・フレーム間の類似点を利用するビデオ・コーディング技術をサポートする。インター・フレーム圧縮技術は、マルチメディア・フレームのピクセル・ベースの表示を動き表示に変換することによって、複数のフレームにまたがるデータ冗長性を利用する。インター・フレーム技術を用いてエンコードされたフレームは、予測(「P」)フレームあるいは双方向(「B」)フレームと称される。イントラ(「I」)・フレームと称される幾つかのフレームは、空間圧縮を用いてコード化される。これは、非予測的である。更に、幾つかのフレームは、イントラ・コード化ブロックとインター・コード化ブロックとの両方の組み合わせを含みうる。
低帯域幅要求を満たすために、例えばビデオ・テレフォニーまたはビデオ・ストリーミングのような幾つかのマルチメディア・アプリケーションは、フレーム・スキップを用いて、低フレーム・レートでビデオをコーディングすることによって、ビット・レートを下げる。スキップされたフレームは、「S」フレームと称される。あいにく、低フレーム・レート・ビデオは、動きジャーキネス(jerkiness)の形態でアーティファクト(artifacts)を生成する。従って、例えばフレーム・レート・アップ変換(FRUC)のようなフレーム補間は、一般に、スキップされたフレームの内容を補間するために、デコーダにおいて用いられる。
様々なFRUC技術が開発されており、2つのカテゴリに分類することができる。第1のFRUCカテゴリは、フレーム反復(FR)およびフレーム平均化(FA)を含む。これらは共に、動きを考慮しないビデオ・フレームの組み合わせを用いる。これらアルゴリズムは、動きがない状態で、許容可能な結果をもたらす。しかしながら、フレーム間で顕著な動きがある場合、FRは、動きジャーキネスを生成する傾向にあり、FAは、物体のぶれを生成する。第2のFRUCカテゴリは、動きを利用する高度な変換技術に依存する。このカテゴリでは、補間されたフレームの品質は、推定された動きと真の物体動きとの間の相違に依存する。
一般に、本明細書は、スキップされたビデオ・フレームのより正確な補間を容易にするビデオ・エンコード技術およびビデオ・デコード技術について記載する。特に、スキップされたビデオ・フレームを補間するために、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他のパラメータとに基づいて示す動き情報を適用する技術が記載される。動き情報は、例えば、従来の2パラメータ並進動きベクトル・モデルとは対照的に、3またはそれ以上の動きパラメータに基づく動きモデルに基づいて動きを示すことができる。より多くの動きパラメータをモデル化する動き情報を用いることによって、ビデオ・デコーダは、スキップされたフレームをより正確に補間できるようになる。その結果、補間されたビデオ情報において目に見えるアーティファクトが低減され、より効率的なFRUC処理がサポートされる。
従来のビデオ・デコーダでは、デコーダは、スキップされたフレームの動きを、並進動きのみに基づいて示す動き情報を取得し、スキップされたフレームを補間するために、並進動きベクトルを適用する。しかしながら、スキップされたフレームの動きベクトルは、一般に、スキップされたフレームに隣接したビデオ・フレームの動きベクトルから取得されるので、補間されたフレームにおいて、様々なアーティファクトをもたらす可能性がある。更に、動きベクトルは、並進動き情報のみを与えるので、並進動き以外のカメラ動きによって、補間されたフレームにおいて、その他様々なアーティファクトがもたらされる。
しかしながら、本明細書の技術に従って、フレーム補間を実行するビデオ・デコーダは、スキップされたビデオ情報を補間するために、より正確な動き情報を適用することによって、補間されたフレームにおける目に見えるアーティファクトの量を低減することができる。特に、幾つかの実施形態では、デコーダは、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得し、スキップされたビデオ・フレームを補間するために、この動き情報を適用する。
1つの実施形態では、デジタル・ビデオ・データを処理する方法は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得することと、スキップされたビデオ・フレームを補間するために、この動き情報を適用することとを備える。
別の実施形態では、デジタル・ビデオ・データを処理する装置は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得し、スキップされたビデオ・フレームを補間するために、この動き情報を適用する補間モジュールを備える。
別の実施形態では、デジタル・ビデオ・データを処理するプロセッサは、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得し、スキップされたビデオ・フレームを補間するために、この動き情報を適用するように構成されている。
別の実施形態では、デジタル・ビデオ・データを処理するデバイスは、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得し、スキップされたビデオ・フレームを補間するために、この動き情報を適用するように構成されたプロセッサを備える。
更なる実施形態では、デジタル・ビデオ・データを処理する装置は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得する手段と、この動き情報を適用することによって、スキップされたビデオ・フレームを補間する手段とを備える。
別の実施形態では、機械読取可能媒体は、実行されると、機械に対して、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得させ、スキップされたビデオ・フレームを補間するために、この動き情報を適用させる命令を備えている。
また別の実施形態では、ビデオ・エンコード方法は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成することと、少なくとも1つのビデオ・フレーム内の動き情報をエンコードすることとを備える。
別の実施形態では、デジタル・ビデオ・データをエンコードする装置は、スキップされたビデオ・フレームを分析し、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する分析モジュールと、少なくとも1つのビデオ・フレーム内の動き情報をエンコードするアセンブリ・モジュールとを備える。
更なる実施形態では、デジタル・ビデオ・データをエンコードする装置は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する手段と、少なくとも1つのビデオ・フレーム内の動き情報をエンコードする手段とを備える。
別の実施形態では、デジタル・ビデオ・データを処理するプロセッサは、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成し、少なくとも1つのビデオ・フレーム内の動き情報をエンコードするように構成される。
別の実施形態では、機械読取可能媒体は、実行されると、機械に対して、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成させ、少なくとも1つのビデオ・フレーム内の動き情報をエンコードさせる命令を備えている。
本明細書に記載された技術は、ハードウェア、ソフトウェア、ファームウェア、またはこれら任意の組み合わせで実現される。ソフトウェアで実現される場合、本技術は、実行された場合に、本明細書に記載された方法のうち1または複数を実行する命令を含むプログラム・コードを備える機械読取可能媒体によって部分的に実現されうる。本明細書に記載の技術は、無線通信デバイス(WCD)またはその他のデバイス内に組み込まれるのに適切なチップセットまたはチップによって組み込まれうる処理回路内で実現されうる。幾つかの実施形態では、本開示は、そのような回路を組み込むデバイスに関する。
1または複数の実施形態の詳細が、添付図面および以下の記載において述べられる。本開示のその他の特徴、目的、および利点は、詳細説明と図面から、および特許請求の範囲から明らかになるであろう。
図1は、スキップされたビデオ・フレームを補間するために、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用するように構成されたビデオ・エンコードおよびデコード・システムを例示するブロック図である。 図2は、ビデオ・デコーダで使用される典型的な補間デコーダ・モジュールを図示するブロック図である。 図3は、ビデオ・デコーダで使用される別の典型的な補間デコーダ・モジュールを図示するブロック図である。 図4は、ビデオ・エンコーダで使用されるフレーム処理モジュールを図示するブロック図である。 図5は、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を用いて、スキップされたビデオ・フレームを補間するデコーダの典型的な動きを例示するフロー図である。 図6は、スキップされたフレームの一部の動き情報を、アファイン動きモデルに基づいて生成するエンコーダの典型的な動きを例示するフロー図である。 図7は、スキップされたフレームのための動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を、並進動きのみに基づく動き情報へ変換するデコーダの典型的動きを例示するフロー図である。 図8は、スキップされたビデオ・フレームを補間するために、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用するように構成されたビデオ・エンコードおよびデコード・システムを例示するブロック図である。
本開示は、スキップされた(「S」)ビデオ・フレームのより正確な補間を容易にするエンコード技術およびデコード技術を説明する。特に、スキップされたビデオ・フレームを補間するために、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用する技術が説明される。この動き情報は、例えば、従来の2パラメータの並進動きベクトル・モデルとは対照的に、3またはそれ以上の動きパラメータに基づく動きモデルに基づく動きを示すことができる。より多くの動きパラメータをモデル化する動き情報を用いることによって、デコーダは、スキップされたフレームをより正確に補間できるようになる。その結果、補間されたビデオ情報において目に見えるアーティファクトが低減される。
従来のデコーダでは、デコーダは、スキップされたフレームの動きを、並進動きのみに基づいて示す動き情報を取得し、スキップされたフレームを補間するために、並進動きベクトルを適用している。しかしながら、スキップされたフレームの動きベクトルは、一般に、スキップされたフレームに隣接したビデオ・フレームの動きベクトルから取得されるので、補間されたフレームにおいて、様々なアーティファクトをもたらす可能性がある。更に、動きベクトルは、並進動き情報のみを与えるので、並進動き以外のカメラ動きによって、補間されたフレームにおいて、その他様々なアーティファクトがもたらされる。
しかしながら、本明細書の技術に従ってフレーム補間を実行するデコーダは、スキップされたビデオ・フレームを補間するために、より正確な動き情報を適用することによって、補間されたフレームにおける目に見えるアーティファクトの量を低減することができる。特に、デコーダは、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を取得し、スキップされたビデオ・フレームを補間するために、この動き情報を適用する。
デコーダは、スキップされたビデオ・フレームのより正確な動き情報を、1または複数の隣接するビデオ・フレームに関連付けられた動き情報を用いて生成することができる。あるいは、デコーダは、1または複数の送信されるビデオ・フレームに動き情報を埋め込むエンコーダから、スキップされたビデオ・フレームのより正確な動き情報を受け取る。このように、エンコーダは、スキップされたビデオ・フレームを補間するデコーダを支援するために、スキップされたビデオ・フレームに関連付けられた動き情報を送信する。何れの場合も、デコーダは、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用することによって、スキップされたフレームをより正確に補間する。
1つの実施形態では、エンコーダとデコーダとの両方が、スキップされたフレームの動きを、並進動きと、例えばアファイン動きモデルに基づいた動き情報のような少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を用いることをサポートするように構成されうる。この場合、エンコーダは、アファイン・モデルに基づいて動き情報を生成し、この動き情報を、デコーダに送信し、スキップされたフレームをデコーダが補間することを支援する。エンコーダは、例えばスキップされたフレームに先行または後続するPフレーム内のような1または複数のエンコード済みフレーム内、または、スキップされたフレーム動き情報専用であり、エンコード済みフレームとは独立して送信されるビデオ・フレーム内で、スキップされたフレームの動き情報を送信する。
別の実施形態では、エンコーダは、スキップされたフレームの動きを、並進動きおよび少なくとも1つのその他の動きパラメータに基づいて示す動き情報を生成するように構成される。しかしながら、デコーダは、そのような動き情報を使用するようには構成されないかもしれない。この場合、エンコーダは、スキップされたフレームの動き情報を、並進動きと少なくとも1つの他の動きパラメータとに基づいて生成し送信する。デコーダは、受け取った動き情報を、並進動きのみに基づいて動きを示す動きベクトルへ変換し、スキップされたビデオ・フレームを、この並進動きベクトルを用いて補間する。
更なる実施形態では、デコーダのみが、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を用いるように構成される。したがって、このデコーダは、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を、エンコーダから受け取らない。その代わり、デコーダは、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を、スキップされたビデオ・フレームに隣接した1または複数のビデオ・フレームに関連付けられた動き情報から生成する。
図1は、スキップされたビデオ・フレームを補間するために、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用するように構成されたビデオ・エンコードおよびデコード・システム10を例示するブロック図である。図1に示すように、システム10は、送信チャネル15によって接続されたビデオ・エンコーダ12とビデオ・デコーダ14とを含む。ビデオ・シーケンスのようなエンコードされたマルチメディア・シーケンスは、ビデオ・エンコーダ12から、伝送チャネル15によってビデオ・デコーダ14に送信されうる。伝送チャネル15は、有線媒体または無線媒体でありうる。この目的のために、ビデオ・エンコーダ12およびビデオ・デコーダ14は、そのような通信を容易にする送信機および受信機(図示せず)を含みうる。システム10はまた、例えばビデオ・テレフォニーのために、双方向ビデオ送信をサポートしうる。伝送チャネル15の反対端では、相対するエンコード要素、デコード要素、多重化(MUX)要素、および逆多重化(DEMUX)要素が備えられうる。幾つかの実施形態では、ビデオ・エンコーダ12とビデオ・デコーダ14とが、例えばビデオ・ストリーミング、ビデオ・テレフォニーまたはそれら両方のために備えられた無線通信デバイスのようなビデオ通信デバイス内に組み込まれうる。
システム10は、SIP(Session Initiated Protocol)、ITU H.323規格、ITU H.324規格、またはその他の規格に従ってビデオ・テレフォニーをサポートすることができる。ビデオ・エンコーダ12は、例えばMPEG−2、MPEG−4、ITU H.263、あるいは"Advanced Audio Coding"と題され、MPEG−4 パート10にも述べられているITU H.264のようなビデオ圧縮規格に従ってエンコードされたビデオ・データを生成する。図1には示されていないが、ビデオ・エンコーダ12およびビデオ・デコーダ14は、オーディオ・エンコーダおよびオーディオ・デコーダとそれぞれ統合され、データ・ストリームのオーディオ部分およびビデオ部分を取り扱うための適切なMUX−DEMUXモジュールを含む。このMUX−DEMUXモジュールは、ITU H.223マルチプレク・サプロトコル、または、例えばユーザ・データグラム・プロトコル(UDPのようなその他のプロトコルに従いうる。あるいは、システム10は、SIPプロトコルを使用しうる。
ビデオ・エンコーダ12およびビデオ・デコーダ14は、1または複数のプロセッサ、デジタル・シグナル・プロセッサ、特定用途向けIC(ASIC)、フィールド・プログラム可能ゲートアレー(FPGA)、離散的ロジック、ソフトウェア、ハードウェア、ファームウェア、あるいはそれらの任意の組合せとして実施されるかもしれない。ビデオ・エンコーダ12およびビデオ・デコーダ14の例示する構成要素は、1または複数のエンコーダまたはデコーダに含まれうる。そして、それらのうち何れかは、エンコーダ/デコーダ(コーデック)の一部として統合されうる。
エンコーダ12は、フレーム・スキップを用いて、短縮されたフレーム・レートにおいてビデオ情報をエンコードする。更に詳しくは、エンコーダ12は、複数のビデオ・フレームをエンコードして、デコーダ14へ送信する。複数のビデオ・フレームは、1または複数のイントラ(「I」)フレーム、予測(「P」)フレーム、あるいは双方向(「B」)フレームを含みうる。ビデオ・エンコーダ12は、図1において、Pフレーム16を生成し、送信するように例示されているが、エンコーダ12は更に、その他のPフレームや、1または複数のIフレームおよびBフレームをも生成し送信する。Pフレーム16は、ビデオ・デコーダ14が、ビデオ情報のフレームをデコードし、表すことができるための十分な情報を含む予測フレームである。特に、1または複数の動きベクトルおよび量子化された予測誤差が、Pフレーム16のためにエンコードされる。短縮されたフレーム・レートにおいてビデオ情報をエンコードするために、エンコーダ12は、伝送チャネル15を介した帯域幅維持のため、エンコードされた情報の全体量を低減するために設計されたフレーム・スキップ機能に従って、特定のフレーム(スキップされたフレームまたはSフレームと称される)をスキップしうる。言い換えれば、エンコーダ12は実際には、Sフレームをエンコードも送信もしない。その代わり、デコーダ14は、スキップされたフレームを補間して、ビデオ情報のフレームを生成する。
図1の例では、ビデオ・エンコーダ12は、例えばフレームF、F、およびFのような到来するビデオ情報のフレームを処理するように構成されたフレーム処理モジュール20を含む。到来するフレームF、F、およびFの分析に基づいて、フレーム処理モジュール20は、到来するフレームをPフレームとしてエンコードするか、これらフレームをスキップするかを判定する。Fは、スキップされるフレームを示す一方、フレームFおよびFは、Pフレームの先行および後続する各フレームを示す。
ビデオ・デコーダ14は、エンコード済みのビデオ・フレームをエンコーダ12から受け取り、このビデオ・フレームをデコードする。Pフレームの復号と、Sフレームの補間とを取り扱うために、ビデオ・デコーダ14は、標準的デコーダ・モジュール22と、補間デコーダ・モジュール24とを含む。標準的デコーダ・モジュール22は、標準的デコーダ技術を適用して、例えばPフレーム16のように、エンコーダ12によって送られた各Pフレームをデコードする。上述したように、各Pフレームでエンコードされた情報は、標準的デコーダ・モジュール22がビデオ情報のフレームをデコードし表すことができるのに十分である。標準的デコーダ・モジュール22は更に、例えばIフレームまたはBフレームのようなその他の符合化フレームをもデコードすることができる。
補間デコーダ・モジュール24は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用することによって、例えばフレームFのようなスキップされたビデオ・フレームを補間する。スキップされたフレームは、デコーダ14に送信されないが、動き情報は、スキップされたフレームのコンテンツの補間をサポートする。スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用することによって、補間デコーダ・モジュール24は、補間されたフレームにおける目に見えるアーティファクトを減らし、もって、ビデオ出力における改善された視覚品質を達成することができる。
例として、補間デコーダ・モジュール24は、スキップされたビデオ・フレームの動きを、アファイン動きモデルに基づいて示す動き情報を取得し、スキップされたビデオ・フレームを補間するために、この動き情報を適用する。アファイン動きモデルは、並進動きのみならず、回転、シャーリング、およびスケーリングをも近似する。アファイン動きモデルは、下記式によって表されうる。
Figure 0005619692
ここで(x’,y’)および(x,y)は、変位前および変位後の点の画像座標をそれぞれ示し、a1〜a6は、アファイン変換の係数を示す。アファイン動きモデルに基づく動き情報は、従来の並進動きベクトルの2パラメータ近似とは異なり、スキップされたフレームの動きの6パラメータ近似を提供する。
動き情報は、スキップされたフレームの動きを、アファイン動きモデル以外の動きモデルに基づいて示すことができる。例えば、この動き情報は、並進動きと、スケーリング、シャーリング、回転、パン、およびチルトのうちの少なくとも1つとを考慮する動きモデルに基づいて動きを示すことができる。例えば、この動き情報は、厳密なモデル(3パラメータ)、厳密かつスケールモデル(4パラメータ)、双一次(bilinear)モデル(8パラメータ)、または、並進動きと、例えば平面ホモグラフィのような少なくとも1つのその他の動きパラメータとに基づいて動きを示すその他の動きモデルに基づいて動きを示すことができる。更に、この動き情報は、例えば物体変形モデルまたはピクセル・ベース動きモデルのような非剛体動きモデルに基づいて動きを示すことができる。
1つの実施形態では、補間デコーダ・モジュール24は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する。以下に詳細に説明するように、補間デコーダ・モジュール24は、スキップされたフレームの動き情報を、スキップされたビデオ・フレームに隣接した1または複数のビデオ・フレームに関連付けられた動き情報を用いて生成する。例として、補間デコーダ・モジュール24は、先行基準フレームおよび後続基準フレームに関連付けられた並進動きベクトルを用いて、並進動きおよび少なくとも1つのその他の動きパラメータに基づいて、スキップされたフレームの動きを示す動き情報を生成しうる。あるいは、補間デコーダ・モジュール24は、並進動きと、先行基準フレームおよび後続基準フレームに関連付けられた少なくとも1つのその他の動きパラメータとに基づく動き情報を用いて、スキップされたフレームの動きを示す動き情報を並進動きと少なくとも1つのその他の動きパラメータとに基づいて生成することができる。このように、補間技術は、もっぱらデコーダ内で実施される。
あるいは、補間デコーダ・モジュール24は、ビデオ・エンコーダ12からの支援に依存して、スキップされたフレームの補間を行う。特に、エンコーダ12は、補間デコーダ・モジュール24が、スキップされたフレームを補間することを支援するために、例えばSフレーム動き情報18のようなスキップされたフレームの動き情報を生成し、エンコードし、送信することができる。エンコーダ12は、専用フレーム、あるいは例えばPフレーム16のような1または複数の送信されたビデオ・フレームで、Sフレーム動き情報18をデコーダ14へ送信する。このように、補間デコーダ・モジュール24は、エンコーダ12の支援を受けて、スキップされたフレームを補間する。Sフレーム動き情報18は、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す。ビデオ・エンコーダ12は、スキップされたフレームと、先行フレーム、後続フレーム、先行フレームおよび後続フレームの両方、あるいは任意の数の隣接フレームとの間の動きを分析することによって、スキップされたフレームの動き情報を推定することができる。このようにして、ビデオ・エンコーダ12は、スキップされたフレームに関連付けられた情報を生成し、送信する。あるいは、ビデオ・エンコーダ12は、先行フレームと後続フレームとの間の動きを分析することによって、スキップされたフレームの動き情報を推定することができる。
エンコーダ12は、通常グローバル動き情報と称される、スキップされた全ビデオ・フレームを示すSフレーム動き情報18を生成し送信する。しかしながら、帯域幅要求を低減するために、エンコーダ12は、オブジェクトベース情報またはローカル動き情報と称されるスキップされたフレームの一部のみについて、Sフレーム動き情報18を生成し、送信する。特に、エンコーダ12は、スキップされたフレーム内の選択されたビデオ・ブロックの動きを示すSフレーム動き情報18を生成しうる。この場合、エンコーダ12はまた、動き情報に関連付けられたスキップされたビデオ・フレームの、例えばビデオ・ブロックのような部分を記述する位置情報をも生成することができる。従って、動き情報は、アファイン・モデル近似自身のみならず、オブジェクトまたはビデオ・ブロック記述をも含みうる。スキップされたフレームの他のビデオ・ブロックは、特定の動き情報を必要とすることなく、正確に補間されうる。しばしばマクロブロック(MB)と称されるビデオ・ブロックは一般に、スキップされたフレーム内のピクセルからなる4×4ブロック、8×8ブロック、または16×16ブロックである。
更に、エンコーダ12は、スキップされたフレームをデコーダ14が補間するのを支援するために、スキップされたフレームに関連付けられたその他の情報を生成し、送信することができる。動き情報に加え、エンコーダ12は例えば、スキップされたフレーム内で、スキップされたフレームを補間する際に、ビデオ・デコーダ14によって使用される特定の補間式、または、例えばマクロブロック(MB)やより小さなブロックのように、選択されたビデオ・ブロックのために使用される特定の補間式を指定する情報を生成し送信することができる。
ビデオ・デコーダ14は、特に、ビデオ・エンコーダ12によって送信されたSフレーム動き情報を認識し利用するように構成されうる。しかしながら、ビデオ・デコーダ14が、Sフレーム動き情報18を認識するために備えられていないのであれば、この情報は無視され、ビデオ・デコーダ14によって適用される補間技術に従って補間が進められる。例えば、受け取ったビデオ・フレーム内に埋め込まれたスキップされたフレーム情報を認識するためにビデオ・デコーダ14が備えられていない場合、ビデオ・デコーダ14は、スキップされたフレームについて、より正確な動き情報を生成することができる。
その他多くの構成要素もまた、エンコードおよびデコード・システム10に含まれうるが、簡略化のため、および例示の簡素化のために図1には特に示していない。本明細書に記載の技術は、その他様々なアーキテクチャに従って実施されうるので、図1に例示したアーキテクチャは、単なる典型例である。更に、図1に例示する機能は、ハードウェア構成要素および/またはソフトウェア構成要素の任意の適切な組み合わせによって実現されうる。
図2は、図1のビデオ・デコーダ14のようなビデオ・デコーダで使用される典型的な補間デコーダ・モジュール30を図示するブロック図である。補間デコーダ・モジュール30は、補間フレームを生成するように動きする補間モジュール32および動き推定モジュール34を含んでいる。補間モジュール32は、スキップされたビデオ・フレームを補間するために、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用する。
補間モジュール32は、ビデオ・エンコーダ12(図1)から動き情報を取得することができる。上述したように、ビデオ・エンコーダ12は、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成し、1または複数のビデオ・フレーム内の動き情報をエンコードして、スキップされたビデオ・フレームを補間する補間デコーダ・モジュール30を支援する。この場合、補間モジュール32は、スキップされたフレームを補間するために、スキップされたフレームの受け取られた動き情報を適用する。
しかしながら、補間デコーダ・モジュール30は、スキップされたフレームの動きを示す動き情報を生成する必要があるかもしれない。例えば、ビデオ・エンコーダ12は、スキップされたフレームの動き情報を送信するか、あるいは、スキップされたフレームの動き情報の一部のみを送信するようには構成されていないかもしれない。あるいは、補間デコーダ・モジュール30は、送信されたビデオ・フレーム内で、スキップされたフレームの動き情報を認識するように構成されていないかもしれない。何れの場合であれ、動き推定モジュール34は、スキップされたビデオ・フレームに隣接する1または複数のビデオ・フレームに関連付けられた動き情報を用いて、スキップされたフレームの動き情報の少なくとも一部を生成する。例えば、動き推定モジュール34は、スキップされたフレームの動き情報を、例えば先行フレーム、先行および後続のフレーム、または2より多い隣接したビデオ・フレームのような1または複数の基準フレームに関連付けられた1または複数の並進動きベクトルに基づいて生成しうる。更に、動き推定モジュール34は、スキップされたビデオ・フレームに隣接したビデオ・フレームの並進動きと少なくとも1つのその他の動きパラメータとに基づいて、動き情報を生成しうる。例えば、動き推定モジュール34は、Pフレーム16の動き情報を生成しうる。
例として、デコーダ14によって受け取られた先行および後続の基準フレームが、N個のマクロブロックに細分化され、マクロブロックの各々に関連付けられた並進動きベクトルを有することができる。動き推定モジュール34は、基準フレームのマクロブロックに関連付けられた並進動きベクトルに基づいて、スキップされたビデオ・フレームの並進動きベクトルを推定する。動き推定モジュール34は、複数の並進動きベクトルを用いて、アファイン・モデルのパラメータを推定する。並進動きベクトルはそれぞれ、2パラメータ方程式(つまり、x1=x2+a、y1=y2+c))に相当する。1つの実施形態では、動き推定モジュール34は、3つほどの並進動きベクトルを用いて、アファイン動きモジュールに基づいて、動き情報を生成しうる。しかしながら、動き推定モジュール34は、一般に、3を越える並進動きベクトルを持つだろう。複数の並進動きベクトルからアファイン動きパラメータを導出するために、様々な数学的モデルが適用されうる。動き推定モジュール34は、例えば、最小二乗推定を用いて、アファイン動きパラメータを導出することができる。動き推定モジュール34は、例えば、ピースワイズ・プラナ(piecewise planar)動きベクトルフィールド近似の性能が最も低いことに基づいて、アファイン・モデルを推定することができる。
あるいは、動き推定モジュール34は、スキップされたフレーム内の特定のオブジェクトまたはマクロブロックのように、スキップされたフレームの一部のみについて動きを推定することができる。この場合、動き推定モジュール34は、スキップされたフレームの全てのマクロブロックのための並進動きベクトルを生成する。動き推定モジュール34は、上述したような並進動きベクトルから、アファイン動きモデル・パラメータを近似する。各マクロブロックは、生成されたアファイン動きモデルを用いて、ピクセル毎ピクセル・ベースで再構築される。更に、各マクロブロックは、アファイン動きパラメータを近似するために使用される並進動きベクトルを用いて再構築される。アファイン動きモデル・パラメータを用いて再構築されたマクロブロックの歪みは、並進動きベクトルを用いて再構築された対応するマクロブロックと比較される。この歪みが、予め定めたしきい値より上にある場合、このアファイン動きモデルは、大きな歪みに関連付けられたマクロブロックを正確に近似していないと判定され、このマクロブロックが、オブジェクトから取り除かれる。言い換えれば、アファイン・モデル推定は、特定のマクロブロックには当てはまらないと認められる。再構築された全てのマクロブロック間の歪みを分析した後、アファイン動きモデル・パラメータは、しきい値よりも下の歪み値を持っている、フレーム内のマクロブロックにのみ当てはまると判定される。
図3は、ビデオ・デコーダで使用される他の典型的な補間デコーダ・モジュール36を図示するブロック図である。補間デコーダ・モジュール36は、図2の補間デコーダ・モジュール30に実質的に一致するが、この補間デコーダ・モジュール36は、並進動きと少なくとも1つのその他の動きパラメータとに基づく動き情報を、並進動きのみに基づく動き情報へ変換する動き情報変換モジュール38を含む。並進動きと少なくとも1つのその他の動きパラメータとに基づく動き情報を、並進動きベクトルへ変換することによって、並進動きベクトルのみを用いて動き補償を行うハードウェア・コンフィグレーションおよび/またはソフトウェア・コンフィグレーションを構成するビデオ・デコーダにおいて、より正確な動き情報を用いることが可能となる。
動き情報変換モジュール38は、動き推定モジュール34から、または、エンコーダ12によって送信されたスキップされたビデオ・フレームに隣接した1または複数のフレームから、スキップされたフレームの動きを示す動き情報を得る。並進動きと少なくとも1つのその他の動きパラメータとに基づいた動き情報を、並進動きのみに基づいた動き情報に変換するために、動き情報変換モジュール38は、スキップされたフレームの動き情報に基づいて、興味のあるブロック内の1または複数のピクセルについて、並進動きベクトルを生成する。動き情報変換モジュール38は、例えば、動きのアファイン・モデル近似に、ピクセルの座標を入力することによって、ピクセルの各々について、並進動きベクトルを生成しうる。言い換えれば、アファイン・モデル近似の出力は、特定のピクセルに関連付けられた動きベクトルである。
動き情報変換モジュール38は、興味のあるブロックについて、単一の動きベクトルを生成するために、ピクセルに関連付けられた並進動きベクトルをマージする。動き情報変換モジュール38は、例えば、平均化演算、メジアン演算、またはその他の類似の数学的演算を用いて、ピクセルの並進動きベクトルをマージすることができる。動き情報変換モジュール38は、幾つかのより小さなサイズ・ブロックについて動きベクトルを反復的に生成することによって、より大きなサイズのブロックについての並進動きベクトルを生成することができる。動き情報変換モジュール38は、例えば、幾つかの2×2ブロックについて並進動きベクトルを反復的に生成し、次に、2×2ブロックからなる動きベクトルをマージすることによって、8×8ブロックの動きベクトルを生成する。
この変換技術は、一般的のみの目的用である。動き情報変換モジュール38は、並進動きと少なくとも1つのその他の動きパラメータとに基づく動き情報を、並進動きベクトルへ変換するその他の変換技術を利用することもできる。例えば、動き情報変換モジュール38は、アファイン・モデル動き情報に基づいて、興味のあるブロック内の1または複数のピクセルについて、並進動きベクトルを生成することができる。動き情報変換モジュール38は、ピクセル変換動きベクトルを選択し、選択されたピクセル変換動きベクトルを、興味のあるブロックの並進動きベクトルを出力する動き推定モジュールのためのシード動きベクトルとして用いる。例えば、興味のあるマクロブロックの中心ピクセルの並進動きベクトルは、マクロブロックのためにシードされた動きベクトルとして使用することができる。動き予測は、マクロブロックの中心ピクセルに関連付けられた動きベクトルから始まる。従って、シード動きベクトルは、ある探索範囲内の初期探索点の役割をする。アファイン・モデルは、周囲の動きベクトルと同様に、中心ピクセルの動きベクトルを用いて、最小2乗フィッティング・アルゴリズムによって推定されうる。
動き情報を並進動きベクトルに変換することによって、並進動きベクトルのみを用いて動き補償を実施するハードウェア・コンフィグレーションおよび/またはソフトウェア・コンフィグレーションを適用するビデオ・デコーダにおいて本開示の技術を実現することが可能となる。並進動きと少なくとも1つのその他の動きパラメータとに基づいて動きを示す動き情報は使用されないが、適用される並進動きベクトルはより正確である。なぜなら、それらは、例えばアファイン動きモデル近似のようなより正確な動き情報に基づいて生成されるからである。
図4は、例えば図1のビデオ・エンコーダ12のようなビデオ・エンコーダで使用されるフレーム処理モジュール40を例示するブロック図である。フレーム処理モジュール40は、フレーム・タイプ判定モジュール42、スキップ・フレーム分析モジュール44、およびフレーム・アセンブリ・モジュール46を含んでいる。スキップ・フレーム分析モジュール44は更に、動き推定モジュール48および位置推定モジュール50を含んでいる。一般に、スキップ・フレーム分析モジュール44は、スキップされるフレームを分析し、スキップされるフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する。この生成された動き情報は、1または複数のビデオ・フレーム内で送信され、デコーダ14が、スキップされたフレームを、改善された精度で補間することを支援する。
フレーム・タイプ判定モジュール42は、到来するビデオ情報が、例えばIフレーム、Pフレーム、Bフレームのようなフレームでエンコードされるべきか、あるいはスキップされるべきかを判定する。フレーム・タイプ判定モジュール42は、伝送チャネル15(図1)を介した帯域幅維持のため、符号化される全情報量を低減するように設計された一様または非一様のフレーム・スキップ機能に部分的に基づいて、フレームをスキップすることを判定することができる。例えば、フレーム・タイプ判定モジュール42は、nフレーム毎にスキップしたり、1または複数の動的スキップ基準に基づいてフレームをスキップすることができる。フレーム・タイプ判定モジュール42は、フレーム・アセンブリ・モジュール46にフレーム判定を伝える。
スキップ・フレーム分析モジュール44は、スキップされたフレームの動きを示す動き情報を生成する。スキップ・フレーム分析モジュール44は、動き推定情報および/または位置情報を生成しうる。これら各々は、スキップされたフレームの補間を行うデコーダを支援するために、デコーダによって提供されるスキップ・フレーム動き情報の一部を形成しうる。特に、動き推定モジュール48は、例えばアファイン動きモデルに基づく動き情報のように、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する。動き推定モジュール48は、例えば、図1の先行フレームFおよび後続フレームFのようなスキップされたフレームに隣接する1または複数のビデオ・フレームと、スキップされたフレームとの間の動きに基づいて、動き情報を生成しうる。あるいは、動き推定モジュール48は、先行フレームFと後続フレームFとの間の動きに基づいて、動き情報を生成しうる。
動き推定モジュール48は、スキップされたフレーム全体の動きを示す動き情報を生成しうる。例えば、スキップされるフレームと、先行基準フレームとが、N個のマクロブロックへ細分化されうる。動き推定モジュール48は、先行フレーム、およびスキップされるフレームのマクロブロックの各々の間の並進動きを計算しうる。並進動きベクトルはそれぞれ、2つのパラメータ方程式(つまりx1=x2+a、y1=y2+c)に相当する。動き推定モジュール48は、先行するフレームおよびスキップされたフレームを用いて計算された並進動きベクトルに基づいて、スキップされたビデオ・フレーム全体のアファイン動き情報を生成する。動き推定モジュール48は、3つほどの並進動きベクトルを用いて、アファイン動きモジュールに基づいて動き情報を生成しうる。例えば最小2乗推定のような複数の並進動きベクトルからアファイン動きパラメータを導出するために、様々な数学的モデルを適用することができる。この場合、生成された動き情報は、スキップされたフレーム全体に適用されるので、位置推定モジュール50は、位置情報を生成する必要はないかもしれない。
あるいは、動き推定モジュール48は、スキップされたフレーム内の特定のオブジェクトまたはビデオ・ブロックのための動きを示す動き情報を生成することができる。言い換えれば、動き推定モジュール48によって生成された動き情報は、フレーム内のマクロブロックの各々に適用することができないが、フレームの一部にのみ適用することができる。この場合、位置推定モジュール50は、生成された動き情報に関連付けられたスキップされたビデオ・フレームのビデオ・ブロックまたはオブジェクトのような部分を記述する位置情報を生成する。位置推定モジュール50は、例えば、ローカルな動き情報があてはまるオブジェクトまたは特定のビデオ・ブロックの境界を示すバイナリ・ビットマップを生成しうる。位置推定モジュール50は、生成されたアファイン動きモデルを用いて、ピクセル毎ベースでマクロブロックの各々を再構築する。位置推定モジュール50は、同時に、アファイン動きパラメータを近似するために使用される並進動きベクトルを用いて、マクロブロックの各々を再構築する。位置推定モジュール50は、アファイン動きモデル・パラメータを用いて再構築されたマクロブロックまたはピクセルと、並進動きベクトルを用いて再構築された対応するマクロブロックまたはピクセルとの間の歪みを比較する。歪みが予め定めたしきい値よりも上にある場合、アファイン動きモデルは、大きな歪みに関連付けられたマクロブロックを正確に近似しないものと判定され、オブジェクトからマクロブロックが取り除かれる。言い換えれば、アファイン変換モデル推定は、特定のマクロブロックまたはピクセルには当てはまらないことが認められる。再構築された全てのマクロブロック間の歪みを分析した後、しきい値よりも低い歪み値を有するフレーム内にマクロブロックを適用することのみのために、アファイン動きモデル・パラメータが決定される。位置推定モジュール50は、ローカル動き情報が当てはまるピクセルまたはブロックの境界を示すバイナリ・ビットマップを生成しうる。位置情報で識別されないビデオ・ブロックまたはオブジェクトは、特定の動き情報のための潜在的な必要性無しで補間されうる。
別の実施形態では、動き推定モジュール48は、スキップされたフレームの動きを示す動き推定情報を生成できない。しかしながら、位置推定モジュール50は、動き情報が動き推定モジュール48によって生成されたのであれば当てはまるスキップされたフレームの部分を識別する位置情報を生成することができる。このように、デコーダ14は、スキップされたフレームの動きを示す動き情報を生成するが、エンコーダは、デコーダが、生成された動き情報を適用するオブジェクトまたはマクロブロックを示す動き情報を提供することによって、スキップされたフレームを補間することを支援する。
フレーム・アセンブリ・モジュール46は、動き情報、ブロック・モード、係数、および、ビデオ・デコーダ14(図1)が、ビデオ情報のフレームをデコードし表すことを可能にするのに十分なその他の情報を用いてエンコードされたフレームとして指定されたビデオ情報をエンコードする。フレーム・アセンブリ・モジュール46は、実際には、スキップされたフレームとしてフレーム・タイプ判定モジュール42によって指定された到来ビデオ情報をエンコードも送信もしない。代わりに、フレーム・アセンブリ・モジュール46は、スキップされたフレームをビデオ・デコーダが補間するのを支援するために、ビデオ・デコーダへ送信される1または複数のビデオ・フレームにおいて、スキップ・フレーム分析モジュール44から受け取った動き情報をエンコードする。フレーム・アセンブリ・モジュール46は、スキップされたフレームに先行または後続するPフレーム16(図1)内のように、1または複数のエンコードされたフレーム内に、スキップされたフレームの動き情報を埋め込むことができる。言い換えれば、フレーム・アセンブリ・モジュール46は、スキップされていないビデオ・フレーム内に、スキップされたフレームのための動き情報を埋め込むことができる。あるいは、フレーム・アセンブリ・モジュール46は、スキップされたフレーム動き情報に専用であって、Pフレームとは独立して送信されるビデオ・フレーム内に、スキップされたフレームの動き情報を埋め込むことができる。
図5は、スキップされたビデオ・フレームの動きを、例えばビデオ・デコーダ14のように、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を用いて、スキップされたビデオ・フレームを補間するデコーダの典型的な動きを例示するフローチャートである。デコーダ14は、ビデオ・エンコーダから、複数のデジタル・ビデオ・フレームを受け取る(52)。デコーダ14は、例えば、エンコーダから1または複数のIフレーム、PフレームおよびBフレームを受け取ることができる。
デコーダ14は、スキップされたビデオ・フレームの動きを示す動き情報の受け取られたフレームを分析する(54)。デコーダ14は、スキップされたフレームの動き情報を含むフレームを示すフレーム内で、特定のタイプのフレームまたはヘッダ情報を識別するように構成されうる。
デコーダ14が、受け取られたフレーム内のスキップされたフレームについて動き情報を識別しないか、または、スキップされたフレームの不完全な動き情報を識別するのであれば、デコーダ14は、スキップされたフレームの動き情報を生成する(56)。デコーダ14は、受け取られたフレーム内に埋め込まれたスキップされたフレームの動き情報を識別するように構成されないかもしれない。あるいは、エンコーダは、スキップされたフレームのどの動き情報も送信しないかもしれないし、または、上述したような位置情報のみを送信するかもしれない。デコーダ14は、例えば、先行するフレーム、先行するフレームおよび後続するフレーム、または2を超える隣接するビデオ・フレームのようなスキップされたビデオ・フレームに隣接した1または複数のビデオ・フレームに関連付けられた動き情報を用いて、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する。例えば、デコーダ14は、先行する基準フレームのマクロブロックに関連付けられた並進動きベクトルを用いて、アファイン・モデルの係数を近似することができる。
次に、デコーダは、並進動きと少なくとも1つのその他の動きパラメータとに基づいて動きを示す動き情報を、並進動きベクトルへ変換するかを判定する(58)。デコーダ14が、アファイン動きモデルに基づいて動きを示す動き情報を適用するように構成されているのであれば、デコーダ14は、スキップされたフレームの動き情報を変換せず、代わりに、並進動きと少なくとも1つのその他の動きパラメータとに基づいて動きを示す動き情報を適用して、スキップされたフレームを補間する(60)。
デコーダ14が、アファイン動きモデルと少なくとも1つのその他の動きパラメータとに基づいて動きを示す動き情報を適用するように構成されていないのであれば、デコーダ14は、動き情報を、並進動きベクトルへ変換する(62)。デコーダ14は、例えば、並進動き補償のみを実行するように構成される。この場合、デコーダ14は、スキップされたフレームの動き情報を、並進動きのみに基づく動き情報に変換する。デコーダ14は、例えば、アファイン動き情報に基づいて、興味のあるブロック内の1または複数のピクセルの並進動きベクトルを生成し、生成されたピクセルの並進動きベクトルをマージして、興味のあるブロックの動きベクトルを生成する。デコーダ14は、スキップされたフレームの1または複数のマクロブロックまたはスキップされたフレームを補間するために、並進動きを適用する(64)。このように、本開示の技術は、1または複数の正確な動き情報に基づいて生成される動きベクトルを用いることによって、補間精度を改善しながら、並進動き補償のみを実行するビデオ・デコーダで利用されうる。
図6は、エンコーダ12のように、スキップされたフレームの一部の動き情報をアファイン動きモデルに基づいて生成するエンコーダの典型的動きを例示するフロー図である。先ず、エンコーダ12は、スキップされたフレームを、固定サイズのブロックへ分割し、固定サイズのブロックにおける並進動き推定を実行する(70)。並進動き推定は、ブロックの各々に関連付けられた1または複数の動きベクトルを提供する。エンコーダ12は、例えば、フレームをN個のマクロブロックへ分割し、これらマクロブロックと、1または複数の隣接フレームのマクロブロックとの間の並進動きを示す動きベクトルを計算する。
エンコーダ12は、並進動きベクトルに対する動きベクトル処理を実行する(72)。動きベクトル処理によって、例えば、異常なベクトルを取り除くことができる。もしもN個の並進動きベクトルのうちの1つが、その他のN−1個の並進動きベクトルの逆の方向を示すのであれば、著しく異なる動きベクトルを取り除くことができる。エンコーダ12は、動きベクトルをマージする(74)。エンコーダ12は、動きベクトルを平均化し、メジアン動きベクトルの計算またはその他の算術演算を行うことによって、動きベクトルをマージすることができる。このように、エンコーダ12は、マクロブロック全体について単一の動きベクトルを生成することができる。例えば、エンコーダ12が、マクロブロックについて16の4×4の動きベクトルを生成する場合、エンコーダ12は、それらを平均化して、16×16のマクロブロックについて単一の動きベクトルを生成する。このように、最小2乗フィッティングされる動きベクトルが少なくなり、アファイン推定処理が単純化される。更に、動きベクトルをマージすることはまた、動きベクトルへ平滑化し、マクロブロック内の不規則な動きベクトルを取り除く。
エンコーダ12は、並進動きベクトルに基づいて、スキップされたフレームのためのアファイン動きモデル・パラメータを推定する(76)。上述したように、エンコーダ12は、3またはそれ以上の並進動きベクトルの最小2乗推定を見つけることによって、複数の並進動きベクトルから、アファイン動きパラメータを導出する。
エンコーダ12は、推定されたアファイン動きモデルが当てはまる特定のオブジェクト、マクロブロック、またはピクセルを識別するために、動きベースのオブジェクト細分化を実行する(78)。上記に詳述したように、エンコーダ12は、生成されたアファイン動きモデルを用いて、ピクセル毎ベースで各マクロブロックを再構築し、アファイン動きパラメータを近似するために使用される並進動きベクトルを用いて、マクロブロックの各々を同時に再構築し、アファイン動きモデル・パラメータを用いて再構築されたピクセルまたはマクロブロックと、並進動きベクトルを用いて再構築されたピクセルまたはマクロブロックとの間の歪みを比較する。この歪みが、予め定めたしきい値より高いのであれば、アファイン動きモデルは、マクロブロックまたはピクセルを正確に近似しないものと判定され、マクロブロックがオブジェクトから取り除かれる。大きな歪みを持つ全てのマクロブロックまたはピクセルを取り除いた後の、残りのオブジェクト、マクロブロックまたはピクセルは、動き情報が当てはまるピクセルである。エンコーダ12は、これら残りのオブジェクト、マクロブロックまたはピクセルを記述する位置情報を生成することができる。
エンコーダ12は、エロージョンおよびダイレーション(dilation)を行なう(80)。エロージョンおよびダイレーションは、オブジェクトの輪郭を滑らかにし、小さなホールを充填し、小さな突出部/オブジェクトを除去する。特に、ダイレーションによって、オブジェクトは拡大され、これによって、小さなホールが充填され、ばらばらなオブジェクトが結合される。一方、エロージョンは、それらの境界をエッチングすることにより、オブジェクトを小さくする。
エンコーダ12は、識別されたオブジェクトに属するマクロブロックからの並進動き情報に基づいてアファイン動きモデルを更新する(82)。そして、エンコーダ12は、より正確なアファイン動き推定を得るために、もう一度反復を行なうべきかを判定する(84)。エンコーダ12は、例えば、特定回数の反復を実行することができる。この場合、エンコーダは、反復回数を追跡し、指定された数の反復が実行されるまで、反復の実行を継続することができる。しかしながら、一般に、2回あるいは3回の反復の後では、顕著なアファイン・モデル推定の改善は得られない。
例えば、エンコーダが、特定回数の反復を実行した後のように、エンコーダ12が、アファイン動きモデルに基づいて動き情報を生成した後、エンコーダ12は、オブジェクト記述子を生成する(86)。オブジェクト記述子は、動き情報に関連付けられたフレーム内のオブジェクトの位置を識別する位置情報を記述する。上述したように、エンコーダ12は、動き情報が当てはまる特定のビデオ・ブロックまたはオブジェクトの境界を示すバイナリ・ビットマップを生成しうる。デコーダ14は、この動き情報を、オブジェクト記述子で識別されたマクロブロックまたはオブジェクトに適用する。オブジェクト記述子で識別されたビデオ・ブロックまたはオブジェクトは、特定の動き情報に対する潜在的な必要性なく補間されうる。
図7は、スキップされたフレームのための動きを並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を、並進動きのみに基づく動き情報へ変換するデコーダの典型的動きを例示するフロー図である。例えば、デコーダは、アファイン動きモデルに基づいて動きを示す動き情報を、並進動きベクトルへ変換することができる。例えば、デコーダ14の動き情報変換モジュール38(図2)のような動き情報変換モジュールは、アファイン動きモデルに基づいて動きを示す動き情報を受け取る(90)。動き情報変換モジュール38は、例えば、動き予測モジュール72から、あるいは、エンコーダ12によって送信された1または複数のフレームから、スキップされたフレームの動き情報を受け取ることができる。
動き情報変換モジュール38は、アファイン動きモデルに基づいて、興味のあるブロック内の1または複数のピクセルの並進動きベクトルを生成する(92)。動き情報変換モジュール38は、例えば、ピクセルの座標を、アファイン・モデル近似に入力することによって、および、アファイン・モデル近似の出力を、特定のピクセルに関連付けられた動きベクトルとして用いることによって、ピクセルの各々の並進動きベクトルを生成することができる。
動き情報変換モジュール38は、ブロック全体について単一の動きベクトルを生成するために、興味のあるブロック内の複数のピクセルの生成された並進動きベクトルをマージする(94)。動き情報変換モジュール38は、例えば、平均化演算、メジアン演算、またはその他の類似の数学的演算を用いて、ピクセルの並進動きベクトルをマージすることができる。動き情報変換モジュール38は、生成されたブロック動きベクトルについて1または複数の後処理演算を実行することができる(96)。動き情報変換モジュール38は、動きベクトル分類、動きベクトル・レイバリング(laboring)、異常選択、および、ウィンドウ・ベースの動きベクトル平滑化を実行しうる。例えば、動き情報変換モジュール38は、他の並進動きベクトルと極めて異なる動きベクトルを除去することによって、異常な動きベクトルを取り除くことができる。
動き情報変換モジュール38は、ブロック動きベクトルを補間モジュール68(図3)へ出力し、スキップされたフレームの特定のマクロブロックまたはスキップされたビデオ・フレームの補間を支援する(98)。動き情報を並進運動ベクトルに変換することによって、並進動き補償のみを実施するハードウェア構成および/またはソフトウェア構成を構成するビデオ・デコーダにおいて、本開示の技術を実施することが可能となる。並進運動と少なくとも1つのその他の動きパラメータとに基づいて動きを示す動き情報が使用されないが、適用される並進運動ベクトルはより正確である。なぜなら、それは、アファイン動きモデルを用いて推定された動き情報に基づいて生成されるからである。
上述したように、動き情報変換モジュール38は、幾つかのより小さなサイズのブロックの並進動きベクトルを反復的に生成し、より大きなサイズのブロックの動きベクトルを生成するために、これら動きベクトルを合成することができる。動き情報変換モジュール38は、例えば、幾つかの2×2ブロックについて、並進動きベクトルを反復的に生成し、その後、2×2ブロックの動きベクトルをマージすることによって、8×8ブロックの動きベクトルを生成することができる。
図8は、スキップされたビデオ・フレームを補間するために、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータに基づいて示す動き情報を適用するように構成されたビデオ・エンコードおよびデコード・システム100を例示するブロック図である。システム100は、伝送チャネル106によって接続されたエンコード・モジュール102とデコード・モジュール104とを含む。例えばビデオ・シーケンスのようなエンコードされたマルチメディア・シーケンスは、通信チャネル106を介してエンコード・モジュール102からデコード・モジュール104へと送られうる。エンコード・モジュール102は、エンコーダを備えることができ、マルチメディア・データをエンコードおよび送信することができるデジタル・ビデオ・デバイスの一部を形成することができる。同様に、デコード・モジュール104は、デコーダを備えることができ、マルチメディア・データをデコードおよび受け取ることができるデジタル・ビデオ・デバイスの一部を形成することができる。
エンコード・モジュール102は、スキップされたフレームの動き情報を生成する動き情報生成モジュール108と、1または複数のフレームにおいて生成された動き情報を、デコード・モジュール104へ送るためにエンコードするフレーム・アセンブル・モジュール110とを含み、デコード・モジュール104が、スキップされたフレームを補間することを支援する。特に、動き情報生成モジュール108は、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を推定する。更に、動き情報生成モジュール108は、動き推定処理の一部として位置情報を生成することができる。位置情報は、動き情報が当てはまるスキップされたフレームの特定のオブジェクトまたはマクロブロックを記述することができる。動き情報生成モジュール108は、動き推定モジュールと位置識別モジュールとを含みうる。
デコード・モジュール104は、エンコード・モジュール102から1または複数のフレームを受け取る受取モジュール118を含む。エンコード・モジュール102から受け取られたフレームは、動き情報を含みうる。このように、受取モジュール118は、1または複数の隣接するビデオ・フレームに関連付けられた動き情報を受け取る。補間モジュール116は、スキップされたビデオ・フレームを補間するために、スキップされたビデオ・フレーム動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を適用する。補間モジュール116は、受取モジュール118を経由して、エンコード・モジュール102から、スキップされたビデオ・フレームの動き情報を受け取ることができる。あるいは、補間モジュール116は、動き情報生成モジュール114からのスキップされたフレームから、動き情報の一部または全てを取得することができる。このように、補間モジュール116は、動き情報を取得する手段を備えることができる。
動き情報生成モジュール114は、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する。動き情報生成モジュール114は、スキップされたビデオ・フレームに隣接した1または複数のビデオ・フレームに関連付けられた動き情報に基づいて、スキップされたビデオ・フレームの動き情報を生成することができる。
1つの実施形態では、補間モジュール116は、並進動きベクトルのみを用いて補間を実行する。この場合、デコード・モジュール104は、スキップされたフレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を、並進動きのみに基づいて動きを示す動き情報へと変換する変換モジュール112を含む。言い換えれば、変換モジュール112は、スキップされたフレームの動き情報を、並進動きベクトルへと変換する。1つの実施形態では、変換モジュール112は、エンコード・モジュール102から動き情報を受け取ることができるので、動き情報を受け取る手段を備えることができる。補間モジュール116は、スキップされたビデオ・フレームを補間するために、並進動きベクトルを適用する。
この開示に従い、スキップされたビデオ・フレームの動きを、並進動きと少なくとも1つのその他の動きパラメータとに基づいて示す動き情報を生成する手段は、フレーム処理モジュール20(図1)、動き推定モジュール34(図2または図3)、動き推定モジュール48(図4)、位置推定モジュール50(図4)、スキップ・フレーム分析モジュール44(図4)、動き情報生成モジュール108(図8)、動き情報生成モジュール114(図8)を備えることができる。同様に、少なくとも1つのビデオ・フレーム内で動き情報をエンコードするフレーム・アセンブリ手段は、フレーム処理モジュール20(図1)、フレーム・アセンブリ・モジュール(図4)、または、フレーム・アセンブリ・モジュール110(図8)を備えることができる。変換手段は、動き情報変換モジュール38(図3)または変換モジュール112(図8)を備えることができる。補間手段は、補間デコーダ・モジュール24(図1)、補間モジュール32(図2および図3)、または、補間モジュール116(図8)を備えることができる。上記例は例示目的で提供されているが、本開示は、それぞれの手段に相当する構造のその他の事例を含むことができる。
前記した式(1)によって示されるアファイン動きモデルは、並進動きのみならず、回転、シャーリング、およびスケーリングをも近似する。アファイン動きモデルに基づく動き情報は、従来式の並進動きベクトルの2パラメータ近似ではなく、スキップされたフレームの動きの6パラメータ近似を与える。上述されたように、本開示の技術は、アファイン近似よりも多いまたは少ないパラメータに基づく動きを近似する動きモデルを用いて動き情報を近似することができる。
本明細書に記述された技術は、ハードウェア、ソフトウェア、ファームウェア、あるいはそれらの任意の組み合わせで実施されうる。ソフトウェアで実施される場合、本技術は、実行されると上述した方法のうちの1または複数の実行する命令を含むプログラム・コードを備えるコンピュータ読取可能媒体(または機械読取可能媒体)によって部分的に実現される。この場合、コンピュータ読取可能媒体は、シンクロナスDRAM(SDRAM)のようなランダム・アクセス・メモリ(RAM)、読取専用メモリ(ROM)、不揮発性ランダム・アクセス・メモリ(NVRAM)、電気的消去可能PROM(EEPROM)、FLASHメモリ、磁気式または光学式のデータ記憶媒体等を備えることができる。
プログラム・コードは、例えば1または複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向けIC(ASIC)、フィールド・プログラマブル・ロジック・アレイ(FPGA)、またはその他の等化な統合または離散論理回路のような1または複数のプロセッサによって実行されうる。幾つかの実施形態では、本明細書に記載された機能は、エンコードまたはデコードするように構成された専用のソフトウェア・モジュールまたはハードウェア・モジュール内に提供されるか、あるいは、統合式ビデオ・エンコーダ−デコーダ(CODEC)内に組み込まれうる。
しかしながら、特許請求の範囲のスコープから逸脱することなく、記述した技術に対して種々の変形例がなされうる。従って、上述した具体的実施形態およびその他の実施形態は、特許請求の範囲のスコープ内である。

Claims (11)

  1. ビデオ・エンコード方法であって、
    スキップされたビデオ・フレームの動きを、並進動きと、スケーリング、シャーリング、回転、パン、およびチルトを含む動きパラメータのうちの少なくとも1つとに基づいて示す動き情報を、アファイン動きモデルを用いて生成することと、
    少なくとも1つのビデオ・フレーム内で前記動き情報をエンコードすることとを備え、
    前記動き情報を生成することは、
    前記スキップされたビデオ・フレーム内のオブジェクトを、並進動き以外の動きを用いて識別するために、動き細分化を実行することと、
    前記識別されたオブジェクトについて、前記並進動きと、前記動きパラメータのうちの少なくとも1つとに基づいて、前記動き情報を生成することとを備える、
    方法。
  2. 前記動き情報を生成することは、前記スキップされたビデオ・フレームの一部の動きを示す動き情報を生成することを備え、
    前記方法は更に、
    前記動き情報に関連付けられた前記スキップされたビデオ・フレームの一部を記載する位置情報を生成することと、
    前記ビデオ・フレーム内で前記位置情報をエンコードすることと
    を備える請求項1に記載の方法。
  3. 前記少なくとも1つのビデオ・フレーム内で動き情報をエンコードすることは、スキップされていないビデオ・フレーム内で前記動き情報をエンコードすることを備える請求項1に記載の方法。
  4. 前記スキップされたビデオ・フレームをビデオ・デコーダが補間するのを支援するために、前記ビデオ・デコーダへ前記ビデオ・フレームを送ることを更に備える請求項1に記載の方法。
  5. デジタル・ビデオ・データをエンコードする装置であって、
    スキップされたビデオ・フレームの動きを、並進動きと、スケーリング、シャーリング、回転、パン、およびチルトを含む動きパラメータのうちの少なくとも1つとに基づいて示す動き情報を、アファイン動きモデルを用いて生成する手段と、
    フレームをアセンブルし、少なくとも1つのビデオ・フレーム内で前記動き情報をエンコードする手段とを備え、
    前記生成する手段は、
    前記スキップされたビデオ・フレーム内のオブジェクトを、並進動き以外の動きを用いて識別するために、動き細分化を実行することと、
    前記識別されたオブジェクトについて、前記並進動きと、前記動きパラメータのうちの少なくとも1つとに基づいて、前記動き情報を生成する、
    装置。
  6. 前記生成する手段は、前記スキップされたビデオ・フレームの一部の動きを示す動き情報を生成し、前記動き情報に関連付けられた前記スキップされたビデオ・フレームの一部を記載する位置情報を生成し、前記ビデオ・フレーム内で前記位置情報をエンコードする請求項に記載の装置。
  7. 前記生成する手段は、前記スキップされたビデオ・フレームを分析するように更に構成された分析モジュールであり、前記エンコードする手段は、アセンブリ・モジュールである請求項に記載の装置。
  8. 前記スキップされたビデオ・フレームをビデオ・デコーダが補間するのを支援するために、前記ビデオ・デコーダへ前記ビデオ・フレームを送信する送信機を更に備える請求項に記載の装置。
  9. 前記生成する手段および前記エンコードする手段は、プロセッサである請求項に記載の装置。
  10. 前記プロセッサは、スキップされていないビデオ・フレーム内で前記動き情報をエンコードするように構成された請求項に記載の装置。
  11. 実行されると、コンピュータに対して、
    請求項1乃至の何れかに記載の方法を実施させる手順
    を実行させるためのプログラムを記録したコンピュータ読取可能な記録媒体。
JP2011174804A 2005-09-27 2011-08-10 より正確な動き情報を用いたフレーム補間 Expired - Fee Related JP5619692B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US72134605P 2005-09-27 2005-09-27
US60/721,346 2005-09-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008533618A Division JP4838312B2 (ja) 2005-09-27 2006-09-27 より正確な動き情報を用いたフレーム補間

Publications (2)

Publication Number Publication Date
JP2012010381A JP2012010381A (ja) 2012-01-12
JP5619692B2 true JP5619692B2 (ja) 2014-11-05

Family

ID=37900475

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008533618A Expired - Fee Related JP4838312B2 (ja) 2005-09-27 2006-09-27 より正確な動き情報を用いたフレーム補間
JP2011174804A Expired - Fee Related JP5619692B2 (ja) 2005-09-27 2011-08-10 より正確な動き情報を用いたフレーム補間

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008533618A Expired - Fee Related JP4838312B2 (ja) 2005-09-27 2006-09-27 より正確な動き情報を用いたフレーム補間

Country Status (8)

Country Link
US (1) US20070076796A1 (ja)
EP (1) EP1929788B1 (ja)
JP (2) JP4838312B2 (ja)
KR (1) KR100953553B1 (ja)
CN (1) CN101313590B (ja)
AR (1) AR058069A1 (ja)
TW (1) TW200731810A (ja)
WO (1) WO2007038697A2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1779673A1 (en) * 2004-07-15 2007-05-02 Qualcomm Incorporated H.264 spatial error concealment based on the intra-prediction direction
US9055298B2 (en) * 2005-07-15 2015-06-09 Qualcomm Incorporated Video encoding method enabling highly efficient partial decoding of H.264 and other transform coded information
US8229983B2 (en) * 2005-09-27 2012-07-24 Qualcomm Incorporated Channel switch frame
US8670437B2 (en) * 2005-09-27 2014-03-11 Qualcomm Incorporated Methods and apparatus for service acquisition
JP5378227B2 (ja) 2006-11-14 2013-12-25 クゥアルコム・インコーポレイテッド チャネルスイッチングのためのシステムと方法
BRPI0718810A2 (pt) * 2006-11-15 2013-12-03 Qualcomm Inc Sistemas e métodos para aplicativos utilizando quadros de comutação de canal
US8483551B2 (en) * 2006-12-04 2013-07-09 Electronics And Telecommunications Research Institute Method for generating double-speed IDR-unit for trick play, and trick play system and method using the same
US8767831B2 (en) * 2007-10-31 2014-07-01 Broadcom Corporation Method and system for motion compensated picture rate up-conversion using information extracted from a compressed video stream
US8514939B2 (en) * 2007-10-31 2013-08-20 Broadcom Corporation Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing
US8848793B2 (en) * 2007-10-31 2014-09-30 Broadcom Corporation Method and system for video compression with integrated picture rate up-conversion
KR100955430B1 (ko) 2008-12-18 2010-05-04 (주)휴맥스 인터폴레이션 방법 및 장치
ATE554602T1 (de) 2008-08-21 2012-05-15 Vestel Elekt Sanayi Ve Ticaret Verfahren und vorrichtung zur steigerung der bildrate eines videosignals
US8391365B2 (en) * 2009-03-20 2013-03-05 National Cheng Kung University Motion estimator and a motion estimation method
TWI566586B (zh) * 2009-10-20 2017-01-11 湯姆生特許公司 一序列形象的現時區塊之寫碼方法和重建方法
CN102111613B (zh) * 2009-12-28 2012-11-28 中国移动通信集团公司 图像处理方法和装置
US9041817B2 (en) 2010-12-23 2015-05-26 Samsung Electronics Co., Ltd. Method and apparatus for raster output of rotated interpolated pixels optimized for digital image stabilization
US8792549B2 (en) * 2011-02-28 2014-07-29 Sony Corporation Decoder-derived geometric transformations for motion compensated inter prediction
EP3176729A1 (en) 2011-09-06 2017-06-07 Intel Corporation Analytics assisted encoding
AU2012306059A1 (en) 2011-09-08 2014-03-27 Paofit Holdings Pte Ltd System and method for visualizing synthetic objects withinreal-world video clip
US9984472B2 (en) 2013-06-17 2018-05-29 A9.Com, Inc. Image processing and motion compensation
JP7233027B2 (ja) * 2013-09-30 2023-03-06 サン パテント トラスト 画像復号装置及び画像符号化装置
SG10201406217VA (en) 2014-05-30 2015-12-30 Paofit Technology Pte Ltd Systems and methods for motion-vector-aided video interpolation using real-time smooth video playback speed variation
MY190198A (en) * 2015-03-10 2022-04-04 Huawei Tech Co Ltd Picture prediction method and related apparatus
US9704298B2 (en) 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
KR102126511B1 (ko) * 2015-09-02 2020-07-08 삼성전자주식회사 보충 정보를 이용한 영상 프레임의 보간 방법 및 장치
US10404996B1 (en) * 2015-10-13 2019-09-03 Marvell International Ltd. Systems and methods for using multiple frames to adjust local and global motion in an image
WO2021006614A1 (ko) * 2019-07-08 2021-01-14 현대자동차주식회사 인터 예측을 이용하여 비디오를 부호화 및 복호화하는 방법 및 장치
US20220385748A1 (en) * 2021-05-27 2022-12-01 Qualcomm Incorporated Conveying motion data via media packets

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3679426B2 (ja) * 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
JPH07264594A (ja) * 1994-03-23 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法
JPH0865679A (ja) * 1994-08-22 1996-03-08 Sharp Corp 動画像符号化装置及び動画像復号装置
US5751377A (en) * 1994-11-04 1998-05-12 Matsushita Electric Industrial Co., Ltd. Picture coding apparatus and decoding apparatus
KR0181027B1 (ko) * 1995-03-20 1999-05-01 배순훈 화소 단위 움직임 추정을 이용하는 영상처리 시스템
JPH0984017A (ja) * 1995-09-14 1997-03-28 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法
JPH0998424A (ja) * 1995-09-29 1997-04-08 Matsushita Electric Ind Co Ltd アフィン変換パラメータ抽出方法及び装置
JPH09182083A (ja) * 1995-12-27 1997-07-11 Matsushita Electric Ind Co Ltd ビデオ画像符号化方法及び復号化方法とその装置
JP2001506472A (ja) * 1997-09-23 2001-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動作評価及び動作補償された補間
JP2000224593A (ja) * 1999-01-28 2000-08-11 Nippon Telegr & Teleph Corp <Ntt> フレーム補間方法および装置およびこの方法を記録した記録媒体
US7558320B2 (en) * 2003-06-13 2009-07-07 Microsoft Corporation Quality control in frame interpolation with motion analysis
JP5038134B2 (ja) * 2004-07-01 2012-10-03 クゥアルコム・インコーポレイテッド スケーラブルなビデオ符号化において、フレームレートアップ変換技術を使用する方法及び装置
US8018998B2 (en) * 2005-05-20 2011-09-13 Microsoft Corporation Low complexity motion compensated frame interpolation method
US9258519B2 (en) * 2005-09-27 2016-02-09 Qualcomm Incorporated Encoder assisted frame rate up conversion using various motion models

Also Published As

Publication number Publication date
EP1929788B1 (en) 2014-10-15
TW200731810A (en) 2007-08-16
JP2012010381A (ja) 2012-01-12
WO2007038697A2 (en) 2007-04-05
JP4838312B2 (ja) 2011-12-14
CN101313590B (zh) 2011-11-02
WO2007038697A3 (en) 2007-09-13
KR100953553B1 (ko) 2010-04-22
KR20080056248A (ko) 2008-06-20
JP2009510929A (ja) 2009-03-12
US20070076796A1 (en) 2007-04-05
EP1929788A2 (en) 2008-06-11
CN101313590A (zh) 2008-11-26
AR058069A1 (es) 2008-01-23

Similar Documents

Publication Publication Date Title
JP5619692B2 (ja) より正確な動き情報を用いたフレーム補間
US9503739B2 (en) Encoder-assisted adaptive video frame interpolation
US9258519B2 (en) Encoder assisted frame rate up conversion using various motion models
EP1747678B1 (en) Method and apparatus for motion compensated frame rate up conversion
KR100422389B1 (ko) 비디오 프레임 속도를 증가시키기 위한 방법 및 장치
US8761259B2 (en) Multi-dimensional neighboring block prediction for video encoding
JP5521202B2 (ja) 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
JP5436458B2 (ja) 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
JP2008507190A (ja) 動き補償方法
US20110026596A1 (en) Method and System for Block-Based Motion Estimation for Motion-Compensated Frame Rate Conversion
KR0185841B1 (ko) 영상 부호기에서의 움직임 추정 장치
Kommerla et al. Real-Time Applications of Video Compression in the Field of Medical Environments

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130723

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130816

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140917

R150 Certificate of patent or registration of utility model

Ref document number: 5619692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees