JP5913283B2 - 動き予測方法 - Google Patents

動き予測方法 Download PDF

Info

Publication number
JP5913283B2
JP5913283B2 JP2013504104A JP2013504104A JP5913283B2 JP 5913283 B2 JP5913283 B2 JP 5913283B2 JP 2013504104 A JP2013504104 A JP 2013504104A JP 2013504104 A JP2013504104 A JP 2013504104A JP 5913283 B2 JP5913283 B2 JP 5913283B2
Authority
JP
Japan
Prior art keywords
unit
candidate
current
motion vector
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013504104A
Other languages
English (en)
Other versions
JP2013526142A (ja
Inventor
ツァイ,ユーバオ
フー,ヂーミン
リァン リン,ジェン
リァン リン,ジェン
ファン,ユーエン
レイ,シャオミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/957,644 external-priority patent/US9036692B2/en
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2013526142A publication Critical patent/JP2013526142A/ja
Application granted granted Critical
Publication of JP5913283B2 publication Critical patent/JP5913283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、動画処理に関し、特に、動画データの動き予測に関するものである。
次世代のH.264圧縮規格は、例えばサブピクセル精度および複数参照(multiple−referencing)などの特徴を採用することで、以前の規格よりも実質的に低いビットレートで好ましい動画品質を提供することができる。動画圧縮プロセスは、一般的に、インター予測/イントラ予測、変換/逆変換、量子化/逆量子化、ループフィルタ、およびエントロピー符号を含む、5つの部分に分割されることができる。H.264は、ブルーレイディスク、地上デジタルテレビ放送規格(DVB)放送サービス、直接放送衛星サービス、ケーブルテレビサービス、およびリアルタイムのビデオ会議などの各種のアプリケーションに用いられる。
動画データストリームは、一連のフレームを含む。各フレームは、動画処理用に複数の符号化単位(coding unit)(例えば、マクロブロックまたは拡張されたマクロブロック)に分割される。各符号化単位(cirding unit)は、クワッドツリー分割(quad−tree partitions)に分割されることができ、リーフ符号化単位は、予測単位と呼ばれる。予測単位は、クワッドツリー分割に更に分割されることができ、各パーティション(partition )は、動きパラメータで割り当てられる。大量の動きパラメータを伝送するコストを低下させるために、動きベクトル予測(MVP)は、隣接する符号化済みブロックを参照することによって各パーティション用に計算される。符号化効率は、隣接するブロックの動きが高い空間層間を有する傾向にあるため改善されることができる。
図1には、現在の単位100および複数の隣接単位A、B、C、およびDの概略図が示される。図1では、現在の単位100および隣接単位A、B、C、およびDは、同一サイズである。しかしながら、これらの単位は、必ずしも同一サイズである必要はない。現在の単位100の動きベクトル予測(MVP)は、隣接単位A、B、およびC、または、A、B、および、Cが用いられない場合には隣接の単位Dに基づき予測される。現在の単位100が16×16ブロックで、且つ隣接の単位Cの動きベクトルが存在する時、隣接の単位A、B、およびCの動きベクトルの中央値は、現在の単位100のMVPに決定される。現在の単位100が16×16ブロックで、且つ隣接の単位Cの動きベクトルが存在しない時、隣接の単位A、B、およびDの動きベクトルの中央値は、現在の単位100のMVPに決定される。現在の単位100が16×16ブロックの左半分の8×16パーティションである時、隣接の単位Aの動きベクトルは、現在の単位100のMVPに決定される。現在の単位100が16×16ブロックの右半分の8×16パーティションである時、隣接の単位Cの動きベクトルは、現在の単位100のMVPに決定される。現在の単位100が16×16ブロックの上半分の8×16パーティションである時、隣接の単位Bの動きベクトルは、現在の単位100のMVPに決定される。現在の単位100が16×16ブロックの下半分の8×16パーティションである時、隣接の単位Aの動きベクトルは、現在の単位100のMVPに決定される。
現在の単位のMVPが隣接の単位A、B、CおよびDの動きベクトルに基づいて予測された時、隣接の単位A、B、CおよびDの動きベクトルは、適切に時間的にスケーリングされない。例えば、隣接の単位A、B、およびCの参照フレームは異なり、隣接の単位A、B、およびCの動きベクトルは、それぞれ参照フレームに対応する。各参照フレームと現在のフレームとの間の時間的距離は、異なる。隣接の単位A、B、およびCの動きベクトルは、隣接の単位A、B、およびCの動きベクトルに基づく現在の単位100のMVPを予測する前の時間的距離に基づいて、時間的にスケーリングされなければならない。
現在の単位100のMVPは、隣接の単位A、B、CおよびDの動きベクトルに基づいてのみ予測される。より多くの候補のMVPが考慮され、レート歪み最適化によって候補のMVPから最良が選ばれた場合、MVPの予測精度は、より改善される。例えば、動きベクトル予測(MVP)は、シーケンスレベル(sequence level)に定められている所定の候補集合から最良のMVPを選ぶように提示される。所定の候補集合は、H.264標準の予測子(例えば、隣接の単位の中央値の動きベクトル(median MV))、現在のフレームの現在の単位と参照フレームの同じ位置にある同位置の単位のMV、および隣接の単位のMVを含むことができる。所定の候補集合のMVPの推奨される数は、2つである。所定の候補集合は、動きベクトルの競争方法に基づいてビデオシーケンスレベルで固定される。
本発明は、動画データの動き予測方法を提供する。
本発明は、動き予測方法を提供する。まず、現在のフレームの現在の単位に対応する複数の候補単位が決定される。次いで、候補単位の複数の動きベクトルが得られる。次いで、候補単位の複数の時間的スケーリングファクタは、動きベクトルの複数の参照フレームと現在のフレームとの間の複数の時間的距離に基づいて計算される。次いで、候補単位の動きベクトルは、時間的スケーリングファクタに基づいてスケーリングされ、複数のスケーリングされた動きベクトルを得る。最後に、現在の単位の動き予測に用いる動きベクトル予測子は、スケーリングされた動きベクトルに基づいて候補単位から選ばれる。
本発明は、動き予測方法も提供する。まず、現在の単位の動き予測に用いる複数の候補単位が決定される。次いで、現在の単位に対応する複数の符号化単位が決定される。符号化単位に対応する候補単位の動きベクトルと符号化単位の動きベクトルとの間の複数の動きの差分が計算される。次いで、候補単位に対応する動きの差異は、一連の重みに基づいて合計され、候補単位にそれぞれ対応する複数の重みの合計値を得る。最後に、現在の単位の動きベクトルに用いる少なくとも1つの選ばれた候補単位は、重みの合計値に基づいて候補単位から選ばれる。
本発明は、動画データの動き予測方法を提供することができる。
現在の符号化単位および複数の隣接する符号化単位の概略図である。 本発明の実施形態に基づくビデオエンコーダのブロック図である。 2つの候補単位の動きベクトルのスケーリングの概略図である。 時間差調整を有する動き予測方法のフローチャートである。 本発明の実施形態に基づく、現在の単位の動き予測に用いる複数の候補単位の概略図である。 本発明の実施形態に基づく、適応的に選ばれた候補単位を有する動き予測方法のフローチャートを示している。 本発明の実施形態に基づく、適応的に選ばれた候補単位を有する動き予測方法のフローチャートを示している。 本発明の実施形態に基づく、異なる符号化単位と候補単位に対応する動きの差値を記録する表の概略図である。
以下の説明は、本発明を実施するベストモードが開示されている。この説明は、本発明の一般原理を例示する目的のためのもので本発明を限定するものではない。
図2には、ビデオエンコーダ200のブロック図が表される。1つの実施形態では、ビデオエンコーダ200は、動き予測モジュール202、減算モジュール204、変換モジュール206、量子化モジュール208、およびエントロピー符号化モジュール210を含む。ビデオエンコーダ200は、ビデオ入力を受け、出力となるビットストリームを生じる。動き予測モジュール202は、動き予測をビデオ入力で行い、予測サンプルおよび予測情報を生じる。次いで、減算モジュール204は、残差を得るために、ビデオ入力から予測サンプルを差し引くことで、ビデオ入力のビデオデータ量から残差のビデオデータ量を減少する。次いで残差は、変換モジュール206および量子化モジュール208に順次に伝送される。変換モジュール206は、残差に離散コサイン変換を行いうことで、変換された残差を得る。次いで、量子化モジュール208は、変換された残差を量子化することで、量子化された残差を得る。次いで、エントロピー符号化モジュール210は、量子化された残差および予測情報にエントロピー符号化を行うことで、ビデオ出力となるビットストリームを得る。
動き予測モジュール202は、複数の候補単位の動きベクトルに基づく現在のフレームの現在の単位の動きベクトル予測(MVP)を予測する。本実施形態では、候補単位は、現在の単位に隣接する隣接単位である。動き予測モジュール202が現在の単位のMVPを予測する前に、候補単位の参照フレームと現在のフレームとの間の時間的距離が計算され、候補単位の動きベクトルは、時間的距離に基づき、スケーリングされる。図3には、2つの候補単位310と320の動きベクトルのスケーリングの概略図が表されている。現在のフレームkは、現在の単位300の動きベクトルに用いる2つの候補単位310と320を含む。第1の候補単位310は、参照フレームiに準拠した動きベクトルMV1を有し、参照フレームiと現在のフレームkとの間の第1の時間差Dikが計算される。第2の候補単位320は、参照フレームlに準拠した動きベクトルMV2を有し、参照フレームlと現在のフレームkとの間の第2の時間差Dlkが計算される。
次いで、ターゲットの検出フレームjと現在のフレームkとの間のターゲットの時間的距離Djkが計算される。ターゲットの検出フレームjは、選ばれた参照フレームである。次いで、第1の時間的スケーリングファクタは、第1の時間的距離Dikによりターゲットの時間的距離Djkを分割することで計算され、第1の補償単位310の動きベクトルMV1は、第1の時間的スケーリングファクタ(Djk/Dik)によって乗算され、第1の候補単位310に対応してスケーリングされた動きベクトルMV1’を得る。次いで、第2の時間的スケーリングファクタは、第2の時間的距離Dlkによりターゲットの時間的距離Djkを分割することで計算され、第2の補償単位320の動きベクトルMVは、第2の時間的スケーリングファクタ(Djk/Dlk)によって乗算され、第2の候補単位320に対応してスケーリングされた動きベクトルMV を得る。よって、スケーリングされた動きベクトルMV とMV は、両方ともターゲットの検出フレームjに準拠して測定され、時間的距離差ファクタ(temporal distance difference factor)は、スケーリングされた動きベクトルMV とMV から除去される。次いで、動き予測モジュール202は、補償単位310と320のスケーリングされた動きベクトルMV とMV に基づいて現在のフレーム300のMVPを予測することができる。
図4には、時間差調整を有する動き予測方法400のフローチャートが表されている。まず、現在のフレームの現在の単位の動き予測に用いる複数の候補単位が決定される(ステップ402)。候補単位および現在の単位は、同じまたは異なるサイズのブロックであり、これらの各単位は、符号化単位、予測単位、または予測単位パーティションとすることができる。本実施形態では、候補単位は、現在の単位の左側にある左単位A、現在の単位の上側にある上単位B、現在の単位の右上で直線上にある右上単位C、および現在の単位の左上で直線上にある左上単位Dを含む。次いで、候補単位の複数の動きベクトルが得られる(ステップ404)。次いで、候補単位の参照フレームと現在のフレームとの間の時間的距離に基づいて、候補単位の複数の時間的スケーリングファクタが計算される(ステップ406)。本実施形態では、図3に示されるように、候補単位の参照フレームと現在のフレームとの間の複数の時間的距離がまず計算され、ターゲットの検出フレームと現在のフレームとの間のターゲットの時間的距離も計算され、且つターゲットの時間的距離は、候補単位に対応する時間的距離によってそれぞれ分割され、候補単位に対応する複数の時間的スケーリングファクタを得る。
次いで、候補単位の動きベクトルは、時間的スケーリングファクタに基づいてスケーリングされ、複数のスケーリングされた動きベクトルを得る(ステップ408)。本実施形態では、図3に示されるように、候補単位の動きベクトルは、候補単位の時間的スケーリングファクタによってそれぞれ乗算され、候補単位のスケーリングされた動きベクトルを得る。次いで、現在の単位の動きベクトル予測子は、スケーリングされた動きベクトルに基づいて候補単位から選ばれる(ステップ410)。本実施形態では、スケーリングされた動きベクトルは、並び替えられ、次いで、中央値のスケーリングされた動きベクトルが現在の単位のMVPとしてスケーリングされた動きベクトルから選ばれる。
動き予測モジュール202が、動きベクトルの競争方法に基づいて、現在の単位のMVPを決定する時、通常、シーケンスレベルで決定された2つの候補単位の動きベクトルのみが、現在の単位のMVPを決定するために、候補集合に含まれる。また、候補集合は、現在の単位の特徴に基づいて適応的に決定されない。現在の単位の特徴に基づいて候補集合が適応的に決定された場合、動き予測の性能は改善されることができる。
図5には、本発明の実施形態に基づく、現在の単位512の動き予測に用いる複数の候補単位の概略図が表されている。この実施形態では、現在の単位512と候補単位は、異なるサイズのブロックであり、例えば現在の単位512は、16×16ブロックおよび候補単位は、4×4ブロックである。他の実施形態では、現在および候補単位のサイズは、同じまたは異なるサイズとすることができ、そのサイズは、4×4、8×8、8×16、16×8、16×16、32×32、または64×64である。本実施形態では、現在のフレーム502の4つの候補単位A、B、C、およびDの動きベクトルは、現在のフレーム502のMVPを決定する候補とみなされることができる。また、配列単位514は、現在のフレーム502の現在の単位512と、参照フレーム504内で同じ位置であり、配列単位514に隣接する、または配列単位514内にある複数の候補単位a〜jの動きベクトルを現在の単位512のMVPを決定する候補としてみなすことができる。
現在のフレーム502の候補単位Aは、現在の単位512の左側にあるパーティションであり、現在のフレーム502の候補単位Bは、現在の単位512にある上側のパーティションであり、現在のフレーム502の候補単位Cは、現在の単位512の右上方と一直線にあるパーティションであり、且つ現在のフレーム502の候補単位Dは、現在の単位512の左上で直線上にあるパーティションである。参照フレーム504の候補ユニットaは、配列単位514の左側にあるパーティションであり、参照フレーム504の候補ユニットbは、配列単位514の上側にあるパーティションであり、参照フレーム504の候補ユニットcは、配列単位514の右上で直線上にあるパーティションであり、且つ参照フレーム504の候補ユニットdは、配列単位514の右上で直線上にあるパーティションである。また、参照フレーム504の候補ユニットeは、配列単位514の内部にあるパーティションであり、参照フレーム504の候補ユニットfおよびgは、配列単位514の右側にあるパーティションであり、参照フレーム504の候補ユニットhは、配列単位514の左下への直線上にあるパーティションであり、参照フレーム504の候補ユニットiは、配列単位514の下側にあり、且つ参照フレーム504の候補ユニットjは、配列単位514の右下への直線上にあるパーティションである。本実施形態では、現在の単位512のMVPを決定する候補集合は、計算された動きベクトル、例えば、候補単位A、B、およびCの動きベクトルの中央値と等しい動きベクトル、候補単位A、B、およびDの動きベクトルの中央値と等しい動きベクトル、および図4と同様の方法によって得られたスケーリングされたMVPを更に含む。
現在の単位512に基づき、複数の動きベクトルが候補集合に含まれるように決定された時、少なくとも1つの動きベクトルは、現在の単位512の動き予測に用いられる候補集合から適応的に選ばれる。図6には、候補集合の適応的に決定する動き予測方法600のフローチャートが示されている。現在の単位512の候補集合は、現在の単位512に対応する複数の動きベクトルから選ばれる(ステップ602)。動きベクトルは、同じフレームの符号化されたパーティション/ブロックの動きベクトルの1つまたはその組み合わせ、計算された動きベクトル、または参照フレーム乃動きベクトルを含んでもよい。本実施形態では、図5に示される現在の単位512に対応する候補集合は、現在の単位502の単位A、B、C、およびDの動きベクトル、および参照フレーム504の単位eの動きベクトルを含む。候補集合は、1つ以上の前統計、隣接情報、現在の単位の形状、および現在の単位の位置に基づいて決定されることができる。例えば、現在の単位512に対応する複数の動きベクトルは、隣接情報に基づいて分類され、且つ最初の3つの動きベクトルは、候補集合に含まれるように選ばれる。最後のMVPは、動きベクトル競争方法または他の選択方法によって、候補集合から選ばれることができる。他の実施形態では、複数の動きベクトルは、選択順序に基づいて分類され、選択順序は、動きの差の重みの合計によって決定される。動きの差は、各動きベクトル予測子と候補ユニットの対応する符号化された動きベクトル(即ち実時間動きベクトル)との間で計算される。重みは、現在の単位の形状および位置によって決定されるか、または、重みは隣接ブロックの形状および位置によって決定される。
図7には、本発明の実施形態に基づく、異なる符号化単位と候補単位に対応する動きの差分を記録する表の概略図が表されている。例えば、単位Aはターゲットの符号化単位として選ばれたものとする。単位Aの動きベクトルと単位Aの左側にある候補単位との間の動きの差分DA、Aが計算される。単位Aの動きベクトルと単位Aの上側にある候補単位Bとの間の動きの差分DB、Aも計算される。単位Aの動きベクトルと単位Aの右上への直線上にある候補単位Cとの間の動きの差分DC、Aも計算される。単位Aの動きベクトルと単位Aの左上への直線上にある候補単位Dとの間の動きの差分DC、Aも計算される。単位Aの動きベクトルと単位Aに対応する配列単位の左側にある候補単位aとの間の動きの差分Da、Aも計算される。同様に、単位Aに対応する動きの差分Db、A、...、Dj、Aも計算される。次いで、ターゲットの符号化単位Aに対応する計算された動きの差分DA、A、B、A、DC、A、DD、A、Da、A、Db、A、...、Dj、Aは、図7の表に記録される。次いで、もう1つのターゲットの符号化単位Bは、符号化単位から選ばれ(ステップ604)、次いで、ターゲットの符号化単位Bに対応する動きの差分DA、B、DB、B、DC、B、DD、B、Da、B、Db、B、...、Dj、Bは、計算されて、図7の表に記録される(ステップ606)。ステップ604および606は、符号化単位A、B、C、Dおよびeの全てがターゲットの符号化単位として選ばれ、且つ符号化単位A、B、C、Dおよびeに対応する動きの差分が計算されるまで繰り返される(ステップ608)。
符号化単位A、B、C、Dおよびeに対応する動きの差分の全てが計算された後、複数の動きベクトルの選択順序は、動きの差の加重の合計値によって決定される(ステップ610)。例えば、候補単位Aがターゲットの候補単位として選ばれた場合、ターゲットの候補単位Aに対応する動きの差分DA、A、DA、B、DA、C、DA、D、およびDA、eは、一連の重みW、W、W、W、およびWに基づいて合計され、ターゲットの候補単位Aに対応する重みの合計値S[(DA,A×W)+(DA,B×W)+(DA,C×W)+(DA,D×W)+(DA,e×W)]を得る。重みW、W、W、W、およびWは、符号化単位A、B、C、Dおよびeの1つにそれぞれ対応する。次いで他の候補単位B、C、D、e、...、i、およびjは、ターゲットの候補単位として順次選ばれ、次いで、候補単位B、C、D、e、...、i、およびjに対応する重みの合計値S、S、S、S、...、S、およびSは、順次計算される(ステップ610および612)。
候補単位の全ては、ターゲットの候補単位として選ばれ、且つ候補単位A、B、C、D、e、...、i、およびjの全てに対応する重みの合計値S、S、S、S、S、...、S、およびSが計算された時(ステップ614)、現在の単位の動き予測に用いる少なくとも1つの選ばれた候補単位は、候補単位A、B、C、D、e、...、i、およびjに対応する重みの合計値S、S、S、S、S、...、S、およびSに基づいて、候補単位A、B、C、D、e、...、i、およびjから選ばれる(ステップ616)。本実施形態では、重みの合計値S、S、S、S、S、...、Se、およびSは、そのサイズに基づいて並び替えられ、最小の重みの合計値に対応する候補単位は、選ばれた候補単位として決定される。最後に、現在の単位512の動きベクトルは、選ばれた候補単位の動きベクトルに基づいて予測される。
この発明は、実施例の方法及び望ましい実施の形態によって記述されているが、本発明は、これらを限定するものではないことは理解される。逆に、種々の変更及び同様の配置をカバーするものである(当業者には明白なように)。よって、添付の請求の範囲は、最も広義な解釈が与えられ、全てのこのような変更及び同様の配置を含むべきである。
100…現在の単位
200…ビデオエンコーダ
202…動き予測モジュール
204…減算モジュール
206…変換モジュール
208…量子化モジュール
210…エントロピー符号化モジュール
300…現在の単位
310…第1の候補単位
320…第2の候補単位
502…現在のフレーム
504…参照フレーム
512…現在の単位
514…配列単位
400、600…動き予測方法

Claims (9)

  1. 動き予測方法であって、
    現在のフレームの現在の単位に対応する複数の候補単位を決定するステップ、
    前記候補単位の複数の動きベクトルを得るステップ、
    前記動きベクトルの複数の参照フレームに基づいた複数の時間的距離に応じて、前記候補単位の複数の時間的スケーリングファクタを計算するステップ、
    前記時間的スケーリングファクタに基づいて、前記候補単位の前記動きベクトルをスケーリングし、複数のスケーリングされた動きベクトルを得るステップ、
    前記スケーリングされた動きベクトルを分類するステップ
    候補集合に含まれる前記複数のスケーリングされたベクトルのうち最も高い順序に分類されたベクトルを特定するステップ、
    前記動きベクトルの分類方法に従う前記候補集合から、前記現在の単位の動き予測に用いる動きベクトル予測子を選ぶステップを含み、
    前記候補単位は、前記現在の単位に隣接する隣接単位、及び、前記現在の単位の配列単位に隣接する又は前記配列単位内にある少なくとも1つの単位を有する
    動き予測方法。
  2. 前記動きベクトル予測子の前記動きベクトルに基づいて前記現在の単位の動きベクトルを予測するステップを更に含む請求項1に記載の動き予測方法。
  3. 前記時間的スケーリングファクタの計算のステップは、
    前記候補単位の前記動きベクトルの前記参照フレームと前記現在のフレームとの間の時間的距離を計算するステップ、
    ターゲットの検出フレームと前記現在のフレームとの間のターゲットの時間的距離を計算するステップ、および
    前記時間的距離によって前記ターゲットの時間的距離をそれぞれ分割し、前記時間的スケーリングファクタを得るステップを含む請求項1に記載の動き予測方法。
  4. 前記候補単位の前記動きベクトルのスケーリングのステップは、
    前記候補単位の前記時間的スケーリングファクタによって前記候補単位の前記動きベクトルをそれぞれ乗算し、前記候補単位の前記スケーリングされた動きベクトルを得るステップを含む請求項3に記載の動き予測方法。
  5. 前記候補単位は、前記現在の単位の左側にある左単位、前記現在の単位の上側にある上単位、前記現在の単位の右上への直線上にある右上単位、および前記現在の単位の左上への直線上にある左上単位を含む請求項1に記載の動き予測方法。
  6. 前記時間的スケーリングファクタを計算するステップは、前記動きベクトルの前記参照フレームと前記配列単位と同じ位置のフレームとの間の前記時間的距離を計算するステップを含む
    請求項1に記載の動き予測方法。
  7. 前記現在の単位の配列単位に隣接する少なくとも1つの単位は、前記配列単位の右下の方向の直線上に位置する単位を含み、
    前記配列単位内にある少なくとも1つの単位は、前記配列単位の内側に位置する単位を含む
    請求項1に記載の動き予測方法。
  8. 前記スケーリングされた動きベクトルを分類するステップは、隣接情報、前記現在の単位の情報、及び前記現在の単位の位置の少なくとも1つ、又は、これらの組み合わせに基づき実行される
    請求項1に記載の動き予測方法。
  9. 前記動きベクトルの前記候補集合の大きさが予め決まっている
    請求項1に記載の動き予測方法。
JP2013504104A 2010-04-22 2011-04-07 動き予測方法 Active JP5913283B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US32673110P 2010-04-22 2010-04-22
US61/326,731 2010-04-22
US12/957,644 2010-12-01
US12/957,644 US9036692B2 (en) 2010-01-18 2010-12-01 Motion prediction method
PCT/CN2011/072500 WO2011131089A1 (en) 2010-04-22 2011-04-07 Motion prediction method

Publications (2)

Publication Number Publication Date
JP2013526142A JP2013526142A (ja) 2013-06-20
JP5913283B2 true JP5913283B2 (ja) 2016-04-27

Family

ID=44833699

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013504104A Active JP5913283B2 (ja) 2010-04-22 2011-04-07 動き予測方法
JP2013505315A Active JP5593440B2 (ja) 2010-04-22 2011-04-08 動きベクトル予測方法
JP2014024540A Active JP5860491B2 (ja) 2010-04-22 2014-02-12 動きベクトル予測方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2013505315A Active JP5593440B2 (ja) 2010-04-22 2011-04-08 動きベクトル予測方法
JP2014024540A Active JP5860491B2 (ja) 2010-04-22 2014-02-12 動きベクトル予測方法

Country Status (10)

Country Link
EP (4) EP3285490B1 (ja)
JP (3) JP5913283B2 (ja)
KR (3) KR101772252B1 (ja)
AU (1) AU2011242239B2 (ja)
BR (1) BR112012027033B1 (ja)
CA (1) CA2794378C (ja)
IL (1) IL222430A (ja)
MX (1) MX2012012246A (ja)
RU (2) RU2538284C2 (ja)
WO (2) WO2011131089A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456499B1 (ko) * 2010-07-09 2014-11-03 삼성전자주식회사 움직임 벡터의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9300970B2 (en) 2010-07-09 2016-03-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding motion vector
WO2015169230A1 (en) * 2014-05-06 2015-11-12 Mediatek Inc. Video processing method for determining position of reference block of resized reference frame and related video processing apparatus
JP5750191B2 (ja) * 2014-10-15 2015-07-15 日立マクセル株式会社 画像復号化方法
JP5911982B2 (ja) * 2015-02-12 2016-04-27 日立マクセル株式会社 画像復号化方法
JP5946980B1 (ja) * 2016-03-30 2016-07-06 日立マクセル株式会社 画像復号化方法
JP5951915B2 (ja) * 2016-03-30 2016-07-13 日立マクセル株式会社 画像復号化方法
JP6181242B2 (ja) * 2016-06-08 2017-08-16 日立マクセル株式会社 画像復号化方法
CN118573893A (zh) 2017-09-19 2024-08-30 三星电子株式会社 对运动信息进行编码和解码的方法以及设备
WO2020184847A1 (ko) 2019-03-12 2020-09-17 엘지전자 주식회사 Dmvr 및 bdof 기반의 인터 예측 방법 및 장치
EP3745725A4 (en) 2019-03-22 2020-12-02 LG Electronics Inc. -1- METHOD AND DEVICE FOR INTERPRDICTION BASED ON DMVR AND BDOF

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224800A (ja) * 1997-02-07 1998-08-21 Matsushita Electric Ind Co Ltd 動きベクトル符号化方法および復号化方法
US5991447A (en) * 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
US6130911A (en) * 1997-11-21 2000-10-10 Sharp Laboratories Of America, Inc. Method and apparatus for compressing reference frames in an interframe video codec
US5946043A (en) * 1997-12-31 1999-08-31 Microsoft Corporation Video coding using adaptive coding of block parameters for coded/uncoded blocks
JP2004208258A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
US8300690B2 (en) * 2002-07-16 2012-10-30 Nokia Corporation Method for random access and gradual picture refresh in video coding
US7023921B2 (en) * 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
NO318167B1 (no) * 2002-11-27 2005-02-14 Tandberg Telecom As Vektorprediksjon
JP4373702B2 (ja) * 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
KR100579493B1 (ko) * 2003-06-16 2006-05-15 삼성전자주식회사 움직임 벡터 생성 장치 및 방법
US7978769B2 (en) * 2003-06-30 2011-07-12 Ntt Docomo, Inc. Method and apparatus for coding motion information
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
CN1213613C (zh) * 2003-09-12 2005-08-03 浙江大学 视频编解码中运动矢量的预测方法和装置
US7889792B2 (en) * 2003-12-24 2011-02-15 Apple Inc. Method and system for video encoding using a variable number of B frames
JP4699460B2 (ja) * 2004-07-20 2011-06-08 クゥアルコム・インコーポレイテッド 時間的なビデオ圧縮における運動ベクトル予測のための方法および装置
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
CN100539693C (zh) * 2005-08-30 2009-09-09 深圳清华大学研究院 快速运动估计方法
US20070064805A1 (en) * 2005-09-16 2007-03-22 Sony Corporation Motion vector selection
JP2007228560A (ja) * 2006-01-25 2007-09-06 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像符号化装置
US20070171977A1 (en) * 2006-01-25 2007-07-26 Shintaro Kudo Moving picture coding method and moving picture coding device
JP2007214741A (ja) * 2006-02-08 2007-08-23 Right Image:Kk 画像データ圧縮装置、画像表示装置、画像データ圧縮方法、画像表示方法、画像データ圧縮プログラム、画像表示プログラム、記憶媒体
JP2008109632A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 動きベクトル検出装置及びその方法
KR101383540B1 (ko) * 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
KR101356735B1 (ko) * 2007-01-03 2014-02-03 삼성전자주식회사 전역 움직임 벡터를 사용해서 움직임 벡터를 추정하기 위한방법, 장치, 인코더, 디코더 및 복호화 방법
CN101222627A (zh) * 2007-01-09 2008-07-16 华为技术有限公司 一种多视点视频编解码系统以及预测向量的方法和装置
US8488676B2 (en) * 2007-05-14 2013-07-16 Himax Technologies Limited Motion estimation method
KR102037328B1 (ko) * 2007-10-16 2019-10-28 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CN101198064A (zh) * 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
CN101232619B (zh) * 2008-01-25 2011-05-11 浙江大学 嵌入帧内编码块的视频编码方法
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
EP2266318B1 (en) * 2008-03-19 2020-04-22 Nokia Technologies Oy Combined motion vector and reference index prediction for video coding
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4977094B2 (ja) * 2008-06-25 2012-07-18 株式会社東芝 画像符号化方法
EP2493195A1 (en) * 2009-10-20 2012-08-29 Sharp Kabushiki Kaisha Video encoding device, video decoding device, and data structure
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101768207B1 (ko) * 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2011125211A1 (ja) * 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法

Also Published As

Publication number Publication date
BR112012027033A2 (pt) 2016-07-19
CA2794378A1 (en) 2011-10-27
EP2534842B8 (en) 2017-10-18
WO2011131089A1 (en) 2011-10-27
CA2794378C (en) 2018-05-29
EP2534841A4 (en) 2014-07-02
JP5593440B2 (ja) 2014-09-24
WO2011131091A1 (en) 2011-10-27
EP2860981A1 (en) 2015-04-15
RU2012138901A (ru) 2014-07-20
IL222430A (en) 2016-10-31
KR101482514B1 (ko) 2015-01-14
MX2012012246A (es) 2012-12-17
JP5860491B2 (ja) 2016-02-16
EP3285490B1 (en) 2021-03-10
BR112012027033B1 (pt) 2022-10-11
JP2013528992A (ja) 2013-07-11
KR101772252B1 (ko) 2017-08-29
BR112012027033A8 (pt) 2017-07-11
EP3285490A1 (en) 2018-02-21
AU2011242239B2 (en) 2014-03-06
RU2012138564A (ru) 2014-05-27
AU2011242239A1 (en) 2012-09-27
EP2534842A1 (en) 2012-12-19
IL222430A0 (en) 2012-12-31
EP2534841A1 (en) 2012-12-19
EP2534841B1 (en) 2017-11-29
EP2534842B1 (en) 2017-09-06
EP2860981B1 (en) 2018-08-22
JP2013526142A (ja) 2013-06-20
KR20130036231A (ko) 2013-04-11
KR101865011B1 (ko) 2018-06-05
EP2534842A4 (en) 2014-07-09
KR20170098959A (ko) 2017-08-30
RU2538284C2 (ru) 2015-01-10
JP2014103698A (ja) 2014-06-05
RU2538317C2 (ru) 2015-01-10
KR20130029069A (ko) 2013-03-21

Similar Documents

Publication Publication Date Title
JP5913283B2 (ja) 動き予測方法
US9036692B2 (en) Motion prediction method
CN109997363B (zh) 图像编码/解码方法和装置以及存储有比特流的记录介质
US20240056602A1 (en) Image encoding/decoding method and apparatus for throughput enhancement, and recording medium storing bitstream
TWI720750B (zh) 動態影像編碼裝置及動態影像編碼方法
CN117201815A (zh) 图像解码方法、图像编码方法以及发送比特流的方法
US20130251036A1 (en) Intra prediction method and apparatus
CN116886929A (zh) 对图像编码/解码的方法和设备及存储比特流的记录介质
KR102006443B1 (ko) 오차 보상을 이용한 영상 부호화/복호화 방법 및 장치
EP2103141A1 (en) Method and apparatus for estimating motion vector using plurality of motion vector predictors, encoder, decoder, and decoding method
CN102396230A (zh) 图像处理设备和方法
US11695926B2 (en) Method and apparatus for encoding/decoding image, and recording medium for storing bitstream
KR20140095607A (ko) 인터 예측 방법 및 그 장치
US20240073448A1 (en) Image encoding/decoding method and device, and recording medium in which bitstream is stored
CN116896631A (zh) 图像编码/解码方法和装置以及存储有比特流的记录介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140709

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160401

R150 Certificate of patent or registration of utility model

Ref document number: 5913283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250