JP4625132B2 - ダイレクトモード動きベクトルの導出方法 - Google Patents

ダイレクトモード動きベクトルの導出方法 Download PDF

Info

Publication number
JP4625132B2
JP4625132B2 JP2009065104A JP2009065104A JP4625132B2 JP 4625132 B2 JP4625132 B2 JP 4625132B2 JP 2009065104 A JP2009065104 A JP 2009065104A JP 2009065104 A JP2009065104 A JP 2009065104A JP 4625132 B2 JP4625132 B2 JP 4625132B2
Authority
JP
Japan
Prior art keywords
list
picture
direct mode
motion vector
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2009065104A
Other languages
English (en)
Other versions
JP2009135992A (ja
Inventor
ジェオン,ビョン・ムーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2009135992A publication Critical patent/JP2009135992A/ja
Application granted granted Critical
Publication of JP4625132B2 publication Critical patent/JP4625132B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Gyroscopes (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Color Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、動画像コーディング方法に関し、特に、次世代動画像圧縮技術において定義されたB(Bi-predictive)ピクチャにおけるダイレクトモード動きベクトルの導出方法に関する。
従来のBピクチャは、順方向、逆方向、両方向、ダイレクト、そしてイントラモードといった5種類の予測モードを持っている。ここで、順方向、逆方向、両方向モードは、モード名に方向情報を内包していることから、それらのモード名により動きベクトルの方向性が把握できる。そして、特に、ダイレクトモードは、隣接した二つのピクチャの間に動きの連続性が一定に保持されるという時間的冗長性(temporal redundancy)の特性を用いて、隣接ピクチャにある同一位置のブロックが持つ動きから両方向の動きベクトル二つを誘導する。このダイレクトモードは、動き情報をデコーダに伝送しないので、ビット率を減少させることができる利点がある。
一方、H.264またはMPEG-4 part 10 のような次世代動画像圧縮技術におけるBピクチャは、自分がレファランスピクチャ(reference picture)として使用されるのを許容するため、レファランスピクチャバッファに格納されるという特徴がある。また、Bピクチャの予測モードには list 0 、 list 1、双予測、ダイレクト、そしてイントラなどの各モードがある。
ここで、list 0 モードは、従来の順方向モードに似たモードであって、動き情報であるレファランスピクチャインデックスと動きベクトル差はそれぞれ‘ref_idx_l0 ’と‘mvd_l0 ’として表示される。また、list 1モードは、従来の逆方向モードに似たモードであって、動き情報はそれぞれ‘ref_idx_l1’と‘mvd_l1’として表示される。双予測モードは二つのレファランスピクチャを有するが、二つのレファランスピクチャともBピクチャに比べて時間的に前に位置してもよく、後に位置してもよい。また、Bピクチャを中心に前、後に存在してもよい。このとき二つのレファランスピクチャインデックスと動きベクトル差はそれぞれ、‘ref_idx_l0 ’、‘ref_idx_l1’、‘mvd_l0 ’、‘mvd_l1’として表示され、各レファランスピクチャは時間的位置情報のPOC(picture order count)というデータを持っている。
そして、ダイレクトモードは動きベクトルを得るために空間的手法と時間的手法のうちいずれかが選ばれる。空間的手法は、コーディング(符号化)したいマクロブロックの周辺ブロックから list 0 および list 1 のレファランスピクチャインデックスと動きベクトルを誘導する手法である。一方、時間的手法は、従来のBピクチャにおいて使用される方法であって、ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロック(co-located block)が持っている list 0 動きベクトルをスケーリングして list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導する。ここで、ダイレクトモードの list 1 レファランスピクチャは list 1 予測のためのインデックスが0であるピクチャであり、ダイレクトモードの list 0 レファランスピクチャは、 list 1 レファランスピクチャにある同一位置のブロックが持つ list 0 レファランスピクチャを使用する。
図1の(A)から(C)は、利用可能なlist 0およびlist 1レファランスピクチャの数(または、short-term bufferの大きさ)が6のとき、IBBBPパターンにおける各Bピクチャに対する list 0 予測のためのデフォルトインデックス、 list 1 予測のためのデフォルトインデックス、およびダイレクトモードの list 1 レファランスピクチャをそれぞれ示している。ここで list 0 予測のためのデフォルトインデックスと list 1 予測のためのデフォルトインデックスは、デコーディング順序に関わらず既にデコーディングされたレファランスピクチャの出力順序(output order)、すなわちPOC値に基づいてインデックシングが行われる。図1では、全てのBピクチャが時間的に後に続くPピクチャをダイレクトモードの list 1 レファランスピクチャとして使用している。
一方、図2は、Bピクチャのみを使用するIBBBパターンにおける各Bピクチャに対する list 0 予測のためのデフォルトインデックス、 list 1 予測のためのデフォルトインデックスおよびダイレクトモードの list 1 レファランスピクチャをそれぞれ示す。図2の(A)は、コーディングするBピクチャがB8のとき、 list 1 のインデックス0を有する時間的に前に位置するB5がダイレクトモードの list 1 レファランスピクチャとなり、(B)のように次のデコーディング順序であるB7に対するダイレクトモードの list 1 レファランスピクチャは時間的に後に位置したB8となる。最後に、(C)のように次のデコーディング順序であるB9に対するダイレクトモードの list 1 レファランスピクチャは時間的に前に位置したB7となる。
要するに、図1および図2によれば、ダイレクトモードの list 1 レファランスピクチャは、コーディングしようとするBピクチャより時間的に後に位置したPまたはBピクチャにもなり得、また時間的に前に位置したBピクチャにもなり得る。
図3は、ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合、同一位置のブロックが持つことのできるモードを示している。このとき、 list 1 レファランスピクチャはPピクチャまたはBピクチャになり得るので、 list 1 レファランスピクチャの同一位置にあるブロックは一つまたは二つの動きベクトルを持つか、イントラモードを持つことになる。H.264またはMPEG-4 part 10 のような次世代動画像圧縮技術は、スライスレベルでレファランスピクチャインデックスをリオーダリング(reordering)することが許容されるので、 list 1 予測のためのインデックス0をBピクチャの直ぐ後にあるピクチャに割り当てることができる。すなわち、 list 1 レファランスピクチャがBピクチャの直ぐ後に存在することができることから、同一位置のブロックが持つ動きベクトルは前または後方向に向けられる。
さらに、図4は、ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合、同一位置のブロックが持つことのできるモードを示している。前述のように同一位置のブロックは一つまたは二つの動きベクトルを持つか、イントラモードを持つ。このとき list 1 レファランスピクチャとBピクチャとの間に異なるレファランスピクチャが存在し得ることから、動きベクトル方向は時間的に前と後に向けられる。
図3および図4に示すように、ダイレクトモードの list 1 レファランスピクチャは様々な予測モードを持つことができ、したがって、それら様々な場合に応じたダイレクトモードの動きベクトル演算方法が求められているというのが現状である。
本発明は、次世代動画像圧縮技術に定義されたBピクチャにおいてダイレクトモード動きベクトル抽出手法を提示することによって、ダイレクトモードがマクロブロックの予測モードとして選ばれる可能性を高め、Bピクチャコーディング効率(coding efficiency)を向上させることができるBピクチャのダイレクトモード動きベクトル演算方法を提供することが目的である。
本発明のダイレクトモード動きベクトルの導出方法は、レファランスピクチャの同一位置のブロックを用いた、現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法であって、レファランスピクチャの同一位置のブロックを決定し、同一位置のブロックがlist 1動きベクトルのみを有しているときは、双予測ブロックのダイレクトモード動きベクトルを導出するための動きベクトルとして、同一位置のブロックのlist 1動きベクトルを選択し、レファランスピクチャの同一位置のブロックの選択されたlist 1動きベクトルをスケーリングし、同一位置のブロックのスケーリングされたlist 1動きベクトルに基づいて、双予測ブロックのダイレクトモード動きベクトルのうちの少なくとも1つを導出することを特徴とする。
前記の目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法は、 list 1 レファランスピクチャにある同一位置のブロックが list 0 、 list 1 動きベクトルを持っていると、ダイレクトモードの動きベクトルを誘導するために使用される動きベクトルは、二つの方法によって list 0 または list 1 動きベクトルを選んでダイレクトモードの動きベクトルを誘導する点に特徴がある。
ここで、本発明によれば、 list 0 、 list 1 動きベクトルのうち同一位置のブロックが存在する list 1 レファランスピクチャから時間的距離の短い動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選び、仮に、二つの動きベクトルが同一レファランスピクチャを指すと list 0 動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選んで、その選択された動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定する方法があり、また、時間的距離に関わらず無条件に list 0 動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選び、前記 list 0 動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定する他の方法がある。
また、本発明では、ダイレクトモードの動きベクトルは同一位置のブロックが持つ list 0 動きベクトルから誘導されるという従来手法を、 list 1 レファランスピクチャの同一位置にあるブロックが list 1 動きベクトルのみを持っている場合に適用すると、同一位置のブロックの list 0 動きベクトルは0であるためにダイレクトモードの動きベクトルはいずれも0となる問題点を解決するために、同一位置のブロックが持つモード種類に関わらず、そのブロックの持っている動きベクトルを用いてダイレクトモードの動きベクトルを誘導する。
ここで、本発明は、 list 1 レファランスピクチャにある同一位置のブロックが list 1 動きベクトルのみを持っている場合、ダイレクトモード動きベクトルを求め得る方法を提示する。1番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値を0にし、ダイレクトモードの list 0 レファランスピクチャ(list 0 reference picture for direct mode)は時間的にBピクチャの直ぐ前の位置に存在するデコーディングされたピクチャと定義することを特徴とする。2番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値は同一位置のブロックの持っている list 1 動きベクトルをそのまま利用し、その代わり、ダイレクトモードの list 0 レファランスピクチャは時間的にBピクチャの直ぐ前の位置に存在するデコーディングされたピクチャと定義することを特徴とする。3番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値は同一位置のブロックの持っている list 1 動きベクトルをそのまま利用し、 list 1 動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定することを特徴とする。
また、本発明によれば、従来の手法におけると同様にダイレクトモードの list 1 レファランスピクチャを list 1 予測に使用されるインデックスが0のピクチャと定義する場合、Bピクチャとインデックス0のピクチャとの間に他のピクチャがデコーディングされるときインデックス0のピクチャの動き情報およびレファランスピクチャ情報が保持されなければならないことから追加的なメモリ使用が必須とされているが、本発明ではダイレクトモードの list 1 レファランスピクチャを最近にデコーディングされたピクチャと定義することによって追加的なメモリ使用を節約することができる。
また、本発明は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 1 レファランスピクチャが前記Bピクチャより時間的に前に位置する場合、前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算する点が特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式によって算出される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される 。ここで、 list 1 基準フレームのフィールド1にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記 list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド1にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD、1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記 list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのダイレクトモードの list 1 レファランスピクチャの同一位置にあるマクロブロックが二つの動きベクトルを持つ場合には、一つの動きベクトル( list 0 または list 1 動きベクトル)を選び、この選ばれた動きベクトルからBピクチャのダイレクトモードの動きベクトルを誘導する。
また、前記の目的を達成する、本発明によるBピクチャのダイレクトモード動きベクトル演算方法の他の実施態様は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャとも前記Bピクチャより時間的に後に存在する場合、前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z= -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド0にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = TDB×MV0/TDD,0
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモードのための list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド0にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = -TDB×MV0/TDD,0
MVB = -(TDB + TDD,0)×MV0 /TDD,0
または、
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモード list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのダイレクトモードの list 1 レファランスピクチャの同一位置にあるブロックが二つの動きベクトルを持つ場合は、一つの動きベクトル(MV1またはMV2)を選び、この選ばれた動きベクトルからBピクチャのダイレクトモードの動きベクトルを誘導する。
また、前記目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法のさらに他の実施態様は、動画像コーディングシステムにおいてBピクチャのダイレクトモード動きベクトルを抽出する際に、ダイレクトモード動きベクトルを求めるのに使用する数式を単純化するためにピクチャ間の時間的距離を符号付きの値で表すことによって、Bピクチャのダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャの位置に関わらず前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードである場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは、現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であって、 list 1 レファランスフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,i は現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド0にある同位置のマクロブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式によって算出される。
MVF = TDB×MV0/TDD,0
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド0から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV0 は前記ダイレクトモードの list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式によって算出される。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは、現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,1は、 list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド1から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、前記の目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法のさらに他の実施態様は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードの場合には、空間的冗長性を用いて、前記Bピクチャのコーディングしようとするマクロブロックの周辺ブロックから list 0 、 list 1 レファランスピクチャと各 list に対する動きベクトルを予測し、算出し、Bピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記 list 1 レファランスピクチャを選ぶに際して、前記コーディングしようとするマクロブロックの周辺マクロブロックA、B、Cがレファランスするレファランスピクチャが異なっている場合には、最も小さいインデックスを有するレファランスピクチャを list 1 レファランスピクチャとして選ぶ。
また、本発明によれば、前記 list 1 レファランスピクチャを選ぶに際して、前記コーディングしようとするマクロブロックの周辺マクロブロックのうち二つ以上のマクロブロックがレファランスするレファランスピクチャが同一のインデックスを持っていると、そのインデックスを有するレファランスピクチャを list 1 レファランスピクチャとして選ぶ。
また、本発明によれば、前記各 list に対する動きベクトルを予測するに際して、周辺マクロブロックA、B、Cのうちイントラモードを有するマクロブロックがあれば、そのマクロブロックの list 0 と list 1 の動きベクトルをそれぞれ0と設定し、前記各 list レファランスピクチャの時間的位置と同一の方向を有する動きベクトルを周辺マクロブロックから選び、メディアン演算を通じて各 listの動きベクトルを求めるか、または、仮に周辺マクロブロックが同一の方向の動きベクトルを二つ持っていると、そのマクロブロックのうち一つのみを選んでメディアン演算に含ませて各 listの動きベクトルを求める。
また、本発明によれば、前記各 list に対する有効なレファランスピクチャインデックスをいずれも誘導できないなら、 list 0 、 list 1 のレファランスピクチャインデックスはそれぞれ0となり、各 list に対する動きベクトルは0と設定する。
以上の説明の如く、本発明によるBピクチャのダイレクトモード動きベクトル演算方法によれば、次世代動画像圧縮技術に定義されたBピクチャにおいてダイレクトモード動きベクトル抽出手法は、ダイレクトモードがマクロブロックの予測モードとして選ばれる可能性が高められるため、Bピクチャのコーディング効率を向上させることができる。
一般のIBBBPパターンにおけるダイレクトモードの list 1 レファランスピクチャを説明するための図である。 一般のIBBBパターンにおけるダイレクトモードの list 1 レファランスピクチャを説明するための図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合を示す図(L0 MV: list 0 動きベクトル、L1 MV: list 1 動きベクトル)である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合を示す図(L0 MV: list 0 動きベクトル、L1 MV: list 1 動きベクトル)である。 一般の空間的冗長性を考慮し、周辺ブロックA、B、Cの動きベクトルを用いてブロックEの予測動きベクトルを演算することを説明するための図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードである場合を示す図である。
本発明は、ダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードのときにダイレクトモード動きベクトルを誘導する方法と、 list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合およびBピクチャより時間的に前に位置する場合に対してダイレクトモード動きベクトルを求める方法を提示する。
そして、ダイレクトモード動きベクトルを求めるのに使用する数式を単純化するためにピクチャ間の時間的距離を符号付きの値で表すことによって、ダイレクトモードのための list 0 、 list 1 レファランスピクチャ位置に関わらずにダイレクトモード動きベクトルを求める方法に対してそれぞれ区分して説明する。
一方、ピクチャレベルでフレームモードとフィールドモードがスイッチングされるのでBピクチャと list 1 レファランスピクチャはフレーム構造またはフィールド構造にコーディングされることができる。したがって、Bピクチャのマクロブロックと list 1 レファランスピクチャにある同位置のマクロブロックは四つの場合のフレーム/フィールドコーディング組合せを持つことになる。
[1] list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードを有する場合
図3の(F)および図4の(F)に示すように、ダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックは、レファランスピクチャの時間的位置に関わらずイントラモードを持つことができる。このようなモードを有するマクロブロックは動き情報を持っていないため、従来手法では単にダイレクトモード動きベクトルを0とし、 list 0 レファランスピクチャは最近にデコーディングされたピクチャと定義した。しかし、従来手法は高いコーディング効率が保障できなかったため、本発明ではBピクチャのコーディングしようとするマクロブロックの周辺ブロックから list 0 、 list 1 レファランスピクチャと各 list に対する動きベクトルを空間的冗長性を用いて予測し、算出する。
各 list に対するレファランスピクチャインデックスは、下記のような方法によって求める。図5は一般の空間的冗長性を考慮し、周辺ブロックA、B、Cの動きベクトルを用いてブロックEの予測動きベクトルを演算することを説明するための図である。
仮に、周辺マクロブロックA、B、Cのレファランスピクチャインデックスが異なっている場合には、その中で最も小さいレファランスピクチャインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
仮に、周辺マクロブロックのうち、二つのブロックが同一のレファランスピクチャインデックスを持っていると、そのインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
仮に、周辺マクロブロックとも同一のレファランスピクチャインデックスを持っていると、そのインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
また、各 list に対する動きベクトルは下記のような動きベクトル予測を通じて求める。このとき、周辺マクロブロックA、B、Cのうちイントラモードを有するマクロブロックがあれば、そのマクロブロックの list 0 と list 1 の動きベクトルをそれぞれ‘0’と設定する。
上で求めた各 listのレファランスピクチャの時間的位置と同一の方向を有する動きベクトルを周辺マクロブロックから選び、メディアン演算を通じて各 listの動きベクトルを求める。
仮に、周辺マクロブロックが同一方向の動きベクトルを二つ持っていると、そのマクロブロックでは一つのみを選んでメディアン演算に含ませる。
一方、仮に周辺ブロックから list 0 、 list 1に対する有効なレファランスピクチャインデックスをいずれも誘導できなかったら、 list 0 、 list 1 のレファランスピクチャインデックスはそれぞれ‘0’となり、各 list に対する動きベクトルは‘0’と設定する。
[2]ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
図3の(A)〜(H)から分かるように、 list 1 レファランスピクチャの同一位置にあるブロックは一つの動きベクトルを持つか、二つの動きベクトルを持つことができる。本発明では、同一位置のブロックが二つの動きベクトルを持つ場合には一つの動きベクトル(L0 MVまたはL1 MV)を選び、この選ばれた動きベクトルからダイレクトモードの動きベクトルを誘導する(以下では、L0 MV(list 0 動きベクトル)が選ばれた場合を基準に説明するものとする)。
したがって、図3の(A)(C)は図6の(A)と同様になり、図3の(B)(D)(E)は図6の(C)、図3の(G)(H)は図6の(B)のように単純化して表示される。
仮に、ダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図6の(A))、またはダイレクトモードの list 0、list 1 レファランスピクチャの両方ともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図6の(B))、ダイレクトモードの動きベクトルMV、MVは下記のように計算される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離を表し、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離をそれぞれ表す。
そして、前記式は下記のように表すこともできるが、これは、実際の演算に際しての便利性のためにビット演算を適用する場合を示したのである。
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在し、 list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図6の(C))、ダイレクトモードの動きベクトルMVF、MVBは、下記のように計算される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
図7では、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードの場合を示す。Bピクチャのマクロブロックの各ブロックにおける動きベクトルは同一パリティの list 1 レファランスフィールドにある同一位置の list 0 動きベクトルから誘導される。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図7の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図7の(B))には、Bフレームの各フィールドi(i=0は1番目のフィールド、i=1は2番目のフィールドを意味)に対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iが下記のように計算される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
ここで、MViは list 1 基準フレームのiにある同一位置のブロックが持つ list 0 動きベクトル、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離をそれぞれ意味する。前記式は下記のように表すことができる。
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
仮に、 list 1 基準フレームのフィールドiにある同一位置のブロックがBピクチャより時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによって、ダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図7の(C)および(D))、ダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
図8は、Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードの場合を示す。ここで、現在マクロブロックの垂直座標をycurrentとし、 list 1 レファランスピクチャの同位置のマクロブロック垂直座標をyco-locatedとすれば、両座標の間にはyco-located=2xycurrentの関係が成り立つ。そして list 0 、 list 1 レファランスフィールドはそれぞれの list 0 、 list 1 基準フレームの同一パリティに存在することになる。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図8の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図8の(B))、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは、下記のように計算される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
仮に、 list 1 基準フレームにある同一位置のブロックがBピクチャより時間的に後に存在するフレームを指す動きベクトルを持つことによってダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図8の(C))、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは、下記のように計算される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
図9は、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードの場合を示す。ここで、現在マクロブロックの垂直座標をycurrentとし、 list 1 レファランスピクチャの同位置のマクロブロック垂直座標をyco-locatedとすれば、両座標の間にはyco-located=ycurrent/2の関係が成り立つ。そして、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図9の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1ピクチャより後に存在する場合(図9の(B))、Bフレームのダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される。
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
仮に、 list 1 基準フレームのフィールド0にある同一位置のブロックがBピクチャより時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図9の(C))、ダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される。
MVF = -TDB×MV0 /TDD,0
MVB = -(TDB + TDD,0 )×MV0 /TDD,0
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモードの list 1 レファランスフレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
[3]ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合
この場合には list 0 、 list 1 レファランスピクチャのいずれもBピクチャより常に時間的に前に位置している。
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
図4に示すように、 list 1 レファランスピクチャの同一位置にあるブロックは一つの動きベクトルを持つか、二つの動きベクトルを持つことができる。本発明では、同一位置のブロックが二つの動きベクトルを持つ場合には一つの動きベクトル(L0 MVまたはL1 MV)を選び、この選ばれた動きベクトルからダイレクトモードの動きベクトルを誘導する(以下では、L0 MV( list 0 動きベクトル)が選ばれた場合を基準に説明するものとする)。
したがって、図4の(A)(C)(E)(G)(H)は図10の(A)と同様になり、図4の(B)(D)は図10の(B)のように単純化して表示される。
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、ダイレクトモードの動きベクトルMVF、MVBは下記のように計算される(図10の(A))。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
そして、前記式は下記のように表すことができる。
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの動きベクトルMVF、MVBは下記のように計算される(図10の(B))。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図11の(A)および(B))。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
前記式は、下記のように表すことができる。
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームのフィールドiにある同一位置のブロックが時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図11の(C)および(D))。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図12の(A))。
MVF,i=TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
前記式は下記のように表すことができる。
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームにある同一位置のブロックが時間的に後に存在するフレームを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図12の(B))。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
list 1 基準フレームのフィールド1(f1)がフィールド0(f0 )よりBピクチャに時間的距離が近いので、フィールド1(f1)にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される(図13の(A))。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームのフィールド1(f1)にある同一位置のブロックが時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される(図13の(B))。
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
[4]ピクチャ間の時間的距離を符号付きの値で表現してダイレクトモード動きベクトルを演算する場合
前記ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するか、または後に位置する場合、各ケースに対して2種類の数式が存在することになるので、これを単純化するための方法でピクチャ間の時間的距離を符号付きの値で表すと、下記のように単純化して表される。
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフレームモードである場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式から求めることができる。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフィールドモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であって、 list 1 レファランスフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に後に存在する場合、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。したがって、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式から求めることができる。
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,0 は list 1 基準フレームのフィールド0 と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド0から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV0 は前記ダイレクトモードの list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 レファランスピクチャが前記Bピクチャより時間的に前に存在する場合、 list 1 基準フレームのフィールド1がフィールド0よりBピクチャに時間的距離が近いので、フィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。したがって、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式から求めることができる。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド1から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。

Claims (1)

  1. レファランスピクチャの同一位置のブロックを用いた、現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法であって、
    前記レファランスピクチャの前記同一位置のブロックを決定し、
    前記同一位置のブロックがlist 1動きベクトルのみを有しているときは、前記双予測ブロックの前記ダイレクトモード動きベクトルを導出するための動きベクトルとして、前記同一位置のブロックの前記list 1動きベクトルを選択し、
    前記レファランスピクチャの前記同一位置のブロックの選択された前記list 1動きベクトルをスケーリングし、
    前記同一位置のブロックのスケーリングされた前記list 1動きベクトルに基づいて、前記双予測ブロックの前記ダイレクトモード動きベクトルのうちの少なくとも1つを導出する、ことを特徴とするダイレクトモード動きベクトルの導出方法。
JP2009065104A 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法 Expired - Lifetime JP4625132B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20020060742 2002-10-04
KR20020061243 2002-10-08
KR10-2002-0071226A KR100506864B1 (ko) 2002-10-04 2002-11-15 모션벡터 결정방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008060950A Division JP4625100B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法

Publications (2)

Publication Number Publication Date
JP2009135992A JP2009135992A (ja) 2009-06-18
JP4625132B2 true JP4625132B2 (ja) 2011-02-02

Family

ID=35871226

Family Applications (19)

Application Number Title Priority Date Filing Date
JP2003002599A Expired - Lifetime JP4020789B2 (ja) 2002-10-04 2003-01-08 Bピクチャのダイレクトモード動きベクトル演算方法
JP2006011202A Expired - Lifetime JP4216852B2 (ja) 2002-10-04 2006-01-19 ダイレクトモード動きベクトルを誘導する方法
JP2008061567A Expired - Lifetime JP4625104B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061455A Pending JP2008182747A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060950A Expired - Lifetime JP4625100B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061142A Expired - Lifetime JP4709242B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061152A Pending JP2008182746A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061116A Expired - Lifetime JP4709241B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061096A Expired - Lifetime JP4625103B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060987A Pending JP2008182742A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060935A Pending JP2008182738A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060962A Expired - Lifetime JP4625102B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060955A Expired - Lifetime JP4625101B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2009065104A Expired - Lifetime JP4625132B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065000A Pending JP2009135989A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009064940A Expired - Lifetime JP4625131B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065130A Expired - Lifetime JP4709292B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065025A Expired - Lifetime JP4709291B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065198A Pending JP2009135994A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法

Family Applications Before (13)

Application Number Title Priority Date Filing Date
JP2003002599A Expired - Lifetime JP4020789B2 (ja) 2002-10-04 2003-01-08 Bピクチャのダイレクトモード動きベクトル演算方法
JP2006011202A Expired - Lifetime JP4216852B2 (ja) 2002-10-04 2006-01-19 ダイレクトモード動きベクトルを誘導する方法
JP2008061567A Expired - Lifetime JP4625104B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061455A Pending JP2008182747A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060950A Expired - Lifetime JP4625100B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061142A Expired - Lifetime JP4709242B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061152A Pending JP2008182746A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061116A Expired - Lifetime JP4709241B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061096A Expired - Lifetime JP4625103B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060987A Pending JP2008182742A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060935A Pending JP2008182738A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060962A Expired - Lifetime JP4625102B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060955A Expired - Lifetime JP4625101B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法

Family Applications After (5)

Application Number Title Priority Date Filing Date
JP2009065000A Pending JP2009135989A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009064940A Expired - Lifetime JP4625131B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065130A Expired - Lifetime JP4709292B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065025A Expired - Lifetime JP4709291B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065198A Pending JP2009135994A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法

Country Status (15)

Country Link
US (31) US7233621B2 (ja)
EP (21) EP2009925B1 (ja)
JP (19) JP4020789B2 (ja)
KR (1) KR100506864B1 (ja)
CN (3) CN100473170C (ja)
AT (10) ATE354259T1 (ja)
CY (10) CY1106351T1 (ja)
DE (13) DE60334336D1 (ja)
DK (10) DK1406453T3 (ja)
ES (1) ES2281573T3 (ja)
GB (4) GB2406459B (ja)
HK (5) HK1073556A1 (ja)
NL (3) NL1022333C2 (ja)
PT (10) PT2003900E (ja)
SI (10) SI1406453T1 (ja)

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6499060B1 (en) * 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
ES2665693T3 (es) 2001-11-06 2018-04-26 Panasonic Intellectual Property Corporation Of America Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP2004088722A (ja) * 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
ES2745058T3 (es) 2002-04-19 2020-02-27 Panasonic Ip Corp America Método de cálculo de vectores de movimiento
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7088776B2 (en) 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US6728315B2 (en) 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7499493B2 (en) * 2003-06-20 2009-03-03 Lsi Corporation Dual block motion vector storage in compressed form
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7616692B2 (en) * 2003-09-07 2009-11-10 Microsoft Corporation Hybrid motion vector prediction for interlaced forward-predicted fields
US7623574B2 (en) * 2003-09-07 2009-11-24 Microsoft Corporation Selecting between dominant and non-dominant motion vector predictor polarities
US7620106B2 (en) * 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
US8085844B2 (en) * 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7577198B2 (en) 2003-09-07 2009-08-18 Microsoft Corporation Number of reference fields for an interlaced forward-predicted field
US7567617B2 (en) 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
FR2860678A1 (fr) * 2003-10-01 2005-04-08 Thomson Licensing Sa Procede de codage differentiel
US7400681B2 (en) * 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
CN1225128C (zh) * 2003-12-31 2005-10-26 中国科学院计算技术研究所 直接编码模式下确定参考图像块的方法
CN1321534C (zh) * 2003-12-31 2007-06-13 中国科学院计算技术研究所 固定参考帧数编码方式下获取图像参考块的方法
US8036271B2 (en) * 2004-02-24 2011-10-11 Lsi Corporation Method and apparatus for determining a second picture for temporal direct-mode block prediction
KR100584603B1 (ko) * 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
WO2006052577A2 (en) * 2004-11-04 2006-05-18 Thomson Licensing Method and apparatus for fast mode decision of b-frames in a video encoder
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
JP2006352238A (ja) * 2005-06-13 2006-12-28 Sony Corp 画像処理装置、画像処理方法及びプログラム
KR100746006B1 (ko) 2005-07-19 2007-08-06 삼성전자주식회사 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치
JP2007028393A (ja) * 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
US8498520B2 (en) * 2005-07-27 2013-07-30 Vbrick Systems, Inc. Video encoding and transmission technique for efficient, multi-speed fast forward and reverse playback
FR2891685B1 (fr) * 2005-10-03 2008-04-18 Envivio France Entpr Uniperson Procede et dispositif d'estimation de mouvement a references multiples, procede et dispositif de codage, produits programme d'ordinateur et moyens de stockage correspondants.
JP4702943B2 (ja) * 2005-10-19 2011-06-15 キヤノン株式会社 画像処理装置及びその方法
JP4879558B2 (ja) * 2005-11-02 2012-02-22 パナソニック株式会社 動きベクトル検出装置
WO2007074543A1 (ja) * 2005-12-27 2007-07-05 Sharp Kabushiki Kaisha 動画像復号装置および動画像符号化装置
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
US20070171977A1 (en) * 2006-01-25 2007-07-26 Shintaro Kudo Moving picture coding method and moving picture coding device
FR2897213A1 (fr) * 2006-02-08 2007-08-10 Thomson Licensing Sas Procede de codage par blocs d'images d'une sequence d'images video
JP4527677B2 (ja) * 2006-03-15 2010-08-18 富士通株式会社 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
JP5155157B2 (ja) * 2006-05-12 2013-02-27 パナソニック株式会社 動画像復号化装置
CA2666452C (en) * 2006-10-16 2014-12-16 Nokia Corporation System and method for implementing efficient decoded buffer management in multi-view video coding
CN101227601B (zh) * 2007-01-15 2011-09-14 飞思卡尔半导体公司 在视频再现中进行几何变换的方法和设备
WO2008153262A1 (en) * 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
US8526499B2 (en) 2007-06-15 2013-09-03 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording medium
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
CN101119493B (zh) * 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
US8681855B2 (en) * 2007-10-12 2014-03-25 Thomson Licensing Method and apparatus for video encoding and decoding geometrically partitioned bi-predictive mode partitions
US8743952B2 (en) * 2007-12-18 2014-06-03 Vixs Systems, Inc Direct mode module with motion flag precoding and methods for use therewith
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
WO2009148412A1 (en) * 2008-06-06 2009-12-10 Agency For Science, Technology And Research Methods and devices for estimating motion in a plurality of frames
JP5578775B2 (ja) 2008-09-02 2014-08-27 富士通株式会社 符号化装置および復号装置
US20110170605A1 (en) * 2008-09-24 2011-07-14 Kazushi Sato Image processing apparatus and image processing method
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
TWI405469B (zh) * 2009-02-20 2013-08-11 Sony Corp Image processing apparatus and method
CN103826126B (zh) * 2009-06-18 2017-09-29 株式会社东芝 运动图像编码装置和运动图像编码方法
HRP20231396T1 (hr) * 2009-06-18 2024-05-10 Kabushiki Kaisha Toshiba Video kodiranje
CN103826127B (zh) * 2009-06-18 2017-03-01 株式会社东芝 运动图像编码装置和运动图像编码方法
CN103888778B (zh) * 2009-06-18 2017-12-08 株式会社东芝 运动图像解码装置
US9628794B2 (en) 2009-06-18 2017-04-18 Kabushiki Kaisha Toshiba Video encoding apparatus and a video decoding apparatus
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
US9060176B2 (en) * 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
US8594200B2 (en) * 2009-11-11 2013-11-26 Mediatek Inc. Method of storing motion vector information and video decoding apparatus
WO2011070730A1 (ja) * 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
KR101348613B1 (ko) 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CN105791859B (zh) * 2010-05-26 2018-11-06 Lg电子株式会社 用于处理视频信号的方法和设备
WO2011155171A1 (ja) * 2010-06-09 2011-12-15 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2011259230A (ja) * 2010-06-09 2011-12-22 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2011259229A (ja) * 2010-06-09 2011-12-22 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
CN106454379B (zh) * 2010-09-30 2019-06-28 三菱电机株式会社 运动图像编码装置及其方法、运动图像解码装置及其方法
PL3637778T3 (pl) * 2010-10-06 2024-09-23 Ntt Docomo, Inc. Sposób dwupredykcyjnego dekodowania obrazu
KR101950419B1 (ko) * 2010-11-24 2019-02-21 벨로스 미디어 인터내셔널 리미티드 움직임 벡터 산출 방법, 화상 부호화 방법, 화상 복호 방법, 움직임 벡터 산출 장치 및 화상 부호화 복호 장치
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
WO2012073481A1 (ja) * 2010-11-29 2012-06-07 パナソニック株式会社 動画像符号化方法および動画像復号化方法
KR101831311B1 (ko) 2010-12-31 2018-02-23 한국전자통신연구원 영상 정보 부호화 방법 및 복호화 방법과 이를 이용한 장치
CN106851306B (zh) 2011-01-12 2020-08-04 太阳专利托管公司 动态图像解码方法和动态图像解码装置
CN103299630B (zh) * 2011-01-19 2016-10-19 寰发股份有限公司 获取运动矢量预测子的方法和装置
US9749657B2 (en) * 2011-01-21 2017-08-29 Sharp Kabushiki Kaisha Buffer compression for motion vector competition
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9532050B2 (en) 2011-01-25 2016-12-27 Sun Patent Trust Moving picture coding method and moving picture decoding method
ES2398095B1 (es) * 2011-01-31 2014-01-27 Universidad Politécnica De Valencia Instalación para simular las condiciones de presión y temperatura del aire aspirado por un motor de combustión interna alternativo.
KR20120095814A (ko) * 2011-02-21 2012-08-29 한밭대학교 산학협력단 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
JP6108309B2 (ja) * 2011-02-22 2017-04-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
US10171813B2 (en) 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
MX2013009864A (es) 2011-03-03 2013-10-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
US9288501B2 (en) 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
JP5563148B2 (ja) 2011-03-09 2014-07-30 株式会社東芝 動画像符号化方法及び動画像復号化方法
KR101532665B1 (ko) * 2011-03-14 2015-07-09 미디어텍 인크. 시간적 움직임 백터 예측을 도출하기 위한 방법 및 장치
EP3136727B1 (en) 2011-04-12 2018-06-13 Sun Patent Trust Motion-video coding method and motion-video coding apparatus
EP3337172B1 (en) 2011-05-24 2020-09-09 Velos Media International Limited Image encoding method, image encoding apparatus
TR201819396T4 (tr) 2011-05-27 2019-01-21 Sun Patent Trust Görüntü Kod Çözme Metodu Ve Görüntü Kod Çözme Cihazı
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
MX2013012209A (es) 2011-05-31 2013-11-01 Panasonic Corp Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
EP3849192B1 (en) 2011-06-28 2023-01-11 LG Electronics, Inc. Method for deriving a motion vector for video decoding and video encoding
JP5937594B2 (ja) 2011-06-30 2016-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法及び画像復号装置
JP2014523708A (ja) * 2011-07-01 2014-09-11 モトローラ モビリティ エルエルシー 動きベクトル予測設計の簡易化
MX2014000159A (es) 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
AU2012291454B2 (en) 2011-08-03 2016-11-17 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
WO2013057359A1 (en) * 2011-10-21 2013-04-25 Nokia Corporation Method for video coding and an apparatus
TWI569634B (zh) 2011-10-31 2017-02-01 Jvc Kenwood Corp Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program
WO2013067440A1 (en) 2011-11-04 2013-05-10 General Instrument Corporation Motion vector scaling for non-uniform motion vector grid
MX355319B (es) 2011-11-08 2018-04-16 Kt Corp Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción.
BR122015021739A2 (pt) 2011-11-08 2019-08-27 Samsung Electronics Co Ltd método para decodificar uma imagem
ES2886342T3 (es) * 2011-12-16 2021-12-17 Jvckenwood Corp Dispositivo de codificación de imagen dinámica, procedimiento de codificación de imagen dinámica, programa de codificación de imagen dinámica, dispositivo de decodificación de imagen dinámica, procedimiento de decodificación de imagen dinámica y programa de decodificación de imagen dinámica
KR102211673B1 (ko) 2011-12-16 2021-02-03 벨로스 미디어 인터내셔널 리미티드 동화상 부호화 방법, 동화상 부호화 장치, 동화상 복호 방법, 동화상 복호 장치, 및 동화상 부호화 복호장치
CN107566836B (zh) * 2011-12-23 2020-04-07 韩国电子通信研究院 图像解码方法、图像编码方法和记录介质
CN103348678B (zh) * 2012-02-07 2017-06-27 松下知识产权经营株式会社 图像处理装置以及图像处理方法
US9426463B2 (en) 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
RU2658146C9 (ru) 2012-04-12 2018-12-12 ДжейВиСи КЕНВУД КОРПОРЕЙШН Устройство декодирования движущегося изображения и способ декодирования движущегося изображения
WO2013157791A1 (ko) * 2012-04-15 2013-10-24 삼성전자 주식회사 인터 예측의 참조영상을 결정하는 방법과 그 장치
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9672584B2 (en) * 2012-09-06 2017-06-06 Imagination Technologies Limited Systems and methods of partial frame buffer updating
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
JP6032367B2 (ja) * 2013-07-16 2016-11-24 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
WO2015172348A1 (en) * 2014-05-15 2015-11-19 The Procter & Gamble Company Dentifrice compositions having dental plaque mitigation or improved fluoride uptake
RU2615677C1 (ru) * 2015-10-30 2017-04-06 Кабусики Кайся Тосиба Способ кодирования изображений и способ декодирования изображений
CN106658019B (zh) * 2015-10-31 2019-11-12 华为技术有限公司 参考帧编解码的方法与装置
CN110169059B (zh) 2017-01-13 2023-08-22 谷歌有限责任公司 视频代码化的复合预测
US10412410B2 (en) 2017-08-14 2019-09-10 Google Llc Compound motion-compensated prediction
US10284869B2 (en) 2017-09-28 2019-05-07 Google Llc Constrained motion field estimation for hardware efficiency
US10880573B2 (en) 2017-08-15 2020-12-29 Google Llc Dynamic motion vector referencing for video coding
RU2666275C1 (ru) * 2017-11-13 2018-09-06 ДжейВиСи КЕНВУД КОРПОРЕЙШН Устройство и способ кодирования движущегося изображения, долговременный считываемый компьютером носитель записи, на который записана программа кодирования изображения
US10779002B2 (en) * 2018-04-17 2020-09-15 Qualcomm Incorporated Limitation of the MVP derivation based on decoder-side motion vector derivation
CN108985279B (zh) * 2018-08-28 2020-11-03 上海仁童电子科技有限公司 多功能车辆总线mvb波形的故障诊断方法及装置
CN116866605A (zh) * 2019-01-03 2023-10-10 北京大学 视频处理方法和装置
WO2021002673A1 (ko) * 2019-07-01 2021-01-07 삼성전자 주식회사 주변 움직임 정보를 이용하여 움직임 정보를 부호화 및 복호화하는 장치, 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0420789B2 (ja) * 1982-02-12 1992-04-06 Tokyo Shibaura Electric Co

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US136461A (en) * 1873-03-04 Improvement in sash-balances
TW224553B (en) 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
SE519541C2 (sv) 1996-10-02 2003-03-11 Ericsson Telefon Ab L M Förfarande och anordning för transformering av en reell digital bredbandig bandpassignal till en uppsättning digitala basbandssignaler med I- och Q-komponenter
US6542642B2 (en) * 1996-02-29 2003-04-01 Canon Kabushiki Kaisha Image coding process and motion detecting process using bidirectional prediction
CN1297147C (zh) * 1997-03-07 2007-01-24 通用仪器公司 对交错数字视频的双向预测的视频目标平面的预测和编码
US5991447A (en) 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
KR100252342B1 (ko) 1997-08-12 2000-04-15 전주범 움직임 벡터 부호화 방법 및 그 장치
KR100257191B1 (ko) 1997-12-31 2000-05-15 구자홍 움직임 벡터 디코더
JPH11215502A (ja) 1998-01-27 1999-08-06 Sanyo Electric Co Ltd 動きベクトル検出装置及び方法
KR100280871B1 (ko) 1998-07-13 2001-03-02 김남영 커플라인과 슬릿으로 구성된 마이크로 스트립 링 공진기
DE19840735C2 (de) 1998-09-07 2001-06-07 Bosch Gmbh Robert Blockbasierte Bewegungsschätzung bei der Bewegtbildkodierung
CN1182726C (zh) * 1999-10-29 2004-12-29 皇家菲利浦电子有限公司 视频编码方法
WO2001058166A1 (en) * 2000-02-01 2001-08-09 Koninklijke Philips Electronics N.V. Video encoding with a two step motion estimation for p-frames
US6446118B1 (en) 2000-02-29 2002-09-03 Designtech International, Inc. E-mail notification device
KR100708091B1 (ko) * 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
RU2182727C2 (ru) 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
US6834293B2 (en) * 2001-06-15 2004-12-21 Hitachi, Ltd. Vector scaling system for G.728 annex G
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP2004088722A (ja) * 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
US7321626B2 (en) * 2002-03-08 2008-01-22 Sharp Laboratories Of America, Inc. System and method for predictive motion estimation using a global motion predictor
JP2004208258A (ja) 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
ES2745058T3 (es) 2002-04-19 2020-02-27 Panasonic Ip Corp America Método de cálculo de vectores de movimiento
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7515634B2 (en) * 2002-06-28 2009-04-07 Qualcomm Incorporated Computationally constrained video encoding
US7822120B2 (en) * 2002-07-26 2010-10-26 Panasonic Corporation Moving picture encoding method, moving picture decoding method, and recording medium
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7463686B2 (en) * 2002-10-16 2008-12-09 Lg Electronics Inc. Method for determining motion vector and macroblock type
DE10311497B3 (de) 2003-03-15 2004-10-07 Atlas Elektronik Gmbh Verfahren zur synthetischen Generierung von Sonardaten
US7523330B2 (en) * 2004-06-30 2009-04-21 Sun Microsystems, Inc. Thread-based clock enabling in a multi-threaded processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0420789B2 (ja) * 1982-02-12 1992-04-06 Tokyo Shibaura Electric Co

Also Published As

Publication number Publication date
US20040066848A1 (en) 2004-04-08
US20140098875A1 (en) 2014-04-10
EP2009925B1 (en) 2013-07-03
US20080031332A1 (en) 2008-02-07
PT2003900E (pt) 2010-12-29
SI1406453T1 (sl) 2007-08-31
JP4625102B2 (ja) 2011-02-02
EP1821547A2 (en) 2007-08-22
DK2003899T3 (da) 2011-01-24
US20090074067A1 (en) 2009-03-19
US20090074066A1 (en) 2009-03-19
EP2046056A2 (en) 2009-04-08
DE60335034D1 (de) 2010-12-30
JP2008182748A (ja) 2008-08-07
ATE488097T1 (de) 2010-11-15
EP2046060A2 (en) 2009-04-08
EP2015586A2 (en) 2009-01-14
GB2393873B (en) 2005-05-18
CY1111198T1 (el) 2015-06-11
EP2046060B1 (en) 2013-07-03
DK2009928T3 (da) 2011-01-24
JP2008182740A (ja) 2008-08-07
US8351505B2 (en) 2013-01-08
SI1796396T1 (sl) 2011-04-29
US8428134B2 (en) 2013-04-23
NL1029485A1 (nl) 2005-10-07
CN1269361C (zh) 2006-08-09
DE10300533A1 (de) 2004-04-15
JP2008182746A (ja) 2008-08-07
EP2046058A2 (en) 2009-04-08
DK1821547T3 (da) 2011-02-28
EP2046059A2 (en) 2009-04-08
GB2413721B (en) 2006-11-22
EP2009926A2 (en) 2008-12-31
JP2009135994A (ja) 2009-06-18
US8396128B2 (en) 2013-03-12
GB2393873A (en) 2004-04-07
NL1022333A1 (nl) 2004-04-06
US20140098874A1 (en) 2014-04-10
EP2009926A3 (en) 2009-01-21
DK1809048T3 (da) 2011-01-24
ES2281573T3 (es) 2007-10-01
CN1812585A (zh) 2006-08-02
US20080031342A1 (en) 2008-02-07
GB0300288D0 (en) 2003-02-05
EP2009925A2 (en) 2008-12-31
US8411748B2 (en) 2013-04-02
DK2003900T3 (da) 2011-01-24
EP2046057A2 (en) 2009-04-08
CY1111025T1 (el) 2015-06-11
DK2015585T3 (da) 2011-01-31
EP1603344B1 (en) 2010-11-17
US8416853B2 (en) 2013-04-09
US9042452B2 (en) 2015-05-26
JP4625100B2 (ja) 2011-02-02
US9743108B2 (en) 2017-08-22
HK1073555A1 (en) 2005-10-07
NL1022333C2 (nl) 2005-07-25
EP2046059B1 (en) 2013-07-03
US8345757B2 (en) 2013-01-01
PT1809048E (pt) 2010-12-28
EP2015585B1 (en) 2010-10-06
SI1821547T1 (sl) 2011-04-29
JP2008182743A (ja) 2008-08-07
EP2015585A3 (en) 2009-01-21
US7233621B2 (en) 2007-06-19
JP4625131B2 (ja) 2011-02-02
EP2046058A3 (en) 2009-05-06
ATE482572T1 (de) 2010-10-15
EP2009925A3 (en) 2009-01-21
DE60334330D1 (de) 2010-11-04
EP2003900A2 (en) 2008-12-17
US7643557B2 (en) 2010-01-05
US7643556B2 (en) 2010-01-05
US20130215967A1 (en) 2013-08-22
US8891624B2 (en) 2014-11-18
SI1809048T1 (sl) 2011-02-28
EP2015585A2 (en) 2009-01-14
EP2009926B1 (en) 2013-07-03
HK1095457A1 (en) 2007-05-04
JP4625101B2 (ja) 2011-02-02
DE60334505D1 (de) 2010-11-18
SI2003900T1 (sl) 2011-03-31
HK1095458A1 (en) 2007-05-04
US20090074063A1 (en) 2009-03-19
EP2046060A3 (en) 2009-05-06
CY1106351T1 (el) 2011-10-12
DE60334941D1 (de) 2010-12-23
US20080037639A1 (en) 2008-02-14
ATE488963T1 (de) 2010-12-15
DE60311720T2 (de) 2007-09-13
EP2046057B1 (en) 2013-07-03
JP4709292B2 (ja) 2011-06-22
GB2413721A (en) 2005-11-02
ATE488964T1 (de) 2010-12-15
ATE482575T1 (de) 2010-10-15
CN1812586A (zh) 2006-08-02
JP4020789B2 (ja) 2007-12-12
EP2046056B1 (en) 2013-07-03
US7634007B2 (en) 2009-12-15
EP1603344A1 (en) 2005-12-07
PT2009928E (pt) 2010-12-29
CY1111027T1 (el) 2015-06-11
EP2059054A1 (en) 2009-05-13
US20050129119A1 (en) 2005-06-16
US20090067497A1 (en) 2009-03-12
US8385417B2 (en) 2013-02-26
GB0513436D0 (en) 2005-08-10
US20090074064A1 (en) 2009-03-19
HK1073556A1 (en) 2005-10-07
SI2003899T1 (sl) 2011-02-28
CY1111026T1 (el) 2015-06-11
ATE354259T1 (de) 2007-03-15
GB0426712D0 (en) 2005-01-12
JP2008182741A (ja) 2008-08-07
DK2009927T3 (da) 2011-01-24
EP2009928B1 (en) 2010-09-22
US20090067500A1 (en) 2009-03-12
EP2046055A2 (en) 2009-04-08
US8422556B2 (en) 2013-04-16
CY1111024T1 (el) 2015-06-11
EP1809048B1 (en) 2010-09-22
KR20040031556A (ko) 2004-04-13
EP1796396B1 (en) 2010-11-17
EP2046054A3 (en) 2009-05-06
EP2046059A3 (en) 2009-05-06
EP2046055A3 (en) 2009-05-06
EP1796396A1 (en) 2007-06-13
JP2009135988A (ja) 2009-06-18
CN100473170C (zh) 2009-03-25
CN1812585B (zh) 2010-08-18
GB2406459B (en) 2005-09-28
US20050129118A1 (en) 2005-06-16
JP4625104B2 (ja) 2011-02-02
SI2015585T1 (sl) 2011-04-29
JP2009135993A (ja) 2009-06-18
CY1111539T1 (el) 2015-08-05
US20140098870A1 (en) 2014-04-10
EP2009927B1 (en) 2010-09-22
EP2046054B1 (en) 2013-07-03
CY1111023T1 (el) 2015-06-11
EP1406453B1 (en) 2007-02-14
CY1111204T1 (el) 2015-06-11
GB2406459A (en) 2005-03-30
US20090067499A1 (en) 2009-03-12
JP2008182738A (ja) 2008-08-07
EP2009927A2 (en) 2008-12-31
US9042453B2 (en) 2015-05-26
PT2009927E (pt) 2010-12-29
US20090074068A1 (en) 2009-03-19
EP1406453A1 (en) 2004-04-07
SI1603344T1 (sl) 2011-04-29
US8351506B2 (en) 2013-01-08
EP2015586A3 (en) 2009-01-21
JP4709241B2 (ja) 2011-06-22
CY1111077T1 (el) 2015-06-11
JP2009135989A (ja) 2009-06-18
DE10300533A9 (de) 2004-10-28
PT2003899E (pt) 2010-12-28
EP1821547B1 (en) 2010-11-10
JP2008182742A (ja) 2008-08-07
GB0426713D0 (en) 2005-01-12
US8351507B2 (en) 2013-01-08
US8891623B2 (en) 2014-11-18
US20090074065A1 (en) 2009-03-19
DK1796396T3 (da) 2011-03-07
EP2046056A3 (en) 2009-05-06
EP2003899A2 (en) 2008-12-17
JP2008182745A (ja) 2008-08-07
US20090074062A1 (en) 2009-03-19
NL1029486A1 (nl) 2005-10-07
JP2004129191A (ja) 2004-04-22
US9066106B2 (en) 2015-06-23
HK1082625A1 (en) 2006-06-09
PT1406453E (pt) 2007-05-31
EP2003900B1 (en) 2010-09-22
DE60311720T9 (de) 2008-02-14
DK1603344T3 (da) 2011-03-07
DE60334339D1 (de) 2010-11-04
DE20321473U1 (de) 2007-07-05
EP2046058B1 (en) 2013-07-03
US20150264394A1 (en) 2015-09-17
JP2009135992A (ja) 2009-06-18
ATE482574T1 (de) 2010-10-15
JP2008182739A (ja) 2008-08-07
US20080037644A1 (en) 2008-02-14
ATE482573T1 (de) 2010-10-15
EP2015586B1 (en) 2013-07-03
DE60311720D1 (de) 2007-03-29
EP2003899B1 (en) 2010-09-22
GB2406460B (en) 2005-10-19
US20140098871A1 (en) 2014-04-10
US20140098872A1 (en) 2014-04-10
EP2003899A3 (en) 2009-01-21
EP2046057A3 (en) 2009-05-06
DE10300533B4 (de) 2005-11-17
EP2046054A2 (en) 2009-04-08
US20090067498A1 (en) 2009-03-12
US20140098873A1 (en) 2014-04-10
US8432969B2 (en) 2013-04-30
DE60334338D1 (de) 2010-11-04
JP4625103B2 (ja) 2011-02-02
DE60335046D1 (de) 2010-12-30
US20090074069A1 (en) 2009-03-19
US8345758B2 (en) 2013-01-01
PT2015585E (pt) 2010-12-28
EP1796396B8 (en) 2011-02-02
US8638856B2 (en) 2014-01-28
JP2008182744A (ja) 2008-08-07
DE10362106B3 (de) 2011-09-22
SI2009927T1 (sl) 2011-03-31
US7627035B2 (en) 2009-12-01
GB2406460A (en) 2005-03-30
NL1029486C2 (nl) 2006-05-23
US8416854B2 (en) 2013-04-09
US9042451B2 (en) 2015-05-26
KR100506864B1 (ko) 2005-08-05
US20080037640A1 (en) 2008-02-14
EP2059054B1 (en) 2013-07-03
US20050129120A1 (en) 2005-06-16
EP2003900A3 (en) 2009-01-21
US7606307B2 (en) 2009-10-20
EP2009928A3 (en) 2009-01-21
PT1796396E (pt) 2011-02-14
JP2009135991A (ja) 2009-06-18
ATE484156T1 (de) 2010-10-15
US7558321B2 (en) 2009-07-07
NL1029485C2 (nl) 2006-05-23
US20080031341A1 (en) 2008-02-07
US20080031343A1 (en) 2008-02-07
DK1406453T3 (da) 2007-06-11
US7570691B2 (en) 2009-08-04
US8351503B2 (en) 2013-01-08
JP2008182747A (ja) 2008-08-07
EP2009928A2 (en) 2008-12-31
EP1821547A3 (en) 2007-09-05
EP2009927A3 (en) 2009-01-21
JP4709291B2 (ja) 2011-06-22
DE60334337D1 (de) 2010-11-04
ATE482571T1 (de) 2010-10-15
CN1487748A (zh) 2004-04-07
DE60334336D1 (de) 2010-11-04
JP4709242B2 (ja) 2011-06-22
EP1809048A1 (en) 2007-07-18
PT1821547E (pt) 2011-02-14
SI2009928T1 (sl) 2011-02-28
JP2006191652A (ja) 2006-07-20
US8351504B2 (en) 2013-01-08
JP4216852B2 (ja) 2009-01-28
PT1603344E (pt) 2011-02-14

Similar Documents

Publication Publication Date Title
JP4625132B2 (ja) ダイレクトモード動きベクトルの導出方法
KR20080076870A (ko) 모션벡터 결정방법
KR100494828B1 (ko) 모션벡터 결정방법
KR100883025B1 (ko) 모션벡터 결정방법
KR100985379B1 (ko) 모션벡터 결정방법
KR100985240B1 (ko) 모션벡터 결정방법
KR100890516B1 (ko) 모션벡터 결정방법
KR20080077944A (ko) 모션벡터 결정방법
KR20050067117A (ko) 모션벡터 결정방법
KR20080076872A (ko) 모션벡터 결정방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101104

R150 Certificate of patent or registration of utility model

Ref document number: 4625132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term