JP2008182739A - ダイレクトモード動きベクトルの導出方法 - Google Patents

ダイレクトモード動きベクトルの導出方法 Download PDF

Info

Publication number
JP2008182739A
JP2008182739A JP2008060950A JP2008060950A JP2008182739A JP 2008182739 A JP2008182739 A JP 2008182739A JP 2008060950 A JP2008060950 A JP 2008060950A JP 2008060950 A JP2008060950 A JP 2008060950A JP 2008182739 A JP2008182739 A JP 2008182739A
Authority
JP
Japan
Prior art keywords
list
motion vector
picture
direct mode
reference picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008060950A
Other languages
English (en)
Other versions
JP4625100B2 (ja
JP2008182739A5 (ja
Inventor
Byeong Moon Jeon
ジェオン,ビョン・ムーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2008182739A publication Critical patent/JP2008182739A/ja
Publication of JP2008182739A5 publication Critical patent/JP2008182739A5/ja
Application granted granted Critical
Publication of JP4625100B2 publication Critical patent/JP4625100B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Gyroscopes (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Color Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】双予測ピクチャの同一位置のブロックを用いた、現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法を提供する。
【解決手段】双予測ピクチャの同一位置のブロックを決定するステップと、同一位置のブロックがlist 1及びlist 0動きベクトルを有しているときは、双予測ブロックの動きベクトルを求めるための動きベクトルとして、双予測ブロックに関して同一位置のブロックのlist 0動きベクトルを選択するステップと、同一位置のブロックがlist 1動きベクトルのみを有しているときは、双予測ブロックの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して同一位置のブロックのlist 1動きベクトルを選択するステップと、同一位置のブロックの選択した動きベクトルに基づいて、双予測ピクチャのダイレクトモード動きベクトルを求めるステップと、を有する。
【選択図】図6

Description

本発明は、動画像コーディング方法に関し、特に、次世代動画像圧縮技術において定義されたB(Bi-predictive)ピクチャにおけるダイレクトモード動きベクトルの導出方法に関する。
従来のBピクチャは、順方向、逆方向、両方向、ダイレクト、そしてイントラモードといった5種類の予測モードを持っている。ここで、順方向、逆方向、両方向モードは、モード名に方向情報を内包していることから、それらのモード名により動きベクトルの方向性が把握できる。そして、特に、ダイレクトモードは、隣接した二つのピクチャの間に動きの連続性が一定に保持されるという時間的冗長性(temporal redundancy)の特性を用いて、隣接ピクチャにある同一位置のブロックが持つ動きから両方向の動きベクトル二つを誘導する。このダイレクトモードは、動き情報をデコーダに伝送しないので、ビット率を減少させることができる利点がある。
一方、H.264またはMPEG-4 part 10 のような次世代動画像圧縮技術におけるBピクチャは、自分がレファランスピクチャ(reference picture)として使用されるのを許容するため、レファランスピクチャバッファに格納されるという特徴がある。また、Bピクチャの予測モードには list 0 、 list 1、双予測、ダイレクト、そしてイントラなどの各モードがある。
ここで、list 0 モードは、従来の順方向モードに似たモードであって、動き情報であるレファランスピクチャインデックスと動きベクトル差はそれぞれ‘ref_idx_l0 ’と‘mvd_l0 ’として表示される。また、list 1モードは、従来の逆方向モードに似たモードであって、動き情報はそれぞれ‘ref_idx_l1’と‘mvd_l1’として表示される。双予測モードは二つのレファランスピクチャを有するが、二つのレファランスピクチャともBピクチャに比べて時間的に前に位置してもよく、後に位置してもよい。また、Bピクチャを中心に前、後に存在してもよい。このとき二つのレファランスピクチャインデックスと動きベクトル差はそれぞれ、‘ref_idx_l0 ’、‘ref_idx_l1’、‘mvd_l0 ’、‘mvd_l1’として表示され、各レファランスピクチャは時間的位置情報のPOC(picture order count)というデータを持っている。
そして、ダイレクトモードは動きベクトルを得るために空間的手法と時間的手法のうちいずれかが選ばれる。空間的手法は、コーディング(符号化)したいマクロブロックの周辺ブロックから list 0 および list 1 のレファランスピクチャインデックスと動きベクトルを誘導する手法である。一方、時間的手法は、従来のBピクチャにおいて使用される方法であって、ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロック(co-located block)が持っている list 0 動きベクトルをスケーリングして list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導する。ここで、ダイレクトモードの list 1 レファランスピクチャは list 1 予測のためのインデックスが0であるピクチャであり、ダイレクトモードの list 0 レファランスピクチャは、 list 1 レファランスピクチャにある同一位置のブロックが持つ list 0 レファランスピクチャを使用する。
図1の(A)から(C)は、利用可能なlist 0およびlist 1レファランスピクチャの数(または、short-term bufferの大きさ)が6のとき、IBBBPパターンにおける各Bピクチャに対する list 0 予測のためのデフォルトインデックス、 list 1 予測のためのデフォルトインデックス、およびダイレクトモードの list 1 レファランスピクチャをそれぞれ示している。ここで list 0 予測のためのデフォルトインデックスと list 1 予測のためのデフォルトインデックスは、デコーディング順序に関わらず既にデコーディングされたレファランスピクチャの出力順序(output order)、すなわちPOC値に基づいてインデックシングが行われる。図1では、全てのBピクチャが時間的に後に続くPピクチャをダイレクトモードの list 1 レファランスピクチャとして使用している。
一方、図2は、Bピクチャのみを使用するIBBBパターンにおける各Bピクチャに対する list 0 予測のためのデフォルトインデックス、 list 1 予測のためのデフォルトインデックスおよびダイレクトモードの list 1 レファランスピクチャをそれぞれ示す。図2の(A)は、コーディングするBピクチャがB8のとき、 list 1 のインデックス0を有する時間的に前に位置するB5がダイレクトモードの list 1 レファランスピクチャとなり、(B)のように次のデコーディング順序であるB7に対するダイレクトモードの list 1 レファランスピクチャは時間的に後に位置したB8となる。最後に、(C)のように次のデコーディング順序であるB9に対するダイレクトモードの list 1 レファランスピクチャは時間的に前に位置したB7となる。
要するに、図1および図2によれば、ダイレクトモードの list 1 レファランスピクチャは、コーディングしようとするBピクチャより時間的に後に位置したPまたはBピクチャにもなり得、また時間的に前に位置したBピクチャにもなり得る。
図3は、ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合、同一位置のブロックが持つことのできるモードを示している。このとき、 list 1 レファランスピクチャはPピクチャまたはBピクチャになり得るので、 list 1 レファランスピクチャの同一位置にあるブロックは一つまたは二つの動きベクトルを持つか、イントラモードを持つことになる。H.264またはMPEG-4 part 10 のような次世代動画像圧縮技術は、スライスレベルでレファランスピクチャインデックスをリオーダリング(reordering)することが許容されるので、 list 1 予測のためのインデックス0をBピクチャの直ぐ後にあるピクチャに割り当てることができる。すなわち、 list 1 レファランスピクチャがBピクチャの直ぐ後に存在することができることから、同一位置のブロックが持つ動きベクトルは前または後方向に向けられる。
さらに、図4は、ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合、同一位置のブロックが持つことのできるモードを示している。前述のように同一位置のブロックは一つまたは二つの動きベクトルを持つか、イントラモードを持つ。このとき list 1 レファランスピクチャとBピクチャとの間に異なるレファランスピクチャが存在し得ることから、動きベクトル方向は時間的に前と後に向けられる。
図3および図4に示すように、ダイレクトモードの list 1 レファランスピクチャは様々な予測モードを持つことができ、したがって、それら様々な場合に応じたダイレクトモードの動きベクトル演算方法が求められているというのが現状である。
本発明は、次世代動画像圧縮技術に定義されたBピクチャにおいてダイレクトモード動きベクトル抽出手法を提示することによって、ダイレクトモードがマクロブロックの予測モードとして選ばれる可能性を高め、Bピクチャコーディング効率(coding efficiency)を向上させることができるBピクチャのダイレクトモード動きベクトル演算方法を提供することが目的である。
本発明のダイレクトモード動きベクトルの導出方法は、双予測ピクチャの同一位置のブロックを用いた、現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法であって、双予測ピクチャの同一位置のブロックを決定するステップと、同一位置のブロックがlist 1及びlist 0動きベクトルを有しているときは、双予測ブロックの動きベクトルを求めるための動きベクトルとして、双予測ブロックに関して同一位置のブロックのlist 0動きベクトルを選択するステップと、同一位置のブロックがlist 1動きベクトルのみを有しているときは、双予測ブロックの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して前記同一位置のブロックのlist 1動きベクトルを選択するステップと、同一位置のブロックの選択した動きベクトルに基づいて、双予測ピクチャのダイレクトモード動きベクトルを求めるステップと、を有することを特徴とする。
前記の目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法は、 list 1 レファランスピクチャにある同一位置のブロックが list 0 、 list 1 動きベクトルを持っていると、ダイレクトモードの動きベクトルを誘導するために使用される動きベクトルは、二つの方法によって list 0 または list 1 動きベクトルを選んでダイレクトモードの動きベクトルを誘導する点に特徴がある。
ここで、本発明によれば、 list 0 、 list 1 動きベクトルのうち同一位置のブロックが存在する list 1 レファランスピクチャから時間的距離の短い動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選び、仮に、二つの動きベクトルが同一レファランスピクチャを指すと list 0 動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選んで、その選択された動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定する方法があり、また、時間的距離に関わらず無条件に list 0 動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選び、前記 list 0 動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定する他の方法がある。
また、本発明では、ダイレクトモードの動きベクトルは同一位置のブロックが持つ list 0 動きベクトルから誘導されるという従来手法を、 list 1 レファランスピクチャの同一位置にあるブロックが list 1 動きベクトルのみを持っている場合に適用すると、同一位置のブロックの list 0 動きベクトルは0であるためにダイレクトモードの動きベクトルはいずれも0となる問題点を解決するために、同一位置のブロックが持つモード種類に関わらず、そのブロックの持っている動きベクトルを用いてダイレクトモードの動きベクトルを誘導する。
ここで、本発明は、 list 1 レファランスピクチャにある同一位置のブロックが list 1 動きベクトルのみを持っている場合、ダイレクトモード動きベクトルを求め得る方法を提示する。1番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値を0にし、ダイレクトモードの list 0 レファランスピクチャ(list 0 reference picture for direct mode)は時間的にBピクチャの直ぐ前の位置に存在するデコーディングされたピクチャと定義することを特徴とする。2番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値は同一位置のブロックの持っている list 1 動きベクトルをそのまま利用し、その代わり、ダイレクトモードの list 0 レファランスピクチャは時間的にBピクチャの直ぐ前の位置に存在するデコーディングされたピクチャと定義することを特徴とする。3番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値は同一位置のブロックの持っている list 1 動きベクトルをそのまま利用し、 list 1 動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定することを特徴とする。
また、本発明によれば、従来の手法におけると同様にダイレクトモードの list 1 レファランスピクチャを list 1 予測に使用されるインデックスが0のピクチャと定義する場合、Bピクチャとインデックス0のピクチャとの間に他のピクチャがデコーディングされるときインデックス0のピクチャの動き情報およびレファランスピクチャ情報が保持されなければならないことから追加的なメモリ使用が必須とされているが、本発明ではダイレクトモードの list 1 レファランスピクチャを最近にデコーディングされたピクチャと定義することによって追加的なメモリ使用を節約することができる。
また、本発明は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 1 レファランスピクチャが前記Bピクチャより時間的に前に位置する場合、前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算する点が特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式によって算出される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される 。ここで、 list 1 基準フレームのフィールド1にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記 list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド1にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD、1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記 list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのダイレクトモードの list 1 レファランスピクチャの同一位置にあるマクロブロックが二つの動きベクトルを持つ場合には、一つの動きベクトル( list 0 または list 1 動きベクトル)を選び、この選ばれた動きベクトルからBピクチャのダイレクトモードの動きベクトルを誘導する。
また、前記の目的を達成する、本発明によるBピクチャのダイレクトモード動きベクトル演算方法の他の実施態様は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャとも前記Bピクチャより時間的に後に存在する場合、前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z= -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド0にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = TDB×MV0/TDD,0
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモードのための list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド0にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = -TDB×MV0/TDD,0
MVB = -(TDB + TDD,0)×MV0 /TDD,0
または、
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモード list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのダイレクトモードの list 1 レファランスピクチャの同一位置にあるブロックが二つの動きベクトルを持つ場合は、一つの動きベクトル(MV1またはMV2)を選び、この選ばれた動きベクトルからBピクチャのダイレクトモードの動きベクトルを誘導する。
また、前記目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法のさらに他の実施態様は、動画像コーディングシステムにおいてBピクチャのダイレクトモード動きベクトルを抽出する際に、ダイレクトモード動きベクトルを求めるのに使用する数式を単純化するためにピクチャ間の時間的距離を符号付きの値で表すことによって、Bピクチャのダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャの位置に関わらず前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードである場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは、現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であって、 list 1 レファランスフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,i は現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド0にある同位置のマクロブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式によって算出される。
MVF = TDB×MV0/TDD,0
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド0から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV0 は前記ダイレクトモードの list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式によって算出される。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは、現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,1は、 list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド1から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、前記の目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法のさらに他の実施態様は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードの場合には、空間的冗長性を用いて、前記Bピクチャのコーディングしようとするマクロブロックの周辺ブロックから list 0 、 list 1 レファランスピクチャと各 list に対する動きベクトルを予測し、算出し、Bピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記 list 1 レファランスピクチャを選ぶに際して、前記コーディングしようとするマクロブロックの周辺マクロブロックA、B、Cがレファランスするレファランスピクチャが異なっている場合には、最も小さいインデックスを有するレファランスピクチャを list 1 レファランスピクチャとして選ぶ。
また、本発明によれば、前記 list 1 レファランスピクチャを選ぶに際して、前記コーディングしようとするマクロブロックの周辺マクロブロックのうち二つ以上のマクロブロックがレファランスするレファランスピクチャが同一のインデックスを持っていると、そのインデックスを有するレファランスピクチャを list 1 レファランスピクチャとして選ぶ。
また、本発明によれば、前記各 list に対する動きベクトルを予測するに際して、周辺マクロブロックA、B、Cのうちイントラモードを有するマクロブロックがあれば、そのマクロブロックの list 0 と list 1 の動きベクトルをそれぞれ0と設定し、前記各 list レファランスピクチャの時間的位置と同一の方向を有する動きベクトルを周辺マクロブロックから選び、メディアン演算を通じて各 listの動きベクトルを求めるか、または、仮に周辺マクロブロックが同一の方向の動きベクトルを二つ持っていると、そのマクロブロックのうち一つのみを選んでメディアン演算に含ませて各 listの動きベクトルを求める。
また、本発明によれば、前記各 list に対する有効なレファランスピクチャインデックスをいずれも誘導できないなら、 list 0 、 list 1 のレファランスピクチャインデックスはそれぞれ0となり、各 list に対する動きベクトルは0と設定する。
以上の説明の如く、本発明によるBピクチャのダイレクトモード動きベクトル演算方法によれば、次世代動画像圧縮技術に定義されたBピクチャにおいてダイレクトモード動きベクトル抽出手法は、ダイレクトモードがマクロブロックの予測モードとして選ばれる可能性が高められるため、Bピクチャのコーディング効率を向上させることができる。
本発明は、ダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードのときにダイレクトモード動きベクトルを誘導する方法と、 list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合およびBピクチャより時間的に前に位置する場合に対してダイレクトモード動きベクトルを求める方法を提示する。
そして、ダイレクトモード動きベクトルを求めるのに使用する数式を単純化するためにピクチャ間の時間的距離を符号付きの値で表すことによって、ダイレクトモードのための list 0 、 list 1 レファランスピクチャ位置に関わらずにダイレクトモード動きベクトルを求める方法に対してそれぞれ区分して説明する。
一方、ピクチャレベルでフレームモードとフィールドモードがスイッチングされるのでBピクチャと list 1 レファランスピクチャはフレーム構造またはフィールド構造にコーディングされることができる。したがって、Bピクチャのマクロブロックと list 1 レファランスピクチャにある同位置のマクロブロックは四つの場合のフレーム/フィールドコーディング組合せを持つことになる。
[1] list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードを有する場合
図3の(F)および図4の(F)に示すように、ダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックは、レファランスピクチャの時間的位置に関わらずイントラモードを持つことができる。このようなモードを有するマクロブロックは動き情報を持っていないため、従来手法では単にダイレクトモード動きベクトルを0とし、 list 0 レファランスピクチャは最近にデコーディングされたピクチャと定義した。しかし、従来手法は高いコーディング効率が保障できなかったため、本発明ではBピクチャのコーディングしようとするマクロブロックの周辺ブロックから list 0 、 list 1 レファランスピクチャと各 list に対する動きベクトルを空間的冗長性を用いて予測し、算出する。
各 list に対するレファランスピクチャインデックスは、下記のような方法によって求める。図5は一般の空間的冗長性を考慮し、周辺ブロックA、B、Cの動きベクトルを用いてブロックEの予測動きベクトルを演算することを説明するための図である。
仮に、周辺マクロブロックA、B、Cのレファランスピクチャインデックスが異なっている場合には、その中で最も小さいレファランスピクチャインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
仮に、周辺マクロブロックのうち、二つのブロックが同一のレファランスピクチャインデックスを持っていると、そのインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
仮に、周辺マクロブロックとも同一のレファランスピクチャインデックスを持っていると、そのインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
また、各 list に対する動きベクトルは下記のような動きベクトル予測を通じて求める。このとき、周辺マクロブロックA、B、Cのうちイントラモードを有するマクロブロックがあれば、そのマクロブロックの list 0 と list 1 の動きベクトルをそれぞれ‘0’と設定する。
上で求めた各 listのレファランスピクチャの時間的位置と同一の方向を有する動きベクトルを周辺マクロブロックから選び、メディアン演算を通じて各 listの動きベクトルを求める。
仮に、周辺マクロブロックが同一方向の動きベクトルを二つ持っていると、そのマクロブロックでは一つのみを選んでメディアン演算に含ませる。
一方、仮に周辺ブロックから list 0 、 list 1に対する有効なレファランスピクチャインデックスをいずれも誘導できなかったら、 list 0 、 list 1 のレファランスピクチャインデックスはそれぞれ‘0’となり、各 list に対する動きベクトルは‘0’と設定する。
[2]ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
図3の(A)〜(H)から分かるように、 list 1 レファランスピクチャの同一位置にあるブロックは一つの動きベクトルを持つか、二つの動きベクトルを持つことができる。本発明では、同一位置のブロックが二つの動きベクトルを持つ場合には一つの動きベクトル(L0 MVまたはL1 MV)を選び、この選ばれた動きベクトルからダイレクトモードの動きベクトルを誘導する(以下では、L0 MV(list 0 動きベクトル)が選ばれた場合を基準に説明するものとする)。
したがって、図3の(A)(C)は図6の(A)と同様になり、図3の(B)(D)(E)は図6の(C)、図3の(G)(H)は図6の(B)のように単純化して表示される。
仮に、ダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図6の(A))、またはダイレクトモードの list 0、list 1 レファランスピクチャの両方ともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図6の(B))、ダイレクトモードの動きベクトルMV、MVは下記のように計算される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離を表し、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離をそれぞれ表す。
そして、前記式は下記のように表すこともできるが、これは、実際の演算に際しての便利性のためにビット演算を適用する場合を示したのである。
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在し、 list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図6の(C))、ダイレクトモードの動きベクトルMVF、MVBは、下記のように計算される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
図7では、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードの場合を示す。Bピクチャのマクロブロックの各ブロックにおける動きベクトルは同一パリティの list 1 レファランスフィールドにある同一位置の list 0 動きベクトルから誘導される。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図7の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図7の(B))には、Bフレームの各フィールドi(i=0は1番目のフィールド、i=1は2番目のフィールドを意味)に対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iが下記のように計算される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
ここで、MViは list 1 基準フレームのiにある同一位置のブロックが持つ list 0 動きベクトル、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離をそれぞれ意味する。前記式は下記のように表すことができる。
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
仮に、 list 1 基準フレームのフィールドiにある同一位置のブロックがBピクチャより時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによって、ダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図7の(C)および(D))、ダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
図8は、Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードの場合を示す。ここで、現在マクロブロックの垂直座標をycurrentとし、 list 1 レファランスピクチャの同位置のマクロブロック垂直座標をyco-locatedとすれば、両座標の間にはyco-located=2xycurrentの関係が成り立つ。そして list 0 、 list 1 レファランスフィールドはそれぞれの list 0 、 list 1 基準フレームの同一パリティに存在することになる。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図8の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図8の(B))、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは、下記のように計算される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
仮に、 list 1 基準フレームにある同一位置のブロックがBピクチャより時間的に後に存在するフレームを指す動きベクトルを持つことによってダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図8の(C))、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは、下記のように計算される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
図9は、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードの場合を示す。ここで、現在マクロブロックの垂直座標をycurrentとし、 list 1 レファランスピクチャの同位置のマクロブロック垂直座標をyco-locatedとすれば、両座標の間にはyco-located=ycurrent/2の関係が成り立つ。そして、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図9の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1ピクチャより後に存在する場合(図9の(B))、Bフレームのダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される。
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
仮に、 list 1 基準フレームのフィールド0にある同一位置のブロックがBピクチャより時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図9の(C))、ダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される。
MVF = -TDB×MV0 /TDD,0
MVB = -(TDB + TDD,0 )×MV0 /TDD,0
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモードの list 1 レファランスフレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
[3]ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合
この場合には list 0 、 list 1 レファランスピクチャのいずれもBピクチャより常に時間的に前に位置している。
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
図4に示すように、 list 1 レファランスピクチャの同一位置にあるブロックは一つの動きベクトルを持つか、二つの動きベクトルを持つことができる。本発明では、同一位置のブロックが二つの動きベクトルを持つ場合には一つの動きベクトル(L0 MVまたはL1 MV)を選び、この選ばれた動きベクトルからダイレクトモードの動きベクトルを誘導する(以下では、L0 MV( list 0 動きベクトル)が選ばれた場合を基準に説明するものとする)。
したがって、図4の(A)(C)(E)(G)(H)は図10の(A)と同様になり、図4の(B)(D)は図10の(B)のように単純化して表示される。
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、ダイレクトモードの動きベクトルMVF、MVBは下記のように計算される(図10の(A))。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
そして、前記式は下記のように表すことができる。
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの動きベクトルMVF、MVBは下記のように計算される(図10の(B))。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図11の(A)および(B))。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
前記式は、下記のように表すことができる。
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームのフィールドiにある同一位置のブロックが時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図11の(C)および(D))。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図12の(A))。
MVF,i=TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
前記式は下記のように表すことができる。
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームにある同一位置のブロックが時間的に後に存在するフレームを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図12の(B))。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
list 1 基準フレームのフィールド1(f1)がフィールド0(f0 )よりBピクチャに時間的距離が近いので、フィールド1(f1)にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される(図13の(A))。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームのフィールド1(f1)にある同一位置のブロックが時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される(図13の(B))。
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
[4] ピクチャ間の時間的距離を符号付きの値で表現してダイレクトモード動きベクトルを演算する場合
前記ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するか、または後に位置する場合、各ケースに対して2種類の数式が存在することになるので、これを単純化するための方法でピクチャ間の時間的距離を符号付きの値で表すと、下記のように単純化して表される。
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフレームモードである場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式から求めることができる。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフィールドモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であって、 list 1 レファランスフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に後に存在する場合、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。したがって、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式から求めることができる。
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,0 は list 1 基準フレームのフィールド0 と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド0から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV0 は前記ダイレクトモードの list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 レファランスピクチャが前記Bピクチャより時間的に前に存在する場合、 list 1 基準フレームのフィールド1がフィールド0よりBピクチャに時間的距離が近いので、フィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。したがって、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式から求めることができる。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド1から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
一般のIBBBPパターンにおけるダイレクトモードの list 1 レファランスピクチャを説明するための図である。 一般のIBBBパターンにおけるダイレクトモードの list 1 レファランスピクチャを説明するための図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合を示す図(L0 MV: list 0 動きベクトル、L1 MV: list 1 動きベクトル)である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合を示す図(L0 MV: list 0 動きベクトル、L1 MV: list 1 動きベクトル)である。 一般の空間的冗長性を考慮し、周辺ブロックA、B、Cの動きベクトルを用いてブロックEの予測動きベクトルを演算することを説明するための図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置するとき、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合を示す図である。 一般のダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するとき、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードである場合を示す図である。

Claims (8)

  1. 現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法であって、
    list 1レファランスピクチャにある同一位置のブロックを決定するステップと、
    前記同一位置のブロックがlist 1及びlist 0動きベクトルを有しているときは、前記双予測ブロックの動きベクトルを求めるための動きベクトルとして、双予測ブロックに関して前記同一位置のブロックのlist 0動きベクトルを選択するステップと、
    前記同一位置のブロックがlist 1動きベクトルのみを有しているときは、前記双予測ブロックの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して前記同一位置のブロックのlist 1動きベクトルを選択するステップと、
    前記同一位置のブロックの前記選択した動きベクトルに基づいて、前記双予測ピクチャのダイレクトモード動きベクトルを求めるステップと、を有するダイレクトモード動きベクトルの導出方法。
  2. 双予測ピクチャのダイレクトモード動きベクトルの導出方法であって、
    同一位置のブロックの動きベクトルのモード(list 0 モード及び/又はlist 1モード)に関わらず、ダイレクトモード動きベクトルを求めるための動きベクトルとして、ダイレクトモードのためのlist 1レファレンスピクチャの同一位置のブロックのいずれかの動きベクトルを選択するステップと、
    ダイレクトモードのためのlist 0レファレンスピクチャとして、前記選択された動きベクトルによって指し示されるレファレンスピクチャを決定するステップと、
    前記同一位置のブロックの前記選択した動きベクトルに基づいて、前記双予測ピクチャのダイレクトモード動きベクトルを求めるステップと、を有するダイレクトモード動きベクトルの導出方法。
  3. ダイレクトモードのためのlist 1レファレンスピクチャの同一位置のブロックが、list 1動きベクトルのみを有する場合には、前記ダイレクトモード動きベクトルを求めるための動きベクトルとしてlist 1動きベクトルを用いるステップと、
    前記list 1動きベクトルによって指し示されたレファレンスピクチャをダイレクトモードのためのlist 0レファレンスピクチャと決定するステップをさらに有する、請求項1に記載のダイレクトモード動きベクトルの導出方法。
  4. ダイレクトモードのためのlist 1レファレンスピクチャの同一位置のブロックが、list 1動きベクトルのみを有する場合には、前記同一位置のブロックは動き0を有すると見なすステップと、
    時間的に前記双予測ピクチャの直前に位置するデコードされたピクチャをダイレクトモードのためのlist 0レファレンスピクチャと決定するステップとをさらに有する、請求項1に記載のダイレクトモード動きベクトルの導出方法。
  5. ダイレクトモードのためのlist 1レファレンスピクチャの同一位置のブロックが、list 1動きベクトルのみを有する場合には、前記同一位置のブロックのlist 1動きベクトルを前記ダイレクトモード動きベクトルを求めるための動きベクトルと決定するステップと、
    時間的に前記双予測ピクチャの直前に位置するデコードされたピクチャをダイレクトモードのためのlist 0レファレンスピクチャと決定するステップとをさらに有する、請求項1に記載のダイレクトモード動きベクトルの導出方法。
  6. ダイレクトモードのためのlist 1レファレンスピクチャの同一位置のブロックが、2つの動きベクトルを有する場合には、前記2つの動きベクトルlist 0動きベクトル及びlist 1動きベクトルのいずれかを選択するステップをさらに有する、請求項1に記載のダイレクトモード動きベクトルの導出方法。
  7. 時間間隔に関わらず、前記ダイレクトモード動きベクトルを求めるために、動きベクトルとして、前記list 0動きベクトルを無条件に選択するステップと、
    前記list 0動きベクトルによって指し示されたレファレンスピクチャをダイレクトモードのためのlist 0レファレンスピクチャと決定するステップとをさらに有する、請求項6に記載のダイレクトモード動きベクトルの導出方法。
  8. 前記ダイレクトモード動きベクトルを求めるための動きベクトルとして、前記list 1レファレンスピクチャと時間的に近いピクチャを指し示している、list 0動きベクトル及びlist 1動きベクトルの一方を選択するステップと、
    前記2つの動きベクトルが同一のレファレンスピクチャを指し示している場合には、前記ダイレクトモード動きベクトルを求めるための動きベクトルとして、前記list 0動きベクトルを選択するステップと、
    ダイレクトモードのためのlist 0レファレンスピクチャとして、前記選択された動きベクトルによって指し示されるレファレンスピクチャを決定するステップとをさらに有する、請求項6に記載のダイレクトモード動きベクトルの導出方法。
JP2008060950A 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法 Expired - Lifetime JP4625100B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20020060742 2002-10-04
KR20020061243 2002-10-08
KR10-2002-0071226A KR100506864B1 (ko) 2002-10-04 2002-11-15 모션벡터 결정방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006011202A Division JP4216852B2 (ja) 2002-10-04 2006-01-19 ダイレクトモード動きベクトルを誘導する方法

Related Child Applications (6)

Application Number Title Priority Date Filing Date
JP2009065198A Division JP2009135994A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065104A Division JP4625132B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009064940A Division JP4625131B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065000A Division JP2009135989A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065025A Division JP4709291B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065130A Division JP4709292B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法

Publications (3)

Publication Number Publication Date
JP2008182739A true JP2008182739A (ja) 2008-08-07
JP2008182739A5 JP2008182739A5 (ja) 2009-04-30
JP4625100B2 JP4625100B2 (ja) 2011-02-02

Family

ID=35871226

Family Applications (19)

Application Number Title Priority Date Filing Date
JP2003002599A Expired - Lifetime JP4020789B2 (ja) 2002-10-04 2003-01-08 Bピクチャのダイレクトモード動きベクトル演算方法
JP2006011202A Expired - Lifetime JP4216852B2 (ja) 2002-10-04 2006-01-19 ダイレクトモード動きベクトルを誘導する方法
JP2008060935A Pending JP2008182738A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060955A Expired - Lifetime JP4625101B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061455A Pending JP2008182747A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060950A Expired - Lifetime JP4625100B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061096A Expired - Lifetime JP4625103B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061142A Expired - Lifetime JP4709242B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060987A Pending JP2008182742A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061567A Expired - Lifetime JP4625104B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061116A Expired - Lifetime JP4709241B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061152A Pending JP2008182746A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060962A Expired - Lifetime JP4625102B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2009065198A Pending JP2009135994A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065000A Pending JP2009135989A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065130A Expired - Lifetime JP4709292B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065104A Expired - Lifetime JP4625132B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065025A Expired - Lifetime JP4709291B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009064940A Expired - Lifetime JP4625131B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2003002599A Expired - Lifetime JP4020789B2 (ja) 2002-10-04 2003-01-08 Bピクチャのダイレクトモード動きベクトル演算方法
JP2006011202A Expired - Lifetime JP4216852B2 (ja) 2002-10-04 2006-01-19 ダイレクトモード動きベクトルを誘導する方法
JP2008060935A Pending JP2008182738A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060955A Expired - Lifetime JP4625101B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061455A Pending JP2008182747A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法

Family Applications After (13)

Application Number Title Priority Date Filing Date
JP2008061096A Expired - Lifetime JP4625103B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061142A Expired - Lifetime JP4709242B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060987A Pending JP2008182742A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061567A Expired - Lifetime JP4625104B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061116A Expired - Lifetime JP4709241B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008061152A Pending JP2008182746A (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2008060962A Expired - Lifetime JP4625102B2 (ja) 2002-10-04 2008-03-11 ダイレクトモード動きベクトルの導出方法
JP2009065198A Pending JP2009135994A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065000A Pending JP2009135989A (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065130A Expired - Lifetime JP4709292B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065104A Expired - Lifetime JP4625132B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009065025A Expired - Lifetime JP4709291B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法
JP2009064940A Expired - Lifetime JP4625131B2 (ja) 2002-10-04 2009-03-17 ダイレクトモード動きベクトルの導出方法

Country Status (15)

Country Link
US (31) US7233621B2 (ja)
EP (21) EP2003899B1 (ja)
JP (19) JP4020789B2 (ja)
KR (1) KR100506864B1 (ja)
CN (3) CN1269361C (ja)
AT (10) ATE354259T1 (ja)
CY (10) CY1106351T1 (ja)
DE (13) DE60334337D1 (ja)
DK (10) DK1406453T3 (ja)
ES (1) ES2281573T3 (ja)
GB (4) GB2406460B (ja)
HK (5) HK1073556A1 (ja)
NL (3) NL1022333C2 (ja)
PT (10) PT1796396E (ja)
SI (10) SI2009928T1 (ja)

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
ES2602575T3 (es) * 2001-11-06 2017-02-21 Panasonic Intellectual Property Corporation Of America Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP2004088722A (ja) 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
KR100931750B1 (ko) 2002-04-19 2009-12-14 파나소닉 주식회사 움직임 벡터 계산방법
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7088776B2 (en) 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US6728315B2 (en) 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
KR100506864B1 (ko) 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7499493B2 (en) * 2003-06-20 2009-03-03 Lsi Corporation Dual block motion vector storage in compressed form
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7623574B2 (en) * 2003-09-07 2009-11-24 Microsoft Corporation Selecting between dominant and non-dominant motion vector predictor polarities
US7616692B2 (en) * 2003-09-07 2009-11-10 Microsoft Corporation Hybrid motion vector prediction for interlaced forward-predicted fields
US8085844B2 (en) * 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
US7567617B2 (en) 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7577198B2 (en) 2003-09-07 2009-08-18 Microsoft Corporation Number of reference fields for an interlaced forward-predicted field
US7620106B2 (en) * 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
FR2860678A1 (fr) * 2003-10-01 2005-04-08 Thomson Licensing Sa Procede de codage differentiel
US7400681B2 (en) * 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
CN1225128C (zh) * 2003-12-31 2005-10-26 中国科学院计算技术研究所 直接编码模式下确定参考图像块的方法
CN1321534C (zh) * 2003-12-31 2007-06-13 中国科学院计算技术研究所 固定参考帧数编码方式下获取图像参考块的方法
US8036271B2 (en) * 2004-02-24 2011-10-11 Lsi Corporation Method and apparatus for determining a second picture for temporal direct-mode block prediction
KR100584603B1 (ko) * 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
CN101099394B (zh) * 2004-11-04 2010-08-18 汤姆森特许公司 用于视频编码器中b帧的快速模式决策的方法和装置
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
JP2006352238A (ja) * 2005-06-13 2006-12-28 Sony Corp 画像処理装置、画像処理方法及びプログラム
KR100746006B1 (ko) 2005-07-19 2007-08-06 삼성전자주식회사 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치
JP2007028393A (ja) * 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
US8498520B2 (en) * 2005-07-27 2013-07-30 Vbrick Systems, Inc. Video encoding and transmission technique for efficient, multi-speed fast forward and reverse playback
FR2891685B1 (fr) * 2005-10-03 2008-04-18 Envivio France Entpr Uniperson Procede et dispositif d'estimation de mouvement a references multiples, procede et dispositif de codage, produits programme d'ordinateur et moyens de stockage correspondants.
JP4702943B2 (ja) * 2005-10-19 2011-06-15 キヤノン株式会社 画像処理装置及びその方法
JP4879558B2 (ja) * 2005-11-02 2012-02-22 パナソニック株式会社 動きベクトル検出装置
JP5020829B2 (ja) * 2005-12-27 2012-09-05 シャープ株式会社 動画像復号装置および動画像符号化装置
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
US20070171977A1 (en) * 2006-01-25 2007-07-26 Shintaro Kudo Moving picture coding method and moving picture coding device
FR2897213A1 (fr) * 2006-02-08 2007-08-10 Thomson Licensing Sas Procede de codage par blocs d'images d'une sequence d'images video
JP4527677B2 (ja) * 2006-03-15 2010-08-18 富士通株式会社 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
WO2007132647A1 (ja) * 2006-05-12 2007-11-22 Panasonic Corporation 動画像復号化装置
BRPI0718206B1 (pt) * 2006-10-16 2020-10-27 Nokia Technologies Oy método para codificar uma pluralidade de visões de uma cena; método de codificação de uma sequência de bits de vídeo codificada e aparelho
CN101227601B (zh) * 2007-01-15 2011-09-14 飞思卡尔半导体公司 在视频再现中进行几何变换的方法和设备
KR100955396B1 (ko) * 2007-06-15 2010-04-29 성균관대학교산학협력단 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체
WO2008153262A1 (en) 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
CN101119493B (zh) * 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
EP2208350A2 (en) * 2007-10-12 2010-07-21 Thomson Licensing Methods and apparatus for video encoding and decoding geometrically partitioned bi-predictive mode partitions
US8743952B2 (en) * 2007-12-18 2014-06-03 Vixs Systems, Inc Direct mode module with motion flag precoding and methods for use therewith
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
WO2009148412A1 (en) * 2008-06-06 2009-12-10 Agency For Science, Technology And Research Methods and devices for estimating motion in a plurality of frames
JP5578775B2 (ja) 2008-09-02 2014-08-27 富士通株式会社 符号化装置および復号装置
US20110170605A1 (en) * 2008-09-24 2011-07-14 Kazushi Sato Image processing apparatus and image processing method
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
TWI405469B (zh) * 2009-02-20 2013-08-11 Sony Corp Image processing apparatus and method
CN103826127B (zh) * 2009-06-18 2017-03-01 株式会社东芝 运动图像编码装置和运动图像编码方法
CN103888778B (zh) * 2009-06-18 2017-12-08 株式会社东芝 运动图像解码装置
US9628794B2 (en) 2009-06-18 2017-04-18 Kabushiki Kaisha Toshiba Video encoding apparatus and a video decoding apparatus
CN103826126B (zh) * 2009-06-18 2017-09-29 株式会社东芝 运动图像编码装置和运动图像编码方法
MX2011013707A (es) 2009-06-18 2012-02-28 Toshiba Kk Dispositivo de codificacion de imagenes dinamicas y dispositivo de decodificacion de imagenes dinamicas.
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
US9060176B2 (en) * 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
US8594200B2 (en) * 2009-11-11 2013-11-26 Mediatek Inc. Method of storing motion vector information and video decoding apparatus
WO2011070730A1 (ja) * 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
KR101348613B1 (ko) 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
KR101752418B1 (ko) 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR102233820B1 (ko) * 2010-05-26 2021-03-29 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
JP2011259230A (ja) * 2010-06-09 2011-12-22 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム
WO2011155171A1 (ja) * 2010-06-09 2011-12-15 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2011259229A (ja) * 2010-06-09 2011-12-22 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
KR101914018B1 (ko) * 2010-09-30 2018-10-31 미쓰비시덴키 가부시키가이샤 동화상 복호 장치, 동화상 복호 방법, 동화상 부호화 장치, 동화상 부호화 방법 및 기록 매체
CN106210737B (zh) * 2010-10-06 2019-05-21 株式会社Ntt都科摩 图像预测解码装置、图像预测解码方法
US9300961B2 (en) * 2010-11-24 2016-03-29 Panasonic Intellectual Property Corporation Of America Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
WO2012073481A1 (ja) * 2010-11-29 2012-06-07 パナソニック株式会社 動画像符号化方法および動画像復号化方法
US9955155B2 (en) * 2010-12-31 2018-04-24 Electronics And Telecommunications Research Institute Method for encoding video information and method for decoding video information, and apparatus using same
CN106878742B (zh) * 2011-01-12 2020-01-07 太阳专利托管公司 动态图像编解码装置
CN107071464A (zh) * 2011-01-19 2017-08-18 寰发股份有限公司 为当前块的运动矢量导出运动矢量预测子的方法及装置
US9749657B2 (en) * 2011-01-21 2017-08-29 Sharp Kabushiki Kaisha Buffer compression for motion vector competition
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
WO2012102021A1 (ja) 2011-01-25 2012-08-02 パナソニック株式会社 動画像符号化方法および動画像復号化方法
ES2398095B1 (es) * 2011-01-31 2014-01-27 Universidad Politécnica De Valencia Instalación para simular las condiciones de presión y temperatura del aire aspirado por un motor de combustión interna alternativo.
US20130322535A1 (en) * 2011-02-21 2013-12-05 Electronics And Telecommunications Research Institute Method for encoding and decoding images using plurality of reference images and device using method
US10404998B2 (en) 2011-02-22 2019-09-03 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus
US10171813B2 (en) 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
KR101878008B1 (ko) 2011-03-03 2018-07-13 선 페이턴트 트러스트 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
US9288501B2 (en) 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
JP5563148B2 (ja) 2011-03-09 2014-07-30 株式会社東芝 動画像符号化方法及び動画像復号化方法
EP3139611A1 (en) * 2011-03-14 2017-03-08 HFI Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
ES2685945T3 (es) 2011-04-12 2018-10-15 Sun Patent Trust Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento
PL3751854T3 (pl) 2011-05-24 2023-08-28 Sun Patent Trust Sposób kodowania obrazu, urządzenie do kodowania obrazu, sposób dekodowania obrazu, urządzenie do dekodowania obrazu oraz urządzenie do kodowania/dekodowania obrazu
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
EP4007276B1 (en) 2011-05-27 2023-07-05 Sun Patent Trust Apparatus, method and program for coding moving pictures
CN103548351B (zh) 2011-05-31 2017-07-11 太阳专利托管公司 运动图像解码方法及运动图像解码装置
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
KR20120140592A (ko) 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
EP3481066B1 (en) 2011-06-28 2021-05-19 LG Electronics Inc. Method for deriving a motion vector predictor
PL2728878T3 (pl) 2011-06-30 2020-06-15 Sun Patent Trust Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów
JP2014523708A (ja) * 2011-07-01 2014-09-11 モトローラ モビリティ エルエルシー 動きベクトル予測設計の簡易化
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
EP2741499A4 (en) 2011-08-03 2014-12-10 Panasonic Ip Corp America VIDEO CODING METHOD, VIDEO CODING METHOD, VIDEO CODING DEVICE, VIDEO ENCODING DEVICE AND VIDEO ENCODING / DECODING DEVICE
IN2014CN02602A (ja) 2011-10-19 2015-08-07 Panasonic Corp
RU2577181C2 (ru) 2011-10-21 2016-03-10 Нокиа Текнолоджиз Ой Способ и устройство для кодирования видеосигналов
TWI613911B (zh) 2011-10-31 2018-02-01 Jvc Kenwood Corp 動態影像解碼裝置及動態影像解碼方法
KR101616010B1 (ko) 2011-11-04 2016-05-17 구글 테크놀로지 홀딩스 엘엘씨 비균일 움직임 벡터 그리드에 대한 움직임 벡터 스케일링
CN107396100B (zh) 2011-11-08 2020-05-05 株式会社Kt 利用解码装置对视频信号进行解码的方法
BR112014010966A2 (pt) 2011-11-08 2017-06-06 Samsung Electronics Co Ltd método para determinar vetor de movimento para previsão inter, aparelho determinador de vetor de movimento para previsão inter, e mídia de gravação legível por computador
RU2628226C2 (ru) 2011-12-16 2017-08-15 Сан Пэтент Траст Способ кодирования видеоизображений, устройство кодирования видеоизображений, способ декодирования видеоизображений, устройство декодирования видеоизображений и устройство кодирования/декодирования видеоизображений
HUE055993T2 (hu) 2011-12-16 2022-01-28 Jvc Kenwood Corp Dinamikus képkódoló készülék, dinamikus képkódoló eljárás, dinamikus képkódoló program, dinamikus képdekódoló készülék, dinamikus képdekódoló eljárás és dinamikus képdekódoló program
CN107566835B (zh) 2011-12-23 2020-02-28 韩国电子通信研究院 图像解码方法、图像编码方法和记录介质
WO2013118216A1 (ja) * 2012-02-07 2013-08-15 パナソニック株式会社 画像処理装置および画像処理方法
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9426463B2 (en) 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
PL3716621T3 (pl) 2012-04-12 2022-01-24 Jvckenwood Corporation Urządzenie do kodowania ruchomych obrazów, sposób kodowania ruchomych obrazów, program kodujący ruchome obrazy oraz urządzenie do dekodowania ruchomych obrazów, sposób dekodowania ruchomych obrazów, program dekodujący ruchome obrazy
CA2870529C (en) * 2012-04-15 2018-09-18 Tammy Lee Method and apparatus for determining reference images for inter prediction
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9672584B2 (en) * 2012-09-06 2017-06-06 Imagination Technologies Limited Systems and methods of partial frame buffer updating
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
JP6032367B2 (ja) * 2013-07-16 2016-11-24 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
WO2015172348A1 (en) * 2014-05-15 2015-11-19 The Procter & Gamble Company Dentifrice compositions having dental plaque mitigation or improved fluoride uptake
RU2615677C1 (ru) * 2015-10-30 2017-04-06 Кабусики Кайся Тосиба Способ кодирования изображений и способ декодирования изображений
CN106658019B (zh) * 2015-10-31 2019-11-12 华为技术有限公司 参考帧编解码的方法与装置
WO2018132150A1 (en) 2017-01-13 2018-07-19 Google Llc Compound prediction for video coding
US10412410B2 (en) * 2017-08-14 2019-09-10 Google Llc Compound motion-compensated prediction
US10284869B2 (en) 2017-09-28 2019-05-07 Google Llc Constrained motion field estimation for hardware efficiency
US10880573B2 (en) 2017-08-15 2020-12-29 Google Llc Dynamic motion vector referencing for video coding
RU2666275C1 (ru) * 2017-11-13 2018-09-06 ДжейВиСи КЕНВУД КОРПОРЕЙШН Устройство и способ кодирования движущегося изображения, долговременный считываемый компьютером носитель записи, на который записана программа кодирования изображения
US10779002B2 (en) * 2018-04-17 2020-09-15 Qualcomm Incorporated Limitation of the MVP derivation based on decoder-side motion vector derivation
CN108985279B (zh) * 2018-08-28 2020-11-03 上海仁童电子科技有限公司 多功能车辆总线mvb波形的故障诊断方法及装置
WO2020140242A1 (zh) * 2019-01-03 2020-07-09 北京大学 视频处理方法和装置
EP3996371A4 (en) * 2019-07-01 2023-08-02 Samsung Electronics Co., Ltd. DEVICE AND METHOD FOR CODING AND DECODING MOTION INFORMATION USING NEIGHBORING MOTION INFORMATION

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US136461A (en) * 1873-03-04 Improvement in sash-balances
JPS58138655A (ja) * 1982-02-12 1983-08-17 Toshiba Corp 文書印刷制御装置
TW224553B (en) 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
SE519541C2 (sv) 1996-10-02 2003-03-11 Ericsson Telefon Ab L M Förfarande och anordning för transformering av en reell digital bredbandig bandpassignal till en uppsättning digitala basbandssignaler med I- och Q-komponenter
US6542642B2 (en) * 1996-02-29 2003-04-01 Canon Kabushiki Kaisha Image coding process and motion detecting process using bidirectional prediction
CN1297147C (zh) * 1997-03-07 2007-01-24 通用仪器公司 对交错数字视频的双向预测的视频目标平面的预测和编码
US5991447A (en) 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
US6404813B1 (en) 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
KR100252342B1 (ko) 1997-08-12 2000-04-15 전주범 움직임 벡터 부호화 방법 및 그 장치
KR100257191B1 (ko) * 1997-12-31 2000-05-15 구자홍 움직임 벡터 디코더
JPH11215502A (ja) 1998-01-27 1999-08-06 Sanyo Electric Co Ltd 動きベクトル検出装置及び方法
KR100280871B1 (ko) 1998-07-13 2001-03-02 김남영 커플라인과 슬릿으로 구성된 마이크로 스트립 링 공진기
DE19840735C2 (de) 1998-09-07 2001-06-07 Bosch Gmbh Robert Blockbasierte Bewegungsschätzung bei der Bewegtbildkodierung
CN1182726C (zh) * 1999-10-29 2004-12-29 皇家菲利浦电子有限公司 视频编码方法
JP2003522486A (ja) * 2000-02-01 2003-07-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Pフレームに対する2ステップ動き推定を伴なうビデオ符号化
US6446118B1 (en) 2000-02-29 2002-09-03 Designtech International, Inc. E-mail notification device
KR100708091B1 (ko) * 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
RU2182727C2 (ru) 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
US6834293B2 (en) 2001-06-15 2004-12-21 Hitachi, Ltd. Vector scaling system for G.728 annex G
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP2004088722A (ja) * 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
US7321626B2 (en) * 2002-03-08 2008-01-22 Sharp Laboratories Of America, Inc. System and method for predictive motion estimation using a global motion predictor
JP2004208258A (ja) 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
KR100931750B1 (ko) * 2002-04-19 2009-12-14 파나소닉 주식회사 움직임 벡터 계산방법
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7515634B2 (en) 2002-06-28 2009-04-07 Qualcomm Incorporated Computationally constrained video encoding
WO2004012459A1 (ja) * 2002-07-26 2004-02-05 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法、動画像復号化方法および記録媒体
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7463686B2 (en) * 2002-10-16 2008-12-09 Lg Electronics Inc. Method for determining motion vector and macroblock type
DE10311497B3 (de) 2003-03-15 2004-10-07 Atlas Elektronik Gmbh Verfahren zur synthetischen Generierung von Sonardaten
US7523330B2 (en) * 2004-06-30 2009-04-21 Sun Microsystems, Inc. Thread-based clock enabling in a multi-threaded processor

Also Published As

Publication number Publication date
US8428134B2 (en) 2013-04-23
ATE482574T1 (de) 2010-10-15
US20090067500A1 (en) 2009-03-12
DK1406453T3 (da) 2007-06-11
CY1111539T1 (el) 2015-08-05
US7606307B2 (en) 2009-10-20
US20080037644A1 (en) 2008-02-14
US20090067499A1 (en) 2009-03-12
EP1406453A1 (en) 2004-04-07
EP2046057B1 (en) 2013-07-03
GB2393873A (en) 2004-04-07
DK2009928T3 (da) 2011-01-24
JP4709291B2 (ja) 2011-06-22
JP4020789B2 (ja) 2007-12-12
JP2009135994A (ja) 2009-06-18
DK2009927T3 (da) 2011-01-24
DE60311720T9 (de) 2008-02-14
GB0300288D0 (en) 2003-02-05
EP1796396A1 (en) 2007-06-13
US7634007B2 (en) 2009-12-15
US20080037640A1 (en) 2008-02-14
PT1406453E (pt) 2007-05-31
DE10300533A9 (de) 2004-10-28
GB0426713D0 (en) 2005-01-12
US8416854B2 (en) 2013-04-09
EP1809048B1 (en) 2010-09-22
EP2009925A3 (en) 2009-01-21
ATE482573T1 (de) 2010-10-15
NL1029485A1 (nl) 2005-10-07
DE10300533B4 (de) 2005-11-17
ATE488963T1 (de) 2010-12-15
US20080031332A1 (en) 2008-02-07
JP4709292B2 (ja) 2011-06-22
NL1022333C2 (nl) 2005-07-25
EP2009925B1 (en) 2013-07-03
SI2015585T1 (sl) 2011-04-29
HK1095457A1 (en) 2007-05-04
US9042453B2 (en) 2015-05-26
US7627035B2 (en) 2009-12-01
US8385417B2 (en) 2013-02-26
US8351505B2 (en) 2013-01-08
SI2003900T1 (sl) 2011-03-31
US20090067498A1 (en) 2009-03-12
KR100506864B1 (ko) 2005-08-05
EP1406453B1 (en) 2007-02-14
DK1809048T3 (da) 2011-01-24
US20040066848A1 (en) 2004-04-08
ES2281573T3 (es) 2007-10-01
EP2015586B1 (en) 2013-07-03
US8351504B2 (en) 2013-01-08
KR20040031556A (ko) 2004-04-13
US20140098871A1 (en) 2014-04-10
CY1111198T1 (el) 2015-06-11
EP2003899A3 (en) 2009-01-21
EP2009928B1 (en) 2010-09-22
EP2046057A2 (en) 2009-04-08
JP4625103B2 (ja) 2011-02-02
EP2046056A3 (en) 2009-05-06
GB2393873B (en) 2005-05-18
CY1106351T1 (el) 2011-10-12
US20090074063A1 (en) 2009-03-19
EP2009927A3 (en) 2009-01-21
HK1073555A1 (en) 2005-10-07
JP2008182743A (ja) 2008-08-07
CY1111027T1 (el) 2015-06-11
JP2008182747A (ja) 2008-08-07
US8891624B2 (en) 2014-11-18
US20080031341A1 (en) 2008-02-07
DE60334941D1 (de) 2010-12-23
CY1111026T1 (el) 2015-06-11
US20140098870A1 (en) 2014-04-10
CN1812585B (zh) 2010-08-18
PT2015585E (pt) 2010-12-28
ATE488964T1 (de) 2010-12-15
EP2046060A2 (en) 2009-04-08
JP4709241B2 (ja) 2011-06-22
US20090074069A1 (en) 2009-03-19
JP2008182746A (ja) 2008-08-07
JP2009135988A (ja) 2009-06-18
ATE488097T1 (de) 2010-11-15
CN1812586A (zh) 2006-08-02
DE60334330D1 (de) 2010-11-04
ATE482575T1 (de) 2010-10-15
DE10362106B3 (de) 2011-09-22
US20080031343A1 (en) 2008-02-07
EP2046058A2 (en) 2009-04-08
NL1029486A1 (nl) 2005-10-07
EP1603344A1 (en) 2005-12-07
EP1821547A2 (en) 2007-08-22
US8416853B2 (en) 2013-04-09
JP2008182744A (ja) 2008-08-07
CY1111077T1 (el) 2015-06-11
EP2009926A2 (en) 2008-12-31
ATE482572T1 (de) 2010-10-15
JP4625104B2 (ja) 2011-02-02
DE60311720T2 (de) 2007-09-13
US8422556B2 (en) 2013-04-16
JP2008182741A (ja) 2008-08-07
US7570691B2 (en) 2009-08-04
JP2008182742A (ja) 2008-08-07
JP2009135993A (ja) 2009-06-18
US20050129120A1 (en) 2005-06-16
US20090067497A1 (en) 2009-03-12
DK1603344T3 (da) 2011-03-07
US9042452B2 (en) 2015-05-26
US7558321B2 (en) 2009-07-07
US20090074068A1 (en) 2009-03-19
US20140098875A1 (en) 2014-04-10
CY1111023T1 (el) 2015-06-11
US8351506B2 (en) 2013-01-08
EP2009926A3 (en) 2009-01-21
CN1812585A (zh) 2006-08-02
GB2413721B (en) 2006-11-22
DK1796396T3 (da) 2011-03-07
EP2003900B1 (en) 2010-09-22
JP2009135989A (ja) 2009-06-18
JP4216852B2 (ja) 2009-01-28
US8345758B2 (en) 2013-01-01
JP2008182748A (ja) 2008-08-07
US20150264394A1 (en) 2015-09-17
EP2003900A3 (en) 2009-01-21
EP2046058B1 (en) 2013-07-03
NL1022333A1 (nl) 2004-04-06
DE60334339D1 (de) 2010-11-04
US7233621B2 (en) 2007-06-19
EP2046059B1 (en) 2013-07-03
NL1029485C2 (nl) 2006-05-23
SI2003899T1 (sl) 2011-02-28
US8411748B2 (en) 2013-04-02
EP2009927B1 (en) 2010-09-22
EP2046054B1 (en) 2013-07-03
US8351507B2 (en) 2013-01-08
US20080031342A1 (en) 2008-02-07
CN100473170C (zh) 2009-03-25
US8351503B2 (en) 2013-01-08
US8396128B2 (en) 2013-03-12
PT1821547E (pt) 2011-02-14
CN1269361C (zh) 2006-08-09
US20130215967A1 (en) 2013-08-22
NL1029486C2 (nl) 2006-05-23
EP2046059A3 (en) 2009-05-06
DE60335046D1 (de) 2010-12-30
US20050129119A1 (en) 2005-06-16
PT2003899E (pt) 2010-12-28
EP2015586A2 (en) 2009-01-14
EP2046057A3 (en) 2009-05-06
JP2006191652A (ja) 2006-07-20
SI1796396T1 (sl) 2011-04-29
EP2046055A3 (en) 2009-05-06
EP2046056B1 (en) 2013-07-03
JP4625132B2 (ja) 2011-02-02
EP2009927A2 (en) 2008-12-31
CY1111204T1 (el) 2015-06-11
ATE482571T1 (de) 2010-10-15
ATE484156T1 (de) 2010-10-15
DK2003899T3 (da) 2011-01-24
JP4625100B2 (ja) 2011-02-02
GB2413721A (en) 2005-11-02
GB2406460A (en) 2005-03-30
EP2046060A3 (en) 2009-05-06
US9743108B2 (en) 2017-08-22
US9042451B2 (en) 2015-05-26
CY1111024T1 (el) 2015-06-11
PT2009927E (pt) 2010-12-29
GB2406459A (en) 2005-03-30
HK1073556A1 (en) 2005-10-07
DK1821547T3 (da) 2011-02-28
EP2046059A2 (en) 2009-04-08
GB2406459B (en) 2005-09-28
EP2046055A2 (en) 2009-04-08
JP4709242B2 (ja) 2011-06-22
US7643556B2 (en) 2010-01-05
SI2009927T1 (sl) 2011-03-31
GB0513436D0 (en) 2005-08-10
EP2059054A1 (en) 2009-05-13
JP4625131B2 (ja) 2011-02-02
ATE354259T1 (de) 2007-03-15
EP2009928A2 (en) 2008-12-31
JP4625102B2 (ja) 2011-02-02
DK2003900T3 (da) 2011-01-24
EP1796396B8 (en) 2011-02-02
DE20321473U1 (de) 2007-07-05
SI1406453T1 (sl) 2007-08-31
US20090074066A1 (en) 2009-03-19
US20140098873A1 (en) 2014-04-10
EP2015586A3 (en) 2009-01-21
PT1603344E (pt) 2011-02-14
EP2009925A2 (en) 2008-12-31
DE10300533A1 (de) 2004-04-15
GB2406460B (en) 2005-10-19
DE60335034D1 (de) 2010-12-30
EP2003899B1 (en) 2010-09-22
JP2009135992A (ja) 2009-06-18
EP2009926B1 (en) 2013-07-03
JP2008182738A (ja) 2008-08-07
EP2015585A2 (en) 2009-01-14
US20140098874A1 (en) 2014-04-10
US20140098872A1 (en) 2014-04-10
SI1603344T1 (sl) 2011-04-29
US20090074067A1 (en) 2009-03-19
EP2046056A2 (en) 2009-04-08
JP2009135991A (ja) 2009-06-18
EP1821547A3 (en) 2007-09-05
EP1821547B1 (en) 2010-11-10
CN1487748A (zh) 2004-04-07
DE60334336D1 (de) 2010-11-04
PT2003900E (pt) 2010-12-29
EP2003900A2 (en) 2008-12-17
US8891623B2 (en) 2014-11-18
GB0426712D0 (en) 2005-01-12
US8345757B2 (en) 2013-01-01
EP2015585A3 (en) 2009-01-21
EP2046060B1 (en) 2013-07-03
US8432969B2 (en) 2013-04-30
SI2009928T1 (sl) 2011-02-28
HK1082625A1 (en) 2006-06-09
EP2009928A3 (en) 2009-01-21
EP1796396B1 (en) 2010-11-17
HK1095458A1 (en) 2007-05-04
JP4625101B2 (ja) 2011-02-02
EP1809048A1 (en) 2007-07-18
US7643557B2 (en) 2010-01-05
EP2046054A2 (en) 2009-04-08
EP2059054B1 (en) 2013-07-03
EP2015585B1 (en) 2010-10-06
US20090074065A1 (en) 2009-03-19
SI1809048T1 (sl) 2011-02-28
PT1796396E (pt) 2011-02-14
US20080037639A1 (en) 2008-02-14
DE60334505D1 (de) 2010-11-18
DE60311720D1 (de) 2007-03-29
US8638856B2 (en) 2014-01-28
US20090074064A1 (en) 2009-03-19
PT1809048E (pt) 2010-12-28
EP1603344B1 (en) 2010-11-17
EP2046054A3 (en) 2009-05-06
SI1821547T1 (sl) 2011-04-29
JP2008182740A (ja) 2008-08-07
DE60334337D1 (de) 2010-11-04
JP2008182745A (ja) 2008-08-07
US20090074062A1 (en) 2009-03-19
DK2015585T3 (da) 2011-01-31
EP2003899A2 (en) 2008-12-17
EP2046058A3 (en) 2009-05-06
PT2009928E (pt) 2010-12-29
DE60334338D1 (de) 2010-11-04
US9066106B2 (en) 2015-06-23
US20050129118A1 (en) 2005-06-16
CY1111025T1 (el) 2015-06-11
JP2004129191A (ja) 2004-04-22

Similar Documents

Publication Publication Date Title
JP4625102B2 (ja) ダイレクトモード動きベクトルの導出方法
KR20080076870A (ko) 모션벡터 결정방법
KR100494829B1 (ko) 모션벡터 결정방법
KR100985379B1 (ko) 모션벡터 결정방법
KR100985240B1 (ko) 모션벡터 결정방법
KR100890516B1 (ko) 모션벡터 결정방법
KR20080077944A (ko) 모션벡터 결정방법
KR20050067117A (ko) 모션벡터 결정방법
KR20080016910A (ko) 모션벡터 결정방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101104

R150 Certificate of patent or registration of utility model

Ref document number: 4625100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term