JP2008182742A - ダイレクトモード動きベクトルの導出方法 - Google Patents
ダイレクトモード動きベクトルの導出方法 Download PDFInfo
- Publication number
- JP2008182742A JP2008182742A JP2008060987A JP2008060987A JP2008182742A JP 2008182742 A JP2008182742 A JP 2008182742A JP 2008060987 A JP2008060987 A JP 2008060987A JP 2008060987 A JP2008060987 A JP 2008060987A JP 2008182742 A JP2008182742 A JP 2008182742A
- Authority
- JP
- Japan
- Prior art keywords
- list
- picture
- motion vector
- direct mode
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
Abstract
【課題】現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法を提供する。
【解決手段】双予測画像の同一位置にあるブロックを用いた、双予測ピクチャのダイレクトモード動きベクトルの導出方法であって、双予測画像の同一位置にあるブロックのlist 0動きベクトルを決定するステップと、同一位置にあるブロックがlist 1及びlist 0動きベクトルを有しているときは、双予測ピクチャの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して同一位置にあるブロックのlist 0動きベクトルを選択するステップと、を有し、双予測ブロックのダイレクトモード動きベクトルを求めるステップは、双予測ピクチャのダイレクトモード動きベクトルにビット演算を行なうステップをさらに有することを特徴とする。
【選択図】図6
【解決手段】双予測画像の同一位置にあるブロックを用いた、双予測ピクチャのダイレクトモード動きベクトルの導出方法であって、双予測画像の同一位置にあるブロックのlist 0動きベクトルを決定するステップと、同一位置にあるブロックがlist 1及びlist 0動きベクトルを有しているときは、双予測ピクチャの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して同一位置にあるブロックのlist 0動きベクトルを選択するステップと、を有し、双予測ブロックのダイレクトモード動きベクトルを求めるステップは、双予測ピクチャのダイレクトモード動きベクトルにビット演算を行なうステップをさらに有することを特徴とする。
【選択図】図6
Description
本発明は、動画像コーディング方法に関し、特に、次世代動画像圧縮技術において定義されたB(Bi-predictive)ピクチャにおけるダイレクトモード動きベクトルの導出方法に関する。
従来のBピクチャは、順方向、逆方向、両方向、ダイレクト、そしてイントラモードといった5種類の予測モードを持っている。ここで、順方向、逆方向、両方向モードは、モード名に方向情報を内包していることから、それらのモード名により動きベクトルの方向性が把握できる。そして、特に、ダイレクトモードは、隣接した二つのピクチャの間に動きの連続性が一定に保持されるという時間的冗長性(temporal redundancy)の特性を用いて、隣接ピクチャにある同一位置のブロックが持つ動きから両方向の動きベクトル二つを誘導する。このダイレクトモードは、動き情報をデコーダに伝送しないので、ビット率を減少させることができる利点がある。
一方、H.264またはMPEG-4 part 10 のような次世代動画像圧縮技術におけるBピクチャは、自分がレファランスピクチャ(reference picture)として使用されるのを許容するため、レファランスピクチャバッファに格納されるという特徴がある。また、Bピクチャの予測モードには list 0 、 list 1、双予測、ダイレクト、そしてイントラなどの各モードがある。
ここで、list 0 モードは、従来の順方向モードに似たモードであって、動き情報であるレファランスピクチャインデックスと動きベクトル差はそれぞれ‘ref_idx_l0 ’と‘mvd_l0 ’として表示される。また、list 1モードは、従来の逆方向モードに似たモードであって、動き情報はそれぞれ‘ref_idx_l1’と‘mvd_l1’として表示される。双予測モードは二つのレファランスピクチャを有するが、二つのレファランスピクチャともBピクチャに比べて時間的に前に位置してもよく、後に位置してもよい。また、Bピクチャを中心に前、後に存在してもよい。このとき二つのレファランスピクチャインデックスと動きベクトル差はそれぞれ、‘ref_idx_l0 ’、‘ref_idx_l1’、‘mvd_l0 ’、‘mvd_l1’として表示され、各レファランスピクチャは時間的位置情報のPOC(picture order count)というデータを持っている。
そして、ダイレクトモードは動きベクトルを得るために空間的手法と時間的手法のうちいずれかが選ばれる。空間的手法は、コーディング(符号化)したいマクロブロックの周辺ブロックから list 0 および list 1 のレファランスピクチャインデックスと動きベクトルを誘導する手法である。一方、時間的手法は、従来のBピクチャにおいて使用される方法であって、ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロック(co-located block)が持っている list 0 動きベクトルをスケーリングして list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導する。ここで、ダイレクトモードの list 1 レファランスピクチャは list 1 予測のためのインデックスが0であるピクチャであり、ダイレクトモードの list 0 レファランスピクチャは、 list 1 レファランスピクチャにある同一位置のブロックが持つ list 0 レファランスピクチャを使用する。
図1の(A)から(C)は、利用可能なlist 0およびlist 1レファランスピクチャの数(または、short-term bufferの大きさ)が6のとき、IBBBPパターンにおける各Bピクチャに対する list 0 予測のためのデフォルトインデックス、 list 1 予測のためのデフォルトインデックス、およびダイレクトモードの list 1 レファランスピクチャをそれぞれ示している。ここで list 0 予測のためのデフォルトインデックスと list 1 予測のためのデフォルトインデックスは、デコーディング順序に関わらず既にデコーディングされたレファランスピクチャの出力順序(output order)、すなわちPOC値に基づいてインデックシングが行われる。図1では、全てのBピクチャが時間的に後に続くPピクチャをダイレクトモードの list 1 レファランスピクチャとして使用している。
一方、図2は、Bピクチャのみを使用するIBBBパターンにおける各Bピクチャに対する list 0 予測のためのデフォルトインデックス、 list 1 予測のためのデフォルトインデックスおよびダイレクトモードの list 1 レファランスピクチャをそれぞれ示す。図2の(A)は、コーディングするBピクチャがB8のとき、 list 1 のインデックス0を有する時間的に前に位置するB5がダイレクトモードの list 1 レファランスピクチャとなり、(B)のように次のデコーディング順序であるB7に対するダイレクトモードの list 1 レファランスピクチャは時間的に後に位置したB8となる。最後に、(C)のように次のデコーディング順序であるB9に対するダイレクトモードの list 1 レファランスピクチャは時間的に前に位置したB7となる。
要するに、図1および図2によれば、ダイレクトモードの list 1 レファランスピクチャは、コーディングしようとするBピクチャより時間的に後に位置したPまたはBピクチャにもなり得、また時間的に前に位置したBピクチャにもなり得る。
図3は、ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合、同一位置のブロックが持つことのできるモードを示している。このとき、 list 1 レファランスピクチャはPピクチャまたはBピクチャになり得るので、 list 1 レファランスピクチャの同一位置にあるブロックは一つまたは二つの動きベクトルを持つか、イントラモードを持つことになる。H.264またはMPEG-4 part 10 のような次世代動画像圧縮技術は、スライスレベルでレファランスピクチャインデックスをリオーダリング(reordering)することが許容されるので、 list 1 予測のためのインデックス0をBピクチャの直ぐ後にあるピクチャに割り当てることができる。すなわち、 list 1 レファランスピクチャがBピクチャの直ぐ後に存在することができることから、同一位置のブロックが持つ動きベクトルは前または後方向に向けられる。
さらに、図4は、ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合、同一位置のブロックが持つことのできるモードを示している。前述のように同一位置のブロックは一つまたは二つの動きベクトルを持つか、イントラモードを持つ。このとき list 1 レファランスピクチャとBピクチャとの間に異なるレファランスピクチャが存在し得ることから、動きベクトル方向は時間的に前と後に向けられる。
図3および図4に示すように、ダイレクトモードの list 1 レファランスピクチャは様々な予測モードを持つことができ、したがって、それら様々な場合に応じたダイレクトモードの動きベクトル演算方法が求められているというのが現状である。
本発明は、次世代動画像圧縮技術に定義されたBピクチャにおいてダイレクトモード動きベクトル抽出手法を提示することによって、ダイレクトモードがマクロブロックの予測モードとして選ばれる可能性を高め、Bピクチャコーディング効率(coding efficiency)を向上させることができるBピクチャのダイレクトモード動きベクトル演算方法を提供することが目的である。
本発明のダイレクトモード動きベクトルの導出方法は、双予測画像の同一位置にあるブロックを用いた、双予測ピクチャのダイレクトモード動きベクトルの導出方法であって、双予測画像の同一位置にあるブロックのlist 0動きベクトルを決定するステップと、同一位置にあるブロックがlist 1及びlist 0動きベクトルを有しているときは、双予測ピクチャの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して同一位置にあるブロックのlist 0動きベクトルを選択するステップと、を有し、双予測ブロックのダイレクトモード動きベクトルを求めるステップは、双予測ピクチャの前記ダイレクトモード動きベクトルにビット演算を行なうステップをさらに有することを特徴とする。
本発明のダイレクトモード動きベクトルの導出方法は、双予測画像の同一位置にあるブロックを用いた、現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法であって、双予測画像の同一位置にあるブロックのlist 0動きベクトルを決定するステップと、同一位置にあるブロックがlist 1動きベクトルのみを有しているときは、双予測ピクチャの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して同一位置にあるブロックのlist 1動きベクトルを選択するステップと、同一位置にあるブロックの選択された動きベクトルに基づいて、双予測ピクチャのダイレクトモード動きベクトルを求めるステップと、双予測ブロックの前記ダイレクトモード動きベクトルにビット演算を行なうステップをさらに有することを特徴とする。
本発明のダイレクトモード動きベクトルの導出方法は、双予測ピクチャにおける位置と同一位置にあるブロックを用いた、現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法であって、双予測ピクチャにおける位置と同一位置にあるブロックのlist 0動きベクトルを決定するステップと、同一位置にあるブロックがlist 1及びlist 0動きベクトルを有しているときは、双予測ピクチャの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して同一位置にあるブロックのlist 0動きベクトルを選択するステップと、同一位置にあるブロックがlist 1動きベクトルのみを有しているときは、双予測ブロックの動きベクトルを求めるための動きベクトルとして、双予測ブロックに関して同一位置にあるブロックのlist 1動きベクトルを選択するステップと、現在のピクチャと第1レファランスピクチャとの間の第1の時間間隔を求めるステップと、第1レファランスピクチャと第2レファランスピクチャとの間の第2の時間間隔を求めるステップと、第1及び第2の時間間隔に基づいて、レファランスピクチャの同一位置にあるブロックの選択された動きベクトルをスケーリングするステップと、同一位置にあるブロックの選択された動きベクトルに基づいて、双予測ピクチャのダイレクトモード動きベクトルを求めるステップと、を有することを特徴とする。
本発明のダイレクトモード動きベクトルの導出方法は、現在のピクチャの双予測ブロックのダイレクトモード動きベクトルの導出方法であって、list 0 及びlist 1動きベクトルの両方を有する、双予測ピクチャの同一位置にあるブロックのlist 0動きベクトルを決定するステップと、同一位置にあるブロックのlist 0及びlist 1動きベクトルからlist 0動きベクトルを選択するステップと、現在のピクチャと第1レファランスピクチャとの差分から、第1の時間間隔を求めるステップと、第1レファランスピクチャと第2レファランスピクチャとの差分から、第2の時間間隔を求めるステップと、第1及び第2の時間間隔に基づいて、レファランスピクチャの同一位置にあるブロックのlist 0動きベクトルをスケーリングするステップと、同一位置にあるブロックのスケーリングされた動きベクトルに基づいて、双予測ブロックの動きベクトルを求めるステップと、を有することを特徴とする。
前記の目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法は、 list 1 レファランスピクチャにある同一位置のブロックが list 0 、 list 1 動きベクトルを持っていると、ダイレクトモードの動きベクトルを誘導するために使用される動きベクトルは、二つの方法によって list 0 または list 1 動きベクトルを選んでダイレクトモードの動きベクトルを誘導する点に特徴がある。
ここで、本発明によれば、 list 0 、 list 1 動きベクトルのうち同一位置のブロックが存在する list 1 レファランスピクチャから時間的距離の短い動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選び、仮に、二つの動きベクトルが同一レファランスピクチャを指すと list 0 動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選んで、その選択された動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定する方法があり、また、時間的距離に関わらず無条件に list 0 動きベクトルをダイレクトモードの動きベクトルを誘導する動きベクトルとして選び、前記 list 0 動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定する他の方法がある。
また、本発明では、ダイレクトモードの動きベクトルは同一位置のブロックが持つ list 0 動きベクトルから誘導されるという従来手法を、 list 1 レファランスピクチャの同一位置にあるブロックが list 1 動きベクトルのみを持っている場合に適用すると、同一位置のブロックの list 0 動きベクトルは0であるためにダイレクトモードの動きベクトルはいずれも0となる問題点を解決するために、同一位置のブロックが持つモード種類に関わらず、そのブロックの持っている動きベクトルを用いてダイレクトモードの動きベクトルを誘導する。
ここで、本発明は、 list 1 レファランスピクチャにある同一位置のブロックが list 1 動きベクトルのみを持っている場合、ダイレクトモード動きベクトルを求め得る方法を提示する。1番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値を0にし、ダイレクトモードの list 0 レファランスピクチャ(list 0 reference picture for direct mode)は時間的にBピクチャの直ぐ前の位置に存在するデコーディングされたピクチャと定義することを特徴とする。2番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値は同一位置のブロックの持っている list 1 動きベクトルをそのまま利用し、その代わり、ダイレクトモードの list 0 レファランスピクチャは時間的にBピクチャの直ぐ前の位置に存在するデコーディングされたピクチャと定義することを特徴とする。3番目の方法は、ダイレクトモード動きベクトル計算に使用される動きベクトル値は同一位置のブロックの持っている list 1 動きベクトルをそのまま利用し、 list 1 動きベクトルの指しているレファランスピクチャをダイレクトモードの list 0 レファランスピクチャと決定することを特徴とする。
また、本発明によれば、従来の手法におけると同様にダイレクトモードの list 1 レファランスピクチャを list 1 予測に使用されるインデックスが0のピクチャと定義する場合、Bピクチャとインデックス0のピクチャとの間に他のピクチャがデコーディングされるときインデックス0のピクチャの動き情報およびレファランスピクチャ情報が保持されなければならないことから追加的なメモリ使用が必須とされているが、本発明ではダイレクトモードの list 1 レファランスピクチャを最近にデコーディングされたピクチャと定義することによって追加的なメモリ使用を節約することができる。
また、本発明は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 1 レファランスピクチャが前記Bピクチャより時間的に前に位置する場合、前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算する点が特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式によって算出される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される 。ここで、 list 1 基準フレームのフィールド1にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される 。ここで、 list 1 基準フレームのフィールド1にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記 list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド1にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD、1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記 list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのダイレクトモードの list 1 レファランスピクチャの同一位置にあるマクロブロックが二つの動きベクトルを持つ場合には、一つの動きベクトル( list 0 または list 1 動きベクトル)を選び、この選ばれた動きベクトルからBピクチャのダイレクトモードの動きベクトルを誘導する。
また、前記の目的を達成する、本発明によるBピクチャのダイレクトモード動きベクトル演算方法の他の実施態様は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャとも前記Bピクチャより時間的に後に存在する場合、前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z= -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、
Z= -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド0にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = TDB×MV0/TDD,0
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモードのための list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、前記Bピクチャのダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャに比べて時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。ここで、 list 1 基準フレームのフィールド0にある同一位置のブロックの持つ動き情報が、ダイレクトモードの動きベクトルを求めるのに使用される。
MVF = -TDB×MV0/TDD,0
MVB = -(TDB + TDD,0)×MV0 /TDD,0
または、
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
MVF = -TDB×MV0/TDD,0
MVB = -(TDB + TDD,0)×MV0 /TDD,0
または、
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモード list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのダイレクトモードの list 1 レファランスピクチャの同一位置にあるブロックが二つの動きベクトルを持つ場合は、一つの動きベクトル(MV1またはMV2)を選び、この選ばれた動きベクトルからBピクチャのダイレクトモードの動きベクトルを誘導する。
また、前記目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法のさらに他の実施態様は、動画像コーディングシステムにおいてBピクチャのダイレクトモード動きベクトルを抽出する際に、ダイレクトモード動きベクトルを求めるのに使用する数式を単純化するためにピクチャ間の時間的距離を符号付きの値で表すことによって、Bピクチャのダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャの位置に関わらず前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルをスケーリングし、 list 0 動きベクトル(MVF)と list 1 動きベクトル(MVB)を誘導してBピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフレームモードである場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは、下記の式によって算出される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは、現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックともフィールドモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であって、 list 1 レファランスフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは、下記の式によって算出される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,i は現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に後に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド0にある同位置のマクロブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式によって算出される。
MVF = TDB×MV0/TDD,0
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
MVF = TDB×MV0/TDD,0
MVB = (TDB - TDD,0)×MV0/TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド0から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV0 は前記ダイレクトモードの list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
また、本発明によれば、前記Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に前に存在する場合、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式によって算出される。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは、現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,1は、 list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド1から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
また、前記の目的を達成する本発明によるBピクチャのダイレクトモード動きベクトル演算方法のさらに他の実施態様は、動画像コーディングシステムでBピクチャのダイレクトモード動きベクトルを抽出する際に、Bピクチャのダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードの場合には、空間的冗長性を用いて、前記Bピクチャのコーディングしようとするマクロブロックの周辺ブロックから list 0 、 list 1 レファランスピクチャと各 list に対する動きベクトルを予測し、算出し、Bピクチャのダイレクトモード動きベクトルを演算することが特徴である。
ここで、本発明によれば、前記 list 1 レファランスピクチャを選ぶに際して、前記コーディングしようとするマクロブロックの周辺マクロブロックA、B、Cがレファランスするレファランスピクチャが異なっている場合には、最も小さいインデックスを有するレファランスピクチャを list 1 レファランスピクチャとして選ぶ。
また、本発明によれば、前記 list 1 レファランスピクチャを選ぶに際して、前記コーディングしようとするマクロブロックの周辺マクロブロックのうち二つ以上のマクロブロックがレファランスするレファランスピクチャが同一のインデックスを持っていると、そのインデックスを有するレファランスピクチャを list 1 レファランスピクチャとして選ぶ。
また、本発明によれば、前記各 list に対する動きベクトルを予測するに際して、周辺マクロブロックA、B、Cのうちイントラモードを有するマクロブロックがあれば、そのマクロブロックの list 0 と list 1 の動きベクトルをそれぞれ0と設定し、前記各 list レファランスピクチャの時間的位置と同一の方向を有する動きベクトルを周辺マクロブロックから選び、メディアン演算を通じて各 listの動きベクトルを求めるか、または、仮に周辺マクロブロックが同一の方向の動きベクトルを二つ持っていると、そのマクロブロックのうち一つのみを選んでメディアン演算に含ませて各 listの動きベクトルを求める。
また、本発明によれば、前記各 list に対する有効なレファランスピクチャインデックスをいずれも誘導できないなら、 list 0 、 list 1 のレファランスピクチャインデックスはそれぞれ0となり、各 list に対する動きベクトルは0と設定する。
以上の説明の如く、本発明によるBピクチャのダイレクトモード動きベクトル演算方法によれば、次世代動画像圧縮技術に定義されたBピクチャにおいてダイレクトモード動きベクトル抽出手法は、ダイレクトモードがマクロブロックの予測モードとして選ばれる可能性が高められるため、Bピクチャのコーディング効率を向上させることができる。
本発明は、ダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードのときにダイレクトモード動きベクトルを誘導する方法と、 list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合およびBピクチャより時間的に前に位置する場合に対してダイレクトモード動きベクトルを求める方法を提示する。
そして、ダイレクトモード動きベクトルを求めるのに使用する数式を単純化するためにピクチャ間の時間的距離を符号付きの値で表すことによって、ダイレクトモードのための list 0 、 list 1 レファランスピクチャ位置に関わらずにダイレクトモード動きベクトルを求める方法に対してそれぞれ区分して説明する。
一方、ピクチャレベルでフレームモードとフィールドモードがスイッチングされるのでBピクチャと list 1 レファランスピクチャはフレーム構造またはフィールド構造にコーディングされることができる。したがって、Bピクチャのマクロブロックと list 1 レファランスピクチャにある同位置のマクロブロックは四つの場合のフレーム/フィールドコーディング組合せを持つことになる。
[1] list 1 レファランスピクチャにある同位置のマクロブロックがイントラモードを有する場合
図3の(F)および図4の(F)に示すように、ダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックは、レファランスピクチャの時間的位置に関わらずイントラモードを持つことができる。このようなモードを有するマクロブロックは動き情報を持っていないため、従来手法では単にダイレクトモード動きベクトルを0とし、 list 0 レファランスピクチャは最近にデコーディングされたピクチャと定義した。しかし、従来手法は高いコーディング効率が保障できなかったため、本発明ではBピクチャのコーディングしようとするマクロブロックの周辺ブロックから list 0 、 list 1 レファランスピクチャと各 list に対する動きベクトルを空間的冗長性を用いて予測し、算出する。
図3の(F)および図4の(F)に示すように、ダイレクトモードの list 1 レファランスピクチャにある同位置のマクロブロックは、レファランスピクチャの時間的位置に関わらずイントラモードを持つことができる。このようなモードを有するマクロブロックは動き情報を持っていないため、従来手法では単にダイレクトモード動きベクトルを0とし、 list 0 レファランスピクチャは最近にデコーディングされたピクチャと定義した。しかし、従来手法は高いコーディング効率が保障できなかったため、本発明ではBピクチャのコーディングしようとするマクロブロックの周辺ブロックから list 0 、 list 1 レファランスピクチャと各 list に対する動きベクトルを空間的冗長性を用いて予測し、算出する。
各 list に対するレファランスピクチャインデックスは、下記のような方法によって求める。図5は一般の空間的冗長性を考慮し、周辺ブロックA、B、Cの動きベクトルを用いてブロックEの予測動きベクトルを演算することを説明するための図である。
仮に、周辺マクロブロックA、B、Cのレファランスピクチャインデックスが異なっている場合には、その中で最も小さいレファランスピクチャインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
仮に、周辺マクロブロックのうち、二つのブロックが同一のレファランスピクチャインデックスを持っていると、そのインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
仮に、周辺マクロブロックとも同一のレファランスピクチャインデックスを持っていると、そのインデックスがダイレクトモードのレファランスピクチャインデックスとして決定される。
また、各 list に対する動きベクトルは下記のような動きベクトル予測を通じて求める。このとき、周辺マクロブロックA、B、Cのうちイントラモードを有するマクロブロックがあれば、そのマクロブロックの list 0 と list 1 の動きベクトルをそれぞれ‘0’と設定する。
上で求めた各 listのレファランスピクチャの時間的位置と同一の方向を有する動きベクトルを周辺マクロブロックから選び、メディアン演算を通じて各 listの動きベクトルを求める。
仮に、周辺マクロブロックが同一方向の動きベクトルを二つ持っていると、そのマクロブロックでは一つのみを選んでメディアン演算に含ませる。
一方、仮に周辺ブロックから list 0 、 list 1に対する有効なレファランスピクチャインデックスをいずれも誘導できなかったら、 list 0 、 list 1 のレファランスピクチャインデックスはそれぞれ‘0’となり、各 list に対する動きベクトルは‘0’と設定する。
[2]ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に後に位置する場合
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
図3の(A)〜(H)から分かるように、 list 1 レファランスピクチャの同一位置にあるブロックは一つの動きベクトルを持つか、二つの動きベクトルを持つことができる。本発明では、同一位置のブロックが二つの動きベクトルを持つ場合には一つの動きベクトル(L0 MVまたはL1 MV)を選び、この選ばれた動きベクトルからダイレクトモードの動きベクトルを誘導する(以下では、L0 MV(list 0 動きベクトル)が選ばれた場合を基準に説明するものとする)。
したがって、図3の(A)(C)は図6の(A)と同様になり、図3の(B)(D)(E)は図6の(C)、図3の(G)(H)は図6の(B)のように単純化して表示される。
仮に、ダイレクトモードの list 0 レファランスピクチャと list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図6の(A))、またはダイレクトモードの list 0、list 1 レファランスピクチャの両方ともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図6の(B))、ダイレクトモードの動きベクトルMV、MVは下記のように計算される。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離を表し、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離をそれぞれ表す。
そして、前記式は下記のように表すこともできるが、これは、実際の演算に際しての便利性のためにビット演算を適用する場合を示したのである。
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在し、 list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図6の(C))、ダイレクトモードの動きベクトルMVF、MVBは、下記のように計算される。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
図7では、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードの場合を示す。Bピクチャのマクロブロックの各ブロックにおける動きベクトルは同一パリティの list 1 レファランスフィールドにある同一位置の list 0 動きベクトルから誘導される。
図7では、Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードの場合を示す。Bピクチャのマクロブロックの各ブロックにおける動きベクトルは同一パリティの list 1 レファランスフィールドにある同一位置の list 0 動きベクトルから誘導される。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図7の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図7の(B))には、Bフレームの各フィールドi(i=0は1番目のフィールド、i=1は2番目のフィールドを意味)に対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iが下記のように計算される。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
ここで、MViは list 1 基準フレームのiにある同一位置のブロックが持つ list 0 動きベクトル、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離をそれぞれ意味する。前記式は下記のように表すことができる。
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
仮に、 list 1 基準フレームのフィールドiにある同一位置のブロックがBピクチャより時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによって、ダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図7の(C)および(D))、ダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
図8は、Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードの場合を示す。ここで、現在マクロブロックの垂直座標をycurrentとし、 list 1 レファランスピクチャの同位置のマクロブロック垂直座標をyco-locatedとすれば、両座標の間にはyco-located=2xycurrentの関係が成り立つ。そして list 0 、 list 1 レファランスフィールドはそれぞれの list 0 、 list 1 基準フレームの同一パリティに存在することになる。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図8の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャともBピクチャより時間的に後に存在して list 0 レファランスピクチャが list 1 レファランスピクチャより後に存在する場合(図8の(B))、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは、下記のように計算される。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
仮に、 list 1 基準フレームにある同一位置のブロックがBピクチャより時間的に後に存在するフレームを指す動きベクトルを持つことによってダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図8の(C))、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは、下記のように計算される。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
図9は、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードの場合を示す。ここで、現在マクロブロックの垂直座標をycurrentとし、 list 1 レファランスピクチャの同位置のマクロブロック垂直座標をyco-locatedとすれば、両座標の間にはyco-located=ycurrent/2の関係が成り立つ。そして、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
図9は、Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードの場合を示す。ここで、現在マクロブロックの垂直座標をycurrentとし、 list 1 レファランスピクチャの同位置のマクロブロック垂直座標をyco-locatedとすれば、両座標の間にはyco-located=ycurrent/2の関係が成り立つ。そして、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
仮に、ダイレクトモードの list 0 、 list 1 レファランスピクチャがBピクチャを中心に時間的に前、後に存在する場合(図9の(A))、またはダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1ピクチャより後に存在する場合(図9の(B))、Bフレームのダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される。
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
仮に、 list 1 基準フレームのフィールド0にある同一位置のブロックがBピクチャより時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 、 list 1 レファランスピクチャのいずれもBピクチャより時間的に後に存在しながら list 0 レファランスピクチャが list 1 レファランスピクチャより前に存在する場合(図9の(C))、ダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される。
MVF = -TDB×MV0 /TDD,0
MVB = -(TDB + TDD,0 )×MV0 /TDD,0
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
MVF = -TDB×MV0 /TDD,0
MVB = -(TDB + TDD,0 )×MV0 /TDD,0
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,0 は list 1 基準フレームのフィールド0と list 0 レファランスフィールドとの間の時間的距離であり、MV0 は前記ダイレクトモードの list 1 レファランスフレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
[3]ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置する場合
この場合には list 0 、 list 1 レファランスピクチャのいずれもBピクチャより常に時間的に前に位置している。
この場合には list 0 、 list 1 レファランスピクチャのいずれもBピクチャより常に時間的に前に位置している。
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
図4に示すように、 list 1 レファランスピクチャの同一位置にあるブロックは一つの動きベクトルを持つか、二つの動きベクトルを持つことができる。本発明では、同一位置のブロックが二つの動きベクトルを持つ場合には一つの動きベクトル(L0 MVまたはL1 MV)を選び、この選ばれた動きベクトルからダイレクトモードの動きベクトルを誘導する(以下では、L0 MV( list 0 動きベクトル)が選ばれた場合を基準に説明するものとする)。
図4に示すように、 list 1 レファランスピクチャの同一位置にあるブロックは一つの動きベクトルを持つか、二つの動きベクトルを持つことができる。本発明では、同一位置のブロックが二つの動きベクトルを持つ場合には一つの動きベクトル(L0 MVまたはL1 MV)を選び、この選ばれた動きベクトルからダイレクトモードの動きベクトルを誘導する(以下では、L0 MV( list 0 動きベクトル)が選ばれた場合を基準に説明するものとする)。
したがって、図4の(A)(C)(E)(G)(H)は図10の(A)と同様になり、図4の(B)(D)は図10の(B)のように単純化して表示される。
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、ダイレクトモードの動きベクトルMVF、MVBは下記のように計算される(図10の(A))。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
そして、前記式は下記のように表すことができる。
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
そして、前記式は下記のように表すことができる。
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの動きベクトルMVF、MVBは下記のように計算される(図10の(B))。
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
MVF = -TDB×MV/TDD
MVB = -(TDB + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図11の(A)および(B))。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
前記式は、下記のように表すことができる。
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図11の(A)および(B))。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
前記式は、下記のように表すことができる。
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームのフィールドiにある同一位置のブロックが時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図11の(C)および(D))。
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
MVF,i = -TDB,i×MVi/TDD,i
MVB,i = -(TDB,i + TDD,i)×MVi/TDD,i
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であり、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図12の(A))。
MVF,i=TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
前記式は下記のように表すことができる。
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図12の(A))。
MVF,i=TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
前記式は下記のように表すことができる。
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームにある同一位置のブロックが時間的に後に存在するフレームを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF,i、MVB,iは下記のように計算される(図12の(B))。
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
MVF,i = -TDB,i×MV/TDD
MVB,i = -(TDB,i + TDD)×MV/TDD
または、下記のような式で表すこともできる。
Z = -TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であり、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であり、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
list 1 基準フレームのフィールド1(f1)がフィールド0(f0 )よりBピクチャに時間的距離が近いので、フィールド1(f1)にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
list 1 基準フレームのフィールド1(f1)がフィールド0(f0 )よりBピクチャに時間的距離が近いので、フィールド1(f1)にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。
仮に、ダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に前に存在する場合、Bフレームの各フィールドiに対するダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される(図13の(A))。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
前記式は、下記のように表すことができる。
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 基準フレームのフィールド1(f1)にある同一位置のブロックが時間的に後に存在するフレームのフィールドを指す動きベクトルを持つことによってダイレクトモードの list 0 レファランスピクチャが list 1 レファランスピクチャより時間的に後に存在する場合、ダイレクトモードの list 0 、 list 1 動きベクトルMVF、MVBは下記のように計算される(図13の(B))。
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
MVF = -TDB×MV1/TDD,1
MVB = -(TDB + TDD,1)×MV1/TDD,1
または、下記のような式で表すこともできる。
Z = -TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であり、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であり、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
[4]ピクチャ間の時間的距離を符号付きの値で表現してダイレクトモード動きベクトルを演算する場合
前記ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するか、または後に位置する場合、各ケースに対して2種類の数式が存在することになるので、これを単純化するための方法でピクチャ間の時間的距離を符号付きの値で表すと、下記のように単純化して表される。
前記ダイレクトモードの list 1 レファランスピクチャがBピクチャより時間的に前に位置するか、または後に位置する場合、各ケースに対して2種類の数式が存在することになるので、これを単純化するための方法でピクチャ間の時間的距離を符号付きの値で表すと、下記のように単純化して表される。
ケース1:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフレームモードのとき
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフレームモードである場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式から求めることができる。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフレームモードである場合、前記Bピクチャのダイレクトモードの動きベクトルMVF、MVBは下記の式から求めることができる。
MVF = TDB×MV/TDD
MVB = (TDB - TDD)×MV/TDD
または、
Z = TDB×256/TDD MVF = (Z×MV + 128)>>8
W = Z - 256 MVB = (W×MV + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 レファランスピクチャにある同一位置のブロックが持っている動きベクトルである。
ケース2:Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックの両方ともフィールドモードのとき
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフィールドモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
Bピクチャのマクロブロックと list 1 レファランスピクチャの同一位置にあるマクロブロックのいずれもフィールドモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MVi/TDD,i
MVB,i = (TDB,i - TDD,i)×MVi/TDD,i
または、
Z = TDB,i×256/TDD,i MVF,i = (Z×MVi + 128)>>8
W = Z - 256 MVB,i = (W×MVi + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDD,iは list 1 レファランスフィールドと list 0 レファランスフィールドとの間の時間的距離であって、 list 1 レファランスフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MViは前記ダイレクトモードの list 1 レファランスフィールドにある同一位置のブロックが持っている動きベクトルである。
ケース3:Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードのとき
Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
Bピクチャのマクロブロックがフィールドモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフレームモードである場合、前記Bフレームの各フィールドiに対するダイレクトモードの動きベクトルMVF,i、MVB,iは下記の式から求めることができる。
MVF,i = TDB,i×MV/TDD
MVB,i = (TDB,i - TDD)×MV/TDD
または、
Z = TDB,i×256/TDD MVF,i = (Z×MV + 128)>>8
W = Z - 256 MVB,i = (W×MV + 128)>>8
ここで、TDB,iは現在のBフィールドと list 0 レファランスフィールドとの間の時間的距離であって、Bフィールドから計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、TDDは list 1 基準フレームと list 0 基準フレームとの間の時間的距離であって、 list 1 基準フレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、MVは前記ダイレクトモードの list 1 基準フレームにある同一位置のブロックが持っている動きベクトルである。
ケース4:Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードのとき
Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に後に存在する場合、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。したがって、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式から求めることができる。
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
Bピクチャのマクロブロックがフレームモードであり、 list 1 レファランスピクチャの同一位置にあるマクロブロックがフィールドモードであり、 list 1 レファランスピクチャが前記Bピクチャより時間的に後に存在する場合、 list 1 基準フレームのフィールド0がフィールド1よりBピクチャに時間的距離が近いので、フィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。したがって、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド0にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式から求めることができる。
MVF = TDB×MV0 /TDD,0
MVB = (TDB - TDD,0 )×MV0 /TDD,0
または、
Z = TDB×256/TDD,0 MVF = (Z×MV0 + 128)>>8
W = Z - 256 MVB = (W×MV0 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,0 は list 1 基準フレームのフィールド0 と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド0から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV0 は前記ダイレクトモードの list 1 基準フレームのフィールド0にある同一位置のブロックが持っている動きベクトルである。
仮に、 list 1 レファランスピクチャが前記Bピクチャより時間的に前に存在する場合、 list 1 基準フレームのフィールド1がフィールド0よりBピクチャに時間的距離が近いので、フィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される。したがって、前記Bフレームのダイレクトモードの動きベクトルMVF、MVBは、 list 1 基準フレームのフィールド1にある同一位置のブロックの動き情報がダイレクトモードの動きベクトルを求めるのに使用される下記の式から求めることができる。
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
MVF = TDB×MV1/TDD,1
MVB = (TDB - TDD,1)×MV1/TDD,1
または、
Z = TDB×256/TDD,1 MVF = (Z×MV1 + 128)>>8
W = Z - 256 MVB = (W×MV1 + 128)>>8
ここで、TDBは現在のBフレームと list 0 基準フレームとの間の時間的距離であって、Bフレームから計算された時間的距離は正(+)の符号で表示され、 list 0 基準フレームから計算された時間的距離は負(−)の符号で表示され、TDD,1は list 1 基準フレームのフィールド1と list 0 レファランスフィールドとの間の時間的距離であって、 list 1 基準フレームのフィールド1から計算された時間的距離は正(+)の符号で表示され、 list 0 レファランスフィールドから計算された時間的距離は負(−)の符号で表示され、MV1は前記ダイレクトモードの list 1 基準フレームのフィールド1にある同一位置のブロックが持っている動きベクトルである。
Claims (3)
- 双予測画像の同一位置にあるブロックを用いた、双予測ピクチャのダイレクトモード動きベクトルの導出方法であって、
双予測画像の同一位置にあるブロックのlist 0動きベクトルを決定するステップと、
前記同一位置にあるブロックがlist 1及びlist 0動きベクトルを有しているときは、双予測ピクチャの動きベクトルを求めるための動きベクトルとして、双予測ピクチャに関して同一位置にあるブロックのlist 0動きベクトルを選択するステップと、を有し、
前記双予測ブロックのダイレクトモード動きベクトルを求めるステップは、前記双予測ピクチャの前記ダイレクトモード動きベクトルにビット演算を行なうステップをさらに有するダイレクトモード動きベクトルの導出方法。 - list 0動きベクトルMVFおよびlist 1動きベクトルMVBは、
MVF=TDB*MV/TDD
MVB=(TDB-TDD)*MV/TDD
で求められ、ここで、TDBは、現在の双予測フレームとlist 0レファランスフレームとの間の時間間隔を示し、TDDは、list 1レファランスフレームとlist 0レファランスフレームとの間の時間間隔を示し、
上記のMVF及びMVBの計算において、ビット演算を施すと、上記の式は、
Z = TDB * 256/TDD MVF = (Z * MV + 128) >> 8
W = Z - 256 MVB = (W * MV + 128) >> 8.
と表される、請求項1に記載のダイレクトモード動きベクトルの導出方法。 - 前記ビット演算により、前記双予測ブロックの前記ダイレクトモード動きベクトルは右方向に8ビットシフトされることを特徴とする、請求項1に記載のダイレクトモード動きベクトルの導出方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20020060742 | 2002-10-04 | ||
KR20020061243 | 2002-10-08 | ||
KR10-2002-0071226A KR100506864B1 (ko) | 2002-10-04 | 2002-11-15 | 모션벡터 결정방법 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006011202A Division JP4216852B2 (ja) | 2002-10-04 | 2006-01-19 | ダイレクトモード動きベクトルを誘導する方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008182742A true JP2008182742A (ja) | 2008-08-07 |
JP2008182742A5 JP2008182742A5 (ja) | 2009-04-30 |
Family
ID=35871226
Family Applications (19)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003002599A Expired - Lifetime JP4020789B2 (ja) | 2002-10-04 | 2003-01-08 | Bピクチャのダイレクトモード動きベクトル演算方法 |
JP2006011202A Expired - Lifetime JP4216852B2 (ja) | 2002-10-04 | 2006-01-19 | ダイレクトモード動きベクトルを誘導する方法 |
JP2008060962A Expired - Lifetime JP4625102B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061096A Expired - Lifetime JP4625103B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008060955A Expired - Lifetime JP4625101B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061152A Pending JP2008182746A (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061567A Expired - Lifetime JP4625104B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061142A Expired - Lifetime JP4709242B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061116A Expired - Lifetime JP4709241B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008060935A Pending JP2008182738A (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061455A Pending JP2008182747A (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008060987A Pending JP2008182742A (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008060950A Expired - Lifetime JP4625100B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2009064940A Expired - Lifetime JP4625131B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065025A Expired - Lifetime JP4709291B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065104A Expired - Lifetime JP4625132B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065000A Pending JP2009135989A (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065198A Pending JP2009135994A (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065130A Expired - Lifetime JP4709292B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
Family Applications Before (11)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003002599A Expired - Lifetime JP4020789B2 (ja) | 2002-10-04 | 2003-01-08 | Bピクチャのダイレクトモード動きベクトル演算方法 |
JP2006011202A Expired - Lifetime JP4216852B2 (ja) | 2002-10-04 | 2006-01-19 | ダイレクトモード動きベクトルを誘導する方法 |
JP2008060962A Expired - Lifetime JP4625102B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061096A Expired - Lifetime JP4625103B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008060955A Expired - Lifetime JP4625101B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061152A Pending JP2008182746A (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061567A Expired - Lifetime JP4625104B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061142A Expired - Lifetime JP4709242B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061116A Expired - Lifetime JP4709241B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008060935A Pending JP2008182738A (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2008061455A Pending JP2008182747A (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
Family Applications After (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008060950A Expired - Lifetime JP4625100B2 (ja) | 2002-10-04 | 2008-03-11 | ダイレクトモード動きベクトルの導出方法 |
JP2009064940A Expired - Lifetime JP4625131B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065025A Expired - Lifetime JP4709291B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065104A Expired - Lifetime JP4625132B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065000A Pending JP2009135989A (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065198A Pending JP2009135994A (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
JP2009065130A Expired - Lifetime JP4709292B2 (ja) | 2002-10-04 | 2009-03-17 | ダイレクトモード動きベクトルの導出方法 |
Country Status (15)
Country | Link |
---|---|
US (31) | US7233621B2 (ja) |
EP (21) | EP2003899B1 (ja) |
JP (19) | JP4020789B2 (ja) |
KR (1) | KR100506864B1 (ja) |
CN (3) | CN100473170C (ja) |
AT (10) | ATE488964T1 (ja) |
CY (10) | CY1106351T1 (ja) |
DE (13) | DE60335046D1 (ja) |
DK (10) | DK2009928T3 (ja) |
ES (1) | ES2281573T3 (ja) |
GB (4) | GB2406460B (ja) |
HK (5) | HK1073556A1 (ja) |
NL (3) | NL1022333C2 (ja) |
PT (10) | PT1821547E (ja) |
SI (10) | SI2015585T1 (ja) |
Families Citing this family (145)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6499060B1 (en) | 1999-03-12 | 2002-12-24 | Microsoft Corporation | Media coding for loss recovery with remotely predicted data units |
EP2148512A3 (en) * | 2001-11-06 | 2010-07-28 | Panasonic Corporation | Moving image coding method, and moving image decoding method |
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
JP2004088722A (ja) | 2002-03-04 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
KR100931750B1 (ko) | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US7088776B2 (en) | 2002-07-15 | 2006-08-08 | Apple Computer, Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding |
US7154952B2 (en) | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
US6728315B2 (en) | 2002-07-24 | 2004-04-27 | Apple Computer, Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations |
US8254461B2 (en) | 2002-07-24 | 2012-08-28 | Apple Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations |
KR100506864B1 (ko) | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
US7499493B2 (en) * | 2003-06-20 | 2009-03-03 | Lsi Corporation | Dual block motion vector storage in compressed form |
US20050013498A1 (en) | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US7609763B2 (en) * | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
US7724827B2 (en) | 2003-09-07 | 2010-05-25 | Microsoft Corporation | Multi-layer run level encoding and decoding |
US8064520B2 (en) * | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
US7620106B2 (en) * | 2003-09-07 | 2009-11-17 | Microsoft Corporation | Joint coding and decoding of a reference field selection and differential motion vector information |
US7567617B2 (en) | 2003-09-07 | 2009-07-28 | Microsoft Corporation | Predicting motion vectors for fields of forward-predicted interlaced video frames |
US7616692B2 (en) * | 2003-09-07 | 2009-11-10 | Microsoft Corporation | Hybrid motion vector prediction for interlaced forward-predicted fields |
US8085844B2 (en) * | 2003-09-07 | 2011-12-27 | Microsoft Corporation | Signaling reference frame distances |
US7577198B2 (en) | 2003-09-07 | 2009-08-18 | Microsoft Corporation | Number of reference fields for an interlaced forward-predicted field |
US7623574B2 (en) * | 2003-09-07 | 2009-11-24 | Microsoft Corporation | Selecting between dominant and non-dominant motion vector predictor polarities |
FR2860678A1 (fr) * | 2003-10-01 | 2005-04-08 | Thomson Licensing Sa | Procede de codage differentiel |
US7400681B2 (en) * | 2003-11-28 | 2008-07-15 | Scientific-Atlanta, Inc. | Low-complexity motion vector prediction for video codec with two lists of reference pictures |
CN1225128C (zh) * | 2003-12-31 | 2005-10-26 | 中国科学院计算技术研究所 | 直接编码模式下确定参考图像块的方法 |
CN1321534C (zh) * | 2003-12-31 | 2007-06-13 | 中国科学院计算技术研究所 | 固定参考帧数编码方式下获取图像参考块的方法 |
US8036271B2 (en) * | 2004-02-24 | 2011-10-11 | Lsi Corporation | Method and apparatus for determining a second picture for temporal direct-mode block prediction |
KR100584603B1 (ko) * | 2004-08-03 | 2006-05-30 | 학교법인 대양학원 | 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치 |
BRPI0515723A (pt) * | 2004-11-04 | 2008-08-05 | Thomson Licensing | método e aparelho para a decisão de modo rápido de b-quadros em um codificador de vìdeo |
US8634413B2 (en) | 2004-12-30 | 2014-01-21 | Microsoft Corporation | Use of frame caching to improve packet loss recovery |
JP2006352238A (ja) * | 2005-06-13 | 2006-12-28 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
KR100746006B1 (ko) * | 2005-07-19 | 2007-08-06 | 삼성전자주식회사 | 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치 |
JP2007028393A (ja) * | 2005-07-20 | 2007-02-01 | Matsushita Electric Ind Co Ltd | 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法 |
US8498520B2 (en) * | 2005-07-27 | 2013-07-30 | Vbrick Systems, Inc. | Video encoding and transmission technique for efficient, multi-speed fast forward and reverse playback |
FR2891685B1 (fr) * | 2005-10-03 | 2008-04-18 | Envivio France Entpr Uniperson | Procede et dispositif d'estimation de mouvement a references multiples, procede et dispositif de codage, produits programme d'ordinateur et moyens de stockage correspondants. |
JP4702943B2 (ja) * | 2005-10-19 | 2011-06-15 | キヤノン株式会社 | 画像処理装置及びその方法 |
JP4879558B2 (ja) * | 2005-11-02 | 2012-02-22 | パナソニック株式会社 | 動きベクトル検出装置 |
JP5020829B2 (ja) * | 2005-12-27 | 2012-09-05 | シャープ株式会社 | 動画像復号装置および動画像符号化装置 |
EP1806930A1 (en) * | 2006-01-10 | 2007-07-11 | Thomson Licensing | Method and apparatus for constructing reference picture lists for scalable video |
US20070171977A1 (en) * | 2006-01-25 | 2007-07-26 | Shintaro Kudo | Moving picture coding method and moving picture coding device |
FR2897213A1 (fr) * | 2006-02-08 | 2007-08-10 | Thomson Licensing Sas | Procede de codage par blocs d'images d'une sequence d'images video |
JP4527677B2 (ja) * | 2006-03-15 | 2010-08-18 | 富士通株式会社 | 動画像符号化方法、動画像符号化装置、動画像符号化プログラム |
US8270492B2 (en) * | 2006-05-12 | 2012-09-18 | Panasonic Corporation | Moving picture decoding device |
AU2007311476C1 (en) * | 2006-10-16 | 2013-01-17 | Nokia Technologies Oy | System and method for implementing efficient decoded buffer management in multi-view video coding |
CN101227601B (zh) * | 2007-01-15 | 2011-09-14 | 飞思卡尔半导体公司 | 在视频再现中进行几何变换的方法和设备 |
KR100955396B1 (ko) * | 2007-06-15 | 2010-04-29 | 성균관대학교산학협력단 | 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체 |
WO2008153262A1 (en) * | 2007-06-15 | 2008-12-18 | Sungkyunkwan University Foundation For Corporate Collaboration | Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium |
US8254455B2 (en) | 2007-06-30 | 2012-08-28 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
CN101119493B (zh) * | 2007-08-30 | 2010-12-01 | 威盛电子股份有限公司 | 区块式数字编码图像的译码方法及装置 |
BRPI0818344A2 (pt) * | 2007-10-12 | 2015-04-22 | Thomson Licensing | Métodos e aparelhos para codificação e decodificação de vídeo de partições de modo bi-preditivo geometricamente particionadas |
US8743952B2 (en) * | 2007-12-18 | 2014-06-03 | Vixs Systems, Inc | Direct mode module with motion flag precoding and methods for use therewith |
KR101505195B1 (ko) * | 2008-02-20 | 2015-03-24 | 삼성전자주식회사 | 직접 모드 부호화 및 복호화 방법 |
WO2009148412A1 (en) * | 2008-06-06 | 2009-12-10 | Agency For Science, Technology And Research | Methods and devices for estimating motion in a plurality of frames |
JP5578775B2 (ja) | 2008-09-02 | 2014-08-27 | 富士通株式会社 | 符号化装置および復号装置 |
CN102160382A (zh) * | 2008-09-24 | 2011-08-17 | 索尼公司 | 图像处理设备和图像处理方法 |
US8189666B2 (en) | 2009-02-02 | 2012-05-29 | Microsoft Corporation | Local picture identifier and computation of co-located information |
TWI405469B (zh) * | 2009-02-20 | 2013-08-11 | Sony Corp | Image processing apparatus and method |
CN103826127B (zh) * | 2009-06-18 | 2017-03-01 | 株式会社东芝 | 运动图像编码装置和运动图像编码方法 |
BRPI0924908B1 (pt) * | 2009-06-18 | 2021-05-11 | Kabushiki Kaisha Toshiba | aparelhos de codificação e decodificação de vídeo, métodos para codificação e decodificação de vídeo |
CN103888778B (zh) * | 2009-06-18 | 2017-12-08 | 株式会社东芝 | 运动图像解码装置 |
CN103826126B (zh) * | 2009-06-18 | 2017-09-29 | 株式会社东芝 | 运动图像编码装置和运动图像编码方法 |
US9628794B2 (en) | 2009-06-18 | 2017-04-18 | Kabushiki Kaisha Toshiba | Video encoding apparatus and a video decoding apparatus |
KR20110008653A (ko) * | 2009-07-20 | 2011-01-27 | 삼성전자주식회사 | 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법 |
US9060176B2 (en) * | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
US8594200B2 (en) * | 2009-11-11 | 2013-11-26 | Mediatek Inc. | Method of storing motion vector information and video decoding apparatus |
WO2011070730A1 (ja) * | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | 映像符号化装置および映像復号装置 |
KR101348613B1 (ko) | 2009-12-23 | 2014-01-10 | 한국전자통신연구원 | 영상의 부호화/복호화 장치 및 그 방법 |
KR101522850B1 (ko) * | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
CN102823248B (zh) | 2010-04-08 | 2015-06-24 | 株式会社东芝 | 图像编码方法以及图像编码装置 |
KR101752418B1 (ko) * | 2010-04-09 | 2017-06-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR102344855B1 (ko) * | 2010-05-26 | 2021-12-28 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 장치 |
WO2011155171A1 (ja) * | 2010-06-09 | 2011-12-15 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム |
JP2011259230A (ja) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | 動画像復号装置、動画像復号方法及び動画像復号プログラム |
JP2011259229A (ja) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
US9124898B2 (en) * | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
KR20120016991A (ko) * | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
WO2012042719A1 (ja) * | 2010-09-30 | 2012-04-05 | 三菱電機株式会社 | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 |
PT3001686T (pt) * | 2010-10-06 | 2020-03-26 | Ntt Docomo Inc | Dispositivo de descodificação de imagem de previsão dupla, método e programa |
US9300961B2 (en) * | 2010-11-24 | 2016-03-29 | Panasonic Intellectual Property Corporation Of America | Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus |
US9137544B2 (en) * | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
WO2012073481A1 (ja) * | 2010-11-29 | 2012-06-07 | パナソニック株式会社 | 動画像符号化方法および動画像復号化方法 |
US8711940B2 (en) | 2010-11-29 | 2014-04-29 | Mediatek Inc. | Method and apparatus of motion vector prediction with extended motion vector predictor |
EP2661080A4 (en) * | 2010-12-31 | 2016-06-29 | Korea Electronics Telecomm | METHOD FOR CODING VIDEO INFORMATION AND METHOD FOR DECODING VIDEO INFORMATION AND DEVICE THEREFOR |
KR101820997B1 (ko) * | 2011-01-12 | 2018-01-22 | 선 페이턴트 트러스트 | 동화상 부호화 방법 및 동화상 복호화 방법 |
US9300963B2 (en) * | 2011-01-19 | 2016-03-29 | Mediatek Inc. | Method and apparatus for parsing error robustness of temporal motion vector prediction |
US9008181B2 (en) | 2011-01-24 | 2015-04-14 | Qualcomm Incorporated | Single reference picture list utilization for interprediction video coding |
WO2012102021A1 (ja) | 2011-01-25 | 2012-08-02 | パナソニック株式会社 | 動画像符号化方法および動画像復号化方法 |
ES2398095B1 (es) * | 2011-01-31 | 2014-01-27 | Universidad Politécnica De Valencia | Instalación para simular las condiciones de presión y temperatura del aire aspirado por un motor de combustión interna alternativo. |
US20130322535A1 (en) * | 2011-02-21 | 2013-12-05 | Electronics And Telecommunications Research Institute | Method for encoding and decoding images using plurality of reference images and device using method |
WO2012114694A1 (ja) | 2011-02-22 | 2012-08-30 | パナソニック株式会社 | 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置 |
US10171813B2 (en) | 2011-02-24 | 2019-01-01 | Qualcomm Incorporated | Hierarchy of motion prediction video blocks |
MX2013009864A (es) | 2011-03-03 | 2013-10-25 | Panasonic Corp | Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento. |
US9288501B2 (en) | 2011-03-08 | 2016-03-15 | Qualcomm Incorporated | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
BR112013022646B1 (pt) * | 2011-03-09 | 2022-09-13 | Kabushiki Kaisha Toshiba | Método para codificação e decodificação de imagem e a realização de interpredição nos blocos de pixels divididos |
AU2011362447B2 (en) * | 2011-03-14 | 2015-09-24 | Hfi Innovation Inc. | Method and apparatus for deriving temporal motion vector prediction |
RU2719308C2 (ru) | 2011-04-12 | 2020-04-17 | Сан Пэтент Траст | Способ кодирования движущихся изображений, устройство кодирования движущихся изображений, способ декодирования движущихся изображений, устройство декодирования движущихся изображений и устройство кодирования и декодирования движущихся изображений |
WO2012160803A1 (ja) | 2011-05-24 | 2012-11-29 | パナソニック株式会社 | 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置 |
US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
PL2717575T3 (pl) | 2011-05-27 | 2019-03-29 | Sun Patent Trust | Sposób dekodowania obrazów i urządzenie do dekodowania obrazów |
CN103548351B (zh) | 2011-05-31 | 2017-07-11 | 太阳专利托管公司 | 运动图像解码方法及运动图像解码装置 |
SG194746A1 (en) | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
TWI530161B (zh) * | 2011-06-07 | 2016-04-11 | Sony Corp | Image processing apparatus and method |
US9282338B2 (en) * | 2011-06-20 | 2016-03-08 | Qualcomm Incorporated | Unified merge mode and adaptive motion vector prediction mode candidates selection |
KR20120140592A (ko) | 2011-06-21 | 2012-12-31 | 한국전자통신연구원 | 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치 |
WO2012177052A2 (ko) | 2011-06-21 | 2012-12-27 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
ES2715613T3 (es) | 2011-06-28 | 2019-06-05 | Lg Electronics Inc | Método para fijar una lista de vectores de movimiento |
MX2013013029A (es) | 2011-06-30 | 2013-12-02 | Panasonic Corp | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, dispositivo de decodificacion de imagenes, dispositivo de codificacion de imagenes y dispositivo de codificacion/decodifi cacion de imagenes. |
KR20140034292A (ko) * | 2011-07-01 | 2014-03-19 | 모토로라 모빌리티 엘엘씨 | 움직임 벡터 예측 설계 간소화 |
MX2014000159A (es) * | 2011-07-02 | 2014-02-19 | Samsung Electronics Co Ltd | Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada. |
EP3487178A1 (en) | 2011-08-03 | 2019-05-22 | Sun Patent Trust | Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus |
KR101999869B1 (ko) | 2011-10-19 | 2019-07-12 | 선 페이턴트 트러스트 | 화상 부호화 방법, 화상 부호화 장치, 화상 복호 방법, 및, 화상 복호 장치 |
AU2011379313A1 (en) * | 2011-10-21 | 2014-05-22 | Nokia Technologies Oy | Method for video coding and an apparatus |
TWI597973B (zh) | 2011-10-31 | 2017-09-01 | Jvc Kenwood Corp | Video encoding device, video encoding method and recording medium |
WO2013067440A1 (en) | 2011-11-04 | 2013-05-10 | General Instrument Corporation | Motion vector scaling for non-uniform motion vector grid |
CN107483944B (zh) | 2011-11-08 | 2020-06-05 | 株式会社Kt | 利用解码装置对视频信号进行解码的方法 |
AU2012336572B2 (en) | 2011-11-08 | 2015-09-17 | Samsung Electronics Co., Ltd. | Method and device for determining motion vector for video coding or video decoding |
JP5364219B1 (ja) * | 2011-12-16 | 2013-12-11 | パナソニック株式会社 | 動画像符号化方法、および動画像符号化装置 |
HUE047995T2 (hu) * | 2011-12-16 | 2020-05-28 | Jvc Kenwood Corp | Dinamikus képkódoló készülék, dinamikus képkódoló eljárás, dinamikus képkódoló program |
EP2797325A4 (en) | 2011-12-23 | 2015-09-16 | Korea Electronics Telecomm | METHOD AND DEVICE FOR DETERMINING A REFERENCE FILE INDEX OF A TIMELY COMBINATION CANDIDATE |
JP6094760B2 (ja) * | 2012-02-07 | 2017-03-15 | パナソニックIpマネジメント株式会社 | 画像処理装置および画像処理方法 |
US9426463B2 (en) | 2012-02-08 | 2016-08-23 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
US9451277B2 (en) | 2012-02-08 | 2016-09-20 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
EP3833022B1 (en) * | 2012-04-12 | 2022-03-30 | JVCKENWOOD Corporation | Merge candidate list construction |
KR20130116216A (ko) * | 2012-04-15 | 2013-10-23 | 삼성전자주식회사 | 인터 예측의 참조영상을 결정하는 방법과 그 장치 |
US9172970B1 (en) | 2012-05-29 | 2015-10-27 | Google Inc. | Inter frame candidate selection for a video encoder |
US11317101B2 (en) | 2012-06-12 | 2022-04-26 | Google Inc. | Inter frame candidate selection for a video encoder |
US9672584B2 (en) * | 2012-09-06 | 2017-06-06 | Imagination Technologies Limited | Systems and methods of partial frame buffer updating |
US9503746B2 (en) | 2012-10-08 | 2016-11-22 | Google Inc. | Determine reference motion vectors |
US9485515B2 (en) | 2013-08-23 | 2016-11-01 | Google Inc. | Video coding using reference motion vectors |
US9628790B1 (en) | 2013-01-03 | 2017-04-18 | Google Inc. | Adaptive composite intra prediction for image and video compression |
WO2015008339A1 (ja) * | 2013-07-16 | 2015-01-22 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 |
US9609343B1 (en) | 2013-12-20 | 2017-03-28 | Google Inc. | Video coding using compound prediction |
WO2015172348A1 (en) * | 2014-05-15 | 2015-11-19 | The Procter & Gamble Company | Dentifrice compositions having dental plaque mitigation or improved fluoride uptake |
RU2615677C1 (ru) * | 2015-10-30 | 2017-04-06 | Кабусики Кайся Тосиба | Способ кодирования изображений и способ декодирования изображений |
CN106658019B (zh) * | 2015-10-31 | 2019-11-12 | 华为技术有限公司 | 参考帧编解码的方法与装置 |
WO2018132150A1 (en) | 2017-01-13 | 2018-07-19 | Google Llc | Compound prediction for video coding |
US10412410B2 (en) | 2017-08-14 | 2019-09-10 | Google Llc | Compound motion-compensated prediction |
US10880573B2 (en) | 2017-08-15 | 2020-12-29 | Google Llc | Dynamic motion vector referencing for video coding |
US10284869B2 (en) | 2017-09-28 | 2019-05-07 | Google Llc | Constrained motion field estimation for hardware efficiency |
RU2666275C1 (ru) * | 2017-11-13 | 2018-09-06 | ДжейВиСи КЕНВУД КОРПОРЕЙШН | Устройство и способ кодирования движущегося изображения, долговременный считываемый компьютером носитель записи, на который записана программа кодирования изображения |
US10779002B2 (en) * | 2018-04-17 | 2020-09-15 | Qualcomm Incorporated | Limitation of the MVP derivation based on decoder-side motion vector derivation |
CN108985279B (zh) * | 2018-08-28 | 2020-11-03 | 上海仁童电子科技有限公司 | 多功能车辆总线mvb波形的故障诊断方法及装置 |
WO2020140242A1 (zh) * | 2019-01-03 | 2020-07-09 | 北京大学 | 视频处理方法和装置 |
CN114128292A (zh) * | 2019-07-01 | 2022-03-01 | 三星电子株式会社 | 用邻近运动信息对运动信息进行编码和解码的装置和方法 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US136461A (en) * | 1873-03-04 | Improvement in sash-balances | ||
JPS58138655A (ja) * | 1982-02-12 | 1983-08-17 | Toshiba Corp | 文書印刷制御装置 |
TW224553B (en) | 1993-03-01 | 1994-06-01 | Sony Co Ltd | Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture |
SE519541C2 (sv) | 1996-10-02 | 2003-03-11 | Ericsson Telefon Ab L M | Förfarande och anordning för transformering av en reell digital bredbandig bandpassignal till en uppsättning digitala basbandssignaler med I- och Q-komponenter |
US6542642B2 (en) * | 1996-02-29 | 2003-04-01 | Canon Kabushiki Kaisha | Image coding process and motion detecting process using bidirectional prediction |
US5991447A (en) | 1997-03-07 | 1999-11-23 | General Instrument Corporation | Prediction and coding of bi-directionally predicted video object planes for interlaced digital video |
CN1297147C (zh) * | 1997-03-07 | 2007-01-24 | 通用仪器公司 | 对交错数字视频的双向预测的视频目标平面的预测和编码 |
US6404813B1 (en) * | 1997-03-27 | 2002-06-11 | At&T Corp. | Bidirectionally predicted pictures or video object planes for efficient and flexible video coding |
KR100252342B1 (ko) | 1997-08-12 | 2000-04-15 | 전주범 | 움직임 벡터 부호화 방법 및 그 장치 |
KR100257191B1 (ko) | 1997-12-31 | 2000-05-15 | 구자홍 | 움직임 벡터 디코더 |
JPH11215502A (ja) | 1998-01-27 | 1999-08-06 | Sanyo Electric Co Ltd | 動きベクトル検出装置及び方法 |
KR100280871B1 (ko) | 1998-07-13 | 2001-03-02 | 김남영 | 커플라인과 슬릿으로 구성된 마이크로 스트립 링 공진기 |
DE19840735C2 (de) | 1998-09-07 | 2001-06-07 | Bosch Gmbh Robert | Blockbasierte Bewegungsschätzung bei der Bewegtbildkodierung |
KR20010101329A (ko) * | 1999-10-29 | 2001-11-14 | 요트.게.아. 롤페즈 | 비디오 인코딩 방법 |
WO2001058166A1 (en) * | 2000-02-01 | 2001-08-09 | Koninklijke Philips Electronics N.V. | Video encoding with a two step motion estimation for p-frames |
US6446118B1 (en) | 2000-02-29 | 2002-09-03 | Designtech International, Inc. | E-mail notification device |
KR100708091B1 (ko) * | 2000-06-13 | 2007-04-16 | 삼성전자주식회사 | 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법 |
RU2182727C2 (ru) | 2000-07-20 | 2002-05-20 | Дворкович Александр Викторович | Способ поиска векторов движения деталей в динамических изображениях |
US6834293B2 (en) | 2001-06-15 | 2004-12-21 | Hitachi, Ltd. | Vector scaling system for G.728 annex G |
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
US7003035B2 (en) * | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
JP2004088722A (ja) * | 2002-03-04 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
US7321626B2 (en) * | 2002-03-08 | 2008-01-22 | Sharp Laboratories Of America, Inc. | System and method for predictive motion estimation using a global motion predictor |
KR100931750B1 (ko) | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
JP2004208258A (ja) | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
US20040001546A1 (en) * | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US7515634B2 (en) * | 2002-06-28 | 2009-04-07 | Qualcomm Incorporated | Computationally constrained video encoding |
WO2004012459A1 (ja) * | 2002-07-26 | 2004-02-05 | Matsushita Electric Industrial Co., Ltd. | 動画像符号化方法、動画像復号化方法および記録媒体 |
KR100506864B1 (ko) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
US7463686B2 (en) * | 2002-10-16 | 2008-12-09 | Lg Electronics Inc. | Method for determining motion vector and macroblock type |
DE10311497B3 (de) | 2003-03-15 | 2004-10-07 | Atlas Elektronik Gmbh | Verfahren zur synthetischen Generierung von Sonardaten |
US7523330B2 (en) * | 2004-06-30 | 2009-04-21 | Sun Microsystems, Inc. | Thread-based clock enabling in a multi-threaded processor |
-
2002
- 2002-11-15 KR KR10-2002-0071226A patent/KR100506864B1/ko active IP Right Grant
-
2003
- 2003-01-06 US US10/338,283 patent/US7233621B2/en active Active
- 2003-01-07 DE DE60335046T patent/DE60335046D1/de not_active Expired - Lifetime
- 2003-01-07 EP EP20080016890 patent/EP2003899B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK08016895T patent/DK2009928T3/da active
- 2003-01-07 EP EP20090000866 patent/EP2059054B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331923T patent/SI2015585T1/sl unknown
- 2003-01-07 DK DK08016890T patent/DK2003899T3/da active
- 2003-01-07 PT PT07003015T patent/PT1821547E/pt unknown
- 2003-01-07 DE DE60334941T patent/DE60334941D1/de not_active Expired - Lifetime
- 2003-01-07 AT AT07003016T patent/ATE488964T1/de active
- 2003-01-07 AT AT05018606T patent/ATE488963T1/de active
- 2003-01-07 PT PT08016888T patent/PT2015585E/pt unknown
- 2003-01-07 PT PT05018606T patent/PT1603344E/pt unknown
- 2003-01-07 DE DE2003611720 patent/DE60311720T9/de active Active
- 2003-01-07 EP EP20090000865 patent/EP2046054B1/en not_active Expired - Lifetime
- 2003-01-07 PT PT07003014T patent/PT1809048E/pt unknown
- 2003-01-07 AT AT07003014T patent/ATE482571T1/de active
- 2003-01-07 GB GB0426713A patent/GB2406460B/en not_active Expired - Lifetime
- 2003-01-07 EP EP20080016895 patent/EP2009928B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK07003016T patent/DK1796396T3/da active
- 2003-01-07 EP EP20080016894 patent/EP2015586B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20090000884 patent/EP2046056B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK03000209T patent/DK1406453T3/da active
- 2003-01-07 DK DK08016888T patent/DK2015585T3/da active
- 2003-01-07 DE DE60334330T patent/DE60334330D1/de not_active Expired - Lifetime
- 2003-01-07 PT PT03000209T patent/PT1406453E/pt unknown
- 2003-01-07 EP EP20070003015 patent/EP1821547B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334339T patent/DE60334339D1/de not_active Expired - Lifetime
- 2003-01-07 AT AT08016890T patent/ATE482572T1/de active
- 2003-01-07 EP EP20090000885 patent/EP2046057B1/en not_active Expired - Lifetime
- 2003-01-07 GB GB0513436A patent/GB2413721B/en not_active Expired - Lifetime
- 2003-01-07 PT PT08016890T patent/PT2003899E/pt unknown
- 2003-01-07 DK DK07003014T patent/DK1809048T3/da active
- 2003-01-07 DE DE60334505T patent/DE60334505D1/de not_active Expired - Lifetime
- 2003-01-07 DE DE60334336T patent/DE60334336D1/de not_active Expired - Lifetime
- 2003-01-07 PT PT08016895T patent/PT2009928E/pt unknown
- 2003-01-07 EP EP20090000888 patent/EP2046060B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK07003015T patent/DK1821547T3/da active
- 2003-01-07 EP EP20070003016 patent/EP1796396B8/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331914T patent/SI1809048T1/sl unknown
- 2003-01-07 PT PT08016891T patent/PT2003900E/pt unknown
- 2003-01-07 DE DE2003221473 patent/DE20321473U1/de not_active Expired - Lifetime
- 2003-01-07 SI SI200330780T patent/SI1406453T1/sl unknown
- 2003-01-07 SI SI200331918T patent/SI2009927T1/sl unknown
- 2003-01-07 DK DK08016893T patent/DK2009927T3/da active
- 2003-01-07 EP EP20050018606 patent/EP1603344B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334338T patent/DE60334338D1/de not_active Expired - Lifetime
- 2003-01-07 AT AT08016891T patent/ATE482573T1/de active
- 2003-01-07 AT AT08016888T patent/ATE484156T1/de active
- 2003-01-07 EP EP20080016888 patent/EP2015585B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331943T patent/SI1603344T1/sl unknown
- 2003-01-07 EP EP20080016892 patent/EP2009926B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT07003015T patent/ATE488097T1/de active
- 2003-01-07 PT PT08016893T patent/PT2009927E/pt unknown
- 2003-01-07 EP EP20080016889 patent/EP2009925B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331917T patent/SI2009928T1/sl unknown
- 2003-01-07 SI SI200331939T patent/SI1821547T1/sl unknown
- 2003-01-07 DE DE60335034T patent/DE60335034D1/de not_active Expired - Lifetime
- 2003-01-07 EP EP20030000209 patent/EP1406453B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331908T patent/SI2003899T1/sl unknown
- 2003-01-07 ES ES03000209T patent/ES2281573T3/es not_active Expired - Lifetime
- 2003-01-07 SI SI200331919T patent/SI2003900T1/sl unknown
- 2003-01-07 GB GB0300288A patent/GB2393873B/en not_active Expired - Lifetime
- 2003-01-07 GB GB0426712A patent/GB2406459B/en not_active Expired - Lifetime
- 2003-01-07 EP EP20080016891 patent/EP2003900B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK05018606T patent/DK1603344T3/da active
- 2003-01-07 AT AT08016893T patent/ATE482574T1/de active
- 2003-01-07 EP EP20090000886 patent/EP2046058B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331947T patent/SI1796396T1/sl unknown
- 2003-01-07 EP EP20090000883 patent/EP2046055A3/en not_active Ceased
- 2003-01-07 AT AT03000209T patent/ATE354259T1/de active
- 2003-01-07 DK DK08016891T patent/DK2003900T3/da active
- 2003-01-07 AT AT08016895T patent/ATE482575T1/de active
- 2003-01-07 PT PT07003016T patent/PT1796396E/pt unknown
- 2003-01-07 EP EP20070003014 patent/EP1809048B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20090000887 patent/EP2046059B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20080016893 patent/EP2009927B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334337T patent/DE60334337D1/de not_active Expired - Lifetime
- 2003-01-08 JP JP2003002599A patent/JP4020789B2/ja not_active Expired - Lifetime
- 2003-01-09 NL NL1022333A patent/NL1022333C2/nl not_active IP Right Cessation
- 2003-01-09 DE DE2003162106 patent/DE10362106B3/de not_active Expired - Lifetime
- 2003-01-09 DE DE2003100533 patent/DE10300533B4/de not_active Expired - Lifetime
- 2003-01-10 CN CNB2005100488548A patent/CN100473170C/zh not_active Expired - Lifetime
- 2003-01-10 CN CNB031016235A patent/CN1269361C/zh not_active Expired - Lifetime
- 2003-01-10 CN CN2005100488533A patent/CN1812585B/zh not_active Expired - Lifetime
-
2005
- 2005-01-28 US US11/044,002 patent/US7606307B2/en active Active
- 2005-01-28 US US11/044,004 patent/US7627035B2/en active Active
- 2005-01-28 US US11/044,001 patent/US7570691B2/en active Active
- 2005-07-11 NL NL1029486A patent/NL1029486C2/nl not_active IP Right Cessation
- 2005-07-11 NL NL1029485A patent/NL1029485C2/nl not_active IP Right Cessation
- 2005-08-16 HK HK05107058A patent/HK1073556A1/xx not_active IP Right Cessation
- 2005-08-16 HK HK05107057A patent/HK1073555A1/xx not_active IP Right Cessation
-
2006
- 2006-01-19 JP JP2006011202A patent/JP4216852B2/ja not_active Expired - Lifetime
- 2006-04-24 HK HK06104873A patent/HK1082625A1/xx not_active IP Right Cessation
-
2007
- 2007-01-12 HK HK07100437A patent/HK1095458A1/xx not_active IP Right Cessation
- 2007-01-12 HK HK07100436A patent/HK1095457A1/xx not_active IP Right Cessation
- 2007-03-01 CY CY20071100300T patent/CY1106351T1/el unknown
- 2007-10-09 US US11/907,073 patent/US7558321B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,078 patent/US8351504B2/en active Active
- 2007-10-09 US US11/907,080 patent/US7634007B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,076 patent/US8345757B2/en active Active
- 2007-10-09 US US11/907,079 patent/US7643557B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,074 patent/US7643556B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,075 patent/US8351503B2/en active Active
-
2008
- 2008-03-11 JP JP2008060962A patent/JP4625102B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061096A patent/JP4625103B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008060955A patent/JP4625101B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061152A patent/JP2008182746A/ja active Pending
- 2008-03-11 JP JP2008061567A patent/JP4625104B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061142A patent/JP4709242B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061116A patent/JP4709241B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008060935A patent/JP2008182738A/ja active Pending
- 2008-03-11 JP JP2008061455A patent/JP2008182747A/ja active Pending
- 2008-03-11 JP JP2008060987A patent/JP2008182742A/ja active Pending
- 2008-03-11 JP JP2008060950A patent/JP4625100B2/ja not_active Expired - Lifetime
- 2008-10-08 US US12/285,552 patent/US8422556B2/en active Active
- 2008-10-08 US US12/285,553 patent/US8432969B2/en active Active
- 2008-10-08 US US12/285,545 patent/US8345758B2/en active Active
- 2008-10-08 US US12/285,546 patent/US8351505B2/en active Active
- 2008-10-09 US US12/285,627 patent/US8428134B2/en active Active
- 2008-10-09 US US12/285,628 patent/US8385417B2/en active Active
- 2008-10-09 US US12/285,626 patent/US8416853B2/en active Active
- 2008-10-09 US US12/285,624 patent/US8351507B2/en active Active
- 2008-10-10 US US12/285,668 patent/US8396128B2/en active Active
- 2008-10-10 US US12/285,665 patent/US8416854B2/en active Active
- 2008-10-10 US US12/285,664 patent/US8411748B2/en active Active
- 2008-10-10 US US12/285,667 patent/US8351506B2/en active Active
-
2009
- 2009-03-17 JP JP2009064940A patent/JP4625131B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065025A patent/JP4709291B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065104A patent/JP4625132B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065000A patent/JP2009135989A/ja active Pending
- 2009-03-17 JP JP2009065198A patent/JP2009135994A/ja active Pending
- 2009-03-17 JP JP2009065130A patent/JP4709292B2/ja not_active Expired - Lifetime
-
2010
- 2010-12-22 CY CY20101101181T patent/CY1111026T1/el unknown
- 2010-12-22 CY CY20101101182T patent/CY1111027T1/el unknown
- 2010-12-22 CY CY20101101177T patent/CY1111023T1/el unknown
- 2010-12-22 CY CY20101101179T patent/CY1111025T1/el unknown
- 2010-12-22 CY CY20101101178T patent/CY1111024T1/el unknown
-
2011
- 2011-01-04 CY CY20111100014T patent/CY1111077T1/el unknown
- 2011-02-07 CY CY20111100139T patent/CY1111539T1/el unknown
- 2011-02-14 CY CY20111100181T patent/CY1111198T1/el unknown
- 2011-02-14 CY CY20111100180T patent/CY1111204T1/el unknown
-
2013
- 2013-03-26 US US13/850,332 patent/US8638856B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,414 patent/US8891624B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,403 patent/US9042452B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,393 patent/US8891623B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,450 patent/US9066106B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,380 patent/US9042451B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,413 patent/US9042453B2/en not_active Expired - Lifetime
-
2015
- 2015-04-28 US US14/698,410 patent/US9743108B2/en not_active Expired - Lifetime
Non-Patent Citations (2)
Title |
---|
JPN6010021610, Byeong−Moon Jeon, "Direct mode in B pictures", Joint Video Team (JVT) of ISO/IEC MPEG & ITU−T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU−T SG16 Q.6) 4th, 20020722, Joint Video Team (JVT) of ISO/IEC MPEG & ITU−T VCE * |
JPN6010021613, Thomas Wiegand, "Joint Final Committee Draft (JFCD) of Joint Video Specification (ITU−T Rec. H.264 | ISO/IEC 14496−10", Joint Video Team (JVT) of ISO/IEC MPEG and ITU−T VCEG 4th Meeting: Klagenfurt, Austria, 20020722, Joint Video Team (JVT) of ISO/IEC MPEG and ITU−T V * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4709241B2 (ja) | ダイレクトモード動きベクトルの導出方法 | |
KR20080076870A (ko) | 모션벡터 결정방법 | |
KR100494829B1 (ko) | 모션벡터 결정방법 | |
KR100907174B1 (ko) | 모션벡터 결정방법 | |
KR100890512B1 (ko) | 모션벡터 결정방법 | |
KR100890515B1 (ko) | 모션벡터 결정방법 | |
KR100890516B1 (ko) | 모션벡터 결정방법 | |
KR100864789B1 (ko) | 모션벡터 결정방법 | |
KR20080077944A (ko) | 모션벡터 결정방법 | |
KR20050067117A (ko) | 모션벡터 결정방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100720 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101005 |