JP6863943B2 - 動きベクトル予測のための動きベクトルリストを作成する方法及び装置 - Google Patents

動きベクトル予測のための動きベクトルリストを作成する方法及び装置 Download PDF

Info

Publication number
JP6863943B2
JP6863943B2 JP2018188780A JP2018188780A JP6863943B2 JP 6863943 B2 JP6863943 B2 JP 6863943B2 JP 2018188780 A JP2018188780 A JP 2018188780A JP 2018188780 A JP2018188780 A JP 2018188780A JP 6863943 B2 JP6863943 B2 JP 6863943B2
Authority
JP
Japan
Prior art keywords
motion vector
adjacent block
spatially adjacent
block
spatially
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018188780A
Other languages
English (en)
Other versions
JP2019033515A (ja
Inventor
永兵 林
永兵 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2019033515A publication Critical patent/JP2019033515A/ja
Application granted granted Critical
Publication of JP6863943B2 publication Critical patent/JP6863943B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、ビデオコーディングの分野に関する。より特定的には、動きベクトル予測のための動きベクトルリストを作成する方法及び装置に関する。
本特許出願は、2012年10月8日出願の中国特許出願第20121077579.4号に係る優先権の利益を主張するものであり、ここにおいて参照として包含されている。タイトルは、「METHOD AND APPARATUS FOR BUILDING MOTION VECTOR LIST FOR MOTION VECTOR PREDICTION」である。
HEVC(High Efficiency Video Coding:高効率ビデオコーディング規格)におけるインターフレーム予測(interframe prediction)技術は、従来のMCP(Motion Compensated Prediction:動き補償予測)方法を採用している。動きベクトル予測のために、HEVCは、複数の動きベクトル補償方法を採用しており、動きベクトル予測の精度が改善され、それにより、コード圧縮パフォーマンスが改善されている。
HEVCインターフレーム予測モードは、これらに限定されるわけではないが、マージモード(Merge mode)、スキップモード(Skip mode)、等を含んでおり、これらの全ては、インターフレーム予測を実行するために複数の動きベクトル競合(motion vector competition)を使用している。動きベクトル予測を実行する際には動きベクトルリストが使用される。マージモード及びスキップモードに対して、動きベクトルリストは、最大で4つの空間的動きベクトル予測と1つの一時的動きベクトル予測を含むことが許されており、マージモードとスキップモードは1つの動きベクトルリストを共有する。コーダー(coder)は、現行PU(Prediction Unit:予測ユニット<以降では、予測ブロックと呼ばれ得るもの>)の動きベクトル予測として、動きベクトルリストから最善の動きベクトル予測を選択する。
動きベクトルリストを作成する方法は、以下のものを含んでよい。
図1に示すように、現行PUの空間的隣接ブロック(neighboring block)は、以下のものを含んでよい。隣接ブロックA0(左下の参照ブロックであり、現行PUの左下コーナー位置に対応している)、隣接ブロックA1(左の参照ブロックであり、現行PUの左下コーナー位置に対応している)、隣接ブロックB0(右上の参照ブロックであり、現行PUの右上コーナー位置に対応している)、隣接ブロックB1(上の参照ブロックであり、現行PUの右上コーナー位置に対応している)、および、隣接ブロックB2(左上の参照ブロックであり、現行PUの左上コーナー位置に対応している)である。TMVP(Temporal Motion Vector Predictor:一時的動きベクトル予測)は、時間ドメインにおいて現行PUに対応する動きベクトルである。
最初に、動きベクトルが、隣接ブロックと、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、隣接ブロックB2、そして、TMVPの順序におけるTMVPから連続的に取得される。次に、取得された動きベクトルは、HEVCにおける規則に従って動きベクトルリストに追加される。所定の動きベクトルリスト作成プロセスは、当業者によく知られたものであり、その詳細は、再度ここにおいて説明されない。
さらに、現行CU(Coding Unit:コーディングユニット<以降では、コーディングユニットと呼ばれ得るもの>)は、少なくとも2つのPUを含んでよく、その少なくとも2つのPUの動きベクトルリストが連続的に作成される。
上記の動きベクトルリスト作成プロセスを実施している最中に、従来技術が少なくとも以下の問題を有していることがわかる。つまり、現行CUが少なくとも2つのPUを含んでおり、その少なくとも2つのPUの動きベクトルリストが連続的に作成されるとすれば、同一のCUにおける少なくとも2つの動きベクトルリストの作成速度は遅くなり、それにより、並行処理の能力が減少してしまう。
本発明の実施例は、動きベクトル予測のための動きベクトル作成する方法又は装置を提供する。それにより、同一のCUにおける少なくとも2つのPUの動きベクトルリストを連続的に作成することの問題を解決し、並行処理の能力を改善する。
上記の課題を達成するために、本発明に係る実施例においては、以降の技術的ソリューションが採用されている。
一つの実施態様において、動きベクトル予測のための動きベクトルリストを作成する方法が提供される。本方法は、:現行予測ブロックの空間的隣接ブロックを取得するステップであり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているステップと;前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するステップであり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているステップと;前記利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得するステップと、取得した前記動きベクトルを前記動きベクトルリストに追加するステップと、を含む、ことを特徴とする方法である。
別の実施態様において、動きベクトル予測のための動きベクトルリストを作成する装置が提供される。本装置は:現行予測ブロックの空間的隣接ブロックを取得するレシーバーであり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているレシーバーと;前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するように構成されたプロセッサであり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているプロセッサと;を含み、前記プロセッサは、前記利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得し、かつ、取得した前記動きベクトルを前記動きベクトルリストに追加するように構成されている、ことを特徴とする装置である。
本発明の実施例において提供される動きベクトル予測のための動きベクトルリストを作成する方法及び装置は、上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、現行予測ブロックの空間的隣接ブロックが最初に取得される。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックが決定される。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルが取得され、取得された動きベクトルが動きベクトルリストに追加される。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
本発明の実施例に係る技術的ソリューションをより明確に説明するように、実施例または従来技術を記述するために必要な添付の図面について以降に簡単に紹介する。明らかに、以降の説明において添付の図面は、本発明のいくつかの実施例を単に示すものであって、当業者であれば、創造的な努力をすることなく、添付の図面から他の図面でさえ引き出すことができる。
図1は、本発明の実施例に従って、コーディングユニットCU、PU、および、隣接ブロックの模式的な構造ダイヤグラムを示している。 図2aは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2bは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2cは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2dは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2eは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2fは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2gは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図3は、本発明の実施例に従って、動きベクトル予測のための動きベクトル作成する方法のフローチャートを示している。 図4は、本発明の実施例に従って、動きベクトル予測のための動きベクトル作成する装置の方法の模式的な構造ダイヤグラムを示している。
以降に、本発明の実施例において添付の実施例に関して、本発明の実施例における技術的ソリューションを明確に説明する。明らかに、説明される実施例は、本発明の全てではなく、むしろ単なる部分である。創造的な努力をすることなく本発明の実施例に基づいて当業者が獲得した全ての他の実施は、本発明の範囲内にあるものである。
従来技術において、CUは、少なくとも2つのPUを含んでよく、その少なくとも2つのPU動きベクトルリストは連続的に作成されてよい。つまり、現行PUに対して動きベクトルリストが作成された後で、次のPUに対する動きベクトルリストの作成が開始される。
所定のプロセスは、以下のものを含んでよい。
図2aから図2gに示すように、CU(図における実線のフレーム)は、さらに、複数のPUに区分されてよい。HEVCにおいて、CUは7つに区分されている。例えば、図2aから図2cに示す区分方法において、現行CUは、左側及び右側にある2つのPU(PU1とPU2)に区分されている。別の実施例として、図2dに示す区分方法において、現行CUは、4つのPU(PU1、PU2、PU3、および、PU4)に区分されておいる。他のタイプについて、ここでは説明されない。
例として図2に示す区分を取り上げると、PU2の空間的参照ブロックA1がPU1の内側に配置されているので、PU1のコーディングが完了した後にだけ、PU2の動きベクトルリストを作成するように開始され得る。PU1とPU2の動きベクトルリストは、連続的に作成されるのである。特に、PU1の動きベクトルリストが上述の方法に従って最初に作成されて、次に、PU2の動きベクトルリストが上述の方法に従って作成される。
この方法において、少なくとも2つのPUに係る動きベクトルリストの作成速度は遅く、圧縮コーディングのパフォーマンスは低下する。
上記の少なくとも2つのPUに係る動きベクトルリストの作成速度が遅くて圧縮コーディングのパフォーマンスは低下するという問題を解決するために、動きベクトル予測のための動きベクトルリスト作成方法が実施例において提供される。図3に示すように、本方法は、以下のことを含んでいる。
ステップ301:現行予測ブロックの空間的隣接ブロックを取得する。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。
ステップ302:現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックを決定する。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。
ステップ303:利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得して、取得した動きベクトルを動きベクトルリストに追加する。
上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、現行予測ブロックの空間的隣接ブロックが最初に取得される。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックが決定される。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルが取得され、取得された動きベクトルが動きベクトルリストに追加される。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
動きベクトル予測のための動きベクトルリスト作成の別の方法が実施例において提供される。本方法は、図3に示す方法のさらなる拡張である。図3に示すように、本発明方法は、以下のことを含んでよい。
ステップ301:現行予測ブロックの空間的隣接ブロックを取得する。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。
図1に示すように、予測ブロックの空間的隣接ブロックは、以下を含んでいる。予測ブロックの左下側に位置している隣接ブロックA0、予測ブロックの左側に位置している隣接ブロックA1、予測ブロックの右上側に位置している隣接ブロックB0、予測ブロックの上側に位置している隣接ブロックB1、および、予測ブロックの左上側に位置している隣接ブロックB2である。
予測ブロックの空間的隣接ブロック、予測ブロック、および、隣接ブロックを取得するための方法は、この実施例において限定されない。方法は、当業者によってよく知られた技術であり、再度ここにおいて詳細は説明されない。
ステップ302:現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックを決定する。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。
さらに、図2eから図2gに示されるように、現行コーディングユニットCUが、上側と下側で第1予測ブロックPU1と第2予測ブロックPU2へと区分されており、現行予測ブロックが第2予測ブロックPU2である場合、PU2の利用可能な隣接ブロックは、以下を含んでいる。第2予測ブロックの隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、および、隣接ブロックB1である。この時点で、隣接ブロックB1は現行コーディングユニットCUの内側に位置しており、第2予測ブロックPU2の利用可能な隣接ブロックとして動作しない。
図2aから図2cに示されるように、現行コーディングユニットCUが、左側と右側で第1予測ブロックPU1と第2予測ブロックPU2へと区分されており、現行予測ブロックが第2予測ブロックPU2である場合、PU2の利用可能な隣接ブロックは、以下を含んでいる。第2予測ブロックの隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、および、隣接ブロックB2である。この時点で、隣接ブロックA1は現行コーディングユニットCUの内側に位置しており、第2予測ブロックPU2の利用可能な隣接ブロックとして動作しない。
さらに、利用可能な隣接ブロックは、隣接ブロックのフラグビット(flag bit)を使用することによって判断することができる。フラグビットは、これに限定されるわけではないが、隣接ブロックがCUの内側に位置していないことを特定するために使用され得る。
隣接ブロックのフラグビットを使用することによって利用可能な隣接ブロックを判断する方法は、この実施例に限定されない。本技術は、当業者によってよく知られた技術であり、再度ここにおいて詳細は説明されない。
ステップ303:利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得して、取得した動きベクトルを動きベクトルリストに追加する。
さらに、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得することは、以下を含んでいる。
利用可能な隣接ブロックがインターフレームコーディングブロックである場合、利用可能な隣接ブロックから、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で動きベクトルを取得すること。
特に、利用可能な隣接ブロックがインターフレームコーディングブロックである場合は、隣接ブロックが動きベクトル情報を含んでいることを意味しており、隣接ブロックから動きベクトルが取得される。
特に、予測ブロックの利用可能な隣接ブロックが、第2予測ブロックの隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、および、隣接ブロックB2を含んでいる場合、隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、および、隣接ブロックB2から、隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、そして、隣接ブロックB2の順番で、動きベクトルが取得される。上記の観点において、現行CUが上側と下側で第1及び第2予測ブロックへと区分されている場合、第2予測ブロックの利用可能な隣接ブロックは、第1予測ブロックの内側に位置する隣接ブロックB1を含まない。従って、B1からは動きベクトルが取得されない。
予測ブロックの利用可能な隣接ブロックが、第2予測ブロックPU2の隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、および、隣接ブロックB2を含んでいる場合、隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、および、隣接ブロックB2から、隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、そして、隣接ブロックB2の順番で、動きベクトルが取得される。上記の観点において、現行CUが左側と右側で第1及び第2予測ブロックへと区分されている場合、第2予測ブロックの利用可能な隣接ブロックは、第1予測ブロックの内側に位置する隣接ブロックA1を含まない。従って、A1からは動きベクトルが取得されない。
さらに、取得した動きベクトルが現行の利用可能な隣接ブロックの動きベクトルである場合、動きベクトルリストに取得した動きベクトルを追加することは、以下を含んでいる。
現行の利用可能な隣接ブロックの動きベクトルが、その現行の利用可能な隣接ブロックを除いて他の利用可能な隣接ブロックの動きベクトルと同一であるかどうかを判断し、そして、同一でない場合に、現行の利用可能な隣接ブロックの動きベクトルを動きベクトルリストに追加することである。
上記の観点において、上記のプロセスの最中には、利用可能な隣接ブロックが現行CUの内側に位置する隣接ブロックを含まないので、CUの複数のPUは依存性を有することがなく、並行に実行され得る。例えば、現行CUが左側と右側で第1予測ブロックPU1と第2予測ブロックPU2へと区分されている場合、第2予測ブロックの利用可能な隣接ブロックは、第1予測ブロックの内側に位置している隣接ブロックA1を含まず、A1の動きベクトルは判断プロセスの中に取込まれない。従って、第1予測ブロックと第2予測ブロックは、並行処理を実行することができる。
特に、実施例に係る実行方法として、現行の利用可能な隣接ブロックが隣接ブロックB1である場合、隣接ブロックB1の動きベクトルが隣接ブロックA1の動きベクトルと同一であるかどうかが判断される。
現行の利用可能な隣接ブロックが隣接ブロックB0である場合、隣接ブロックB0の動きベクトルが隣接ブロックB1の動きベクトルと同一であるかどうかが判断され;
現行の利用可能な隣接ブロックが隣接ブロックA0である場合、隣接ブロックA0の動きベクトルが隣接ブロックA1の動きベクトルと同一であるかどうかが判断され;そして、
現行の利用可能な隣接ブロックが隣接ブロックB2である場合、隣接ブロックB2の動きベクトルが、隣接ブロックA1の動きベクトルと隣接ブロックB1の動きベクトルのうち少なくとも一つと同一であるかどうかが判断される。
さらに、取得された動きベクトルが現行の利用可能な隣接ブロックの動きベクトルである場合、取得された動きベクトルを動きベクトルリストに追加することは、さらに、以下のことを含んでいる。
現行の利用可能な隣接ブロックの動きベクトルが、動きベクトルリストに追加された動きベクトルと同一であるかどうかを判断し、そして、同一でない場合に、現行の利用可能な隣接ブロックの動きベクトルを動きベクトルリストに追加することである。
特に、実施例に係る実行方法として、現行の利用可能な隣接ブロックが隣接ブロックB1である場合、隣接ブロックB1の動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトルと同一であるかどうかが判断される。
現行の利用可能な隣接ブロックが隣接ブロックB0である場合、隣接ブロックB0の動きベクトルが、動きベクトルリストに追加された隣接ブロックB1の動きベクトルと同一であるかどうかが判断され;
現行の利用可能な隣接ブロックが隣接ブロックA0である場合、隣接ブロックA0の動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトルと同一であるかどうかが判断され;そして、
現行の利用可能な隣接ブロックが隣接ブロックB2である場合、隣接ブロックB2の動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトルと、動きベクトルリストに追加された隣接ブロックB1の動きベクトルのうち少なくとも一つと同一であるかどうかが判断される。
さらに、TMVPが、動きベクトルリストの蓄積の最中に考慮されてよい。
実施例に係る実行方法として、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得することは、さらに、以下を含んでいる。
利用可能な隣接ブロック及び/又はTMVPから、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、隣接ブロックB2、そして、TMVPの順番で動きベクトルを取得すること。
本発明に係るソリューションをより明確に説明するために、異なる区分方法を用いてCUに対する動きベクトルリストを作成する方法が、特に以降に説明される。
1.CUを左側と右側でPU1とPU2へ区分
(1)PU1の動きベクトルリストを作成
1)隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、および、隣接ブロックB2から、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で、動きベクトルを取得して、それらを動きベクトルリストに追加する。
a.現行の隣接ブロックが隣接ブロックA1であり、かつ、隣接ブロックA1が動きベクトルを含んでいる場合にのみ、隣接ブロックA1の動きベクトルを動きベクトルリストに追加する。
b.現行の隣接ブロックが隣接ブロックB1であり、かつ、隣接ブロックB1が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトルと異なっている場合にのみ、隣接ブロックB1の動きベクトルを動きベクトルリストに追加する。
c.現行の隣接ブロックが隣接ブロックB0であり、かつ、隣接ブロックB0が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックB1の動きベクトルと異なっている場合にのみ、隣接ブロックB0の動きベクトルを動きベクトルリストに追加する。
d.現行の隣接ブロックが隣接ブロックA0であり、かつ、隣接ブロックA0が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトルと異なっている場合にのみ、隣接ブロックA0の動きベクトルを動きベクトルリストに追加する。
e.現行の隣接ブロックが隣接ブロックB2であり、かつ、隣接ブロックB2が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトル及び動きベクトルリストに追加された隣接ブロックB1の動きベクトルの両方と異なっており、かつ、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、および、隣接ブロックA0のうち少なくとも一つの動きベクトルが動きベクトルリストに追加されている場合にのみ、隣接ブロックB2の動きベクトルを動きベクトルリストに追加する。
2.TMVPの取得と動きベクトルへの追加
特に、PU1のTMVPは、PU1の一時的参照画像を使用して取得され、PU1のTMVPが利用可能な場合に、TMVPが動きベクトルリストに追加される。
(2)PU2の動きベクトルリストを作成
1)隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、および、隣接ブロックB2から、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で、動きベクトルを取得して、それらを動きベクトルリストに追加する。
a.現行の隣接ブロックが隣接ブロックB1であり、かつ、隣接ブロックB1が動きベクトルを含んでいる場合にのみ、隣接ブロックB1の動きベクトルを動きベクトルリストに追加する。
b.現行の隣接ブロックが隣接ブロックB0であり、かつ、隣接ブロックB0が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックB1の動きベクトルと異なっている場合にのみ、隣接ブロックB0の動きベクトルを動きベクトルリストに追加する。
c.現行の隣接ブロックが隣接ブロックA0であり、かつ、隣接ブロックA0が動きベクトルを含んでいる場合にのみ、隣接ブロックA0の動きベクトルを動きベクトルリストに追加する。
d.現行の隣接ブロックが隣接ブロックB2であり、かつ、隣接ブロックB2が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックB1の動きベクトルと異なっている場合にのみ、隣接ブロックB2の動きベクトルを動きベクトルリストに追加する。
2)TMVPを取得して、それを動きベクトルリストに追加する。特に、PU1のTMVPはPU1の一時的参照画像を使用して取得され、PU1のTMVPが利用可能である場合にTMVPが動きベクトルリストに追加される。
この時点で、つまりPU2の動きベクトルリストが作成されたときから、PU2の隣接ブロックA1は考慮されておらず、PU1及びPU2の動きベクトルリストは並行して作成され得る。
2.CUを上側と下側でPU1とPU2へ区分
(1)PU1の動きベクトルリストを作成
上記「1. CUを左側と右側でPU1とPU2へ区分」の「(1)PU1の動きベクトルリストを作成」に係る方法と類似のものである。よって、再度ここにおいて詳細は説明されない。
(2)PU2の動きベクトルリストを作成
1)隣接ブロックA1、隣接ブロックB0、隣接ブロックA0、および、隣接ブロックB2から、隣接ブロックA1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で、動きベクトルを取得して、それらを動きベクトルリストに追加する。
a.現行の隣接ブロックが隣接ブロックA1であり、かつ、隣接ブロックA1が動きベクトルを含んでいる場合にのみ、隣接ブロックA1の動きベクトルを動きベクトルリストに追加する。
b.現行の隣接ブロックが隣接ブロックB0であり、かつ、隣接ブロックB0が動きベクトルを含んでいる場合にのみ、隣接ブロックB0の動きベクトルを動きベクトルリストに追加する。
c.現行の隣接ブロックが隣接ブロックA0であり、かつ、隣接ブロックA0が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトルと異なっている場合にのみ、隣接ブロックA0の動きベクトルを動きベクトルリストに追加する。
d.現行の隣接ブロックが隣接ブロックB2であり、かつ、隣接ブロックB2が動きベクトルを含んでおり、かつ、動きベクトルが、動きベクトルリストに追加された隣接ブロックA1の動きベクトルと異なっている場合にのみ、隣接ブロックB2の動きベクトルを動きベクトルリストに追加する。
2)TMVPを取得して、それを動きベクトルリストに追加する。特に、PU1のTMVPはPU1の一時的参照画像を使用して取得され、PU1のTMVPが利用可能である場合にTMVPが動きベクトルリストに追加される。
この時点で、つまりPU2の動きベクトルリストが作成されたときから、PU2の隣接ブロックB1は考慮されておらず、PU1及びPU2の動きベクトルリストは並行して作成され得る。
上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、現行予測ブロックの空間的隣接ブロックが最初に取得される。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックが決定される。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルが取得され、取得された動きベクトルが動きベクトルリストに追加される。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
以降に、いくつかの装置の実施例が提供される。提供される装置実施例は、それぞれに上記の方法の実施例に対応するものである。装置、および、装置の中に含まれるレシーバーとプロセッサに係る所定の実施方法については方法の実施例を参照されたい。
動きベクトル予測のための動きベクトルリストを作成する装置が実施例において提供される。図4に示すように、装置は、現行予測ブロックの空間的隣接ブロックを取得するレシーバー41であり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているレシーバーと;前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するように構成されたプロセッサ42であり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているプロセッサと;を含み、前記プロセッサは、前記利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得し、かつ、取得した前記動きベクトルを前記動きベクトルリストに追加するように構成されている。
さらに、前記レシーバー41によって取得された前記予測ブロックの前記空間的隣接ブロックは:前記予測ブロックの左下側に位置している隣接ブロックA0、前記予測ブロックの左側に位置している隣接ブロックA1、前記予測ブロックの右上側に位置している隣接ブロックB0、前記予測ブロックの上側に位置している隣接ブロックB1、および、前記予測ブロックの左上側に位置している隣接ブロックB2、を含んでいる。
さらに、前記プロセッサ42は:前記コーディングユニットが上側と下側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックが、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックA1、前記隣接ブロックB0、および、前記隣接ブロックB1を含むように、かつ、前記コーディングユニットが左側と右側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックが、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックB0、前記隣接ブロックB1、および、前記隣接ブロックB2を含むように構成されている。
さらに、前記プロセッサ42は:前記利用可能な隣接ブロックがインターフレームコーディングブロックである場合に、前記利用可能な隣接ブロックから、前記隣接ブロックA1、前記隣接ブロックB1、前記隣接ブロックB0、前記隣接ブロックA0、そして、前記隣接ブロックB2の順番で動きベクトルを取得するように構成されている。
さらに、前記プロセッサ42は:現行の利用可能な隣接ブロックの前記動きベクトルが、前記現行の利用可能な隣接ブロックを除いて他の利用可能な隣接ブロックの動きベクトルと同一であるかどうかを判断し、同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトルを前記動きベクトルリストに追加するように構成されている。
さらに、前記プロセッサ42は:現行の利用可能な隣接ブロックの前記動きベクトルが、前記動きベクトルリストに追加された動きベクトルと同一であるかどうかを判断し、同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトルを前記動きベクトルリストに追加するように構成されている。
さらに、前記プロセッサ42は:前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトルが前記隣接ブロックA1の動きベクトルと同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトルが前記隣接ブロックB1の動きベクトルと同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトルが前記隣接ブロックA1の動きベクトルと同一であるかどうかを判断し;かつ、前記現行の利用可能な隣接ブロックが前記隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトルが、前記隣接ブロックA1の動きベクトルと前記隣接ブロックB1の動きベクトルのうち少なくとも一つと同一であるかどうかを判断するように構成されている。
さらに、前記プロセッサ42は:前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトルが、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトルと同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトルが、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトルと同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトルが、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトルと同一であるかどうかを判断し;かつ、前記現行の利用可能な隣接ブロックが隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトルが、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトルと、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトルのうち少なくとも一つと同一であるかどうかを判断するように構成されている。
上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、レシーバーは現行予測ブロックの空間的隣接ブロックを最初に取得する。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、プロセッサは、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックを決定する。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、プロセッサは、利用可能な隣接ブロックの動きベクトルに従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトルを取得して、取得した動きベクトルを動きベクトルリストに追加する。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
実施例に係る前出の説明を通じて、当業者であれば、本発明が一般的に必要なハードウェアに加えてソフトウェアによって実施され得ること、および、本発明が全くのハードウェアによっても実施され得ることが、明確に理解されよう。しかしながら、ほとんどの状況下では、前者の方が望ましい。こうした理解に基づいて、基本的に本発明の技術的ソリューション、または、従来技術に貢献する部分は、ソフトウェアプロダクトの形式で実施され得る。コンピュータソフトウェアプロダクトは、例えば、コンピュータのフロッピー(登録商標)ディスク、ハードディスク、または、光ディスクといった、読取り可能なストレージ媒体に保管され、(パーソナルコンピュータ、サーバ、または、ネットワークデバイスであり得る)コンピュータデバイスに、本発明の実施例において説明された方法を実施するように指示するいくつかのインストラクションを含んでいる。
上記の記載は、単に本発明の特定の実施例を説明するものであり、本発明の保護範囲を限定することを意図するものではない。本発明において開示された技術的範囲内で当業者によって容易に把握されるあらゆるバリエーション又は置き換えは、本発明の保護範囲の中にあるものである。従って、本発明の保護範囲は、添付の特許請求の範囲を対象とするものである。

Claims (16)

  1. 動きベクトル予測のための動きベクトルリストを作成する方法であって、
    現行コーディングユニットが、左側と右側において、第1予測ブロックPU1と第2予測ブロックPU2へと分割されており、
    現行予測ブロックは前記右側における前記第2予測ブロックPU2であり、
    前記現行予測ブロックの空間的隣接ブロックは、
    前記現行予測ブロックの左下側に位置している空間的隣接ブロックA0、
    前記現行予測ブロックの左側に位置している空間的隣接ブロックA1、
    前記現行予測ブロックの右上側に位置している空間的隣接ブロックB0、
    前記現行予測ブロックの上側に位置している空間的隣接ブロックB1、および、
    前記現行予測ブロックの左上側に位置している空間的隣接ブロックB2、
    を含み、
    前記空間的隣接ブロックA1は、前記現行コーディングユニットの内側に配置されており、
    前記方法は、
    a.前記空間的隣接ブロックB1と前記空間的隣接ブロックA1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB1が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB1の動きベクトルを追加するステップと、
    b.前記空間的隣接ブロックB0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の動きベクトルを追加するステップであり、前記空間的隣接ブロックB0の前記動きベクトルは、前記空間的隣接ブロックB1の前記動きベクトルとは異なる、ステップと、
    c.前記空間的隣接ブロックA0と前記空間的隣接ブロックA1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックA0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の動きベクトルを追加するステップと、
    d.前記空間的隣接ブロックB2と前記空間的隣接ブロックA1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックB1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加するステップと、
    e.一時的動きベクトル予測(TMVP)が利用可能な場合に、前記動きベクトルリストに対して前記TMVPを追加するステップ、
    を含み、
    前記現行予測ブロックは、前記動きベクトルリストを使用して予測され、
    前記第1予測ブロックPU1と前記第2予測ブロックPU2の予測ブロックの動きベクトルリストは、並行して作成される、
    方法。
  2. 前記空間的隣接ブロックB1が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB1の動きベクトルを追加する前記ステップは、
    前記空間的隣接ブロックB1の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルと同一であるか否かを判断することなく、かつ、前記空間的隣接ブロックB1が動きベクトルを含んでいる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB1の前記動きベクトルを直接的に追加するステップ、
    を含む、請求項1に記載の方法。
  3. 前記空間的隣接ブロックA0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の動きベクトルを追加するステップは、
    前記空間的隣接ブロックA0の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルと同一であるか否かを判断することなく、かつ、前記空間的隣接ブロックA0が動きベクトルを含んでいる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の前記動きベクトルを直接的に追加するステップ、
    を含む、請求項1または2に記載の方法。
  4. 前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックB1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加する前記ステップは、
    前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルと同一であるか否かを判断することなく、かつ、
    前記空間的隣接ブロックB2が動きベクトルを含んでおり、かつ、前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックB1の動きベクトルとは異なる場合にだけ、
    前記動きベクトルリストに対して前記空間的隣接ブロックB2の前記動きベクトルを直接的に追加するステップ、
    を含む、請求項1乃至3いずれか一項に記載の方法。
  5. 動きベクトル予測のための動きベクトルリストを作成する装置であって、
    現行コーディングユニットが、左側と右側において、第1予測ブロックPU1と第2予測ブロックPU2へと分割されており、
    現行予測ブロックは前記右側における前記第2予測ブロックPU2であり、
    前記現行予測ブロックの空間的隣接ブロックは、
    前記現行予測ブロックの左下側に位置している空間的隣接ブロックA0、
    前記現行予測ブロックの左側に位置している空間的隣接ブロックA1、
    前記現行予測ブロックの右上側に位置している空間的隣接ブロックB0、
    前記現行予測ブロックの上側に位置している空間的隣接ブロックB1、および、
    前記現行予測ブロックの左上側に位置している空間的隣接ブロックB2、
    を含み、
    前記空間的隣接ブロックA1は、前記現行コーディングユニットの内側に配置されており、
    前記装置は、
    インストラクションを含んでいるメモリ、および、該メモリと通信するプロセッサを含み、
    前記インストラクションが実行されると前記プロセッサは、
    a.前記空間的隣接ブロックB1と前記空間的隣接ブロックA1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB1が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB1の動きベクトルを追加し、
    b.前記空間的隣接ブロックB0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の動きベクトルを追加し、かつ、前記空間的隣接ブロックB0の前記動きベクトルは、前記空間的隣接ブロックB1の前記動きベクトルとは異なっており、
    c.前記空間的隣接ブロックA0と前記空間的隣接ブロックA1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックA0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の動きベクトルを追加し、
    d.前記空間的隣接ブロックB2と前記空間的隣接ブロックA1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックB1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加し、
    e.一時的動きベクトル予測(TMVP)が利用可能な場合に、前記動きベクトルリストに対して前記TMVPを追加し、
    前記現行予測ブロックは、前記動きベクトルリストを使用して予測され、
    前記第1予測ブロックPU1と前記第2予測ブロックPU2の予測ブロックの動きベクトルリストは、並行して作成される、
    装置。
  6. 前記空間的隣接ブロックB1が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB1の動きベクトルを追加するために、
    前記プロセッサは、
    前記空間的隣接ブロックB1の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルと同一であるか否かを判断することなく、かつ、前記空間的隣接ブロックB1が動きベクトルを含んでいる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB1の前記動きベクトルを直接的に追加する、
    ように、構成されている、
    請求項5に記載の装置。
  7. 前記空間的隣接ブロックA0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の動きベクトルを追加するために、
    前記プロセッサは、
    前記空間的隣接ブロックA0の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルと同一であるか否かを判断することなく、かつ、前記空間的隣接ブロックA0が動きベクトルを含んでいる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の前記動きベクトルを直接的に追加する、
    ように、構成されている、
    請求項5または6に記載の装置。
  8. 前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックB1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加するために、
    前記プロセッサは、
    前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルと同一であるか否かを判断することなく、かつ、
    前記空間的隣接ブロックB2が動きベクトルを含んでおり、かつ、前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックB1の動きベクトルとは異なる場合にだけ、
    前記動きベクトルリストに対して前記空間的隣接ブロックB2の前記動きベクトルを直接的に追加する、
    ように、構成されている、
    請求項5乃至7いずれか一項に記載の装置。
  9. 動きベクトル予測のための動きベクトルリストを作成する方法であって、
    現行コーディングユニットが、上側と下側において、第1予測ブロックPU1と第2予測ブロックPU2へと分割されており、
    現行予測ブロックは前記下側における前記第2予測ブロックPU2であり、
    前記現行予測ブロックの空間的隣接ブロックは、
    前記現行予測ブロックの左下側に位置している空間的隣接ブロックA0、
    前記現行予測ブロックの左側に位置している空間的隣接ブロックA1、
    前記現行予測ブロックの右上側に位置している空間的隣接ブロックB0、
    前記現行予測ブロックの上側に位置している空間的隣接ブロックB1、および、
    前記現行予測ブロックの左上側に位置している空間的隣接ブロックB2、
    を含み、
    前記空間的隣接ブロックB1は、前記現行コーディングユニットの内側に配置されており、
    前記方法は、
    a.前記空間的隣接ブロックA1が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA1の動きベクトルを追加するステップと、
    b.前記空間的隣接ブロックB0と前記空間的隣接ブロックB1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の動きベクトルを追加するステップと、
    c.前記空間的隣接ブロックA0が利用可能であり、かつ、前記空間的隣接ブロックA0の前記動きベクトルは前記空間的隣接ブロックA1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の動きベクトルを追加するステップと、
    d.前記空間的隣接ブロックB2と前記空間的隣接ブロックB1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックA1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加するステップと、
    e.一時的動きベクトル予測(TMVP)が利用可能な場合に、前記動きベクトルリストに対して前記TMVPを追加するステップ、
    を含み、
    前記現行予測ブロックは、前記動きベクトルリストを使用して予測され、
    前記第1予測ブロックPU1と前記第2予測ブロックPU2の予測ブロックの動きベクトルリストは、並行して作成される、
    方法。
  10. 前記空間的隣接ブロックB0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の動きベクトルを追加する前記ステップは、
    前記空間的隣接ブロックB0の前記動きベクトルが、前記空間的隣接ブロックB1の動きベクトルと同一であるか否かを判断することなく、かつ、前記空間的隣接ブロックB0が動きベクトルを含んでいる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の前記動きベクトルを直接的に追加するステップ、
    を含む、請求項9に記載の方法。
  11. 前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックA1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加する前記ステップは、
    前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックB1の動きベクトルと同一であるか否かを判断することなく、かつ、
    前記空間的隣接ブロックB2が動きベクトルを含んでおり、かつ、前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルとは異なる場合にだけ、
    前記動きベクトルリストに対して前記空間的隣接ブロックB2の前記動きベクトルを直接的に追加するステップ、
    を含む、請求項9または10に記載の方法。
  12. 動きベクトル予測のための動きベクトルリストを作成する装置であって、
    現行コーディングユニットが、上側と下側において、第1予測ブロックPU1と第2予測ブロックPU2へと分割されており、
    現行予測ブロックは前記下側における前記第2予測ブロックPU2であり、
    前記現行予測ブロックの空間的隣接ブロックは、
    前記現行予測ブロックの左下側に位置している空間的隣接ブロックA0、
    前記現行予測ブロックの左側に位置している空間的隣接ブロックA1、
    前記現行予測ブロックの右上側に位置している空間的隣接ブロックB0、
    前記現行予測ブロックの上側に位置している空間的隣接ブロックB1、および、
    前記現行予測ブロックの左上側に位置している空間的隣接ブロックB2、
    を含み、
    前記空間的隣接ブロックB1は、前記現行コーディングユニットの内側に配置されており、
    前記装置は、
    インストラクションを含んでいるメモリストレージ、および、該メモリと通信するプロセッサを含み、
    前記インストラクションが実行されると前記プロセッサは、
    a.前記空間的隣接ブロックA1が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA1の動きベクトルを追加し、
    b.前記空間的隣接ブロックB0と前記空間的隣接ブロックB1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の動きベクトルを追加し、
    c.前記空間的隣接ブロックA0が利用可能であり、かつ、前記空間的隣接ブロックA0の前記動きベクトルは前記空間的隣接ブロックA1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックA0の動きベクトルを追加し、
    d.前記空間的隣接ブロックB2と前記空間的隣接ブロックB1との間で剪定プロセスが実施されることなく、前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックA1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加し、
    e.一時的動きベクトル予測(TMVP)が利用可能な場合に、前記動きベクトルリストに対して前記TMVPを追加し、
    前記現行予測ブロックは、前記動きベクトルリストを使用して予測され、
    前記第1予測ブロックPU1と前記第2予測ブロックPU2の予測ブロックの動きベクトルリストは、並行して作成される、
    装置。
  13. 前記空間的隣接ブロックB0が利用可能な場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の動きベクトルを追加するために、
    前記プロセッサは、
    前記空間的隣接ブロックB0の前記動きベクトルが、前記空間的隣接ブロックB1の動きベクトルと同一であるか否かを判断することなく、かつ、前記空間的隣接ブロックB0が動きベクトルを含んでいる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB0の前記動きベクトルを直接的に追加する、
    ように、構成されている、
    請求項12に記載の装置。
  14. 前記空間的隣接ブロックB2が利用可能であり、かつ、前記空間的隣接ブロックB2の前記動きベクトルは前記空間的隣接ブロックA1の前記動きベクトルとは異なる場合にだけ、前記動きベクトルリストに対して前記空間的隣接ブロックB2の動きベクトルを追加するために、
    前記プロセッサは、
    前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックB1の動きベクトルと同一であるか否かを判断することなく、かつ、
    前記空間的隣接ブロックB2が動きベクトルを含んでおり、かつ、前記空間的隣接ブロックB2の前記動きベクトルが、前記空間的隣接ブロックA1の動きベクトルとは異なる場合にだけ、
    前記動きベクトルリストに対して前記空間的隣接ブロックB2の前記動きベクトルを直接的に追加する、
    ように、構成されている、
    請求項12または13に記載の装置。
  15. 複数のインストラクションを含むコンピュータプログラムであって、実行されると請求項1乃至4および請求項9乃至11のうちいずれか一項に記載の方法をコンピュータに実施させる、コンピュータプログラム。
  16. 請求項15に記載のコンピュータプログラムを記憶した、コンピュータで読取り可能な記憶媒体。
JP2018188780A 2012-10-08 2018-10-04 動きベクトル予測のための動きベクトルリストを作成する方法及び装置 Active JP6863943B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210377579.4 2012-10-08
CN201210377579.4A CN102883163B (zh) 2012-10-08 2012-10-08 用于运动矢量预测的运动矢量列表建立的方法、装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016249359A Division JP2017079491A (ja) 2012-10-08 2016-12-22 動きベクトル予測のための動きベクトルリストを作成する方法及び装置

Publications (2)

Publication Number Publication Date
JP2019033515A JP2019033515A (ja) 2019-02-28
JP6863943B2 true JP6863943B2 (ja) 2021-04-21

Family

ID=47484278

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014540313A Active JP6068490B2 (ja) 2012-10-08 2013-04-07 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
JP2016249359A Pending JP2017079491A (ja) 2012-10-08 2016-12-22 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
JP2018188780A Active JP6863943B2 (ja) 2012-10-08 2018-10-04 動きベクトル予測のための動きベクトルリストを作成する方法及び装置

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2014540313A Active JP6068490B2 (ja) 2012-10-08 2013-04-07 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
JP2016249359A Pending JP2017079491A (ja) 2012-10-08 2016-12-22 動きベクトル予測のための動きベクトルリストを作成する方法及び装置

Country Status (13)

Country Link
US (3) US9549181B2 (ja)
EP (2) EP2822283A4 (ja)
JP (3) JP6068490B2 (ja)
KR (4) KR101835563B1 (ja)
CN (1) CN102883163B (ja)
AU (1) AU2013314174B2 (ja)
BR (1) BR112014010225B1 (ja)
CA (1) CA2845442C (ja)
HK (1) HK1203723A1 (ja)
MY (2) MY165294A (ja)
RU (1) RU2553060C1 (ja)
SG (2) SG10201608387VA (ja)
WO (1) WO2014056314A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102883163B (zh) * 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
CN104104957B (zh) * 2013-04-08 2018-03-16 华为技术有限公司 解码方法、编码方法、解码装置和编码装置
CN104125463A (zh) * 2013-04-26 2014-10-29 华为技术有限公司 一种图像预测编码方法及图像编码器
KR101881435B1 (ko) 2014-01-14 2018-07-24 후아웨이 테크놀러지 컴퍼니 리미티드 이더넷 신호 전송 방법 및 스케줄링 방법, 및 그 장치 및 시스템
TWI549489B (zh) * 2014-04-16 2016-09-11 智原科技股份有限公司 移動偵測電路與方法
CN107534767A (zh) * 2015-04-27 2018-01-02 Lg电子株式会社 用于处理视频信号的方法及其装置
KR102379196B1 (ko) * 2017-05-31 2022-03-28 삼성전자주식회사 처리 장치들 및 그 제어 방법들
WO2019203527A1 (ko) * 2018-04-16 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 복수의 주변 블록들을 사용하는 인터 예측에 따른 영상 디코딩 방법 및 장치
US10469869B1 (en) * 2018-06-01 2019-11-05 Tencent America LLC Method and apparatus for video coding
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
TWI719525B (zh) 2018-06-29 2021-02-21 大陸商北京字節跳動網絡技術有限公司 Lut與amvp之間的交互
KR102646649B1 (ko) 2018-06-29 2024-03-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
JP7256265B2 (ja) 2018-06-29 2023-04-11 北京字節跳動網絡技術有限公司 ルックアップテーブルの更新:fifo、制限されたfifo
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
GB2588531B (en) 2018-06-29 2023-02-01 Beijing Bytedance Network Tech Co Ltd Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
JP7368396B2 (ja) 2018-07-02 2023-10-24 華為技術有限公司 動きベクトル予測方法及び関連する装置
GB2589241B (en) 2018-07-02 2023-06-07 Beijing Bytedance Network Tech Co Ltd Update of look-up tables
US11336914B2 (en) * 2018-08-16 2022-05-17 Qualcomm Incorporated History-based candidate list with classification
CN110868601B (zh) * 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
WO2020106208A1 (en) 2018-11-21 2020-05-28 Telefonaktiebolaget Lm Ericsson (Publ) Methods of video picture coding with sub-block merge simplification and related apparatuses
TWI829386B (zh) 2018-12-28 2024-01-11 日商Jvc建伍股份有限公司 影像編碼裝置、影像編碼方法、影像編碼程式、影像解碼裝置、影像解碼方法及影像解碼程式
KR102648159B1 (ko) 2019-01-10 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
CN111698506B (zh) * 2019-03-11 2022-04-26 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、三角预测解码方法及装置
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
WO2020259589A1 (en) * 2019-06-25 2020-12-30 Zhejiang Dahua Technology Co., Ltd. Systems and methods for inter-frame prediction
WO2022114752A1 (ko) * 2020-11-24 2022-06-02 현대자동차주식회사 효율적인 예측 및 변환을 위한 블록 분할 구조 및 이를 이용한 비디오 부호화 및 복호화를 위한 방법 및 장치

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982441A (en) 1996-01-12 1999-11-09 Iterated Systems, Inc. System and method for representing a video sequence
US6594313B1 (en) * 1998-12-23 2003-07-15 Intel Corporation Increased video playback framerate in low bit-rate video applications
US7280700B2 (en) * 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
US8625680B2 (en) 2003-09-07 2014-01-07 Microsoft Corporation Bitstream-controlled post-processing filtering
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US20060222074A1 (en) * 2005-04-01 2006-10-05 Bo Zhang Method and system for motion estimation in a video encoder
CN100473168C (zh) * 2005-06-21 2009-03-25 中国科学院计算技术研究所 视频编码的运动矢量空间预测方法
US8509551B2 (en) 2005-07-22 2013-08-13 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recording with image encoding program and computer readable recording medium recorded with image decoding program
KR100750136B1 (ko) * 2005-11-02 2007-08-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
CN101072356B (zh) * 2006-05-12 2011-02-09 中国科学院计算技术研究所 一种运动矢量预测方法
KR101365567B1 (ko) * 2007-01-04 2014-02-20 삼성전자주식회사 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP2010509799A (ja) * 2006-11-03 2010-03-25 サムスン エレクトロニクス カンパニー リミテッド 映像の予測符号化方法及び装置、その復号化方法及び装置
US8145002B2 (en) 2007-06-28 2012-03-27 Mitsubishi Electric Corporation Image encoding device and image encoding method
KR101364195B1 (ko) * 2008-06-26 2014-02-21 에스케이텔레콤 주식회사 움직임벡터 부호화/복호화 방법 및 그 장치
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8634457B2 (en) 2008-09-26 2014-01-21 Qualcomm Incorporated Determining availability of video data units
KR101590633B1 (ko) * 2008-11-11 2016-02-02 삼성전자주식회사 슬라이스 단위로 분할된 동영상을 처리하는 동영상 부호화/복호화장치 및 동영상 부호화/복호화방법
CA2765828C (en) 2009-06-18 2016-04-19 Kabushiki Kaisha Toshiba Video encoding apparatus and a video decoding apparatus
KR20110008653A (ko) 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
KR101675116B1 (ko) * 2009-08-06 2016-11-10 삼성전자 주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN102860006B (zh) * 2010-02-05 2016-11-23 瑞典爱立信有限公司 管理预测运动向量候选
US9973768B2 (en) * 2010-03-16 2018-05-15 Texas Instruments Incorporated CABAC decoder with decoupled arithmetic decoding and inverse binarization
CN107241604B (zh) * 2010-04-01 2020-11-03 索尼公司 图像处理设备和方法
CN102215392B (zh) * 2010-04-09 2013-10-09 华为技术有限公司 用于估计像素值的帧内预测方法或装置
ES2901793T3 (es) * 2010-05-25 2022-03-23 Lg Electronics Inc Nuevo modo de predicción plano
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
KR20120016991A (ko) 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
WO2012034690A1 (en) 2010-09-14 2012-03-22 Panasonic Corporation Limitation of error propagation in line-based prediction for intra coding
US20120106622A1 (en) * 2010-11-03 2012-05-03 Mediatek Inc. Method and Apparatus of Slice Grouping for High Efficiency Video Coding
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
CN107071459B (zh) * 2010-12-14 2020-01-03 M&K控股株式会社 用于编码运动画面的设备
US9049455B2 (en) 2010-12-28 2015-06-02 Panasonic Intellectual Property Corporation Of America Image coding method of coding a current picture with prediction using one or both of a first reference picture list including a first current reference picture for a current block and a second reference picture list including a second current reference picture for the current block
US8755437B2 (en) * 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
US9319716B2 (en) * 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
CN102685477B (zh) * 2011-03-10 2014-12-10 华为技术有限公司 获取用于合并模式的图像块的方法和设备
CN107105286B (zh) * 2011-03-14 2020-01-21 寰发股份有限公司 推导运动向量预测子的方法与装置
US20120236934A1 (en) 2011-03-18 2012-09-20 Qualcomm Incorporated Signaling of multiview video plus depth content with a block-level 4-component structure
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9247249B2 (en) * 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US20120287999A1 (en) * 2011-05-11 2012-11-15 Microsoft Corporation Syntax element prediction in error correction
SI2717574T1 (sl) * 2011-05-31 2021-04-30 JVC Kenwood Corporation Naprava za dekodiranje gibljivih slik, postopek za dekodiranje gibljivih slik, program za dekodiranje gibljivih slik
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
US9628574B2 (en) 2011-06-20 2017-04-18 Sweetlabs, Inc. Systems and methods for streamlined content download
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
EP3223523A1 (en) 2011-06-24 2017-09-27 HFI Innovation Inc. Method and apparatus for removing redundancy in motion vector predictors
JP5956571B2 (ja) * 2011-06-30 2016-07-27 ヴィディオ・インコーポレーテッド スケーラブルビデオ符号化における動き予測
JP2013034171A (ja) * 2011-06-30 2013-02-14 Sony Corp 画像処理装置および方法
US9094689B2 (en) * 2011-07-01 2015-07-28 Google Technology Holdings LLC Motion vector prediction design simplification
US9699456B2 (en) * 2011-07-20 2017-07-04 Qualcomm Incorporated Buffering prediction data in video coding
PT2755389T (pt) 2011-09-09 2019-02-27 Lg Electronics Inc Processo de inter-predição e aparelho para o efeito
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
US9871537B2 (en) * 2011-10-27 2018-01-16 Qualcomm Incorporated Mapping states in binary arithmetic coder for video coding
US9124895B2 (en) * 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
US20130177084A1 (en) * 2012-01-10 2013-07-11 Qualcomm Incorporated Motion vector scaling in video coding
US20130188716A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Temporal motion vector predictor candidate
US9674527B2 (en) * 2012-01-31 2017-06-06 Qualcomm Incorporated Implicit derivation of parallel motion estimation range size
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
CN104396244B (zh) * 2012-04-16 2019-08-09 诺基亚技术有限公司 用于视频编码和解码的装置、方法和计算机可读存储介质
US9549180B2 (en) * 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding
US9325990B2 (en) * 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
US9479778B2 (en) * 2012-08-13 2016-10-25 Qualcomm Incorporated Device and method for coding video information using base layer motion vector candidate
US20140247878A1 (en) * 2012-09-21 2014-09-04 Lidong Xu Cross-layer motion vector prediction
US20140086328A1 (en) * 2012-09-25 2014-03-27 Qualcomm Incorporated Scalable video coding in hevc
US9491459B2 (en) * 2012-09-27 2016-11-08 Qualcomm Incorporated Base layer merge and AMVP modes for video coding
US9491461B2 (en) * 2012-09-27 2016-11-08 Qualcomm Incorporated Scalable extensions to HEVC and temporal motion vector prediction
US9699450B2 (en) * 2012-10-04 2017-07-04 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
CN102883163B (zh) * 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
US9357212B2 (en) * 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9544566B2 (en) * 2012-12-14 2017-01-10 Qualcomm Incorporated Disparity vector derivation
WO2014120367A1 (en) * 2013-01-30 2014-08-07 Intel Corporation Content adaptive parametric transforms for coding for next generation video
US9762905B2 (en) * 2013-03-22 2017-09-12 Qualcomm Incorporated Disparity vector refinement in video coding
US20140301463A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for video coding and decoding
CN105393538B (zh) * 2013-07-24 2018-12-04 高通股份有限公司 用于视频编解码的方法、装置及计算机可读存储介质
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
US9693077B2 (en) * 2013-12-13 2017-06-27 Qualcomm Incorporated Controlling sub prediction unit (sub-PU) motion parameter inheritance (MPI) in three dimensional (3D) HEVC or other 3D coding

Also Published As

Publication number Publication date
US10511854B2 (en) 2019-12-17
CN102883163A (zh) 2013-01-16
US20170054997A1 (en) 2017-02-23
KR20170024143A (ko) 2017-03-06
KR20160066013A (ko) 2016-06-09
BR112014010225A8 (pt) 2017-06-20
JP2017079491A (ja) 2017-04-27
KR20140074302A (ko) 2014-06-17
AU2013314174A1 (en) 2014-04-24
SG11201400427VA (en) 2014-06-27
HK1203723A1 (en) 2015-10-30
JP2014535230A (ja) 2014-12-25
CA2845442A1 (en) 2014-04-08
JP6068490B2 (ja) 2017-01-25
MY165294A (en) 2018-03-21
JP2019033515A (ja) 2019-02-28
US20140301471A1 (en) 2014-10-09
CN102883163B (zh) 2014-05-28
MY177902A (en) 2020-09-24
RU2553060C1 (ru) 2015-06-10
KR101711568B1 (ko) 2017-03-02
KR101835563B1 (ko) 2018-03-07
KR20180027621A (ko) 2018-03-14
EP3402203A1 (en) 2018-11-14
BR112014010225B1 (pt) 2020-03-10
US10091523B2 (en) 2018-10-02
CA2845442C (en) 2018-07-17
SG10201608387VA (en) 2016-12-29
WO2014056314A1 (zh) 2014-04-17
EP2822283A4 (en) 2015-09-16
US20180343467A1 (en) 2018-11-29
BR112014010225A2 (pt) 2017-06-13
AU2013314174B2 (en) 2015-03-05
US9549181B2 (en) 2017-01-17
EP2822283A1 (en) 2015-01-07
KR101970216B1 (ko) 2019-04-18
KR101629220B1 (ko) 2016-06-10

Similar Documents

Publication Publication Date Title
JP6863943B2 (ja) 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
US11553175B2 (en) Method and apparatus for candidate list pruning
KR102173475B1 (ko) 픽처 예측 방법 및 픽처 예측 장치
US11076168B2 (en) Inter-prediction method and apparatus, and storage medium
CN103841426B (zh) 用于运动矢量预测的运动矢量列表建立的方法、装置
KR20130124526A (ko) 인코딩 또는 디코딩의 예측 방법 및 예측기
CN103841425B (zh) 用于运动矢量预测的运动矢量列表建立的方法、装置
WO2014056315A1 (zh) 预测块的视差矢量预测值获取的方法和装置
Wang et al. OpenCL based high-quality HEVC motion estimation on GPU
US20230199216A1 (en) Method and apparatus for reference area transfer with pre-analysis
Georgakarakos et al. Performance evaluation of parallel HEVC strategies
CN110650344B (zh) 生成合并候选列表的方法、装置以及电子设备、存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210122

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210201

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210401

R150 Certificate of patent or registration of utility model

Ref document number: 6863943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150