JP2014535230A - 動きベクトル予測のための動きベクトルリストを作成する方法及び装置 - Google Patents

動きベクトル予測のための動きベクトルリストを作成する方法及び装置 Download PDF

Info

Publication number
JP2014535230A
JP2014535230A JP2014540313A JP2014540313A JP2014535230A JP 2014535230 A JP2014535230 A JP 2014535230A JP 2014540313 A JP2014540313 A JP 2014540313A JP 2014540313 A JP2014540313 A JP 2014540313A JP 2014535230 A JP2014535230 A JP 2014535230A
Authority
JP
Japan
Prior art keywords
motion vector
block
prediction
neighboring block
vector prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014540313A
Other languages
English (en)
Other versions
JP6068490B2 (ja
Inventor
永兵 林
永兵 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2014535230A publication Critical patent/JP2014535230A/ja
Application granted granted Critical
Publication of JP6068490B2 publication Critical patent/JP6068490B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本発明は、ビデオコーディングの分野に関し、動きベクトル予測のための動きベクトルリストを作成する方法及び装置を提供して、同一のコーディングユニットにおける少なくとも2つの予測ブロックの動きベクトルリストの作成に係る問題を解決し、並行処理能力を改善する。本方法は、現行予測ブロックの空間的隣接ブロックを取得するステップであり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているステップと;前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するステップであり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているステップと;前記利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得するステップと、取得した前記動きベクトル予測を前記動きベクトルリストに追加するステップと、を含む。本発明は、動きベクトルリストの作成に適用できる。

Description

本発明は、ビデオコーディングの分野に関する。より特定的には、動きベクトル予測のための動きベクトルリストを作成する方法及び装置に関する。
本特許出願は、2012年10月8日出願の中国特許出願第20121077579.4号に係る優先権の利益を主張するものであり、ここにおいて参照として包含されている。タイトルは、「METHOD AND APPARATUS FOR BUILDING MOTION VECTOR LIST FOR MOTION VECTOR PREDICTION」である。
HEVC(High Efficiency Video Coding:高効率ビデオコーディング規格)におけるインターフレーム予測(interframe prediction)技術は、従来のMCP(Motion Compensated Prediction:動き補償予測)方法を採用している。動きベクトル予測のために、HEVCは、複数の動きベクトル補償方法を採用しており、動きベクトル予測の精度が改善され、それにより、コード圧縮パフォーマンスが改善されている。
HEVCインターフレーム予測モードは、これらに限定されるわけではないが、マージモード(Merge mode)、スキップモード(Skip mode)、等を含んでおり、これらの全ては、インターフレーム予測を実行するために複数の動きベクトル競合(motion vector competition)を使用している。動きベクトル予測を実行する際には動きベクトルリストが使用される。マージモード及びスキップモードに対して、動きベクトルリストは、最大で4つの空間的動きベクトル予測と1つの一時的動きベクトル予測を含むことが許されており、マージモードとスキップモードは1つの動きベクトルリストを共有する。コーダー(coder)は、現行PU(Prediction Unit:予測ユニット<以降では、予測ブロックと呼ばれ得るもの>)の動きベクトル予測として、動きベクトルリストから最善の動きベクトル予測を選択する。
動きベクトルリストを作成する方法は、以下のものを含んでよい。
図1に示すように、現行PUの空間的隣接ブロック(neighboring block)は、以下のものを含んでよい。隣接ブロックA0(左下の参照ブロックであり、現行PUの左下コーナー位置に対応している)、隣接ブロックA1(左の参照ブロックであり、現行PUの左下コーナー位置に対応している)、隣接ブロックB0(右上の参照ブロックであり、現行PUの右上コーナー位置に対応している)、隣接ブロックB1(上の参照ブロックであり、現行PUの右上コーナー位置に対応している)、および、隣接ブロックB2(左上の参照ブロックであり、現行PUの左上コーナー位置に対応している)である。TMVP(Temporal Motion Vector Predictor:一時的動きベクトル予測)は、時間ドメインにおいて現行PUに対応する動きベクトル予測である。
最初に、動きベクトル予測が、隣接ブロックと、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、隣接ブロックB2、そして、TMVPの順序におけるTMVPから連続的に取得される。次に、取得された動きベクトル予測は、HEVCにおける規則に従って動きベクトルリストに追加される。所定の動きベクトルリスト作成プロセスは、当業者によく知られたものであり、その詳細は、再度ここにおいて説明されない。
さらに、現行CU(Coding Unit:コーディングユニット<以降では、コーディングユニットと呼ばれ得るもの>)は、少なくとも2つのPUを含んでよく、その少なくとも2つのPUの動きベクトルリストが連続的に作成される。
上記の動きベクトルリスト作成プロセスを実施している最中に、従来技術が少なくとも以下の問題を有していることがわかる。つまり、現行CUが少なくとも2つのPUを含んでおり、その少なくとも2つのPUの動きベクトルリストが連続的に作成されるとすれば、同一のCUにおける少なくとも2つの動きベクトルリストの作成速度は遅くなり、それにより、並行処理の能力が減少してしまう。
本発明の実施例は、動きベクトル予測のための動きベクトル作成する方法又は装置を提供する。それにより、同一のCUにおける少なくとも2つのPUの動きベクトルリストを連続的に作成することの問題を解決し、並行処理の能力を改善する。
上記の課題を達成するために、本発明に係る実施例においては、以降の技術的ソリューションが採用されている。
一つの実施態様において、動きベクトル予測のための動きベクトルリストを作成する方法が提供される。本方法は、:現行予測ブロックの空間的隣接ブロックを取得するステップであり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているステップと;前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するステップであり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているステップと;前記利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得するステップと、取得した前記動きベクトル予測を前記動きベクトルリストに追加するステップと、を含む、ことを特徴とする方法である。
別の実施態様において、動きベクトル予測のための動きベクトルリストを作成する装置が提供される。本装置は:現行予測ブロックの空間的隣接ブロックを取得するレシーバーであり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているレシーバーと;前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するように構成されたプロセッサであり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているプロセッサと;を含み、前記プロセッサは、前記利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得し、かつ、取得した前記動きベクトル予測を前記動きベクトルリストに追加するように構成されている、ことを特徴とする装置である。
本発明の実施例において提供される動きベクトル予測のための動きベクトルリストを作成する方法及び装置は、上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、現行予測ブロックの空間的隣接ブロックが最初に取得される。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックが決定される。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測が取得され、取得された動きベクトル予測が動きベクトルリストに追加される。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
本発明の実施例に係る技術的ソリューションをより明確に説明するように、実施例または従来技術を記述するために必要な添付の図面について以降に簡単に紹介する。明らかに、以降の説明において添付の図面は、本発明のいくつかの実施例を単に示すものであって、当業者であれば、創造的な努力をすることなく、添付の図面から他の図面でさえ引き出すことができる。
図1は、本発明の実施例に従って、コーディングユニットCU、PU、および、隣接ブロックの模式的な構造ダイヤグラムを示している。 図2aは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2bは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2cは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2dは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2eは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2fは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図2gは、本発明の実施例に従って、異なるパーティション方法を用いるコーディングユニットCUの模式的な構造ダイヤグラムを示している。 図3は、本発明の実施例に従って、動きベクトル予測のための動きベクトル作成する方法のフローチャートを示している。 図4は、本発明の実施例に従って、動きベクトル予測のための動きベクトル作成する装置の方法の模式的な構造ダイヤグラムを示している。
以降に、本発明の実施例において添付の実施例に関して、本発明の実施例における技術的ソリューションを明確に説明する。明らかに、説明される実施例は、本発明の全てではなく、むしろ単なる部分である。創造的な努力をすることなく本発明の実施例に基づいて当業者が獲得した全ての他の実施は、本発明の範囲内にあるものである。
従来技術において、CUは、少なくとも2つのPUを含んでよく、その少なくとも2つのPU動きベクトルリストは連続的に作成されてよい。つまり、現行PUに対して動きベクトルリストが作成された後で、次のPUに対する動きベクトルリストの作成が開始される。
所定のプロセスは、以下のものを含んでよい。
図2aから図2gに示すように、CU(図における実線のフレーム)は、さらに、複数のPUに区分されてよい。HEVCにおいて、CUは7つに区分されている。例えば、図2aから図2cに示す区分方法において、現行CUは、左側及び右側にある2つのPU(PU1とPU2)に区分されている。別の実施例として、図2dに示す区分方法において、現行CUは、4つのPU(PU1、PU2、PU3、および、PU4)に区分されておいる。他のタイプについて、ここでは説明されない。
例として図2に示す区分を取り上げると、PU2の空間的参照ブロックA1がPU1の内側に配置されているので、PU1のコーディングが完了した後にだけ、PU2の動きベクトルリストを作成するように開始され得る。PU1とPU2の動きベクトルリストは、連続的に作成されるのである。特に、PU1の動きベクトルリストが上述の方法に従って最初に作成されて、次に、PU2の動きベクトルリストが上述の方法に従って作成される。
この方法において、少なくとも2つのPUに係る動きベクトルリストの作成速度は遅く、圧縮コーディングのパフォーマンスは低下する。
上記の少なくとも2つのPUに係る動きベクトルリストの作成速度が遅くて圧縮コーディングのパフォーマンスは低下するという問題を解決するために、動きベクトル予測のための動きベクトルリスト作成方法が実施例において提供される。図3に示すように、本方法は、以下のことを含んでいる。
ステップ301:現行予測ブロックの空間的隣接ブロックを取得する。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。
ステップ302:現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックを決定する。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。
ステップ303:利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得して、取得した動きベクトル予測を動きベクトルリストに追加する。
上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、現行予測ブロックの空間的隣接ブロックが最初に取得される。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックが決定される。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測が取得され、取得された動きベクトル予測が動きベクトルリストに追加される。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
動きベクトル予測のための動きベクトルリスト作成の別の方法が実施例において提供される。本方法は、図3に示す方法のさらなる拡張である。図3に示すように、本発明方法は、以下のことを含んでよい。
ステップ301:現行予測ブロックの空間的隣接ブロックを取得する。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。
図1に示すように、予測ブロックの空間的隣接ブロックは、以下を含んでいる。予測ブロックの左下側に位置している隣接ブロックA0、予測ブロックの左側に位置している隣接ブロックA1、予測ブロックの右上側に位置している隣接ブロックB0、予測ブロックの上側に位置している隣接ブロックB1、および、予測ブロックの左上側に位置している隣接ブロックB2である。
予測ブロックの空間的隣接ブロック、予測ブロック、および、隣接ブロックを取得するための方法は、この実施例において限定されない。方法は、当業者によってよく知られた技術であり、再度ここにおいて詳細は説明されない。
ステップ302:現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックを決定する。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。
さらに、図2eから図2gに示されるように、現行コーディングユニットCUが、上側と下側で第1予測ブロックPU1と第2予測ブロックPU2へと区分されており、現行予測ブロックが第2予測ブロックPU2である場合、PU2の利用可能な隣接ブロックは、以下を含んでいる。第2予測ブロックの隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、および、隣接ブロックB1である。この時点で、隣接ブロックB1は現行コーディングユニットCUの内側に位置しており、第2予測ブロックPU2の利用可能な隣接ブロックとして動作しない。
図2aから図2cに示されるように、現行コーディングユニットCUが、左側と右側で第1予測ブロックPU1と第2予測ブロックPU2へと区分されており、現行予測ブロックが第2予測ブロックPU2である場合、PU2の利用可能な隣接ブロックは、以下を含んでいる。第2予測ブロックの隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、および、隣接ブロックB2である。この時点で、隣接ブロックA1は現行コーディングユニットCUの内側に位置しており、第2予測ブロックPU2の利用可能な隣接ブロックとして動作しない。
さらに、利用可能な隣接ブロックは、隣接ブロックのフラグビット(flag bit)を使用することによって判断することができる。フラグビットは、これに限定されるわけではないが、隣接ブロックがCUの内側に位置していないことを特定するために使用され得る。
隣接ブロックのフラグビットを使用することによって利用可能な隣接ブロックを判断する方法は、この実施例に限定されない。本技術は、当業者によってよく知られた技術であり、再度ここにおいて詳細は説明されない。
ステップ303:利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得して、取得した動きベクトル予測を動きベクトルリストに追加する。
さらに、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得することは、以下を含んでいる。
利用可能な隣接ブロックがインターフレームコーディングブロックである場合、利用可能な隣接ブロックから、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で動きベクトル予測を取得すること。
特に、利用可能な隣接ブロックがインターフレームコーディングブロックである場合は、隣接ブロックが動きベクトル情報を含んでいることを意味しており、隣接ブロックから動きベクトル予測が取得される。
特に、予測ブロックの利用可能な隣接ブロックが、第2予測ブロックの隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、および、隣接ブロックB2を含んでいる場合、隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、および、隣接ブロックB2から、隣接ブロックA0、隣接ブロックA1、隣接ブロックB0、そして、隣接ブロックB2の順番で、動きベクトル予測が取得される。上記の観点において、現行CUが上側と下側で第1及び第2予測ブロックへと区分されている場合、第2予測ブロックの利用可能な隣接ブロックは、第1予測ブロックの内側に位置する隣接ブロックB1を含まない。従って、B1からは動きベクトル予測が取得されない。
予測ブロックの利用可能な隣接ブロックが、第2予測ブロックPU2の隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、および、隣接ブロックB2を含んでいる場合、隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、および、隣接ブロックB2から、隣接ブロックA0、隣接ブロックB0、隣接ブロックB1、そして、隣接ブロックB2の順番で、動きベクトル予測が取得される。上記の観点において、現行CUが左側と右側で第1及び第2予測ブロックへと区分されている場合、第2予測ブロックの利用可能な隣接ブロックは、第1予測ブロックの内側に位置する隣接ブロックA1を含まない。従って、A1からは動きベクトル予測が取得されない。
さらに、取得した動きベクトル予測が現行の利用可能な隣接ブロックの動きベクトル予測である場合、動きベクトルリストに取得した動きベクトル予測を追加することは、以下を含んでいる。
現行の利用可能な隣接ブロックの動きベクトル予測が、その現行の利用可能な隣接ブロックを除いて他の利用可能な隣接ブロックの動きベクトル予測と同一であるかどうかを判断し、そして、同一でない場合に、現行の利用可能な隣接ブロックの動きベクトル予測を動きベクトルリストに追加することである。
上記の観点において、上記のプロセスの最中には、利用可能な隣接ブロックが現行CUの内側に位置する隣接ブロックを含まないので、CUの複数のPUは依存性を有することがなく、並行に実行され得る。例えば、現行CUが左側と右側で第1予測ブロックPU1と第2予測ブロックPU2へと区分されている場合、第2予測ブロックの利用可能な隣接ブロックは、第1予測ブロックの内側に位置している隣接ブロックA1を含まず、A1の動きベクトル予測は判断プロセスの中に取込まれない。従って、第1予測ブロックと第2予測ブロックは、並行処理を実行することができる。
特に、実施例に係る実行方法として、現行の利用可能な隣接ブロックが隣接ブロックB1である場合、隣接ブロックB1の動きベクトル予測が隣接ブロックA1の動きベクトル予測と同一であるかどうかが判断される。
現行の利用可能な隣接ブロックが隣接ブロックB0である場合、隣接ブロックB0の動きベクトル予測が隣接ブロックB1の動きベクトル予測と同一であるかどうかが判断され;
現行の利用可能な隣接ブロックが隣接ブロックA0である場合、隣接ブロックA0の動きベクトル予測が隣接ブロックA1の動きベクトル予測と同一であるかどうかが判断され;そして、
現行の利用可能な隣接ブロックが隣接ブロックB2である場合、隣接ブロックB2の動きベクトル予測が、隣接ブロックA1の動きベクトル予測と隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかが判断される。
さらに、取得された動きベクトル予測が現行の利用可能な隣接ブロックの動きベクトル予測である場合、取得された動きベクトル予測を動きベクトルリストに追加することは、さらに、以下のことを含んでいる。
現行の利用可能な隣接ブロックの動きベクトル予測が、動きベクトルリストに追加された動きベクトル予測と同一であるかどうかを判断し、そして、同一でない場合に、現行の利用可能な隣接ブロックの動きベクトル予測を動きベクトルリストに追加することである。
特に、実施例に係る実行方法として、現行の利用可能な隣接ブロックが隣接ブロックB1である場合、隣接ブロックB1の動きベクトル予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測と同一であるかどうかが判断される。
現行の利用可能な隣接ブロックが隣接ブロックB0である場合、隣接ブロックB0の動きベクトル予測が、動きベクトルリストに追加された隣接ブロックB1の動きベクトル予測と同一であるかどうかが判断され;
現行の利用可能な隣接ブロックが隣接ブロックA0である場合、隣接ブロックA0の動きベクトル予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測と同一であるかどうかが判断され;そして、
現行の利用可能な隣接ブロックが隣接ブロックB2である場合、隣接ブロックB2の動きベクトル予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測と、動きベクトルリストに追加された隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかが判断される。
さらに、TMVPが、動きベクトルリストの蓄積の最中に考慮されてよい。
実施例に係る実行方法として、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得することは、さらに、以下を含んでいる。
利用可能な隣接ブロック及び/又はTMVPから、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、隣接ブロックB2、そして、TMVPの順番で動きベクトル予測を取得すること。
本発明に係るソリューションをより明確に説明するために、異なる区分方法を用いてCUに対する動きベクトルリストを作成する方法が、特に以降に説明される。
1.CUを左側と右側でPU1とPU2へ区分
(1)PU1の動きベクトルリストを作成
1)隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、および、隣接ブロックB2から、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で、動きベクトル予測を取得して、それらを動きベクトルリストに追加する。
a.現行の隣接ブロックが隣接ブロックA1であり、かつ、隣接ブロックA1が動きベクトル予測を含んでいる場合にのみ、隣接ブロックA1の動きベクトル予測を動きベクトルリストに追加する。
b.現行の隣接ブロックが隣接ブロックB1であり、かつ、隣接ブロックB1が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測と異なっている場合にのみ、隣接ブロックB1の動きベクトル予測を動きベクトルリストに追加する。
c.現行の隣接ブロックが隣接ブロックB0であり、かつ、隣接ブロックB0が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックB1の動きベクトル予測と異なっている場合にのみ、隣接ブロックB0の動きベクトル予測を動きベクトルリストに追加する。
d.現行の隣接ブロックが隣接ブロックA0であり、かつ、隣接ブロックA0が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測と異なっている場合にのみ、隣接ブロックA0の動きベクトル予測を動きベクトルリストに追加する。
e.現行の隣接ブロックが隣接ブロックB2であり、かつ、隣接ブロックB2が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測及び動きベクトルリストに追加された隣接ブロックB1の動きベクトル予測の両方と異なっており、かつ、隣接ブロックA1、隣接ブロックB1、隣接ブロックB0、および、隣接ブロックA0のうち少なくとも一つの動きベクトル予測が動きベクトルリストに追加されている場合にのみ、隣接ブロックB2の動きベクトル予測を動きベクトルリストに追加する。
2.TMVPの取得と動きベクトルへの追加
特に、PU1のTMVPは、PU1の一時的参照画像を使用して取得され、PU1のTMVPが利用可能な場合に、TMVPが動きベクトルリストに追加される。
(2)PU2の動きベクトルリストを作成
1)隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、および、隣接ブロックB2から、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で、動きベクトル予測を取得して、それらを動きベクトルリストに追加する。
a.現行の隣接ブロックが隣接ブロックB1であり、かつ、隣接ブロックB1が動きベクトル予測を含んでいる場合にのみ、隣接ブロックB1の動きベクトル予測を動きベクトルリストに追加する。
b.現行の隣接ブロックが隣接ブロックB0であり、かつ、隣接ブロックB0が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックB1の動きベクトル予測と異なっている場合にのみ、隣接ブロックB0の動きベクトル予測を動きベクトルリストに追加する。
c.現行の隣接ブロックが隣接ブロックA0であり、かつ、隣接ブロックA0が動きベクトル予測を含んでいる場合にのみ、隣接ブロックA0の動きベクトル予測を動きベクトルリストに追加する。
d.現行の隣接ブロックが隣接ブロックB2であり、かつ、隣接ブロックB2が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックB1の動きベクトル予測と異なっている場合にのみ、隣接ブロックB2の動きベクトル予測を動きベクトルリストに追加する。
2)TMVPを取得して、それを動きベクトルリストに追加する。特に、PU1のTMVPはPU1の一時的参照画像を使用して取得され、PU1のTMVPが利用可能である場合にTMVPが動きベクトルリストに追加される。
この時点で、つまりPU2の動きベクトルリストが作成されたときから、PU2の隣接ブロックA1は考慮されておらず、PU1及びPU2の動きベクトルリストは並行して作成され得る。
2.CUを上側と下側でPU1とPU2へ区分
(1)PU1の動きベクトルリストを作成
上記「1. CUを左側と右側でPU1とPU2へ区分」の「(1)PU1の動きベクトルリストを作成」に係る方法と類似のものである。よって、再度ここにおいて詳細は説明されない。
(2)PU2の動きベクトルリストを作成
1)隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、および、隣接ブロックB2から、隣接ブロックB1、隣接ブロックB0、隣接ブロックA0、そして、隣接ブロックB2の順番で、動きベクトル予測を取得して、それらを動きベクトルリストに追加する。
a.現行の隣接ブロックが隣接ブロックA1であり、かつ、隣接ブロックA1が動きベクトル予測を含んでいる場合にのみ、隣接ブロックA1の動きベクトル予測を動きベクトルリストに追加する。
b.現行の隣接ブロックが隣接ブロックB0であり、かつ、隣接ブロックB0が動きベクトル予測を含んでいる場合にのみ、隣接ブロックB0の動きベクトル予測を動きベクトルリストに追加する。
c.現行の隣接ブロックが隣接ブロックA0であり、かつ、隣接ブロックA0が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測と異なっている場合にのみ、隣接ブロックA0の動きベクトル予測を動きベクトルリストに追加する。
d.現行の隣接ブロックが隣接ブロックB2であり、かつ、隣接ブロックB2が動きベクトル予測を含んでおり、かつ、予測が、動きベクトルリストに追加された隣接ブロックA1の動きベクトル予測と異なっている場合にのみ、隣接ブロックB2の動きベクトル予測を動きベクトルリストに追加する。
2)TMVPを取得して、それを動きベクトルリストに追加する。特に、PU1のTMVPはPU1の一時的参照画像を使用して取得され、PU1のTMVPが利用可能である場合にTMVPが動きベクトルリストに追加される。
この時点で、つまりPU2の動きベクトルリストが作成されたときから、PU2の隣接ブロックB1は考慮されておらず、PU1及びPU2の動きベクトルリストは並行して作成され得る。
上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、現行予測ブロックの空間的隣接ブロックが最初に取得される。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックが決定される。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測が取得され、取得された動きベクトル予測が動きベクトルリストに追加される。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
以降に、いくつかの装置の実施例が提供される。提供される装置実施例は、それぞれに上記の方法の実施例に対応するものである。装置、および、装置の中に含まれるレシーバーとプロセッサに係る所定の実施方法については方法の実施例を参照されたい。
動きベクトル予測のための動きベクトルリストを作成する装置が実施例において提供される。図4に示すように、装置は、現行予測ブロックの空間的隣接ブロックを取得するレシーバー41であり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているレシーバーと;前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するように構成されたプロセッサ42であり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているプロセッサと;を含み、前記プロセッサは、前記利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得し、かつ、取得した前記動きベクトル予測を前記動きベクトルリストに追加するように構成されている。
さらに、前記レシーバー41によって取得された前記予測ブロックの前記空間的隣接ブロックは:前記予測ブロックの左下側に位置している隣接ブロックA0、前記予測ブロックの左側に位置している隣接ブロックA1、前記予測ブロックの右上側に位置している隣接ブロックB0、前記予測ブロックの上側に位置している隣接ブロックB1、および、前記予測ブロックの左上側に位置している隣接ブロックB2、を含んでいる。
さらに、前記プロセッサ42は:前記コーディングユニットが上側と下側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックが、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックA1、前記隣接ブロックB0、および、前記隣接ブロックB1を含むように、かつ、前記コーディングユニットが左側と右側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックが、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックB0、前記隣接ブロックB1、および、前記隣接ブロックB2を含むように構成されている。
さらに、前記プロセッサ42は:前記利用可能な隣接ブロックがインターフレームコーディングブロックである場合に、前記利用可能な隣接ブロックから、前記隣接ブロックA1、前記隣接ブロックB1、前記隣接ブロックB0、前記隣接ブロックA0、そして、前記隣接ブロックB2の順番で動きベクトル予測を取得するように構成されている。
さらに、前記プロセッサ42は:前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記現行の利用可能な隣接ブロックを除いて他の利用可能な隣接ブロックの動きベクトル予測と同一であるかどうかを判断し、同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測を前記動きベクトルリストに追加するように構成されている。
さらに、前記プロセッサ42は:前記取得した前記動きベクトル予測が現行の利用可能な隣接ブロックの動きベクトル予測である場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記動きベクトルリストに追加された動きベクトル予測と同一であるかどうかを判断し、同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測を前記動きベクトルリストに追加するように構成されている。
さらに、前記プロセッサ42は:前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトル予測が前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトル予測が前記隣接ブロックB1の動きベクトル予測と同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトル予測が前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;かつ、前記現行の利用可能な隣接ブロックが前記隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトル予測が、前記隣接ブロックA1の動きベクトル予測と前記隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかを判断するように構成されている。
さらに、前記プロセッサ42は:前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトル予測と同一であるかどうかを判断し;前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;かつ、前記現行の利用可能な隣接ブロックが隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかを判断するように構成されている。
上記のソリューションを通じて、予測ブロックの動きベクトルリストを作成する場合、レシーバーは現行予測ブロックの空間的隣接ブロックを最初に取得する。ここで、現行予測ブロックは現行コーディングユニットの内側に位置している。そして、プロセッサは、現行コーディングユニットの区分方法に従って、現行予測ブロックの利用可能な隣接ブロックを決定する。ここで、利用可能な隣接ブロックは現行コーディングユニットの外側に位置している。そして、プロセッサは、利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得して、取得した動きベクトル予測を動きベクトルリストに追加する。このように、予測ブロックの動きベクトルリストが作成される場合、現行コーディングユニットの内側に位置している隣接ブロックは考慮されない。コーディングユニットが少なくとも2つの予測ブロックを含んでいる場合、少なくとも2つの予測ブロックの動きベクトルリストは並行して作成される。このことは、同一のコーディングユニットにおける少なくとも2つの動きベクトルリストの作成速度を増加させ、並行処理の能力を改善する。
実施例に係る前出の説明を通じて、当業者であれば、本発明が一般的に必要なハードウェアに加えてソフトウェアによって実施され得ること、および、本発明が全くのハードウェアによっても実施され得ることが、明確に理解されよう。しかしながら、ほとんどの状況下では、前者の方が望ましい。こうした理解に基づいて、基本的に本発明の技術的ソリューション、または、従来技術に貢献する部分は、ソフトウェアプロダクトの形式で実施され得る。コンピューターソフトウェアプロダクトは、例えば、コンピューターのフロッピー(登録商標)ディスク、ハードディスク、または、光ディスクといった、読取り可能なストレージ媒体に保管され、(パーソナルコンピューター、サーバー、または、ネットワークデバイスであり得る)コンピューターデバイスに、本発明の実施例において説明された方法を実施するように指示するいくつかのインストラクションを含んでいる。
上記の記載は、単に本発明の特定の実施例を説明するものであり、本発明の保護範囲を限定することを意図するものではない。本発明において開示された技術的範囲内で当業者によって容易に把握されるあらゆるバリエーション又は置き換えは、本発明の保護範囲の中にあるものである。従って、本発明の保護範囲は、添付の特許請求の範囲を対象とするものである。

Claims (16)

  1. 動きベクトル予測のための動きベクトルリストを作成する方法であって:
    現行予測ブロックの空間的隣接ブロックを取得するステップであり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているステップと;
    前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するステップであり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているステップと;
    前記利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得するステップと、
    取得した前記動きベクトル予測を前記動きベクトルリストに追加するステップと、を含む、
    ことを特徴とする方法。
  2. 前記予測ブロックの前記空間的隣接ブロックは:
    前記予測ブロックの左下側に位置している隣接ブロックA0、
    前記予測ブロックの左側に位置している隣接ブロックA1、
    前記予測ブロックの右上側に位置している隣接ブロックB0、
    前記予測ブロックの上側に位置している隣接ブロックB1、および、
    前記予測ブロックの左上側に位置している隣接ブロックB2、を含む、
    請求項1に記載の方法。
  3. 前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定する前記ステップは:
    前記コーディングユニットが上側と下側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックは、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックA1、前記隣接ブロックB0、および、前記隣接ブロックB1を含んでおり、
    前記コーディングユニットが左側と右側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックは、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックB0、前記隣接ブロックB1、および、前記隣接ブロックB2を含んでいる、
    請求項2に記載の方法。
  4. 前記プリセットシーケンスにおいて前記利用可能な隣接ブロックから動きベクトル予測を取得する前記ステップは:
    前記利用可能な隣接ブロックがインターフレームコーディングブロックである場合に、前記利用可能な隣接ブロックから、前記隣接ブロックA1、前記隣接ブロックB1、前記隣接ブロックB0、前記隣接ブロックA0、そして、前記隣接ブロックB2の順番で動きベクトル予測を取得する段階、を含む、
    請求項2または3に記載の方法。
  5. 前記取得した前記動きベクトル予測が現行の利用可能な隣接ブロックの動きベクトル予測である場合に、前記取得した前記動きベクトル予測を前記動きベクトルリストに追加する前記ステップは:
    前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記現行の利用可能な隣接ブロックを除いて他の利用可能な隣接ブロックの動きベクトル予測と同一であるかどうかを判断する段階、を含み、
    同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測を前記動きベクトルリストに追加する段階、を含む、
    請求項4に記載の方法。
  6. 前記取得した前記動きベクトル予測が現行の利用可能な隣接ブロックの動きベクトル予測である場合に、前記取得した前記動きベクトル予測を前記動きベクトルリストに追加する前記ステップは:
    前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記動きベクトルリストに追加された動きベクトル予測と同一であるかどうかを判断する段階、を含み、
    同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測を前記動きベクトルリストに追加する段階、を含む、
    請求項4に記載の方法。
  7. 前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記現行の利用可能な隣接ブロックを除いて他の利用可能な隣接ブロックの動きベクトル予測と同一であるかどうかを判断する前記段階は:
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトル予測が前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断する段階と;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトル予測が前記隣接ブロックB1の動きベクトル予測と同一であるかどうかを判断する段階と;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトル予測が前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断する段階と;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトル予測が、前記隣接ブロックA1の動きベクトル予測と前記隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかを判断する段階と、を含む、
    請求項5に記載の方法。
  8. 前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記動きベクトルリストに追加された動きベクトル予測と同一であるかどうかを判断する前記段階は:
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断する段階と;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトル予測と同一であるかどうかを判断する段階と;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断する段階と;
    前記現行の利用可能な隣接ブロックが隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかを判断する段階と、を含む、
    請求項6に記載の方法。
  9. 動きベクトル予測のための動きベクトルリストを作成する装置であって:
    現行予測ブロックの空間的隣接ブロックを取得するレシーバーであり、前記現行予測ブロックは現行コーディングユニットの内側に位置しているレシーバーと;
    前記現行コーディングユニットの区分方法に従って、前記現行予測ブロックの利用可能な隣接ブロックを決定するように構成されたプロセッサであり、前記利用可能な隣接ブロックは前記コーディングユニットの外側に位置しているプロセッサと;を含み、
    前記プロセッサは、前記利用可能な隣接ブロックの動きベクトル予測に従って、プリセットシーケンスにおいて利用可能な隣接ブロックから動きベクトル予測を取得し、かつ、取得した前記動きベクトル予測を前記動きベクトルリストに追加するように構成されている、
    ことを特徴とする装置。
  10. 前記レシーバーによって取得された前記予測ブロックの前記空間的隣接ブロックは:
    前記予測ブロックの左下側に位置している隣接ブロックA0、
    前記予測ブロックの左側に位置している隣接ブロックA1、
    前記予測ブロックの右上側に位置している隣接ブロックB0、
    前記予測ブロックの上側に位置している隣接ブロックB1、および、
    前記予測ブロックの左上側に位置している隣接ブロックB2、を含む、
    請求項9に記載の装置。
  11. 前記プロセッサは、さらに:
    前記コーディングユニットが上側と下側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックが、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックA1、前記隣接ブロックB0、および、前記隣接ブロックB1を含むように、かつ、
    前記コーディングユニットが左側と右側で第1予測ブロックと第2予測ブロックへと区分されており、かつ、現行予測ブロックが前記第2予測ブロックである場合に、前記予測ブロックの利用可能な隣接ブロックが、前記第2予測ブロックの前記隣接ブロックA0、前記隣接ブロックB0、前記隣接ブロックB1、および、前記隣接ブロックB2を含むように構成されている、
    請求項10に記載の装置。
  12. 前記プロセッサは、さらに:
    前記利用可能な隣接ブロックがインターフレームコーディングブロックである場合に、前記利用可能な隣接ブロックから、前記隣接ブロックA1、前記隣接ブロックB1、前記隣接ブロックB0、前記隣接ブロックA0、そして、前記隣接ブロックB2の順番で動きベクトル予測を取得するように構成されている、
    請求項10または11に記載の装置。
  13. 前記プロセッサは、さらに:
    前記取得した動きベクトル予測が現行の利用可能な隣接ブロックである場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記現行の利用可能な隣接ブロックを除いて他の利用可能な隣接ブロックの動きベクトル予測と同一であるかどうかを判断し、
    同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測を前記動きベクトルリストに追加するように構成されている、
    請求項12に記載の装置。
  14. 前記プロセッサは、さらに:
    前記取得した前記動きベクトル予測が現行の利用可能な隣接ブロックの動きベクトル予測である場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測が、前記動きベクトルリストに追加された動きベクトル予測と同一であるかどうかを判断し、
    同一でない場合に、前記現行の利用可能な隣接ブロックの前記動きベクトル予測を前記動きベクトルリストに追加するように構成されている、
    請求項12に記載の装置。
  15. 前記プロセッサは、さらに:
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトル予測が前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトル予測が前記隣接ブロックB1の動きベクトル予測と同一であるかどうかを判断し;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトル予測が前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;かつ、
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトル予測が、前記隣接ブロックA1の動きベクトル予測と前記隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかを判断するように構成されている、
    請求項13に記載の装置。
  16. 前記プロセッサは、さらに:
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB1である場合、前記隣接ブロックB1の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックB0である場合、前記隣接ブロックB0の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトル予測と同一であるかどうかを判断し;
    前記現行の利用可能な隣接ブロックが前記隣接ブロックA0である場合、前記隣接ブロックA0の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と同一であるかどうかを判断し;かつ、
    前記現行の利用可能な隣接ブロックが隣接ブロックB2である場合、前記隣接ブロックB2の動きベクトル予測が、前記動きベクトルリストに追加された前記隣接ブロックA1の動きベクトル予測と、前記動きベクトルリストに追加された前記隣接ブロックB1の動きベクトル予測のうち少なくとも一つと同一であるかどうかを判断するように構成されている、
    請求項14に記載の装置。
JP2014540313A 2012-10-08 2013-04-07 動きベクトル予測のための動きベクトルリストを作成する方法及び装置 Active JP6068490B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201210377579.4A CN102883163B (zh) 2012-10-08 2012-10-08 用于运动矢量预测的运动矢量列表建立的方法、装置
CN201210377579.4 2012-10-08
PCT/CN2013/073817 WO2014056314A1 (zh) 2012-10-08 2013-04-07 用于运动矢量预测的运动矢量列表建立的方法、装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016249359A Division JP2017079491A (ja) 2012-10-08 2016-12-22 動きベクトル予測のための動きベクトルリストを作成する方法及び装置

Publications (2)

Publication Number Publication Date
JP2014535230A true JP2014535230A (ja) 2014-12-25
JP6068490B2 JP6068490B2 (ja) 2017-01-25

Family

ID=47484278

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014540313A Active JP6068490B2 (ja) 2012-10-08 2013-04-07 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
JP2016249359A Pending JP2017079491A (ja) 2012-10-08 2016-12-22 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
JP2018188780A Active JP6863943B2 (ja) 2012-10-08 2018-10-04 動きベクトル予測のための動きベクトルリストを作成する方法及び装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016249359A Pending JP2017079491A (ja) 2012-10-08 2016-12-22 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
JP2018188780A Active JP6863943B2 (ja) 2012-10-08 2018-10-04 動きベクトル予測のための動きベクトルリストを作成する方法及び装置

Country Status (13)

Country Link
US (3) US9549181B2 (ja)
EP (2) EP2822283A4 (ja)
JP (3) JP6068490B2 (ja)
KR (4) KR101711568B1 (ja)
CN (1) CN102883163B (ja)
AU (1) AU2013314174B2 (ja)
BR (1) BR112014010225B1 (ja)
CA (1) CA2845442C (ja)
HK (1) HK1203723A1 (ja)
MY (2) MY177902A (ja)
RU (1) RU2553060C1 (ja)
SG (2) SG11201400427VA (ja)
WO (1) WO2014056314A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102883163B (zh) * 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
CN104104957B (zh) * 2013-04-08 2018-03-16 华为技术有限公司 解码方法、编码方法、解码装置和编码装置
CN104125463A (zh) * 2013-04-26 2014-10-29 华为技术有限公司 一种图像预测编码方法及图像编码器
EP3089423B1 (en) * 2014-01-14 2018-07-18 Huawei Technologies Co., Ltd. Ethernet signal transmission method, scheduling method and device and system thereof
TWI549489B (zh) * 2014-04-16 2016-09-11 智原科技股份有限公司 移動偵測電路與方法
KR20180020965A (ko) * 2015-04-27 2018-02-28 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
KR102379196B1 (ko) * 2017-05-31 2022-03-28 삼성전자주식회사 처리 장치들 및 그 제어 방법들
WO2019203527A1 (ko) * 2018-04-16 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 복수의 주변 블록들을 사용하는 인터 예측에 따른 영상 디코딩 방법 및 장치
US10469869B1 (en) * 2018-06-01 2019-11-05 Tencent America LLC Method and apparatus for video coding
WO2020003274A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Checking order of motion candidates in lut
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
EP3791589A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Which lut to be updated or no updating
TWI752331B (zh) 2018-06-29 2022-01-11 大陸商北京字節跳動網絡技術有限公司 當向Merge/AMVP添加HMVP候選時的部分/完全修剪
MX2020013828A (es) 2018-06-29 2021-03-25 Beijing Bytedance Network Tech Co Ltd Interaccion entre lut y amvp.
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
CN115134599A (zh) 2018-06-29 2022-09-30 抖音视界有限公司 更新查找表(lut)的条件
TWI723444B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念
JP7181395B2 (ja) 2018-07-02 2022-11-30 北京字節跳動網絡技術有限公司 イントラ予測モードを有するルックアップテーブルおよび非隣接ブロックからのイントラモード予測
JP7368396B2 (ja) 2018-07-02 2023-10-24 華為技術有限公司 動きベクトル予測方法及び関連する装置
US11336914B2 (en) * 2018-08-16 2022-05-17 Qualcomm Incorporated History-based candidate list with classification
CN110868601B (zh) * 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
US11381807B2 (en) 2018-11-21 2022-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Methods of video picture coding with sub-block merge simplification and related apparatuses
TWI829386B (zh) 2018-12-28 2024-01-11 日商Jvc建伍股份有限公司 影像編碼裝置、影像編碼方法、影像編碼程式、影像解碼裝置、影像解碼方法及影像解碼程式
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN111698506B (zh) * 2019-03-11 2022-04-26 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、三角预测解码方法及装置
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
EP3973708A4 (en) * 2019-06-25 2023-02-22 Zhejiang Dahua Technology Co., Ltd. INTRA-FRAME PREDICTION SYSTEMS AND METHODS
US20240007623A1 (en) * 2020-11-24 2024-01-04 Hyundai Motor Company Block splitting structure for efficient prediction and transform, and method and appartus for video encoding and decoding using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067938A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of constructing merge list

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982441A (en) 1996-01-12 1999-11-09 Iterated Systems, Inc. System and method for representing a video sequence
US6594313B1 (en) * 1998-12-23 2003-07-15 Intel Corporation Increased video playback framerate in low bit-rate video applications
US7280700B2 (en) * 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
US8625680B2 (en) 2003-09-07 2014-01-07 Microsoft Corporation Bitstream-controlled post-processing filtering
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US20060222074A1 (en) * 2005-04-01 2006-10-05 Bo Zhang Method and system for motion estimation in a video encoder
CN100473168C (zh) * 2005-06-21 2009-03-25 中国科学院计算技术研究所 视频编码的运动矢量空间预测方法
US8509551B2 (en) 2005-07-22 2013-08-13 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recording with image encoding program and computer readable recording medium recorded with image decoding program
KR100750136B1 (ko) * 2005-11-02 2007-08-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
CN101072356B (zh) * 2006-05-12 2011-02-09 中国科学院计算技术研究所 一种运动矢量预测方法
CN101573985B (zh) * 2006-11-03 2012-07-04 三星电子株式会社 用于视频预测编码的方法和装置以及用于视频预测解码的方法和装置
KR101365567B1 (ko) * 2007-01-04 2014-02-20 삼성전자주식회사 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8422803B2 (en) * 2007-06-28 2013-04-16 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
KR101364195B1 (ko) * 2008-06-26 2014-02-21 에스케이텔레콤 주식회사 움직임벡터 부호화/복호화 방법 및 그 장치
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8634457B2 (en) 2008-09-26 2014-01-21 Qualcomm Incorporated Determining availability of video data units
KR101590633B1 (ko) * 2008-11-11 2016-02-02 삼성전자주식회사 슬라이스 단위로 분할된 동영상을 처리하는 동영상 부호화/복호화장치 및 동영상 부호화/복호화방법
CN102461172B (zh) 2009-06-18 2015-03-11 株式会社东芝 运动图像编码装置
KR20110008653A (ko) 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
KR101675116B1 (ko) * 2009-08-06 2016-11-10 삼성전자 주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
EP2532159A1 (en) * 2010-02-05 2012-12-12 Telefonaktiebolaget L M Ericsson (PUBL) Selecting predicted motion vector candidates
US9973768B2 (en) * 2010-03-16 2018-05-15 Texas Instruments Incorporated CABAC decoder with decoupled arithmetic decoding and inverse binarization
US10362316B2 (en) * 2010-04-01 2019-07-23 Sony Corporation Image processing device and method
CN102215392B (zh) * 2010-04-09 2013-10-09 华为技术有限公司 用于估计像素值的帧内预测方法或装置
HUE041324T2 (hu) * 2010-05-25 2019-05-28 Lg Electronics Inc Új síkbani elõrejelzés üzemmód
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
KR20120016991A (ko) 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
WO2012034690A1 (en) 2010-09-14 2012-03-22 Panasonic Corporation Limitation of error propagation in line-based prediction for intra coding
US20120106622A1 (en) * 2010-11-03 2012-05-03 Mediatek Inc. Method and Apparatus of Slice Grouping for High Efficiency Video Coding
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
CN107105281B (zh) 2010-12-14 2019-11-12 M&K控股株式会社 用于解码运动画面的设备
US9049455B2 (en) 2010-12-28 2015-06-02 Panasonic Intellectual Property Corporation Of America Image coding method of coding a current picture with prediction using one or both of a first reference picture list including a first current reference picture for a current block and a second reference picture list including a second current reference picture for the current block
US8755437B2 (en) * 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
US9319716B2 (en) * 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
CN102685477B (zh) * 2011-03-10 2014-12-10 华为技术有限公司 获取用于合并模式的图像块的方法和设备
EP3139611A1 (en) * 2011-03-14 2017-03-08 HFI Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
US20120236934A1 (en) 2011-03-18 2012-09-20 Qualcomm Incorporated Signaling of multiview video plus depth content with a block-level 4-component structure
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9485517B2 (en) * 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
US20120287999A1 (en) * 2011-05-11 2012-11-15 Microsoft Corporation Syntax element prediction in error correction
CN105187839A (zh) * 2011-05-31 2015-12-23 Jvc建伍株式会社 动图像解码装置、动图像解码方法、接收装置及接收方法
WO2012177664A1 (en) 2011-06-20 2012-12-27 Sweetlabs, Inc. Systems and methods for streamlined content download
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
US10063876B2 (en) 2011-06-24 2018-08-28 Hfi Innovation Inc. Method and apparatus for removing redundancy in motion vector predictors
JP5956571B2 (ja) * 2011-06-30 2016-07-27 ヴィディオ・インコーポレーテッド スケーラブルビデオ符号化における動き予測
JP2013034171A (ja) * 2011-06-30 2013-02-14 Sony Corp 画像処理装置および方法
US9094689B2 (en) * 2011-07-01 2015-07-28 Google Technology Holdings LLC Motion vector prediction design simplification
US9699456B2 (en) * 2011-07-20 2017-07-04 Qualcomm Incorporated Buffering prediction data in video coding
WO2013036071A2 (ko) 2011-09-09 2013-03-14 엘지전자 주식회사 인터 예측 방법 및 그 장치
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
US9871537B2 (en) * 2011-10-27 2018-01-16 Qualcomm Incorporated Mapping states in binary arithmetic coder for video coding
US9124895B2 (en) * 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US20130177084A1 (en) * 2012-01-10 2013-07-11 Qualcomm Incorporated Motion vector scaling in video coding
US20130188716A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Temporal motion vector predictor candidate
US9674527B2 (en) * 2012-01-31 2017-06-06 Qualcomm Incorporated Implicit derivation of parallel motion estimation range size
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
KR101682999B1 (ko) * 2012-04-16 2016-12-20 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
US9549180B2 (en) * 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding
US9325990B2 (en) * 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
US9479778B2 (en) * 2012-08-13 2016-10-25 Qualcomm Incorporated Device and method for coding video information using base layer motion vector candidate
US20140247878A1 (en) * 2012-09-21 2014-09-04 Lidong Xu Cross-layer motion vector prediction
US20140086328A1 (en) * 2012-09-25 2014-03-27 Qualcomm Incorporated Scalable video coding in hevc
US9491461B2 (en) * 2012-09-27 2016-11-08 Qualcomm Incorporated Scalable extensions to HEVC and temporal motion vector prediction
US9491459B2 (en) * 2012-09-27 2016-11-08 Qualcomm Incorporated Base layer merge and AMVP modes for video coding
US9699450B2 (en) * 2012-10-04 2017-07-04 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
CN102883163B (zh) 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
US10334259B2 (en) * 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9544566B2 (en) * 2012-12-14 2017-01-10 Qualcomm Incorporated Disparity vector derivation
CN104737542B (zh) * 2013-01-30 2018-09-25 英特尔公司 用于下一代视频的内容自适应熵编码
US9762905B2 (en) * 2013-03-22 2017-09-12 Qualcomm Incorporated Disparity vector refinement in video coding
US20140301463A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for video coding and decoding
SG11201510554RA (en) * 2013-07-24 2016-02-26 Qualcomm Inc Simplified advanced motion prediction for 3d-hevc
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
US9693077B2 (en) * 2013-12-13 2017-06-27 Qualcomm Incorporated Controlling sub prediction unit (sub-PU) motion parameter inheritance (MPI) in three dimensional (3D) HEVC or other 3D coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067938A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of constructing merge list

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
BROSS B.,ET AL: "High efficiency video coding (HEVC) text specification draft 8", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6015000443, 28 July 2012 (2012-07-28), pages 67 - 114, ISSN: 0002979778 *
HUI YONG KIM ET AL.: "CU-based Merge Candidate List Construction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G416_r1, JPN6015013518, November 2011 (2011-11-01), pages 1 - 15, ISSN: 0003441432 *
JIAN-LIANG LIN ET AL.: "Parallel NxN merge mode", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-I0180, JPN6016006531, April 2012 (2012-04-01), pages 1 - 4, ISSN: 0003441436 *
KIM,IL-KOO,ET AL: "HM7: High Efficiency Video Coding (HEVC) Test Model 7 Encoder Description[online]", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC)OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6015000442, 9 July 2012 (2012-07-09), pages 3 - 4, ISSN: 0002979777 *
MINHUA ZHOU: "Parallelized merge/skip mode for HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F069, JPN6014055398, July 2011 (2011-07-01), pages 1 - 13, ISSN: 0003441430 *
OGUZ BICI ET AL.: "Non-CE13: Simplification of merge mode", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G593_r2, JPN6016006524, November 2011 (2011-11-01), pages 1 - 13, ISSN: 0003261894 *
XING WEN ET AL.: "Parallel Merge/skip Mode for HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G387_r3, JPN6014055402, November 2011 (2011-11-01), pages 1 - 13, ISSN: 0003441431 *
YONGBING LIN ET AL.: "Removal of dependency between multiple PUs in a CU for parallel merging candidate list construction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-K0197, JPN6016006533, October 2012 (2012-10-01), pages 1 - 4, ISSN: 0003441437 *
YONGJOON JEON ET AL.: "Parallel Merge Candidate Derivation for Inter_NxN partition type", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-H0091, JPN6016006528, January 2012 (2012-01-01), pages 1 - 4, ISSN: 0003350128 *
YUNFEI ZHENG ET AL.: "Non-CE9: Simplified Merge candidate derivation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G681_r1, JPN6016006526, November 2011 (2011-11-01), pages 1 - 5, ISSN: 0003350127 *

Also Published As

Publication number Publication date
KR20180027621A (ko) 2018-03-14
CN102883163B (zh) 2014-05-28
CA2845442A1 (en) 2014-04-08
CN102883163A (zh) 2013-01-16
US20180343467A1 (en) 2018-11-29
AU2013314174A1 (en) 2014-04-24
US10511854B2 (en) 2019-12-17
EP3402203A1 (en) 2018-11-14
BR112014010225A2 (pt) 2017-06-13
US20140301471A1 (en) 2014-10-09
JP2017079491A (ja) 2017-04-27
MY177902A (en) 2020-09-24
EP2822283A1 (en) 2015-01-07
US20170054997A1 (en) 2017-02-23
KR20170024143A (ko) 2017-03-06
KR101629220B1 (ko) 2016-06-10
RU2553060C1 (ru) 2015-06-10
AU2013314174B2 (en) 2015-03-05
KR101970216B1 (ko) 2019-04-18
BR112014010225A8 (pt) 2017-06-20
JP6863943B2 (ja) 2021-04-21
SG11201400427VA (en) 2014-06-27
KR20160066013A (ko) 2016-06-09
BR112014010225B1 (pt) 2020-03-10
JP2019033515A (ja) 2019-02-28
CA2845442C (en) 2018-07-17
US10091523B2 (en) 2018-10-02
JP6068490B2 (ja) 2017-01-25
US9549181B2 (en) 2017-01-17
MY165294A (en) 2018-03-21
KR101835563B1 (ko) 2018-03-07
KR101711568B1 (ko) 2017-03-02
KR20140074302A (ko) 2014-06-17
HK1203723A1 (en) 2015-10-30
EP2822283A4 (en) 2015-09-16
WO2014056314A1 (zh) 2014-04-17
SG10201608387VA (en) 2016-12-29

Similar Documents

Publication Publication Date Title
JP6068490B2 (ja) 動きベクトル予測のための動きベクトルリストを作成する方法及び装置
US11553175B2 (en) Method and apparatus for candidate list pruning
JP2020523817A (ja) 動きベクトル予測方法およびデバイス
CN103841426B (zh) 用于运动矢量预测的运动矢量列表建立的方法、装置
EP2942961A1 (en) Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
JP2016504845A5 (ja)
US20150215643A1 (en) Method and apparatus for acquiring disparity vector predictor of prediction block
CN103841425A (zh) 用于运动矢量预测的运动矢量列表建立的方法、装置
US20230199216A1 (en) Method and apparatus for reference area transfer with pre-analysis
Gudumasu et al. Software-based versatile video coding decoder parallelization
Wang et al. Fast mode and depth decision algorithm for intra prediction of quality SHVC
US9491455B2 (en) Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, and picture decoding program
CN110650344A (zh) 生成合并候选列表的方法、装置以及电子设备、存储介质
KR20130011061A (ko) 동영상 인코딩 방법 및 이를 기록한 컴퓨터 판독 가능한 저장 매체

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150430

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161222

R150 Certificate of patent or registration of utility model

Ref document number: 6068490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250