JP7088606B2 - 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス - Google Patents

動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス Download PDF

Info

Publication number
JP7088606B2
JP7088606B2 JP2020553616A JP2020553616A JP7088606B2 JP 7088606 B2 JP7088606 B2 JP 7088606B2 JP 2020553616 A JP2020553616 A JP 2020553616A JP 2020553616 A JP2020553616 A JP 2020553616A JP 7088606 B2 JP7088606 B2 JP 7088606B2
Authority
JP
Japan
Prior art keywords
motion vector
initial
image
reference image
image block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020553616A
Other languages
English (en)
Other versions
JP2021526322A (ja
Inventor
リ、ウェイラン
ゼン、シャオゼン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2021526322A publication Critical patent/JP2021526322A/ja
Application granted granted Critical
Publication of JP7088606B2 publication Critical patent/JP7088606B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Description

著作権の宣言
本特許文書により開示される内容には著作権により保護される資料が含まれる。当該著作権は、著作権者により所有される。著作権者は、いかなる者が特許商標局の公式記録、及び公文書に存在する当該特許文書、又は当該特許の開示を複製することにも反対しない。
本出願は、画像処理分野に関し、特に、画像処理のための方法及び画像処理装置に関する。
ここ数年、携帯型デバイス、ハンディ型デバイス、及びウェアラブルデバイスの流行により、動画の容量が増え続けている。動画形態がより複雑になるにつれて、動画の記憶と伝送もより難しくなっている。動画の記憶と伝送が占めるバンド幅を軽減するために、通常、符号化端で動画データを符号化圧縮し、復号化端で復号化する。
符号化圧縮過程は、予測、変換、定量化、及びエントロピー符号化などの処理を含む。ここで、予測は、フレーム内予測、及びフレーム間予測の二種類のタイプを含み、それは、予測ブロックデータを利用して現在の符号化対象画像ブロックの冗長情報を取り除くことを目的とする。フレーム内予測は、本フレーム画像の情報を利用して予測ブロックデータを取得する。フレーム間予測は、参照画像の情報を利用して予測ブロックデータを取得し、その過程は、現在の符号化対象画像を複数の符号化対象画像ブロックに分け、符号化対象画像ブロックを複数のサブ画像ブロックに分け、その後、各サブ画像ブロックに対して、参照画像において現在のサブ画像ブロックに最もマッチングする画像ブロックを検索して予測画像ブロックとし、予測画像ブロックと現在のサブ画像ブロックとの相対変位がすなわち動きベクトルである。その後、このサブ画像ブロックと予測画像ブロックとの対応画素値を引いて残差を得る。得られた各サブ画像ブロックに対応する残差を一体に組み合わせ、符号化対象画像ブロックの残差を得る。残差は、変換、定量化、エントロピー符号化などの処理の後、エントロピー符号化ビットストリームを得て、エントロピー符号化ビットストリーム、及び例えば、フレーム内予測モード、動きベクトル(又は動きベクトル残差)などの情報といった符号化後の符号化モード情報を記憶し、又は復号化端へ送信する。
画像の復号化端では、エントロピー符号化ビットストリームを得た後にエントロピー復号化し、対応する残差を得て、復号化により得られた動きベクトル、フレーム内予測などの情報に基づいて復号化対象画像ブロックに対応する予測画像ブロックを検索し、予測画像ブロックと残差に基づいて復号化対象画像ブロックにおける各画素点の値を得る。
以上の説明から、フレーム間予測を行う場合、選択された参照画像と現在の符号化対象画像が類似するほど、フレーム間予測により生じる残差が小さくなり、これによりフレーム間予測の符号化効率を高めることがわかる。具体的には、既存の技術では動画における各画像を利用してシーンを含む背景コンテンツの高品質な特定参照画像を構築できるものがある。フレーム間予測を行う場合、現在の符号化対象画像、又は現在の復号化対象画像の背景部分は、前記高品質な特定参照画像を参照して、フレーム間予測の残差情報を減らすことに用いることができ、これにより符号化効率を高める。つまり、この特定参照画像は、フレーム間予測の参照画像である。長期参照画像は、復号化済み画像ではなく、人工的に構築された画像である。長期参照画像には複数の画像ブロックが含まれ、いずれかの画像ブロックはいずれもある復号化済み画像から抽出されたものであり、長期参照画像における異なる画像ブロックは、異なる復号化済み画像からの可能性がある。
本文において、長期参照画像以外の参照画像、及び非長期参照画像はいずれも短期参照画像と呼ばれる。
符号化効率を高め、符号化端により送信される情報量を減らすために、既存の技術では復号化端において動きベクトルを直接、導出できるものがある。符号化端は動きベクトル情報、又は動きベクトル残差情報を送信する必要がなく、復号化端も動きベクトル情報、又は動きベクトル残差情報を復号化せずに真の動きベクトル得ることができる。
動きベクトルの導出を使用する既存の技術、及び双方向動き予測を使用する技術においては、長期参照画像の特殊性を考慮しないものがある。動きベクトルの導出を使用する技術には動きベクトルが指向する参照画像が長期参照画像であるか否かを考慮しないものがあり、動きベクトルの修正を行う場合に長期参照画像において動き検索を行う可能性があり、これによりかえって検索効率、及び符号化効率を低下させてしまう。双方向動き予測を使用する技術は、画像の時間相関性に基づいて動きベクトルを操作し、関連する動きベクトルが指向する参照画像が長期参照画像である場合、現在の符号化対象画像、又は現在の復号化対象画像と長期参照画像との時間距離の定義が不明確なので、これらの操作は失効する可能性がある。
本出願は、画像処理のための方法及び画像処理装置を提供し、符号化/復号化効率を高めることができる。
第1の態様では、画像処理のための方法を提供し、この方法は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVが指向する参照画像が長期参照画像である場合、前記初期MVに基づいて前記現在の画像ブロックに動き補償を行うことと、
前記初期MVが指向する参照画像が短期参照画像である場合、前記初期MVを修正し、修正後のMVを得て、前記修正後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、を含む。
第2の態様では、画像処理装置を提供し、この装置は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVが指向する参照画像が長期参照画像である場合、前記初期MVに基づいて前記現在の画像ブロックに動き補償を行うことと、
前記初期MVが指向する参照画像が短期参照画像である場合、前記初期MVを修正し、修正後のMVを得て、前記修正後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、である。
第3の態様では、コンピュータで読み取り可能な記憶媒体を提供し、これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに第1の態様による画像処理のための方法を実行させる。
第4の態様では、第2の態様による画像処理装置を含む符号化デバイスを提供する。
第5の態様では、第2の態様による画像処理装置を含む復号化デバイスを提供する。
第6の態様では、画像処理のための方法を提供し、この方法は、
第1初期動きベクトルMV、及び第2初期MVを取得し、前記第1初期MVは、第1参照画像を指向し、前記第2初期MVは、第2参照画像を指向することと、
前記第1参照画像、及び前記第2参照画像のうちの少なくとも一つが長期参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
前記第1参照画像、及び前記第2参照画像がいずれも短期参照画像である場合、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配度に基づいて、現在の画像ブロックのMVを計算して得て、前記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、を含む。
第7の態様では、画像処理装置を提供し、この装置は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、操作は、
第1初期動きベクトルMV、及び第2初期MVを取得し、前記第1初期MVは、第1参照画像を指向し、前記第2初期MVは、第2参照画像を指向することと、
前記第1参照画像、及び前記第2参照画像のうちの少なくとも一つが長期参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
前記第1参照画像、及び前記第2参照画像がいずれも短期参照画像である場合、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配度に基づいて、現在の画像ブロックのMVを計算して得て、前記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、である。
第8の態様では、コンピュータで読み取り可能な記憶媒体を提供し、これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに第6の態様による画像処理のための方法を実行させる。
第9の態様では、第7の態様による画像処理装置を含む符号化デバイスを提供する。
第10の態様では、第7の態様による画像処理装置を含む復号化デバイスを提供する。
本出願の一つの実施例の画像処理のための方法の概略的フローチャートである。 本出願の一つの実施例の双方向マッチング法の原理概略図である。 本出願の一つの実施例のテンプレートマッチング法の原理概略図である。 本出願の一つの実施例のDMVR技術の原理概略図である。 本出願の他の一つの実施例の画像処理のための方法の概略的フローチャートである。 本出願の一つの実施例のBIO技術の原理概略図である。 本出願の一つの実施例の画像処理装置の概略的フレーム図である。 本出願の他の一つの実施例の画像処理装置の概略的フレーム図である。
以下に図面を踏まえて、本出願の実施例における技術的解決手段を説明する。
別途定義される場合を除き、本文に使用されるすべての技術用語及び学術用語は、当業者が通常理解する意味と同じである。本文においては、本出願の明細書で使用される技術用語は、具体的な実施例を説明する目的のために過ぎず、本出願を限定することを目的としていない。
まず本出願の実施例に関する関連する技術、及び概念を説明する。
動画とは、複数の画像からなるものである。動画を符号化/復号化する場合、動画における異なる画像は、異なる予測方法を採用できる。画像に基づいて採用される予測方法は、画像をフレーム内予測画像、及びフレーム間予測画像に分けることができ、ここでのフレーム間予測画像は、前方向予測画像、及び双方向予測画像を含む。I画像は、フレーム内予測画像であり、キーフレームともいい、P画像は、前方向予測画像であり、それ以前の符号化/復号化済みの一枚のP画像、又はI画像を参照画像とする。B画像は、双方向予測画像であり、前後の画像を参照画像とする。一実施形態は、符号化/復号化端が複数枚の画像を符号化/復号化した後に一段ずつのグループオブピクチャ(Group Of Picture、GOP)を生成し、このGOPは、一枚のI画像、及び複数枚のB画像(又は双方向予測画像)とP画像(又は前方向予測画像)とのうちの少なくとも一つからなるグループオブピクチャである。復号化端は、再生時に一段ずつのGOPを読み取って復号化した後に画面を読取り、レンダリング表示する。
現代の動画符号化/復号化規格において、画像を複数の小さなブロックに分け、異なる解像度の画像について符号化/復号化することができ、つまり画像は、複数の画像ブロックに分けることができる。画像は、いずれかの数の画像ブロックに分けることができる。例えば、この画像は、m×n画像ブロック行列に分けることができる。画像ブロックは、矩形形状、正方形形状、円形形状、又はいずれかのその他の形状を有することができる。画像ブロックは、いずれかのサイズを有することができ、例えば、p×q画素である。各画像ブロックはいずれも同じサイズと形状とのうちの少なくとも一つを有することができる。代替可能には、二つ又はさらに多くの画像ブロックは異なるサイズと形状とのうちの少なくとも一つを有することができる。画像ブロックは、いずれかの重なり部分を有してもよいし、有しなくてもよい。いくつかの実施例において、この画像ブロックは、いくつかの符号化/復号化規格において、マクロブロック、又は最大符号化ユニット(Largest Coding Unit、LCU)と呼ばれる。H.264規格について、この画像ブロックは、マクロブロックと呼ばれ、その大きさは、16×16画素であってもよい。高効率映像符号化(High Efficiency Video Coding、HEVC)規格について、画像ブロックは、最大符号化ユニットと呼ばれ、その大きさは、画素64×64画素であってもよい。
他のいくつかの実施例において、画像ブロックは、マクロブロック若しくは最大符号化ユニットでなくてもよく、マクロブロック若しくは最大符号化ユニットの一部を含み、又は少なくとも二つの完全なマクロブロック(若しくは最大符号化ユニット)を含み、又は少なくとも一つの完全なマクロブロック(若しくは最大符号化ユニット)と一つのマクロブロック(若しくは最大符号化ユニット)の一部を含み、又は少なくとも二つの完全なマクロブロック(若しくは最大符号化ユニット)といくつかのマクロブロック(若しくは最大符号化ユニット)の一部を含む。このように、画像が複数の画像ブロックに分けられた後、それぞれ画像データにおけるこれらの画像ブロックを符号化/復号化できる。
符号化過程は、予測、変換、定量化、及びエントロピー符号化などの処理を含む。ここで、予測は、フレーム内予測、及びフレーム間予測の二種類のタイプを含み、それは、予測ブロックデータを利用して現在の符号化対象画像ブロックの冗長情報を取り除くことを目的とする。フレーム内予測は、本フレーム画像の情報を利用して予測ブロックデータを取得する。フレーム間予測は、参照画像の情報を利用して予測ブロックデータを取得し、その過程は、現在の符号化対象画像を複数の符号化対象画像ブロックに分け、符号化対象画像ブロックを複数のサブ画像ブロックに分け、その後、各サブ画像ブロックに対して、参照画像において現在のサブ画像ブロックに最もマッチングする画像ブロックを検索して予測画像ブロックとし、予測画像ブロックと現在のサブ画像ブロックとの相対変位がすなわち動きベクトルである。その後、このサブ画像ブロックと予測画像ブロックとの対応画素値を引いて残差を得る。得られた各サブ画像ブロックに対応する残差を一体に組み合わせ、符号化対象画像ブロックの残差を得る。
本出願の各実施例において、変換行列により画像ブロックの残差の関連性を取り除くことができ、すなわち画像ブロックの冗長情報を取り除くことで、符号化効率を高める。画像ブロックにおけるデータブロックの変換は通常、二次元変換を採用し、すなわち符号化端は、データブロックの残差情報をそれぞれ一つのN×Mの変換行列、及びその転置行列と乗じ、乗じた後に得られるのが変換係数である。変換係数を定量化した後に定量化後の係数を得て、最後に定量化後の係数をエントロピー符号化して、エントロピー符号化ビットストリームを得る。エントロピー符号化ビットストリーム、及び例えば、フレーム内予測モード、動きベクトル(又は動きベクトル残差)などの情報といった符号化後の符号化モード情報を記憶し、又は復号化端へ送信する。画像の復号化端では、エントロピー符号化ビットストリームを得た後にエントロピー符号化し、対応する残差を得る。復号化により得られた動きベクトル、フレーム内予測などの情報に基づいて画像ブロックに対応する予測画像ブロックを検索する。予測画像ブロックと残差に基づいて現在のサブ画像ブロックにおける各画素点の値を得る。
前文において符号化/復号化済みの画像を現在の符号化/復号化対象の参照画像とすることに言及した。いくつかの実施例において、参照画像をさらに構築することで、参照画像と現在の符号化/復号化対象画像との類似度を高めることができる。例を挙げると、動画コンテンツ内に特定のタイプの符号化/復号化シーンがあり、このシーンにおける背景は基本的に変化せず、動画内の前景にのみ変化、又は動きが生じる。例えば動画モニタリングは、このタイプのシーンに属する。動画モニタリングシーンでは通常、モニタリングカメラは固定され動かず、又は緩慢な移動のみ生じ、背景は基本的に変化しないと認めることができる。これに対して、動画モニタリングカメラにより撮影された人又は車両などの物体には常に移動又は変化が生じ、前景が常に変化すると認めることができる。このタイプのシーンにおいて、特定の参照画像を構築でき、この特定の参照画像には高品質の背景情報のみ含まれる。例えば、この特定の参照画像は、長期参照画像であってもよい。この長期参照画像には複数の画像ブロックが含まれ、いずれかの画像ブロックはいずれもある復号化済み画像から抽出されたものであり、この長期参照画像における異なる画像ブロックは、異なる復号化済み画像からの可能性がある。フレーム間予測を行う場合、現在の符号化/復号化対象画像の背景部分は、この長期参照画像を参照して、フレーム間予測の残差情報を減らすことができ、これにより符号化/復号化効率を高める。
本出願の各実施例において、長期参照画像は、H.264/アドバンスビデオコーディング(Advanced video coding、AVC)、又はH.265/HEVCなどの規格における長期参照(long term reference)フレームであってよく、AVSコーディング規格(Audio video coding standard、AVS)、1-P2、AVS2-P2、IEEE(Institute of Electrical and Electronics Engineers、IEEE)1857.9-P4などの規格における背景フレーム(background picture)であってもよい。さらに、VP8、VP9などの規格におけるゴールデンフレーム(golden frame)であってよく、前述の複数の復号化済み画像から抽出された画像ブロックから構築された長期参照画像などであってよく、本出願の実施例は、これを限定しない。
本出願の各実施例の長期参照画像は、出力しない画像であってもよいことを理解されたい。
前文において動きベクトルの導出を使用する技術に言及したが、動きベクトルを修正する場合、長期参照画像に動き検索を行うと、かえって検索効率、及び符号化/復号化効率を低下させてしまう。これは、長期参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、長期参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、このような長期参照画像に基づいて、動きベクトルを検索する意義は大きくない。パターンマッチング動きベクトルの導出(Pattern Matching Motion Vector Derivation,PMMVD)技術、及びデコーダー・サイド・モーション・ベクトル・リファインメント(Decode Motion Vector Refinement,DMVR)技術はいずれも動きベクトル導出を使用する技術である。
前文ではさらに双方向動き予測を使用する技術に言及し、画像の時間相関性に基づいて動きベクトルを操作し、関連する動きベクトルが指向する参照画像が長期参照画像である場合、現在の符号化対象画像、又は現在の復号化対象画像と長期参照画像との時間距離の定義が不明確なので、これらの操作は失効する可能性がある。双方向オプティカルフロー(Bi-directional Optical flow,BIO)予測技術は、双方向動き予測を使用した技術である。
本出願の実施例の画像処理のための方法を説明する前に、まずHEVC規格での動画符号化復号化過程を簡単に説明する。
HEVC規格は、3つのフレーム間予測のモードを定義している。Interモード、Mergeモード、及びSkipモードである。フレーム間予測の目的は、動きベクトル(Motion Vector、MV)を得て、その後、この動きベクトルに基づいて、予測画像ブロックの参照画像における位置を確定することである。近接する画像ブロックは動き方式において類似性があり、例えば、画像ブロック(例えば、符号化対象画像ブロックと復号化対象画像ブロックとのうちの少なくとも一つ)と近接する画像ブロックとはいずれも同一物体に属し、カメラが移動する場合、それらの移動距離と方向は自然と類似し、又は同じであるので、動きベクトルを計算する必要がないことが多く、直接、近接する画像ブロックの動きベクトルを現在の画像ブロックの動きベクトルとする。ここで、Mergeモード、及びSkipモードでは、動きベクトルの残差(Motion Vector Difference、MVD)は、0であり、すなわち、近接する符号化済み画像ブロック、又は復号化済み画像ブロックに基づいて、直接、動きベクトルを得る。
符号化対象画像ブロックと復号化対象画像ブロックとのうちの少なくとも一つのモードがMergeモードの場合、作動原理は以下のとおりである。近接する画像ブロックにより一つの動きベクトル予測(Motion Vector Prediction、MVP)候補リストを構築し、MVP候補リストから最適なMVPを現在の画像ブロックの動きベクトルとして選択し、その後、この動きベクトルに基づいて、予測画像ブロックの位置を確定し、予測画像ブロックを確定した後に残差を計算して得られる。Mergeモードでは、動きベクトルは、MVP候補リストから選択されたものであるので、MVDが存在しない。符号化端は、残差、及び選択された動きベクトルのMVP候補リストにおけるインデックスについて符号化すればよく、MVDを符号化する必要はない。復号化端は、類似の方法によりMVP候補リストを構築でき、その後、符号化端により伝送されたインデックスに基づいて、動きベクトルを得る。復号化端は、動きベクトルに基づいて、予測画像ブロックを確定し、残差を取り込んで復号化して現在の画像ブロックを得る。
Mergeモードでの符号化端の具体的な動作プロセスは以下のとおりである。
1.MVP候補リストを取得する。
2.MVP候補リストから最適なMVPを選択するとともに、このMVPのMVP候補リストでのインデックスを得る。
3.選択されたMVPを現在の画像ブロックの動きベクトルとする。
4.動きベクトルに基づいて、参照画像から予測画像ブロックを確定する。
5.現在の画像ブロックから予測画像ブロックを引いて残差を得る。
6.動きベクトルは、MVP候補リストから選択されたものであるので、MVDが存在せず、残差、及び選択されたMVPのMVP候補リストにおけるインデックスを復号化端へ送信すればよい。
Mergeモードでの復号化端の具体的な動作プロセスは以下のとおりである。
1.残差、及び動きベクトルのMVP候補リストでのインデックスを受信する。
2.MVP候補リストを取得する。
3.インデックスに基づいて、MVP候補リストにおいて動きベクトルを検索して現在の画像ブロックの動きベクトルとする。
4.動きベクトルに基づいて、予測画像ブロックを確定し、残差を取り込んで復号化して現在の画像ブロックを得る。
以上は、通常のMergeモードでの処理過程である。
Skipモードは、Mergeモードの特殊な例である。Mergeモードにより動きベクトルを得た後、エンコーダが、ある方法に基づいて、現在の画像ブロック、及び予測画像ブロックが基本的に同じであると判断した場合、残差のデータを伝送する必要はなく、動きベクトルのMVP候補リストでのインデックスのみ伝送すればよく、及び現在の画像ブロックは予測画像ブロックから直接、マークを得られることを示す。
Interモードでは、まずMVPを確定し、その後、MVPを修正し、MVDを得る。符号化端は、復号化端へインデックス、及び残差を伝送する必要があるだけでなく、復号化端へMVDも伝送する必要がある。高度動きベクトル予測(Advanced Motion Vector Prediction、AMVP)は、競争メカニズムにより動きベクトル予測を実現するツールである。
AMVPモードでもMVP候補リストがあり、このMVP候補リストにおける動きベクトルは、現在の画像ブロックの空間領域、又は時間領域での近接するブロックから得られるものである。AMVPモードでのMVP候補リストは、MergeモードでのMVP候補リストと異なる可能性がある。符号化端、又は復号化端は、MVP候補リストから最適なMVPを選択する。このMVPを検索開始点として、その付近を検索し、最適な動きベクトルを得て、この動きベクトルは、現在の画像ブロックの動きベクトルである。この動きベクトルに基づいて、予測画像ブロックの位置を確定し、予測画像ブロックを確定した後に残差を計算して得られる。同時にこのMVとMVPとを互いに引いて、MVDを得る。符号化端は、残差、MVPのMVP候補リストにおけるインデックス、及びMVDについて符号化して復号化端へ送信する。復号化端は、類似の方法によりMVP候補リストを構築でき、その後、符号化端により伝送されたインデックスに基づいて、MVPを得る。復号化端は、MVP、及びMVDに基づいて、MVを確定し、MVに基づいて、予測画像ブロックを確定し、残差を取り込んで復号化して現在の画像ブロックを得る。
AMVPモードでの符号化端の具体的な動作プロセスは以下のとおりである。
1.MVP候補リストを取得する。
2.MVP候補リストから最適なMVPを選択するとともに、このMVPのMVP候補リストでのインデックスを得る。
3.MVPに基づいて、検索開始点を確定する。
4.開始点付近で検索し、最適な動きベクトルを得る。
5.動きベクトルに基づいて、参照画像から予測画像ブロックを確定する。
6.現在の画像ブロックから予測画像ブロックを引いて残差を得る。
7.動きベクトルからMVPを引いてMVDを得る。
8.残差、選択されたMVPのMVP候補リストにおけるインデックス、及びMVDを復号化端へ送信する。
AMVPモードでの復号化端の具体的な動作プロセスは、これ以上説明しない。
本出願の実施例は、画像処理ための方法100を提供する。図1は、本出願の一つの実施例の画像処理のための方法100の概略的フローチャートである。図1に示すように、この方法100は、
現在の画像ブロックの初期動きベクトルを取得するS110と、
この初期動きベクトルが指向する参照画像が長期参照画像である場合、この初期動きベクトルに基づいて、この現在の画像ブロックに動き補償を行うS120と、
この初期動きベクトルが指向する参照画像が短期参照画像である場合、この初期動きベクトルを修正し、修正後の動きベクトルを得て、この修正後の動きベクトルに基づいてこの現在の画像ブロックに動き補償を行うS130と、を含む。
本出願の実施例の画像処理のための方法において、初期動きベクトルが長期参照画像を指向する場合、動き補償を直接行い、初期動きベクトルが短期参照画像を指向する場合、初期動きベクトルを修正し、前記修正後の動きベクトルに基づいて、動き補償を行い、長期参照画像の画像ブロックエッジの明らかな揺れにより、意義のない検索を行うことを回避でき、符号化復号化効率を高めることができる。
可能な実施形態において、本出願の実施例の画像処理のための方法100は、PMMVD技術に応用できる。
PMMVD技術は、フレームレートアップコンバージョン(Frame Rate Up Conversion、FRUC)技術に基づく特殊なMergeモードである。このような特殊なMergeモードでは、現在の画像ブロックの動き情報(例えば、MVとMVD)は、ストリームにおいて符号化されず、復号化端で直接生成される。
選択可能には、この可能な実施形態において、S130において前記初期動きベクトルが指向する参照画像が短期参照画像である場合、前記初期動きベクトルを修正し、修正後の動きベクトルを得て、前記修正後の動きベクトルに基づいて、前記現在の画像ブロックを補償することは、前記現在の画像ブロックの動きベクトル候補リストを取得し、前記動きベクトル候補リストにおけるいずれかの候補動きベクトルが指向する参照画像が短期参照画像であることと、前記動きベクトル候補リストに基づいて、前記初期動きベクトルを確定することと、前記初期動きベクトルを修正し、修正後の動きベクトルを得ることと、前記修正後の動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことと、を含む。
本実施形態において、動きベクトル候補リストから初期動きベクトルを確定し、この動きベクトル候補リストにおける候補動きベクトルが指向する参照画像が短期参照画像であり、初期動きベクトルを修正し、修正後の動きベクトルを得て、修正後の動きベクトルに基づいて、現在の画像ブロックに動き補償を行うことは、長期参照画像の画像ブロックエッジの明らかな揺れにより、意義のない検索を行うことを回避し、符号化復号化効率を高めることができる。
選択可能には、可能な実施形態において、現在の画像ブロックの動きベクトル候補リストを取得することは、前記動きベクトル候補リストに加えるための候補動きベクトルを確定し、前記候補動きベクトルが指向する参照画像が短期参照画像である場合、前記候補動きベクトルを前記動きベクトル候補リストに加えることを含む。
具体的には、一つの実施例において、前記方法100は、前記候補動きベクトルが指向する参照画像のフレームマークに基づいて、前記候補動きベクトルが指向する参照画像が短期参照画像であると確定することをさらに含むことができる。具体的には、前記候補動きベクトルが指向する参照画像のフレームマークに基づいて、前記候補動きベクトルが指向する参照画像が長期参照画像であるか否か確定する。候補動きベクトルが指向する参照画像が長期参照画像である場合、長期参照画像に対応する候補動きベクトルを動きベクトル候補リストに加えなくてもよい。このように、動きベクトル候補リストから初期動きベクトルを選択する場合、長期参照画像に対応する動きベクトルを選択しない。
本出願の各実施例の動きベクトルは、3つのパラメータを含むことを理解するものとし、水平成分v、垂直成分v、及び指向する参照画像のフレームマークである。例えば、このフレームマークは、ピクチャオーダーカウント(Picture Order Count、POC)であってよく、その他の形態のマークであってもよい。符号化端、及び復号化端は、このフレームマークにより、参照画像の属性を確定でき、この参照画像が長期参照画像か、それとも短期参照画像かを判断する。
選択可能には、一つの実施例において、前記動きベクトル候補リストに基づいて、初期動きベクトルを確定することは、選択された初期動きベクトルが長期参照画像を指向する動きベクトルか否かを判断し、選択された初期動きベクトルのうちの少なくとも一つが長期参照画像を指向する場合、初期動きベクトルを再度選択し、指向する参照画像が長期参照画像以外の参照画像の初期動きベクトルを選択するまで行うことを含むことができる。
具体的には、動きベクトル候補リストに基づいて確定された初期動きベクトルが指向するのが長期参照画像である場合、予め設定されたルールに基づいて、動きベクトル候補リストから候補動きベクトルを再度選択し、初期動きベクトルとできる。この予め設定されたルールは例えば、マッチングコストが次に小さい候補動きベクトルを選択し、この候補動きベクトルが指向するのが長期参照画像でない場合、この候補動きベクトルを初期動きベクトルとするものであってもよい。この実施例は例示に過ぎず、本出願を限定するわけではない。
符号化端を例とし、FRUC mergeモードでの動きベクトル導出過程は、二つのステップに分かれる。第1ステップは、符号化ユニット(Coding Unit、CU)レベル動き検索であり、第2ステップは、サブCU(Sub-CU)レベル動き細密化過程である。類似して、復号化端も符号化端に類似した機能を実現できる。
CUレベル動き検索において、CUレベル動きベクトル候補リストを生成する。双方向マッチング法に基づいて、CUレベル動きベクトル候補リストからマッチングコスト(cost)が最も小さい動きベクトルを検索し、例えば、MV-Aである。テンプレートマッチング法でもCUレベル動きベクトル候補リストからマッチングコストが最も小さい動きベクトルを検索し、例えば、MV-Bである。その後、Mergeモードポリシーにおいて使用されるレート歪みコスト(Rate Distortion Cost、RD-Cost)ポリシーに基づいて、現在のCUがFRUC mergeモードを使用するか否かを決定する。すなわち、RD-Costポリシーを使用して2つのマッチング法(双方向マッチング法、及びテンプレートマッチング法)の結果をチェックする。マッチングコストが小さいマッチング方法により得られた結果をさらに、その他のCUモードの結果と再度比較する。二つのマッチング法におけるマッチングコストが小さいマッチング方法が最終的なマッチングコストが最も小さいものであり、現在のCUのFRUCのフラグをTRUEとし、かつ復号化端が対応するマッチング方法を使用するよう指示する。
この具体的な実施形態において、CUレベル動きベクトル候補リストは、本出願の実施例の方法100における動きベクトル候補リストに対応できる。動きベクトル候補リストを生成する場合、リストに加えられる動きベクトルを走査し、動きベクトルが短期参照画像を指向する場合、この動きベクトルを動きベクトル候補リストに加えることができ、長期参照画像を指向する場合、この動きベクトルを棄却して、動きベクトル候補リストに加えない。本実施形態における動きベクトル候補リストは、以下のうちの少なくとも一つの候補動きベクトルを含むことができる。前記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、短期参照フレームに対して得られたオリジナルAMVP候補動きベクトル、短期参照フレームに対して得られたマージ候補動きベクトル、短期参照フレームから補間により得られた動きベクトル、及び前記現在のブロックの短期参照フレームに対する上方隣接動きベクトルと左側隣接動きベクトルである。この動きベクトル候補リストは、CUレベル動きベクトル候補リストとしてもよい。
前記動きベクトル候補リストに基づいて、前記初期動きベクトルを確定することは、双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、前記動きベクトル候補リストにおける候補動きベクトルに対応する歪みコストを確定することと、前記動きベクトル候補リストにおける歪みコストが最も小さい動きベクトルを前記初期動きベクトルとすることと、を含むことができる。
具体的には、符号化端を例とし、前記動きベクトル候補リストに基づいて、初期動きベクトルを確定することは、CUレベル動き検索に対応できる。CUレベル動き検索において、双方向マッチング法に基づいて、CUレベル動きベクトル候補リストからマッチングコストが最も小さい動きベクトルを検索し、例えば、MV-Aである。テンプレートマッチング法でもCUレベル動きベクトル候補リストからマッチングコストが最も小さい動きベクトルを検索し、例えば、MV-Bである。その後、Mergeモードポリシーにおいて使用されるRD-Costポリシーに基づいて、現在のCUがFRUC mergeモードを使用するか否かを決定する。すなわち、RD-Costポリシーを使用して2つのマッチング法(双方向マッチング法、及びテンプレートマッチング法)の結果をチェックする。マッチングコストが小さいマッチング方法により得られた結果をさらに、その他のCUモードの結果と再度比較する。二つのマッチング法におけるマッチングコストが小さいマッチング方法が最終的なマッチングコストが最も小さいものであり、現在のCUのFRUCのフラグをTRUEとし、かつ復号化端が対応するマッチング方法を使用するよう指示する。類似して、復号化端も符号化端に類似した機能を実現できるが、復号化端は、符号化端ほど複雑ではなく、例えば、復号化端は、符号化端のマッチング方法を指示するためのフラグを直接受信し、RD-Costポリシーを実行する必要はない。
選択可能には、初期動きベクトルを修正し、修正後の動きベクトルを得ることは、前記現在の画像ブロックにサブ動きベクトル候補リストを生成し、前記サブ動きベクトル候補リストには前記初期動きベクトルを含むことと、前記サブ動きベクトル候補リストから歪みコストが最も小さい動きベクトルを前記修正後の動きベクトルとして確定することと、を含むことができる。
具体的には、初期動きベクトルを修正し、修正後の動きベクトルを得ることは、サブCUレベル動き細密化に対応できる。
CUレベル動き検索においてマッチングコストが最も小さい動きベクトルは、初期動きベクトルであり、それはCUレベル動き細密化の開始点とされる。開始点周囲においてCUレベルにより確定されたマッチング方法(双方向マッチング、又はテンプレートマッチング法)に基づいて、局部検索を行う。具体的には、サブCUレベル動き細密化において、サブCUレベル動きベクトル候補リストを生成できる。サブCUレベル動きベクトル候補リストにおいて、マッチングコストが小さい動きベクトルを検索し、現在のCUの動きベクトルとする。
サブCUレベル動きベクトル候補リストにおいて以下の動きベクトルを含むことができる。CUレベル動き検索により確定された動きベクトル(an MV determined from a CU-level search)と、現在の画像ブロックの上方隣接動きベクトル、左側隣接動きベクトル、左上方隣接動きベクトル、及び右上方隣接動きベクトル(top、left、top-left and top-right neighbouring MVs)と、参照画像における現在の画像ブロックの対応位置の伸縮後の動きベクトル(scaled versions of collocated MVs from reference pictures)と、その他の時間領域から導出された候補動きベクトル(up to 4 ATMVP candidatesとup to 4 STMVP candidates)とである。
上述の具体的な実施形態において、候補動きベクトルが指向する参照画像が長期参照画像である場合、長期参照画像に対応する候補動きベクトルをCUレベル動きベクトル候補リストに加えず、長期参照画像に対応する候補動きベクトルが初期動きベクトルになる機会がないようにする。
他の具体的な実施形態において、CUレベル動きベクトル候補リストに基づいて確定された初期動きベクトルが指向するのが長期参照画像である場合、予め設定されたルールに基づいて、CUレベル動きベクトル候補リストから候補動きベクトルを再度選択し、初期動きベクトルとできる。この予め設定されたルールは例えば、マッチングコストが次に小さい候補動きベクトルを選択し、この候補動きベクトルが指向するのが長期参照画像でない場合、この候補動きベクトルを初期動きベクトルとするものであってもよい。
図2は、本出願の一つの実施例の双方向マッチング法の原理概略図である。図2に示すように、双方向マッチング法は、現在のCUの動き軌跡において異なる参照画像における二つの予測画像ブロックの間の最も近接したマッチングを検索し、現在のCUの動きベクトルを導出する。双方向マッチング法は、現在の画像ブロックの動き軌跡が連続しているとの仮定に基づく。二つの予測画像ブロックの動きベクトルMV0、及びMV1は、現在の画像と二つの参照画像(参照画像0と参照画像1)との間の時間領域距離(TD0とTD1)と比例するものとする。動きベクトル候補リストを走査し、例えば、MV0について、動きベクトル対MV0とMV1を生成できる。ここで、MV0、TD0、TD1に基づいて、MV1を生成できる。MV0に対応する動きベクトル対が指向する二つの予測画像ブロックの間の歪みが最も小さい場合、この動きベクトル(つまりMV0)は、現在のCUの動きベクトルである。TD0=TD1の場合、双方向マッチングは、鏡像に基づく双方向マッチングに変化する。
二つの参照画像におけるいずれか一つが長期参照画像である場合、現在の画像(現在の符号化対象画像、又は現在の復号化対象画像)と長期参照画像との時間距離の定義が不明確なので、双方向マッチングは実行できないことを理解できる。しかも、長期参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、長期参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、双方向マッチング法がこのような長期参照画像に基づいて動きベクトルを検索する意義は大きくない。本出願の可能な実施形態において、長期参照画像に対応する候補動きベクトルをCUレベル動きベクトル候補リストに加えないことで、上述の課題が生じることを回避する。
図3は、本出願の一つの実施例のテンプレートマッチング法の原理概略図である。図3に示すように、テンプレートマッチング法は、現在の画像のテンプレート(現在のCUの上方画像ブロックと左側画像ブロックとのうちの少なくとも一つ)と参照画像におけるブロック(テンプレートの大きさと同じ)との間において最も近接するマッチングを検索し、現在のCUの動きベクトルを導出する。テンプレートを得た後に、テンプレートと候補の動きベクトルが指向する予測画像ブロックとの間の歪みが最も小さい場合、この候補の動きベクトルは、現在のCUの動きベクトルである。
参照画像が長期参照画像である場合、長期参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、長期参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、このような長期参照画像に基づいて動きベクトルを検索する意義は大きくなく、すなわちテンプレートマッチング法の結果は不正確であり、ひいては意義がないことが理解できる。本出願の可能な実施形態において、長期参照画像に対応する候補動きベクトルをCUレベル動きベクトル候補リストに加えないことで、上述の課題が生じることを回避する。
具体的な実施形態において、本出願の実施例の画像処理のための方法100は、DMVR技術に応用できる。
DMVR技術は、双方向予測を行う場合、現在の画像ブロックにさらに正確な予測を行うために使用される細密化技術である。次に復号化端を例として、DMVR技術を詳細に説明する。DMVR技術は主に、二つの大きなステップを含み、第1ステップは、複数の初期動きベクトルに対応する復号化済み画像ブロックに基づいて、テンプレートを構築することである。第2ステップは、テンプレートに基づいて、この複数の初期動きベクトルを修正することである。
具体的には、復号化端は、動きベクトル候補リストを生成できる。例えば、この動きベクトル候補リストは、前文で説明したAMVPモードの動きベクトル候補リスト、又はMergeテンプレートの動きベクトル候補リストであってもよい。復号化端は、符号化端から送信された初期動きベクトルを指示するための複数のインデックスを受信できる。復号化端は、インデックスに基づいて、動きベクトル候補リストから複数の初期動きベクトルを得る。復号化端は、この複数の初期動きベクトルに対応する復号化済み画像ブロックに基づいて、テンプレート(例えば、画素を加重合計する方法)を生成し、生成されたテンプレートを利用して、それぞれこの複数の初期動きベクトルを修正する。最後に、この修正後の動きベクトルに基づいて前記現在の画像ブロックに動き補償を行う。
本具体的な実施形態において、初期動きベクトルは、第1初期動きベクトル、及び第2初期動きベクトルを含むことができる。初期動きベクトルにおいて長期参照画像が存在する場合、以下の処理を採用できる。S120、前記初期動きベクトルが指向する参照画像が長期参照画像である場合、前記初期動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことは、前記第1初期動きベクトル、及び第2初期動きベクトルのうちの少なくとも一つの初期動きベクトルが指向する参照画像が長期参照画像である場合、前記第1初期動きベクトル、及び前記第2初期動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことと、前記第1初期動きベクトル、及び前記第2初期動きベクトルが指向する参照画像がいずれも短期参照画像である場合、前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、及び修正後の第2動きベクトルを得て、前記修正後の第1動きベクトル、及び前記修正後の第2動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことと、を含むことができる。初期動きベクトルに長期参照画像が存在しない場合、すなわち初期動きベクトルがいずれも短期参照画像である場合、既存のDMVRの処理方法を採用できる。
図4は、本出願の一つの実施例のDMVR技術の原理概略図である。具体的には、初期動きベクトルが第1初期動きベクトル(例えば、MV0であってもよい)、及び第2初期動きベクトル(例えば、MV1であってもよい)を含み、第1初期動きベクトルに対応する復号化済み画像ブロックが第1フレームの第1復号化済み画像ブロックに属すると仮定すると、この第1フレームは、第1参照画像であってよく、この第1復号化済み画像ブロックは、第1参照画像ブロックであってもよい。第2動きベクトルに対応する復号化済み画像ブロックが第2フレームの第2復号化済み画像ブロックに属すると仮定すると、この第2フレームは、第2参照画像であってよく、この第2復号化済み画像ブロックは、第2参照画像ブロックであってもよい。この第1参照画像ブロック、及びこの第2参照画像ブロックを加重合計し、テンプレートを得ることができる。ここで、このテンプレートは、双方向テンプレートということができる。
選択可能には、一つの実施例において、前記初期動きベクトルは、第1初期動きベクトル、及び第2初期動きベクトルを含む。前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、及び修正後の第2動きベクトルを得ることは、第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、前記第1参照画像ブロックは前記第1初期動きベクトルに対応し、かつ第1参照画像に属し、前記第2参照画像ブロックは前記第2初期動きベクトルに対応し、かつ第2参照画像に属することと、前記テンプレートに基づいて、前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、及び修正後の第2動きベクトルを得ることと、を含むことができる。
具体的には、前記テンプレートに基づいて、前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、修正後の第2動きベクトルを得ることは、N個の第3参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記N個の第3参照画像ブロックは、N個の第3初期動きベクトルに対応し、かつ前記第1参照画像に属することと、M個の第4参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記M個の第4参照画像ブロックは、M個の第4初期動きベクトルに対応し、かつ前記第2参照画像に属することと、前記マッチング結果に基づいて、前記N個の第3初期動きベクトルから一つの第3初期動きベクトルを選択し、及び前記M個の第4初期動きベクトルから一つの第4初期動きベクトルを選択し、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルを前記現在の画像ブロックの動きベクトル(すなわち、修正後の第1動きベクトル、及び修正後の第2動きベクトル)とし、又は前記現在の画像ブロックの動きベクトルを確定することに用いることと、を含むことができる。
選択可能には、この選択された第3初期動きベクトルは、最も小さい歪みコストに対応する動きベクトルであってもよい。又は、この選択された第3初期動きベクトルは、ある特定の値よりも小さい歪みコストに対応する動きベクトルであってもよい。
選択可能には、この選択された第4初期動きベクトルは、最も小さい歪みコストに対応する動きベクトルであってもよい。又は、この選択された第4初期動きベクトルは、ある特定の値よりも小さい歪みコストに対応する動きベクトルであってもよい。
ここで、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルを前記現在の画像ブロックの動きベクトルとし、この場合、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルに対応する既知の画像ブロック(すなわち、初期予測画像ブロック)を加重合計して予測画像ブロックを得ることができる。
又は、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルを前記現在の画像ブロックの動きベクトルを確定することに用いることができ、つまり前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルはそれぞれMVPとできる。この場合、この第3MVPを開始点として検索最適化し、最適化された動きベクトルを得ることができ、及びこの第4MVPを開始点として検索最適化し、他の最適化された動きベクトルを得ることができる。この二つの最適化された動きベクトルに対応する既知の画像ブロック(すなわち、初期予測画像ブロック)を加重合計して予測画像ブロックを得ることができる。
選択可能には、このNとMは等しくてよい。
選択可能には、この第3初期動きベクトルは、この第1初期動きベクトルを含み、この第4初期動きベクトルは、この第2初期動きベクトルを含み、つまり、テンプレートを生成するための第1初期動きベクトルに対応する参照画像ブロック、及び第2動きベクトルに対応する参照画像ブロックもそれぞれテンプレートとマッチングする必要がある。
選択可能には、本出願の実施例において、このN個の第3初期動きベクトルにおける少なくとも一部の初期動きベクトルは、この第1初期動きベクトルに基づいて偏移して得られ、このM個の第4初期動きベクトルにおける少なくとも一部の初期動きベクトルは、この第2初期動きベクトルに基づいて偏移して得られたものである。
例えば、このN個の第3初期動きベクトルにおける第1初期動きベクトル以外の初期動きベクトルは、この第1初期動きベクトルに基づいて偏移して得られ、例えば、Nは、9に等しくてよく、そのうちの8個の初期動きベクトルは、第1初期動きベクトルに基づいて偏移して得られ、例えば、8つの方向で偏移して得られ、又は垂直方向、若しくは水平方向で異なる画素を偏移して得られるものである。
また例えば、このM個の第4初期動きベクトルにおける第2初期動きベクトル以外の初期動きベクトルは、この第2初期動きベクトルに基づいて偏移して得られ、例えば、Nは、9に等しくてよく、そのうちの8個の初期動きベクトルは、第2初期動きベクトルに基づいて偏移して得られ、例えば、8つの方向で偏移して得られ、又は垂直方向、若しくは水平方向で異なる画素を偏移して得られるものである。
選択可能には、本出願の実施例において、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであってよく、前記第2参照画像は、前記現在の画像ブロックの後方向フレームであってもよい。又は、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであってよく、前記第2参照画像は、前記現在の画像ブロックの前方向フレームであってもよい。
具体的な実施形態において、復号化端は、動きベクトル候補リストを生成し、符号化端から送信された初期動きベクトルを指示するための二つのインデックスを受信する。復号化端は、DMVP条件を判断し、このDMVP条件は、二つの初期動きベクトル(例えば、MV0とMV1であってもよい)がいずれも長期参照画像を指向せず、かつ二つの初期動きベクトルの予測方向が逆であり、すなわち一つは前方向であり、他は後方向であることを求める。DMVR条件を満たす場合、MV0に対応する画像ブロック、及びMV1に対応する画像ブロックを加重合計し、双方向テンプレートを生成する。
本出願の可能な実施形態において、長期参照画像に対応する候補動きベクトルを動きベクトル候補リストに加えないことで、二つのインデックスにより指示される初期動きベクトルが指向する参照画像が長期参照画像であることを回避する。他の可能な実施形態において、二つのインデックスにより指示される初期動きベクトルが指向する参照画像が長期参照画像である場合、復号化端は、符号化端が長期参照画像を指向しない動きベクトルを初期動きベクトルと再度指示するよう求めることができ、又は復号化端は、戻り、又はDMVRアルゴリズムの失効をマークする。
第1参照画像において、MV0に対応する画像ブロックについて、水平方向と垂直方向とのうちの少なくとも一つで一つの輝度画素を偏移し、検索された近接する8つの画素ブロックの動きベクトルは、MV0の合計9つの動きベクトルとともに参照リストlist0を形成できる。第2参照画像において、MV1に対応する画像ブロックについて、水平方向と垂直方向とのうちの少なくとも一つで一つの輝度画素を偏移し、検索された近接する8つの画素ブロックの動きベクトルは、MV1の合計9つの動きベクトルとともに参照リストlist1を形成できる。
復号化端が使用する双方向テンプレートマッチングは、双方向テンプレートと参照画像における再構築ブロックとの間で歪みに基づく検索を行うために、最終的に、追加の動き情報がない細密化後の動きベクトルを得る。二つの参照画像における動きベクトル(List0における動きベクトル、及びlist1における動きベクトル)について、最も小さいマッチングコストを持つ動きベクトルは、更新動きベクトルとして当初の動きベクトルに替わる。最終的に、二つの新しい動きベクトル(図3に示すMV0'、及びMV1')で当初のMV0とMV1を代替する。MV0'に対応する予測画像ブロック、及びMV1'に対応する予測画像ブロックに基づいて、最終的な双方向予測結果を生成する。
DMVR技術において、参照画像が長期参照画像である場合、長期参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、長期参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、このような長期参照画像に基づいて、動きベクトルを検索する意義は大きくなく、すなわちDMVR技術は不正確であり、ひいては意義がないことを理解できる。本出願の実施例において、長期参照画像に対応する動きベクトルを細密化せず、直接動き補償に用いることで、上述の課題が生じることを回避する。
本出願の実施例は、画像処理のための方法200を提供する。図5は、本出願の他の一つの実施例の画像処理のための方法200の概略的フローチャートである。図5に示すように、この方法200は、
第1初期動きベクトル動きベクトル、及び第2初期動きベクトルを取得し、この第1初期動きベクトルは、第1参照画像を指向し、この第2初期M動きベクトルは、第2参照画像を指向するS210と、
この第1参照画像、及びこの第2参照画像のうちの少なくとも一つが長期参照画像である場合、この第1初期動きベクトル、及びこの第2初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得るS220と、
この第1参照画像、及びこの第2参照画像がいずれも短期参照画像である場合、この第1初期動きベクトル、及びこの第2初期動きベクトルが指向する画素点の勾配値に基づいて、現在の画像ブロックの動きベクトルを計算して得て、この現在の画像ブロックの動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得るS230と、を含む。
本出願の実施例の画像処理のための方法は、二つの初期動きベクトルが指向する参照画像がいずれも短期参照画像である場合、画素点の勾配値、及び最適化原理を採用して、現在の画像ブロックの動きベクトルを計算して得て、現在の画像ブロックの予測画像ブロックを計算して得る。二つの初期動きベクトルが指向する参照画像に長期参照画像が存在する場合、二つの初期動きベクトルに基づいて、直接現在の画像ブロックの予測画像ブロックを計算して得て、現在の画像と長期参照画像との時間距離の定義が不明確であることにより予測が実行できないことを回避し、符号化復号化効率を高めることができる。
選択可能には、S230前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値に基づいて、前記現在の画像ブロックのMVを計算して得ることは、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、前記現在の画像ブロックのMVを計算して得ることを含むことができる。
具体的な実施形態において、本出願の実施例の画像処理のための方法200は、双方向動き予測モードの改良に応用できる。双方向動き予測モードとは、ある現在の画像ブロックを符号化する場合に、二つの異なる参照画像由来の二つの初期予測画像ブロックを同時に使用して現在の画像ブロックを予測し、かつ二つの初期予測画像ブロックを一つの画像ブロックに結合し、現在の画像ブロックの予測画像ブロックとすることをいう。BIO予測技術とは、双方向動き予測モードでの技術である。BIO予測技術では、動きベクトルは、通常の双方向動き予測モードに比べて、さらに多くの符号化マークがないが、予測画像ブロックの導出過程は異なる。BIO予測技術は、ブロック動き補償に基づく動き最適化であり、オプティカルフローモードにより動きベクトルを計算し、サンプリングポイントレベルの動き最適化である。
本出願の実施例のBIO予測技術は、二つのステップを含むことができる。第1ステップは、二つの初期MV(例えば、第1初期MV、及び第2初期MV)に基づいて、現在の画像ブロックのMVを計算して得ることである。具体的には、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、現在の画像ブロックのMVを計算して得ることである。第2ステップは、前記現在の画像ブロックのMV、前記第1初期MVが指向する第1参照画像ブロック、及び前記第2初期MVが指向する第2参照画像ブロックに基づいて、前記現在の画像ブロックの予測画像ブロックを計算して得ることである。具体的には、BIO予測技術は、二つの初期MVが指向する二つの参照画像ブロックを補間し、現在の画像ブロックと同じサイズの二つの初期予測画像ブロックを得て、その後、この二つの初期予測画像ブロックを加重合計し、現在の画像ブロックの予測画像ブロックとして結合することである。
図6は、本出願の一つの実施例のBIO技術の原理概略図である。BIO技術は、短い時間内に、物体の動きが水平方向、及び垂直方向のいずれにおいても等速運動であると仮定し、オプティカルフロー法の解析条件に適合する。図6に示すように、二つの初期MVが指向する参照点k(k=0、1)の動きベクトル(v、v)、及び輝度値I(k)は、以下のオプティカルフロー公式に適合すると仮定できる。
∂I(k))/∂t+v∂I(k)/∂x+v∂I(k)/∂y=0 公式1
式中、∂I(k)/∂x及び∂I(k)/∂yは、勾配の水平成分、及び垂直成分を示す。
オプティカルフロー公式及びHermiteを補間により連立して以下のような多項式を得て、t=0の場合、BIO予測値である。
predBIO=1/2・(I(0)+I(1)+v/2・(τ∂I(1)/∂x-τ∂I(0)/∂x)+v/2・(τ∂I(1)/∂y-τ∂I(0)/∂y)) 公式2
式中、τ及びτは、それぞれ現在の画像から参照画像0、及び参照画像1までの距離を示し、両者は、現在の画像、及び二つの参照画像のPOCにより計算して得ることができる。
τ=POC(current)-POC(Ref) 公式3
τ=POC(Ref)-POC(current) 公式4
式中、POC(current)は、現在の画像のピクチャオーダーカウントであり、POC(Ref)は、参照画像0のピクチャオーダーカウントであり、POC(Ref)は、参照画像1のピクチャオーダーカウントである。
参照画像は異なる方向であることができ、すなわち一つは過去からであり、一つは未来からである。二つの参照画像は同じ方向でもあり、すなわちいずれも過去からであり、又はいずれも未来からである。二つの参照画像が同じ方向の場合、τ及びτは、異符号である。このような状況では、二つの参照画像は、同じであることはできず、すなわちτ≠τであり、参照領域は、非ゼロの動き(MVx0,MVy0,MVx1,MVy1≠0)があり、動きベクトルは、時間領域の距離に比例する(MVx0/MVx1=MVy0/MVy1=-τ/τ)。
小さい領域内の動きが同じであると仮定すると、BIOの動きベクトルが以下のような1次のテイラー展開の公式を満たすことができる。
Δ=(I(0)-I(1)+v(τ∂I(1)/∂x+τ∂I(0)/∂x)+v(τ∂I(1)/∂y+τ∂I(0)/∂y)) 公式5
式中、Δは、二つの参照画像において対応する二つの参照点(例えば、図4におけるA、Bの両点)の画素差のテイラー1次展開である。勾配値、及び最適化方法により解析し、現在の画像ブロックの最適な動きベクトルが全領域内Δの二乗、及び最小を満たし、これにより最適な動きベクトル(v、v)を計算でき、アルゴリズムのロバスト性を考慮すると、v及びvは、ある閾値範囲内にあるものとする。
上述の公式に基づいて、BIO予測技術のプロセスは以下のとおりである。現在の画像ブロックについて、その二つの参照画像に対応する位置の画素値はいずれも既に得られた。公式におけるI(0)及びI(1)は、それぞれ二つの参照画における画素値を示し、上述の公式における既知のものは、I(0)、I(1)及びτとτであり、勾配水平成分、及び垂直成分は、参照画像において計算により得られ、未知のものは、v、v及びΔである。一つの領域内のすべての画素点について、いずれも一つのΔを算出でき、最適化方法を使用して、Δが最小値のv及びvを得るようにし、つまり必要な最適な動きベクトルである。ここで、v及びvを計算する場合、それぞれv及びvに一つの区間を与え、この区間の閾値は、二つの参照画像の現在の画像に対する方向により確定される。最適な動きベクトルを得た後、この最適な動きベクトルが指向する画像ブロック+残差を直接、現在の画像ブロックとするわけではなく、公式2により現在の画像ブロックの各画素を計算して、これはBIO予測値ともいい、各画素の予測値を一体に組み合わせて、予測画像ブロックを形成する。
選択可能には、本出願の実施例において、前記第1初期動きベクトル、及び前記第2初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、前記第1初期動きベクトルが指向する第1参照画像ブロック、及び前記第2初期動きベクトルが指向する第2参照画像ブロックを加重合計し、前記現在の画像ブロックの予測画像ブロックを得ることを含む。
具体的には、BIO予測開始実行前に判断条件を追加し、又はBIO条件に必要条件を追加する。第1初期動きベクトルが指向する第1参照画像、及び第2初期動きベクトルが指向する第2参照画像がいずれも長期参照画像でなく、しかも当初のBIO条件に合格する場合、BIO予測を行うことができる。そうでなければ、直接、二つの初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得て、又は戻り、又はBIO予測アルゴリズムの失効をマークする。
BIO条件は、以下をさらに含むことができる。前記第1初期動きベクトル、及び前記第2初期動きベクトルの予測方向は異なることである。又は、代替可能には、BIO条件は、以下をさらに含むことができる。前記第1初期動きベクトル、及び前記第2初期動きベクトルの予測方向は同じであり、前記第1初期動きベクトル、及び前記第2初期動きベクトルはいずれも0ではなく、前記第1参照画像、及び前記第2参照画像は異なることである。同時に、第1初期動きベクトル、及び第2初期動きベクトルの各方向成分の比率は同じであり、いずれも動きベクトルが指向する第1参照画像と現在の画像との距離、及び第2参照画像と現在の画像との距離の比に等しい。
本出願の各実施例の動きベクトルは、3つのパラメータを含むことを理解するものとし、水平成分v、垂直成分v、及び指向する参照画像のフレームマークである。例えば、このフレームマークは、POCであってよく、その他の形態のマークであってもよい。符号化端、及び復号化端は、このフレームマークにより、参照画像の属性を確定でき、この参照画像が長期参照画像か否かを判断する。
選択可能には、本出願の実施例において、初期動きベクトルが指向する参照画像が長期参照画像であるか否かを判断することは、初期動きベクトルが指向する参照画像のフレームマークに基づいて、初期動きベクトルが指向する参照画像が長期参照画像であるか否かを確定することを含むことができる。
選択可能には、本出願の実施例において、S230前記現在の画像ブロックの動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、前記現在の画像ブロックの動きベクトル、前記第1初期動きベクトルが指向する第1参照画像ブロック、及び前記第2初期動きベクトルが指向する第2参照画像ブロックに基づいて、前記現在の画像ブロックの予測画像ブロックを計算して得ることを含むことができる。具体的な計算公式は、前文において詳細に説明しており、ここではこれ以上説明しない。
方法200の具体的な実施形態は、以下のステップを含むことができる。
1.現在の二つの初期動きベクトルがBIO条件に適合するか否かを判断し、判断条件は、以下のとおりである。
a)二つの初期動きベクトルが指向する参照画像がいずれも短期参照画像であり、すなわち第1初期動きベクトルが指向する第1参照画像、及び第2初期動きベクトルが指向する第2参照画像がいずれも短期参照画像である。
b)以下の2項のうちの一つを満たし、
i)二つの初期動きベクトルが異なる予測方向(それぞれ前方向と後方向)からである。
ii)二つの初期動きベクトルが同じ予測方向の異なる参照画像からであり、かつ二つの初期動きベクトルがいずれも0でなく、しかも二つの初期動きベクトルの各方向成分の比率が同じであり、いずれも動きベクトルが指向する参照画像と現在の画像との距離の比に等しい。
同時にa)及びb)を満たす初期動きベクトルはBIO条件に適合し、BIO予測を行うことができる。
2.二つの初期動きベクトルの予測方向に基づいて、演算閾値を確定し、すなわちv及びvの区間の閾値である。
3.二つの初期動きベクトルが指向する画素点の勾配値を計算する。
4.勾配値、及び最適化原理に基づいて、最適な動きベクトルを計算し、現在の画像ブロックの動きベクトルとする。
5.現在の画像ブロックの動きベクトル、二つの初期動きベクトルが指向する参照画像ブロックによりBIO予測値を得る。
b)i)のみを満たす場合、前記第1初期動きベクトルが指向する第1参照画像ブロック、及び前記第2初期動きベクトルが指向する第2参照画像ブロックを加重合計し、前記現在の画像ブロックの予測画像ブロックを得る。
本出願の実施例のBIO予測が参照する原理、公式、及びステップは、上述の説明を参照でき、ここではこれ以上説明しない。
BIO予測技術において、参照画像が長期参照画像である場合、現在の画像(現在の符号化対象画像、又は現在の復号化対象画像)と長期参照画像との時間距離の定義が不明確なので、BIO予測技術は実行できないことを理解できる。本出願の実施例において、二つの初期動きベクトルが指向する参照画像に長期参照画像が存在する場合、直接、二つの初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得て、これにより上述の課題が生じることを回避する。
本出願の各実施例の方法はいずれも符号化端、及び復号化端に応用できることを理解されたい。本出願の各実施例の現在の画像ブロックは、符号化対象画像ブロックであってよく、復号化対象画像ブロックであってもよい。
本出願の実施例は、PMMVD技術、DMVR技術、及びBIO予測技術に応用される画像処理のための方法を例示的に提示したにすぎず、本出願の実施例の方法は、さらに既存の又は将来のその他の動画符号化/復号化技術に応用でき、本出願の実施例は、これを限定しないことを理解されたい。
図7は、本出願の一つの実施例の画像処理装置70の概略的フレーム図である。図7に示すように、画像処理装置70は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリ701と、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサ702と、を含み、操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVが指向する参照画像が長期参照画像である場合、前記初期MVに基づいて前記現在の画像ブロックに動き補償を行うことと、
前記初期MVが指向する参照画像が短期参照画像である場合、前記初期MVを修正し、修正後のMVを得て、前記修正後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、である。
いくつかの実施例において、前記プロセッサ702は、具体的に、
前記現在の画像ブロックのMV候補リストを取得し、前記MV候補リストにおけるいずれかの候補MVが指向する参照画像が短期参照画像であり、
前記MV候補リストに基づいて、前記初期MVを確定し、
前記初期MVを修正し、修正後のMVを得て、
前記修正後のMVに基づいて、前記現在の画像ブロックに動き補償を行うためのものである。
いくつかの実施例において、前記プロセッサ702は、さらに、
前記MV候補リストに加えるための候補MVを確定し、前記候補MVが指向する参照画像が短期参照画像である場合、前記候補MVを前記MV候補リストに加えるためのものである。
いくつかの実施例において、前記プロセッサ702は、さらに、
前記候補MVが指向する参照画像のフレームマークに基づいて、前記候補MVが指向する参照画像が短期参照画像であると確定するためのものである。
いくつかの実施例において、前記MV候補リストは、
前記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、短期参照フレームに対して得られたオリジナルAMVP候補MV、
短期参照フレームに対して得られたマージ候補MV、
短期参照フレームから補間により得られたMV、及び
前記現在のブロックの短期参照フレームに対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む。
いくつかの実施例において、前記プロセッサ702は、具体的に、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、前記MV候補リストにおける候補MVに対応する歪みコストを確定し、
前記MV候補リストにおける歪みコストが最も小さいMVを前記初期MVとするためのものである。
いくつかの実施例において、前記プロセッサ702は、具体的に、
前記現在の画像ブロックにサブMV候補リストを生成し、前記サブMV候補リストには前記初期MVを含み、
前記サブMV候補リストから歪みコストが最も小さいMVを前記修正後のMVとして確定するためのものである。
いくつかの実施例において、前記初期MVは、第1初期MV、及び第2初期MVを含み、
前記プロセッサ702は、具体的に、
前記第1初期MV、及び前記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が長期参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて前記現在の画像ブロックに動き補償を行い、
前記第1初期MV、及び前記第2初期MVが指向する参照画像がいずれも短期参照画像である場合、前記第1初期MV、及び前記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得て、前記修正後の第1MV、及び前記修正後の第2MVに基づいて前記現在の画像ブロックに動き補償を行うためのものである。
いくつかの実施例において、前記プロセッサ702は、具体的に、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、前記第1参照画像ブロックは、前記第1初期MVに対応し、かつ第1参照画像に属し、前記第2参照画像ブロックは、前記第2初期MVに対応し、かつ第2参照画像に属し、
前記テンプレートに基づいて、前記第1初期MV、及び前記第2初期MVを修正し、修正後の第1MV、及び前記修正後の第2MVを得るためのものである。
いくつかの実施例において、前記プロセッサ702は、具体的に、
N個の第3参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ前記第1参照画像に属し、
M個の第4参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ前記第2参照画像に属し、
前記マッチング結果に基づいて、前記N個の第3初期MVから一つの第3初期MVを選択し、及び前記M個の第4初期MVから一つの第4初期MVを選択し、前記一つの第3初期MV、及び前記一つの第4初期MVを前記現在の画像ブロックのMVとし、又は前記現在の画像ブロックのMVを確定することに用いるためのものである。
いくつかの実施例において、前記第3初期MVは、前記第1初期MVを含み、前記第4初期MVは、前記第2初期MVを含む。
いくつかの実施例において、前記N個の第3初期MVにおける少なくとも一部の初期MVは、前記第1初期MVに基づいて偏移して得られ、前記M個の第4初期MVにおける少なくとも一部の初期MVは、前記第2初期MVに基づいて偏移して得られたものである。
いくつかの実施例において、前記Nは、前記Mに等しい。
いくつかの実施例において、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの後方向フレームであり、又は、
前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの前方向フレームである。
画像処理装置70は、さらに、対応するソフトウェアモジュールにより実現できることを理解すべきであり、ここではこれ以上説明しない。
図8は、本出願の他の一つの実施例の画像処理装置80の概略的フレーム図である。図8に示すように、画像処理装置80は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリ801と、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサ802と、を含み、操作は、
第1初期動きベクトルMV、及び第2初期MVを取得し、前記第1初期MVは、第1参照画像を指向し、前記第2初期MVは、第2参照画像を指向することと、
前記第1参照画像、及び前記第2参照画像のうちの少なくとも一つが長期参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
前記第1参照画像、及び前記第2参照画像がいずれも短期参照画像である場合、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配度に基づいて、現在の画像ブロックのMVを計算して得て、前記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、である。
いくつかの実施例において、前記プロセッサ802は、具体的に、
前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、前記現在の画像ブロックのMVを計算して得るためのものである。
いくつかの実施例において、前記プロセッサ802は、具体的に、
前記第1初期MVが指向する第1参照画像ブロック、及び前記第2初期MVが指向する第2参照画像ブロックを加重合計し、前記現在の画像ブロックの予測画像ブロックを得るためのものである。
いくつかの実施例において、前記第1初期MV、及び前記第2初期MVの予測方向は異なる。
いくつかの実施例において、前記第1初期MV、及び前記第2初期MVの予測方向は同じであり、前記第1初期MV、及び前記第2初期MVはいずれも0ではなく、前記第1参照画像、及び前記第2参照画像は異なる。
いくつかの実施例において、前記プロセッサ802は、具体的に、
前記現在の画像ブロックのMV、前記第1初期MVが指向する第1参照画像ブロック、及び前記第2初期MVが指向する第2参照画像ブロックに基づいて、前記現在の画像ブロックの予測画像ブロックを計算して得るためのものである。
画像処理装置80は、さらに、対応するソフトウェアモジュールにより実現できることを理解すべきであり、ここではこれ以上説明しない。
本出願の各実施例の装置は、メモリ、及びプロセッサにより実現でき、各メモリは、本出願の実施例の方法を実行するためのコマンドを記憶するためのものであり、プロセッサは、上述コマンドを実行し、装置が本出願の各実施例の方法を実行するようにすることを理解されたい。
本出願の実施例において言及するプロセッサは、CPU(Central Processing Unit、CPU)であってよく、その他の汎用プロセッサ、デジタルシグナルプロセッサ(Digital Signal Processor、DSP)、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、既成のフィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA)、又はその他のプログラマブルロジックデバイス、ディスクリートゲート、又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントなどであってもよいことを理解されたい。汎用プロセッサは、マイクロプロセッサであってよく、又はこのプロセッサは、いずれかの通常のプロセッサなどであってもよい。
本出願の実施例で言及するメモリは、揮発性メモリ、若しくは不揮発性メモリであってよく、又は揮発性及び不揮発性メモリの両者を含むことができることをさらに理解されたい。ここで、不揮発性メモリは、リードオンリメモリ(Read-Only Memory、ROM)、プログラマブルリードオンリメモリ(Programmable ROM、PROM)、消去可能プログラマブルリードオンリメモリ(Erasable PROM、EPROM)、電気的消去可能プログラマブルリードオンリメモリ(Electrically EPROM、EEPROM)、又はフラッシュメモリであってもよい。揮発性メモリは、ランダムアクセスメモリ(Random Access Memory、RAM)であってよく、外部高速バッファメモリとして用いられる。例示的だが限定しない説明により、多くの形態のRAMを用いることができ、例えば、スタティックラム(Static RAM、SRAM)、ダイナミックランダムアクセスメモリ(Dynamic RAM、DRAM)、シンクロナスDRAM(Synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(Double Data Rate SDRAM、DDR SDRAM)、エンハンストSDRAM(Enhanced SDRAM、ESDRAM)、シンクリンクDRAM(Synchlink DRAM、SLDRAM)、及びダイレクトラムバスRAM(Direct Rambus RAM、DR RAM)である。
プロセッサが汎用プロセッサ、DSP、ASIC、FPGA、又はその他のプログラマブルロジックデバイス、ディスクリートゲート、又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントの場合、メモリ(記憶モジュール)は、プロセッサに集積されることを説明する必要がある。
本文で説明されるメモリは、これらの、及び任意のその他の適切なタイプのメモリを含むが、それに限定しないことに留意するものとする。
本出願の実施例は、コンピュータで読み取り可能な記憶媒体をさらに提供し、これにはコマンドが記憶され、コマンドがコンピュータで運用される際、コンピュータに上述の各方法の実施例の方法を実行させる。
本出願の実施例は、コンピュータデバイスをさらに提供し、このコンピュータデバイスは、上述コンピュータで読み取り可能な記憶媒体を含む。
本出願の実施例は、符号化デバイスをさらに提供し、この符号化デバイスは、画像処理装置70と画像処理装置80とのうちの少なくとも一つを含む。
本出願の実施例は、復号化デバイスをさらに提供し、この復号化デバイスは、画像処理装置70と画像処理装置80とのうちの少なくとも一つを含む。
本出願の実施例は、航空機に応用でき、特に無人機分野である。
本出願の各実施例の電気回路、サブ電気回路、サブユニットの区分は、概略的にすぎないことを理解されたい。当業者は、本文で開示される実施例により説明される各例示的な電気回路、サブ電気回路、及びサブユニットは、分解、又は組み合わせることができることを認識できる。
上述の実施例において、全部又は部分的に、ソフトウェア、ハードウェア、ファームウェア、又はその他の任意の組み合わせにより実現できる。ソフトウェアを使用して実現する場合、全部又は部分的にコンピュータプログラム製品の形態により実現できる。コンピュータプログラム製品は、一つ又は複数のコンピュータコマンドを含む。コンピュータでコンピュータコマンドをロード又は実行する場合、全部又は部分的に、本出願の実施例に基づくプロセス又は機能を生成する。コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、又はその他のプログラミング可能な装置でもよい。コンピュータコマンドは、コンピュータで読み取り可能な記憶媒体に記憶でき、又はコンピュータで読み取り可能な記憶媒体から他のコンピュータで読み取り可能な記憶媒体へ伝送でき、例えば、コンピュータコマンドは、サイト、コンピュータ、サーバ、又はデータセンタから有線(例えば、同軸ケーブル、光ファイバ、デジタル加入者線(Digital Subscriber Line、DSL))、又は無線(例えば、赤外線、無線、マイクロ波など)の方法により他のサイト、コンピュータ、サーバ、又はデータセンタへ伝送できる。コンピュータで読み取り可能な記憶媒体は、コンピュータでアクセス可能ないずれかの使用可能な媒体であってよく、又は一つ若しくは複数の使用可能な媒体が集積されたサーバ、データセンタなどを含むデータ記憶デバイスであってもよい。使用可能な媒体は、磁性媒体(例えば、フロッピーディスク、ハードディスク、磁気テープ)、光媒体(例えば、DVD(Digital Video Disc、DVD))、又は半導体媒体(例えば、SSD(Solid State Disk、SSD))などであってもよい。
本明細書全体において言及される「一つの実施例」又は「実施例」は、実施例に関連する特定の特徴、構造、又は特性が本出願の少なくとも一つの実施例に含まれることを意味することを理解されたい。従って、本明細書全体の各箇所における「一つの実施例において」、又は「実施例において」は、同じ実施例を指すとは限らない。このほか、これらの特定の特徴、構造、又は特性は、任意の適切な方法で一つ又は複数の実施例に結合されることができる。
本出願の各実施例において、上述の各過程の番号の大きさは、実行順序の前後を意味するわけではなく、各過程の実行順序は、その機能及び内在的なロジックにより確定され、本出願の実施例の実施過程にいかなる制限を行うものではないことを理解されたい。
本出願の実施例における「Aに対応するB」とは、BがAに関連し、Aに基づいて、Bを確定できることを示すことを理解されたい。但し、Aに基づいて、Bを確定するとは、AによってのみBを確定することを意味するわけではなく、さらに、Aとその他の情報とのうちの少なくとも一つに基づいて、Bを確定できることを理解されたい。
本文における用語「少なくとも一つの」は、関連対象の関連関係を説明するにすぎず、3つの関係が存在でき、例えば、AとBとのうちの少なくとも一つは、Aが単独で存在する、AとBが同時に存在する、Bが単独で存在する、の3つの状況があることを理解されたい。このほか、本文における記号「/」は通常、前後の関連対象が「又は」の関係であることを示す。
当業者は、本文で開示される実施例により説明される各例示的なユニット、及びアルゴリズムステップを踏まえ、電子ハードウェア、又はコンピュータソフトウェアと電子ハードウェアとの組み合わせにより実現できることを認識できる。これらの機能が最終的にハードウェア、又はソフトウェアの方法で実行されるかは、技術的解決手段の特定の応用、及び設計上の制約条件により決定される。当業者は、各特定の応用に異なる方法を使用することで説明される機能を実現できるが、このような実現は、本出願の範囲を超えると認識されるべきではない。
当業者は、説明しやすく、簡潔に説明するために、上述の説明されるシステム、装置、及びユニットの具体的な作動過程が前述の方法の実施例における対応過程を参照できることを明確に理解でき、ここではこれ以上説明しない。
本出願により提供される複数の実施例において、開示されるシステム、装置、及び方法は、その他の方法により実現できることを理解されたい。例えば、上述に説明された装置の実施例は、例示的にすぎない。例えば、前記ユニットの区分は、ロジック機能の区分にすぎず、実際に実現する場合には、他の分割方法があってよく、例えば、複数のユニット、若しくはコンポーネントは、結合でき、若しくは他のシステムに集積でき、又はいくつかの特徴は無視でき、若しくは実行しないことができる。また、示された、若しくは検討された互いの間の結合、又は直接的な結合、又は通信接続は、いくつかのインターフェースによることができ、装置、若しくはユニットの間接的な結合、又は通信接続は、電気的であってよく、機械、又はその他の形態であってもよい。
前記分離部材として説明されたユニットは、物理的に分割されてもよく、又は物理的に分割されなくてもよく、ユニットとして表示される部材は、物理ユニットでもよく、又は物理ユニットでなくてもよく、すなわち一つの場所に位置でき、又は複数のネットワークユニットに分布されてもよい。実際の必要に応じてそのうちの一部又は全部のユニットを選択して本実施例の解決手段の目的を実現できる。
このほか、本出願の各実施例における各機能ユニットは、一つの処理ユニットに集積でき、各ユニットが単独で物理的に存在することもでき、二つ又は二つ以上のユニットが一つのユニットに集積されてもよい。
以上に述べたのは、本出願の具体的な実施形態に過ぎないが、本出願の保護範囲は、これに限定されるわけではなく、当分野を熟知する当業者はいずれも本出願により開示される技術範囲内において、変更又は置換を容易に想到でき、いずれも本出願の保護範囲内に含まれるものとする。従って、本出願の保護範囲は、記載された特許請求の範囲の保護範囲を基準とする。
(項目1)
動画処理方法であって、
現在の画像ブロックの初期動きベクトルMVを取得することと、
上記初期MVが指向する参照画像が長期参照画像である場合、上記初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記初期MVが指向する参照画像が短期参照画像である場合、上記初期MVを修正し、修正後のMVを得て、上記修正後のMVに基づいて上記現在の画像ブロックに動き補償を行うことと、を含む動画処理方法。
(項目2)
上記初期MVが指向する参照画像が短期参照画像である場合、上記初期MVを修正し、修正後のMVを得て、上記修正後のMVに基づいて上記現在の画像ブロックに動き補償を行うことは、
上記現在の画像ブロックのMV候補リストを取得し、上記MV候補リストにおけるいずれかの候補MVが指向する参照画像が短期参照画像であることと、
上記MV候補リストに基づいて、上記初期MVを確定することと、
上記初期MVを修正し、修正後のMVを得ることと、
上記修正後のMVに基づいて、上記現在の画像ブロックに動き補償を行うことと、を含む項目1に記載の方法。
(項目3)
上記現在の画像ブロックのMV候補リストを取得することは、
上記MV候補リストに加えるための候補MVを確定し、上記候補MVが指向する参照画像が短期参照画像である場合、上記候補MVを上記MV候補リストに加えることを含む項目2に記載の方法。
(項目4)
上記方法は、
上記候補MVが指向する参照画像のフレームマークに基づいて、上記候補MVが指向する参照画像が短期参照画像であると確定することをさらに含む項目3に記載の方法。
(項目5)
上記MV候補リストは、
上記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、短期参照フレームに対して得られたオリジナルAMVP候補MV、
短期参照フレームに対して得られたマージ候補MV、
短期参照フレームから補間により得られたMV、及び
上記現在のブロックの短期参照フレームに対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む項目2~4のいずれか一項に記載の方法。
(項目6)
上記MV候補リストに基づいて、上記初期MVを確定することは、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、上記MV候補リストにおける候補MVに対応する歪みコストを確定することと、
上記MV候補リストにおける歪みコストが最も小さいMVを上記初期MVとすることと、を含む項目5に記載の方法。
(項目7)
上記初期MVを修正し、修正後のMVを得ることは、
上記現在の画像ブロックにサブMV候補リストを生成し、上記サブMV候補リストには上記初期MVを含むことと、
上記サブMV候補リストから歪みコストが最も小さいMVを上記修正後のMVとして確定することと、を含む項目6に記載の方法。
(項目8)
上記初期MVは、第1初期MV、及び第2初期MVを含み、
上記初期MVが指向する参照画像が長期参照画像である場合、上記初期MVに基づいて上記現在の画像ブロックに動き補償を行うことは、
上記第1初期MV、及び上記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が長期参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記第1初期MV、及び上記第2初期MVが指向する参照画像がいずれも短期参照画像である場合、上記第1初期MV、及び上記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得て、上記修正後の第1MV、及び上記修正後の第2MVに基づいて上記現在の画像ブロックに動き補償を行うことと、を含む項目1に記載の方法。
(項目9)
上記第1初期MV、及び上記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得ることは、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、上記第1参照画像ブロックは、上記第1初期MVに対応し、かつ第1参照画像に属し、上記第2参照画像ブロックは、上記第2初期MVに対応し、かつ第2参照画像に属することと、
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることと、を含む項目8に記載の方法。
(項目10)
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることは、
N個の第3参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ上記第1参照画像に属することと、
M個の第4参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ上記第2参照画像に属することと、
上記マッチング結果に基づいて、上記N個の第3初期MVから一つの第3初期MVを選択し、及び上記M個の第4初期MVから一つの第4初期MVを選択し、上記一つの第3初期MV、及び上記一つの第4初期MVを上記現在の画像ブロックのMVとし、又は上記現在の画像ブロックのMVを確定することに用いることと、を含む項目9に記載の方法。
(項目11)
上記第3初期MVは、上記第1初期MVを含み、上記第4初期MVは、上記第2初期MVを含む項目10に記載の方法。
(項目12)
上記N個の第3初期MVにおける少なくとも一部の初期MVは、上記第1初期MVに基づいて偏移して得られ、上記M個の第4初期MVにおける少なくとも一部の初期MVは、上記第2初期MVに基づいて偏移して得られたものである項目10又は11に記載の方法。
(項目13)
上記Nは、上記Mに等しい項目10~12のいずれか一項に記載の方法。
(項目14)
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの後方向フレームであり、又は、
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの前方向フレームである項目10~13のいずれか一項に記載の方法。
(項目15)
上記長期参照画像は、出力しない画像である項目1~14のいずれか一項に記載の方法。
(項目16)
画像処理装置であって、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
上記少なくとも一つのメモリにアクセスし、かつ上記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、上記操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
上記初期MVが指向する参照画像が長期参照画像である場合、上記初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記初期MVが指向する参照画像が短期参照画像である場合、上記初期MVを修正し、修正後のMVを得て、上記修正後のMVに基づいて上記現在の画像ブロックに動き補償を行うことと、である装置。
(項目17)
上記プロセッサは、具体的に、
上記現在の画像ブロックのMV候補リストを取得し、上記MV候補リストにおけるいずれかの候補MVが指向する参照画像が短期参照画像であり、
上記MV候補リストに基づいて、上記初期MVを確定し、
上記初期MVを修正し、修正後のMVを得て、
上記修正後のMVに基づいて上記現在の画像ブロックに動き補償を行うためのものである項目16に記載の画像処理装置。
(項目18)
上記プロセッサは、さらに、
上記MV候補リストに加えるための候補MVを確定し、上記候補MVが指向する参照画像が短期参照画像である場合、上記候補MVを上記MV候補リストに加えるためのものである項目17に記載の画像処理装置。
(項目19)
上記プロセッサは、さらに、
上記候補MVが指向する参照画像のフレームマークに基づいて、上記候補MVが指向する参照画像が短期参照画像であると確定するためのものである項目16~18のいずれか一項に記載の画像処理装置。
(項目20)
上記MV候補リストは、
上記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、短期参照フレームに対して得られたオリジナルAMVP候補MV、
短期参照フレームに対して得られたマージ候補MV、
短期参照フレームから補間により得られたMV、及び
上記現在のブロックの短期参照フレームに対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む項目19に記載の画像処理装置。
(項目21)
上記プロセッサは、具体的に、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、上記MV候補リストにおける候補MVに対応する歪みコストを確定し、
上記MV候補リストにおける歪みコストが最も小さいMVを上記初期MVとするためのものである項目20に記載の画像処理装置。
(項目22)
上記プロセッサは、具体的に、
上記現在の画像ブロックにサブMV候補リストを生成し、上記サブMV候補リストには上記初期MVを含み、
上記サブMV候補リストから歪みコストが最も小さいMVを上記修正後のMVとして確定するためのものである項目16~18のいずれか一項に記載の画像処理装置。
(項目23)
上記初期MVは、第1初期MV、及び第2初期MVを含み、
上記プロセッサは、具体的に、
上記第1初期MV、及び上記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が長期参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて上記現在の画像ブロックに動き補償を行い、
上記第1初期MV、及び上記第2初期MVが指向する参照画像がいずれも短期参照画像である場合、上記第1初期MV、及び上記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得て、上記修正後の第1MV、及び上記修正後の第2MVに基づいて上記現在の画像ブロックに動き補償を行うためのものである項目16に記載の画像処理装置。
(項目24)
上記プロセッサは、具体的に、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、上記第1参照画像ブロックは、上記第1初期MVに対応し、かつ第1参照画像に属し、上記第2参照画像ブロックは、上記第2初期MVに対応し、かつ第2参照画像に属し、
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得るためのものである項目23に記載の画像処理装置。
(項目25)
上記プロセッサは、具体的に、
N個の第3参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ上記第1参照画像に属し、
M個の第4参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ上記第2参照画像に属し、
上記マッチング結果に基づいて、上記N個の第3初期MVから一つの第3初期MVを選択し、及び上記M個の第4初期MVから一つの第4初期MVを選択し、上記一つの第3初期MV、及び上記一つの第4初期MVを上記現在の画像ブロックのMVとし、又は上記現在の画像ブロックのMVを確定することに用いるためのものである項目24に記載の画像処理装置。
(項目26)
上記第3初期MVは、上記第1初期MVを含み、上記第4初期MVは、上記第2初期MVを含む項目25に記載の画像処理装置。
(項目27)
上記N個の第3初期MVにおける少なくとも一部の初期MVは、上記第1初期MVに基づいて偏移して得られ、上記M個の第4初期MVにおける少なくとも一部の初期MVは、上記第2初期MVに基づいて偏移して得られたものである項目25又は26に記載の画像処理装置。
(項目28)
上記Nは、上記Mに等しい項目25~27のいずれか一項に記載の画像処理装置。
(項目29)
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの後方向フレームであり、又は、
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの前方向フレームである項目25~28のいずれか一項に記載の画像処理装置。
(項目30)
上記長期参照画像は、出力しない画像である項目16~29のいずれか一項に記載の画像処理装置。
(項目31)
コンピュータで読み取り可能な記憶媒体であって、
これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに項目1~15のいずれか一項に記載の画像処理のための方法を実行させるコンピュータで読み取り可能な記憶媒体。
(項目32)
項目16~30のいずれか一項に記載の画像処理装置を含む符号化デバイス。
(項目33)
項目16~30のいずれか一項に記載の画像処理装置を含む復号化デバイス。
(項目34)
動画処理方法であって、
第1初期動きベクトルMV、及び第2初期MVを取得し、上記第1初期MVは、第1参照画像を指向し、上記第2初期MVは、第2参照画像を指向することと、
上記第1参照画像、及び上記第2参照画像のうちの少なくとも一つが長期参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
上記第1参照画像、及び上記第2参照画像がいずれも短期参照画像である場合、上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配度に基づいて、現在の画像ブロックのMVを計算して得て、上記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、を含む動画処理方法。
(項目35)
上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値に基づいて、上記現在の画像ブロックのMVを計算して得ることは、
上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、上記現在の画像ブロックのMVを計算して得ることを含む項目34に記載の方法。
(項目36)
上記第1初期MV、及び上記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、
上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックを加重合計し、上記現在の画像ブロックの予測画像ブロックを得ることを含む34又は35に記載の方法。
(項目37)
上記第1初期MV、及び上記第2初期MVの予測方向は異なる項目34~36のいずれか一項に記載の方法。
(項目38)
上記第1初期MV、及び上記第2初期MVの予測方向は同じであり、上記第1初期MV、及び上記第2初期MVはいずれも0でなく、上記第1参照画像、及び上記第2参照画像は異なる項目34~37のいずれか一項に記載の方法。
(項目39)
上記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、
上記現在の画像ブロックのMV、上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックに基づいて、上記現在の画像ブロックの予測画像ブロックを計算して得ることを含む項目34~38のいずれか一項に記載の方法。
(項目40)
上記長期参照画像は、出力しない画像である項目34~38のいずれか一項に記載の方法。
(項目41)
画像処理装置であって、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
上記少なくとも一つのメモリにアクセスし、かつ上記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、上記操作は、
第1初期動きベクトルMV、及び第2初期MVを取得し、上記第1初期MVは、第1参照画像を指向し、上記第2初期MVは、第2参照画像を指向することと、
上記第1参照画像、及び上記第2参照画像のうちの少なくとも一つが長期参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
上記第1参照画像、及び上記第2参照画像がいずれも短期参照画像である場合、上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配度に基づいて、現在の画像ブロックのMVを計算して得て、上記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、である装置。
(項目42)
上記プロセッサは、具体的に、
上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、上記現在の画像ブロックのMVを計算して得るためのものである項目41に記載の画像処理装置。
(項目43)
上記プロセッサは、具体的に、
上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックを加重合計し、上記現在の画像ブロックの予測画像ブロックを得るためのものである41又は42に記載の画像処理装置。
(項目44)
上記第1初期MV、及び上記第2初期MVの予測方向は異なる項目41~43のいずれか一項に記載の画像処理装置。
(項目45)
上記第1初期MV、及び上記第2初期MVの予測方向は同じであり、上記第1初期MV、及び上記第2初期MVはいずれも0でなく、上記第1参照画像、及び上記第2参照画像は異なる項目41~44のいずれか一項に記載の画像処理装置。
(項目46)
上記プロセッサは、具体的に、
上記現在の画像ブロックのMV、上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックに基づいて、上記現在の画像ブロックの予測画像ブロックを計算して得るためのものである項目41~45のいずれか一項に記載の画像処理装置。
(項目47)
上記長期参照画像は、出力しない画像である項目41~46のいずれか一項に記載の画像処理装置。
(項目48)
コンピュータで読み取り可能な記憶媒体であって、
これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに項目34~40のいずれか一項に記載の画像処理のための方法を実行させるコンピュータで読み取り可能な記憶媒体。
(項目49)
項目41~47のいずれか一項に記載の画像処理装置を含む符号化デバイス。
(項目50)
項目41~47のいずれか一項に記載の画像処理装置を含む復号化デバイス。

Claims (12)

  1. マークに基づいて、時間順序において現在のフレームよりも前の画像を長期参照画像として決定することと、
    前記現在の画像ブロックの動きベクトル候補リストを取得することと、
    複数のインデックスを受信することと、
    前記複数のインデックスに基づいて、前記動きベクトル候補リストから前記現在の画像ブロックの初期動きベクトルを取得することと、
    前記初期動きベクトルによって指向される参照画像が短期参照画像である場合には、前記参照画像の前記初期動きベクトルによって指向される近くの画像ブロックを検索し、前記検索によって得られた画像ブロックに基づいて修正動きベクトルを取得し、前記修正動きベクトルに基づいて前記現在の画像ブロックを予測することと、
    前記参照画像が長期参照画像である場合には前記初期動きベクトルに基づいて前記現在の画像ブロックを予測することと、
    を含む画像処理方法。
  2. 前記動きベクトル候補リストの候補動きベクトルにより指向された参照画像は短期参照画像である、請求項1に記載の画像処理方法。
  3. 前記現在の画像ブロックの動きベクトル候補リストを取得することは、
    前記動きベクトル候補リストに加えるための候補動きベクトルを確定し、前記候補動きベクトルが指向する参照画像が短期参照画像である場合、前記候補動きベクトルを前記動きベクトル候補リストに加えることを含む請求項に記載の画像処理方法。
  4. 前記画像処理方法は、
    前記候補動きベクトルが指向する参照画像のフレームマークに基づいて、前記候補動きベクトルが指向する参照画像が短期参照画像であると確定することをさらに含む請求項2または3に記載の画像処理方法。
  5. 前記動きベクトル候補リストは、
    前記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、短期参照フレームに対して得られたオリジナルAMVP候補動きベクトル
    短期参照フレームに対して得られたマージ候補動きベクトル
    短期参照フレームから補間により得られた動きベクトル、及び
    前記現在のブロックの短期参照フレームに対する上方隣接動きベクトルと左側隣接動きベクトルのうちの少なくとも一つの候補動きベクトルを含む請求項1から請求項4のいずれか一項に記載の画像処理方法。
  6. 前記動きベクトル候補リストに基づいて、前記初期動きベクトルを確定することは、
    双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、前記動きベクトル候補リストにおける候補動きベクトルに対応する歪みコストを確定することと、
    前記動きベクトル候補リストにおける歪みコストが最も小さい動きベクトルを前記初期動きベクトルとすることと、を含む請求項5に記載の画像処理方法。
  7. 前記初期動きベクトルを修正し、修正後の動きベクトルを得ることは、
    前記現在の画像ブロックにサブ動きベクトル候補リストを生成し、前記サブ動きベクトル候補リストには前記初期動きベクトルを含むことと、
    前記サブ動きベクトル候補リストから歪みコストが最も小さい動きベクトルを前記修正後の動きベクトルとして確定することと、を含む請求項6に記載の画像処理方法。
  8. 前記長期参照画像は、出力しない画像である請求項1から請求項7のいずれか一項に記載の画像処理方法。
  9. 画像処理装置であって、
    コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
    前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、前記操作は、
    マークに基づいて、時間順序において現在のフレームよりも前の画像を長期参照画像として決定することと、
    前記現在の画像ブロックの動きベクトル候補リストを取得することと、
    複数のインデックスを受信することと、
    前記複数のインデックスに基づいて、前記動きベクトル候補リストから前記現在の画像ブロックの初期動きベクトルを取得することと、
    前記初期動きベクトルによって指向される参照画像が短期参照画像である場合には、前記参照画像の前記初期動きベクトルによって指向される近くの画像ブロックを検索し、前記検索によって得られた画像ブロックに基づいて修正動きベクトルを取得し、前記修正動きベクトルに基づいて前記現在の画像ブロックを予測することと、
    前記参照画像が長期参照画像である場合には前記初期動きベクトルに基づいて前記現在の画像ブロックを予測することと、
    である装置。
  10. 請求項1から請求項8のいずれか一項に記載の画像処理方法をンピュータに実行させるためのプログラム
  11. 請求項に記載の画像処理装置を含む符号化デバイス。
  12. 請求項に記載の画像処理装置を含む復号化デバイス。
JP2020553616A 2018-04-02 2018-04-02 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス Active JP7088606B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/081652 WO2019191890A1 (zh) 2018-04-02 2018-04-02 用于图像处理的方法和图像处理装置

Publications (2)

Publication Number Publication Date
JP2021526322A JP2021526322A (ja) 2021-09-30
JP7088606B2 true JP7088606B2 (ja) 2022-06-21

Family

ID=68099733

Family Applications (11)

Application Number Title Priority Date Filing Date
JP2020553616A Active JP7088606B2 (ja) 2018-04-02 2018-04-02 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス
JP2020553636A Pending JP2021520124A (ja) 2018-04-02 2018-07-13 画像動き補償方法及び装置
JP2020553654A Active JP7388659B2 (ja) 2018-04-02 2018-08-31 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム
JP2020553580A Active JP7294753B2 (ja) 2018-04-02 2018-09-25 動画像処理方法、及び動画像処理装置
JP2020553586A Active JP7216109B2 (ja) 2018-04-02 2018-10-30 動画像処理方法、動画像処理装置、及びコンピュータプログラム
JP2020553581A Pending JP2021520120A (ja) 2018-04-02 2019-03-13 動画像処理方法および装置
JP2022182636A Pending JP2023017981A (ja) 2018-04-02 2022-11-15 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム
JP2023006258A Pending JP2023052491A (ja) 2018-04-02 2023-01-19 動画像処理方法および装置
JP2023092773A Pending JP2023110048A (ja) 2018-04-02 2023-06-05 動画像処理方法、動画処理装置、及びビットストリーム生成方法
JP2023190720A Pending JP2024010198A (ja) 2018-04-02 2023-11-08 動画処理方法、ビットストリーム生成方法、及び動画処理装置
JP2024025977A Pending JP2024057014A (ja) 2018-04-02 2024-02-22 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法

Family Applications After (10)

Application Number Title Priority Date Filing Date
JP2020553636A Pending JP2021520124A (ja) 2018-04-02 2018-07-13 画像動き補償方法及び装置
JP2020553654A Active JP7388659B2 (ja) 2018-04-02 2018-08-31 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム
JP2020553580A Active JP7294753B2 (ja) 2018-04-02 2018-09-25 動画像処理方法、及び動画像処理装置
JP2020553586A Active JP7216109B2 (ja) 2018-04-02 2018-10-30 動画像処理方法、動画像処理装置、及びコンピュータプログラム
JP2020553581A Pending JP2021520120A (ja) 2018-04-02 2019-03-13 動画像処理方法および装置
JP2022182636A Pending JP2023017981A (ja) 2018-04-02 2022-11-15 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム
JP2023006258A Pending JP2023052491A (ja) 2018-04-02 2023-01-19 動画像処理方法および装置
JP2023092773A Pending JP2023110048A (ja) 2018-04-02 2023-06-05 動画像処理方法、動画処理装置、及びビットストリーム生成方法
JP2023190720A Pending JP2024010198A (ja) 2018-04-02 2023-11-08 動画処理方法、ビットストリーム生成方法、及び動画処理装置
JP2024025977A Pending JP2024057014A (ja) 2018-04-02 2024-02-22 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法

Country Status (6)

Country Link
US (14) US11330294B2 (ja)
EP (6) EP3780608A4 (ja)
JP (11) JP7088606B2 (ja)
KR (1) KR20200134319A (ja)
CN (16) CN117135346A (ja)
WO (4) WO2019191890A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116962717A (zh) * 2018-03-14 2023-10-27 Lx 半导体科技有限公司 图像编码/解码方法、存储介质和发送方法
JP7088606B2 (ja) 2018-04-02 2022-06-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス
WO2020084554A1 (en) 2018-10-24 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Searching based motion candidate derivation for sub-block motion vector prediction
WO2020130710A1 (ko) * 2018-12-21 2020-06-25 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN113455002A (zh) * 2018-12-28 2021-09-28 瑞典爱立信有限公司 生成运动向量预测器列表
CN117395397A (zh) 2019-06-04 2024-01-12 北京字节跳动网络技术有限公司 使用临近块信息的运动候选列表构建
CN114097228B (zh) 2019-06-04 2023-12-15 北京字节跳动网络技术有限公司 具有几何分割模式编解码的运动候选列表
JP7460661B2 (ja) 2019-06-06 2024-04-02 北京字節跳動網絡技術有限公司 映像符号化のための動き候補リストの構成
CN114175636B (zh) 2019-07-14 2024-01-12 北京字节跳动网络技术有限公司 自适应参数集中的自适应环路滤波的指示
WO2021018031A1 (en) * 2019-07-27 2021-02-04 Beijing Bytedance Network Technology Co., Ltd. Restrictions of usage of tools according to reference picture types
WO2021032162A1 (en) 2019-08-20 2021-02-25 Beijing Bytedance Network Technology Co., Ltd. Signaling for transform skip mode
EP4011077A4 (en) 2019-09-13 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SAMPLE WEIGHTED BIDIRECTIONAL PREDICTION IN VIDEO CODING
KR20220061108A (ko) 2019-09-19 2022-05-12 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩에서 레퍼런스 샘플 위치 유도
KR20220066045A (ko) 2019-09-19 2022-05-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩의 스케일링 윈도우
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding
EP4026336A4 (en) 2019-10-05 2022-12-07 Beijing Bytedance Network Technology Co., Ltd. LEVEL-BASED SIGNALING OF VIDEO CODING TOOLS
CN114556918A (zh) * 2019-10-12 2022-05-27 北京字节跳动网络技术有限公司 细化视频编解码工具的使用和信令
JP7414980B2 (ja) 2019-10-13 2024-01-16 北京字節跳動網絡技術有限公司 参照ピクチャリサンプリングと映像コーディングツールとの間の相互作用
CN113727119B (zh) * 2020-05-20 2023-03-17 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111724422B (zh) * 2020-06-29 2024-01-09 深圳市慧鲤科技有限公司 图像处理方法及装置、电子设备及存储介质
CN112132732B (zh) * 2020-09-10 2023-06-02 宁波大学科学技术学院 立体图像的像素预测方法、可逆信息隐藏提取方法、终端及存储介质
WO2022141278A1 (zh) * 2020-12-30 2022-07-07 深圳市大疆创新科技有限公司 视频处理方法和编码装置
WO2023192335A1 (en) * 2022-03-28 2023-10-05 Beijing Dajia Internet Information Technology Co., Ltd. Methods and devices for candidate derivation for affine merge mode in video coding
WO2024005456A1 (ko) * 2022-06-27 2024-01-04 현대자동차주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2024005616A1 (ko) * 2022-07-01 2024-01-04 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015525547A (ja) 2012-07-02 2015-09-03 サムスン エレクトロニクス カンパニー リミテッド ビデオ符号化またはビデオ復号化のための動きベクトル予測方法及びその装置

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1452039B1 (en) 2001-11-29 2008-12-31 Panasonic Corporation Coding distortion removal method and video encoding and decoding methods
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
KR100491530B1 (ko) * 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7660354B2 (en) 2005-05-11 2010-02-09 Fang Shi Temporal error concealment for bi-directionally predicted frames
ZA200900102B (en) * 2006-07-06 2010-05-26 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding
JP2010509799A (ja) * 2006-11-03 2010-03-25 サムスン エレクトロニクス カンパニー リミテッド 映像の予測符号化方法及び装置、その復号化方法及び装置
JP2009118221A (ja) * 2007-11-07 2009-05-28 Toshiba Corp ディジタル画像復号装置及びディジタル画像復号方法
CN101873500B (zh) * 2009-04-24 2012-05-23 华为技术有限公司 帧间预测编码方法、帧间预测解码方法及设备
ES2652337T3 (es) * 2010-02-09 2018-02-01 Nippon Telegraph And Telephone Corporation Procedimiento de codificación predictiva para vector de movimiento, procedimiento de decodificación predictiva para vector de movimiento, dispositivo de codificación de imagen, dispositivo de decodificación de imagen, y programas para ello
KR20120009861A (ko) * 2010-07-22 2012-02-02 에스케이 텔레콤주식회사 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치
KR20120016991A (ko) 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
KR20240034886A (ko) * 2010-10-08 2024-03-14 지이 비디오 컴프레션, 엘엘씨 블록 분할 및 블록 병합을 지원하는 픽처 코딩
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US8976873B2 (en) * 2010-11-24 2015-03-10 Stmicroelectronics S.R.L. Apparatus and method for performing error concealment of inter-coded video frames
CN107071460B (zh) 2010-12-14 2020-03-06 M&K控股株式会社 用于编码运动画面的设备
US9635383B2 (en) 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for computing a motion vector
US8755437B2 (en) * 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
CN102611881B (zh) * 2011-01-19 2014-06-25 华为技术有限公司 参考运动矢量获取方法、模块及编、解码装置
KR101484171B1 (ko) * 2011-01-21 2015-01-23 에스케이 텔레콤주식회사 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
EP3627839B1 (en) * 2011-03-21 2021-10-20 LG Electronics Inc. Method for selecting motion vector predictor
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
JP5786478B2 (ja) 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
ES2715613T3 (es) * 2011-06-28 2019-06-05 Lg Electronics Inc Método para fijar una lista de vectores de movimiento
BR122015001004B1 (pt) * 2011-06-30 2022-07-26 Sony Corporation Dispositivo e método de processamento de imagem
KR102004113B1 (ko) * 2011-06-30 2019-07-25 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법, 화상 부호화 프로그램, 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
CN105376576B (zh) 2011-08-29 2017-07-28 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
CN102447904A (zh) * 2011-10-24 2012-05-09 成都虢电智能电力科技有限公司 一种快速对视频序列进行运动估计的方法
RU2604679C2 (ru) * 2011-10-27 2016-12-10 Сан Пэтент Траст Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений и устройство декодирования изображений
PL2773111T3 (pl) 2011-10-28 2020-06-29 Sun Patent Trust Sposób kodowania obrazów, sposób dekodowania obrazów, urządzenie do kodowania obrazów i urządzenie do dekodowania obrazów
CN107948656B (zh) 2011-10-28 2021-06-01 太阳专利托管公司 图像解码方法及图像解码装置
TWI569634B (zh) 2011-10-31 2017-02-01 Jvc Kenwood Corp Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program
ES2898887T3 (es) 2011-11-08 2022-03-09 Nokia Technologies Oy Manejo de imágenes de referencia
RU2566973C2 (ru) 2011-11-08 2015-10-27 Самсунг Электроникс Ко., Лтд. Способ и устройство для определения вектора движения в кодировании или декодировании видео
CN107659813B (zh) 2011-12-23 2020-04-17 韩国电子通信研究院 图像解码方法、图像编码方法和记录介质
DK3716621T3 (da) * 2012-04-12 2021-12-06 Jvc Kenwood Corp Indretning til kodning af levende billeder, fremgangsmåde til kodning af levende billeder, program til kodning af levende billeder og indretning til afkodning af levende billeder, fremgangsmåde til afkodning af levende billeder, program til afkodning af levende billeder
JP2013223049A (ja) * 2012-04-13 2013-10-28 Sharp Corp 画像復号装置、および画像符号化装置
US9979958B2 (en) * 2012-04-20 2018-05-22 Qualcomm Incorporated Decoded picture buffer processing for random access point pictures in video sequences
US9325990B2 (en) * 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
CN102883161B (zh) * 2012-09-19 2015-09-30 华为技术有限公司 视频编码和解码的处理方法和装置
US20150350684A1 (en) * 2012-09-20 2015-12-03 Sony Corporation Image processing apparatus and method
US9538180B2 (en) * 2012-12-17 2017-01-03 Qualcomm Incorporated Motion vector prediction in video coding
CN105075269B (zh) * 2013-04-04 2018-07-03 夏普株式会社 图像解码装置、图像编码装置及计算机可读取的记录介质
WO2014167817A1 (en) * 2013-04-07 2014-10-16 Sharp Kabushiki Kaisha Signaling change in output layer sets
US9591321B2 (en) * 2013-04-07 2017-03-07 Dolby International Ab Signaling change in output layer sets
US9930363B2 (en) 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
EP3021589A4 (en) * 2013-07-10 2017-02-15 Sharp Kabushiki Kaisha Image decoding device and image encoding device
US9894369B2 (en) * 2013-07-30 2018-02-13 Kt Corporation Image encoding and decoding method supporting plurality of layers and apparatus using same
US9762927B2 (en) * 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
WO2015053286A1 (ja) * 2013-10-08 2015-04-16 シャープ株式会社 画像復号装置、画像符号化装置、及び、符号化データ
WO2015102042A1 (en) * 2014-01-02 2015-07-09 Sharp Kabushiki Kaisha Parameter set signaling
KR101658192B1 (ko) * 2014-01-02 2016-09-20 인텔렉추얼디스커버리 주식회사 다시점 영상을 위한 움직임 벡터를 부호화/복호화하는 방법 및 그 장치
US20170019666A1 (en) * 2014-03-13 2017-01-19 Sharp Kabushiki Kaisha Constrained reference picture parameters
US9788007B2 (en) * 2014-06-20 2017-10-10 Qualcomm Incorporated Profile, tier, level for the 0-th output layer set in video coding
EP3198872A1 (en) * 2014-09-26 2017-08-02 VID SCALE, Inc. Intra block copy coding with temporal block vector prediction
CN112188204B (zh) 2014-10-31 2024-04-05 三星电子株式会社 使用高精度跳过编码的视频编码设备和视频解码设备及其方法
US9872296B2 (en) 2015-01-06 2018-01-16 Qualcomm Incorporated Techniques for beam shaping at a millimeter wave base station and a wireless device and fast antenna subarray selection at a wireless device
WO2016165069A1 (en) * 2015-04-14 2016-10-20 Mediatek Singapore Pte. Ltd. Advanced temporal motion vector prediction in video coding
EP3342165B1 (en) * 2015-09-08 2021-11-10 MediaTek Inc. Method and system of decoded picture buffer for intra block copy mode
CN106534858B (zh) 2015-09-10 2019-09-06 展讯通信(上海)有限公司 真实运动估计方法及装置
CN111526361B (zh) * 2016-02-06 2022-05-13 华为技术有限公司 图像编解码方法及装置
CN114449288A (zh) * 2016-03-16 2022-05-06 联发科技股份有限公司 视频编码的样式基础的运动向量推导之方法及装置
CN108886618A (zh) 2016-03-24 2018-11-23 Lg 电子株式会社 视频编码系统中的帧间预测方法和装置
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
WO2017205700A1 (en) 2016-05-25 2017-11-30 Arris Enterprises Llc Binary, ternary and quad tree partitioning for jvet coding of video data
EP3497932A4 (en) * 2016-08-15 2020-03-25 Nokia Technologies Oy VIDEO CODING AND DECODING
US11409855B2 (en) * 2016-08-22 2022-08-09 Lenovo (Singapore) Pte. Ltd. Gesture based CAPTCHA test
CN107820095B (zh) * 2016-09-14 2020-01-03 北京金山云网络技术有限公司 一种长期参考图像选择方法及装置
US10812791B2 (en) * 2016-09-16 2020-10-20 Qualcomm Incorporated Offset vector identification of temporal motion vector predictor
EP3301914A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for encoding and decoding a large field of view video
EP3343924A1 (en) 2017-01-03 2018-07-04 Thomson Licensing Method and apparatus for encoding and decoding motion information
EP3343925A1 (en) 2017-01-03 2018-07-04 Thomson Licensing Method and apparatus for encoding and decoding motion information
US10542280B2 (en) 2017-01-09 2020-01-21 QUALCOMM Incorpated Encoding optimization with illumination compensation and integer motion vector restriction
US20180199057A1 (en) 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
JP7036628B2 (ja) 2017-03-10 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN109089119B (zh) 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
JP2020145486A (ja) * 2017-07-28 2020-09-10 シャープ株式会社 動画像符号化装置及び動画像復号装置
KR102408258B1 (ko) * 2017-09-12 2022-06-13 삼성전자주식회사 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
CN107682705B (zh) * 2017-09-26 2020-05-12 杭州电子科技大学 基于mv-hevc框架的立体视频b帧错误隐藏方法
US20190141320A1 (en) * 2017-11-07 2019-05-09 Qualcomm Incorporated Enhanced reference picture management in video coding
US11057640B2 (en) 2017-11-30 2021-07-06 Lg Electronics Inc. Image decoding method and apparatus based on inter-prediction in image coding system
US11323705B2 (en) 2018-03-09 2022-05-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus using sample filtering
KR102502175B1 (ko) * 2018-04-01 2023-02-21 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
EP3761644A4 (en) 2018-04-01 2021-01-20 LG Electronics Inc. PICTURE ENCODING PROCESS ON THE BASIS OF AN APPEAL MOTION PREDICTION AND DEVICE FOR IT
JP7088606B2 (ja) 2018-04-02 2022-06-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス
CN114697663B (zh) * 2018-08-17 2024-01-30 华为技术有限公司 对编码视频位流进行解码的方法,解码设备以及译码系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015525547A (ja) 2012-07-02 2015-09-03 サムスン エレクトロニクス カンパニー リミテッド ビデオ符号化またはビデオ復号化のための動きベクトル予測方法及びその装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN, Jianle et al.,Algorithm Description of Joint Exploration Test Model 7 (JEM 7),Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 7th Meeting: Torino, IT, 13-21 July 2017, [JVET-G1001-v1],JVET-G1001 (version 1),ITU-T,2017年08月19日,<URL:http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/7_Torino/wg11/JVET-G1001-v1.zip>: JVET-G1001-v1.docx: pp. 27-28

Also Published As

Publication number Publication date
CN110419217A (zh) 2019-11-05
EP3783897A1 (en) 2021-02-24
EP3780619A4 (en) 2022-02-23
CN114125440A (zh) 2022-03-01
EP3780618A1 (en) 2021-02-17
US20210227251A1 (en) 2021-07-22
CN113824966B (zh) 2023-09-12
CN110419220B (zh) 2023-08-29
JP2024057014A (ja) 2024-04-23
US11343534B2 (en) 2022-05-24
US20210021856A1 (en) 2021-01-21
CN110786012B (zh) 2024-01-30
CN113852828A (zh) 2021-12-28
KR20200134319A (ko) 2020-12-01
EP3783897A4 (en) 2022-02-23
CN110720219A (zh) 2020-01-21
EP3780619A1 (en) 2021-02-17
US20220353527A1 (en) 2022-11-03
CN113824966A (zh) 2021-12-21
JP7216109B2 (ja) 2023-01-31
WO2019192141A1 (zh) 2019-10-10
US20220321907A1 (en) 2022-10-06
US11368714B2 (en) 2022-06-21
WO2019191890A1 (zh) 2019-10-10
CN113852828B (zh) 2023-09-12
JP2021520119A (ja) 2021-08-12
CN116760999A (zh) 2023-09-15
US20210021855A1 (en) 2021-01-21
CN110720219B (zh) 2022-04-26
JP2023017981A (ja) 2023-02-07
JP2021520124A (ja) 2021-08-12
CN110326295B (zh) 2021-11-16
CN110786012A (zh) 2020-02-11
US20210227252A1 (en) 2021-07-22
CN117135346A (zh) 2023-11-28
EP3780615A4 (en) 2022-03-02
JP2024010198A (ja) 2024-01-23
WO2019192102A1 (zh) 2019-10-10
CN116781928A (zh) 2023-09-19
US20210227254A1 (en) 2021-07-22
JP7388659B2 (ja) 2023-11-29
US20220286706A1 (en) 2022-09-08
US11381839B2 (en) 2022-07-05
US20210021812A1 (en) 2021-01-21
WO2019192152A1 (zh) 2019-10-10
JP2023110048A (ja) 2023-08-08
US11190798B2 (en) 2021-11-30
JP2021526322A (ja) 2021-09-30
US11330294B2 (en) 2022-05-10
US11350124B2 (en) 2022-05-31
CN110326295A (zh) 2019-10-11
US11490118B2 (en) 2022-11-01
US20210021824A1 (en) 2021-01-21
JP2023052491A (ja) 2023-04-11
US11363294B2 (en) 2022-06-14
US20210021825A1 (en) 2021-01-21
CN114938452A (zh) 2022-08-23
US11490120B2 (en) 2022-11-01
US20210218989A1 (en) 2021-07-15
US20220086483A1 (en) 2022-03-17
US20210227253A1 (en) 2021-07-22
EP3780615A1 (en) 2021-02-17
US11871032B2 (en) 2024-01-09
CN117061738A (zh) 2023-11-14
CN110419220A (zh) 2019-11-05
CN117294837A (zh) 2023-12-26
EP3780618A4 (en) 2022-03-02
JP2021520121A (ja) 2021-08-12
EP3780608A4 (en) 2021-12-01
JP7294753B2 (ja) 2023-06-20
US11949911B2 (en) 2024-04-02
US20210021865A1 (en) 2021-01-21
CN110495169A (zh) 2019-11-22
CN110495169B (zh) 2021-12-17
JP2021520126A (ja) 2021-08-12
CN110419217B (zh) 2023-09-26
US11323742B2 (en) 2022-05-03
US11159821B2 (en) 2021-10-26
JP2021520120A (ja) 2021-08-12
EP3780614A4 (en) 2022-02-23
EP3780608A1 (en) 2021-02-17
EP3780614A1 (en) 2021-02-17
US11949912B2 (en) 2024-04-02
CN115037942A (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
JP7088606B2 (ja) 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス
TWI736905B (zh) 色度解碼器側運動向量細化
TWI705703B (zh) 於視訊寫碼中針對子區塊推導運動資訊
TWI734147B (zh) 基於更新的運動矢量的運動預測
CN113491124A (zh) 基于dmvr的帧间预测方法和设备
TW202017375A (zh) 用於視頻編碼的對稱性雙向預測模式
US20240137559A1 (en) Method and device for image motion compensation
TW202027501A (zh) 交織預測的快速編碼方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7088606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150