JP2023017981A - Video processing method, encoder, non-transitory computer-readable storage medium, and program - Google Patents
Video processing method, encoder, non-transitory computer-readable storage medium, and program Download PDFInfo
- Publication number
- JP2023017981A JP2023017981A JP2022182636A JP2022182636A JP2023017981A JP 2023017981 A JP2023017981 A JP 2023017981A JP 2022182636 A JP2022182636 A JP 2022182636A JP 2022182636 A JP2022182636 A JP 2022182636A JP 2023017981 A JP2023017981 A JP 2023017981A
- Authority
- JP
- Japan
- Prior art keywords
- initial
- reference image
- image
- motion vector
- image block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title abstract description 13
- 230000033001 locomotion Effects 0.000 claims abstract description 663
- 239000013598 vector Substances 0.000 claims abstract description 485
- 230000007774 longterm Effects 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 abstract description 204
- 230000002457 bidirectional effect Effects 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000005457 optimization Methods 0.000 description 13
- 239000002131 composite material Substances 0.000 description 9
- 238000009795 derivation Methods 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011002 quantification Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
著作権の宣言
本特許文書により開示される内容には著作権により保護される資料が含まれる。当該著作権は、著作権者により所有される。著作権者は、いかなる者が特許商標局の公式記録、及び公文書に存在する当該特許文書、又は当該特許の開示を複製することにも反対しない。
COPYRIGHT STATEMENT The material disclosed by this patent document contains material that is protected by copyright. Such copyright is owned by the copyright owner. The copyright owner has no objection to the facsimile reproduction by any person of the patent document or the disclosure of the patent as it appears in the official records and archives of the Patent and Trademark Office.
本出願は、画像処理分野に関し、特に、画像動き補償方法及び装置に関する。 The present application relates to the field of image processing, and more particularly to image motion compensation methods and apparatus.
ここ数年、携帯型デバイス、ハンディ型デバイス、及びウェアラブルデバイスの流行により、動画の容量が増え続けている。動画形態がより複雑になるにつれて、動画の記憶と伝送もより難しくなっている。動画の記憶と伝送が占めるバンド幅を軽減するために、通常、符号化端で動画データを符号化圧縮し、復号化端で復号化する。 Over the past few years, the popularity of portable, handheld, and wearable devices has continued to increase the volume of moving images. As motion picture formats become more complex, motion picture storage and transmission also become more difficult. To reduce the bandwidth occupied by video storage and transmission, video data is typically encoded and compressed at the encoding end and decoded at the decoding end.
符号化圧縮過程は、予測、変換、定量化、及びエントロピー符号化などの処理を含む。ここで、予測は、フレーム内予測、及びフレーム間予測の二種類のタイプを含み、それは、予測ブロックデータを利用して現在の符号化対象画像ブロックの冗長情報を取り除くことを目的とする。フレーム内予測は、本フレーム画像の情報を利用して予測ブロックデータを取得する。フレーム間予測は、参照画像の情報を利用して予測ブロックデータを取得し、その過程は、現在の符号化対象画像を複数の符号化対象画像ブロックに分け、符号化対象画像ブロックを複数のサブ画像ブロックに分け、その後、各サブ画像ブロックに対して、参照画像において現在のサブ画像ブロックに最もマッチングする画像ブロックを検索して予測画像ブロックとし、予測画像ブロックと現在のサブ画像ブロックとの相対変位がすなわち動きベクトルである。その後、このサブ画像ブロックと予測画像ブロックとの対応画素値を引いて残差を得る。得られた各サブ画像ブロックに対応する残差を一体に組み合わせ、符号化対象画像ブロックの残差を得る。残差は、変換、定量化、エントロピー符号化などの処理の後、エントロピー符号化ビットストリームを得て、エントロピー符号化ビットストリーム、及び例えば、フレーム内予測モード、動きベクトル(又は動きベクトル残差)などの情報といった符号化後の符号化モード情報を記憶し、又は復号化端へ送信する。 The coding compression process includes processes such as prediction, transform, quantification, and entropy coding. Here, prediction includes two types of intra-frame prediction and inter-frame prediction, which aims to remove redundant information of the current image block to be coded using prediction block data. Intra-frame prediction acquires predicted block data using information of the current frame image. Inter-frame prediction uses information from a reference image to obtain prediction block data. The process divides the current image to be coded into multiple image blocks to be coded, and divides the image block into multiple sub-blocks. divided into image blocks, then for each sub-image block, search the image block that best matches the current sub-image block in the reference image as a predicted image block; The displacement is the motion vector. After that, the corresponding pixel values of this sub-image block and the predicted image block are subtracted to obtain a residual. The residuals corresponding to each sub-image block obtained are combined together to obtain the residual of the image block to be coded. The residual is after processing such as transformation, quantification, entropy coding, etc. to obtain an entropy coded bitstream, and an entropy coded bitstream and e.g. intra prediction mode, motion vector (or motion vector residual) , or the like, or transmitted to the decoding end.
画像の復号化端では、エントロピー符号化ビットストリームを得た後にエントロピー復号化し、対応する残差を得て、復号化により得られた動きベクトル、フレーム内予測などの情報に基づいて復号化対象画像ブロックに対応する予測画像ブロックを検索し、予測画像ブロックと残差に基づいて復号化対象画像ブロックにおける各画素点の値を得る。 At the decoding end of the image, after obtaining the entropy-encoded bitstream, entropy decoding is performed to obtain the corresponding residual, and the image to be decoded is determined based on information such as the motion vector and intra-frame prediction obtained by decoding. A prediction image block corresponding to the block is searched, and the value of each pixel point in the decoding target image block is obtained based on the prediction image block and the residual.
以上の説明から、フレーム間予測を行う場合、選択された参照画像と現在の符号化対象画像が類似するほど、フレーム間予測により生じる残差が小さくなり、これによりフレーム間予測の符号化効率を高めることがわかる。具体的には、既存の技術では動画における各画像を利用してシーンを含む背景コンテンツの高品質な特定参照画像を構築できるものがある。フレーム間予測を行う場合、現在の符号化対象画像、又は現在の復号化対象画像の背景部分は、前記高品質な特定参照画像を参照して、フレーム間予測の残差情報を減らすことに用いることができ、これにより符号化効率を高める。つまり、この特定参照画像は、フレーム間予測の参照画像である。長期参照画像は、復号化済み画像ではなく、人工的に構築された画像である。長期参照画像には複数の画像ブロックが含まれ、いずれかの画像ブロックはいずれもある復号化済み画像から抽出されたものであり、長期参照画像における異なる画像ブロックは、異なる復号化済み画像からの可能性がある。 From the above explanation, when inter-frame prediction is performed, the more similar the selected reference image and the current image to be encoded are, the smaller the residual generated by inter-frame prediction becomes. I know you can raise it. Specifically, some existing techniques can use each image in the moving image to construct a high-quality specific reference image of the background content, including the scene. When inter-frame prediction is performed, the background part of the current image to be coded or the current image to be decoded is used to reduce the residual information of inter-frame prediction by referring to the high-quality specific reference image. , which increases the coding efficiency. That is, this specific reference image is a reference image for inter-frame prediction. A long-term reference image is an artificially constructed image rather than a decoded image. A long-term reference picture contains multiple image blocks, any of which are derived from a decoded picture, and different image blocks in the long-term reference picture are derived from different decoded pictures. there is a possibility.
符号化効率を高め、符号化端により送信される情報量を減らすために、既存の技術では復号化端において動きベクトルを直接、導出できるものがある。符号化端は動きベクトル情報、又は動きベクトル残差情報を送信する必要がなく、復号化端も動きベクトル情報、又は動きベクトル残差情報を復号化せずに真の動きベクトル得ることができる。 In order to increase the coding efficiency and reduce the amount of information transmitted by the coding end, some existing techniques can directly derive motion vectors at the decoding end. The encoding end does not need to transmit motion vector information or motion vector residual information, and the decoding end can also obtain the true motion vector without decoding the motion vector information or motion vector residual information.
動きベクトルの導出を使用する既存の技術、及び双方向動き予測を使用する技術においては、長期参照画像の特殊性を考慮しないものがある。動きベクトルの導出を使用する技術には動きベクトルが指向する参照画像が長期参照画像であるか否かを考慮しないものがあり、動きベクトルの修正を行う場合に長期参照画像において動き検索を行う可能性があり、これによりかえって検索効率、及び符号化効率を低下させてしまう。双方向動き予測を使用する技術は、画像の時間相関性に基づいて動きベクトルを操作し、関連する動きベクトルが指向する参照画像が長期参照画像である場合、現在の符号化対象画像、又は現在の復号化対象画像と長期参照画像との時間距離の定義が不明確なので、これらの操作は失効する可能性がある。 Some existing techniques that use motion vector derivation and techniques that use bi-directional motion prediction do not take into account the peculiarities of long-term reference pictures. Some techniques that use motion vector derivation do not consider whether the reference image to which the motion vector points is a long-term reference image, and it is possible to perform motion search in the long-term reference image when performing motion vector correction. This in turn reduces retrieval efficiency and coding efficiency. Techniques using bi-directional motion estimation operate on motion vectors based on the temporal correlation of the images, and if the reference image to which the associated motion vector is directed is the long-term reference image, the current image to be encoded, or the current Since the definition of the temporal distance between the image to be decoded and the long-term reference image is unclear, these operations may be invalid.
本出願は、画像動き補償方法、及び画像動き補償装置を提供し、符号化/復号化効率を高めることができる。 The present application provides an image motion compensation method and an image motion compensation device, which can enhance encoding/decoding efficiency.
第1の態様では、画像動き補償方法を提供し、この方法は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVが指向する参照画像が特定参照画像である場合、前記初期MVに基づいて前記現在の画像ブロックに動き補償を行うことと、
前記初期MVが指向する参照画像が非特定参照画像である場合、前記初期MVを修正し、修正後のMVを得て、前記修正後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、を含む。
In a first aspect, an image motion compensation method is provided, the method comprising:
obtaining an initial motion vector MV for the current image block;
performing motion compensation on the current image block based on the initial MV, if the reference image to which the initial MV is directed is a specific reference image;
If the reference image to which the initial MV is directed is a non-specific reference image, modify the initial MV to obtain a modified MV, and perform motion compensation on the current image block based on the modified MV. including
第2の態様では、画像動き補償装置を提供し、この装置は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVが指向する参照画像が特定参照画像である場合、前記初期MVに基づいて前記現在の画像ブロックに動き補償を行うことと、
前記初期MVが指向する参照画像が非特定参照画像である場合、前記初期MVを修正し、修正後のMVを得て、前記修正後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、である。
In a second aspect, there is provided an image motion compensation device, the device comprising:
at least one memory for storing computer executable commands;
and at least one processor used alone or jointly to perform the following operations by accessing said at least one memory and executing said computer-executable commands, the operations comprising:
obtaining an initial motion vector MV for the current image block;
performing motion compensation on the current image block based on the initial MV, if the reference image to which the initial MV is directed is a specific reference image;
If the reference image to which the initial MV is directed is a non-specific reference image, modify the initial MV to obtain a modified MV, and perform motion compensation on the current image block based on the modified MV. That is.
第3の態様では、コンピュータで読み取り可能な記憶媒体を提供し、これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに第1の態様による画像動き補償方法を実行させる。 In a third aspect, there is provided a computer readable storage medium on which commands are stored which, when run on the computer, cause the computer to perform the image motion compensation method according to the first aspect.
第4の態様では、第2の態様による画像動き補償装置を含む符号化デバイスを提供する。 In a fourth aspect there is provided an encoding device comprising the image motion compensation apparatus according to the second aspect.
第5の態様では、第2の態様による画像動き補償装置を含む復号化デバイスを提供する。 In a fifth aspect there is provided a decoding device comprising the image motion compensation apparatus according to the second aspect.
第6の態様では、画像動き補償方法を提供し、この方法は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVのスケーリング比率を確定し、ここで、前記初期MVが特定参照画像を指向する場合、前記初期MVのスケーリング比率は、1であることと、
前記初期MVのスケーリング比率に基づいて、前記初期MVをスケーリングすることと、
前記スケーリング後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、を含む。
In a sixth aspect, there is provided an image motion compensation method, the method comprising:
obtaining an initial motion vector MV for the current image block;
determining a scaling ratio of the initial MV, wherein the scaling ratio of the initial MV is 1 if the initial MV is directed to a particular reference image;
scaling the initial MV based on a scaling ratio of the initial MV;
performing motion compensation on the current image block based on the scaled MV.
第7の態様では、画像動き補償装置を提供し、この装置は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVのスケーリング比率を確定し、ここで、前記初期MVが特定参照画像を指向する場合、前記初期MVのスケーリング比率は、1であることと、
前記初期MVのスケーリング比率に基づいて、前記初期MVをスケーリングすることと、
前記スケーリング後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、である。
In a seventh aspect, there is provided an image motion compensation device, the device comprising:
at least one memory for storing computer executable commands;
and at least one processor used alone or jointly to perform the following operations by accessing said at least one memory and executing said computer-executable commands, the operations comprising:
obtaining an initial motion vector MV for the current image block;
determining a scaling ratio of the initial MV, wherein the scaling ratio of the initial MV is 1 if the initial MV is directed to a particular reference image;
scaling the initial MV based on a scaling ratio of the initial MV;
and performing motion compensation on the current image block based on the scaled MV.
第8の態様では、コンピュータで読み取り可能な記憶媒体を提供し、これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに第6の態様による画像動き補償方法を実行させる。 In an eighth aspect, there is provided a computer-readable storage medium on which commands are stored and which, when run on the computer, cause the computer to perform the image motion compensation method according to the sixth aspect.
第9の態様では、第7の態様による画像動き補償装置を含む符号化デバイスを提供する。 In a ninth aspect there is provided an encoding device comprising the image motion compensation apparatus according to the seventh aspect.
第10の態様では、第7の態様による画像動き補償装置を含む復号化デバイスを提供する。 In a tenth aspect there is provided a decoding device comprising the image motion compensation apparatus according to the seventh aspect.
第11の態様では、画像処理方法を提供し、この方法は、
第1初期動きベクトルMV、及び第2初期MVを取得し、前記第1初期MVは、第1参照画像を指向し、前記第2初期MVは、第2参照画像を指向することと、
前記第1参照画像、及び前記第2参照画像のうちの少なくとも一つが特定参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
前記第1参照画像、及び前記第2参照画像がいずれも非特定参照画像である場合、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値に基づいて、現在の画像ブロックのMVを計算して得て、前記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、を含む。
In an eleventh aspect, there is provided an image processing method, the method comprising:
obtaining a first initial motion vector MV and a second initial MV, the first initial MV pointing to a first reference image and the second initial MV pointing to a second reference image;
when at least one of the first reference image and the second reference image is a specific reference image, predicting an image block of the current image block based on the first initial MV and the second initial MV; calculated and obtained,
When both the first reference image and the second reference image are non-specific reference images, the current image based on the gradient values of the pixel points directed by the first initial MV and the second initial MV calculating and obtaining the MV of the block, and calculating and obtaining a predicted image block of the current image block based on the MV of the current image block.
第12の態様では、画像処理装置を提供し、この装置は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、操作は、
第1初期動きベクトルMV、及び第2初期MVを取得し、前記第1初期MVは、第1参照画像を指向し、前記第2初期MVは、第2参照画像を指向することと、
前記第1参照画像、及び前記第2参照画像のうちの少なくとも一つが特定参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
前記第1参照画像、及び前記第2参照画像がいずれも非特定参照画像である場合、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値に基づいて、現在の画像ブロックのMVを計算して得て、前記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、である。
In a twelfth aspect, there is provided an image processing device, the device comprising:
at least one memory for storing computer executable commands;
and at least one processor used alone or jointly to perform the following operations by accessing said at least one memory and executing said computer-executable commands, the operations comprising:
obtaining a first initial motion vector MV and a second initial MV, the first initial MV pointing to a first reference image and the second initial MV pointing to a second reference image;
when at least one of the first reference image and the second reference image is a specific reference image, predicting an image block of the current image block based on the first initial MV and the second initial MV; calculated and obtained,
When both the first reference image and the second reference image are non-specific reference images, the current image based on the gradient values of the pixel points directed by the first initial MV and the second initial MV calculating and obtaining the MV of the block, and calculating and obtaining a predicted image block of the current image block based on the MV of the current image block.
第13の態様では、コンピュータで読み取り可能な記憶媒体を提供し、これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに第11の態様による画像処理方法を実行させる。 In a thirteenth aspect, there is provided a computer-readable storage medium in which commands are stored and which, when run on the computer, cause the computer to perform the image processing method according to the eleventh aspect.
第14の態様では、第12の態様による画像処理装置を含む符号化デバイスを提供する。 A fourteenth aspect provides an encoding device comprising an image processing apparatus according to the twelfth aspect.
第15の態様では、第12の態様による画像処理装置を含む復号化デバイスを提供する。 A fifteenth aspect provides a decoding device comprising an image processing apparatus according to the twelfth aspect.
以下に図面を踏まえて、本出願の実施例における技術的解決手段を説明する。 Technical solutions in the embodiments of the present application will be described below with reference to the drawings.
別途定義される場合を除き、本文に使用されるすべての技術用語及び学術用語は、本出願の技術分野の当業者が通常理解する意味と同じである。本文においては、本出願の明細書で使用される技術用語は、具体的な実施例を説明する目的のために過ぎず、本出願を限定することを目的としていない。 Unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art of this application. As used herein, the technical terms used in the specification of the present application are for the purpose of describing particular embodiments only and are not intended to limit the present application.
まず本出願の実施例に関する関連する技術、及び概念を説明する。 First, related technologies and concepts related to the embodiments of the present application will be described.
動画とは、複数の画像からなるものである。動画を符号化/復号化する場合、動画における異なる画像は、異なる予測方法を採用できる。画像に基づいて採用される予測方法は、画像をフレーム内予測画像、及びフレーム間予測画像に分けることができ、ここでのフレーム間予測画像は、前方向予測画像、及び双方向予測画像を含む。I画像は、フレーム内予測画像であり、キーフレームともいい、P画像は、前方向予測画像であり、それ以前の符号化/復号化済みの一枚のP画像、又はI画像を参照画像とする。B画像は、双方向予測画像であり、前後の画像を参照画像とする。一実施形態は、符号化/復号化端が複数枚の画像を符号化/復号化した後に一段ずつのグループオブピクチャ(Group Of Picture、GOP)を生成し、このGOPは、一枚のI画像、及び複数枚のB画像(又は双方向予測画像)とP画像(又は前方向予測画像)とのうちの少なくとも一つからなるグループオブピクチャである。復号化端は、放映時に一段ずつのGOPを読み取って復号化した後に画面を読取り、レンダリング表示する。 A moving image consists of a plurality of images. When encoding/decoding video, different images in the video can employ different prediction methods. The prediction method adopted based on the image can divide the image into an intra-frame predicted image and an inter-frame predicted image, where the inter-frame predicted image includes a forward predicted image and a bi-directionally predicted image. . The I image is an intra-frame predicted image and is also called a key frame, and the P image is a forward predicted image. do. The B-picture is a bi-directional predictive picture, and the preceding and succeeding pictures are used as reference pictures. In one embodiment, the encoding/decoding end generates a group of pictures (GOP) step by step after encoding/decoding a plurality of pictures, and the GOP is a single I picture. , and a group of pictures consisting of at least one of a plurality of B-pictures (or bi-directionally predicted pictures) and P-pictures (or forward-predicted pictures). The decoding end reads and decodes the GOPs one by one during broadcasting, and then reads and renders the screen.
現代の動画符号化/復号化規格において、画像を複数の小さなブロックに分け、異なる解像度の画像について符号化/復号化することができ、つまり画像は、複数の画像ブロックに分けることができる。画像は、いずれかの数の画像ブロックに分けることができる。例えば、この画像は、m×n画像ブロック行列に分けることができる。画像ブロックは、矩形形状、正方形形状、円形形状、又はいずれかのその他の形状を有することができる。画像ブロックは、いずれかのサイズを有することができ、例えば、p×q画素である。各画像ブロックはいずれも同じサイズと形状とのうちの少なくとも一つを有することができる。代替可能には、二つ又はさらに多くの画像ブロックは異なるサイズと形状とのうちの少なくとも一つを有することができる。画像ブロックは、いずれかの重なり部分を有することができ、又は有しないこともできる。いくつかの実施例において、この画像ブロックは、いくつかの符号化/復号化規格において、マクロブロック、又は最大符号化ユニット(Largest Coding Unit、LCU)と呼ばれる。H.264規格について、この画像ブロックは、マクロブロックと呼ばれ、その大きさは、16×16画素であってよい。高効率映像符号化(High Efficiency Video Coding、HEVC)規格について、画像ブロックは、最大符号化ユニットと呼ばれ、その大きさは、画素64×64画素であってよい。 In modern video encoding/decoding standards, an image can be divided into multiple small blocks and encoded/decoded for images of different resolutions, i.e. an image can be divided into multiple image blocks. An image can be divided into any number of image blocks. For example, the image can be divided into an m×n image block matrix. An image block can have a rectangular shape, a square shape, a circular shape, or any other shape. An image block can have any size, eg, p×q pixels. Each image block can have at least one of the same size and shape. Alternatively, the two or more image blocks can have at least one of different sizes and shapes. Image blocks may or may not have any overlap. In some embodiments, this image block is called a macroblock or Largest Coding Unit (LCU) in some encoding/decoding standards. H. For the H.264 standard, this image block is called a macroblock and may be 16×16 pixels in size. For the High Efficiency Video Coding (HEVC) standard, an image block is called the largest coding unit and may be 64×64 pixels in size.
他のいくつかの実施例において、画像ブロックは、マクロブロック若しくは最大符号化ユニットでなくてもよく、マクロブロック若しくは最大符号化ユニットの一部を含み、又は少なくとも二つの完全なマクロブロック(若しくは最大符号化ユニット)を含み、又は少なくとも一つの完全なマクロブロック(若しくは最大符号化ユニット)と一つのマクロブロック(若しくは最大符号化ユニット)の一部を含み、又は少なくとも二つの完全なマクロブロック(若しくは最大符号化ユニット)といくつかのマクロブロック(若しくは最大符号化ユニット)の一部を含む。このように、画像が複数の画像ブロックに分けられた後、それぞれ画像データにおけるこれらの画像ブロックを符号化/復号化できる。 In some other embodiments, an image block may not be a macroblock or largest coding unit, but includes part of a macroblock or largest coding unit, or contains at least two complete macroblocks (or largest coding units). coding unit), or at least one complete macroblock (or maximum coding unit) and part of one macroblock (or maximum coding unit), or at least two complete macroblocks (or largest coding unit) and some macroblocks (or part of the largest coding unit). Thus, after an image is divided into a plurality of image blocks, these image blocks can be encoded/decoded respectively in the image data.
符号化過程は、予測、変換、定量化、及びエントロピー符号化などの処理を含む。ここで、予測は、フレーム内予測、及びフレーム間予測の二種類のタイプを含み、それは、予測ブロックデータを利用して現在の符号化対象画像ブロックの冗長情報を取り除くことを目的とする。フレーム内予測は、本フレーム画像の情報を利用して予測ブロックデータを取得する。フレーム間予測は、参照画像の情報を利用して予測ブロックデータを取得し、その過程は、現在の符号化対象画像を複数の符号化対象画像ブロックに分け、符号化対象画像ブロックを複数のサブ画像ブロックに分け、その後、各サブ画像ブロックに対して、参照画像において現在のサブ画像ブロックに最もマッチングする画像ブロックを検索して予測画像ブロックとし、予測画像ブロックと現在のサブ画像ブロックとの相対変位がすなわち動きベクトルである。その後、このサブ画像ブロックと予測画像ブロックとの対応画素値を引いて残差を得る。得られた各サブ画像ブロックに対応する残差を一体に組み合わせ、符号化対象画像ブロックの残差を得る。 The coding process includes processes such as prediction, transform, quantification, and entropy coding. Here, prediction includes two types of intra-frame prediction and inter-frame prediction, which aims to remove redundant information of the current image block to be coded using prediction block data. Intra-frame prediction acquires predicted block data using information of the current frame image. Inter-frame prediction uses information from a reference image to obtain prediction block data. The process divides the current image to be coded into multiple image blocks to be coded, and divides the image block into multiple sub-blocks. divided into image blocks, then for each sub-image block, search the image block that best matches the current sub-image block in the reference image as a predicted image block; The displacement is the motion vector. After that, the corresponding pixel values of this sub-image block and the predicted image block are subtracted to obtain a residual. The residuals corresponding to each sub-image block obtained are combined together to obtain the residual of the image block to be coded.
本出願の各実施例において、変換行列により画像ブロックの残差の関連性を取り除くことができ、すなわち画像ブロックの冗長情報を取り除くことで、符号化効率を高める。画像ブロックにおけるデータブロックの変換は通常、二次元変換を採用し、すなわち符号化端は、データブロックの残差情報をそれぞれ一つのN×Mの変換行列、及びその転置行列と乗じ、乗じた後に得られるのが変換係数である。変換係数を定量化した後に定量化後の係数を得て、最後に定量化後の係数をエントロピー符号化して、エントロピー符号化ビットストリームを得る。エントロピー符号化ビットストリーム、及び例えば、フレーム内予測モード、動きベクトル(又は動きベクトル残差)などの情報といった符号化後の符号化モード情報を記憶し、又は復号化端へ送信する。 In each of the embodiments of the present application, the transformation matrix allows the residual relevance of the image block to be disassociated, ie the redundant information of the image block is removed, thereby increasing the coding efficiency. The transformation of the data block in the image block usually adopts a two-dimensional transformation, that is, the encoding end multiplies the residual information of the data block with an N×M transformation matrix and its transposed matrix respectively, and after multiplication, The result is a transform coefficient. After quantifying the transform coefficients, quantified coefficients are obtained, and finally the quantified coefficients are entropy coded to obtain an entropy coded bitstream. The entropy-encoded bitstream and encoded encoding mode information, such as intra-frame prediction mode, motion vector (or motion vector residual) information, etc., are stored or transmitted to the decoding end.
画像の復号化端では、エントロピー符号化ビットストリームを得た後にエントロピー符号化し、対応する残差を得る。復号化により得られた動きベクトル、フレーム内予測などの情報に基づいて画像ブロックに対応する予測画像ブロックを検索する。予測画像ブロックと残差に基づいて現在のサブ画像ブロックにおける各画素点の値を得る。 At the image decoding end, entropy encoding is performed after obtaining the entropy-encoded bitstream to obtain the corresponding residual. A predicted image block corresponding to the image block is searched based on information such as the motion vector and intra-frame prediction obtained by decoding. Obtain the value of each pixel point in the current sub-image block based on the predicted image block and the residual.
前文において符号化/復号化済みの画像を現在の符号化/復号化対象の参照画像とすることに言及した。いくつかの実施例において、参照画像をさらに構築することで、参照画像と現在の符号化/復号化対象画像との類似度を高めることができる。 In the previous sentence, it was mentioned that an encoded/decoded image is used as a reference image for current encoding/decoding. In some embodiments, further construction of the reference image can increase the similarity between the reference image and the current image to be coded/decoded.
例を挙げると、動画コンテンツ内に特定の符号化/復号化シーンがあり、このシーンにおける背景が基本的に変化しない場合、動画内の前景にのみ変化、又は動きが生じる。例えば動画モニタリングは、このタイプのシーンに属する。動画モニタリングシーンでは通常、モニタリングカメラは固定され動かず、又は緩慢な移動のみ生じ、背景は基本的に変化しないと認めることができる。これに対して、動画モニタリングカメラにより撮影された人又は車両などの物体には常に移動又は変化が生じ、前景が常に変化すると認めることができる。このタイプのシーンにおいて、特定の参照画像を構築でき、この特定の参照画像には高品質の背景情報のみ含まれる。この特定参照画像には複数の画像ブロックが含まれることができ、いずれかの画像ブロックはいずれもある復号化済み画像から抽出されたものであり、この特定参照画像における異なる画像ブロックは、異なる復号化済み画像からの可能性がある。フレーム間予測を行う場合、現在の符号化/復号化対象画像の背景部分は、この特定参照画像を参照でき、これによりフレーム間予測の残差情報を減らすことに用いることができ、これにより符号化/復号化効率を高める。 As an example, if there is a particular encoding/decoding scene within the video content and the background in this scene is essentially unchanged, only the foreground within the video will change or move. Video monitoring, for example, belongs to this type of scene. It can be recognized that in a video monitoring scene, the monitoring camera is usually fixed and does not move, or only moves slowly, and the background remains basically unchanged. On the other hand, it can be recognized that objects such as people or vehicles captured by a video monitoring camera always move or change, and the foreground always changes. In this type of scene, a specific reference image can be constructed, which contains only high quality background information. The specific reference image may contain multiple image blocks, any image block being extracted from a decoded image, and different image blocks in the specific reference image being different decoded image blocks. It may be from a modified image. When inter-frame prediction is performed, the background portion of the current encoding/decoding target image can refer to this specific reference image, which can be used to reduce the residual information of inter-frame prediction, thereby increase decoding/decoding efficiency.
上述は、特定参照画像についての具体的な例示である。いくつかの実施形態において、特定参照画像は、以下のうちの少なくとも一つの性質を有する。合成フレーム(composite reference)、長期参照画像、出力されない画像である。例えば、この特定参照画像は、合成された長期参照画像であってよく、又は出力されない合成フレームであってよく、又は出力されない長期参照画像などであってよい。いくつかの実施形態において、合成フレームは、合成参照フレームと呼ばれる。 The above is a specific example of a specific reference image. In some embodiments, the specific reference image has at least one of the following properties. A composite reference, a long-term reference image, and a non-output image. For example, this particular reference image may be a synthesized long-term reference image, or may be a synthesized frame that is not output, or may be a long-term reference image that is not output, and so on. In some embodiments, synthetic frames are referred to as synthetic reference frames.
いくつかの実施例において、非特定参照画像は、以下のうちの少なくとも一つの性質を有しない参照画像であってよい。合成フレーム、長期参照画像、出力されない参照画像である。例えば、この特定参照画像は、合成フレーム以外の参照画像を含むことができ、又は長期参照画像以外の参照画像を含むことができ、又は出力されない参照画像以外の参照画像を含むことができ、又は合成された長期参照画像以外の参照画像を含むことができ、又は出力されない合成フレーム以外の参照画像を含むことができ、又は出力されない長期参照画像以外の参照画像を含むことができるなどである。 In some embodiments, a non-specific reference image may be a reference image that does not have at least one of the following properties. A synthetic frame, a long-term reference image, and a non-output reference image. For example, the specific reference image may include a reference image other than a synthesized frame, or may include a reference image other than a long-term reference image, or may include a reference image other than a reference image that is not output, or It can include reference images other than the synthesized long-term reference image, or it can include reference images other than synthesized frames that are not output, or it can include reference images other than the output long-term reference image, and so on.
いくつかの実施形態において、動画における画像を参照画像とできる場合、長期参照画像、及び短期参照画像に分けることができる。ここで、この短期参照画像は、長期参照画像に対応する概念である。短期参照画像は、参照画像のバッファ領域におけるある時間帯に存在し、この短期参照画像を経た後の復号化済みの参照画像が参照画像のバッファ領域において複数の入出操作をされた後、短期参照画像は参照画像のバッファ領域から移動される。参照画像のバッファ領域は、参照画像リストバッファメモリ、参照画像リスト、参照フレームリストバッファメモリ、又は参照フレームリストなどということができ、本文においてはそれを参照画像のバッファ領域と統一する。 In some embodiments, if an image in a video can be a reference image, it can be divided into a long-term reference image and a short-term reference image. Here, the short-term reference image is a concept corresponding to the long-term reference image. A short-term reference image exists in a certain time zone in the buffer area of the reference image, and after the decoded reference image after passing through this short-term reference image undergoes a plurality of input/output operations in the buffer area of the reference image, the short-term reference image The image is moved out of the buffer area of the reference image. The reference image buffer area can be referred to as a reference image list buffer memory, a reference image list, a reference frame list buffer memory, a reference frame list, or the like, and is unified with the reference image buffer area in the text.
長期参照画像(又は長期参照画像における一部データ)は、参照画像のバッファ領域に存在し続けることができ、この長期参照画像(又は長期参照画像における一部データ)は、復号化済みの参照画像の参照画像のバッファ領域における入出操作の影響を受けず、復号化端が更新コマンド操作を送信したときにのみ、この長期参照画像(又は長期参照画像における一部データ)は、参照画像のバッファ領域から移動する。 A long-term reference picture (or part of the data in the long-term reference picture) can continue to exist in the buffer area of the reference picture, and this long-term reference picture (or part of the data in the long-term reference picture) is the decoded reference picture. This long-term reference picture (or part of the data in the long-term reference picture) is not affected by entry/exit operations in the reference picture buffer area of move from
短期参照画像、及び長期参照画像の異なる規格における呼び方は異なる可能性があり、例えば、H.264/アドバンスビデオコーディング(advanced video coding、AVC)、又はH.265/HEVCなどの規格における短期参照画像は、短期参照フレーム(short-term reference)と呼ばれ、長期参照画像は、長期参照フレーム(long-term reference)と呼ばれる。また、AVSコーディング規格(audio video coding standard、AVS)、1-P2、AVS2-P2、IEEE(institute of electrical and electronics engineers、IEEE)1857.9-P4などの規格において、長期参照画像は、背景フレーム(background picture)と呼ばれる。また、VP8、VP9などの規格において、長期参照画像はゴールデンフレーム(golden frame)と呼ばれる。 Short-term and long-term reference images may be named differently in different standards, eg H.264. 264/advanced video coding (AVC), or H.264. A short-term reference picture in standards such as H.265/HEVC is called a short-term reference, and a long-term reference picture is called a long-term reference. In addition, in standards such as AVS coding standard (audio video coding standard, AVS), 1-P2, AVS2-P2, IEEE (Institute of electrical and electronics engineers, IEEE) 1857.9-P4, the long-term reference image is a background frame. (background picture). Also, in standards such as VP8 and VP9, the long-term reference picture is called a golden frame.
本出願の実施例において特定の技術用語を採用することは、特定のシーンに応用されなければならないことを示すわけではないことを理解するものとし、例えば、長期参照画像を長期参照フレームということは、H.264/AVC又はH.265/HEVCなどの規格に対応する技術に用いらなければならないことを示すわけではない。 It should be understood that the adoption of specific terminology in the examples of this application does not imply that it must be applied to a specific scene, e.g. , H. 264/AVC or H.264/AVC. It does not indicate that it must be used for technologies that support standards such as H.265/HEVC.
以上に述べた長期参照画像は複数の復号化済み画像から抽出された画像ブロックから構築されて得られたものであってよく、又は複数の復号化済み画像を利用して既存の参照フレーム(例えば、予めメモリされた参照フレーム)を更新して得られたものであってよい。当然のことながら、この構築された特定参照画像は、短期参照画像であってもよい。又は、長期参照画像は、構築された参照画像でなくてもよい。 The long-term reference picture described above may be obtained by constructing from image blocks extracted from multiple decoded pictures, or may be derived using multiple decoded pictures and using an existing reference frame (e.g. , reference frames stored in advance)). Of course, this constructed specific reference image may be a short-term reference image. Alternatively, the long-term reference image may not be a constructed reference image.
上述の実施形態において、特定参照画像は、長期参照画像を含むことができ、非特定参照画像は、短期参照画像を含むことができる。 In the above-described embodiments, the specific reference images may include long-term reference images and the non-specific reference images may include short-term reference images.
選択可能には、参照フレームのタイプは、ストリーム構造において特殊フィールドから識別できる。 Optionally, the type of reference frame can be identified from a special field in the stream structure.
選択可能には、参照画像が長期参照画像であると確定する場合、この参照画像を特定参照画像であると確定する。又は参照画像が出力されないフレームであると確定する場合、この参照画像を特定参照画像であると確定する。又は参照画像が合成フレームであると確定する場合、この参照画像を特定参照画像であると確定する。又は参照画像が出力されないフレームであると確定し、かつこの参照画像が合成フレームであると確定する場合、この参照画像を特定参照画像であると確定する。 Optionally, if the reference image is determined to be the long-term reference image, then the reference image is determined to be the specific reference image. Alternatively, if the reference image is determined to be a frame that is not output, the reference image is determined to be the specific reference image. Or, if the reference image is determined to be a synthesized frame, determine this reference image to be the specific reference image. Alternatively, if it is determined that the reference image is a frame that is not output and that this reference image is a synthesized frame, this reference image is determined to be the specific reference image.
選択可能には、各種タイプの参照画像はいずれも対応するマークを有することができ、このとき復号化端にとって、参照画像が有するマークによってこの参照画像が特定参照画像であるか否かを確定できる。 Optionally, each type of reference image can have a corresponding mark, and then for the decoding end, the mark that the reference image has can determine whether this reference image is a specific reference image or not. .
いくつかの実施形態において、参照画像が長期参照画像のマークを有すると確定する場合、この参照画像を特定参照画像であると確定する。 In some embodiments, if a reference image is determined to have the mark of a long-term reference image, then this reference image is determined to be a specific reference image.
いくつかの実施形態において、参照画像が出力されないマークを有すると確定する場合、この参照画像を特定参照画像であると確定する。 In some embodiments, a reference image is determined to be a specific reference image when it is determined that the reference image has no marks to output.
いくつかの実施形態において、参照画像が合成フレームのマークを有すると確定する場合、この参照画像を特定参照画像であると確定する。 In some embodiments, if a reference image is determined to have a composite frame mark, then the reference image is determined to be a specific reference image.
いくつかの実施形態において、参照画像が以下の3つのマークのうちの少なくとも二つを有する場合、この参照画像を特定参照画像であると確定する。長期参照画像のマーク、出力されないマーク、合成フレーム又は合成参照フレームのマークである。例えば、参照画像が出力されないマークを有すると確定し、かつ参照画像が合成フレームのマークを有すると確定する場合、参照画像を特定参照画像であると確定する。 In some embodiments, a reference image is determined to be a particular reference image if it has at least two of the following three marks. Long-term reference picture mark, non-output mark, synthetic frame or synthetic reference frame mark. For example, if it is determined that the reference image has a mark that is not output and it is determined that the reference image has a mark of a composite frame, then it is determined that the reference image is a specific reference image.
具体的には、画像は、出力されるフレームか否かを指示するマークを有することができ、ある画像が出力されないと指示される場合、このフレームは参照画像であることを示し、さらに、このフレームが合成フレームのマークを有するか否かを判断し、有する場合、前記参照画像を特定参照画像であると確定する。ある画像が出力されると指示される場合、合成フレームか否かの判断を行わなくてもよく、このフレームは特定参照画像でないと直接、確定する。又は、ある画像が出力されないと指示されるが、合成フレームでないマークを有する場合、このフレームは、特定参照画像でないと確定できる。 Specifically, an image can have a mark indicating whether it is a frame to be output or not, and if it is indicated that an image is not to be output, it indicates that this frame is a reference image; Determining whether the frame has a composite frame mark, and if so, determining the reference image as a specific reference image. When it is instructed that a certain image is to be output, it is not necessary to judge whether it is a synthesized frame or not, and it is directly determined that this frame is not a specific reference image. Or, if an image is indicated not to be output, but has a mark that is not a synthetic frame, then it can be determined that this frame is not a specific reference image.
選択可能には、画像ヘッダ(picture header)、画像パラメータセット(PPS、picture parameter set)、スライスヘッダ(slice header)からパラメータを解析して前記参照画像が以下の条件の一つを満たすと確定する場合、前記参照画像が特定参照画像であると確定する。 Optionally parsing parameters from a picture header, a picture parameter set (PPS), a slice header to determine that the reference picture satisfies one of the following conditions: , the reference image is determined to be a specific reference image.
前記参照画像が長期参照画像である。 The reference image is a long-term reference image.
前記参照画像が合成参照画像である。 The reference image is a synthetic reference image.
前記参照画像が出力されない画像である。 The reference image is an image that is not output.
前記参照画像が出力されない画像である場合、前記参照画像が合成参照画像であるかをさらに判断する。 If the reference image is an image that is not output, it is further determined whether the reference image is a synthetic reference image.
前文において動きベクトルの導出を使用する技術に言及したが、動きベクトルを修正する場合、特定参照画像に動き検索を行うと、かえって検索効率、及び符号化/復号化効率を低下させてしまう。特定参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、特定参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、このような特定参照画像に基づいて、動きベクトルを検索する意義は大きくない。 Although the technique using motion vector derivation was mentioned in the previous sentence, performing motion search on a specific reference image when modifying the motion vector would rather reduce search efficiency and encoding/decoding efficiency. The specific reference image is artificially constructed or from a previous specific reference image in earlier temporal order, and there is no spatial relationship between image blocks in the specific reference image. However, since the image block edges have clear fluctuations, it is not very meaningful to search for motion vectors based on such a specific reference image.
パターンマッチング動きベクトルの導出(Pattern Matching Motion Vector Derivation、PMMVD)技術、及びデコーダー・サイド・モーション・ベクトル・リファインメント(Decode Motion Vector Refinement、DMVR)技術はいずれも動きベクトルの導出を使用する技術である。 Pattern Matching Motion Vector Derivation (PMMVD) technology and Decode Motion Vector Refinement (DMVR) technology are both techniques that use motion vector derivation. .
前文ではさらに双方向動き予測を使用する技術に言及し、画像の時間相関性に基づいて動きベクトルを操作し、関連する動きベクトルが指向する参照画像が特定参照画像である場合、現在の符号化対象画像、又は現在の復号化対象画像と特定参照画像との時間距離の定義が不明確なので、これらの操作は失効する可能性がある。双方向オプティカルフロー(Bi-directional Optical flow、BIO)予測技術は、双方向動き予測を使用した技術である。 The preamble further refers to techniques that use bi-directional motion prediction, manipulating motion vectors based on the temporal correlation of images, and if the reference image to which the associated motion vector points is a particular reference image, the current encoding These operations may be invalid because the definition of the temporal distance between the target picture or the current decoding target picture and a particular reference picture is unclear. Bi-directional optical flow (BIO) prediction techniques are techniques that use bi-directional motion prediction.
次にPMMVD、DMVR、及びBIOを踏まえて、本発明の画像動き補償方法を、例を挙げて説明する。本発明における画像動き補償方法は、この3つの技術に限定されるわけではないことを説明する必要がある。 Next, based on PMMVD, DMVR and BIO, the image motion compensation method of the present invention will be described with an example. It should be explained that the image motion compensation method in the present invention is not limited to these three techniques.
本出願の実施例の画像動き補償方法を説明する前に、まずHEVC規格での動画符号化復号化過程を簡単に説明する。 Before describing the image motion compensation method according to the embodiment of the present application, first, a brief description will be given of the video encoding/decoding process according to the HEVC standard.
HEVC規格は、3つのフレーム間予測のモードを定義している。Interモード、Mergeモード、及びSkipモードである。フレーム間予測の目的は、動きベクトル(Motion Vector、MV)を得て、その後、この動きベクトルに基づいて、予測画像ブロックの参照画像における位置を確定することである。近接する画像ブロックは動き方式において類似性があり、例えば、画像ブロック(例えば、符号化対象画像ブロックと復号化対象画像ブロックとのうちの少なくとも一つ)と近接する画像ブロックとはいずれも同一物体に属し、カメラが移動する場合、それらの移動距離と方向は自然と類似し、又は同じであるので、動きベクトルを計算する必要がないことが多く、直接、近接する画像ブロックの動きベクトルを現在の画像ブロックの動きベクトルとする。ここで、Mergeモード、及びSkipモードでは、動きベクトルの残差(Motion Vector Difference、MVD)は、0であり、すなわち、近接する符号化済み画像ブロック、又は復号化済み画像ブロックに基づいて、直接、動きベクトルを得る。 The HEVC standard defines three inter-frame prediction modes. Inter mode, Merge mode, and Skip mode. The purpose of inter-frame prediction is to obtain a Motion Vector (MV) and then based on this motion vector determine the position of the predicted image block in the reference image. Adjacent image blocks have similar motion schemes, for example, an image block (for example, at least one of an image block to be encoded and an image block to be decoded) and an adjacent image block are the same object. , and when the cameras move, their movement distances and directions are naturally similar or the same, so there is often no need to calculate the motion vectors, and the motion vectors of neighboring image blocks are directly calculated from the current Let the motion vector of the image block of Here, in Merge mode and Skip mode, the motion vector difference (MVD) is 0, i.e. based on neighboring encoded or decoded image blocks, direct , to get the motion vector.
符号化対象画像ブロックと復号化対象画像ブロックとのうちの少なくとも一つのモードがMergeモードの場合、作動原理は以下のとおりである。近接する画像ブロックにより一つの動きベクトル予測(Motion Vector Prediction、MVP)候補リストを構築し、MVP候補リストから最適なMVPを現在の画像ブロックの動きベクトルとして選択し、その後、この動きベクトルに基づいて、予測画像ブロックの位置を確定し、予測画像ブロックを確定した後に残差を計算して得られる。Mergeモードでは、動きベクトルは、MVP候補リストから選択されたものであるので、MVDが存在しない。符号化端は、残差、及び選択された動きベクトルのMVP候補リストにおけるインデックスについて符号化すればよく、MVDを符号化する必要はない。復号化端は、類似の方法によりMVP候補リストを構築でき、その後、符号化端により伝送されたインデックスに基づいて、動きベクトルを得る。復号化端は、動きベクトルに基づいて、予測画像ブロックを確定し、残差を取り込んで復号化して現在の画像ブロックを得る。 When at least one mode of the encoding target image block and the decoding target image block is the Merge mode, the operation principle is as follows. Construct one Motion Vector Prediction (MVP) candidate list by neighboring image blocks, select the best MVP from the MVP candidate list as the motion vector of the current image block, and then based on this motion vector , is obtained by determining the position of the predicted image block and calculating the residual after determining the predicted image block. In Merge mode, there is no MVD since the motion vector was selected from the MVP candidate list. The coding end only needs to code on the residual and the index in the MVP candidate list of the selected motion vector, and does not need to code the MVD. The decoding end can build the MVP candidate list by a similar method, and then obtain the motion vector based on the index transmitted by the encoding end. The decoding end determines the predicted image block according to the motion vector, takes the residual and decodes it to obtain the current image block.
Mergeモードでの符号化端の具体的な動作プロセスは以下のとおりである。
1.MVP候補リストを取得する。
2.MVP候補リストから最適なMVPを選択するとともに、このMVPのMVP候補リストでのインデックスを得る。
3.選択されたMVPを現在の画像ブロックの動きベクトルとする。
4.動きベクトルに基づいて、参照画像から予測画像ブロックを確定する。
5.現在の画像ブロックから予測画像ブロックを引いて残差を得る。
6.動きベクトルは、MVP候補リストから選択されたものであるので、MVDが存在せず、残差、及び選択されたMVPのMVP候補リストにおけるインデックスを復号化端へ送信すればよい。
The specific operation process of the encoding end in Merge mode is as follows.
1. Get the MVP candidate list.
2. Select the best MVP from the MVP candidate list and get the index of this MVP in the MVP candidate list.
3. Let the selected MVP be the motion vector of the current image block.
4. A predicted image block is determined from the reference image based on the motion vector.
5. Subtract the predicted image block from the current image block to get the residual.
6. Since the motion vector is selected from the MVP candidate list, there is no MVD, and the residual and the index of the selected MVP in the MVP candidate list should be sent to the decoding end.
Mergeモードでの復号化端の具体的な動作プロセスは以下のとおりである。
1.残差、及び動きベクトルのMVP候補リストでのインデックスを受信する。
2.MVP候補リストを取得する。
3.インデックスに基づいて、MVP候補リストにおいて動きベクトルを検索して現在の画像ブロックの動きベクトルとする。
4.動きベクトルに基づいて、予測画像ブロックを確定し、残差を取り込んで復号化して現在の画像ブロックを得る。
A detailed operation process of the decoding end in Merge mode is as follows.
1. Receive the residual and the index in the MVP candidate list of the motion vector.
2. Get the MVP candidate list.
3. Based on the index, search the motion vector in the MVP candidate list to be the motion vector of the current image block.
4. Based on the motion vector, the predicted image block is determined and the residual is fetched and decoded to obtain the current image block.
以上は、通常のMergeモードでの処理過程である。 The above is the process of normal Merge mode.
Skipモードは、Mergeモードの特殊な例である。Mergeモードにより動きベクトルを得た後、エンコーダが、ある方法に基づいて、現在の画像ブロック、及び予測画像ブロックが基本的に同じであると判断した場合、残差のデータを伝送する必要はなく、動きベクトルのMVP候補リストでのインデックスのみ伝送すればよく、及び現在の画像ブロックは予測画像ブロックから直接、マークを得られることを示す。 Skip mode is a special case of Merge mode. After obtaining the motion vector by Merge mode, if the encoder determines that the current image block and the predicted image block are basically the same based on some method, there is no need to transmit the residual data. , only the index in the MVP candidate list of the motion vector need be transmitted, and the current image block can be marked directly from the predicted image block.
Interモードでは、まずMVPを確定し、その後、MVPを修正し、MVDを得る。符号化端は、復号化端へインデックス、及び残差を伝送する必要があるだけでなく、復号化端へMVDも伝送する必要がある。高度動きベクトル予測(Advanced Motion Vector Prediction、AMVP)は、競争メカニズムにより動きベクトル予測を実現するツールである。 In the Inter mode, the MVP is determined first, and then the MVP is modified to obtain the MVD. The encoding end not only needs to transmit the index and the residual to the decoding end, but also needs to transmit the MVD to the decoding end. Advanced Motion Vector Prediction (AMVP) is a tool that implements motion vector prediction through a competitive mechanism.
AMVPモードでもMVP候補リストがあり、このMVP候補リストにおける動きベクトルは、現在の画像ブロックの空間領域、又は時間領域での近接するブロックから得られるものである。AMVPモードでのMVP候補リストは、MergeモードでのMVP候補リストと異なる可能性がある。符号化端、又は復号化端は、MVP候補リストから最適なMVPを選択する。このMVPを検索開始点として、その付近を検索し、最適な動きベクトルを得て、この動きベクトルは、現在の画像ブロックの動きベクトルである。この動きベクトルに基づいて、予測画像ブロックの位置を確定し、予測画像ブロックを確定した後に残差を計算して得られる。同時にこのMVとMVPとを互いに引いて、MVDを得る。符号化端は、残差、MVPのMVP候補リストにおけるインデックス、及びMVDについて符号化して復号化端へ送信する。復号化端は、類似の方法によりMVP候補リストを構築でき、その後、符号化端により伝送されたインデックスに基づいて、MVPを得る。復号化端は、MVP、及びMVDに基づいて、MVを確定し、MVに基づいて、予測画像ブロックを確定し、残差を取り込んで復号化して現在の画像ブロックを得る。 There is also an MVP candidate list in AMVP mode, and the motion vectors in this MVP candidate list are those obtained from the current image block's neighbor blocks in either the spatial domain or the temporal domain. The MVP candidate list in AMVP mode may differ from the MVP candidate list in Merge mode. The encoding end or decoding end selects the optimum MVP from the MVP candidate list. Using this MVP as a search starting point, search around it to obtain the optimum motion vector, which is the motion vector of the current image block. Based on this motion vector, the position of the predicted image block is determined, and the residual is calculated after determining the predicted image block. At the same time, this MV and MVP are subtracted from each other to obtain MVD. The encoding end encodes the residual, the MVP's index in the MVP candidate list, and the MVD and sends them to the decoding end. The decoding end can construct the MVP candidate list by a similar method, and then obtain the MVP based on the index transmitted by the encoding end. The decoding end determines the MV based on the MVP and MVD, determines the predicted image block based on the MV, takes the residual and decodes it to obtain the current image block.
AMVPモードでの符号化端の具体的な動作プロセスは以下のとおりである。
1.MVP候補リストを取得する。
2.MVP候補リストから最適なMVPを選択するとともに、このMVPのMVP候補リストでのインデックスを得る。
3.MVPに基づいて、検索開始点を確定する。
4.開始点付近で検索し、最適な動きベクトルを得る。
5.動きベクトルに基づいて、参照画像から予測画像ブロックを確定する。
6.現在の画像ブロックから予測画像ブロックを引いて残差を得る。
7.動きベクトルからMVPを引いてMVDを得る。
8.残差、選択されたMVPのMVP候補リストにおけるインデックス、及びMVDを復号化端へ送信する。
The specific operation process of the encoding end in AMVP mode is as follows.
1. Get the MVP candidate list.
2. Select the best MVP from the MVP candidate list and get the index of this MVP in the MVP candidate list.
3. Determine the search starting point based on the MVP.
4. Search around the starting point to get the best motion vector.
5. A predicted image block is determined from the reference image based on the motion vector.
6. Subtract the predicted image block from the current image block to get the residual.
7. Subtract MVP from the motion vector to get MVD.
8. Send the residual, the index in the MVP candidate list of the selected MVP, and the MVD to the decoding end.
AMVPモードでの復号化端の具体的な動作プロセスは、これ以上説明しない。 A detailed operation process of the decoding end in the AMVP mode will not be described further.
本出願の実施例は、画像動き補償方法100を提供する。図1は、本出願の一つの実施例の画像動き補償方法100の概略的フローチャートである。図1に示すように、この方法100は、
S110、現在の画像ブロックの初期動きベクトルを取得することと、
S120、この初期動きベクトルが指向する参照画像が特定参照画像である場合、この初期動きベクトルに基づいて、この現在の画像ブロックに動き補償を行うことと、
S130、この初期動きベクトルが指向する参照画像が非特定参照画像である場合、この初期動きベクトルを修正し、修正後の動きベクトルを得て、前記修正後の動きベクトルに基づいてこの現在の画像ブロックに動き補償を行うことと、を含む。
Embodiments of the present application provide an image
S110, obtaining an initial motion vector of the current image block;
S120, performing motion compensation on the current image block based on the initial motion vector if the reference image to which the initial motion vector is directed is a specific reference image;
S130, if the reference image to which this initial motion vector points is a non-specific reference image, modify this initial motion vector, obtain a modified motion vector, and perform this current image based on said modified motion vector; and performing motion compensation on the block.
いくつかの実施形態において、初期動きベクトルが特定参照画像を指向する場合、動き補償を直接行い、初期動きベクトルが非特定参照画像を指向する場合、初期動きベクトルを修正し、前記修正後の動きベクトルに基づいて、動き補償を行い、特定参照画像の画像ブロックエッジの明らかな揺れにより、意義のない検索を行うことを回避でき、符号化復号化効率を高めることができる。 In some embodiments, if the initial motion vector points to a specific reference image, motion compensation is performed directly; if the initial motion vector points to a non-specific reference image, the initial motion vector is modified; Based on the vector, motion compensation can be performed to avoid meaningless search due to obvious fluctuations of image block edges of a particular reference image, and improve coding and decoding efficiency.
可能な実施形態において、本出願の実施例の画像動き補償方法100は、PMMVD技術に応用できる。
In a possible embodiment, the image
PMMVD技術は、フレームレートアップコンバージョン(Frame Rate Up Conversion、FRUC)技術に基づく特殊なMergeモードである。このような特殊なMergeモードでは、現在の画像ブロックの動き情報(例えば、MVとMVD)は、ストリームにおいて符号化されず、復号化端で直接生成される。 PMMVD technology is a special Merge mode based on Frame Rate Up Conversion (FRUC) technology. In such a special Merge mode, the motion information (eg MV and MVD) of the current image block is not coded in the stream but generated directly at the decoding end.
選択可能には、この可能な実施形態において、S130前記初期動きベクトルが指向する参照画像が非特定参照画像である場合、前記初期動きベクトルを修正し、修正後の動きベクトルを得て、前記修正後の動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことは、前記現在の画像ブロックの動きベクトル候補リストを取得し、前記動きベクトルの候補リストにおけるいずれかの候補動きベクトルが指向する参照画像が非特定参照画像であることと、前記動きベクトル候補リストに基づいて、前記初期動きベクトルを確定することと、前記初期動きベクトルを修正し、修正後の動きベクトルを得ることと、前記修正後の動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことと、を含むことができる。 Optionally, in this possible embodiment, if S130 the reference image to which the initial motion vector is directed is a non-specific reference image, modify the initial motion vector, obtain a modified motion vector, and Performing motion compensation on the current image block based on subsequent motion vectors includes obtaining a motion vector candidate list for the current image block, and pointing any candidate motion vector in the motion vector candidate list to: determining the initial motion vector based on the motion vector candidate list; modifying the initial motion vector to obtain a modified motion vector; performing motion compensation on the current image block based on the modified motion vector.
本実施形態において、動きベクトル候補リストから初期動きベクトルを確定し、この動きベクトル候補リストにおける候補ベクトルが指向する参照画像が非特定参照画像である場合、初期動きベクトルを修正し、修正後の動きベクトルを得て、修正後の動きベクトルに基づいて、現在の画像ブロックに動き補償を行うことは、特定参照画像の画像ブロックエッジの明らかな揺れにより、意義のない検索を行うことを回避し、符号化復号化効率を高めることができる。 In this embodiment, an initial motion vector is determined from the motion vector candidate list, and if the reference image to which the candidate vector in the motion vector candidate list points is a non-specific reference image, the initial motion vector is modified, and the motion after modification is determined. Obtaining the vector and performing motion compensation on the current image block based on the modified motion vector avoids making meaningless searches due to obvious swinging of image block edges of a particular reference image; Encoding/decoding efficiency can be improved.
選択可能には、可能な実施形態において、現在の画像ブロックの動きベクトル候補リストを取得することは、前記動きベクトル候補リストに加えるための候補動きベクトルを確定し、前記候補動きベクトルが指向する参照画像が非特定参照画像である場合、前記候補動きベクトルを前記動きベクトル候補リストに加えることを含むことができる。 Optionally, in a possible embodiment, obtaining a motion vector candidate list for the current image block includes determining candidate motion vectors for addition to said motion vector candidate list, and determining a reference to which said candidate motion vector is directed. If the image is a non-specific reference image, adding the candidate motion vector to the motion vector candidate list.
具体的には、一つの実施例において、前記方法100は、前記候補動きベクトルが指向する参照画像のフレームマークに基づいて、前記候補動きベクトルが指向する参照画像が非特定参照画像であると確定することをさらに含むことができる。具体的には、前記候補動きベクトルが指向する参照画像のフレームマークに基づいて、前記候補動きベクトルが指向する参照画像が特定参照画像であるか否か確定できる。候補動きベクトルが指向する参照画像が特定参照画像である場合、特定参照画像に対応する候補動きベクトルを動きベクトル候補リストに加えなくてもよい。このように、動きベクトル候補リストから初期動きベクトルを選択する場合、特定参照画像に対応する動きベクトルを選択しない。
Specifically, in one embodiment, the
本出願の各実施例の動きベクトルは、3つのパラメータを含むことを理解するものとし、水平成分vx、垂直成分vy及び指向する参照画像のフレームマークである。例えば、このフレームマークは、ピクチャオーダーカウント(Picture Order Count、POC)であってよく、その他の形態のマークであってもよい。符号化端、及び復号化端は、このフレームマークにより、参照画像の属性を確定でき、この参照画像が特定参照画像か、それとも非特定参照画像かを判断する。 It is to be understood that the motion vector in each embodiment of the present application includes three parameters: the horizontal component v x , the vertical component v y and the frame mark of the pointing reference image. For example, this frame mark may be a Picture Order Count (POC), or may be some other form of mark. The encoding end and the decoding end can determine the attribute of the reference image from this frame mark, and judge whether this reference image is a specific reference image or a non-specific reference image.
選択可能には、一つの実施例において、前記動きベクトル候補リストに基づいて、初期動きベクトルを確定することは、選択された初期動きベクトルが特定参照画像を指向する動きベクトルか否かを判断し、選択された初期動きベクトルのうちの少なくとも一つが特定参照画像を指向する場合、初期動きベクトルを再度選択し、指向する参照画像が特定参照画像以外の参照画像の初期動きベクトルを選択するまで行うことを含むことができる。 Optionally, in one embodiment, determining an initial motion vector based on the motion vector candidate list includes determining whether the selected initial motion vector is a motion vector pointing to a particular reference image. , if at least one of the selected initial motion vectors points to a specific reference picture, select the initial motion vector again until the pointing reference picture selects the initial motion vector of a reference picture other than the specific reference picture. can include
具体的には、動きベクトル候補リストに基づいて、確定された初期動きベクトルが指向するのが特定参照画像である場合、予め設定されたルールに基づいて、動きベクトル候補リストから候補動きベクトルを再度選択し、初期動きベクトルとできる。この予め設定されたルールは例えば、マッチングコストが次に小さい候補動きベクトルを選択し、この候補動きベクトルが指向するのが特定参照画像でない場合、この候補動きベクトルを初期動きベクトルとするものであってよい。この実施例は例示に過ぎず、本出願を限定するわけではない。 Specifically, if the determined initial motion vector is directed to a specific reference image based on the motion vector candidate list, the candidate motion vector is reselected from the motion vector candidate list based on a preset rule. You can choose to be the initial motion vector. This preset rule is, for example, to select the candidate motion vector with the next lowest matching cost, and if this candidate motion vector is not directed to a specific reference image, this candidate motion vector is used as the initial motion vector. you can This example is illustrative only and does not limit the application.
符号化端を例とし、FRUC mergeモードでの動きベクトル導出過程は、二つのステップに分かれる。第1ステップは、符号化ユニット(Coding Unit、CU)レベル動き検索であり、第2ステップは、サブCU(Sub-CU)レベル動き細密化過程である。類似して、復号化端も符号化端に類似した機能を実現できる。 Taking the encoding end as an example, the motion vector derivation process in the FRUC merge mode is divided into two steps. The first step is a coding unit (CU) level motion search, and the second step is a sub-CU (Sub-CU) level motion refinement process. Similarly, the decoding end can also implement functions similar to the encoding end.
CUレベル動き検索において、CUレベル動きベクトル候補リストを生成する。双方向マッチング法に基づいて、CUレベル動きベクトル候補リストからマッチングコスト(cost)が最も小さい動きベクトルを検索し、例えば、MV-Aである。テンプレートマッチング法でもCUレベル動きベクトル候補リストからマッチングコストが最も小さい動きベクトルを検索し、例えば、MV-Bである。その後、Mergeモード戦略において使用されるレート歪みコスト(Rate Distortion Cost、RD-Cost)戦略に基づいて、現在のCUがFRUC mergeモードを使用するか否かを決定する。すなわち、RD-Cost戦略を使用して2つのマッチング法(双方向マッチング法、及びテンプレートマッチング法)の結果をチェックする。マッチングコストが小さいマッチング方法により得られた結果をさらに、その他のCUモードの結果と再度比較する。二つのマッチング法におけるマッチングコストが小さいマッチング方法は最終的なマッチングコストの最も小さいものであり、現在のCUのFRUCのフラグをTRUEとし、かつ復号化端が対応するマッチング方法を使用するよう指示する。 In the CU level motion search, a CU level motion vector candidate list is generated. Based on the bidirectional matching method, search the motion vector with the lowest matching cost from the CU-level motion vector candidate list, for example, MV-A. The template matching method also searches the motion vector with the lowest matching cost from the CU level motion vector candidate list, for example, MV-B. Then, based on the Rate Distortion Cost (RD-Cost) strategy used in the Merge mode strategy, determine whether the current CU uses FRUC merge mode. That is, the RD-Cost strategy is used to check the results of two matching methods (two-way matching method and template matching method). The results obtained by the matching method with the lower matching cost are further compared again with the results of the other CU modes. The matching method with the lowest matching cost among the two matching methods is the one with the lowest final matching cost, and the FRUC flag of the current CU is set to TRUE, and the decoding end is instructed to use the corresponding matching method. .
この具体的な実施形態において、CUレベル動きベクトル候補リストは、本出願の実施例の方法100における動きベクトル候補リストに対応できる。動きベクトル候補リストを生成する場合、リストに加えられる動きベクトルを走査し、動きベクトルが非特定参照画像を指向する場合、この動きベクトルを動きベクトル候補リストに加えることができ、特定参照画像を指向する場合、この動きベクトルを棄却して、動きベクトル候補リストに加えない。本実施形態における動きベクトル候補リストは、前記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補動きベクトル、非特定参照画像に対して得られたマージ候補動きベクトル、非特定参照画像から補間により得られた動きベクトル、及び前記現在のブロックの非特定参照画像に対する上方隣接動きベクトルと左側隣接動きベクトルのうちの少なくとも一つの候補動きベクトルを含むことができる。この動きベクトル候補リストは、CUレベル動きベクトル候補リストとしてもよい。本実施形態において、非特定参照画像は具体的に、短期参照画像、又は短期参照フレームであってよいことを理解されたい。
In this specific embodiment, the CU-level motion vector candidate list can correspond to the motion vector candidate list in
前記動きベクトル候補リストに基づいて、前記初期動きベクトルを確定することは、双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、前記動きベクトル候補リストにおける候補動きベクトルに対応する歪みコストを確定することと、前記動きベクトル候補リストにおける歪みコストが最も小さい動きベクトルを前記初期動きベクトルとすることと、を含むことができる。 Determining the initial motion vector based on the motion vector candidate list corresponds to candidate motion vectors in the motion vector candidate list based on at least one of a bidirectional matching method and a template matching method. determining a distortion cost; and taking the motion vector with the lowest distortion cost in the candidate motion vector list as the initial motion vector.
具体的には、符号化端を例とし、前記動きベクトル候補リストに基づいて、初期動きベクトルを確定することは、CUレベル動き検索に対応できる。CUレベル動き検索において、双方向マッチング法に基づいて、CUレベル動きベクトル候補リストからマッチングコストが最も小さい動きベクトルを検索し、例えば、MV-Aである。テンプレートマッチング法でもCUレベル動きベクトル候補リストからマッチングコストが最も小さい動きベクトルを検索し、例えば、MV-Bである。その後、Mergeモード戦略において使用されるRD-Cost戦略に基づいて、現在のCUがFRUC mergeモードを使用するか否かを決定する。すなわち、RD-Cost戦略を使用して2つのマッチング法(双方向マッチング法、及びテンプレートマッチング法)の結果をチェックする。マッチングコストが小さいマッチング方法により得られた結果をさらに、その他のCUモードの結果と再度比較する。二つのマッチング法におけるマッチングコストが小さいマッチング方法が最終的なマッチングコストが最も小さいものであり、現在のCUのFRUCのフラグをTRUEとし、かつ復号化端が対応するマッチング方法を使用するよう指示する。類似して、復号化端も符号化端に類似した機能を実現できるが、復号化端は、符号化端ほど複雑ではなく、例えば、復号化端は、符号化端のマッチング方法を指示するためのフラグを直接受信し、RD-Cost戦略を実行する必要はない。 Specifically, taking the encoding end as an example, determining the initial motion vector based on the motion vector candidate list can correspond to the CU level motion search. In the CU-level motion search, search the motion vector with the lowest matching cost from the CU-level motion vector candidate list based on the bidirectional matching method, for example, MV-A. The template matching method also searches the motion vector with the lowest matching cost from the CU level motion vector candidate list, for example, MV-B. Then, based on the RD-Cost strategy used in the Merge mode strategy, determine whether the current CU uses FRUC merge mode. That is, the RD-Cost strategy is used to check the results of two matching methods (two-way matching method and template matching method). The results obtained by the matching method with the lower matching cost are further compared again with the results of the other CU modes. In the two matching methods, the matching method with the lowest matching cost is the one with the lowest final matching cost, and the FRUC flag of the current CU is set to TRUE, and the decoding end is instructed to use the corresponding matching method. . Similarly, the decoding end can also implement functions similar to the encoding end, but the decoding end is not as complex as the encoding end. flag directly and do not need to execute the RD-Cost strategy.
選択可能には、初期動きベクトルを修正し、修正後の動きベクトルを得ることは、前記現在の画像ブロックにサブ動きベクトル候補リストを生成し、前記サブ動きベクトル候補リストには前記初期動きベクトルを含むことと、前記サブ動きベクトル候補リストから歪みコストが最も小さい動きベクトルを前記修正後の動きベクトルとして確定することと、を含むことができる。 Optionally, modifying an initial motion vector to obtain a modified motion vector includes generating a sub-motion vector candidate list for the current image block, wherein the sub-motion vector candidate list includes the initial motion vector. and determining a motion vector with the lowest distortion cost from the sub-motion vector candidate list as the modified motion vector.
具体的には、初期動きベクトルを修正し、修正後の動きベクトルを得ることは、サブCUレベル動き細密化に対応できる。 Specifically, modifying the initial motion vector and obtaining the modified motion vector can correspond to sub-CU level motion refinement.
CUレベル動き検索においてマッチングコストが最も小さい動きベクトルは、初期動きベクトルであり、それはCUレベル動き細密化の開始点とされる。開始点周囲においてCUレベルにより確定されたマッチング方法(双方向マッチング、又はテンプレートマッチング法)に基づいて、局部検索を行う。具体的には、サブCUレベル動き細密化において、サブCUレベル動きベクトル候補リストを生成できる。サブCUレベル動きベクトル候補リストにおいて、マッチングコストが小さい動きベクトルを検索し、現在のCUの動きベクトルとする。 The motion vector with the lowest matching cost in CU-level motion search is the initial motion vector, which is taken as the starting point for CU-level motion refinement. A local search is performed around the starting point based on the matching method (two-way matching or template matching method) determined by the CU level. Specifically, in sub-CU level motion refinement, a sub-CU level motion vector candidate list can be generated. In the sub-CU level motion vector candidate list, a motion vector with a low matching cost is searched and set as the motion vector of the current CU.
サブCUレベル動きベクトル候補リストにおいてCUレベル動き検索により確定された動きベクトル(an MV determined from a CU-level search)と、現在の画像ブロックの上方隣接動きベクトル、左側隣接動きベクトル、左上方隣接動きベクトル、及び右上方隣接動きベクトル(top、left、top-left and top-right neighbouring MVs)と、参照画像における現在の画像ブロックの対応位置の伸縮後の動きベクトル(scaled versions of collocated MVs from reference pictures)と、その他の時間領域から導出された候補動きベクトル(up to 4 ATMVP candidatesとup to 4 STMVP candidates)とを含むことができる。 A motion vector (an MV determined from a CU-level search) determined by a CU-level motion search in a sub-CU-level motion vector candidate list, and an upper adjacent motion vector, a left adjacent motion vector, and an upper left adjacent motion vector of the current image block. vector, and top, left, top-left and top-right neighboring motion vectors (MVs) and scaled versions of collocated MVs of the corresponding position of the current image block in the reference picture. ) and other time-domain derived candidate motion vectors (up to 4 ATMVP candidates and up to 4 STMVP candidates).
上述の具体的な実施形態において、候補動きベクトルが指向する参照画像が特定参照画像である場合、特定参照画像に対応する候補動きベクトルをCUレベル動きベクトル候補リストに加えず、特定参照画像に対応する候補動きベクトルが初期動きベクトルになる機会がないようにする。 In the above-described specific embodiment, if the reference image to which the candidate motion vector is directed is the specific reference image, the candidate motion vector corresponding to the specific reference image is not added to the CU level motion vector candidate list, and the candidate motion vector corresponding to the specific reference image is not added. make sure that no candidate motion vector has a chance to be the initial motion vector.
他の具体的な実施形態において、CUレベル動きベクトル候補リストに基づいて確定された初期動きベクトルが指向するのが特定参照画像である場合、予め設定されたルールに基づいて、CUレベル動きベクトル候補リストから候補動きベクトルを再度選択し、初期動きベクトルとできる。この予め設定されたルールは例えば、マッチングコストが次に小さい候補動きベクトルを選択し、この候補動きベクトルが指向するのが特定参照画像でない場合、この候補動きベクトルを初期動きベクトルとするものであってよい。 In another specific embodiment, if the initial motion vector determined based on the CU-level motion vector candidate list is directed to a specific reference image, the CU-level motion vector candidates are determined according to preset rules. A candidate motion vector can be selected again from the list to be the initial motion vector. This preset rule is, for example, to select the candidate motion vector with the next lowest matching cost, and if this candidate motion vector is not directed to a specific reference image, this candidate motion vector is used as the initial motion vector. you can
図2は、本出願の一つの実施例の双方向マッチング法の原理概略図である。図2に示すように、双方向マッチング法は、現在のCUの動き軌跡において異なる参照画像における二つの予測画像ブロックの間の最も近接したマッチングを検索し、現在のCUの動きベクトルを導出する。双方向マッチング法は、現在の画像ブロックの動き軌跡が連続しているとの仮定に基づく。二つの予測画像ブロックの動きベクトルMV0、及びMV1は、現在の画像と二つの参照画像(参照画像0と参照画像1)との間の時間領域距離(TD0とTD1)と比例するものとする。動きベクトル候補リストを走査し、例えば、MV0について、動きベクトル対MV0とMV1を生成できる。ここで、MV0、TD0、TD1に基づいて、MV1を生成できる。MV0に対応する動きベクトル対が指向する二つの予測画像ブロックの間の歪みが最も小さい場合、この動きベクトル(つまりMV0)は、現在のCUの動きベクトルである。TD0=TD1の場合、双方向マッチングは、鏡像に基づく双方向マッチングに変化する。 FIG. 2 is a principle schematic diagram of the two-way matching method of one embodiment of the present application. As shown in FIG. 2, the bidirectional matching method searches for the closest matching between two predictive image blocks in different reference images in the motion trajectories of the current CU and derives the motion vector of the current CU. The bidirectional matching method is based on the assumption that the motion trajectory of the current image block is continuous. The motion vectors MV0 and MV1 of the two predicted image blocks shall be proportional to the time domain distance (TD0 and TD1) between the current image and the two reference images (reference image 0 and reference image 1). A motion vector candidate list can be scanned and, for example, for MV0, a motion vector pair MV0 and MV1 can be generated. Here, MV1 can be generated based on MV0, TD0 and TD1. If the distortion between the two predicted image blocks to which the motion vector pair corresponding to MV0 points is the least, this motion vector (ie MV0) is the motion vector of the current CU. When TD0=TD1, bidirectional matching changes to bidirectional matching based on a mirror image.
二つの参照画像におけるいずれか一つが特定参照画像である場合、現在の画像(現在の符号化対象画像、又は現在の復号化対象画像)と特定参照画像との時間距離の定義が不明確なので、双方向マッチングは実行できないことを理解されたい。しかも、特定参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、特定参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、双方向マッチングがこのような特定参照画像に基づいて、動きベクトルを検索する意義は大きくない。本出願の可能な実施形態において、特定参照画像に対応する候補動きベクトルをCUレベル動きベクトル候補リストに加えないことで、上述の課題が生じることを回避する。 If one of the two reference images is the specific reference image, the definition of the time distance between the current image (the current image to be encoded or the current image to be decoded) and the specific reference image is unclear. It should be appreciated that bidirectional matching cannot be performed. Moreover, the specific reference image is artificially constructed or is from a specific reference image earlier in time sequence, and there is a spatial relationship between image blocks in the specific reference image. However, since the image block edges have obvious fluctuations, it is not very meaningful for the bidirectional matching to search the motion vector based on such a specific reference image. In a possible embodiment of the present application, the above problem is avoided by not adding candidate motion vectors corresponding to specific reference pictures to the CU-level motion vector candidate list.
図3は、本出願の一つの実施例のテンプレートマッチング法の原理概略図である。図3に示すように、テンプレートマッチング法は、現在の画像のテンプレート(現在のCUの上方画像ブロックと左側画像ブロックとのうちの少なくとも一つ)と参照画像におけるブロック(テンプレートの大きさと同じ)との間において最も近接するマッチングを検索し、現在のCUの動きベクトルを導出する。テンプレートを得た後に、テンプレートと候補の動きベクトルが指向する予測画像ブロックとの間の歪みが最も小さい場合、この候補の動きベクトルは、現在のCUの動きベクトルである。 FIG. 3 is a principle schematic diagram of the template matching method of one embodiment of the present application. As shown in FIG. 3, the template matching method consists of a template of the current image (at least one of the upper image block and the left image block of the current CU) and a block in the reference image (same as the size of the template). , to derive the motion vector of the current CU. After obtaining the template, if the distortion between the template and the prediction image block to which the candidate motion vector points is the least, this candidate motion vector is the motion vector of the current CU.
参照画像が特定参照画像である場合、特定参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、特定参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、このような特定参照画像に基づいて、動きベクトルを検索する意義は大きくなく、すなわちテンプレートマッチング法の結果は不正確であり、ひいては意義がない。本出願の可能な実施形態において、特定参照画像に対応する候補動きベクトルをCUレベル動きベクトル候補リストに加えないことで、上述の課題が生じることを回避する。 If the reference image is a specific reference image, the specific reference image is artificially constructed or from a specific reference image earlier in time order, and between image blocks in the specific reference image does not necessarily have spatial relevance, and image block edges have obvious fluctuations. is inaccurate and thus meaningless. In a possible embodiment of the present application, the above problem is avoided by not adding candidate motion vectors corresponding to specific reference pictures to the CU-level motion vector candidate list.
具体的な実施形態において、本出願の実施例の画像動き補償方法100は、DMVR技術に応用できる。
In a specific embodiment, the image
DMVR技術は、双方向予測を行う場合、現在の画像ブロックにさらに正確な予測を行うために使用される細密化技術である。次に復号化端を例として、DMVR技術を詳細に説明する。DMVR技術は主に、二つの大きなステップを含み、第1ステップは、複数の初期動きベクトルに対応する復号化済み画像ブロックに基づいて、テンプレートを構築することである。第2ステップは、テンプレートに基づいて、この複数の初期動きベクトルを修正することである。 The DMVR technique is a refinement technique used to make a more accurate prediction for the current image block when doing bi-prediction. Next, taking the decoding end as an example, the DMVR technology will be described in detail. The DMVR technique mainly includes two major steps, the first step is to construct a template based on the decoded image blocks corresponding to multiple initial motion vectors. The second step is to modify the initial motion vectors based on the template.
具体的には、復号化端は、動きベクトル候補リストを生成できる。例えば、この動きベクトル候補リストは、前文で説明したAMVPモードの動きベクトル候補リスト、又はMergeテンプレートの動きベクトル候補リストであってよい。復号化端は、符号化端から送信された初期動きベクトルを指示するための複数のインデックスを受信できる。復号化端は、インデックスに基づいて、動きベクトル候補リストから複数の初期動きベクトルを得る。復号化端は、この複数の初期動きベクトルに対応する復号化済み画像ブロックに基づいて、テンプレート(例えば、画素を加重合計する方法)を生成し、生成されたテンプレートを利用して、それぞれこの複数の初期動きベクトルを修正する。最後に、この修正後の動きベクトルに基づいて前記現在の画像ブロックに動き補償を行う。 Specifically, the decoding end can generate a motion vector candidate list. For example, this motion vector candidate list may be the AMVP mode motion vector candidate list described above, or the motion vector candidate list for a Merge template. The decoding end can receive multiple indices to indicate the initial motion vectors sent from the encoding end. The decoding end obtains a plurality of initial motion vectors from the motion vector candidate list based on the index. The decoding end generates a template (e.g., a method of weighted sum of pixels) based on the decoded image blocks corresponding to the plurality of initial motion vectors, and uses the generated template to obtain the plurality of motion vectors, respectively. modify the initial motion vector of . Finally, motion compensation is performed on the current image block based on this modified motion vector.
本具体的な実施形態において、初期動きベクトルは、第1初期動きベクトル、及び第2初期動きベクトルを含むことができる。初期動きベクトルにおいて特定参照画像が存在する場合、以下の処理を採用できる。S120、前記現在の初期動きベクトルが指向する参照画像が特定参照画像である場合、前記初期動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことは、前記第1初期動きベクトル、及び第2初期動きベクトルのうちの少なくとも一つの初期動きベクトルが指向する参照画像が特定参照画像である場合、前記第1初期動きベクトル、及び前記第2初期動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことと、前記第1初期動きベクトル、及び前記第2初期動きベクトルが指向する参照画像がいずれも非特定参照画像である場合、前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、及び修正後の第2動きベクトルを得て、前記修正後の第1動きベクトル、及び前記修正後の第2動きベクトルに基づいて、前記現在の画像ブロックに動き補償を行うことと、を含むことができる。初期動きベクトルにおいて特定参照画像が存在しない場合、すなわち初期動きベクトルはいずれも非特定参照画像である場合、既存のDMVRの処理方法を採用できる。 In this specific embodiment, the initial motion vector can include a first initial motion vector and a second initial motion vector. If there is a specific reference image at the initial motion vector, the following process can be adopted. S120, if the reference image pointed to by the current initial motion vector is a specific reference image, performing motion compensation on the current image block based on the initial motion vector includes: the first initial motion vector; the current image block based on the first initial motion vector and the second initial motion vector, if the reference image to which at least one of the second initial motion vectors is directed is a specific reference image; and when the reference images directed by the first initial motion vector and the second initial motion vector are both non-specific reference images, the first initial motion vector and the second initial modify a motion vector, obtain a modified first motion vector and a modified second motion vector, and calculate the current motion vector based on the modified first motion vector and the modified second motion vector; performing motion compensation on the image blocks of . If there is no specific reference image in the initial motion vector, that is, if all the initial motion vectors are non-specific reference images, an existing DMVR processing method can be adopted.
図4は、本出願の一つの実施例のDMVR技術の原理概略図である。具体的には、初期動きベクトルが第1初期動きベクトル(例えば、MV0であってよい)、及び第2初期動きベクトル(例えば、MV1であってよい)を含み、第1初期動きベクトルに対応する復号化済み画像ブロックが第1フレームの第1復号化済み画像ブロックに属すると仮定すると、この第1フレームは、第1参照画像であってよく、この第1復号化済み画像ブロックは、第1参照画像ブロックであってよい。第2動きベクトルに対応する復号化済み画像ブロックが第2フレームの第2復号化済み画像ブロックに属すると仮定すると、この第2フレームは、第2参照画像であってよく、この第2復号化済み画像ブロックは、第2参照画像ブロックであってよい。この第1参照画像ブロック、及びこの第2参照画像ブロックを加重合計し、テンプレートを得ることができる。ここで、このテンプレートは、双方向テンプレートということができる。 FIG. 4 is a principle schematic diagram of the DMVR technology of one embodiment of the present application. Specifically, the initial motion vector includes a first initial motion vector (eg, may be MV0) and a second initial motion vector (eg, may be MV1), corresponding to the first initial motion vector Assuming that the decoded image block belongs to the first decoded image block of the first frame, this first frame may be the first reference image, and this first decoded image block corresponds to the first It may be a reference image block. Assuming that the decoded image block corresponding to the second motion vector belongs to the second decoded image block of the second frame, this second frame may be a second reference image, and this second decoded image block The completed image block may be a second reference image block. A weighted sum of this first reference image block and this second reference image block can be obtained to obtain a template. Here, this template can be called a bidirectional template.
選択可能には、一つの実施例において、前記初期動きベクトルは、第1初期動きベクトル、及び第2初期動きベクトルを含む。前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、及び修正後の第2動きベクトルを得ることは、第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、前記第1参照画像ブロックは前記第1初期動きベクトルに対応し、かつ第1参照画像に属し、前記第2参照画像ブロックは前記第2初期動きベクトルに対応し、かつ第2参照画像に属することと、前記テンプレートに基づいて、前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、及び修正後の第2動きベクトルを得ることと、を含むことができる。 Optionally, in one embodiment, the initial motion vector comprises a first initial motion vector and a second initial motion vector. Modifying the first initial motion vector and the second initial motion vector to obtain a modified first motion vector and a modified second motion vector includes: a first reference image block and a second reference image block; generating a template based on the blocks, wherein said first reference image block corresponds to said first initial motion vector and belongs to a first reference image, and said second reference image block corresponds to said second initial motion vector; corresponding to a vector and belonging to a second reference image; modifying the first initial motion vector and the second initial motion vector based on the template; obtaining a second motion vector of .
具体的には、前記テンプレートに基づいて、前記第1初期動きベクトル、及び前記第2初期動きベクトルを修正し、修正後の第1動きベクトル、修正後の第2動きベクトルを得ることは、N個の第3参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記N個の第3参照画像ブロックは、N個の第3初期動きベクトルに対応し、かつ前記第1参照画像に属することと、M個の第4参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記M個の第4参照画像ブロックは、M個の第4初期動きベクトルに対応し、かつ前記第2参照画像に属することと、前記マッチング結果に基づいて、前記N個の第3初期動きベクトルから一つの第3初期動きベクトルを選択し、前記M個の第4初期動きベクトルから一つの第4初期動きベクトルを選択し、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルを前記現在の画像ブロックの動きベクトル(すなわち、修正後の第1動きベクトル、及び修正後の第2動きベクトル)とし、又は前記現在の画像ブロックの動きベクトルを確定することに用いることと、を含むことができる。 Specifically, based on the template, modifying the first initial motion vector and the second initial motion vector, and obtaining the modified first motion vector and the modified second motion vector are N using third reference image blocks to respectively match the template, wherein the N third reference image blocks correspond to N third initial motion vectors and the first reference using image belonging and M fourth reference image blocks to match the template respectively, wherein the M fourth reference image blocks correspond to M fourth initial motion vectors; and selecting one third initial motion vector from the N third initial motion vectors according to belonging to the second reference image and the matching result, and selecting the M fourth initial motion vectors; select one fourth initial motion vector from the above, and convert the one third initial motion vector and the one fourth initial motion vector to the motion vector of the current image block (i.e., the modified first motion vector, and a modified second motion vector), or used to determine the motion vector of the current image block.
選択可能には、この選択された第3初期動きベクトルは、最も小さい歪みコストに対応する動きベクトルであってよい。又は、この選択された第3初期動きベクトルは、ある特定の値よりも小さい歪みコストに対応する動きベクトルであってよい。 Optionally, this selected third initial motion vector may be the motion vector corresponding to the lowest distortion cost. Alternatively, this selected third initial motion vector may be a motion vector corresponding to a distortion cost less than a certain value.
選択可能には、この選択された第4初期動きベクトルは、最も小さい歪みコストに対応する動きベクトルであってよい。又は、この選択された第4初期動きベクトルは、ある特定の値よりも小さい歪みコストに対応する動きベクトルであってよい。 Optionally, this selected fourth initial motion vector may be the motion vector corresponding to the lowest distortion cost. Alternatively, this selected fourth initial motion vector may be a motion vector corresponding to a distortion cost less than a certain value.
ここで、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルを前記現在の画像ブロックの動きベクトルとし、この場合、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルに対応する既知の画像ブロック(すなわち、初期予測画像ブロック)を加重合計して予測画像ブロックを得ることができる。 wherein the one third initial motion vector and the one fourth initial motion vector are the motion vectors of the current image block, where the one third initial motion vector and the one fourth initial motion vector are the motion vectors of the current image block; The known image block corresponding to the initial motion vector (ie, the initial predicted image block) can be weighted summed to obtain the predicted image block.
又は、前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルを前記現在の画像ブロックの動きベクトルを確定することに用いることができ、つまり前記一つの第3初期動きベクトル、及び前記一つの第4初期動きベクトルはそれぞれMVPとできる。この場合、この第3MVPを開始点として検索最適化し、最適化された動きベクトルを得ることができ、及びこの第4MVPを開始点として検索最適化し、他の最適化された動きベクトルを得ることができる。この二つの最適化された動きベクトルに対応する既知の画像ブロック(すなわち、初期予測画像ブロック)を加重合計して予測画像ブロックを得ることができる。 or the one third initial motion vector and the one fourth initial motion vector can be used to determine the motion vector of the current image block, i.e. the one third initial motion vector and Each of the one fourth initial motion vectors may be an MVP. In this case, the third MVP may be used as a starting point for search optimization to obtain an optimized motion vector, and the fourth MVP may be used as a starting point for search optimization to obtain other optimized motion vectors. can. The known image blocks corresponding to the two optimized motion vectors (ie, the initial predicted image blocks) can be weighted summed to obtain the predicted image block.
選択可能には、このNとMは等しくてよい。 Optionally, N and M may be equal.
選択可能には、この第3初期動きベクトルは、この第1初期動きベクトルを含み、この第4初期動きベクトルは、この第2初期動きベクトルを含み、つまり、テンプレートを生成するための第1初期動きベクトルに対応する参照画像ブロック、及び第2動きベクトルに対応する参照画像ブロックもそれぞれテンプレートとマッチングする必要がある。 Optionally, this third initial motion vector comprises this first initial motion vector and this fourth initial motion vector comprises this second initial motion vector, i.e. the first initial motion vector for generating the template. The reference image block corresponding to the motion vector and the reference image block corresponding to the second motion vector also need to be matched with the template respectively.
選択可能には、本出願の実施例において、このN個の第3初期動きベクトルにおける少なくとも一部の初期動きベクトルは、この第1初期動きベクトルに基づいて偏移して得られ、このM個の第4初期動きベクトルにおける少なくとも一部の初期動きベクトルは、この第2初期動きベクトルに基づいて偏移して得られたものである。 Optionally, in an embodiment of the present application, at least some initial motion vectors in the N third initial motion vectors are obtained by shifting based on the first initial motion vectors, and the M At least some of the initial motion vectors in the fourth initial motion vector of are obtained by shifting based on this second initial motion vector.
例えば、このN個の第3初期動きベクトルにおける第1初期動きベクトル以外の初期動きベクトルは、この第1初期動きベクトルに基づいて偏移して得られ、例えば、Nは、9に等しくてよく、そのうちの8個の初期動きベクトルは、第1初期動きベクトルに基づいて偏移して得られ、例えば、8つの方向で偏移して得られ、又は垂直方向、若しくは水平方向で異なる画素を偏移して得られるものである。 For example, the initial motion vectors other than the first initial motion vector in the N third initial motion vectors are shifted based on the first initial motion vector, for example N may be equal to 9. , eight initial motion vectors of which are obtained by shifting based on the first initial motion vector, for example, by shifting in eight directions, or by shifting different pixels vertically or horizontally. It is obtained by deviation.
また例えば、このN個の第4初期動きベクトルにおける第2初期動きベクトル以外の初期動きベクトルは、この第2初期動きベクトルに基づいて偏移して得られ、例えば、Nは、9に等しくてよく、そのうちの8個の初期動きベクトルは、第2初期動きベクトルに基づいて偏移して得られ、例えば、8つの方向で偏移して得られ、又は垂直方向、若しくは水平方向で異なる画素を偏移して得られるものである。 Also, for example, the initial motion vectors other than the second initial motion vector in the N fourth initial motion vectors are obtained by shifting based on the second initial motion vector, for example N is equal to 9. Often, the eight initial motion vectors among them are obtained by shifting based on the second initial motion vector, such as by shifting in eight directions, or different pixels in the vertical or horizontal direction. is obtained by shifting
選択可能には、本出願の実施例において、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであってよく、前記第2参照画像は、前記現在の画像ブロックの後方向フレームであってよい。又は、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであってよく、前記第2参照画像は、前記現在の画像ブロックの前方向フレームであってよい。 Optionally, in embodiments of the present application, the first reference image may be a forward frame of the current image block and the second reference image may be a backward frame of the current image block. It can be. Alternatively, the first reference image may be the forward frame of the current image block and the second reference image may be the forward frame of the current image block.
具体的な実施形態において、復号化端は、動きベクトル候補リストを生成し、符号化端から送信された初期動きベクトルを指示するための二つのインデックスを受信する。復号化端は、DMVP条件を判断し、このDMVP条件は、二つの初期動きベクトル(例えば、MV0とMV1であってよい)がいずれも特定参照画像を指向せず、かつ二つの初期動きベクトルの予測方向が逆であり、すなわち一つは前方向であり、他は後方向であることを求める。DMVR条件を満たす場合、MV0に対応する画像ブロック、及びMV1に対応する画像ブロックを加重合計し、双方向テンプレートを生成する。 In a specific embodiment, the decoding end generates a motion vector candidate list and receives two indices to indicate the initial motion vector sent from the encoding end. The decoding end determines a DMVP condition, which is that neither of the two initial motion vectors (which may be, for example, MV0 and MV1) points to a specific reference image, and the two initial motion vectors We require the prediction directions to be opposite, ie one forward and the other backward. If the DMVR condition is satisfied, the image block corresponding to MV0 and the image block corresponding to MV1 are weighted summed to generate a bidirectional template.
本出願の可能な実施形態において、特定参照画像に対応する候補動きベクトルを動きベクトル候補リストに加えないことで、二つのインデックスにより指示される初期動きベクトルが指向する参照画像が特定参照画像であることを回避する。他の可能な実施形態において、二つのインデックスにより指示される初期動きベクトルが指向する参照画像が特定参照画像である場合、復号化端は、符号化端が特定参照画像を指向しない動きベクトルを初期動きベクトルと再度指示するよう求めることができ、又は復号化端は、戻り、又はDMVRアルゴリズムの失効をマークする。 In a possible embodiment of the present application, the reference picture to which the initial motion vector indicated by the two indices is directed is the specific reference picture by not adding the candidate motion vector corresponding to the specific reference picture to the motion vector candidate list. Avoid that. In another possible embodiment, if the reference picture pointed to by the initial motion vector indicated by the two indices is a specific reference picture, the decoding end initializes a motion vector that the encoding end does not point to a specific reference picture. It can be asked to repoint with the motion vector, or the decoding end returns or marks the DMVR algorithm as invalid.
第1参照画像において、MV0に対応する画像ブロックについて、水平方向と垂直方向とのうちの少なくとも一つで一つの輝度画素を偏移し、検索された近接する8つの画素ブロックの動きベクトルは、MV0の合計9つの動きベクトルとともに参照リストlist0を形成できる。第2参照画像において、MV1に対応する画像ブロックについて、水平方向と垂直方向とのうちの少なくとも一つで一つの輝度画素を偏移し、検索された近接する8つの画素ブロックの動きベクトルは、MV1の合計9つの動きベクトルとともに参照リストlist1を形成できる。 In the first reference image, for the image block corresponding to MV0, the motion vectors of the neighboring eight pixel blocks retrieved by shifting one luminance pixel in at least one of the horizontal and vertical directions are: A reference list list0 can be formed with a total of 9 motion vectors of MV0. In the second reference image, for the image block corresponding to MV1, the motion vectors of the neighboring eight pixel blocks retrieved by shifting one luminance pixel in at least one of the horizontal and vertical directions are: A reference list list1 can be formed with a total of nine motion vectors of MV1.
復号化端が使用する双方向テンプレートマッチングは、双方向テンプレートと参照画像における再構築ブロックとの間で歪みに基づく検索を行うために、最終的に、追加の動き情報がない細密化後の動きベクトルを得る。二つの参照画像における動きベクトル(List0における動きベクトル、及びlist1における動きベクトル)について、最も小さいマッチングコストを持つ動きベクトルは、更新動きベクトルとして当初の動きベクトルに替わる。最終的に、二つの新しい動きベクトル(図3に示すMV0'、及びMV1')で当初のMV0とMV1を代替する。MV0'に対応する予測画像ブロック、及びMV1'に対応する予測画像ブロックに基づいて、最終的な双方向予測結果を生成する。 The bidirectional template matching that the decoding end uses to perform a distortion-based search between the bidirectional template and the reconstructed blocks in the reference image finally yields the refined motion without additional motion information. get a vector. For the motion vectors in the two reference images (the motion vector in List0 and the motion vector in list1), the motion vector with the lowest matching cost replaces the original motion vector as the update motion vector. Finally, two new motion vectors (MV0' and MV1' shown in FIG. 3) replace the original MV0 and MV1. A final bidirectional prediction result is generated based on the predicted image block corresponding to MV0′ and the predicted image block corresponding to MV1′.
DMVR技術において、参照画像が特定参照画像である場合、特定参照画像は、人工的に構築されたものであり、又は時間順序が早い以前のある特定参照画像からのものであり、特定参照画像における画像ブロックの間には空間上の関連があるとは限らず、画像ブロックエッジに明らかな揺れがあるので、このような特定参照画像に基づいて、動きベクトルを検索する意義は大きくなく、すなわちDMVR技術は不正確であり、ひいては意義がないことを理解されたい。本出願の実施例において、特定参照画像に対応する動きベクトルを細密化せず、直接動き補償に用いることで、上述の課題が生じることを回避する。 In DMVR technology, if the reference image is a specific reference image, the specific reference image is artificially constructed or from a specific reference image earlier in time order, and in the specific reference image There is not necessarily a spatial relationship between image blocks, and image block edges have obvious fluctuations. Therefore, there is not much significance in searching for motion vectors based on such a specific reference image, namely DMVR. It should be understood that the technique is imprecise and thus meaningless. In the embodiments of the present application, the motion vector corresponding to the specific reference image is not refined and is directly used for motion compensation, thereby avoiding the above-mentioned problems.
本出願の実施例は、画像処理方法200を提供する。図5は、本出願の他の一つの実施例の画像処理方法200の概略的フローチャートである。図5に示すように、この方法200は、
第1初期動きベクトル、及び第2初期動きベクトルを取得し、この第1初期動きベクトルは、第1参照画像を指向し、この第2初期M動きベクトルは、第2参照画像を指向するS210と、
この第1参照画像、及びこの第2参照画像のうちの少なくとも一つが特定参照画像である場合、この第1初期動きベクトル、及びこの第2初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得るS220と、
この第1参照画像、及びこの第2参照画像がいずれも非特定参照画像である場合、この第1初期動きベクトル、及びこの第2初期動きベクトルが指向する画素点の勾配値に基づいて、現在の画像ブロックの動きベクトルを計算して得て、この現在の画像ブロックの動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得るS230と、を含む。
Embodiments of the present application provide an
obtaining a first initial motion vector and a second initial motion vector, the first initial motion vector pointing to the first reference picture and the second initial M motion vector pointing to the second reference picture S210; ,
a predicted image of the current image block based on the first initial motion vector and the second initial motion vector, if at least one of the first reference image and the second reference image is a specific reference image; S220 to obtain by calculating a block;
If both the first reference image and the second reference image are non-specific reference images, the current calculating a motion vector of the image block of the current image block, and calculating S230 a prediction image block of the current image block based on the motion vector of the current image block.
本出願の実施例の画像処理方法は、二つの初期動きベクトルが指向する参照画像がいずれも非特定参照画像である場合、画素点の勾配値、及び最適化原理を採用して、現在の画像ブロックの動きベクトルを計算して得て、現在の画像ブロックの予測画像ブロックを計算して得る。二つの初期動きベクトルが指向する参照画像に特定参照画像が存在する場合、二つの初期動きベクトルに基づいて、直接現在の画像ブロックの予測画像ブロックを計算して得て、現在の画像と特定参照画像との時間距離の定義が不明確であることにより予測が実行できないことを回避し、符号化復号化効率を高めることができる。 The image processing method of the embodiment of the present application adopts the gradient value of the pixel point and the optimization principle, when the reference images directed by the two initial motion vectors are both non-specific reference images, A motion vector of the block is calculated and a predicted image block of the current image block is calculated. If there is a specific reference image in the reference image to which the two initial motion vectors are directed, the predicted image block of the current image block is directly calculated based on the two initial motion vectors, and the current image and the specific reference are obtained. It is possible to avoid the impossibility of prediction due to the unclear definition of the temporal distance to the image, and improve the encoding/decoding efficiency.
選択可能には、S230前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値に基づいて、前記現在の画像ブロックのMVを計算して得ることは、前記第1初期MV、前記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、前記現在の画像ブロックのMVを計算して得ることを含むことができる。 Optionally, S230 calculating the MV of the current image block based on the gradient values of the pixel points to which the first initial MV and the second initial MV are directed to obtain the first initial MV , calculating the MV of the current image block based on the gradient values of the pixel points to which the second initial MV is directed and an optimization principle.
具体的な実施形態において、本出願の実施例の画像処理方法200は、双方向動き予測モードの改良に応用できる。双方向動き予測モードとは、ある現在の画像ブロックを符号化する場合に、二つの異なる参照画像由来の二つの初期予測画像ブロックを同時に使用して現在の画像ブロックを予測し、かつ二つの初期予測画像ブロックを一つの画像ブロックに結合し、現在の画像ブロックの予測画像ブロックとすることをいう。BIO予測技術とは、双方向動き予測モードでの技術である。BIO予測技術では、動きベクトルは、通常の双方向動き予測モードに比べて、さらに多くの符号化マークがないが、予測画像ブロックの導出過程は異なる。BIO予測技術は、ブロック動き補償に基づく動き最適化であり、オプティカルフローモードにより動きベクトルを計算し、サンプリングポイントレベルの動き最適化である。
In a specific embodiment, the
本出願の実施例のBIO予測技術は、二つのステップを含むことができる。第1ステップは、二つの初期MV(例えば、第1初期MV、及び第2初期MV)に基づいて、現在の画像ブロックのMVを計算して得ることである。具体的には、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、現在の画像ブロックのMVを計算して得ることである。第2ステップは、前記現在の画像ブロックのMV、前記第1初期MVが指向する第1参照画像ブロック、及び前記第2初期MVが指向する第2参照画像ブロックに基づいて、前記現在の画像ブロックの予測画像ブロックを計算して得ることである。具体的には、BIO予測技術は、二つの初期MVが指向する二つの参照画像ブロックを補間し、現在の画像ブロックと同じサイズの二つの初期予測画像ブロックを得て、その後、この二つの初期予測画像ブロックを加重合計し、現在の画像ブロックの予測画像ブロックとして結合することである。 The BIO prediction technique of the embodiments of this application can include two steps. The first step is to compute and obtain the MV of the current image block based on two initial MVs (eg, the first initial MV and the second initial MV). Specifically, the MV of the current image block is calculated and obtained based on the gradient values of the pixel points directed by the first initial MV and the second initial MV and the optimization principle. a second step, based on the MV of the current image block, the first reference image block to which the first initial MV is directed, and the second reference image block to which the second initial MV is directed; is to compute and obtain a predicted image block of . Specifically, the BIO prediction technique interpolates two reference image blocks directed by two initial MVs to obtain two initial predicted image blocks of the same size as the current image block, and then uses these two initial weighted sum of the predicted image blocks and combining them as the predicted image block of the current image block.
図6は、本出願の一つの実施例のBIO技術の原理概略図である。BIO技術は、短い時間内に、物体の動きが水平方向、及び垂直方向のいずれにおいても等速運動であると仮定し、オプティカルフロー法の解析条件に適合する。図6に示すように、二つの初期MVが指向する参照点k(k=0、1)の動きベクトル(vx、vy)、及び輝度値I(k)は、以下のオプティカルフロー公式に適合すると仮定できる。
∂I(k)/∂t+vx∂I(k)/∂x+vy∂I(k)/∂y=0 公式1
式中、∂I(k)/∂x及び∂I(k)/∂yは、勾配の水平成分、及び垂直成分を示す。
FIG. 6 is a principle schematic diagram of the BIO technology of one embodiment of the present application. The BIO technology assumes that the motion of an object is uniform in both the horizontal and vertical directions within a short period of time, and meets the analytical conditions of the optical flow method. As shown in FIG. 6, the motion vector (v x , v y ) of the reference point k (k=0, 1) to which the two initial MVs are directed, and the luminance value I (k) are given by the following optical flow formula: It can be assumed that they are compatible.
∂I (k) /∂t+v x ∂I (k) /∂x+v y ∂I (k) /∂y=0 Formula 1
where ∂I (k) /∂x and ∂I (k) /∂y denote the horizontal and vertical components of the gradient.
オプティカルフロー公式及びHermiteを補間により連立して以下のような多項式を得て、t=0の場合、BIO予測値である。
predBIO=1/2・(I(0)+I(1)+vx/2・(τ1∂I(1)/∂x-τ0∂I(0)/∂x)+vy/2・(τ1∂I(1)/∂y-τ0∂I(0)/∂y)) 公式2
式中、τ0及びτ1は、それぞれ現在の画像から参照画像0、及び参照画像1までの距離を示し、両者は、現在の画像、及び二つの参照画像のPOCにより計算して得ることができる。
τ0=POC(current)-POC(Ref0) 公式3
τ1=POC(Ref1)-POC(current) 公式4
式中、POC(current)は、現在の画像のピクチャオーダーカウントであり、POC(Ref0)は、参照画像0のピクチャオーダーカウントであり、POC(Ref1)は、参照画像1のピクチャオーダーカウントである。
The optical flow formula and Hermite are combined by interpolation to obtain the following polynomial, which is the BIO prediction value when t=0.
pred BIO = 1/2 (I (0) + I (1) + v x /2 (τ 1 ∂I (1) / ∂x - τ 0 ∂I (0) / ∂x) + v y /2 ( τ 1 ∂I (1) /∂y-τ 0 ∂I (0) /∂y)) Formula 2
where τ 0 and τ 1 denote the distances from the current image to reference image 0 and reference image 1, respectively, both of which can be obtained by calculating the POC of the current image and the two reference images. can.
τ 0 = POC(current)−POC(Ref 0 ) Formula 3
τ 1 = POC(Ref 1 )−POC(current) Formula 4
where POC(current) is the picture order count of the current picture, POC(Ref 0 ) is the picture order count of reference picture 0, and POC(Ref 1 ) is the picture order count of reference picture 1. is.
参照画像は異なる方向であることができ、すなわち一つは過去からであり、一つは未来からである。二つの参照画像は同じ方向でもあり、すなわちいずれも過去からであり、又はいずれも未来からである。二つの参照画像が同じ方向の場合、τ0及びτ1は、異符号である。このような状況では、二つの参照画像は、同じであることはできず、すなわちτ0≠τ1であり、参照領域は、非ゼロの動き(MVx0,MVy0,MVx1,MVy1≠0)があり、動きベクトルは、時間領域の距離に比例する(MVx0/MVx1=MVy0/MVy1=-τ0/τ1)。 The reference images can be in different directions, one from the past and one from the future. The two reference images are also in the same direction, ie either both from the past or both from the future. If the two reference images have the same orientation, τ 0 and τ 1 have opposite signs. In such a situation, the two reference images cannot be the same, i.e. τ 0 ≠ τ 1 and the reference region has non-zero motion (MV x0 , MV y0 , MV x1 , MV y1 ≠ 0), and the motion vector is proportional to the distance in the time domain (MV x0 /MV x1 =MV y0 /MV y1 =-τ 0 /τ 1 ).
小さい領域内の動きが同じであると仮定すると、BIOの動きベクトルが以下のような1次のテイラー展開の公式を満たすことができる。
Δ=(I(0)-I(1)+vx(τ1∂I(1)/∂x+τ0∂I(0)/∂x)+vy(τ1∂I(1)/∂y+τ0∂I(0)/∂y)) 公式5
式中、Δは、二つの参照画像において対応する二つの参照点(例えば、図4におけるA、Bの両点)の画素差のテイラー1次展開である。勾配値、及び最適化方法により解析し、現在の画像ブロックの最適な動きベクトルが全領域内Δの二乗、及び最小を満たし、これにより最適な動きベクトル(vx、vy)を計算でき、アルゴリズムのロバスト性を考慮すると、vx及びvyは、ある閾値範囲内にあるものとする。
Assuming the same motion within a small region, the BIO motion vector can satisfy the first-order Taylor expansion formula as follows.
Δ=(I (0) −I (1) +v x (τ 1 ∂I (1) /∂x+τ 0 ∂I (0) /∂x)+v y (τ 1 ∂I (1) /∂y+τ 0 ∂ I (0) /∂y)) Formula 5
where Δ is the Taylor first-order expansion of the pixel difference between two corresponding reference points (eg, both points A and B in FIG. 4) in two reference images. Gradient value and analysis by optimization method, the optimal motion vector of the current image block satisfies the square of Δ in the whole area and the minimum, so that the optimal motion vector (v x , v y ) can be calculated, Considering the robustness of the algorithm, v x and v y should be within some threshold range.
上述の公式に基づいて、BIO予測技術のプロセスは以下のとおりである。現在の画像ブロックについて、その二つの参照画像に対応する位置の画素値はいずれも既に得られた。公式におけるI(0)及びI(1)は、それぞれ二つの参照画における画素値を示し、上述の公式における既知のものは、I(0)、I(1)及びτ0とτ1であり、勾配水平成分、及び垂直成分は、参照画像において計算により得られ、未知のものは、vx、vy及びΔである。一つの領域内のすべての画素点について、いずれも一つのΔを算出でき、最適化方法を使用して、Δが最小値のvx及びvyを得るようにし、つまり必要な最適な動きベクトルである。ここで、vx及びvyを計算する場合、それぞれvx及びvyに一つの区間を与え、この区間の閾値は、二つの参照画像の現在の画像に対する方向により確定される。最適な動きベクトルを得た後、この最適な動きベクトルが指向する画像ブロック+残差を直接、現在の画像ブロックとするわけではなく、公式2により現在の画像ブロックの各画素を計算して、これはBIO予測値ともいい、各画素の予測値を一体に組み合わせて、予測画像ブロックを形成する。 Based on the above formula, the BIO prediction technology process is as follows. For the current image block, both pixel values at the locations corresponding to the two reference images have already been obtained. I (0) and I (1) in the formula denote the pixel values in the two reference images respectively, and the known ones in the above formula are I (0) , I (1) and τ 0 and τ 1 , the gradient horizontal and vertical components are computed in the reference image, the unknowns are v x , v y and Δ. For every pixel point in a region, we can calculate one Δ, and use an optimization method to get Δ to get the minimum value of v x and v y , i.e. the required optimal motion vector is. Now, when calculating v x and v y , we give v x and v y an interval respectively, and the threshold of this interval is determined by the orientation of the two reference images with respect to the current image. After obtaining the optimal motion vector, the image block to which the optimal motion vector is directed + the residual is not directly taken as the current image block, but each pixel of the current image block is calculated by formula 2, This is also referred to as the BIO prediction and combines the predictions for each pixel together to form a predicted image block.
選択可能には、本出願の実施例において、前記第1初期動きベクトル、及び前記第2初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、前記第1初期動きベクトルが指向する第1参照画像ブロック、及び前記第2初期動きベクトルが指向する第2参照画像ブロックを加重合計し、前記現在の画像ブロックの予測画像ブロックを得ることを含む。 Optionally, in an embodiment of the present application, computing and obtaining a predicted image block of a current image block based on said first initial motion vector and said second initial motion vector is performed by said first initial A weighted sum of a first reference image block directed by a motion vector and a second reference image block directed by the second initial motion vector to obtain a predicted image block of the current image block.
具体的には、BIO予測開始実行前に判断条件を追加し、又はBIO条件に必要条件を追加する。第1初期動きベクトルが指向する第1参照画像、及び第2初期動きベクトルが指向する第2参照画像がいずれも特定参照画像でなく、しかも当初のBIO条件に合格する場合、BIO予測を行うことができる。そうでなければ、直接、二つの初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得て、又は戻り、又はBIO予測アルゴリズムの失効をマークする。 Specifically, a judgment condition is added before the BIO prediction start execution, or a necessary condition is added to the BIO condition. performing BIO prediction if neither the first reference image directed by the first initial motion vector nor the second reference image directed by the second initial motion vector is a specific reference image and passes the initial BIO condition; can be done. Otherwise, directly compute the predicted image block for the current image block based on the two initial motion vectors, or return or mark the expiration of the BIO prediction algorithm.
BIO条件は、前記第1初期動きベクトル、及び前記第2初期動きベクトルの予測方向は異なることをさらに含むことができる。又は、代替可能には、BIO条件は、前記第1初期動きベクトル、及び前記第2初期動きベクトルの予測方向は同じであり、前記第1初期動きベクトル、及び前記第2初期動きベクトルはいずれも0ではなく、前記第1参照画像、及び前記第2参照画像は異なることをさらに含むことができる。同時に、第1初期動きベクトル、及び第2初期動きベクトルの各方向成分の比率は同じであり、いずれも動きベクトルが指向する第1参照画像と現在の画像との距離、及び第2参照画像と現在の画像との距離の比に等しい。 The BIO condition may further include that prediction directions of the first initial motion vector and the second initial motion vector are different. Or alternatively, the BIO condition is that the prediction directions of the first initial motion vector and the second initial motion vector are the same, and the first initial motion vector and the second initial motion vector are both Instead of 0, the first reference image and the second reference image may be different. At the same time, the ratio of each direction component of the first initial motion vector and the second initial motion vector is the same, and both are the distance between the first reference image to which the motion vector is directed and the current image, and the distance between the second reference image and the second reference image. Equal to the ratio of the distance to the current image.
本出願の各実施例の動きベクトルは、3つのパラメータを含むことを理解するものとし、水平成分vx、垂直成分vy、及び指向する参照画像のフレームマークである。例えば、このフレームマークは、POCであってよく、その他の形態のマークであってもよい。符号化端、及び復号化端は、このフレームマークにより、参照画像の属性を確定でき、この参照画像が特定参照画像であるか否かを判断する。 It will be appreciated that the motion vector in each embodiment of the present application includes three parameters: the horizontal component v x , the vertical component v y , and the frame mark of the pointing reference image. For example, this frame mark may be a POC, or other form of mark. The encoding end and the decoding end can determine the attribute of the reference image from this frame mark, and judge whether or not this reference image is a specific reference image.
選択可能には、本出願の実施例において、初期動きベクトルが指向する参照画像が特定参照画像であるか否かを判断することは、初期動きベクトルが指向する参照画像のフレームマークに基づいて、初期動きベクトルが指向する参照画像が特定参照画像であるか否かを確定することを含むことができる。 Optionally, in an embodiment of the present application, determining whether the reference picture to which the initial motion vector is directed is a specific reference picture, based on a frame mark of the reference picture to which the initial motion vector is directed, It can include determining whether the reference image to which the initial motion vector is directed is a specific reference image.
選択可能には、本出願の実施例において、S230前記現在の画像ブロックの動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、前記現在の画像ブロックの動きベクトル、前記第1初期動きベクトルが指向する第1参照画像ブロック、及び前記第2初期動きベクトルが指向する第2参照画像ブロックに基づいて、前記現在の画像ブロックの予測画像ブロックを計算して得ることを含むことができる。具体的な計算公式は、前文において詳細に説明しており、ここではこれ以上説明しない。 Optionally, in an embodiment of the present application, S230 calculating a predicted image block of the current image block based on the motion vector of the current image block to obtain the motion vector of the current image block; calculating and obtaining a predicted image block of the current image block based on a first reference image block directed by the first initial motion vector and a second reference image block directed by the second initial motion vector; can contain. The specific calculation formulas are described in detail in the preamble and will not be further described here.
方法200の具体的な実施形態は、以下のステップを含むことができる。
A specific embodiment of
1.現在の二つの初期動きベクトルがBIO条件に適合するか否かを判断し、判断条件は、以下のとおりである。 1. It is determined whether the current two initial motion vectors meet the BIO conditions, and the determination conditions are as follows.
a)二つの初期動きベクトルが指向する参照画像がいずれも非特定参照画像であり、すなわち第1初期動きベクトルが指向する第1参照画像、及び第2初期動きベクトルが指向する第2参照画像がいずれも非特定参照画像である。 a) The reference images directed by the two initial motion vectors are both non-specific reference images, that is, the first reference image directed by the first initial motion vector and the second reference image directed by the second initial motion vector are Both are non-specific reference images.
b)以下の2項のうちの一つを満たし、
i)二つの初期動きベクトルが異なる予測方向(それぞれ前方向と後方向)からである。
ii)二つの初期動きベクトルが同じ予測方向の異なる参照画像からであり、かつ二つの初期動きベクトルがいずれも0ではなく、しかも二つの初期動きベクトルの各方向成分の比率が同じであり、いずれも動きベクトルが指向する参照画像と現在の画像との距離の比に等しい。
b) satisfy one of the following two items,
i) The two initial motion vectors are from different prediction directions (forward and backward, respectively).
ii) the two initial motion vectors are from different reference images in the same prediction direction, and neither of the two initial motion vectors is 0, and the ratio of each direction component of the two initial motion vectors is the same; is also equal to the ratio of the distances between the reference image to which the motion vector points and the current image.
同時にa)及びb)を満たす初期動きベクトルは、BIO条件に適合し、BIO予測を行うことができる。 An initial motion vector that satisfies a) and b) at the same time meets the BIO condition and can perform BIO prediction.
2.二つの初期動きベクトルの予測方向に基づいて、演算閾値を確定し、すなわちvx及びvyの区間の閾値である。 2. Based on the prediction directions of the two initial motion vectors, determine the calculation threshold, ie the threshold of v x and v y intervals.
3.二つの初期動きベクトルが指向する画素点の勾配値を計算する。 3. Compute the gradient values of the pixel points pointed by the two initial motion vectors.
4.勾配値、及び最適化原理に基づいて、最適な動きベクトルを計算し、現在の画像ブロックの動きベクトルとする。 4. Based on the gradient value and the optimization principle, the optimal motion vector is calculated and taken as the motion vector of the current image block.
5.現在の画像ブロックの動きベクトル、二つの初期動きベクトルが指向する参照画像ブロックによりBIO予測値を得る。 5. A BIO prediction value is obtained by the motion vector of the current image block and the reference image block to which the two initial motion vectors are directed.
b)i)のみを満たす場合、前記第1初期動きベクトルが指向する第1参照画像ブロック、及び前記第2初期動きベクトルが指向する第2参照画像ブロックを加重合計し、前記現在の画像ブロックの予測画像ブロックを得る。 b) if only i) is satisfied, perform a weighted sum of the first reference image block directed by the first initial motion vector and the second reference image block directed by the second initial motion vector to obtain the current image block; Obtain a predicted image block.
本出願の実施例のBIO予測が参照する原理、公式、及びステップは、上述の説明を参照でき、ここではこれ以上説明しない。 The principles, formulas and steps referred to in the examples of this application for BIO prediction can refer to the above description and will not be further described here.
BIO予測技術において、参照画像が特定参照画像である場合、現在の画像(現在の符号化対象画像、又は現在の復号化対象画像)と特定参照画像との時間距離の定義が不明確なので、BIO予測技術は実行できないことを理解されたい。本出願の実施例において、二つの初期動きベクトルが指向する参照画像に特定参照画像が存在する場合、直接、二つの初期動きベクトルに基づいて、現在の画像ブロックの予測画像ブロックを計算して得て、これにより上述の課題が生じることを回避する。 In the BIO prediction technology, when the reference image is a specific reference image, the definition of the time distance between the current image (the current image to be encoded or the current image to be decoded) and the specific reference image is unclear. It should be understood that predictive techniques cannot be implemented. In an embodiment of the present application, if there is a specific reference image in the reference image pointed by the two initial motion vectors, the predicted image block of the current image block is directly calculated based on the two initial motion vectors. This avoids the problems described above.
本出願の各実施例の方法はいずれも符号化端、及び復号化端に応用できることを理解されたい。本出願の各実施例の現在の画像ブロックは、符号化対象画像ブロックであってよく、復号化対象画像ブロックであってもよい。 It should be understood that the method of each embodiment of the present application can be applied to both the encoding end and the decoding end. The current image block in each embodiment of the present application may be an image block to be encoded or an image block to be decoded.
本出願の実施例は、PMMVD技術、DMVR技術、及びBIO予測技術に応用される画像処理方法を例示的に提示したにすぎず、本出願の実施例の方法は、さらに既存の又は将来のその他の動画符号化/復号化技術に応用でき、本出願の実施例は、これを限定しないことを理解されたい。 The examples of the present application merely exemplify image processing methods applied to PMMVD technology, DMVR technology, and BIO prediction technology, and the methods of the examples of the present application can also be applied to other existing or future video encoding/decoding techniques, and the embodiments of the present application are not limited thereto.
図7は、本出願の一つの実施例の画像動き補償装置70の概略的フレーム図である。図7に示すように、画像動き補償装置70は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリ701と、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサ702と、を含み、操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVが指向する参照画像が特定参照画像である場合、前記初期MVに基づいて前記現在の画像ブロックに動き補償を行うことと、
前記初期MVが指向する参照画像が非特定参照画像である場合、前記初期MVを修正し、修正後のMVを得て、前記修正後のMVに基づいて前記現在の画像ブロックに動き補償を行うことと、である。
FIG. 7 is a schematic frame diagram of an image motion compensator 70 of one embodiment of the present application. As shown in FIG. 7, the image motion compensation device 70
at least one memory 701 for storing computer-executable commands;
and at least one
obtaining an initial motion vector MV for the current image block;
performing motion compensation on the current image block based on the initial MV, if the reference image to which the initial MV is directed is a specific reference image;
If the reference image to which the initial MV is directed is a non-specific reference image, modify the initial MV to obtain a modified MV, and perform motion compensation on the current image block based on the modified MV. That is.
いくつかの実施例において、前記プロセッサ702は、具体的に、
前記現在の画像ブロックのMV候補リストを取得し、前記MV候補リストにおけるいずれかの候補MVが指向する参照画像が非特定参照画像であり、
前記MV候補リストに基づいて、前記初期MVを確定し、
前記初期MVを修正し、修正後のMVを得て、
前記修正後のMVに基づいて、前記現在の画像ブロックに動き補償を行うためのものである。
In some embodiments, the
obtaining an MV candidate list of the current image block, wherein a reference image to which any candidate MV in the MV candidate list is directed is a non-specific reference image;
Determine the initial MV based on the MV candidate list,
Modifying the initial MV, obtaining the modified MV,
for performing motion compensation on the current image block based on the modified MV.
いくつかの実施例において、前記プロセッサ702は、さらに、
前記MV候補リストに加えるための候補MVを確定し、前記候補MVが指向する参照画像が非特定参照画像である場合、前記候補MVを前記MV候補リストに加えるためのものである。
In some examples, the
determining a candidate MV to be added to the MV candidate list, and adding the candidate MV to the MV candidate list if the reference image to which the candidate MV is directed is a non-specific reference image;
いくつかの実施例において、前記プロセッサ702は、さらに、
前記候補MVが指向する参照画像のフレームマークに基づいて、前記候補MVが指向する参照画像が非特定参照画像であると確定するためのものである。
In some examples, the
It is for determining that the reference image to which the candidate MV is directed is a non-specific reference image based on the frame mark of the reference image to which the candidate MV is directed.
いくつかの実施例において、前記MV候補リストは、以下のうちの少なくとも一つの候補MVを含み、
前記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補MV、
非特定参照画像に対して得られたマージ候補MV、
非特定参照画像から補間により得られたMV、及び
前記現在のブロックの非特定参照画像に対する上方隣接MVと左側隣接MVである。
In some embodiments, the MV candidate list includes at least one of the following candidate MVs:
an original AMVP candidate MV obtained for a non-specific reference image if said current image block is in advanced motion vector prediction AMVP mode;
merge candidate MVs obtained for non-specific reference images,
MV obtained by interpolation from a non-specific reference image;
いくつかの実施例において、前記プロセッサ702は、具体的に、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、前記MV候補リストにおける候補MVに対応する歪みコストを確定し、
前記MV候補リストにおける歪みコストが最も小さいMVを前記初期MVとするためのものである。
In some embodiments, the
determining distortion costs corresponding to candidate MVs in the MV candidate list based on at least one of a bidirectional matching method and a template matching method;
The MV having the lowest distortion cost in the MV candidate list is set as the initial MV.
いくつかの実施例において、前記プロセッサ702は、具体的に、
前記現在の画像ブロックにサブMV候補リストを生成し、前記サブMV候補リストには前記初期MVを含み、
前記サブMV候補リストから歪みコストが最も小さいMVを前記修正後のMVとして確定するためのものである。
In some embodiments, the
generating a sub-MV candidate list for the current image block, the sub-MV candidate list including the initial MV;
This is for determining the MV with the lowest distortion cost from the sub-MV candidate list as the corrected MV.
いくつかの実施例において、前記初期MVは、第1初期MV、及び第2初期MVを含み、
前記プロセッサ702は、具体的に、
前記第1初期MV、及び前記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が特定参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて前記現在の画像ブロックに動き補償を行い、
前記第1初期MV、及び前記第2初期MVが指向する参照画像が非特定参照画像である場合、前記第1初期MV、及び前記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得て、前記修正後の第1MV、及び前記修正後の第2MVに基づいて前記現在の画像ブロックに動き補償を行うためのものである。
In some embodiments, the initial MVs include a first initial MV and a second initial MV,
Specifically, the
When a reference image to which at least one of the first initial MV and the second initial MV is directed is a specific reference image, the current perform motion compensation on the image blocks of
When the reference image to which the first initial MV and the second initial MV are directed is a non-specific reference image, the first initial MV and the second initial MV are modified, the first MV after modification, and the modification for obtaining a later second MV and performing motion compensation on the current image block based on the modified first MV and the modified second MV;
いくつかの実施例において、前記プロセッサ702は、具体的に、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、前記第1参照画像ブロックは、前記第1初期MVに対応し、かつ第1参照画像に属し、前記第2参照画像ブロックは、前記第2初期MVに対応し、かつ第2参照画像に属し、
前記テンプレートに基づいて、前記第1初期MV、及び前記第2初期MVを修正し、修正後の第1MV、及び前記修正後の第2MVを得るためのものである。
In some embodiments, the
generating a template based on a first reference image block and a second reference image block, wherein said first reference image block corresponds to said first initial MV and belongs to a first reference image; A second reference image block corresponds to the second initial MV and belongs to a second reference image,
Based on the template, the first initial MV and the second initial MV are modified to obtain a modified first MV and a modified second MV.
いくつかの実施例において、前記プロセッサ702は、具体的に、
N個の第3参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ前記第1参照画像に属し、
M個の第4参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ前記第2参照画像に属し、
前記マッチング結果に基づいて、前記N個の第3初期MVから一つの第3初期MVを選択し、及び前記M個の第4初期MVから一つの第4初期MVを選択し、前記一つの第3初期MV、及び前記一つの第4初期MVを前記現在の画像ブロックのMVとし、又は前記現在の画像ブロックのMVを確定することに用いるためのものである。
In some embodiments, the
N third reference image blocks are used to respectively match the template, wherein the N third reference image blocks correspond to N third initial MVs and the first reference image blocks image belongs to
M fourth reference image blocks are used to respectively match the template, wherein the M fourth reference image blocks correspond to M fourth initial MVs and the second reference image belongs to
based on the matching result, selecting one third initial MV from the N third initial MVs, selecting one fourth initial MV from the M fourth initial MVs, and selecting the one fourth initial MV from the M fourth initial MVs; The three initial MVs and the one fourth initial MV are used as the MV of the current image block or used to determine the MV of the current image block.
いくつかの実施例において、前記第3初期MVは、前記第1初期MVを含み、前記第4初期MVは、前記第2初期MVを含む。 In some embodiments, the third initial MV comprises the first initial MV, and the fourth initial MV comprises the second initial MV.
いくつかの実施例において、前記N個の第3初期MVにおける少なくとも一部の初期MVは、前記第1初期MVに基づいて偏移して得られ、前記M個の第4初期MVにおける少なくとも一部の初期MVは、前記第2初期MVに基づいて偏移して得られたものである。 In some embodiments, at least some of the N third initial MVs are shifted based on the first initial MVs, and at least one of the M fourth initial MVs is The initial MV of the part is obtained by shifting based on the second initial MV.
いくつかの実施例において、前記Nは、前記Mに等しい。 In some embodiments, said N is equal to said M.
いくつかの実施例において、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの後方向フレームであり、又は、
前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの前方向フレームである。
In some embodiments, the first reference image is a forward frame of the current image block and the second reference image is a backward frame of the current image block, or
The first reference image is the forward frame of the current image block and the second reference image is the forward frame of the current image block.
画像動き補償装置70は、さらに、対応するソフトウェアモジュールにより実現できることを理解するものとし、ここではこれ以上説明しない。 It should be understood that the image motion compensation device 70 can also be implemented by corresponding software modules and will not be further described here.
図8は、本出願の他の一つの実施例の画像処理装置80の概略的フレーム図である。図8に示すように、画像処理装置80は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリ801と、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサ802と、を含み、操作は、
第1初期動きベクトルMV、及び第2初期MVを取得し、前記第1初期MVは、第1参照画像を指向し、前記第2初期MVは、第2参照画像を指向することと、
前記第1参照画像、及び前記第2参照画像のうちの少なくとも一つが特定参照画像である場合、前記第1初期MV、及び前記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
前記第1参照画像、及び前記第2参照画像がいずれも非特定参照画像である場合、前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値に基づいて、現在の画像ブロックのMVを計算して得て、前記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、である。
FIG. 8 is a schematic frame diagram of an image processing device 80 of another embodiment of the present application. As shown in FIG. 8, the image processing device 80
at least one memory 801 for storing computer-executable commands;
and at least one
obtaining a first initial motion vector MV and a second initial MV, the first initial MV pointing to a first reference image and the second initial MV pointing to a second reference image;
when at least one of the first reference image and the second reference image is a specific reference image, predicting an image block of the current image block based on the first initial MV and the second initial MV; calculated and obtained,
When both the first reference image and the second reference image are non-specific reference images, the current image based on the gradient values of the pixel points directed by the first initial MV and the second initial MV calculating and obtaining the MV of the block, and calculating and obtaining a predicted image block of the current image block based on the MV of the current image block.
いくつかの実施例において、前記プロセッサ802は、具体的に、
前記第1初期MV、及び前記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、前記現在の画像ブロックのMVを計算して得るためのものである。
In some embodiments, the
For calculating and obtaining the MV of the current image block based on the gradient values of the pixel points directed by the first initial MV and the second initial MV and the optimization principle.
いくつかの実施例において、前記プロセッサ802は、具体的に、
前記第1初期MVが指向する第1参照画像ブロック、及び前記第2初期MVが指向する第2参照画像ブロックを加重合計し、前記現在の画像ブロックの予測画像ブロックを得るためのものである。
In some embodiments, the
weighted sum of a first reference image block to which the first initial MV points and a second reference image block to which the second initial MV points to obtain a prediction image block of the current image block;
いくつかの実施例において、前記第1初期MV、及び前記第2初期MVの予測方向は異なる。 In some embodiments, the prediction directions of the first initial MV and the second initial MV are different.
いくつかの実施例において、前記第1初期MV、及び前記第2初期MVの予測方向は同じであり、前記第1初期MV、及び前記第2初期MVはいずれも0ではなく、前記第1参照画像、及び前記第2参照画像は異なる。 In some embodiments, the prediction directions of the first initial MV and the second initial MV are the same, and the first initial MV and the second initial MV are not 0, and the first reference The image and said second reference image are different.
いくつかの実施例において、前記プロセッサ802は、具体的に、
前記現在の画像ブロックのMV、前記第1初期MVが指向する第1参照画像ブロック、及び前記第2初期MVが指向する第2参照画像ブロックに基づいて、前記現在の画像ブロックの予測画像ブロックを計算して得るためのものである。
In some embodiments, the
based on the MV of the current image block, a first reference image block to which the first initial MV is directed, and a second reference image block to which the second initial MV is directed, predicting a predicted image block of the current image block. It is to be calculated and obtained.
画像処理装置80は、さらに、対応するソフトウェアモジュールにより実現できることを理解するものとし、ここではこれ以上説明しない。 It is to be understood that the image processing device 80 can also be implemented by corresponding software modules and will not be further described here.
動きベクトルの導出を使用するいくつかの技術においては、動きベクトルが特定参照画像を指向する場合、この動きベクトルに対するスケーリングは意義がなく、検索効率、及び符号化/復号化効率を低下させてしまう。これは、動きベクトルをスケーリングする場合には画像の間の距離に基づいて、動きベクトルをスケーリングし、一方、特定参照画像は人工的に構築される可能性があり、その他の参照画像と距離があるわけではないという考えによるからであり、このような特定参照画像に基づいて動きベクトルをスケーリングする意義は大きくない。 In some techniques that use motion vector derivation, if the motion vector points to a particular reference image, scaling the motion vector is meaningless, reducing search efficiency and encoding/decoding efficiency. . This scales the motion vectors based on the distance between the images when scaling the motion vectors, while certain reference images may be artificially constructed, other reference images and distances This is because it is based on the idea that there is no specific reference image, and there is not much significance in scaling the motion vector based on such a specific reference image.
本出願は、さらに画像動き補償方法を提供する。図9は、本出願の別の一つの実施例の画像動き補償方法900の概略的フローチャートである。図9に示すように、この方法900は、
現在の画像ブロックの初期動きベクトルMVを取得するS910と、
この初期MVのスケーリング比率を確定し、ここで、この初期MVが特定参照画像を指向する場合、この初期MVのスケーリング比率は、1であるS920と、
この初期MVのスケーリング比率に基づいて、この初期MVをスケーリングするS930と、
このスケーリング後のMVに基づいて前記現在の画像ブロックに動き補償を行うS940と、を含む。
The present application further provides an image motion compensation method. FIG. 9 is a schematic flow chart of an image
obtaining S910 an initial motion vector MV for the current image block;
determining a scaling ratio for this initial MV, where the scaling ratio for this initial MV is 1 if this initial MV is directed to a particular reference image S920;
S930 scaling this initial MV based on the scaling ratio of this initial MV;
and performing motion compensation S940 on the current image block based on this scaled MV.
ここで、初期MVを取得する方法は、上述に説明された初期MVを取得する方法と同じでもよく、ここではこれ以上説明しない。 Here, the method of obtaining the initial MV may be the same as the method of obtaining the initial MV described above, and will not be further described here.
本出願の実施例の画像動き補償方法は、初期MVが特定参照画像を指向する場合、そのスケーリング比率は、1である。初期MVが非特定参照画像を指向する場合、そのスケーリング比率を限定せず、この現在の画像と非特定参照画像との間の距離、及びスケーリング戦略に基づいて、動きベクトルをスケーリングし、ひいては動き補償を行い、符号化復号化効率を高めることができる。 The image motion compensation method of the embodiment of the present application has a scaling ratio of 1 when the initial MV points to a specific reference image. If the initial MV points to a non-specific reference image, without limiting its scaling ratio, scale the motion vector based on the distance between this current image and the non-specific reference image, and the scaling strategy, and thus the motion Compensation can be performed to improve coding and decoding efficiency.
いくつかの実施例において、スケーリング後のMVに基づいて、直接、前記現在の画像ブロックに動き補償を行う。 In some embodiments, the current image block is directly motion compensated based on the scaled MV.
いくつかの実施例において、スケーリング後のMVについて、前記スケーリング後のMVをさらに修正でき、修正後のMVを得て、前記修正後のMVに基づいて前記現在の画像ブロックに動き補償を行う。ここで、スケーリング後のMVを修正する方法は、上述に説明された初期MVを修正する方法と同じでもよく、ここではこれ以上説明しない。 In some embodiments, the scaled MV may be further modified to obtain a modified MV, and perform motion compensation on the current image block based on the modified MV. Here, the method of modifying the scaled MV may be the same as the method of modifying the initial MV described above, and will not be further described here.
例えば、図5に示すように、前記第1初期MVは、第1参照画像を指向し、前記第2初期MVは、第2参照画像を指向する。第1参照画像、及び第2参照画像がいずれも非特定参照画像を指向する場合、第1参照画像と第2参照画像との間の距離に基づいて、第1初期MV、及び第2初期MVをスケーリングする。その後、スケーリング後の第1初期MV、及びスケーリング後の第2初期MVに基づいて前記現在の画像ブロックに動き補償を行う。一実施形態において、第1参照画像ブロックを確定し、前記第1参照画像ブロックは、このスケーリング後の第1初期MVに対応し、かつ第2参照画像に属し、第2参照画像ブロックを確定し、この第2参照画像ブロックは、このスケーリング後の第2初期MVに対応し、かつ第1参照画像に属する。前記第1参照画像ブロック、及び第2参照画像ブロックに基づいてテンプレートを生成し、このテンプレートに基づいて、第1初期MV、及び第2初期MVを修正し、前記修正後の第1MV、及び前記修正後の第2MVを得る。修正後の第1MV、及び第2MVを利用して、現在の画像ブロックの動きベクトルを計算する。 For example, as shown in FIG. 5, the first initial MV points to a first reference image and the second initial MV points to a second reference image. When the first reference image and the second reference image both point to the non-specific reference image, the first initial MV and the second initial MV are calculated based on the distance between the first reference image and the second reference image. to scale. Then motion compensation is performed on the current image block based on the first initial MV after scaling and the second initial MV after scaling. In one embodiment, determining a first reference image block, said first reference image block corresponding to the first initial MV after this scaling and belonging to a second reference image, determining a second reference image block. , this second reference image block corresponds to this second initial MV after scaling and belongs to the first reference image. A template is generated based on the first reference image block and the second reference image block, based on this template, the first initial MV and the second initial MV are corrected, the first MV after the correction, and the Obtain the modified second MV. Using the modified first MV and second MV, the motion vector of the current image block is calculated.
ここで、このテンプレートに基づいて、第1初期MV、及び第2初期MVを修正する方法は、上述に説明されたテンプレートに基づいて、第1初期MV、及び第2初期MVを修正する方法と同じでもよく、ここではこれ以上説明しない。 Here, the method of correcting the first initial MV and the second initial MV based on this template is the method of correcting the first initial MV and the second initial MV based on the template described above. They may be the same and will not be described further here.
本出願は、さらに別の画像動き補償方法を提供する。この画像動き補償方法において、現在の画像ブロックの初期動きベクトルMVを取得し、前記初期MVが特定参照画像を指向する場合、及びこの初期MVが非特定参照画像を指向する場合、それぞれ異なる操作を採用して前記初期MVに基づいて、前記現在の画像ブロックに動き補償を行う。 The present application provides yet another image motion compensation method. In this image motion compensation method, an initial motion vector MV of a current image block is obtained, and different operations are performed when the initial MV points to a specific reference image and when the initial MV points to a non-specific reference image. and performing motion compensation on the current image block based on the initial MV.
ここで、初期MVを取得する方法は、上述に説明された初期MVを取得する方法と同じでもよく、ここではこれ以上説明しない。 Here, the method of obtaining the initial MV may be the same as the method of obtaining the initial MV described above, and will not be further described here.
一つの実施例において、初期MVが特定参照画像を指向する場合、この初期MVを使用して現在の画像ブロックに動き補償を行う。初期MVが非特定参照画像を指向する場合、1、初期MVをスケーリングし、スケーリング後の初期MVに基づいて、現在の画像ブロックに動き補償を行う実施形態と、2、初期MVを修正し、修正後の初期MVに基づいて、現在の画像ブロックに動き補償を行う実施形態と、3、初期MVをスケーリングし、スケーリング後のMVを修正し、修正後のMVを得て、修正後のMVに基づいて、現在の画像ブロックに動き補償を行う実施形態と、4、初期MVを修正し、修正後のMVをスケーリングし、スケーリング後のMVを得て、スケーリング後のMVに基づいて、現在の画像ブロックに動き補償を行う実施形態という4つの実施形態がある。 In one embodiment, if the initial MV points to a particular reference image, this initial MV is used to perform motion compensation on the current image block. If the initial MV points to a non-specific reference image, 1, an embodiment that scales the initial MV and performs motion compensation on the current image block based on the scaled initial MV, and 2, modifies the initial MV; and 3, scaling the initial MV, modifying the scaled MV, obtaining the modified MV, the modified MV and 4, modifying the initial MV, scaling the modified MV, obtaining the scaled MV, and based on the scaled MV, the current There are four embodiments, one in which motion compensation is performed on image blocks of .
ここで、スケーリング後のMVを修正する方法、又は初期MVを修正する方法は、上述に説明された初期MVを修正する方法と同じでもよく、ここではこれ以上説明しない。 Here, the method of modifying the scaled MV or the method of modifying the initial MV may be the same as the method of modifying the initial MV described above, and will not be further described here.
一つの実施例において、初期MVが特定参照画像を指向する場合、初期MVを修正し、修正後のMVに基づいて動き補償を行うことができる。初期MVが非特定参照画像を指向する場合、初期MVをスケーリング後に、又は初期MVをスケーリングし、及び修正後に、現在の画像ブロックに動き補償を行うことができる。すなわち、初期MVが特定参照画像を指向する状況では、スケーリングのステップをスキップして初期MVを直接、修正し、又は直接、初期MVのスケーリング比率を1にセットしてスケーリングした後に修正する。初期MVが非特定参照画像を指向する状況では、初期MVをスケーリングし、又は初期MVをスケーリングし、及び修正し、符号化復号化効率を高めることができる。 In one embodiment, if the initial MV points to a particular reference image, the initial MV can be modified and motion compensation can be performed based on the modified MV. If the initial MV points to a non-specific reference image, motion compensation can be performed on the current image block after scaling the initial MV, or after scaling and modifying the initial MV. That is, in situations where the initial MV points to a particular reference image, the scaling step is skipped and the initial MV is directly modified, or the scaling ratio of the initial MV is set to 1 and then modified directly. In situations where the initial MV points to a non-specific reference picture, the initial MV can be scaled, or scaled and modified, to increase the encoding/decoding efficiency.
本出願のその他の実施例において、初期MVが特定参照画像を指向する場合、初期MVを直接使用して動き補償を行い、又は初期MVを修正し、修正後のMVに基づいて、動き補償を行う。及び初期MVが非特定参照画像を指向する場合、初期MVにスケーリングと修正とのうちの少なくとも一つを行い、動き補償を行い、各種の実施形態は任意に組み合わせてもよく、本出願の実施例はこれを限定しない。 In other embodiments of the present application, if the initial MV points to a particular reference image, the initial MV is directly used for motion compensation, or the initial MV is modified and motion compensation is performed based on the modified MV. conduct. and if the initial MV is directed to a non-specific reference image, the initial MV is scaled and/or modified and motion compensated, various embodiments may be combined arbitrarily; The examples do not limit this.
いくつかの実施例において、前記現在の画像ブロックの初期動きベクトルMVを取得することは、前記現在の画像ブロックのMV候補リストを取得することと、前記MV候補リストに基づいて、前記初期MVを確定することと、を含む。すなわち、初期MVをスケーリングした(スケーリング比率が1のスケーリングを含む)後に、初期MVが非特定参照画像を指向するMVを選択して修正し、初期MVがいずれのタイプの参照画像を指向するかに関わらず、いずれも修正してもよい。 In some embodiments, obtaining the initial motion vector MV of the current image block comprises: obtaining an MV candidate list of the current image block; and based on the MV candidate list, calculating the initial MV. determining. That is, after scaling the initial MV (including scaling with a scaling ratio of 1), select and modify the MV that the initial MV points to a non-specific reference image, and determine which type of reference image the initial MV points to Either can be modified.
選択可能には、前記MV候補リストにおけるいずれかの候補MVが指向する参照画像は、非特定参照画像である。 Selectably, the reference image to which any candidate MV in said MV candidate list is directed is a non-specific reference image.
選択可能には、前記現在の画像ブロックのMV候補リストを取得することは、前記MV候補リストに加えるための候補MVを確定し、前記候補MVが指向する参照画像が非特定参照画像である場合、前記候補MVを前記MV候補リストに加えることを含むことができる。 Optionally, obtaining the MV candidate list for the current image block determines candidate MVs for addition to the MV candidate list, if the reference image to which the candidate MV is directed is a non-specific reference image. , adding the candidate MV to the MV candidate list.
選択可能には、前記方法は、前記候補MVが指向する参照画像のフレームマークに基づいて、前記候補MVが指向する参照画像が非特定参照画像であると確定することをさらに含むことができる。 Optionally, the method may further comprise determining that the reference image to which the candidate MV is directed is a non-specific reference image based on a frame mark of the reference image to which the candidate MV is directed.
選択可能には、前記MV候補リストは、以下のうちの少なくとも一つの候補MVを含むことができ、前記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補MV、非特定参照画像に対して得られたマージ候補MV、非特定参照画像から補間により得られたMV、及び前記現在のブロックの非特定参照画像に対する上方隣接MVと左側隣接MVである。 Selectably, said MV candidate list may comprise at least one of the following candidate MVs obtained for a non-specific reference image when said current image block is in Advanced Motion Vector Prediction AMVP mode: the original AMVP candidate MV obtained for the non-specific reference picture, the merge candidate MV obtained for the non-specific reference picture, the MV obtained by interpolation from the non-specific reference picture, and the upper and left neighbor MVs for the non-specific reference picture of the current block. It is a music video.
選択可能には、前記MV候補リストに基づいて、前記初期MVを確定することは、双方向マッチング法とテンプレートマッチング法とのうちの少なくともの一つに基づいて、前記MV候補リストにおける候補MVに対応する歪みコストを確定することと、前記MV候補リストにおける歪みコストが最も小さいMVを前記初期MVとすることと、を含むことができる。 Optionally, determining the initial MVs based on the MV candidate list includes determining candidate MVs in the MV candidate list based on at least one of a bidirectional matching method and a template matching method. determining a corresponding distortion cost; and taking the MV with the lowest distortion cost in the MV candidate list as the initial MV.
選択可能には、前記スケーリング後のMVを修正し、修正後のMVを得ることは、前記現在の画像ブロックにサブMV候補リストを生成し、前記サブMV候補リストには前記スケーリング後のMVを含み、前記サブMV候補リストから歪みコストが最も小さいMVを前記修正後のMVとして確定することを含むことができる。 Optionally, modifying the scaled MV to obtain a modified MV generates a sub-MV candidate list for the current image block, wherein the sub-MV candidate list includes the scaled MV. and determining the MV with the lowest distortion cost from the sub-MV candidate list as the modified MV.
選択可能には、前記初期MVは、第1初期MV、及び第2初期MVを含み、前記方法は、前記第1初期MV、及び前記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が特定参照画像である場合、前記第1初期MV、及び前記第2初期MVのスケーリング比率をいずれも1にセットし、前記第1初期MV、及び前記第2初期MVに基づいて、前記現在の画像ブロックに動き補償を行うことと、前記第1初期MV、及び前記第2初期MVが指向する参照画像がいずれも非特定参照画像である場合、前記第1初期MVのスケーリング比率、及び前記第2初期MVのスケーリング比率を確定し、前記第1初期MVのスケーリング比率に基づいて、前記第1初期MVをスケーリングし、前記第2初期MVのスケーリング比率に基づいて、前記第2初期MVをスケーリングし、前記スケーリング後の第1初期MV、及び前記スケーリング後の第2初期MVに基づいて、前記現在の画像ブロックに動き補償を行うこととのうちの少なくとも一つを含む。 Selectably, said initial MV comprises a first initial MV and a second initial MV, and said method is directed to at least one of said first initial MV and said second initial MV. When the reference image is a specific reference image, both the scaling ratios of the first initial MV and the second initial MV are set to 1, and based on the first initial MV and the second initial MV, the performing motion compensation on a current image block; scaling the first initial MV if the reference images to which the first initial MV and the second initial MV are directed are both non-specific reference images; and determining a scaling ratio of the second initial MV; scaling the first initial MV based on the scaling ratio of the first initial MV; and scaling the second initial MV based on the scaling ratio of the second initial MV and performing motion compensation on the current image block based on the first scaled initial MV and the second scaled initial MV.
選択可能には、前記スケーリング後の第1初期MV、及び前記スケーリング後の第2初期MVに基づいて、前記現在の画像ブロックに動き補償を行うことは、第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、前記第1参照画像ブロックは前記スケーリング後の第1初期MVに対応し、かつ第2参照画像に属し、前記第2参照画像ブロックは前記スケーリング後の第2初期MVに対応し、かつ第1参照画像に属し、前記第1参照画像は、前記第1初期MVが指向する参照画像であり、前記第2参照画像は、前記第2初期MVが指向する参照画像であることと、前記テンプレートに基づいて、前記第1初期MV、及び前記第2初期MVを修正し、前記修正後の第1MV、及び前記修正後の第2MVを得ることと、を含む。 Selectably, performing motion compensation on the current image block based on the first scaled initial MV and the second scaled initial MV comprises a first reference image block and a second reference image block. generating a template based on image blocks, wherein said first reference image block corresponds to said first initial MV after scaling and belongs to a second reference image block, said second reference image block being said scaled corresponding to a later second initial MV and belonging to a first reference image, said first reference image being a reference image to which said first initial MV is directed, said second reference image being said second initial MV and modifying the first initial MV and the second initial MV based on the template to obtain the modified first MV and the modified second MV. ,including.
選択可能には、前記テンプレートに基づいて、前記第1初期MV、及び前記第2初期MVを修正し、前記修正後の第1MV、前記修正後の第2MVを得ることは、N個の第3参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ前記第1参照画像に属することと、M個の第4参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ前記第2参照画像に属することと、前記マッチング結果に基づいて、前記N個の第3初期MVから一つの第3初期MVを選択し、及び前記M個の第4初期MVから一つの第4初期MVを選択し、前記一つの第3初期MV、及び前記一つの第4初期MVを前記現在の画像ブロックのMVとし、又は前記現在の画像ブロックのMVを確定することに用いることと、を含む。 Selectably, modifying the first initial MV and the second initial MV based on the template to obtain the modified first MV and the modified second MV comprises N third using reference image blocks to match the template respectively, wherein the N third reference image blocks correspond to N third initial MVs and belong to the first reference image; , using M fourth reference image blocks to respectively match the template, wherein the M fourth reference image blocks correspond to M fourth initial MVs, and the second selecting one third initial MV from the N third initial MVs and selecting one fourth initial MV from the M fourth initial MVs based on belonging to the reference image and the matching result; selecting and taking the one third initial MV and the one fourth initial MV as the MV of the current image block or using them to determine the MV of the current image block.
選択可能には、前記第3初期MVは、前記第1初期MVを含むことができ、前記第4初期MVは、前記第2初期MVを含むことができる。 Selectably, the third initial MV may comprise the first initial MV and the fourth initial MV may comprise the second initial MV.
選択可能には、前記N個の第3初期MVにおける少なくとも一部の初期MVは、前記第1初期MVに基づいて偏移して得られ、前記M個の第4初期MVにおける少なくとも一部の初期MVは、前記第2初期MVに基づいて偏移して得られたものであってもよい。 Selectably, at least some initial MVs in the N third initial MVs are obtained by shifting based on the first initial MVs, and at least some initial MVs in the M fourth initial MVs are The initial MV may be obtained by shifting based on the second initial MV.
選択可能には、前記Nは、前記Mに等しくてよい。 Optionally, said N may be equal to said M.
選択可能には、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの後方向フレームであり、又は、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの前方向フレームである。 Selectably, said first reference image is a forward frame of said current image block and said second reference image is a backward frame of said current image block, or said first reference image. is the forward frame of the current image block, and the second reference image is the forward frame of the current image block.
上述の選択可能な実施形態は、方法100の詳細に類似して実現できることを理解するものとし、ここではこれ以上説明しない。
It is to be understood that the alternative embodiments described above can be implemented analogously to the details of
図10は、本出願の一つの実施例の画像動き補償装置1000の概略的フレーム図である。図10に示すように、画像動き補償装置1000は、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリ1001と、
前記少なくとも一つのメモリにアクセスし、かつ前記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサ1002と、を含み、操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
前記初期MVのスケーリング比率を確定し、ここで、前記初期MVが特定参照画像を指向する場合、前記初期MVのスケーリング比率は、1であることと、
前記初期MVのスケーリング比率に基づいて、前記初期MVをスケーリングすることと、
前記スケーリング後のMVに基づいて、前記現在の画像ブロックに動き補償を行うことと、である。
FIG. 10 is a schematic frame diagram of an image motion compensation apparatus 1000 of one embodiment of the present application. As shown in FIG. 10, the image motion compensation device 1000
at least one memory 1001 for storing computer-executable commands;
and at least one
obtaining an initial motion vector MV for the current image block;
determining a scaling ratio of the initial MV, wherein the scaling ratio of the initial MV is 1 if the initial MV is directed to a particular reference image;
scaling the initial MV based on a scaling ratio of the initial MV;
and performing motion compensation on the current image block based on the scaled MV.
いくつかの実施例において、前記プロセッサ1002が前記スケーリング後のMVに基づいて、前記現在の画像ブロックに動き補償を行うことは、
前記スケーリング後のMVを修正し、修正後のMVを得ることと、
前記修正後のMVに基づいて、前記現在の画像ブロックに動き補償を行うことと、を含む。
In some embodiments, the
modifying the scaled MV to obtain a modified MV;
performing motion compensation on the current image block based on the modified MV.
いくつかの実施例において、前記プロセッサ1002が前記現在の画像ブロックの初期動きベクトルMVを取得することは、
前記現在の画像ブロックのMV候補リストを取得することと、
前記MV候補リストに基づいて、前記初期MVを確定することと、を含む。
In some embodiments, said
obtaining an MV candidate list for the current image block;
determining the initial MV based on the MV candidate list.
いくつかの実施例において、前記MV候補リストにおけるいずれかの候補MVが指向する参照画像は、非特定参照画像である。 In some embodiments, the reference image to which any candidate MV in said MV candidate list is directed is a non-specific reference image.
いくつかの実施例において、前記プロセッサ1002が前記現在の画像ブロックのMV候補リストを取得することは、
前記MV候補リストに加えるための候補MVを確定し、前記候補MVが指向する参照画像が非特定参照画像である場合、前記候補MVを前記MV候補リストに加えることを含む。
In some embodiments, said
determining a candidate MV for adding to the MV candidate list; and adding the candidate MV to the MV candidate list if a reference image to which the candidate MV is directed is a non-specific reference image.
いくつかの実施例において、前記プロセッサ1002は、さらに、
前記候補MVが指向する参照画像のフレームマークに基づいて、前記候補MVが指向する参照画像が非特定参照画像であると確定するためのものである。
In some examples, the
It is for determining that the reference image to which the candidate MV is directed is a non-specific reference image based on the frame mark of the reference image to which the candidate MV is directed.
いくつかの実施例において、前記MV候補リストは、
前記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補MV、
非特定参照画像に対して得られたマージ候補MV、
非特定参照画像から補間により得られたMV、及び
前記現在のブロックの非特定参照画像に対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む。
In some embodiments, the MV candidate list includes:
an original AMVP candidate MV obtained for a non-specific reference image if said current image block is in advanced motion vector prediction AMVP mode;
merge candidate MVs obtained for non-specific reference images,
an MV obtained by interpolation from a non-specific reference picture; and at least one candidate MV among an upper neighboring MV and a left neighboring MV for the non-specific reference picture of the current block.
いくつかの実施例において、前記プロセッサ1002が前記MV候補リストに基づいて、前記初期MVを確定することは、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、前記MV候補リストにおける候補MVに対応する歪みコストを確定することと、
前記MV候補リストにおける歪みコストが最も小さいMVを前記初期MVとすることと、を含む。
In some embodiments, determining the initial MV based on the MV candidate list by the
determining distortion costs corresponding to candidate MVs in the MV candidate list based on at least one of a bidirectional matching method and a template matching method;
and setting the MV with the lowest distortion cost in the MV candidate list as the initial MV.
いくつかの実施例において、前記プロセッサ1002が前記スケーリング後のMVを修正し、修正後のMVを得ることは、
前記現在の画像ブロックにサブMV候補リストを生成し、前記サブMV候補リストには前記スケーリング後のMVを含むことと、
前記サブMV候補リストから歪みコストが最も小さいMVを前記修正後のMVとして確定することと、を含む。
In some embodiments, the
generating a sub-MV candidate list for the current image block, the sub-MV candidate list including the scaled MV;
determining the MV with the lowest distortion cost from the sub-MV candidate list as the modified MV.
いくつかの実施例において、前記初期MVは、第1初期MV、及び第2初期MVを含み、前記プロセッサ1002は、具体的に、
前記第1初期MV、及び前記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が特定参照画像である場合、前記第1初期MV、及び前記第2初期MVのスケーリング比率をいずれも1にセットし、前記第1初期MV、及び前記第2初期MVに基づいて前記現在の画像ブロックに動き補償を行うことと、
前記第1初期MV、及び前記第2初期MVが指向する参照画像がいずれも非特定参照画像である場合、前記第1初期MVのスケーリング比率、及び前記第2初期MVのスケーリング比率を確定し、前記第1初期MVのスケーリング比率に基づいて、前記第1初期MVをスケーリングし、前記第2初期MVのスケーリング比率に基づいて、前記第2初期MVをスケーリングし、前記スケーリング後の第1初期MV、及び前記スケーリング後の第2初期MVに基づいて、前記現在の画像ブロックに動き補償を行うこととのうちの少なくとも一つのためのものである。
In some embodiments, the initial MVs include a first initial MV and a second initial MV, and the
When the reference image to which at least one of the first initial MV and the second initial MV is directed is a specific reference image, the scaling ratio of the first initial MV and the second initial MV also set to 1 and performing motion compensation on the current image block based on the first initial MV and the second initial MV;
If the reference images to which the first initial MV and the second initial MV are directed are both non-specific reference images, determine the scaling ratio of the first initial MV and the scaling ratio of the second initial MV; scaling the first initial MV based on the scaling ratio of the first initial MV, scaling the second initial MV based on the scaling ratio of the second initial MV, and scaling the first initial MV and performing motion compensation on the current image block based on the second initial MV after scaling.
いくつかの実施例において、前記プロセッサ1002が前記スケーリング後の第1初期MV、及び前記スケーリング後の第2初期MVに基づいて、前記現在の画像ブロックに動き補償を行うことは、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、前記第1参照画像ブロックは前記スケーリング後の第1初期MVに対応し、かつ第2参照画像に属し、前記第2参照画像ブロックは前記スケーリング後の第2初期MVに対応し、かつ第1参照画像に属し、前記第1参照画像は、前記第1初期MVが指向する参照画像であり、前記第2参照画像は、前記第2初期MVが指向する参照画像であることと、
前記テンプレートに基づいて、前記第1初期MV、及び前記第2初期MVを修正し、前記修正後の第1MV、及び前記修正後の第2MVを得ることと、を含む。
In some embodiments, the
generating a template based on a first reference image block and a second reference image block, wherein said first reference image block corresponds to said first initial MV after scaling and belongs to a second reference image; , said second reference image block corresponds to said second initial MV after scaling and belongs to a first reference image, said first reference image being a reference image to which said first initial MV is directed, said first 2, the reference image is a reference image to which the second initial MV is directed;
modifying the first initial MV and the second initial MV based on the template to obtain the modified first MV and the modified second MV.
いくつかの実施例において、前記プロセッサ1002が前記テンプレートに基づいて、前記第1初期MV、及び前記第2初期MVを修正し、前記修正後の第1MV、及び前記修正後の第2MVを得ることは、
N個の第3参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ前記第1参照画像に属することと、
M個の第4参照画像ブロックを利用して、それぞれ前記テンプレートとマッチングし、ここで、前記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ前記第2参照画像に属することと、
前記マッチング結果に基づいて、前記N個の第3初期MVから一つの第3初期MVを選択し、及び前記M個の第4初期MVから一つの第4初期MVを選択し、前記一つの第3初期MV、及び前記一つの第4初期MVを前記現在の画像ブロックのMVとし、又は前記現在の画像ブロックのMVを確定することに用いることと、を含む。
In some embodiments, the
N third reference image blocks are used to respectively match the template, wherein the N third reference image blocks correspond to N third initial MVs and the first reference image blocks belonging to the image;
M fourth reference image blocks are used to respectively match the template, wherein the M fourth reference image blocks correspond to M fourth initial MVs and the second reference belonging to the image;
based on the matching result, selecting one third initial MV from the N third initial MVs, selecting one fourth initial MV from the M fourth initial MVs, and selecting the one fourth initial MV from the M fourth initial MVs; 3 initial MVs and the one fourth initial MV as the MV of the current image block or using it to determine the MV of the current image block.
いくつかの実施例において、前記第3初期MVは、前記第1初期MVを含み、前記第4初期MVは、前記第2初期MVを含む。 In some embodiments, the third initial MV comprises the first initial MV, and the fourth initial MV comprises the second initial MV.
いくつかの実施例において、前記N個の第3初期MVにおける少なくとも一部の初期MVは、前記第1初期MVに基づいて偏移して得られ、前記M個の第4初期MVにおける少なくとも一部の初期MVは、前記第2初期MVに基づいて偏移して得られたものである。 In some embodiments, at least some of the N third initial MVs are shifted based on the first initial MVs, and at least one of the M fourth initial MVs is The initial MV of the part is obtained by shifting based on the second initial MV.
いくつかの実施例において、前記Nは、前記Mに等しい。 In some embodiments, said N is equal to said M.
いくつかの実施例において、前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの後方向フレームであり、又は、
前記第1参照画像は、前記現在の画像ブロックの前方向フレームであり、前記第2参照画像は、前記現在の画像ブロックの前方向フレームである。
In some embodiments, the first reference image is a forward frame of the current image block and the second reference image is a backward frame of the current image block, or
The first reference image is the forward frame of the current image block and the second reference image is the forward frame of the current image block.
いくつかの実施例において、前記特定参照画像は、長期参照画像、合成フレーム、出力されないフレームのうちの少なくとも一つを含む。 In some embodiments, the specific reference image includes at least one of a long-term reference image, a synthesized frame, and a non-output frame.
いくつかの実施例において、前記プロセッサ1002は、さらに、
前記参照画像が出力されないフレームであると確定し、かつ前記参照画像が合成フレームであるとさらに確定する場合、前記参照画像を前記特定参照画像であると確定するためのものである。
In some examples, the
This is for determining that the reference image is the specific reference image when determining that the reference image is a frame that is not output and further determining that the reference image is a composite frame.
いくつかの実施例において、前記非特定参照画像は、短期参照画像を含む。 In some embodiments, the non-specific reference images include short-term reference images.
画像動き補償装置1000は、さらに、対応するソフトウェアモジュールにより実現できることを理解するものとし、ここではこれ以上説明しない。 It should be understood that the image motion compensation device 1000 can be further implemented by corresponding software modules, and will not be further described here.
本出願の各実施例の装置は、メモリ、及びプロセッサにより実現でき、各メモリは、本出願の実施例の方法を実行するためのコマンドを記憶するためのものであり、プロセッサは、上述コマンドを実行し、装置が本出願の各実施例の方法を実行するようにすることを理解されたい。 The apparatus of each embodiment of the present application can be realized by a memory and a processor, each memory is for storing commands for executing the method of the embodiments of this application, and the processor executes the above commands. It should be understood to implement and cause the apparatus to perform the method of each embodiment of the present application.
本出願の実施例において言及するプロセッサは、CPU(Central Processing Unit、CPU)であってよく、その他の汎用プロセッサ、デジタルシグナルプロセッサ(Digital Signal Processor、DSP)、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、既成のフィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA)、又はその他のプログラマブルロジックデバイス、ディスクリートゲート、又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントなどであってよいことを理解されたい。汎用プロセッサは、マイクロプロセッサであってよく、又はこのプロセッサは、いずれかの通常のプロセッサなどであってよい。 The processor referred to in the examples of the present application may be a CPU (Central Processing Unit, CPU), other general-purpose processors, Digital Signal Processors (DSP), Application Specific Integrated Circuits , ASIC), off-the-shelf Field Programmable Gate Array (FPGA), or other programmable logic device, discrete gate or transistor logic device, discrete hardware component, or the like. A general-purpose processor may be a microprocessor, or the processor may be any conventional processor, and so on.
本出願の実施例で言及するメモリは、揮発性メモリ、若しくは不揮発性メモリであってよく、又は揮発性及び不揮発性メモリの両者を含むことができることをさらに理解されたい。ここで、不揮発性メモリは、リードオンリメモリ(Read-Only Memory、ROM)、プログラマブルリードオンリメモリ(Programmable ROM、PROM)、消去可能プログラマブルリードオンリメモリ(Erasable PROM、EPROM)、電気的消去可能プログラマブルリードオンリメモリ(Electrically EPROM、EEPROM)、又はフラッシュメモリであってよい。揮発性メモリは、ランダムアクセスメモリ(Random Access Memory、RAM)であってよく、外部高速バッファメモリとして用いられる。例示的だが限定しない説明により、多くの形態のRAMを用いることができ、例えば、スタティックラム(Static RAM、SRAM)、ダイナミックランダムアクセスメモリ(Dynamic RAM、DRAM)、シンクロナスDRAM(Synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(Double Data Rate SDRAM、DDR SDRAM)、エンハンストSDRAM(Enhanced SDRAM、ESDRAM)、シンクリンクDRAM(Synchlink DRAM、SLDRAM)、及びダイレクトラムバスRAM(Direct Rambus RAM、DR RAM)である。 It should be further appreciated that the memory referred to in the examples of the present application may be volatile memory, non-volatile memory, or may include both volatile and non-volatile memory. Here, the non-volatile memory includes read-only memory (ROM), programmable read-only memory (ROM, PROM), erasable programmable read-only memory (Erasable PROM, EPROM), and electrically erasable programmable read. It may be only memory (Electrically EPROM, EEPROM) or flash memory. Volatile memory can be Random Access Memory (RAM), which is used as an external high speed buffer memory. By way of example but not limitation, many forms of RAM can be used, such as Static RAM (SRAM), Dynamic Random Access Memory (DRAM), Synchronous DRAM (SDRAM). , Double Data Rate SDRAM (DDR SDRAM), Enhanced SDRAM (ESDRAM), Synchlink DRAM (SLDRAM), and Direct Rambus RAM (DR RAM).
プロセッサが汎用プロセッサ、DSP、ASIC、FPGA、又はその他のプログラマブルロジックデバイス、ディスクリートゲート、又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントの場合、メモリ(記憶モジュール)は、プロセッサに集積されることを説明する必要がある。 If the processor is a general-purpose processor, DSP, ASIC, FPGA, or other programmable logic device, discrete gate or transistor logic device, discrete hardware component, memory (storage module) is integrated into the processor. There is
本文で説明されるメモリは、これらの、及び任意のその他の適切なタイプのメモリを含むが、それに限定しないことに留意するものとする。 It should be noted that the memory discussed herein includes, but is not limited to, these and any other suitable types of memory.
本出願の実施例は、コンピュータで読み取り可能な記憶媒体をさらに提供し、これにはコマンドが記憶され、コマンドがコンピュータで運用される際、コンピュータに上述の各方法の実施例の方法を実行させる。 Embodiments of the present application further provide a computer-readable storage medium on which commands are stored and which, when executed by the computer, cause the computer to perform the methods of each of the method embodiments described above. .
本出願の実施例は、コンピュータデバイスをさらに提供し、このコンピュータデバイスは、上述コンピュータで読み取り可能な記憶媒体を含む。 Embodiments of the present application further provide a computing device, which includes the computer-readable storage medium described above.
本出願の実施例は、符号化デバイスをさらに提供し、この符号化デバイスは、画像動き補償装置70と、画像処理装置80と、画像動き補償装置1000とのうちの少なくとも一つを含む。 Embodiments of the present application further provide an encoding device, which includes at least one of an image motion compensation device 70, an image processing device 80, and an image motion compensation device 1000. FIG.
本出願の実施例は、復号化デバイスをさらに提供し、この復号化デバイスは、画像動き補償装置70と、画像処理装置80と、画像動き補償装置1000とのうちの少なくとも一つを含む。 Embodiments of the present application further provide a decoding device, which includes at least one of an image motion compensator 70 , an image processor 80 and an image motion compensator 1000 .
本出願の実施例は、航空機に応用でき、特に無人機分野である。 Embodiments of the present application are applicable to aircraft, particularly in the field of unmanned aerial vehicles.
本出願の各実施例の電気回路、サブ電気回路、サブユニットの区分は、概略的にすぎないことを理解されたい。当業者は、本文で開示される実施例により説明される各例示的な電気回路、サブ電気回路、及びサブユニットは、分解、又は組み合わせることができることを認識できる。 It should be understood that the division of electrical circuits, sub-circuits and sub-units in each example of the present application is only schematic. Those skilled in the art can recognize that each exemplary electrical circuit, sub-circuit, and sub-unit described by the embodiments disclosed herein can be disassembled or combined.
上述の実施例において、全部又は部分的に、ソフトウェア、ハードウェア、ファームウェア、又はその他の任意の組み合わせにより実現できる。ソフトウェアを使用して実現する場合、全部又は部分的にコンピュータプログラム製品の形態により実現できる。コンピュータプログラム製品は、一つ又は複数のコンピュータコマンドを含む。コンピュータでコンピュータコマンドをロード又は実行する場合、全部又は部分的に、本出願の実施例に基づくプロセス又は機能を生成する。コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、又はその他のプログラミング可能な装置でもよい。コンピュータコマンドは、コンピュータで読み取り可能な記憶媒体に記憶でき、又はコンピュータで読み取り可能な記憶媒体から他のコンピュータで読み取り可能な記憶媒体へ伝送でき、例えば、コンピュータコマンドは、サイト、コンピュータ、サーバ、又はデータセンタから有線(例えば、同軸ケーブル、光ファイバ、デジタル加入者線(Digital Subscriber Line、DSL))、又は無線(例えば、赤外線、無線、マイクロ波など)の方法により他のサイト、コンピュータ、サーバ、又はデータセンタへ伝送できる。コンピュータで読み取り可能な記憶媒体は、コンピュータでアクセス可能ないずれかの使用可能な媒体であってよく、又は一つ若しくは複数の使用可能な媒体が集積されたサーバ、データセンタなどを含むデータ記憶デバイスであってよい。使用可能な媒体は、磁性媒体(例えば、フロッピーディスク、ハードディスク、磁気テープ)、光媒体(例えば、DVD(Digital Video Disc、DVD))、又は半導体媒体(例えば、SSD(Solid State Disk、SSD))などであってよい。 The embodiments described above may be implemented in whole or in part by software, hardware, firmware, or any other combination. When implemented using software, it can be implemented in whole or in part in the form of a computer program product. A computer program product includes one or more computer commands. When a computer loads or executes computer commands, it creates processes or functions, in whole or in part, based on the embodiments of the present application. The computer may be a general purpose computer, special purpose computer, computer network, or other programmable device. Computer commands can be stored on a computer readable storage medium or transmitted from a computer readable storage medium to another computer readable storage medium, e.g., computer commands can be stored on a site, computer, server, or from the data center to other sites, computers, servers, Or it can be transmitted to the data center. A computer readable storage medium can be any available medium that can be accessed by a computer or data storage device including one or more available media integrated servers, data centers, etc. can be Usable media include magnetic media (e.g., floppy disk, hard disk, magnetic tape), optical media (e.g., DVD (Digital Video Disc, DVD)), or semiconductor media (e.g., SSD (Solid State Disk, SSD)). and so on.
本明細書全体において言及される「一つの実施例」又は「実施例」は、実施例に関連する特定の特徴、構造、又は特性が本出願の少なくとも一つの実施例に含まれることを意味することを理解されたい。従って、本明細書全体の各箇所における「一つの実施例において」、又は「実施例において」は、同じ実施例を指すとは限らない。このほか、これらの特定の特徴、構造、又は特性は、任意の適切な方法で一つ又は複数の実施例に結合されることができる。 References to "an embodiment" or "an embodiment" throughout this specification mean that the particular feature, structure, or characteristic associated with the embodiment is included in at least one embodiment of this application. Please understand. Thus, the appearances of "in one embodiment" or "in an embodiment" in various places throughout this specification are not necessarily all referring to the same embodiment. In addition, these specific features, structures or properties may be combined in any suitable way in one or more embodiments.
本出願の各実施例において、上述の各過程の番号の大きさは、実行順序の前後を意味するわけではなく、各過程の実行順序は、その機能及び内在的なロジックにより確定され、本出願の実施例の実施過程にいかなる制限を行うものではないことを理解されたい。 In each embodiment of the present application, the magnitude of the number of each process described above does not mean the order of execution, the order of execution of each process is determined by its function and inherent logic, and the present application It should be understood that no limitation is imposed on the implementation of the examples.
本出願の実施例における「Aに対応するB」とは、BがAに関連し、Aに基づいて、Bを確定できることを示すことを理解されたい。但し、Aに基づいて、Bを確定するとは、AによってのみBを確定することを意味するわけではなく、さらに、Aとその他の情報とのうちの少なくとも一つに基づいて、Bを確定できることを理解されたい。 It should be understood that "B corresponding to A" in the examples of this application indicates that B is related to A and that B can be determined based on A. However, determining B based on A does not mean determining B only by A, and furthermore, B can be determined based on at least one of A and other information. Please understand.
本文における用語「少なくとも一つの」は、関連対象の関連関係を説明するにすぎず、3つの関係が存在でき、例えば、AとBとのうちの少なくとも一つは、Aが単独で存在する、AとBが同時に存在する、Bが単独で存在する、の3つの状況があることを理解されたい。このほか、本文における記号「/」は通常、前後の関連対象が「又は」の関係であることを示す。 The term "at least one" in the text only describes the relationship of related objects, there can be three relationships, for example, at least one of A and B, A exists alone, It should be understood that there are three situations where A and B exist together and B exists alone. In addition, the symbol "/" in the text usually indicates that the related objects before and after are in an "or" relationship.
当業者は、本文で開示される実施例により説明される各例示的なユニット、及びアルゴリズムステップを踏まえ、電子ハードウェア、又はコンピュータソフトウェアと電子ハードウェアとの組み合わせにより実現できることを認識できる。これらの機能が最終的にハードウェア、又はソフトウェアの方法で実行されるかは、技術的解決手段の特定の応用、及び設計上の制約条件により決定される。当業者は、各特定の応用に異なる方法を使用することで説明される機能を実現できるが、このような実現は、本出願の範囲を超えると認識されるべきではない。 Those skilled in the art can recognize that each exemplary unit and algorithmic step described by the embodiments disclosed herein can be implemented in electronic hardware or a combination of computer software and electronic hardware. Whether these functions are ultimately implemented in a hardware or software manner is determined by the specific application of the technical solution and design constraints. Skilled artisans may implement the described functionality using different methods for each particular application, but such implementations should not be recognized as beyond the scope of the present application.
当業者は、説明しやすく、簡潔に説明するために、上述の説明されるシステム、装置、及びユニットの具体的な作動過程が前述の方法の実施例における対応過程を参照できることを明確に理解でき、ここではこれ以上説明しない。 Those skilled in the art can clearly understand that the specific working steps of the above-described systems, devices, and units can refer to the corresponding steps in the foregoing method embodiments for ease of explanation and conciseness. , will not be described further here.
本出願により提供される複数の実施例において、開示されるシステム、装置、及び方法は、その他の方法により実現できることを理解されたい。例えば、上述に説明された装置の実施例は、例示的にすぎない。例えば、前記ユニットの区分は、ロジック機能の区分にすぎず、実際に実現する場合には、他の分割方法があってよく、例えば、複数のユニット、若しくはコンポーネントは、結合でき、若しくは他のシステムに集積でき、又はいくつかの特徴は無視でき、若しくは実行しないことができる。また、示された、若しくは検討された互いの間の結合、又は直接的な結合、又は通信接続は、いくつかのインターフェースによることができ、装置、若しくはユニットの間接的な結合、又は通信接続は、電気的であってよく、機械、又はその他の形態であってよい。 It should be appreciated that in the multiple embodiments provided by this application, the disclosed systems, devices, and methods can be implemented in other ways. For example, the apparatus embodiments described above are merely exemplary. For example, the division of the units is only the division of logic functions, and in actual implementation, there may be other division methods, such as multiple units or components can be combined, or other systems or some features can be ignored or not implemented. Also, the shown or discussed couplings between each other or direct couplings or communication connections may be through some interfaces, and the indirect couplings or communication connections of devices or units may be , electrical, mechanical, or otherwise.
前記分離部材として説明されたユニットは、物理的に分割されてもよく、又は物理的に分割されなくてもよく、ユニットとして表示される部材は、物理ユニットでもよく、又は物理ユニットでなくてもよく、すなわち一つの場所に位置でき、又は複数のネットワークユニットに分布されてもよい。実際の必要に応じてそのうちの一部又は全部のユニットを選択して本実施例の解決手段の目的を実現できる。 The unit described as the separate member may or may not be physically divided, and the member indicated as a unit may or may not be a physical unit. ie it can be located in one place or it can be distributed over several network units. Some or all of the units can be selected according to actual needs to achieve the purpose of the solution of the present embodiment.
このほか、本出願の各実施例における各機能ユニットは、一つの処理ユニットに集積でき、各ユニットが単独で物理的に存在することもでき、二つ又は二つ以上のユニットが一つのユニットに集積されてもよい。 In addition, each functional unit in each embodiment of the present application can be integrated into one processing unit, each unit can physically exist alone, and two or more units can be integrated into one unit. may be integrated.
以上に述べたのは、本出願の具体的な実施形態に過ぎないが、本出願の保護範囲は、これに限定されるわけではなく、当分野を熟知する当業者はいずれも本出願により開示される技術範囲内において、変更又は置換を容易に想到でき、いずれも本出願の保護範囲内に含まれるものとする。従って、本出願の保護範囲は、記載された特許請求の範囲の保護範囲に準じるものとする。
(項目1)
画像動き補償方法であって、
現在の画像ブロックの初期動きベクトルMVを取得することと、
上記初期MVが指向する参照画像が特定参照画像である場合、上記初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記初期MVが指向する参照画像が非特定参照画像である場合、上記初期MVを修正し、修正後のMVを得て、上記修正後のMVに基づいて上記現在の画像ブロックに動き補償を行うことと、を含む画像動き補償方法。
(項目2)
上記初期MVが指向する参照画像が非特定参照画像である場合、上記初期MVを修正し、修正後のMVを得て、上記修正後のMVに基づいて上記現在の画像ブロックに動き補償を行うことは、
上記現在の画像ブロックのMV候補リストを取得し、上記MV候補リストにおけるいずれかの候補MVが指向する参照画像が非特定参照画像であることと、
上記MV候補リストに基づいて、上記初期MVを確定することと、
上記初期MVを修正し、修正後のMVを得ることと、
上記修正後のMVに基づいて、上記現在の画像ブロックに動き補償を行うことと、を含む項目1に記載の方法。
(項目3)
上記現在の画像ブロックのMV候補リストを取得することは、
上記MV候補リストに加えるための候補MVを確定し、上記候補MVが指向する参照画像が非特定参照画像である場合、上記候補MVを上記MV候補リストに加えることを含む項目2に記載の方法。
(項目4)
上記方法は、
上記候補MVが指向する参照画像のフレームマークに基づいて、上記候補MVが指向する参照画像が非特定参照画像であると確定することをさらに含む項目3に記載の方法。
(項目5)
上記MV候補リストは、
上記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補MV、
非特定参照画像に対して得られたマージ候補MV、
非特定参照画像から補間により得られたMV、及び
上記現在のブロックの非特定参照画像に対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む項目2~4のいずれか一項に記載の方法。
(項目6)
上記MV候補リストに基づいて、上記初期MVを確定することは、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、上記MV候補リストにおける候補MVに対応する歪みコストを確定することと、
上記MV候補リストにおける歪みコストが最も小さいMVを上記初期MVとすることと、を含む項目5に記載の方法。
(項目7)
上記初期MVを修正し、修正後のMVを得ることは、
上記現在の画像ブロックにサブMV候補リストを生成し、上記サブMV候補リストには上記初期MVを含むことと、
上記サブMV候補リストから歪みコストが最も小さいMVを上記修正後のMVとして確定することと、を含む項目6に記載の方法。
(項目8)
上記初期MVは、第1初期MV、及び第2初期MVを含み、
上記初期MVが指向する参照画像が特定参照画像である場合、上記初期MVに基づいて上記現在の画像ブロックに動き補償を行うことは、
上記第1初期MV、及び上記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が特定参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記第1初期MV、及び上記第2初期MVが指向する参照画像がいずれも非特定参照画像である場合、上記第1初期MV、及び上記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得て、上記修正後の第1MV、及び上記修正後の第2MVに基づいて上記現在の画像ブロックに動き補償を行うことと、を含む項目1に記載の方法。
(項目9)
上記第1初期MV、及び上記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得ることは、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、上記第1参照画像ブロックは、上記第1初期MVに対応し、かつ第1参照画像に属し、上記第2参照画像ブロックは、上記第2初期MVに対応し、かつ第2参照画像に属することと、
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることと、を含む項目8に記載の方法。
(項目10)
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることは、
N個の第3参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ上記第1参照画像に属することと、
M個の第4参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ上記第2参照画像に属することと、
上記マッチング結果に基づいて、上記N個の第3初期MVから一つの第3初期MVを選択し、及び上記M個の第4初期MVから一つの第4初期MVを選択し、上記一つの第3初期MV、及び上記一つの第4初期MVを上記現在の画像ブロックのMVとし、又は上記現在の画像ブロックのMVを確定することに用いることと、を含む項目9に記載の方法。
(項目11)
上記第3初期MVは、上記第1初期MVを含み、上記第4初期MVは、上記第2初期MVを含む項目10に記載の方法。
(項目12)
上記N個の第3初期MVにおける少なくとも一部の初期MVは、上記第1初期MVに基づいて偏移して得られ、上記M個の第4初期MVにおける少なくとも一部の初期MVは、上記第2初期MVに基づいて偏移して得られたものである項目10又は11に記載の方法。
(項目13)
上記Nは、上記Mに等しい項目10~12のいずれか一項に記載の方法。
(項目14)
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの後方向フレームであり、又は、
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの前方向フレームである項目10~13のいずれか一項に記載の方法。
(項目15)
上記特定参照画像は、長期参照画像、合成フレーム、出力されないフレームのうちの少なくとも一つを含む項目1~14のいずれか一項に記載の方法。
(項目16)
上記方法は、
上記参照画像が出力されないフレームであると確定し、上記参照画像が合成フレームであると確定する場合、上記参照画像を上記特定参照画像であると確定することをさらに含む項目1~15のいずれか一項に記載の方法。
(項目17)
上記非特定参照画像は、短期参照画像を含む項目1~16のいずれか一項に記載の方法。
(項目18)
画像動き補償装置であって、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
上記少なくとも一つのメモリにアクセスし、かつ上記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、上記操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
上記初期MVが指向する参照画像が特定参照画像である場合、上記初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記初期MVが指向する参照画像が非特定参照画像である場合、上記初期MVを修正し、修正後のMVを得て、上記修正後のMVに基づいて上記現在の画像ブロックに動き補償を行うことと、である画像動き補償装置。
(項目19)
上記プロセッサは、具体的に、
上記現在の画像ブロックのMV候補リストを取得し、上記MV候補リストにおけるいずれかの候補MVが指向する参照画像が非特定参照画像であり、
上記MV候補リストに基づいて、上記初期MVを確定し、
上記初期MVを修正し、修正後のMVを得て、
上記修正後のMVに基づいて、上記現在の画像ブロックに動き補償を行うためのものである項目18に記載の画像動き補償装置。
(項目20)
上記プロセッサは、さらに、
上記MV候補リストに加えるための候補MVを確定し、上記候補MVが指向する参照画像が非特定参照画像である場合、上記候補MVを上記MV候補リストに加えるためのものである項目19に記載の画像動き補償装置。
(項目21)
上記プロセッサは、さらに、
上記候補MVが指向する参照画像のフレームマークに基づいて、上記候補MVが指向する参照画像が非特定参照画像であると確定するためのものである項目18~20のいずれか一項に記載の画像動き補償装置。
(項目22)
上記MV候補リストは、
上記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補MV、
非特定参照画像に対して得られたマージ候補MV、
非特定参照画像から補間により得られたMV、及び
上記現在のブロックの非特定参照画像に対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む項目21に記載の画像動き補償装置。
(項目23)
上記プロセッサは、具体的に、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、上記MV候補リストにおける候補MVに対応する歪みコストを確定し、
上記MV候補リストにおける歪みコストが最も小さいMVを上記初期MVとするためのものである項目22に記載の画像動き補償装置。
(項目24)
上記プロセッサは、具体的に、
上記現在の画像ブロックにサブMV候補リストを生成し、上記サブMV候補リストには上記初期MVを含み、
上記サブMV候補リストから歪みコストが最も小さいMVを上記修正後のMVとして確定するためのものである項目18~20のいずれか一項に記載の画像動き補償装置。
(項目25)
上記初期MVは、第1初期MV、及び第2初期MVを含み、
上記プロセッサは、具体的に、
上記第1初期MV、及び上記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が特定参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて上記現在の画像ブロックに動き補償を行い、
上記第1初期MV、及び上記第2初期MVが指向する参照画像がいずれも非特定参照画像である場合、上記第1初期MV、及び上記第2初期MVを修正し、修正後の第1MV、及び修正後の第2MVを得て、上記修正後の第1MV、及び上記修正後の第2MVに基づいて上記現在の画像ブロックに動き補償を行うためのものである項目18に記載の画像動き補償装置。
(項目26)
上記プロセッサは、具体的に、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、上記第1参照画像ブロックは、上記第1初期MVに対応し、かつ第1参照画像に属し、上記第2参照画像ブロックは、上記第2初期MVに対応し、かつ第2参照画像に属し、
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得るためのものである項目25に記載の画像動き補償装置。
(項目27)
上記プロセッサは、具体的に、
N個の第3参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ上記第1参照画像に属し、
M個の第4参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ上記第2参照画像に属し、
上記マッチング結果に基づいて、上記N個の第3初期MVから一つの第3初期MVを選択し、及び上記M個の第4初期MVから一つの第4初期MVを選択し、上記一つの第3初期MV、及び上記一つの第4初期MVを上記現在の画像ブロックのMVとし、又は上記現在の画像ブロックのMVを確定することに用いるためのものである項目26に記載の画像動き補償装置。
(項目28)
上記第3初期MVは、上記第1初期MVを含み、上記第4初期MVは、上記第2初期MVを含む項目27に記載の画像動き補償装置。
(項目29)
上記N個の第3初期MVにおける少なくとも一部の初期MVは、上記第1初期MVに基づいて偏移して得られ、上記M個の第4初期MVにおける少なくとも一部の初期MVは、上記第2初期MVに基づいて偏移して得られたものである項目27又は28に記載の画像動き補償装置。
(項目30)
上記Nは、上記Mに等しい項目27~29のいずれか一項に記載の画像動き補償装置。
(項目31)
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの後方向フレームであり、又は、
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの前方向フレームである項目27~30のいずれか一項に記載の画像動き補償装置。
(項目32)
上記特定参照画像は、長期参照画像、合成フレーム、出力されないフレームのうちの少なくとも一つを含む項目18~31のいずれか一項に記載の画像動き補償装置。
(項目33)
上記プロセッサは、さらに、
上記参照画像が出力されないフレームであると確定し、かつ上記参照画像が合成フレームであるとさらに確定する場合、上記参照画像を上記特定参照画像であると確定するためのものである項目18~32のいずれか一項に記載の画像動き補償装置。
(項目34)
上記非特定参照画像は、短期参照画像を含む項目18~33のいずれか一項に記載の画像動き補償装置。
(項目35)
コンピュータで読み取り可能な記憶媒体であって、
これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに項目1~17のいずれか一項に記載の画像動き補償方法を実行させるコンピュータで読み取り可能な記憶媒体。
(項目36)
項目18~34のいずれか一項に記載の画像動き補償装置を含む符号化デバイス。
(項目37)
項目18~34のいずれか一項に記載の画像動き補償装置を含む復号化デバイス。
(項目38)
画像動き補償方法であって、
現在の画像ブロックの初期動きベクトルMVを取得することと、
上記初期MVのスケーリング比率を確定し、ここで、上記初期MVが特定参照画像を指向する場合、上記初期MVのスケーリング比率は、1であることと、
上記初期MVのスケーリング比率に基づいて、上記初期MVをスケーリングすることと、
上記スケーリング後のMVに基づいて上記現在の画像ブロックに動き補償を行うことと、を含む画像動き補償方法。
(項目39)
上記スケーリング後のMVに基づいて上記現在の画像ブロックに動き補償を行うことは、
上記スケーリング後のMVを修正し、修正後のMVを得ることと、
上記修正後のMVに基づいて、上記現在の画像ブロックに動き補償を行うことと、を含む項目38に記載の方法。
(項目40)
上記現在の画像ブロックの初期動きベクトルMVを取得することは、
上記現在の画像ブロックのMV候補リストを取得することと、
上記MV候補リストに基づいて、上記初期MVを確定することと、を含む項目38又は39に記載の方法。
(項目41)
上記MV候補リストにおけるいずれかの候補MVが指向する参照画像は、非特定参照画像である項目40に記載の方法。
(項目42)
上記現在の画像ブロックのMV候補リストを取得することは、
上記MV候補リストに加えるための候補MVを確定し、上記候補MVが指向する参照画像が非特定参照画像である場合、上記候補MVを上記MV候補リストに加えることを含む項目41に記載の方法。
(項目43)
上記方法は、
上記候補MVが指向する参照画像のフレームマークに基づいて、上記候補MVが指向する参照画像が非特定参照画像であると確定することをさらに含む項目42に記載の方法。
(項目44)
上記MV候補リストは、
上記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補MV、
非特定参照画像に対して得られたマージ候補MV、
非特定参照画像から補間により得られたMV、及び
上記現在のブロックの非特定参照画像に対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む項目40~43のいずれか一項に記載の方法。
(項目45)
上記MV候補リストに基づいて、上記初期MVを確定することは、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、上記MV候補リストにおける候補MVに対応する歪みコストを確定することと、
上記MV候補リストにおける歪みコストが最も小さいMVを上記初期MVとすることと、を含む項目44に記載の方法。
(項目46)
上記スケーリング後のMVを修正し、修正後のMVを得ることは、
上記現在の画像ブロックにサブMV候補リストを生成し、上記サブMV候補リストには上記スケーリング後のMVを含むことと、
上記サブMV候補リストから歪みコストが最も小さいMVを上記修正後のMVとして確定することと、を含む項目45に記載の方法。
(項目47)
上記初期MVは、第1初期MV、及び第2初期MVを含み、上記方法は、
上記第1初期MV、及び上記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が特定参照画像である場合、上記第1初期MV、及び上記第2初期MVのスケーリング比率をいずれも1にセットし、上記第1初期MV、及び上記第2初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記第1初期MV、及び上記第2初期MVが指向する参照画像がいずれも非特定参照画像である場合、上記第1初期MVのスケーリング比率、及び上記第2初期MVのスケーリング比率を確定し、上記第1初期MVのスケーリング比率に基づいて、上記第1初期MVをスケーリングし、上記第2初期MVのスケーリング比率に基づいて、上記第2初期MVをスケーリングし、上記スケーリング後の第1初期MV、及び上記スケーリング後の第2初期MVに基づいて、上記現在の画像ブロックに動き補償を行うこととのうちの少なくとも一つを含む項目38に記載の方法。
(項目48)
上記スケーリング後の第1初期MV、及び上記スケーリング後の第2初期MVに基づいて、上記現在の画像ブロックに動き補償を行うことは、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、上記第1参照画像ブロックは上記スケーリング後の第1初期MVに対応し、かつ第2参照画像に属し、上記第2参照画像ブロックは上記スケーリング後の第2初期MVに対応し、かつ第1参照画像に属し、上記第1参照画像は、上記第1初期MVが指向する参照画像であり、上記第2参照画像は、上記第2初期MVが指向する参照画像であることと、
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることと、を含む項目47に記載の方法。
(項目49)
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることは、
N個の第3参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ上記第1参照画像に属することと、
M個の第4参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ上記第2参照画像に属することと、
上記マッチング結果に基づいて、上記N個の第3初期MVから一つの第3初期MVを選択し、及び上記M個の第4初期MVから一つの第4初期MVを選択し、上記一つの第3初期MV、及び上記一つの第4初期MVを上記現在の画像ブロックのMVとし、又は上記現在の画像ブロックのMVを確定することに用いることと、を含む項目47に記載の方法。
(項目50)
上記第3初期MVは、上記第1初期MVを含み、上記第4初期MVは、上記第2初期MVを含む項目49に記載の方法。
(項目51)
上記N個の第3初期MVにおける少なくとも一部の初期MVは、上記第1初期MVに基づいて偏移して得られ、上記M個の第4初期MVにおける少なくとも一部の初期MVは、上記第2初期MVに基づいて偏移して得られたものである項目49又は50に記載の方法。
(項目52)
上記Nは、上記Mに等しい項目49~51のいずれか一項に記載の方法。
(項目53)
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの後方向フレームであり、又は、
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの前方向フレームである項目49~52のいずれか一項に記載の方法。
(項目54)
上記特定参照画像は、長期参照画像、合成フレーム、出力されないフレームのうちの少なくとも一つを含む項目38~53のいずれか一項に記載の方法。
(項目55)
上記方法は、
上記参照画像が出力されないフレームであると確定し、かつ上記参照画像が合成フレームであるとさらに確定する場合、上記参照画像を上記特定参照画像であると確定することをさらに含む項目38~54のいずれか一項に記載の方法。
(項目56)
上記非特定参照画像は、短期参照画像を含む項目38~55のいずれか一項に記載の方法。
(項目57)
画像動き補償装置であって、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
上記少なくとも一つのメモリにアクセスし、かつ上記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、上記操作は、
現在の画像ブロックの初期動きベクトルMVを取得することと、
上記初期MVのスケーリング比率を確定し、ここで、上記初期MVが特定参照画像を指向する場合、上記初期MVのスケーリング比率は、1であることと、
上記初期MVのスケーリング比率に基づいて、上記初期MVをスケーリングすることと、
上記スケーリング後のMVに基づいて上記現在の画像ブロックに動き補償を行うことと、である装置。
(項目58)
上記プロセッサが上記スケーリング後のMVに基づいて上記現在の画像ブロックに動き補償を行うことは、
上記スケーリング後のMVを修正し、修正後のMVを得ることと、
上記修正後のMVに基づいて、上記現在の画像ブロックに動き補償を行うことと、を含む項目57に記載の画像動き補償装置。
(項目59)
上記プロセッサが現在の画像ブロックの初期動きベクトルMVを取得することは、
上記現在の画像ブロックのMV候補リストを取得することと、
上記MV候補リストに基づいて、上記初期MVを確定することと、を含む項目57又は58に記載の画像動き補償装置。
(項目60)
上記MV候補リストにおけるいずれかの候補MVが指向する参照画像は、非特定参照画像である項目59に記載の画像動き補償装置。
(項目61)
上記プロセッサが上記現在の画像ブロックのMV候補リストを取得することは、
上記MV候補リストに加えるための候補MVを確定し、上記候補MVが指向する参照画像が非特定参照画像である場合、上記候補MVを上記MV候補リストに加えることを含む項目60に記載の画像動き補償装置。
(項目62)
上記プロセッサは、さらに、
上記候補MVが指向する参照画像のフレームマークに基づいて、上記候補MVが指向する参照画像が非特定参照画像であると確定するためのものである項目61に記載の画像動き補償装置。
(項目63)
上記MV候補リストは、
上記現在の画像ブロックが高度動きベクトル予測AMVPモードにある場合、非特定参照画像に対して得られたオリジナルAMVP候補MV、
非特定参照画像に対して得られたマージ候補MV、
非特定参照画像から補間により得られたMV、及び
上記現在のブロックの非特定参照画像に対する上方隣接MVと左側隣接MVのうちの少なくとも一つの候補MVを含む項目59~62のいずれか一項に記載の画像動き補償装置。
(項目64)
上記プロセッサが上記MV候補リストに基づいて、上記初期MVを確定することは、
双方向マッチング法とテンプレートマッチング法とのうちの少なくとも一つに基づいて、上記MV候補リストにおける候補MVに対応する歪みコストを確定することと、
上記MV候補リストにおける歪みコストが最も小さいMVを上記初期MVとすることと、を含む項目63に記載の画像動き補償装置。
(項目65)
上記プロセッサが上記スケーリング後のMVを修正し、修正後のMVを得ることは、
上記現在の画像ブロックにサブMV候補リストを生成し、上記サブMV候補リストには上記スケーリング後のMVを含むことと、
上記サブMV候補リストから歪みコストが最も小さいMVを上記修正後のMVとして確定することと、を含む項目64に記載の画像動き補償装置。
(項目66)
上記初期MVは、第1初期MV、及び第2初期MVを含み、上記プロセッサは、具体的に、
上記第1初期MV、及び上記第2初期MVのうちの少なくとも一つの初期MVが指向する参照画像が特定参照画像である場合、上記第1初期MV、及び上記第2初期MVのスケーリング比率をいずれも1にセットし、上記第1初期MV、及び第2初期MVに基づいて上記現在の画像ブロックに動き補償を行うことと、
上記第1初期MV、及び上記第2初期MVが指向する参照画像がいずれも非特定参照画像である場合、上記第1初期MVのスケーリング比率、及び上記第2初期MVのスケーリング比率を確定し、上記第1初期MVのスケーリング比率に基づいて、上記第1初期MVをスケーリングし、上記第2初期MVのスケーリング比率に基づいて、上記第2初期MVをスケーリングし、上記スケーリング後の第1初期MV、及び上記スケーリング後の第2初期MVに基づいて、上記現在の画像ブロックに動き補償を行うこととのうちの少なくとも一つのためのものである項目57に記載の画像動き補償装置。
(項目67)
上記プロセッサが上記スケーリング後の第1初期MV、及び上記スケーリング後の第2初期MVに基づいて、上記現在の画像ブロックに動き補償を行うことは、
第1参照画像ブロック、及び第2参照画像ブロックに基づいて、テンプレートを生成し、ここで、上記第1参照画像ブロックは上記スケーリング後の第1初期MVに対応し、かつ第2参照画像に属し、上記第2参照画像ブロックは上記スケーリング後の第2初期MVに対応し、かつ第1参照画像に属し、上記第1参照画像は、上記第1初期MVが指向する参照画像であり、上記第2参照画像は、上記第2初期MVが指向する参照画像であることと、
上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることと、を含む項目66に記載の画像動き補償装置。
(項目68)
上記プロセッサが上記テンプレートに基づいて、上記第1初期MV、及び上記第2初期MVを修正し、上記修正後の第1MV、及び上記修正後の第2MVを得ることは、
N個の第3参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記N個の第3参照画像ブロックは、N個の第3初期MVに対応し、かつ上記第1参照画像に属することと、
M個の第4参照画像ブロックを利用して、それぞれ上記テンプレートとマッチングし、ここで、上記M個の第4参照画像ブロックは、M個の第4初期MVに対応し、かつ上記第2参照画像に属することと、
上記マッチング結果に基づいて、上記N個の第3初期MVから一つの第3初期MVを選択し、及び上記M個の第4初期MVから一つの第4初期MVを選択し、上記一つの第3初期MV、及び上記一つの第4初期MVを上記現在の画像ブロックのMVとし、又は上記現在の画像ブロックのMVを確定することに用いることと、を含む項目66に記載の画像動き補償装置。
(項目69)
上記第3初期MVは、上記第1初期MVを含み、上記第4初期MVは、上記第2初期MVを含む項目68に記載の画像動き補償装置。
(項目70)
上記N個の第3初期MVにおける少なくとも一部の初期MVは、上記第1初期MVに基づいて偏移して得られ、上記M個の第4初期MVにおける少なくとも一部の初期MVは、上記第2初期MVに基づいて偏移して得られたものである項目68又は69に記載の画像動き補償装置。
(項目71)
上記Nは、上記Mに等しい項目68~70のいずれか一項に記載の画像動き補償装置。
(項目72)
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの後方向フレームであり、又は、
上記第1参照画像は、上記現在の画像ブロックの前方向フレームであり、上記第2参照画像は、上記現在の画像ブロックの前方向フレームである項目68~71のいずれか一項に記載の画像動き補償のため装置。
(項目73)
上記特定参照画像は、長期参照画像、合成フレーム、出力されないフレームのうちの少なくとも一つを含む項目57~72のいずれか一項に記載の画像動き補償装置。
(項目74)
上記プロセッサは、さらに、
上記参照画像が出力されないフレームであると確定し、かつ上記参照画像が合成フレームであるとさらに確定する場合、上記参照画像を上記特定参照画像であると確定するためのものである項目57~73のいずれか一項に記載の画像動き補償装置。
(項目75)
上記非特定参照画像は、短期参照画像を含む項目57~74のいずれか一項に記載の画像動き補償装置。
(項目76)
コンピュータで読み取り可能な記憶媒体であって、
これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに項目38~56のいずれか一項に記載の画像動き補償方法を実行させるコンピュータで読み取り可能な記憶媒体。
(項目77)
項目57~75のいずれか一項に記載の画像動き補償装置を含む符号化デバイス。
(項目78)
項目57~75のいずれか一項に記載の画像動き補償装置を含む復号化デバイス。
(項目79)
画像処理方法であって、
第1初期動きベクトルMV、及び第2初期MVを取得し、上記第1初期MVは、第1参照画像を指向し、上記第2初期MVは、第2参照画像を指向することと、
上記第1参照画像、及び上記第2参照画像のうちの少なくとも一つが特定参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
上記第1参照画像、及び上記第2参照画像がいずれも非特定参照画像である場合、上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値に基づいて、現在の画像ブロックのMVを計算して得て、上記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、を含む方法。
(項目80)
上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値に基づいて、現在の画像ブロックのMVを計算して得ることは、
上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、上記現在の画像ブロックのMVを計算して得ることを含む項目79に記載の方法。
(項目81)
上記第1初期MV、及び上記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、
上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックを加重合計し、上記現在の画像ブロックの予測画像ブロックを得ることを含む79又は80に記載の方法。
(項目82)
上記第1初期MV、及び上記第2初期MVの予測方向は異なる項目79~81のいずれか一項に記載の方法。
(項目83)
上記第1初期MV、及び上記第2初期MVの予測方向は同じであり、上記第1初期MV、及び上記第2初期MVはいずれも0でなく、上記第1参照画像、及び上記第2参照画像は異なる項目79~82のいずれか一項に記載の方法。
(項目84)
上記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることは、
上記現在の画像ブロックのMV、上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックに基づいて、上記現在の画像ブロックの予測画像ブロックを計算して得ることを含む項目79~83のいずれか一項に記載の方法。
(項目85)
上記特定参照画像は、長期参照画像、合成フレーム、出力されないフレームのうちの少なくとも一つを含む項目79~84のいずれか一項に記載の方法。
(項目86)
上記方法は、
上記第1参照画像と上記第2参照画像とのうちの少なくとも一つが出力されないフレームであると確定し、かつ上記第1参照画像と上記第2参照画像とのうちの少なくとも一つが合成フレームであるとさらに確定する場合、上記第1参照画像と上記第2参照画像とのうちの少なくとも一つを上記特定参照画像であると確定することをさらに含む項目79~85のいずれか一項に記載の方法。
(項目87)
上記非特定参照画像は、短期参照画像を含む項目79~86のいずれか一項に記載の方法。
(項目88)
画像処理装置であって、
コンピュータで実行可能なコマンドを記憶するための少なくとも一つのメモリと、
上記少なくとも一つのメモリにアクセスし、かつ上記コンピュータで実行可能なコマンドを実行することで、以下の操作を実施することに単独、又は共同で用いられる少なくとも一つのプロセッサと、を含み、上記操作は、
第1初期動きベクトルMV、及び第2初期MVを取得し、上記第1初期MVは、第1参照画像を指向し、上記第2初期MVは、第2参照画像を指向することと、
上記第1参照画像、及び上記第2参照画像のうちの少なくとも一つが特定参照画像である場合、上記第1初期MV、及び上記第2初期MVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、
上記第1参照画像、及び上記第2参照画像がいずれも非特定参照画像である場合、上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値に基づいて、現在の画像ブロックのMVを計算して得て、上記現在の画像ブロックのMVに基づいて、現在の画像ブロックの予測画像ブロックを計算して得ることと、である装置。
(項目89)
上記プロセッサは、具体的に、
上記第1初期MV、及び上記第2初期MVが指向する画素点の勾配値、及び最適化原理に基づいて、上記現在の画像ブロックのMVを計算して得るためのものである項目88に記載の装置。
(項目90)
上記プロセッサは、具体的に、
上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックを加重合計し、上記現在の画像ブロックの予測画像ブロックを得るためのものである88又は89に記載の装置。
(項目91)
上記第1初期MV、及び上記第2初期MVの予測方向は異なる項目88~90のいずれか一項に記載の装置。
(項目92)
上記第1初期MV、及び上記第2初期MVの予測方向は同じであり、上記第1初期MV、及び上記第2初期MVはいずれも0でなく、上記第1参照画像、及び上記第2参照画像は異なる項目88~91のいずれか一項に記載の装置。
(項目93)
上記プロセッサは、具体的に、
上記現在の画像ブロックのMV、上記第1初期MVが指向する第1参照画像ブロック、及び上記第2初期MVが指向する第2参照画像ブロックに基づいて、上記現在の画像ブロックの予測画像ブロックを計算して得るためのものである項目88~92のいずれか一項に記載の装置。
(項目94)
上記特定参照画像は、長期参照画像、合成フレーム、出力されないフレームのうちの少なくとも一つを含む項目88~93のいずれか一項に記載の装置。
(項目95)
上記プロセッサは、さらに、
上記第1参照画像と上記第2参照画像とのうちの少なくとも一つが出力されないフレームであると確定し、かつ上記第1参照画像と上記第2参照画像とのうちの少なくとも一つが合成フレームであるとさらに確定する場合、上記第1参照画像と上記第2参照画像とのうちの少なくとも一つを上記特定参照画像であると確定するためのものである項目88~94のいずれか一項に記載の装置。
(項目96)
上記非特定参照画像は、短期参照画像を含む項目88~95のいずれか一項に記載の装置。
(項目97)
コンピュータで読み取り可能な記憶媒体であって、
これにはコマンドが記憶され、コマンドがコンピュータで運用される場合、コンピュータに項目79~87のいずれか一項に記載の画像処理方法を実行させるコンピュータで読み取り可能な記憶媒体。
(項目98)
項目88~96のいずれか一項に記載の画像処理装置を含む符号化デバイス。
(項目99)
項目88~96のいずれか一項に記載の画像処理装置を含む復号化デバイス。
The above are only specific embodiments of the present application, but the protection scope of the present application is not limited thereto. Modifications or replacements can be easily conceived within the technical scope of the invention, and both shall be included in the protection scope of the present application. Therefore, the protection scope of this application shall be subject to the protection scope of the appended claims.
(Item 1)
An image motion compensation method comprising:
obtaining an initial motion vector MV for the current image block;
performing motion compensation on the current image block based on the initial MV, if the reference image to which the initial MV is directed is a specific reference image;
If the reference image to which the initial MV is directed is a non-specific reference image, modify the initial MV to obtain a modified MV, and perform motion compensation on the current image block based on the modified MV. and an image motion compensation method.
(Item 2)
If the reference image to which the initial MV is directed is a non-specific reference image, modify the initial MV to obtain a modified MV, and perform motion compensation on the current image block based on the modified MV. The thing is
obtaining an MV candidate list of the current image block, and a reference image to which any candidate MV in the MV candidate list is directed is a non-specific reference image;
Determining the initial MV based on the MV candidate list;
Modifying the initial MV to obtain a modified MV;
performing motion compensation on the current image block based on the modified MV.
(Item 3)
Obtaining the MV candidate list for the current image block includes:
3. The method of item 2, comprising determining a candidate MV for addition to the MV candidate list, and adding the candidate MV to the MV candidate list if the reference image to which the candidate MV is directed is a non-specific reference image. .
(Item 4)
The above method is
4. The method of item 3, further comprising determining that the reference image to which the candidate MV is directed is a non-specific reference image based on the frame mark of the reference image to which the candidate MV is directed.
(Item 5)
The above MV candidate list is
Original AMVP candidate MVs obtained for a non-specific reference image if the current image block is in Advanced Motion Vector Prediction AMVP mode;
merge candidate MVs obtained for non-specific reference images,
any one of items 2 to 4, including the MV obtained by interpolation from the non-specific reference image, and at least one candidate MV among the above-neighboring MV and the left-side neighboring MV for the non-specific reference image of the current block; described method.
(Item 6)
Determining the initial MV based on the MV candidate list is
determining distortion costs corresponding to candidate MVs in the MV candidate list based on at least one of a bidirectional matching method and a template matching method;
6. The method of item 5, comprising as the initial MV the MV with the lowest distortion cost in the MV candidate list.
(Item 7)
Correcting the initial MV and obtaining the corrected MV is
generating a sub-MV candidate list for the current image block, the sub-MV candidate list including the initial MV;
and determining the MV with the lowest distortion cost from the sub-MV candidate list as the modified MV.
(Item 8)
The initial MV includes the first initial MV and the second initial MV,
If the reference image to which the initial MV is directed is a specific reference image, performing motion compensation on the current image block based on the initial MV includes:
When the reference image to which at least one of the first initial MV and the second initial MV is directed is a specific reference image, the current performing motion compensation on the image blocks of
When the reference images to which the first initial MV and the second initial MV are directed are both non-specific reference images, the first initial MV and the second initial MV are modified, and the modified first MV, and obtaining a modified second MV, and performing motion compensation on the current image block based on the modified first MV and the modified second MV.
(Item 9)
Modifying the first initial MV and the second initial MV to obtain the modified first MV and the modified second MV,
generating a template based on a first reference image block and a second reference image block, wherein said first reference image block corresponds to said first initial MV and belongs to a first reference image; the second reference image block corresponds to the second initial MV and belongs to the second reference image;
9. The method of item 8, comprising modifying the first initial MV and the second initial MV based on the template to obtain the modified first MV and the modified second MV.
(Item 10)
Based on the template, modifying the first initial MV and the second initial MV to obtain the modified first MV and the modified second MV
N third reference image blocks are used to respectively match the template, wherein the N third reference image blocks correspond to N third initial MVs and the first reference image blocks belonging to the image;
M fourth reference image blocks are used to respectively match the template, wherein the M fourth reference image blocks correspond to M fourth initial MVs and the second reference belonging to the image;
Based on the matching result, selecting one third initial MV from the N third initial MVs, selecting one fourth initial MV from the M fourth initial MVs, and selecting the one fourth initial MV from the M fourth initial MVs. 10. The method of item 9, comprising: 3 initial MVs, and taking the one fourth initial MV as the MV of the current image block or using it to determine the MV of the current image block.
(Item 11)
11. The method of item 10, wherein the third initial MV comprises the first initial MV and the fourth initial MV comprises the second initial MV.
(Item 12)
At least some initial MVs in the N third initial MVs are obtained by shifting based on the first initial MVs, and at least some initial MVs in the M fourth initial MVs are the 12. A method according to item 10 or 11 obtained by shifting based on the second initial MV.
(Item 13)
13. The method of any one of items 10-12, wherein N is equal to M.
(Item 14)
the first reference image is a forward frame of the current image block and the second reference image is a backward frame of the current image block; or
14. Method according to any one of items 10 to 13, wherein said first reference image is a forward frame of said current image block and said second reference image is a forward frame of said current image block. .
(Item 15)
15. The method of any one of items 1-14, wherein the specific reference image comprises at least one of a long-term reference image, a synthetic frame, and a non-output frame.
(Item 16)
The above method is
any of items 1 to 15, further comprising determining that the reference image is the specific reference image when determining that the reference image is a frame that is not output and determining that the reference image is a composite frame. The method according to item 1.
(Item 17)
17. A method according to any one of items 1 to 16, wherein said non-specific reference images comprise short-term reference images.
(Item 18)
An image motion compensation device,
at least one memory for storing computer executable commands;
at least one processor used alone or jointly to perform the following operations by accessing said at least one memory and executing said computer-executable commands, said operations comprising: ,
obtaining an initial motion vector MV for the current image block;
performing motion compensation on the current image block based on the initial MV, if the reference image to which the initial MV is directed is a specific reference image;
If the reference image to which the initial MV is directed is a non-specific reference image, modify the initial MV to obtain a modified MV, and perform motion compensation on the current image block based on the modified MV. and an image motion compensator.
(Item 19)
Specifically, the above processor:
obtaining the MV candidate list of the current image block, wherein a reference image to which any candidate MV in the MV candidate list is directed is a non-specific reference image;
Determine the initial MV based on the MV candidate list,
Correct the above initial MV, obtain the corrected MV,
19. Image motion compensation device according to item 18, for performing motion compensation on said current image block based on said modified MV.
(Item 20)
The processor further:
19, for determining a candidate MV for adding to said MV candidate list and adding said candidate MV to said MV candidate list if the reference image to which said candidate MV is directed is a non-specific reference image; image motion compensator.
(Item 21)
The processor further:
21. The method according to any one of items 18 to 20, for determining that the reference image to which the candidate MV is directed is a non-specific reference image based on the frame mark of the reference image to which the candidate MV is directed. Image motion compensator.
(Item 22)
The above MV candidate list is
Original AMVP candidate MVs obtained for a non-specific reference image if the current image block is in Advanced Motion Vector Prediction AMVP mode;
merge candidate MVs obtained for non-specific reference images,
22. Picture motion compensation apparatus according to item 21, comprising a MV obtained by interpolation from a non-specific reference picture, and at least one candidate MV of an upper neighboring MV and a left neighboring MV for the non-specific reference picture of said current block.
(Item 23)
Specifically, the above processor:
determining distortion costs corresponding to candidate MVs in the MV candidate list based on at least one of a bidirectional matching method and a template matching method;
23. The image motion compensation device according to item 22, for making the MV with the lowest distortion cost in the MV candidate list the initial MV.
(Item 24)
Specifically, the above processor:
generating a sub-MV candidate list for the current image block, the sub-MV candidate list including the initial MV;
21. The image motion compensation device according to any one of items 18 to 20, for determining the MV with the lowest distortion cost from the sub-MV candidate list as the modified MV.
(Item 25)
The initial MV includes the first initial MV and the second initial MV,
Specifically, the above processor:
When the reference image to which at least one of the first initial MV and the second initial MV is directed is a specific reference image, the current perform motion compensation on the image blocks of
When the reference images to which the first initial MV and the second initial MV are directed are both non-specific reference images, the first initial MV and the second initial MV are modified, and the modified first MV, and a modified second MV, and performing motion compensation on the current image block based on the modified first MV and the modified second MV. Device.
(Item 26)
Specifically, the above processor:
generating a template based on a first reference image block and a second reference image block, wherein said first reference image block corresponds to said first initial MV and belongs to a first reference image; The second reference image block corresponds to the second initial MV and belongs to the second reference image,
26. Image motion according to item 25, for modifying said first initial MV and said second initial MV based on said template to obtain said modified first MV and said modified second MV. Compensator.
(Item 27)
Specifically, the above processor:
N third reference image blocks are used to respectively match the template, wherein the N third reference image blocks correspond to N third initial MVs and the first reference image blocks image belongs to
M fourth reference image blocks are used to respectively match the template, wherein the M fourth reference image blocks correspond to M fourth initial MVs and the second reference image belongs to
Based on the matching result, selecting one third initial MV from the N third initial MVs, selecting one fourth initial MV from the M fourth initial MVs, and selecting the one fourth initial MV from the M fourth initial MVs. 27. Image motion compensation apparatus according to item 26, wherein three initial MVs and said one fourth initial MV are used as the MV of said current image block or for determining the MV of said current image block. .
(Item 28)
28. The image motion compensation apparatus according to item 27, wherein said third initial MV comprises said first initial MV and said fourth initial MV comprises said second initial MV.
(Item 29)
At least some initial MVs in the N third initial MVs are obtained by shifting based on the first initial MVs, and at least some initial MVs in the M fourth initial MVs are the 29. Image motion compensator according to item 27 or 28 obtained by shifting based on the second initial MV.
(Item 30)
30. The image motion compensation device according to any one of items 27-29, wherein said N is equal to said M.
(Item 31)
the first reference image is a forward frame of the current image block and the second reference image is a backward frame of the current image block; or
31. An image according to any one of items 27 to 30, wherein said first reference image is a forward frame of said current image block and said second reference image is a forward frame of said current image block. motion compensator.
(Item 32)
32. The image motion compensation apparatus according to any one of items 18 to 31, wherein the specific reference image includes at least one of a long-term reference image, a synthesized frame, and a non-output frame.
(Item 33)
The processor further:
Items 18 to 32 for determining that the reference image is the specific reference image when determining that the reference image is a frame that is not output and further determining that the reference image is a composite frame. An image motion compensation device according to any one of Claims 1 to 3.
(Item 34)
Image motion compensation apparatus according to any one of items 18 to 33, wherein said non-specific reference images comprise short-term reference images.
(Item 35)
A computer readable storage medium,
A computer readable storage medium on which commands are stored and which, when run on a computer, cause a computer to perform the image motion compensation method according to any one of items 1-17.
(Item 36)
A coding device comprising an image motion compensator according to any one of items 18-34.
(Item 37)
A decoding device comprising an image motion compensator according to any one of items 18-34.
(Item 38)
An image motion compensation method comprising:
obtaining an initial motion vector MV for the current image block;
determining a scaling ratio of the initial MV, wherein the scaling ratio of the initial MV is 1 if the initial MV is directed to a particular reference image;
scaling the initial MV based on a scaling ratio of the initial MV;
performing motion compensation on the current image block based on the scaled MV.
(Item 39)
performing motion compensation on the current image block based on the scaled MV,
modifying the scaled MV to obtain a modified MV;
39. The method of item 38, comprising motion compensating the current image block based on the modified MV.
(Item 40)
Obtaining the initial motion vector MV of the current image block comprises:
obtaining a MV candidate list for the current image block;
40. The method of item 38 or 39, comprising determining the initial MV based on the MV candidate list.
(Item 41)
41. Method according to item 40, wherein the reference image to which any candidate MV in said MV candidate list is directed is a non-specific reference image.
(Item 42)
Obtaining the MV candidate list for the current image block includes:
42. The method of item 41, comprising determining a candidate MV for addition to the MV candidate list, and adding the candidate MV to the MV candidate list if the reference image to which the candidate MV is directed is a non-specific reference image. .
(Item 43)
The above method is
43. The method of item 42, further comprising determining that the reference image to which the candidate MV is directed is a non-specific reference image based on the frame mark of the reference image to which the candidate MV is directed.
(Item 44)
The above MV candidate list is
Original AMVP candidate MVs obtained for a non-specific reference image if the current image block is in Advanced Motion Vector Prediction AMVP mode;
merge candidate MVs obtained for non-specific reference images,
any one of items 40 to 43, including the MV obtained by interpolation from the non-specific reference image, and at least one candidate MV among the above-neighboring MV and the left-side neighboring MV for the non-specific reference image of the current block; described method.
(Item 45)
Determining the initial MV based on the MV candidate list is
determining distortion costs corresponding to candidate MVs in the MV candidate list based on at least one of a bidirectional matching method and a template matching method;
45. The method of item 44, comprising as the initial MV the MV with the lowest distortion cost in the MV candidate list.
(Item 46)
Correcting the MV after scaling and obtaining the corrected MV is
generating a sub-MV candidate list for the current image block, the sub-MV candidate list including the scaled MV;
46. The method of item 45, comprising determining the MV with the lowest distortion cost from the sub-MV candidate list as the modified MV.
(Item 47)
The initial MV includes a first initial MV and a second initial MV, and the method includes:
When the reference image to which at least one of the first initial MV and the second initial MV is directed is a specific reference image, the scaling ratio of the first initial MV and the second initial MV also set to 1 and performing motion compensation on the current image block based on the first initial MV and the second initial MV;
If the reference images to which the first initial MV and the second initial MV are directed are both non-specific reference images, determining the scaling ratio of the first initial MV and the scaling ratio of the second initial MV; scaling the first initial MV based on the scaling ratio of the first initial MV, scaling the second initial MV based on the scaling ratio of the second initial MV, and scaling the first initial MV and performing motion compensation on the current image block based on the scaled second initial MV.
(Item 48)
performing motion compensation on the current image block based on the first scaled initial MV and the second scaled initial MV;
generating a template based on a first reference image block and a second reference image block, wherein said first reference image block corresponds to said first initial MV after scaling and belongs to a second reference image; , the second reference image block corresponds to the second initial MV after scaling and belongs to a first reference image, the first reference image is a reference image to which the first initial MV is directed, the first The second reference image is a reference image to which the second initial MV is directed;
48. The method of item 47, comprising modifying the first initial MV and the second initial MV based on the template to obtain the modified first MV and the modified second MV.
(Item 49)
Based on the template, modifying the first initial MV and the second initial MV to obtain the modified first MV and the modified second MV
N third reference image blocks are used to respectively match the template, wherein the N third reference image blocks correspond to N third initial MVs and the first reference image blocks belonging to the image;
M fourth reference image blocks are used to respectively match the template, wherein the M fourth reference image blocks correspond to M fourth initial MVs and the second reference belonging to the image;
Based on the matching result, selecting one third initial MV from the N third initial MVs, selecting one fourth initial MV from the M fourth initial MVs, and selecting the one fourth initial MV from the M fourth initial MVs. 48. The method of item 47, comprising: 3 initial MVs, and the one fourth initial MV as the MV of the current image block or used to determine the MV of the current image block.
(Item 50)
50. The method of item 49, wherein the third initial MV comprises the first initial MV and the fourth initial MV comprises the second initial MV.
(Item 51)
At least some initial MVs in the N third initial MVs are obtained by shifting based on the first initial MVs, and at least some initial MVs in the M fourth initial MVs are the 51. A method according to items 49 or 50 obtained by shifting based on the second initial MV.
(Item 52)
52. The method of any one of items 49-51, wherein said N is equal to said M.
(Item 53)
the first reference image is a forward frame of the current image block and the second reference image is a backward frame of the current image block; or
53. Method according to any one of items 49 to 52, wherein said first reference image is a forward frame of said current image block and said second reference image is a forward frame of said current image block. .
(Item 54)
54. A method according to any one of items 38 to 53, wherein said specific reference image comprises at least one of a long term reference image, a synthetic frame and a non-output frame.
(Item 55)
The above method is
of items 38 to 54, further comprising determining that the reference image is the specific reference image when determining that the reference image is a frame that is not output and further determining that the reference image is a composite frame. A method according to any one of paragraphs.
(Item 56)
56. A method according to any one of items 38-55, wherein said non-specific reference images comprise short-term reference images.
(Item 57)
An image motion compensation device,
at least one memory for storing computer executable commands;
at least one processor used alone or jointly to perform the following operations by accessing said at least one memory and executing said computer-executable commands, said operations comprising: ,
obtaining an initial motion vector MV for the current image block;
determining a scaling ratio of the initial MV, wherein the scaling ratio of the initial MV is 1 if the initial MV is directed to a particular reference image;
scaling the initial MV based on a scaling ratio of the initial MV;
performing motion compensation on the current image block based on the scaled MV.
(Item 58)
The processor performing motion compensation on the current image block based on the scaled MV,
modifying the scaled MV to obtain a modified MV;
58. The image motion compensation apparatus of item 57, comprising motion compensating the current image block based on the modified MV.
(Item 59)
Obtaining the initial motion vector MV of the current image block by the processor includes:
obtaining a MV candidate list for the current image block;
determining the initial MV based on the MV candidate list.
(Item 60)
60. Picture motion compensation apparatus according to item 59, wherein a reference picture to which any candidate MV in said MV candidate list is directed is a non-specific reference picture.
(Item 61)
The processor obtaining an MV candidate list for the current image block includes:
61. The image of item 60, comprising determining a candidate MV for addition to the MV candidate list, and adding the candidate MV to the MV candidate list if the reference image to which the candidate MV is directed is a non-specific reference image. motion compensator.
(Item 62)
The processor further:
62. Picture motion compensation device according to item 61, for determining that the reference picture to which said candidate MV is directed is a non-specific reference picture based on the frame mark of the reference picture to which said candidate MV is directed.
(Item 63)
The above MV candidate list is
Original AMVP candidate MVs obtained for a non-specific reference image if the current image block is in Advanced Motion Vector Prediction AMVP mode;
merge candidate MVs obtained for non-specific reference images,
any one of items 59 to 62, including the MV obtained by interpolation from the non-specific reference image, and at least one candidate MV of the above-neighboring MV and the left-side neighboring MV for the non-specific reference image of the current block; An image motion compensator as described.
(Item 64)
Determining the initial MV by the processor based on the MV candidate list
determining distortion costs corresponding to candidate MVs in the MV candidate list based on at least one of a bidirectional matching method and a template matching method;
64. The image motion compensation apparatus according to item 63, comprising: setting the MV with the lowest distortion cost in the MV candidate list as the initial MV.
(Item 65)
The processor correcting the scaled MV and obtaining the corrected MV is
generating a sub-MV candidate list for the current image block, the sub-MV candidate list including the scaled MV;
determining the MV with the lowest distortion cost from the sub-MV candidate list as the modified MV.
(Item 66)
The initial MV includes a first initial MV and a second initial MV, and the processor specifically:
When the reference image to which at least one of the first initial MV and the second initial MV is directed is a specific reference image, the scaling ratio of the first initial MV and the second initial MV also set to 1 and performing motion compensation on the current image block based on the first initial MV and the second initial MV;
If the reference images to which the first initial MV and the second initial MV are directed are both non-specific reference images, determining the scaling ratio of the first initial MV and the scaling ratio of the second initial MV; scaling the first initial MV based on the scaling ratio of the first initial MV, scaling the second initial MV based on the scaling ratio of the second initial MV, and scaling the first initial MV and performing motion compensation on the current image block based on the scaled second initial MV.
(Item 67)
The processor performing motion compensation on the current image block based on the first scaled initial MV and the second scaled initial MV,
generating a template based on a first reference image block and a second reference image block, wherein said first reference image block corresponds to said first initial MV after scaling and belongs to a second reference image; , the second reference image block corresponds to the second initial MV after scaling and belongs to a first reference image, the first reference image is a reference image to which the first initial MV is directed, the first The second reference image is a reference image to which the second initial MV is directed;
Modifying the first initial MV and the second initial MV based on the template to obtain the modified first MV and the modified second MV. Compensator.
(Item 68)
The processor correcting the first initial MV and the second initial MV based on the template to obtain the corrected first MV and the corrected second MV,
N third reference image blocks are used to respectively match the template, wherein the N third reference image blocks correspond to N third initial MVs and the first reference image blocks belonging to the image;
M fourth reference image blocks are used to respectively match the template, wherein the M fourth reference image blocks correspond to M fourth initial MVs and the second reference belonging to the image;
Based on the matching result, selecting one third initial MV from the N third initial MVs, selecting one fourth initial MV from the M fourth initial MVs, and selecting the one fourth initial MV from the M fourth initial MVs. 67. The image motion compensation apparatus of item 66, comprising: three initial MVs, and the one fourth initial MV as the MV of the current image block or used to determine the MV of the current image block. .
(Item 69)
69. Image motion compensation apparatus according to item 68, wherein said third initial MV comprises said first initial MV and said fourth initial MV comprises said second initial MV.
(Item 70)
At least some initial MVs in the N third initial MVs are obtained by shifting based on the first initial MVs, and at least some initial MVs in the M fourth initial MVs are the 70. Image motion compensator according to item 68 or 69 obtained by shifting based on the second initial MV.
(Item 71)
71. An image motion compensation apparatus according to any one of items 68-70, wherein said N is equal to said M.
(Item 72)
the first reference image is a forward frame of the current image block and the second reference image is a backward frame of the current image block; or
72. An image according to any one of items 68 to 71, wherein said first reference image is a forward frame of said current image block and said second reference image is a forward frame of said current image block. Device for motion compensation.
(Item 73)
73. The image motion compensation apparatus according to any one of items 57 to 72, wherein the specific reference image includes at least one of a long-term reference image, a synthesized frame and a non-output frame.
(Item 74)
The processor further:
Items 57 to 73 for determining that the reference image is the specific reference image when determining that the reference image is a frame that is not output and further determining that the reference image is a composite frame. An image motion compensation device according to any one of Claims 1 to 3.
(Item 75)
75. Image motion compensation apparatus according to any one of items 57 to 74, wherein said non-specific reference pictures comprise short-term reference pictures.
(Item 76)
A computer readable storage medium,
A computer readable storage medium on which commands are stored and which, when run on a computer, cause a computer to perform the image motion compensation method according to any one of items 38-56.
(Item 77)
A coding device comprising an image motion compensator according to any one of items 57-75.
(Item 78)
A decoding device comprising an image motion compensator according to any one of items 57-75.
(Item 79)
An image processing method comprising:
obtaining a first initial motion vector MV and a second initial MV, the first initial MV pointing to a first reference image and the second initial MV pointing to a second reference image;
when at least one of the first reference image and the second reference image is a specific reference image, based on the first initial MV and the second initial MV, a predicted image block of the current image block; calculated and obtained,
If both the first reference image and the second reference image are non-specific reference images, the current image based on the gradient values of the pixel points directed by the first initial MV and the second initial MV computing and obtaining the MV of a block, and computing and obtaining a predicted image block of the current image block based on the MV of the current image block.
(Item 80)
Calculating the MV of the current image block based on the gradient values of the pixel points directed by the first initial MV and the second initial MV, obtaining:
80. Method according to item 79, comprising computing and obtaining the MV of the current image block based on the gradient values of the pixel points to which the first initial MV and the second initial MV are directed and an optimization principle. .
(Item 81)
Calculating a predicted image block of the current image block based on the first initial MV and the second initial MV to obtain:
79 or 80 including weighted summing a first reference image block to which said first initial MV points and a second reference image block to which said second initial MV points to obtain a prediction image block of said current image block. The method described in .
(Item 82)
82. The method according to any one of items 79 to 81, wherein prediction directions of the first initial MV and the second initial MV are different.
(Item 83)
The prediction directions of the first initial MV and the second initial MV are the same, the first initial MV and the second initial MV are not 0, and the first reference image and the second reference image are 83. The method of any one of items 79-82, wherein the images are different.
(Item 84)
Calculating a predicted image block for the current image block based on the MV of the current image block to obtain:
based on the MV of the current image block, the first reference image block to which the first initial MV is directed, and the second reference image block to which the second initial MV is directed, predicting the predicted image block of the current image block. 84. A method according to any one of items 79-83, comprising obtaining by calculation.
(Item 85)
85. A method according to any one of items 79-84, wherein said specific reference image comprises at least one of a long-term reference image, a synthetic frame and a non-output frame.
(Item 86)
The above method is
determining that at least one of the first reference image and the second reference image is a non-output frame, and at least one of the first reference image and the second reference image is a synthesized frame; 86. The method according to any one of items 79 to 85, further comprising determining at least one of the first reference image and the second reference image to be the specific reference image when further determining that the Method.
(Item 87)
87. A method according to any one of items 79-86, wherein said non-specific reference images comprise short-term reference images.
(Item 88)
An image processing device,
at least one memory for storing computer executable commands;
at least one processor used alone or jointly to perform the following operations by accessing said at least one memory and executing said computer-executable commands, said operations comprising: ,
obtaining a first initial motion vector MV and a second initial MV, the first initial MV pointing to a first reference image and the second initial MV pointing to a second reference image;
when at least one of the first reference image and the second reference image is a specific reference image, based on the first initial MV and the second initial MV, a predicted image block of the current image block; calculated and obtained,
If both the first reference image and the second reference image are non-specific reference images, the current image based on the gradient values of the pixel points directed by the first initial MV and the second initial MV calculating and obtaining the MV of the block, and calculating and obtaining a predicted image block of the current image block based on the MV of the current image block.
(Item 89)
Specifically, the above processor:
89. Claimed in item 88 for calculating and obtaining the MV of said current image block based on the gradient values of the pixel points to which said first initial MV and said second initial MV are directed and an optimization principle. equipment.
(Item 90)
Specifically, the above processor:
for weighted summing a first reference image block to which said first initial MV points and a second reference image block to which said second initial MV points to obtain a prediction image block of said current image block 88. Or the device according to 89.
(Item 91)
91. The apparatus according to any one of items 88-90, wherein the prediction directions of the first initial MV and the second initial MV are different.
(Item 92)
The prediction directions of the first initial MV and the second initial MV are the same, the first initial MV and the second initial MV are not 0, and the first reference image and the second reference image are 92. Apparatus according to any one of items 88-91, wherein the images are different.
(Item 93)
Specifically, the above processor:
based on the MV of the current image block, the first reference image block to which the first initial MV is directed, and the second reference image block to which the second initial MV is directed, predicting the predicted image block of the current image block. 93. Apparatus according to any one of items 88-92 for obtaining by calculation.
(Item 94)
94. Apparatus according to any one of items 88-93, wherein said specific reference image comprises at least one of a long-term reference image, a synthetic frame and a non-output frame.
(Item 95)
The processor further:
determining that at least one of the first reference image and the second reference image is a non-output frame, and at least one of the first reference image and the second reference image is a synthesized frame; 94. The method according to any one of items 88 to 94, for determining that at least one of the first reference image and the second reference image is the specific reference image when further determining that device.
(Item 96)
96. Apparatus according to any one of items 88-95, wherein said non-specific reference images comprise short-term reference images.
(Item 97)
A computer readable storage medium,
88. A computer readable storage medium on which commands are stored which, when run on the computer, cause the computer to perform the image processing method according to any one of items 79-87.
(Item 98)
A coding device comprising an image processing apparatus according to any one of items 88-96.
(Item 99)
A decoding device comprising an image processing apparatus according to any one of items 88-96.
Claims (4)
前記第1参照画像及び前記第2参照画像が短期参照画像であることを特定することに対応して、前記第1初期動きベクトルにより指向される第1参照画像ブロック及び前記第2初期動きベクトルにより指向される第2参照画像ブロックを加重合計して、重み画像ブロックを得る段階と、前記重み画像ブロックに従って前記現在の画像ブロックに対する予測を行う段階とを含む指定の動作を実行する段階と、
前記第1参照画像または前記第2参照画像が長期参照画像であることを特定することに対応して、前記指定の動作を実行しない段階と
を備える動画処理方法。 identifying a first initial motion vector and a second initial motion vector of a current image block, wherein the first initial motion vector is a forward frame of the current image containing the current image block; pointing to a reference image, the second initial motion vector pointing to a second reference image that is a backward frame of the current image, and the distance from the first reference image to the current image being the second is the same as the distance from a reference image to the current image;
by a first reference image block directed by the first initial motion vector and the second initial motion vector, corresponding to specifying that the first reference image and the second reference image are short-term reference images; weighted summing directed second reference image blocks to obtain a weighted image block; and performing a specified operation comprising: performing a prediction for said current image block according to said weighted image block;
and C. not performing the specified action in response to identifying that the first reference image or the second reference image is a long-term reference image.
前記命令を実行することで、
現在の画像ブロックの第1初期動きベクトル及び第2初期動きベクトルを特定する段階であって、前記第1初期動きベクトルは、前記現在の画像ブロックを含む現在の画像の前方向フレームである第1参照画像を指向し、前記第2初期動きベクトルは、前記現在の画像の後方向フレームである第2参照画像を指向し、前記第1参照画像から前記現在の画像までの距離は、前記第2参照画像から前記現在の画像までの距離と同じである、段階と、
前記第1参照画像及び前記第2参照画像が短期参照画像であることを特定することに対応して、前記第1初期動きベクトルにより指向される第1参照画像ブロック及び前記第2初期動きベクトルにより指向される第2参照画像ブロックを加重合計して、重み画像ブロックを得る段階と、前記重み画像ブロックに従って前記現在の画像ブロックに対する予測を行う段階とを含む指定の動作を実行する段階と、
前記第1参照画像または前記第2参照画像が長期参照画像であることを特定することに対応して、前記指定の動作を実行しない段階と
を実行するプロセッサと
を備えるエンコーダ。 a memory for storing computer-executable instructions;
By executing the said command,
identifying a first initial motion vector and a second initial motion vector of a current image block, wherein the first initial motion vector is a forward frame of the current image containing the current image block; pointing to a reference image, the second initial motion vector pointing to a second reference image that is a backward frame of the current image, and the distance from the first reference image to the current image being the second is the same as the distance from a reference image to the current image;
by a first reference image block directed by the first initial motion vector and the second initial motion vector, corresponding to specifying that the first reference image and the second reference image are short-term reference images; weighted summing directed second reference image blocks to obtain a weighted image block; and performing a specified operation comprising: performing a prediction for said current image block according to said weighted image block;
An encoder comprising: not performing the specified action in response to identifying that the first reference image or the second reference image is a long-term reference image.
前記第1参照画像及び前記第2参照画像が短期参照画像であることを特定することに対応して、前記第1初期動きベクトルにより指向される第1参照画像ブロック及び前記第2初期動きベクトルにより指向される第2参照画像ブロックを加重合計して、重み画像ブロックを得る段階と、前記重み画像ブロックに従って前記現在の画像ブロックに対する予測を行う段階とを含む指定の動作を実行する段階と、
前記第1参照画像または前記第2参照画像が長期参照画像であることを特定することに対応して、前記指定の動作を実行しない段階と
を備える動画処理方法により得られるビットストリームを格納する非一時的なコンピュータ可読記憶媒体。 identifying a first initial motion vector and a second initial motion vector of a current image block, wherein the first initial motion vector is a forward frame of the current image containing the current image block; pointing to a reference image, the second initial motion vector pointing to a second reference image that is a backward frame of the current image, and the distance from the first reference image to the current image being the second is the same as the distance from a reference image to the current image;
by a first reference image block directed by the first initial motion vector and the second initial motion vector, corresponding to specifying that the first reference image and the second reference image are short-term reference images; weighted summing directed second reference image blocks to obtain a weighted image block; and performing a specified operation comprising: performing a prediction for said current image block according to said weighted image block;
and not performing the specified operation in response to identifying that the first reference image or the second reference image is a long-term reference image. temporary computer-readable storage medium;
前記第1参照画像及び前記第2参照画像が短期参照画像であることを特定することに対応して、前記第1初期動きベクトルにより指向される第1参照画像ブロック及び前記第2初期動きベクトルにより指向される第2参照画像ブロックを加重合計して、重み画像ブロックを得る段階と、前記重み画像ブロックに従って前記現在の画像ブロックに対する予測を行う段階とを含む指定の動作を実行する段階と、
前記第1参照画像または前記第2参照画像が長期参照画像であることを特定することに対応して、前記指定の動作を実行しない段階と
をコンピュータに実行させるためのプログラム。 identifying a first initial motion vector and a second initial motion vector of a current image block, wherein the first initial motion vector is a forward frame of the current image containing the current image block; pointing to a reference image, the second initial motion vector pointing to a second reference image that is a backward frame of the current image, and the distance from the first reference image to the current image being the second is the same as the distance from a reference image to the current image;
by a first reference image block directed by the first initial motion vector and the second initial motion vector, corresponding to specifying that the first reference image and the second reference image are short-term reference images; weighted summing directed second reference image blocks to obtain a weighted image block; and performing a specified operation comprising: performing a prediction for said current image block according to said weighted image block;
and not executing the specified operation in response to identifying that the first reference image or the second reference image is a long-term reference image.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/081652 WO2019191890A1 (en) | 2018-04-02 | 2018-04-02 | Image processing method and image processing device |
CNPCT/CN2018/081652 | 2018-04-02 | ||
JP2020553636A JP2021520124A (en) | 2018-04-02 | 2018-07-13 | Image motion compensation method and equipment |
PCT/CN2018/095710 WO2019192102A1 (en) | 2018-04-02 | 2018-07-13 | Image motion compensation method and device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553636A Division JP2021520124A (en) | 2018-04-02 | 2018-07-13 | Image motion compensation method and equipment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024113132A Division JP2024147683A (en) | 2018-04-02 | 2024-07-16 | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND BITSTREAM GENERATION METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023017981A true JP2023017981A (en) | 2023-02-07 |
JP7525236B2 JP7525236B2 (en) | 2024-07-30 |
Family
ID=68099733
Family Applications (12)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (en) | 2018-04-02 | 2018-04-02 | Video processing methods, image processing devices, programs, coding devices, and decoding devices |
JP2020553636A Pending JP2021520124A (en) | 2018-04-02 | 2018-07-13 | Image motion compensation method and equipment |
JP2020553654A Active JP7388659B2 (en) | 2018-04-02 | 2018-08-31 | Video processing method, bitstream generation method, video processing device, and program |
JP2020553580A Active JP7294753B2 (en) | 2018-04-02 | 2018-09-25 | MOVING IMAGE PROCESSING METHOD AND MOVING IMAGE PROCESSING DEVICE |
JP2020553586A Active JP7216109B2 (en) | 2018-04-02 | 2018-10-30 | MOVING IMAGE PROCESSING METHOD, MOVING IMAGE PROCESSING DEVICE, AND COMPUTER PROGRAM |
JP2020553581A Active JP7533945B2 (en) | 2018-04-02 | 2019-03-13 | Video processing method and video processing device |
JP2022182636A Active JP7525236B2 (en) | 2018-04-02 | 2022-11-15 | Video processing method, encoder, non-transitory computer-readable storage medium, and program |
JP2023006258A Active JP7497948B2 (en) | 2018-04-02 | 2023-01-19 | Video processing method and device |
JP2023092773A Active JP7534039B2 (en) | 2018-04-02 | 2023-06-05 | Video processing method, video processing device, and bitstream generation method |
JP2023190720A Pending JP2024010198A (en) | 2018-04-02 | 2023-11-08 | Moving image processing method, bitstream generation method and moving image processing device |
JP2024025977A Pending JP2024057014A (en) | 2018-04-02 | 2024-02-22 | Video image coding method, video image coding device, and bit stream generation method |
JP2024085959A Pending JP2024116183A (en) | 2018-04-02 | 2024-05-28 | Video processing method, video processing device, and bitstream generation method |
Family Applications Before (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (en) | 2018-04-02 | 2018-04-02 | Video processing methods, image processing devices, programs, coding devices, and decoding devices |
JP2020553636A Pending JP2021520124A (en) | 2018-04-02 | 2018-07-13 | Image motion compensation method and equipment |
JP2020553654A Active JP7388659B2 (en) | 2018-04-02 | 2018-08-31 | Video processing method, bitstream generation method, video processing device, and program |
JP2020553580A Active JP7294753B2 (en) | 2018-04-02 | 2018-09-25 | MOVING IMAGE PROCESSING METHOD AND MOVING IMAGE PROCESSING DEVICE |
JP2020553586A Active JP7216109B2 (en) | 2018-04-02 | 2018-10-30 | MOVING IMAGE PROCESSING METHOD, MOVING IMAGE PROCESSING DEVICE, AND COMPUTER PROGRAM |
JP2020553581A Active JP7533945B2 (en) | 2018-04-02 | 2019-03-13 | Video processing method and video processing device |
Family Applications After (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023006258A Active JP7497948B2 (en) | 2018-04-02 | 2023-01-19 | Video processing method and device |
JP2023092773A Active JP7534039B2 (en) | 2018-04-02 | 2023-06-05 | Video processing method, video processing device, and bitstream generation method |
JP2023190720A Pending JP2024010198A (en) | 2018-04-02 | 2023-11-08 | Moving image processing method, bitstream generation method and moving image processing device |
JP2024025977A Pending JP2024057014A (en) | 2018-04-02 | 2024-02-22 | Video image coding method, video image coding device, and bit stream generation method |
JP2024085959A Pending JP2024116183A (en) | 2018-04-02 | 2024-05-28 | Video processing method, video processing device, and bitstream generation method |
Country Status (6)
Country | Link |
---|---|
US (19) | US11330294B2 (en) |
EP (6) | EP3780608A4 (en) |
JP (12) | JP7088606B2 (en) |
KR (2) | KR20240110905A (en) |
CN (16) | CN117294837A (en) |
WO (4) | WO2019191890A1 (en) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116962717A (en) * | 2018-03-14 | 2023-10-27 | Lx 半导体科技有限公司 | Image encoding/decoding method, storage medium, and transmission method |
EP3780608A4 (en) | 2018-04-02 | 2021-12-01 | SZ DJI Technology Co., Ltd. | Image processing method and image processing device |
CN115250350B (en) * | 2018-09-03 | 2024-04-09 | 华为技术有限公司 | Motion vector acquisition method, motion vector acquisition device, computer equipment and storage medium |
WO2020084552A1 (en) | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate derivation based on spatial neighboring block in sub-block motion vector prediction |
US11838540B2 (en) * | 2018-12-21 | 2023-12-05 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium in which bitstream is stored |
EP3903495A4 (en) * | 2018-12-28 | 2022-03-16 | Telefonaktiebolaget Lm Ericsson (Publ) | Generating a motion vector predictor list |
KR20220016075A (en) | 2019-06-04 | 2022-02-08 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Conditional implementation of motion candidate list construction process |
WO2020244571A1 (en) | 2019-06-04 | 2020-12-10 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate list construction using neighboring block information |
EP3967040A4 (en) | 2019-06-06 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate list construction for video coding |
CN114128295B (en) | 2019-07-14 | 2024-04-12 | 北京字节跳动网络技术有限公司 | Construction of geometric partition mode candidate list in video coding and decoding |
EP3984227A4 (en) * | 2019-07-27 | 2022-08-17 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions of usage of tools according to reference picture types |
EP4000265A4 (en) | 2019-08-20 | 2022-10-26 | Beijing Bytedance Network Technology Co., Ltd. | Usage of default and user-defined scaling matrices |
CN114402591B (en) | 2019-09-13 | 2024-08-02 | 北京字节跳动网络技术有限公司 | Derivation of collocated motion vectors |
KR20220066045A (en) | 2019-09-19 | 2022-05-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Scaling Window in Video Coding |
CN117615155A (en) | 2019-09-19 | 2024-02-27 | 北京字节跳动网络技术有限公司 | Reference sample point position derivation in video coding |
CN117596389A (en) | 2019-09-28 | 2024-02-23 | 北京字节跳动网络技术有限公司 | Geometric partitioning modes in video coding and decoding |
EP4026336A4 (en) | 2019-10-05 | 2022-12-07 | Beijing Bytedance Network Technology Co., Ltd. | Level-based signaling of video coding tools |
WO2021068956A1 (en) | 2019-10-12 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Prediction type signaling in video coding |
JP7414980B2 (en) | 2019-10-13 | 2024-01-16 | 北京字節跳動網絡技術有限公司 | Interaction between reference picture resampling and video coding tools |
BR112022012807A2 (en) | 2019-12-27 | 2022-09-27 | Beijing Bytedance Network Tech Co Ltd | VIDEO PROCESSING METHOD, APPARATUS FOR PROCESSING VIDEO DATA AND COMPUTER-READable NON-TRANSITORY MEDIA |
CN113727119B (en) * | 2020-05-20 | 2023-03-17 | Oppo广东移动通信有限公司 | Inter-frame prediction method, encoder, decoder, and computer storage medium |
CN111724422B (en) * | 2020-06-29 | 2024-01-09 | 深圳市慧鲤科技有限公司 | Image processing method and device, electronic equipment and storage medium |
CN112132732B (en) * | 2020-09-10 | 2023-06-02 | 宁波大学科学技术学院 | Pixel prediction method, reversible information hiding and extracting method, terminal and storage medium for stereoscopic image |
WO2022141278A1 (en) * | 2020-12-30 | 2022-07-07 | 深圳市大疆创新科技有限公司 | Video processing method and coding apparatus |
US20230224474A1 (en) * | 2022-01-12 | 2023-07-13 | Tencent America LLC | Adjustment based local illumination compensation |
WO2023192335A1 (en) * | 2022-03-28 | 2023-10-05 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for candidate derivation for affine merge mode in video coding |
WO2024005456A1 (en) * | 2022-06-27 | 2024-01-04 | 현대자동차주식회사 | Image encoding/decoding method and device, and recording medium on which bitstream is stored |
WO2024005616A1 (en) * | 2022-07-01 | 2024-01-04 | 엘지전자 주식회사 | Image encoding/decoding method and device, and recording medium having bitstream stored thereon |
WO2024117533A1 (en) * | 2022-11-29 | 2024-06-06 | 현대자동차주식회사 | Video coding method and device using affine model-based prediction |
US20240314343A1 (en) * | 2023-03-13 | 2024-09-19 | Tencent America LLC | Block based weighting factor for joint motion vector difference coding mode |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140307783A1 (en) * | 2011-11-08 | 2014-10-16 | Samsung Electronics Co., Ltd. | Method and apparatus for motion vector determination in video encoding or decoding |
Family Cites Families (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2435757C (en) * | 2001-11-29 | 2013-03-19 | Matsushita Electric Industrial Co., Ltd. | Video coding distortion removal method and apparatus using a filter |
JP4130783B2 (en) * | 2002-04-23 | 2008-08-06 | 松下電器産業株式会社 | Motion vector encoding method and motion vector decoding method |
KR100491530B1 (en) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | Method of determining motion vector |
US20050013498A1 (en) * | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US7660354B2 (en) | 2005-05-11 | 2010-02-09 | Fang Shi | Temporal error concealment for bi-directionally predicted frames |
ZA200900857B (en) * | 2006-07-06 | 2010-05-26 | Thomson Licensing | Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding |
JP2010509799A (en) * | 2006-11-03 | 2010-03-25 | サムスン エレクトロニクス カンパニー リミテッド | Video predictive encoding method and apparatus, and decoding method and apparatus thereof |
JP2009118221A (en) * | 2007-11-07 | 2009-05-28 | Toshiba Corp | Digital image decoder and digital image decoding method |
CN101873500B (en) * | 2009-04-24 | 2012-05-23 | 华为技术有限公司 | Interframe prediction encoding method, interframe prediction decoding method and equipment |
JP5367098B2 (en) * | 2010-02-09 | 2013-12-11 | 日本電信電話株式会社 | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof |
KR20120009861A (en) * | 2010-07-22 | 2012-02-02 | 에스케이 텔레콤주식회사 | Method and Apparatus for Encoding/Decoding of Video Data Using Expanded Skip Mode |
KR20120016991A (en) | 2010-08-17 | 2012-02-27 | 오수미 | Inter prediction process |
KR20140139615A (en) * | 2010-10-08 | 2014-12-05 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | Picture coding supporting block partitioning and block merging |
US8824558B2 (en) * | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US8976873B2 (en) * | 2010-11-24 | 2015-03-10 | Stmicroelectronics S.R.L. | Apparatus and method for performing error concealment of inter-coded video frames |
CN107105280B (en) | 2010-12-14 | 2020-01-03 | M&K控股株式会社 | Apparatus for encoding moving picture |
US9635382B2 (en) | 2011-01-07 | 2017-04-25 | Texas Instruments Incorporated | Method, system and computer program product for determining a motion vector |
CN102611881B (en) * | 2011-01-19 | 2014-06-25 | 华为技术有限公司 | Method and module for obtaining reference motion vector, encoding and decoding device |
US8755437B2 (en) * | 2011-03-17 | 2014-06-17 | Mediatek Inc. | Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate |
KR101484171B1 (en) * | 2011-01-21 | 2015-01-23 | 에스케이 텔레콤주식회사 | Motion Information Generating Apparatus and Method using Motion Vector Predictor Index Coding, and Image Encoding/Decoding Apparatus and Method using the Same |
ES2900107T3 (en) * | 2011-03-21 | 2022-03-15 | Lg Electronics Inc | Method for selecting a motion vector predictor |
US9247249B2 (en) * | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP5786478B2 (en) | 2011-06-15 | 2015-09-30 | 富士通株式会社 | Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program |
EP3849192B1 (en) * | 2011-06-28 | 2023-01-11 | LG Electronics, Inc. | Method for deriving a motion vector for video decoding and video encoding |
KR20140043242A (en) * | 2011-06-30 | 2014-04-08 | 가부시키가이샤 제이브이씨 켄우드 | Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program |
WO2013002342A1 (en) * | 2011-06-30 | 2013-01-03 | ソニー株式会社 | Image processing device and method |
MX2014002347A (en) | 2011-08-29 | 2014-04-25 | Ibex Pt Holdings Co Ltd | Apparatus for decoding merge mode motion information. |
CN102447904A (en) * | 2011-10-24 | 2012-05-09 | 成都虢电智能电力科技有限公司 | Method for quick motion estimation of video sequences |
RU2604679C2 (en) * | 2011-10-27 | 2016-12-10 | Сан Пэтент Траст | Image encoding method, image decoding method, image encoding device and image decoding device |
CN107948656B (en) | 2011-10-28 | 2021-06-01 | 太阳专利托管公司 | Image decoding method and image decoding device |
KR101935976B1 (en) | 2011-10-28 | 2019-01-07 | 선 페이턴트 트러스트 | Image encoding method, image decoding method, image encoding device, and image decoding device |
TWI569634B (en) | 2011-10-31 | 2017-02-01 | Jvc Kenwood Corp | Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program |
EP3576412B1 (en) | 2011-11-08 | 2021-09-01 | Nokia Technologies Oy | Reference picture handling |
CN107566836B (en) | 2011-12-23 | 2020-04-07 | 韩国电子通信研究院 | Image decoding method, image encoding method, and recording medium |
RU2658146C9 (en) | 2012-04-12 | 2018-12-12 | ДжейВиСи КЕНВУД КОРПОРЕЙШН | Moving picture decoding device and moving picture decoding method |
JP2013223049A (en) * | 2012-04-13 | 2013-10-28 | Sharp Corp | Image decoding apparatus and image encoding apparatus |
US9979958B2 (en) * | 2012-04-20 | 2018-05-22 | Qualcomm Incorporated | Decoded picture buffer processing for random access point pictures in video sequences |
RU2673846C1 (en) | 2012-07-02 | 2018-11-30 | Самсунг Электроникс Ко., Лтд. | Method and device for predicting motion vector for video encoding or video decoding |
US9325990B2 (en) | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
CN102883161B (en) * | 2012-09-19 | 2015-09-30 | 华为技术有限公司 | The processing method of Video coding and decoding and device |
US20150350684A1 (en) * | 2012-09-20 | 2015-12-03 | Sony Corporation | Image processing apparatus and method |
US9538180B2 (en) * | 2012-12-17 | 2017-01-03 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP6352248B2 (en) * | 2013-04-04 | 2018-07-04 | シャープ株式会社 | Image decoding apparatus and image encoding apparatus |
SG10201913539SA (en) * | 2013-04-07 | 2020-02-27 | Dolby Int Ab | Signaling change in output layer sets |
US9591321B2 (en) * | 2013-04-07 | 2017-03-07 | Dolby International Ab | Signaling change in output layer sets |
US9930363B2 (en) | 2013-04-12 | 2018-03-27 | Nokia Technologies Oy | Harmonized inter-view and view synthesis prediction for 3D video coding |
CN105210370B (en) * | 2013-07-10 | 2019-04-12 | 夏普株式会社 | Moving image decoding apparatus |
US9894369B2 (en) * | 2013-07-30 | 2018-02-13 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
US9762927B2 (en) * | 2013-09-26 | 2017-09-12 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US10104362B2 (en) * | 2013-10-08 | 2018-10-16 | Sharp Kabushiki Kaisha | Image decoding device, image coding device, and coded data |
EP3091741B1 (en) | 2014-01-02 | 2021-10-27 | Intellectual Discovery Co., Ltd. | Method for decoding multi-view video |
WO2015102042A1 (en) * | 2014-01-02 | 2015-07-09 | Sharp Kabushiki Kaisha | Parameter set signaling |
US20170019666A1 (en) * | 2014-03-13 | 2017-01-19 | Sharp Kabushiki Kaisha | Constrained reference picture parameters |
US9756355B2 (en) * | 2014-06-20 | 2017-09-05 | Qualcomm Incorporated | Value ranges for syntax elements in video coding |
KR20170066457A (en) * | 2014-09-26 | 2017-06-14 | 브이아이디 스케일, 인크. | Intra block copy coding with temporal block vector prediction |
EP4418654A2 (en) * | 2014-10-31 | 2024-08-21 | Samsung Electronics Co., Ltd | Video encoding device and video decoding device using high-precision skip encoding and method thereof |
US9872296B2 (en) | 2015-01-06 | 2018-01-16 | Qualcomm Incorporated | Techniques for beam shaping at a millimeter wave base station and a wireless device and fast antenna subarray selection at a wireless device |
WO2016165069A1 (en) * | 2015-04-14 | 2016-10-20 | Mediatek Singapore Pte. Ltd. | Advanced temporal motion vector prediction in video coding |
KR102164062B1 (en) * | 2015-09-08 | 2020-10-13 | 미디어텍 인크. | Method and system of decoded picture buffer for intra block copy mode |
CN106534858B (en) | 2015-09-10 | 2019-09-06 | 展讯通信(上海)有限公司 | True motion estimation method and device |
CN111526361B (en) * | 2016-02-06 | 2022-05-13 | 华为技术有限公司 | Image coding and decoding method and device |
CN114449287A (en) * | 2016-03-16 | 2022-05-06 | 联发科技股份有限公司 | Method and apparatus for pattern-based motion vector derivation for video coding |
US10659801B2 (en) | 2016-03-24 | 2020-05-19 | Lg Electronics Inc. | Method and apparatus for inter prediction in video coding system |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
CA3025334C (en) | 2016-05-25 | 2021-07-13 | Arris Enterprises Llc | Binary ternary quad tree partitioning for jvet coding of video data |
KR102191846B1 (en) | 2016-08-15 | 2020-12-17 | 노키아 테크놀로지스 오와이 | Video encoding and decoding |
US11409855B2 (en) * | 2016-08-22 | 2022-08-09 | Lenovo (Singapore) Pte. Ltd. | Gesture based CAPTCHA test |
CN107820095B (en) * | 2016-09-14 | 2020-01-03 | 北京金山云网络技术有限公司 | Long-term reference image selection method and device |
US10812791B2 (en) * | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
EP3301914A1 (en) | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method and apparatus for encoding and decoding a large field of view video |
EP3343925A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
EP3343924A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
US10542280B2 (en) | 2017-01-09 | 2020-01-21 | QUALCOMM Incorpated | Encoding optimization with illumination compensation and integer motion vector restriction |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
JP7036628B2 (en) * | 2017-03-10 | 2022-03-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Encoding device, decoding device, coding method and decoding method |
CN109089119B (en) | 2017-06-13 | 2021-08-13 | 浙江大学 | Method and equipment for predicting motion vector |
JP2020145486A (en) * | 2017-07-28 | 2020-09-10 | シャープ株式会社 | Video coding device and video decoding device |
KR102233964B1 (en) * | 2017-09-12 | 2021-03-30 | 삼성전자주식회사 | Motion information encoding and decoding method, and motion information encoding and decoding apparatus |
CN107682705B (en) * | 2017-09-26 | 2020-05-12 | 杭州电子科技大学 | Stereo video B frame error concealment method based on MV-HEVC framework |
US20190141320A1 (en) * | 2017-11-07 | 2019-05-09 | Qualcomm Incorporated | Enhanced reference picture management in video coding |
WO2019107916A1 (en) | 2017-11-30 | 2019-06-06 | 엘지전자 주식회사 | Image decoding method and apparatus based on inter-prediction in image coding system |
US11323705B2 (en) | 2018-03-09 | 2022-05-03 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and apparatus using sample filtering |
JP2021517797A (en) | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | Video coding method and equipment based on affine motion prediction |
WO2019194514A1 (en) * | 2018-04-01 | 2019-10-10 | 엘지전자 주식회사 | Image processing method based on inter prediction mode, and device therefor |
EP3780608A4 (en) | 2018-04-02 | 2021-12-01 | SZ DJI Technology Co., Ltd. | Image processing method and image processing device |
CN114501018B (en) * | 2018-08-17 | 2024-01-09 | 华为技术有限公司 | Decoding method, device and system for reference image management |
-
2018
- 2018-04-02 EP EP18913497.6A patent/EP3780608A4/en active Pending
- 2018-04-02 CN CN202311156567.3A patent/CN117294837A/en active Pending
- 2018-04-02 CN CN201880012597.8A patent/CN110419217B/en active Active
- 2018-04-02 WO PCT/CN2018/081652 patent/WO2019191890A1/en unknown
- 2018-04-02 CN CN202311161948.0A patent/CN117135346A/en active Pending
- 2018-04-02 JP JP2020553616A patent/JP7088606B2/en active Active
- 2018-04-02 CN CN202311161992.1A patent/CN117061738A/en active Pending
- 2018-07-13 JP JP2020553636A patent/JP2021520124A/en active Pending
- 2018-07-13 CN CN201880012589.3A patent/CN110419220B/en active Active
- 2018-07-13 CN CN202311002352.6A patent/CN116781928A/en active Pending
- 2018-07-13 WO PCT/CN2018/095710 patent/WO2019192102A1/en unknown
- 2018-07-13 EP EP18913581.7A patent/EP3783897A4/en not_active Withdrawn
- 2018-07-13 CN CN202311004591.5A patent/CN116760999A/en active Pending
- 2018-08-31 EP EP18913876.1A patent/EP3780614A4/en active Pending
- 2018-08-31 JP JP2020553654A patent/JP7388659B2/en active Active
- 2018-08-31 WO PCT/CN2018/103693 patent/WO2019192141A1/en unknown
- 2018-08-31 CN CN201880042138.4A patent/CN110786012B/en active Active
- 2018-09-25 CN CN202111284624.7A patent/CN113824966B/en active Active
- 2018-09-25 CN CN201880011514.3A patent/CN110326295B/en active Active
- 2018-09-25 JP JP2020553580A patent/JP7294753B2/en active Active
- 2018-09-25 CN CN202111283215.5A patent/CN113852828B/en active Active
- 2018-09-25 EP EP18913372.1A patent/EP3780618A4/en not_active Withdrawn
- 2018-09-25 WO PCT/CN2018/107436 patent/WO2019192152A1/en unknown
- 2018-10-30 CN CN201880016545.8A patent/CN110495169B/en not_active Expired - Fee Related
- 2018-10-30 JP JP2020553586A patent/JP7216109B2/en active Active
- 2018-10-30 CN CN202111455033.1A patent/CN114125440A/en active Pending
- 2018-10-30 EP EP18913678.1A patent/EP3780615A4/en not_active Withdrawn
-
2019
- 2019-03-13 KR KR1020247022895A patent/KR20240110905A/en active Application Filing
- 2019-03-13 JP JP2020553581A patent/JP7533945B2/en active Active
- 2019-03-13 EP EP19781713.3A patent/EP3780619A4/en active Pending
- 2019-03-13 CN CN202210376602.1A patent/CN114938452A/en active Pending
- 2019-03-13 CN CN201980002813.5A patent/CN110720219B/en active Active
- 2019-03-13 KR KR1020207031587A patent/KR102685009B1/en active IP Right Grant
- 2019-03-13 CN CN202210376345.1A patent/CN115037942A/en active Pending
-
2020
- 2020-09-30 US US17/039,924 patent/US11330294B2/en active Active
- 2020-09-30 US US17/039,862 patent/US11490118B2/en active Active
- 2020-09-30 US US17/039,903 patent/US11190798B2/en active Active
- 2020-09-30 US US17/039,939 patent/US11368714B2/en active Active
- 2020-09-30 US US17/039,841 patent/US11363294B2/en active Active
- 2020-09-30 US US17/039,879 patent/US11323742B2/en active Active
-
2021
- 2021-03-08 US US17/195,626 patent/US11350124B2/en active Active
- 2021-04-01 US US17/220,822 patent/US11381839B2/en active Active
- 2021-04-01 US US17/220,797 patent/US11343534B2/en active Active
- 2021-04-01 US US17/220,756 patent/US11490120B2/en active Active
- 2021-04-02 US US17/221,275 patent/US11159821B2/en active Active
- 2021-11-29 US US17/456,815 patent/US11997312B2/en active Active
-
2022
- 2022-05-23 US US17/664,642 patent/US11949911B2/en active Active
- 2022-06-20 US US17/844,669 patent/US11949912B2/en active Active
- 2022-07-05 US US17/857,485 patent/US11871032B2/en active Active
- 2022-11-15 JP JP2022182636A patent/JP7525236B2/en active Active
-
2023
- 2023-01-19 JP JP2023006258A patent/JP7497948B2/en active Active
- 2023-06-05 JP JP2023092773A patent/JP7534039B2/en active Active
- 2023-11-08 JP JP2023190720A patent/JP2024010198A/en active Pending
- 2023-12-18 US US18/544,106 patent/US20240236365A9/en active Pending
-
2024
- 2024-02-22 JP JP2024025977A patent/JP2024057014A/en active Pending
- 2024-04-01 US US18/623,779 patent/US20240259592A1/en active Pending
- 2024-04-01 US US18/623,747 patent/US20240251099A1/en active Pending
- 2024-05-24 US US18/674,297 patent/US20240314356A1/en active Pending
- 2024-05-28 JP JP2024085959A patent/JP2024116183A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140307783A1 (en) * | 2011-11-08 | 2014-10-16 | Samsung Electronics Co., Ltd. | Method and apparatus for motion vector determination in video encoding or decoding |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023017981A (en) | Video processing method, encoder, non-transitory computer-readable storage medium, and program | |
TWI727338B (en) | Signaled mv precision | |
TWI719522B (en) | Symmetric bi-prediction mode for video coding | |
JP2024147683A (en) | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND BITSTREAM GENERATION METHOD | |
JP2012138838A (en) | Moving image decoding apparatus, moving image decoding method and moving image decoding program | |
JP2012138837A (en) | Moving image encoding apparatus, moving image encoding method and moving image encoding program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7525236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |