JP7034363B2 - Image decoder, image decoding method and program - Google Patents

Image decoder, image decoding method and program Download PDF

Info

Publication number
JP7034363B2
JP7034363B2 JP2021167722A JP2021167722A JP7034363B2 JP 7034363 B2 JP7034363 B2 JP 7034363B2 JP 2021167722 A JP2021167722 A JP 2021167722A JP 2021167722 A JP2021167722 A JP 2021167722A JP 7034363 B2 JP7034363 B2 JP 7034363B2
Authority
JP
Japan
Prior art keywords
block
motion vector
unit
refinement
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021167722A
Other languages
Japanese (ja)
Other versions
JP2022019720A (en
Inventor
恭平 海野
圭 河村
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019043966A external-priority patent/JP6867611B2/en
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021167722A priority Critical patent/JP7034363B2/en
Publication of JP2022019720A publication Critical patent/JP2022019720A/en
Priority to JP2022031145A priority patent/JP7061737B1/en
Application granted granted Critical
Publication of JP7034363B2 publication Critical patent/JP7034363B2/en
Priority to JP2022068204A priority patent/JP7083971B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/10Energy storage using batteries

Description

本発明は、画像復号装置、画像復号方法及びプログラムに関する。 The present invention relates to an image decoding device, an image decoding method and a program.

従来、BODF(Bi-Directional Optical Flow)という技術に関して、ソフトウェアの実行時間を短縮するために、BDOF処理に用いる2つの参照画像間の画素値の絶対値差分和を算出し、かかる絶対値差分和が所定の閾値より小さかった場合に、当該ブロックにおけるBDOF処理をスキップする技術が開示されている(例えば、非特許文献1参照)。 Conventionally, with respect to a technique called BODF (Bi-Directional Optical Flow), in order to shorten the execution time of software, the absolute value difference sum of pixel values between two reference images used for BDOF processing is calculated, and the absolute value difference sum is calculated. Discloses a technique for skipping BDOF processing in the block when is less than a predetermined threshold (see, for example, Non-Patent Document 1).

一方、ハードウェア実装時の処理遅延を削減するという観点で、上述の絶対値差分和の算出によるBDOFのスキップ処理を削除する技術も開示されている(例えば、非特許文献2参照)。 On the other hand, from the viewpoint of reducing the processing delay at the time of hardware mounting, a technique for deleting the BDOF skip processing by calculating the above-mentioned absolute value difference sum is also disclosed (see, for example, Non-Patent Document 2).

Versatile Video Coding (Draft 4)、JVET-M1001Versatile Video Coding (Draft 4), JVET-M1001 CE9-related: BDOF buffer reduction and enabling VPDU based application、JVET-M0890CE9-related: BDOF buffer reduction and enabling VPDU based application, JVET-M0890

しかしながら、例えば、非特許文献1に開示されている技術では、ソフトウェアで、かかる技術を実装した場合の実行時間を短縮することができるが、ハードウェアで実装した場合の実行時間は増加してしまうという問題点があった。 However, for example, in the technology disclosed in Non-Patent Document 1, the execution time when the technology is implemented by software can be shortened, but the execution time when the technology is implemented by hardware increases. There was a problem.

一方、非特許文献2に開示の技術では、ハードウェアでの実行時間を短縮することができるが、ソフトウェアでの実行時間は増加してしまうという問題点があった。 On the other hand, the technique disclosed in Non-Patent Document 2 can shorten the execution time in hardware, but has a problem that the execution time in software increases.

したがって、上述のような従来技術では、ソフトウェア実装時及びハードウェア実装時の両方において、処理時間を短縮することができないという問題点があった。 Therefore, the above-mentioned conventional technique has a problem that the processing time cannot be shortened both at the time of software mounting and at the time of hardware mounting.

そこで、本発明は、上述の課題に鑑みてなされたものであり、BDOF処理に先立って行われる洗練化処理の過程で算出される情報を用いて、BDOF処理の適否を制御することで、ハードウェア実装の観点では既に算出済みの値を流用することで処理量を削減し、ソフトウェア実装の観点ではBDOF処理の適用ブロック数を削減することで処理時間を短縮することができる画像復号装置、画像復号方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above-mentioned problems, and is hardware by controlling the suitability of the BDOF processing by using the information calculated in the process of the refinement processing performed prior to the BDOF processing. From the viewpoint of hardware implementation, the processing amount can be reduced by diverting the already calculated values, and from the viewpoint of software implementation, the processing time can be shortened by reducing the number of blocks to which BDOF processing is applied. It is an object of the present invention to provide a decryption method and a program.

本発明の第1の特徴は、画像復号装置であって、符号化データから動きベクトルを復号するように構成されている動きベクトル復号部と、復号された前記動きベクトルを修正する洗練化処理を行うように構成されている洗練化部と、前記洗練化部から出力される修正された前記動きベクトルに基づいて予測信号を生成するように構成されている予測信号生成部とを有し、前記予測信号生成部は、ブロックを分割したサブブロック毎にBDOF適用条件を満たしているかについて判定し、前記BDOF適用条件を満たしている前記サブブロックについて、前記洗練化処理における探索コストに基づいて、BDOF処理を適用するか否かについて判定するように構成されており、前記サブブロックの水平方向及び垂直方向のサイズは、それぞれ16画素以下であることを要旨とする。 The first feature of the present invention is an image decoding device, which comprises a motion vector decoding unit configured to decode a motion vector from encoded data, and a refinement process for correcting the decoded motion vector. It has a refinement unit configured to perform, and a prediction signal generation unit configured to generate a prediction signal based on the modified motion vector output from the refinement unit. The prediction signal generation unit determines whether or not the BDOF application condition is satisfied for each subblock that divides the block, and the BDOF for the subblock that satisfies the BDOF application condition based on the search cost in the refinement process. It is configured to determine whether or not to apply the process, and the gist is that the horizontal and vertical sizes of the subblocks are 16 pixels or less, respectively.

本発明の第2の特徴は、画像復号方法であって、符号化データから動きベクトルを復号する工程Aと、復号された前記動きベクトルを修正する洗練化処理を行う工程Bと、前記工程Bにおいて修正された前記動きベクトルに基づいて予測信号を生成する工程Cとを有し、前記工程Cは、ブロックを分割したサブブロック毎にBDOF適用条件を満たしているかについて判定する工程と、前記BDOF適用条件を満たしている前記サブブロックについて、前記洗練化処理における探索コストに基づいて、BDOF処理を適用するか否かについて判定する工程とを有し、前記サブブロックの水平方向及び垂直方向のサイズは、それぞれ16画素以下であることを要旨とする。 The second feature of the present invention is an image decoding method, which is a step A of decoding a motion vector from encoded data, a step B of performing a refinement process for correcting the decoded motion vector, and the step B. The process C includes a step C of generating a prediction signal based on the motion vector modified in the above step C. It has a step of determining whether or not to apply the BDOF process to the sub-block that satisfies the application conditions based on the search cost in the refinement process, and the horizontal and vertical sizes of the sub-block. The gist is that each has 16 pixels or less.

本発明の第3の特徴は、画像復号装置で用いるプログラムであって、コンピュータに、符号化データから動きベクトルを復号する工程Aと、復号された前記動きベクトルを修正する洗練化処理を行う工程Bと、前記工程Bにおいて修正された前記動きベクトルに基づいて予測信号を生成する工程Cとを実行させ、前記工程Cは、ブロックを分割したサブブロック毎にBDOF適用条件を満たしているかについて判定する工程と、前記BDOF適用条件を満たしている前記サブブロックについて、前記洗練化処理における探索コストに基づいて、BDOF処理を適用するか否かについて判定する工程とを有し、前記サブブロックの水平方向及び垂直方向のサイズは、それぞれ16画素以下であることを要旨とする。 A third feature of the present invention is a program used in an image decoding device, in which a computer is subjected to a step A of decoding a motion vector from encoded data and a step of performing a refinement process of correcting the decoded motion vector. B and step C for generating a prediction signal based on the motion vector modified in step B are executed, and step C determines whether the BDOF application condition is satisfied for each subblock in which the block is divided. A step of determining whether or not to apply the BDOF process to the sub-block satisfying the BDOF application condition based on the search cost in the refinement process is performed, and the sub-block is horizontal. The gist is that the size in the direction and the size in the vertical direction are 16 pixels or less, respectively.

本発明によれば、ハードウェア実装時及びソフトウェア実装時のいずれにおいても、BDOF処理に関する処理量を削減することができる画像復号装置、画像復号方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide an image decoding device, an image decoding method and a program capable of reducing the amount of processing related to BDOF processing at both the time of hardware mounting and the time of software mounting.

一実施形態に係る画像処理システム10の構成の一例を示す図である。It is a figure which shows an example of the structure of the image processing system 10 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the image coding apparatus 100 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100のインター予測部111の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the interprediction unit 111 of the image coding apparatus 100 which concerns on one Embodiment. 一実施形態に係る動画像復号装置30のインター予測部111の洗練化部111Cの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the refinement part 111C of the inter prediction part 111 of the moving image decoding apparatus 30 which concerns on one Embodiment. 一実施形態に係る動画像復号装置30のインター予測部111の予測信号生成部111Dの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the prediction signal generation part 111D of the inter prediction part 111 of the moving image decoding apparatus 30 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the in-loop filter processing unit 150 of the image coding apparatus 100 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150の境界強度判定部153による判定の一例を説明するための図である。It is a figure for demonstrating an example of the determination by the boundary strength determination unit 153 of the in-loop filter processing unit 150 of the image coding apparatus 100 which concerns on one Embodiment. 一実施形態に係る画像復号装置200の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the image decoding apparatus 200 which concerns on one Embodiment. 一実施形態に係る画像復号装置200のインター予測部241の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the inter prediction part 241 of the image decoding apparatus 200 which concerns on one Embodiment. 一実施形態に係る画像復号装置200のインループフィルタ処理部250の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the in-loop filter processing unit 250 of the image decoding apparatus 200 which concerns on one Embodiment.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下の実施形態における構成要素は、適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The components in the following embodiments can be replaced with existing components as appropriate, and various variations including combinations with other existing components are possible. Therefore, the description of the following embodiments does not limit the content of the invention described in the claims.

(第1実施形態)
以下、図1~図10を参照して、本発明の第1実施形態に係る画像処理システム10について説明する。図1は、本実施形態に係る実施形態に係る画像処理システム10を示す図である。
(First Embodiment)
Hereinafter, the image processing system 10 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 10. FIG. 1 is a diagram showing an image processing system 10 according to an embodiment according to the present embodiment.

図1に示すように、画像処理システム10は、画像符号化装置100及び画像復号装置200を有する。 As shown in FIG. 1, the image processing system 10 includes an image coding device 100 and an image decoding device 200.

画像符号化装置100は、入力画像信号を符号化することによって符号化データを生成するように構成されている。画像復号装置200は、符号化データを復号することによって出力画像信号を生成するように構成されている。 The image coding device 100 is configured to generate encoded data by encoding an input image signal. The image decoding device 200 is configured to generate an output image signal by decoding the coded data.

ここで、かかる符号化データは、画像符号化装置100から画像復号装置200に対して伝送路を介して送信されてもよい。また、符号化データは、記憶媒体に格納された上で、画像符号化装置100から画像復号装置200に提供されてもよい。 Here, such coded data may be transmitted from the image coding device 100 to the image decoding device 200 via a transmission path. Further, the coded data may be stored in the storage medium and then provided from the image coding device 100 to the image decoding device 200.

(画像符号化装置100)
以下、図2を参照して、本実施形態に係る画像符号化装置100について説明する。図2は、本実施形態に係る画像符号化装置100の機能ブロックの一例について示す図である。
(Image Coding Device 100)
Hereinafter, the image coding apparatus 100 according to the present embodiment will be described with reference to FIG. 2. FIG. 2 is a diagram showing an example of a functional block of the image coding apparatus 100 according to the present embodiment.

図2に示すように、画像符号化装置100は、インター予測部111と、イントラ予測部112と、減算器121と、加算器122と、変換・量子化部131と、逆変換・逆量子化部132と、符号化部140と、インループフィルタ処理部150と、フレームバッファ160とを有する。 As shown in FIG. 2, the image coding apparatus 100 includes an inter-prediction unit 111, an intra-prediction unit 112, a subtractor 121, an adder 122, a conversion / quantization unit 131, and an inverse conversion / dequantization. It has a unit 132, a coding unit 140, an in-loop filter processing unit 150, and a frame buffer 160.

インター予測部111は、インター予測(フレーム間予測)によって予測信号を生成するように構成されている。 The inter-prediction unit 111 is configured to generate a prediction signal by inter-prediction (inter-frame prediction).

具体的には、インター予測部111は、符号化対象のフレーム(以下、対象フレーム)とフレームバッファ160に格納される参照フレームとの比較によって、参照フレームに含まれる参照ブロックを特定し、特定された参照ブロックに対する動きベクトルを決定するように構成されている。 Specifically, the inter-prediction unit 111 identifies and identifies the reference block included in the reference frame by comparing the frame to be encoded (hereinafter referred to as the target frame) with the reference frame stored in the frame buffer 160. It is configured to determine the motion vector for the reference block.

また、インター予測部111は、参照ブロック及び動きベクトルに基づいて予測ブロックに含まれる予測信号を予測ブロック毎に生成するように構成されている。インター予測部111は、予測信号を減算器121及び加算器122に出力するように構成されている。ここで、参照フレームは、対象フレームとは異なるフレームである。 Further, the inter-prediction unit 111 is configured to generate a prediction signal included in the prediction block for each prediction block based on the reference block and the motion vector. The inter-prediction unit 111 is configured to output a prediction signal to the subtractor 121 and the adder 122. Here, the reference frame is a frame different from the target frame.

イントラ予測部112は、イントラ予測(フレーム内予測)によって予測信号を生成するように構成されている。 The intra prediction unit 112 is configured to generate a prediction signal by intra prediction (in-frame prediction).

具体的には、イントラ予測部112は、対象フレームに含まれる参照ブロックを特定し、特定された参照ブロックに基づいて予測信号を予測ブロック毎に生成するように構成されている。また、イントラ予測部112は、予測信号を減算器121及び加算器122に出力するように構成されている。 Specifically, the intra prediction unit 112 is configured to specify a reference block included in the target frame and generate a prediction signal for each prediction block based on the specified reference block. Further, the intra prediction unit 112 is configured to output the prediction signal to the subtractor 121 and the adder 122.

ここで、参照ブロックは、予測対象のブロック(以下、対象ブロック)について参照されるブロックである。例えば、参照ブロックは、対象ブロックに隣接するブロックである。 Here, the reference block is a block referred to with respect to the block to be predicted (hereinafter referred to as the target block). For example, the reference block is a block adjacent to the target block.

減算器121は、入力画像信号から予測信号を減算し、予測残差信号を変換・量子化部131に出力するように構成されている。ここで、減算器121は、イントラ予測又はインター予測によって生成される予測信号と入力画像信号との差分である予測残差信号を生成するように構成されている。 The subtractor 121 is configured to subtract the prediction signal from the input image signal and output the prediction residual signal to the conversion / quantization unit 131. Here, the subtractor 121 is configured to generate a prediction residual signal which is a difference between the prediction signal generated by the intra prediction or the inter prediction and the input image signal.

加算器122は、逆変換・逆量子化部132から出力される予測残差信号に予測信号を加算してフィルタ処理前復号信号を生成し、かかるフィルタ処理前復号信号をイントラ予測部112及びインループフィルタ処理部150に出力するように構成されている。 The adder 122 adds a prediction signal to the prediction residual signal output from the inverse conversion / inverse quantization unit 132 to generate a pre-filter processing decoding signal, and the pre-filter processing decoding signal is used by the intra prediction unit 112 and the input. It is configured to output to the loop filter processing unit 150.

ここで、フィルタ処理前復号信号は、イントラ予測部112で用いる参照ブロックを構成する。 Here, the pre-filtered decoding signal constitutes a reference block used by the intra prediction unit 112.

変換・量子化部131は、予測残差信号の変換処理を行うとともに、係数レベル値を取得するように構成されている。さらに、変換・量子化部131は、係数レベル値の量子化を行うように構成されていてもよい。 The conversion / quantization unit 131 is configured to perform conversion processing of the predicted residual signal and acquire a coefficient level value. Further, the conversion / quantization unit 131 may be configured to quantize the coefficient level value.

ここで、変換処理は、予測残差信号を周波数成分信号に変換する処理である。かかる変換処理では、離散コサイン変換(DCT;Discrete Cosine Transform)に対応する基底パターン(変換行列)が用いられてもよく、離散サイン変換(DST;Discrete Sine Transform)に対応する基底パターン(変換行列)が用いられてもよい。 Here, the conversion process is a process of converting the predicted residual signal into a frequency component signal. In such a conversion process, a base pattern (transformation matrix) corresponding to a discrete cosine transform (DCT) may be used, or a base pattern (transformation matrix) corresponding to a discrete sine transform (DST). May be used.

逆変換・逆量子化部132は、変換・量子化部131から出力される係数レベル値の逆変換処理を行うように構成されている。ここで、逆変換・逆量子化部132は、逆変換処理に先立って、係数レベル値の逆量子化を行うように構成されていてもよい。 The inverse conversion / inverse quantization unit 132 is configured to perform an inverse conversion process of the coefficient level value output from the conversion / quantization unit 131. Here, the inverse transformation / inverse quantization unit 132 may be configured to perform inverse quantization of the coefficient level value prior to the inverse transformation process.

ここで、逆変換処理及び逆量子化は、変換・量子化部131で行われる変換処理及び量子化とは逆の手順で行われる。 Here, the inverse conversion process and the inverse quantization are performed in the reverse procedure of the conversion process and the quantization performed by the conversion / quantization unit 131.

符号化部140は、変換・量子化部131から出力された係数レベル値を符号化し、符号化データを出力するように構成されている。 The coding unit 140 is configured to encode the coefficient level value output from the conversion / quantization unit 131 and output the coded data.

ここで、例えば、符号化は、係数レベル値の発生確率に基づいて異なる長さの符号を割り当てるエントロピー符号化である。 Here, for example, coding is entropy coding in which codes of different lengths are assigned based on the probability of occurrence of a coefficient level value.

また、符号化部140は、係数レベル値に加えて、復号処理で用いる制御データを符号化するように構成されている。 Further, the coding unit 140 is configured to encode the control data used in the decoding process in addition to the coefficient level value.

ここで、制御データは、符号化ブロック(CU:Coding Unit)サイズ、予測ブロック(PU:Prediction Unit)サイズ、変換ブロック(TU:Transform Unit)サイズ等のサイズデータを含んでもよい。 Here, the control data may include size data such as a coding block (CU: Coding Unit) size, a prediction block (PU: Precision Unit) size, and a conversion block (TU: Transfer Unit) size.

インループフィルタ処理部150は、加算器122から出力されるフィルタ処理前復号信号に対してフィルタ処理を行うとともに、フィルタ処理後復号信号をフレームバッファ160に出力するように構成されている。 The in-loop filter processing unit 150 is configured to perform filter processing on the pre-filter processing decoding signal output from the adder 122 and output the post-filter processing decoding signal to the frame buffer 160.

ここで、例えば、フィルタ処理は、ブロック(符号化ブロック、予測ブロック又は変換ブロック)の境界部分で生じる歪みを減少するデブロッキングフィルタ処理である。 Here, for example, the filtering process is a deblocking filtering process that reduces the distortion generated at the boundary portion of the block (encoded block, prediction block, or conversion block).

フレームバッファ160は、インター予測部111で用いる参照フレームを蓄積するように構成されている。 The frame buffer 160 is configured to store reference frames used by the inter-prediction unit 111.

ここで、フィルタ処理後復号信号は、インター予測部111で用いる参照フレームを構成する。 Here, the filtered decoded signal constitutes a reference frame used by the inter-prediction unit 111.

(インター予測部111)
以下、図3を参照して、本実施形態に係る画像符号化装置100のインター予測部111について説明する。図3は、本実施形態に係る画像符号化装置100のインター予測部111の機能ブロックの一例について示す図である。
(Inter prediction unit 111)
Hereinafter, the inter-prediction unit 111 of the image coding apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram showing an example of a functional block of the inter-prediction unit 111 of the image coding apparatus 100 according to the present embodiment.

図3に示すように、インター予測部111は、動きベクトル探索部111Aと、動きベクトル符号化部111Bと、洗練化部111Cと、予測信号生成部111Dとを有する。 As shown in FIG. 3, the inter-prediction unit 111 includes a motion vector search unit 111A, a motion vector coding unit 111B, a refinement unit 111C, and a prediction signal generation unit 111D.

インター予測部111は、動きベクトルに基づいて予測ブロックに含まれる予測信号を生成するように構成されている予測部の一例である。 The inter-prediction unit 111 is an example of a prediction unit configured to generate a prediction signal included in a prediction block based on a motion vector.

動きベクトル探索部111Aは、対象フレームと参照フレームとの比較によって、参照フレームに含まれる参照ブロックを特定し、特定された参照ブロックに対する動きベクトルを探索するように構成されている。 The motion vector search unit 111A is configured to identify a reference block included in the reference frame by comparing the target frame with the reference frame, and search for a motion vector for the specified reference block.

また、上述の探索処理を複数の参照フレーム候補に対して行い、当該予測ブロックで予測に用いる参照フレーム及び動きベクトルを決定する。参照フレーム及び動きベクトルは、一つのブロックに対して最大二つずつ用いることができる。一つのブロックに対して参照フレームと動きベクトルを一組のみ用いる場合を片予測と呼び、参照フレームと動きベクトルを二組用いる場合を双予測と呼ぶ。以降、一組目をL0と呼び、二組目をL1と呼ぶ。 Further, the above-mentioned search process is performed on a plurality of reference frame candidates, and the reference frame and the motion vector used for prediction in the prediction block are determined. Up to two reference frames and motion vectors can be used for one block. The case where only one set of reference frame and motion vector is used for one block is called one-sided prediction, and the case where two sets of reference frame and motion vector are used is called bi-prediction. Hereinafter, the first set is referred to as L0, and the second set is referred to as L1.

更に、動きベクトル探索部111Aは、参照フレーム及び動きベクトルの符号化方法を決定するように構成されている。符号化方法には、参照フレーム及び動きベクトルの情報をそれぞれ伝送する通常の方法に加え、後述するマージモードや非特許文献2に記載のSymmetric MVDモード等がある。 Further, the motion vector search unit 111A is configured to determine the reference frame and the motion vector coding method. The coding method includes a merge mode described later, a Symmetric MVD mode described in Non-Patent Document 2, and the like, in addition to a normal method for transmitting information on a reference frame and a motion vector, respectively.

なお、動きベクトルの探索方法、参照フレームの決定方法及び参照フレーム及び動きベクトルの符号化方法の決定方法については、既知の手法を採用することが可能であるため、その詳細については省略する。 As for the method of searching the motion vector, the method of determining the reference frame, and the method of determining the method of encoding the reference frame and the motion vector, known methods can be adopted, and the details thereof will be omitted.

動きベクトル符号化部111Bは、動きベクトル探索部111Aで決定した参照フレームと動きベクトルの情報を、同じく動きベクトル探索部111Aで決定した符号化方法を用いて符号化するように構成されている。 The motion vector coding unit 111B is configured to encode the information of the reference frame and the motion vector determined by the motion vector search unit 111A by using the coding method also determined by the motion vector search unit 111A.

当該ブロックの符号化方法がマージモードの場合、初めに、当該ブロックに対するマージリストを作成する。マージリストは、参照フレームと動きベクトルとの組み合わせが複数列挙されたリストである。各組み合わせには、インデックスが振られており、参照フレーム及び動きベクトルの情報を個別に符号化する代わりに、前記のインデックスのみを符号化し、復号側に伝送する。符号化側と復号側とでマージリストの作成方法を共通化しておくことで、復号側ではインデックス情報のみから参照フレームと動きベクトルの情報を復号することができる。マージリストの作成方法については、既知の手法を採用することが可能であるため、その詳細については省略する。 When the encoding method of the block is the merge mode, first, a merge list for the block is created. A merge list is a list in which a plurality of combinations of reference frames and motion vectors are listed. An index is assigned to each combination, and instead of individually encoding the reference frame and motion vector information, only the index is encoded and transmitted to the decoding side. By sharing the method of creating the merge list between the coding side and the decoding side, the decoding side can decode the reference frame and motion vector information only from the index information. As for the method of creating the merge list, a known method can be adopted, so the details thereof will be omitted.

Symmetric MVDモードは、当該ブロックで双予測を行う場合にのみ使用可能な符号化方法である。Symmetric MVDモードでは、復号側に伝送すべき情報である二つ(L0、L1)の参照フレーム及び二つ(L0、L1)の動きベクトルのうち、L0の動きベクトル(差分動きベクトル)のみを符号化する。残りのL1の動きベクトル及び二つの参照フレームの情報については、予め決められた方法によって符号化側及び復号側でそれぞれ一意に決定する。 The Symmetric MVD mode is a coding method that can only be used when performing bi-prediction in the block. In the Symmetric MVD mode, of the two (L0, L1) reference frames and the two (L0, L1) motion vectors, which are the information to be transmitted to the decoding side, only the L0 motion vector (difference motion vector) is coded. To become. The remaining motion vector of L1 and the information of the two reference frames are uniquely determined on the coding side and the decoding side by a predetermined method.

動きベクトル情報の符号化については、初めに符号化対象動きベクトルの予測値である予測動きベクトルを生成し、予測動きベクトルと実際に符号化したい動きベクトルとの差分値である差分動きベクトルを符号化する。 Regarding the coding of motion vector information, first, the predicted motion vector, which is the predicted value of the motion vector to be coded, is generated, and then the differential motion vector, which is the difference value between the predicted motion vector and the motion vector to be actually encoded, is coded. To become.

Symmetric MVDモードでは、L1の差分動きベクトルとして、符号化されたL0の差分動きベクトルの符号を反転したものを用いる。具体的な方法については、例えば、非特許文献2に記載されている方法を用いることができる。 In the Symmetric MVD mode, the code of the encoded difference motion vector of L0 is inverted as the difference motion vector of L1. As a specific method, for example, the method described in Non-Patent Document 2 can be used.

洗練化部111Cは、動きベクトル符号化部111Bで符号化された動きベクトルを修正する洗練化処理(例えば、DMVR)を行うように構成されている。 The refinement unit 111C is configured to perform a refinement process (for example, DMVR) for modifying the motion vector encoded by the motion vector coding unit 111B.

具体的には、洗練化部111Cは、動きベクトル符号化部111Bで符号化された動きベクトルによって特定される参照位置を基準として探索範囲を設定し、探索範囲の中から所定コストが最も小さい修正参照位置を特定し、修正参照位置に基づいて動きベクトルを修正する洗練化処理を行うように構成されている。 Specifically, the refinement unit 111C sets the search range with reference to the reference position specified by the motion vector encoded by the motion vector coding unit 111B, and corrects the search range with the smallest predetermined cost. It is configured to perform refinement processing that identifies the reference position and corrects the motion vector based on the correction reference position.

図4は、洗練化部111Cの処理手順の一例を示すフローチャートである。 FIG. 4 is a flowchart showing an example of the processing procedure of the refinement unit 111C.

図4に示すように、ステップS41において、洗練化部111Cは、洗練化処理を適用するための所定条件が満足されているかどうかについて判定する。所定条件が全て満足されている場合に、本処理手順は、ステップS42へ進む。所定条件のどれか一つでも満足されていない場合は、本処理手順は、ステップS45へ進み、洗練化処理を終了する。 As shown in FIG. 4, in step S41, the refinement unit 111C determines whether or not the predetermined conditions for applying the refinement process are satisfied. When all the predetermined conditions are satisfied, this processing procedure proceeds to step S42. If any one of the predetermined conditions is not satisfied, the processing procedure proceeds to step S45 and ends the refining process.

ここで、所定条件は、当該ブロックが双予測を行うブロックであるという条件を含む。 Here, the predetermined condition includes the condition that the block is a block for performing bi-prediction.

さらに、所定条件は、動きベクトルがマージモードで符号化されているという条件を含んでもよい。 Further, the predetermined condition may include the condition that the motion vector is encoded in the merge mode.

また、所定条件は、動きベクトルがSymmetric MVDモードで符号化されているという条件を含んでもよい。 Further, the predetermined condition may include the condition that the motion vector is encoded in the Symmetric MVD mode.

さらに、所定条件は、動きベクトルがSymmetric MVDモードで符号化されており、Symmetric MVDモードにおいて伝送される差分動きベクトル(L0のMVD)の大きさが予め設定された閾値以内であるという条件を含んでもよい。 Further, the predetermined condition includes a condition that the motion vector is encoded in the Symmetric MVD mode and the magnitude of the differential motion vector (MVD of L0) transmitted in the Symmetric MVD mode is within a preset threshold value. But it may be.

ここで、差分動きベクトルの大きさは、例えば、差分動きベクトルの水平及び垂直方向成分それぞれの絶対値で定義することができる。 Here, the magnitude of the differential motion vector can be defined, for example, by the absolute value of each of the horizontal and vertical components of the differential motion vector.

かかる閾値は、動きベクトルの水平及び垂直方向成分に対してそれぞれ別の閾値を用いてもよいし、水平及び垂直方向成分で共通の閾値を用いても良い。また、閾値の値を0に設定することも可能である。この場合、予測動きベクトル及び符号化される動きベクトルが同じ値であることを意味する。また、閾値について最小値と最大値で定義してもよい。この場合、所定条件として、差分動きベクトルの値又は絶対値が、予め定めた最小値以上かつ最大値以下であることという条件が含まれることになる。 As such a threshold value, different threshold values may be used for the horizontal and vertical components of the motion vector, or a common threshold value may be used for the horizontal and vertical components. It is also possible to set the threshold value to 0. In this case, it means that the predicted motion vector and the encoded motion vector have the same value. Further, the threshold value may be defined by a minimum value and a maximum value. In this case, the predetermined condition includes the condition that the value or the absolute value of the differential motion vector is equal to or more than a predetermined minimum value and not more than the maximum value.

また、所定条件は、動きベクトルがマージモード或いはSymmetric MVDモードで符号化されているという条件を含んでもよい。同様に、所定条件は、動きベクトルがマージモード或いはSymmetric MVDモードで符号化されており、Symmetric MVDモードで符号化されている場合は、伝送される差分動きベクトルの大きさが予め設定された閾値以内であるという条件を含んでいてもよい。 Further, the predetermined condition may include a condition that the motion vector is encoded in the merge mode or the Symmetric MVD mode. Similarly, the predetermined condition is that when the motion vector is encoded in merge mode or Symmetric MVD mode and encoded in Symmetric MVD mode, the magnitude of the transmitted differential motion vector is a preset threshold. It may include the condition that it is within.

ステップS42において、洗練化部111Cは、動きベクトル符号化部111Bで符号化された動きベクトル及び参照フレームの情報に基づいて、探索用画像を生成する。 In step S42, the refinement unit 111C generates a search image based on the information of the motion vector and the reference frame encoded by the motion vector coding unit 111B.

ここで、動きベクトルが非整数画素位置を指していた場合は、洗練化部111Cは、参照フレームの画素値にフィルタを適用して非整数画素位置の画素を内挿する。この時、洗練化部111Cは、後述する予測信号生成部111Dで用いる内挿フィルタより、少ないタップ数の内挿フィルタを用いることで、演算量を削減することができる。例えば、洗練化部111Cは、バイリニア補間によって非整数画素位置の画素値を内挿することができる。 Here, when the motion vector points to a non-integer pixel position, the refinement unit 111C applies a filter to the pixel value of the reference frame to interpolate the pixel at the non-integer pixel position. At this time, the refinement unit 111C can reduce the amount of calculation by using the interpolation filter having a smaller number of taps than the interpolation filter used in the prediction signal generation unit 111D described later. For example, the refinement unit 111C can interpolate pixel values at non-integer pixel positions by bilinear interpolation.

ステップS43において、洗練化部111Cは、ステップS42で生成した探索用画像を用いて、整数画素精度での探索を行う。ここで、整数画素精度とは、動きベクトル符号化部111Bで符号化された動きベクトルを基準として、整数画素間隔となる点のみを探索することを意味する。 In step S43, the refinement unit 111C performs a search with integer pixel accuracy using the search image generated in step S42. Here, the integer pixel accuracy means to search only the points having the integer pixel spacing with reference to the motion vector encoded by the motion vector coding unit 111B.

洗練化部111Cは、ステップS42の探索によって、整数画素間隔位置での修正後の動きベクトルを決定する。探索の方法としては、既知の手法を用いることができる。例えば、洗練化部111Cは、L0側及びL1側の差分動きベクトルが符号のみを反転した組み合わせとなる点のみを探索するという方法で探索することもできる。ここで、ステップS43における探索の結果、探索前の動きベクトルと同じ値になる可能性もある。 The refinement unit 111C determines the corrected motion vector at the integer pixel spacing position by the search in step S42. As a search method, a known method can be used. For example, the refinement unit 111C can also search by a method of searching only a point where the difference motion vector on the L0 side and the L1 side is a combination in which only the sign is inverted. Here, as a result of the search in step S43, the value may be the same as the motion vector before the search.

ステップS44において、洗練化部111Cは、ステップS43で決定した整数画素精度での修正後の動きベクトルを初期値として、非整数画素精度での動きベクトル探索を行う。動きベクトルの探索方法としては、既知の手法を用いることができる。 In step S44, the refinement unit 111C performs a motion vector search with non-integer pixel accuracy with the motion vector after correction with integer pixel accuracy determined in step S43 as an initial value. As a motion vector search method, a known method can be used.

また、洗練化部111Cは、実際に探索を行わずに、ステップS43の結果を入力として、パラボラフィッティング等のパラメトリックなモデルを用いて非整数画素精度でのベクトルを決定することもできる。 Further, the refinement unit 111C can also determine a vector with non-integer pixel accuracy by using a parabolic fitting or the like parabolic model as an input of the result of step S43 without actually performing a search.

洗練化部111Cは、ステップS44において、非整数画素精度での修正後の動きベクトルを決定した後、ステップS45へ移り洗練化処理を終了する。ここでは、便宜上、非整数画素精度の修正後動きベクトルという表現を用いたが、ステップS44の探索結果により、結果的に、ステップS43で求めた整数画素精度の動きベクトルと同じ値になる可能性もある。 In step S44, the refinement unit 111C determines the motion vector after the correction with non-integer pixel accuracy, and then proceeds to step S45 to end the refinement process. Here, for convenience, the expression of the modified motion vector with non-integer pixel accuracy is used, but the search result in step S44 may result in the same value as the motion vector with integer pixel accuracy obtained in step S43. There is also.

洗練化部111Cは、予め定めた閾値より大きなブロックを、小さなサブブロックに分割してサブブロックごとに洗練化処理を実行してもよい。例えば、洗練化部111Cは、洗練化処理の実行単位を16×16画素と設定しておき、ブロックの水平方向又は垂直方向のサイズが16画素より大きい場合、それぞれ16画素以下となるように分割することができる。この時、洗練化処理の基準となる動きベクトルとしては、同一ブロック内の全てのサブブロックについて、動きベクトル符号化部111Bで符号化された当該ブロックの動きベクトルを用いる。 The refinement unit 111C may divide a block larger than a predetermined threshold into smaller subblocks and execute the refinement process for each subblock. For example, the refinement unit 111C sets the execution unit of the refinement process to 16 × 16 pixels, and when the horizontal or vertical size of the block is larger than 16 pixels, it is divided into 16 pixels or less. can do. At this time, as the motion vector used as the reference for the refinement process, the motion vector of the block encoded by the motion vector coding unit 111B is used for all the sub-blocks in the same block.

サブブロックごとに処理を行う場合、洗練化部111Cは、図4の全ての手順をサブブロックごとに実行してもよい。また、洗練化部111Cは、図4の処理の一部のみをサブブロックごとに処理してもよい。具体的には、洗練化部111Cは、図4のステップS41及びS42については、ブロック毎に処理を行い、ステップS43及びS44のみについて、サブブロックごとに処理してもよい。 When processing is performed for each sub-block, the refinement unit 111C may execute all the procedures of FIG. 4 for each sub-block. Further, the refinement unit 111C may process only a part of the process of FIG. 4 for each subblock. Specifically, the refinement unit 111C may process the steps S41 and S42 of FIG. 4 for each block, and may process only the steps S43 and S44 for each sub-block.

予測信号生成部111Dは、洗練化部111Cから出力される修正された動きベクトルに基づいて予測信号を生成するように構成されている。 The prediction signal generation unit 111D is configured to generate a prediction signal based on the modified motion vector output from the refinement unit 111C.

ここで、後述するように、予測信号生成部111Dは、上述の洗練化処理の過程で算出される情報(例えば、探索コスト)に基づいて、ブロック毎にBDOF処理を行うるか否かについて判定するように構成されている。 Here, as will be described later, the prediction signal generation unit 111D determines whether or not to perform BDOF processing for each block based on the information calculated in the process of the above-mentioned refinement processing (for example, search cost). It is configured as follows.

具体的には、予測信号生成部111Dは、動きベクトルが修正されない場合には、動きベクトル符号化部111Bで符号化された動きベクトルに基づいて予測信号を生成するように構成されている。一方で、予測信号生成部111Dは、動きベクトルが修正される場合には、洗練化部111Cで修正された動きベクトルに基づいて予測信号を生成するように構成されている。 Specifically, the prediction signal generation unit 111D is configured to generate a prediction signal based on the motion vector encoded by the motion vector coding unit 111B when the motion vector is not modified. On the other hand, the prediction signal generation unit 111D is configured to generate a prediction signal based on the motion vector corrected by the refinement unit 111C when the motion vector is modified.

図5は、予測信号生成部111Dの処理手順の一例を示すフローチャートである。ここで、洗練化部111Cにてサブブロック単位で洗練化処理が行われた場合、予測信号生成部111Dの処理もサブブロック単位で実行される。その場合、以下の説明のブロックという単語は、適宜、サブブロックに読み替えることができる。 FIG. 5 is a flowchart showing an example of the processing procedure of the prediction signal generation unit 111D. Here, when the refinement process is performed in the sub-block unit by the refinement unit 111C, the process of the prediction signal generation unit 111D is also executed in the sub-block unit. In that case, the word block in the following description can be appropriately read as a subblock.

図5に示すように、ステップS51において、予測信号生成部111Dは、予測信号を生成する。 As shown in FIG. 5, in step S51, the prediction signal generation unit 111D generates a prediction signal.

具体的には、予測信号生成部111Dは、動きベクトル符号化部111Bで符号化された動きベクトル或いは洗練化部111Cで符号化された動きベクトルを入力として、かかる動きベクトルが指す位置が非整数画素位置の場合は参照フレームの画素値にフィルタを適用して非整数画素位置の画素を内挿する。ここで、具体的なフィルタについては、非特許文献3で開示されている最大8タップの水平垂直可分型のフィルタを適用することができる。 Specifically, the prediction signal generation unit 111D takes a motion vector encoded by the motion vector coding unit 111B or a motion vector encoded by the refinement unit 111C as an input, and the position pointed to by the motion vector is a non-integer. In the case of a pixel position, a filter is applied to the pixel value of the reference frame to interpolate the pixel at the non-integer pixel position. Here, as a specific filter, a horizontal / vertical separable filter with a maximum of 8 taps disclosed in Non-Patent Document 3 can be applied.

当該ブロックが双予測を行うブロックである場合は、一つ目(以後、L0と呼ぶ)の参照フレーム及び動きベクトルによる予測信号及び二つ目(以後、L1と呼ぶ)の参照フレーム及び動きベクトルによる予測信号の両方を生成する。 When the block is a block that performs bi-prediction, it is based on the first (hereinafter referred to as L0) reference frame and motion vector prediction signal and the second (hereinafter referred to as L1) reference frame and motion vector. Generate both predictive signals.

ステップS52において、予測信号生成部111Dは、後述するBDOF(Bi-Directional Optical Flow)の適用条件が満足されているかどうかについて確認する。 In step S52, the prediction signal generation unit 111D confirms whether or not the application conditions of BDOF (Bi-Directional Optical Flow) described later are satisfied.

かかる適用条件としては、非特許文献3に記載の条件を適用できる。適用条件は、少なくとも当該ブロックが双予測を行うブロックであることという条件を含む。また、適用条件は、非特許文献1に記載のように、当該ブロックの動きベクトルがSymmetric MVDモードで符号化されていないことという条件を含んでもよい。 As such application conditions, the conditions described in Non-Patent Document 3 can be applied. The applicable condition includes at least the condition that the block is a block that makes a bi-prediction. Further, the applicable condition may include a condition that the motion vector of the block is not encoded in the Symmetric MVD mode as described in Non-Patent Document 1.

また、適用条件は、当該ブロックの動きベクトルがSymmetric MVDモードで符号化されていないこと、或いは、Symmetric MVDモードで符号化されている場合には伝送される差分動きベクトルの大きさが予め設定された閾値以内であることという条件を含んでもよい。ここで、差分動きベクトルの大きさは、上述のステップS41と同様の方法で判定することができる。閾値の値は、上述のステップS41と同様に0に設定することも可能である。 Further, the application condition is that the motion vector of the block is not encoded in the Symmetric MVD mode, or the magnitude of the differential motion vector to be transmitted is set in advance when it is encoded in the Symbolic MVD mode. It may include the condition that it is within the threshold value. Here, the magnitude of the differential motion vector can be determined by the same method as in step S41 described above. The threshold value can also be set to 0 in the same manner as in step S41 described above.

適用条件が満足されていない場合、本処理手順は、ステップS55に移って処理を終了する。この時、予測信号生成部111Dは、ステップS51で生成した予測信号を最終的な予測信号として出力する。 If the applicable conditions are not satisfied, the processing procedure proceeds to step S55 to end the processing. At this time, the prediction signal generation unit 111D outputs the prediction signal generated in step S51 as the final prediction signal.

一方、適用条件が全て満足される場合、本処理手順は、ステップS53へ移る。ステップS53において、本処理手順は、適用条件を満足しているブロックについて、実際に、ステップS54のBDOF処理を実行するかどうかについて判定する。 On the other hand, when all the applicable conditions are satisfied, this processing procedure proceeds to step S53. In step S53, this processing procedure determines whether or not to actually execute the BDOF processing of step S54 for the block satisfying the applicable conditions.

例えば、予測信号生成部111Dは、L0の予測信号とL1の予測信号との絶対値差分和を算出し、その値が予め定めた閾値以下であった場合は、BDOF処理を行わないといったような判定を行う。 For example, the prediction signal generation unit 111D calculates the absolute value difference sum of the prediction signal of L0 and the prediction signal of L1, and if the value is equal to or less than a predetermined threshold value, the BDOF process is not performed. Make a judgment.

ここで、予測信号生成部111Dは、洗練化部111Cで洗練化処理を実行したブロックについては、BDOFの適用有無に洗練化処理の結果を用いることもできる。 Here, the prediction signal generation unit 111D can also use the result of the refinement processing for whether or not the BDOF is applied to the block for which the refinement process is executed by the refinement unit 111C.

例えば、洗練化処理を実施した結果、修正前後の動きベクトルの差分が予め定めた閾値以下の場合に、予測信号生成部111Dは、BDOFを適用しないと判断することができる。かかる閾値を水平及び垂直方向成分ともに「0」に設定した場合、洗練化処理を実施した結果、修正前と比べて動きベクトルが変化しなかった場合に、BDOFを適用しないという判定をすることと等価となる。 For example, as a result of performing the refinement process, when the difference between the motion vectors before and after the correction is equal to or less than a predetermined threshold value, the prediction signal generation unit 111D can determine that the BDOF is not applied. When such a threshold value is set to "0" for both the horizontal and vertical components, it is determined that the BDOF is not applied when the motion vector does not change as a result of the refinement process. It becomes equivalent.

予測信号生成部111Dは、上述の洗練化処理の過程で算出された探索コスト(例えば、L0側の参照ブロックの画素値とL1側の参照ブロックの画素値との絶対値差分和)を用いて、BDOFを適用するか否かを判定することもできる。 The prediction signal generation unit 111D uses the search cost calculated in the process of the above-mentioned refinement process (for example, the absolute value difference sum of the pixel value of the reference block on the L0 side and the pixel value of the reference block on the L1 side). , It is also possible to determine whether or not to apply BDOF.

なお、以下では探索コストとして絶対値差分和を用いた場合を例に説明するが、他の指標を探索コストに用いることもできる。例えば、局所的な平均値を除去した後の信号同士の絶対値差分和や、二乗誤差和等、画像信号同士の類似性を判断するための指標値であればよい。 In the following, the case where the absolute value difference sum is used as the search cost will be described as an example, but other indexes can also be used for the search cost. For example, it may be an index value for determining the similarity between image signals, such as the absolute value difference sum of signals after removing the local mean value and the square error sum.

例えば、予測信号生成部111Dは、ステップS43における整数画素位置探索において、上述の探索コスト(絶対値差分和)が最小となる探索点の絶対値差分和が、予め定めた閾値よりも小さい場合に、BDOFを適用しないという判定をすることができる。 For example, in the integer pixel position search in step S43, the prediction signal generation unit 111D determines that the absolute value difference sum of the search points at which the search cost (absolute value difference sum) is minimized is smaller than a predetermined threshold value. , BDOF can be determined not to be applied.

また、予測信号生成部111Dは、上述の洗練化処理前後の動きベクトルの変化を用いる方法と上述の洗練化処理の探索コストを用いる方法とを組み合わせて、BFOF処理の適否を判定することもできる。 Further, the prediction signal generation unit 111D can also determine the suitability of the BFOF process by combining the method using the change of the motion vector before and after the refinement process described above and the method using the search cost of the refinement process described above. ..

例えば、予測信号生成部111Dは、洗練化処理前後の動きベクトルの差分が予め定めた閾値以下で且つ洗練化処理の探索コストが予め定めた閾値以下の場合に、BDOF処理を適用しないと判定することができる。 For example, the prediction signal generation unit 111D determines that the BDOF process is not applied when the difference between the motion vectors before and after the refinement process is equal to or less than a predetermined threshold value and the search cost of the refinement process is equal to or less than a predetermined threshold value. be able to.

ここで、洗練化処理前後の動きベクトルの差分の閾値を0にした場合、上述の探索コストとして判定されるのは、洗練化処理前の動きベクトル(=洗練化処理後の動きベクトル)が指し示す参照ブロック同士の絶対値差分和となる。 Here, when the threshold value of the difference between the motion vectors before and after the refinement process is set to 0, the motion vector before the refinement process (= motion vector after the refinement process) is determined as the above-mentioned search cost. It is the sum of the absolute value differences between the reference blocks.

また、予測信号生成部111Dは、洗練化処理が実行されたブロックでは洗練化処理の結果による方法、それ以外のブロックでは絶対値差分和による方法でそれぞれ判断してもよい。 Further, the prediction signal generation unit 111D may determine by the method based on the result of the refinement process in the block in which the refinement process is executed, and by the method by the absolute value difference sum in the other blocks.

また、予測信号生成部111Dは、上述のように、新たにL0側の予測信号とL1側の予測信号との絶対値差分和を算出する処理について行わずに、洗練化処理の結果から得られる情報のみを用いて、BDOFの適否を判定するという構成をとることもできる。この場合、ステップS53においては、予測信号生成部111Dは、洗練化処理が実行されていないブロックについては常にBDOFを適用すると判断することになる。 Further, the prediction signal generation unit 111D is obtained from the result of the refinement processing without newly performing the processing of calculating the absolute value difference sum between the prediction signal on the L0 side and the prediction signal on the L1 side, as described above. It is also possible to use only the information to determine the suitability of the BDOF. In this case, in step S53, the prediction signal generation unit 111D determines that the BDOF is always applied to the block for which the refinement process has not been executed.

かかる構成によれば、この場合、予測信号生成部111Dにおける絶対値差分和の算出処理を行う必要がないため、ハードウェア実装の観点で処理量及び処理遅延を削減することができる。 According to such a configuration, in this case, it is not necessary to perform the calculation processing of the absolute value difference sum in the prediction signal generation unit 111D, so that the processing amount and the processing delay can be reduced from the viewpoint of hardware implementation.

また、かかる構成によれば、ソフトウェア実装の観点において、洗練化処理の結果を用いて、BDOF処理の効果が低いと推測されるブロックにおいてBDOF処理を実行しないようにすることで、符号化効率は維持しつつ、画像全体での処理時間を短縮することができる。 Further, according to such a configuration, from the viewpoint of software implementation, the coding efficiency is improved by using the result of the refinement processing and preventing the BDOF processing from being executed in the block where the effect of the BDOF processing is presumed to be low. While maintaining it, the processing time for the entire image can be shortened.

また、上述の洗練化処理の結果を用いる判定処理自体は、洗練化部111Cの内部で実行され、その結果を示す情報が予測信号生成部111Dへ伝達されることで、予測信号生成部111Dは、BDOF処理の適否を判定することもできる。 Further, the determination process itself using the result of the above-mentioned refinement process is executed inside the refinement unit 111C, and the information indicating the result is transmitted to the prediction signal generation unit 111D, so that the prediction signal generation unit 111D , It is also possible to determine the suitability of BDOF processing.

例えば、上述のように、洗練化処理前後の動きベクトルや探索コストの値を判定し、BDOFを適用しない条件に当てはまる場合は「1」となり、BDOFを適用しない条件に当てはまらない場合及び洗練化処理が適用されなかった場合には「0」となるようなフラグを用意しておき、予測信号生成部111Dは、かかるフラグの値を参照してBDOFの適否を判定することができる。 For example, as described above, the motion vector and the value of the search cost before and after the refinement process are determined, and if the condition that the BDOF is not applied is satisfied, the value is "1". Is prepared, a flag that becomes "0" when is not applied, and the prediction signal generation unit 111D can determine the suitability of BDOF by referring to the value of the flag.

また、ここでは、便宜上、ステップS52及びステップS53を異なるステップとして説明したが、ステップS52及びステップS53における判定を同時に行うことも可能である。 Further, although the steps S52 and S53 have been described as different steps here for convenience, it is also possible to simultaneously perform the determinations in the steps S52 and S53.

上述のような判定において、BDOFを適用しないと判定したブロックについては、本処理手順は、ステップS55へ移る。それ以外のブロックについては、本処理手順は、ステップS54へ移る。 In the determination as described above, the present processing procedure proceeds to step S55 for the block for which it is determined that the BDOF is not applied. For the other blocks, this processing procedure proceeds to step S54.

ステップS54において、予測信号生成部111Dは、BDOF処理を実行する。BDOFの処理自体は、既知の手法を用いることができるため、詳細についての説明は省略する。BDOF処理が実施された後、本処理手順は、ステップS55に移り処理を終了する。 In step S54, the prediction signal generation unit 111D executes BDOF processing. Since a known method can be used for the BDOF processing itself, a detailed description thereof will be omitted. After the BDOF process is performed, the process moves to step S55 and ends the process.

(インループフィルタ処理部150)
以下において、本実施形態に係るインループフィルタ処理部150について説明する。図6は、本実施形態に係るインループフィルタ処理部150を示す図である。
(In-loop filter processing unit 150)
Hereinafter, the in-loop filter processing unit 150 according to the present embodiment will be described. FIG. 6 is a diagram showing an in-loop filter processing unit 150 according to the present embodiment.

図6に示すように、インループフィルタ処理部150は、対象ブロック境界検出部151と、隣接ブロック境界検出部152と、境界強度判定部153と、フィルタ決定部154と、フィルタ処理部155とを有する。 As shown in FIG. 6, the in-loop filter processing unit 150 includes a target block boundary detection unit 151, an adjacent block boundary detection unit 152, a boundary strength determination unit 153, a filter determination unit 154, and a filter processing unit 155. Have.

ここで、末尾に「A」が付されている構成は、垂直方向のブロック境界に対するデブロッキングフィルタ処理に関する構成であり、末尾に「B」が付されている構成は、水平方向のブロック境界に対するデブロッキングフィルタ処理に関する構成である。 Here, the configuration with "A" at the end is the configuration related to the deblocking filter processing for the vertical block boundary, and the configuration with "B" at the end is the configuration for the horizontal block boundary. This is a configuration related to deblocking filter processing.

以下、垂直方向のブロック境界に対するデブロッキングフィルタ処理が行われた後に、水平方向のブロック境界に対するデブロッキングフィルタ処理が行われるケースについて例示する。 Hereinafter, a case where the deblocking filter processing for the horizontal block boundary is performed after the deblocking filter processing for the vertical block boundary is performed will be illustrated.

デブロッキングフィルタ処理は、上述したように、符号化ブロックに対して適用されてもよく、予測ブロックに対して適用されてもよく、変換ブロックに対して適用されてもよい。また、上記の各ブロックを分割したサブブロックに適用されても良い。すなわち、対象ブロック及び隣接ブロックは、符号化ブロックであってもよく、予測ブロックであってもよく、変換ブロックであってもよく、これらを分割したサブブロックでもよい。 As described above, the deblocking filtering process may be applied to the coded block, the predicted block, or the transformed block. Further, it may be applied to a sub-block obtained by dividing each of the above blocks. That is, the target block and the adjacent block may be a coded block, a prediction block, a conversion block, or a subblock obtained by dividing them.

サブブロックの定義には、洗練化部111C及び予測信号生成部111Dの処理単位として説明したサブブロックを含む。サブブロックにデブロッキングフィルタを適用する場合は、適宜、以下の説明のブロックをサブブロックに読み替えることができる。 The definition of the sub-block includes the sub-block described as the processing unit of the refinement unit 111C and the prediction signal generation unit 111D. When applying a deblocking filter to a subblock, the block described below can be read as a subblock as appropriate.

垂直方向のブロック境界に対するデブロッキングフィルタ処理及び水平方向のブロック境界に対するデブロッキングフィルタ処理は、同様の処理であるため、以下においては、垂直方向のブロック境界に対するデブロッキングフィルタ処理について説明する。 Since the deblocking filter processing for the vertical block boundary and the deblocking filter processing for the horizontal block boundary are the same processing, the deblocking filter processing for the vertical block boundary will be described below.

対象ブロック境界検出部151Aは、対象ブロックのブロックサイズを示す制御データに基づいて、対象ブロックの境界を検出するように構成されている。 The target block boundary detection unit 151A is configured to detect the boundary of the target block based on the control data indicating the block size of the target block.

隣接ブロック境界検出部152Aは、隣接ブロックのブロックサイズを示す制御データに基づいて、隣接ブロックの境界を検出するように構成されている。 The adjacent block boundary detection unit 152A is configured to detect the boundary of the adjacent block based on the control data indicating the block size of the adjacent block.

境界強度判定部153Aは、対象ブロックと隣接ブロックとのブロック境界の境界強度を判定するように構成されている。 The boundary strength determination unit 153A is configured to determine the boundary strength of the block boundary between the target block and the adjacent block.

また、境界強度判定部153Aは、対象ブロック及び隣接ブロックがイントラ予測ブロックであるか否かを示す制御データに基づいてブロック境界の境界強度を判定するように構成されていてもよい。 Further, the boundary strength determination unit 153A may be configured to determine the boundary strength of the block boundary based on the control data indicating whether or not the target block and the adjacent block are intra prediction blocks.

例えば、図7に示すように、境界強度判定部153Aは、対象ブロック及び隣接ブロックの少なくともいずれか1つのブロックがイントラ予測ブロックである場合(すなわち、ブロック境界の両側のブロックの少なくともいずれかがイントラ予測ブロックである場合)に、ブロック境界の境界強度が「2」であると判定ように構成されていてもよい。 For example, as shown in FIG. 7, in the boundary strength determination unit 153A, when at least one block of the target block and the adjacent block is an intra prediction block (that is, at least one of the blocks on both sides of the block boundary is intra. In the case of a predicted block), it may be configured to determine that the boundary strength of the block boundary is "2".

また、境界強度判定部153Aは、対象ブロック及び隣接ブロックに非零(ゼロ)の直交変換係数が含まれるか否か及びブロック境界が変換ブロックの境界であるか否かを示す制御データに基づいてブロック境界の境界強度を判定するように構成されていてもよい。 Further, the boundary strength determination unit 153A is based on control data indicating whether or not the target block and the adjacent block include a non-zero orthogonal transformation coefficient and whether or not the block boundary is the boundary of the transformation block. It may be configured to determine the boundary strength of the block boundary.

例えば、図7に示すように、境界強度判定部153Aは、対象ブロック及び隣接ブロックの少なくともいずれか1つのブロックが非零の直交変換係数を含み、かつ、ブロック境界が変換ブロックの境界である場合(すなわち、ブロック境界の両側のブロックの少なくともいずれかに非零の変換係数が存在し、TUの境界である場合)に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 For example, as shown in FIG. 7, in the boundary strength determination unit 153A, when at least one of the target block and the adjacent block contains a non-zero orthogonal transformation coefficient and the block boundary is the boundary of the transformation block. (Ie, if there is a non-zero conversion factor in at least one of the blocks on either side of the block boundary and it is the boundary of the TU), it is configured to determine that the boundary strength of the block boundary is "1". May be.

また、境界強度判定部153Aは、対象ブロック及び隣接ブロックの動きベクトルの差の絶対値が閾値(例えば、1画素)以上であるか否かを示す制御データに基づいてブロック境界の境界強度を判定するように構成されていてもよい。 Further, the boundary strength determination unit 153A determines the boundary strength of the block boundary based on the control data indicating whether or not the absolute value of the difference between the motion vectors of the target block and the adjacent block is equal to or greater than the threshold value (for example, 1 pixel). It may be configured to do so.

例えば、図7に示すように、境界強度判定部153Aは、対象ブロック及び隣接ブロックの動きベクトルの差の絶対値が閾値(例えば、1画素)以上である場合(すなわち、ブロック境界の両側のブロックの動きベクトルの差の絶対値が閾値(例えば、1画素)以上である場合)に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 For example, as shown in FIG. 7, the boundary strength determination unit 153A has a case where the absolute value of the difference between the motion vectors of the target block and the adjacent block is equal to or more than a threshold value (for example, one pixel) (that is, blocks on both sides of the block boundary). It may be configured to determine that the boundary strength of the block boundary is "1" when the absolute value of the difference between the motion vectors of is equal to or larger than the threshold value (for example, one pixel).

また、境界強度判定部153Aは、対象ブロック及び隣接ブロックの動きベクトルの予測で参照される参照ブロックが異なるか否かを示す制御データに基づいてブロック境界の境界強度を判定するように構成されていてもよい。 Further, the boundary strength determination unit 153A is configured to determine the boundary strength of the block boundary based on the control data indicating whether or not the reference blocks referred to in the prediction of the motion vectors of the target block and the adjacent block are different. You may.

例えば、図7に示すように、境界強度判定部153Aは、対象ブロック及び隣接ブロックの動きベクトルの予測で参照される参照ブロックが異なる場合(すなわち、ブロック境界の両側のブロックで参照画像が異なる場合)に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 For example, as shown in FIG. 7, when the boundary strength determination unit 153A has different reference blocks referred to in the prediction of the motion vector of the target block and the adjacent block (that is, the reference images are different in the blocks on both sides of the block boundary). ) May be configured to determine that the boundary strength of the block boundary is "1".

境界強度判定部153Aは、対象ブロック及び隣接ブロックの動きベクトルの数が異なるか否かを示す制御データに基づいてブロック境界の境界強度を判定するように構成されていてもよい。 The boundary strength determination unit 153A may be configured to determine the boundary strength of the block boundary based on the control data indicating whether or not the numbers of motion vectors of the target block and the adjacent block are different.

例えば、図7に示すように、境界強度判定部153Aは、対象ブロック及び隣接ブロックの動きベクトルの数が異なる場合(すなわち、ブロック境界の両側のブロックで動きベクトルの数が異なる場合)に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 For example, as shown in FIG. 7, the boundary strength determination unit 153A blocks when the number of motion vectors of the target block and the adjacent block is different (that is, when the number of motion vectors is different between the blocks on both sides of the block boundary). It may be configured to determine that the boundary strength of the boundary is "1".

境界強度判定部153Aは、対象ブロックと隣接ブロックに対して洗練化部111Cによる洗練化処理が適用されているか否かによってブロック境界の境界強度を判定するように構成されていてもよいい。 The boundary strength determination unit 153A may be configured to determine the boundary strength of the block boundary depending on whether or not the refinement process by the refinement unit 111C is applied to the target block and the adjacent block.

例えば、図7に示すように、境界強度判定部153Aは、対象ブロック及び隣接ブロックがいずれも洗練化部111Cで洗練化処理が適用されたブロックである場合に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 For example, as shown in FIG. 7, in the boundary strength determination unit 153A, when the target block and the adjacent block are both blocks to which the refinement process is applied by the refinement unit 111C, the boundary strength of the block boundary is "1". It may be configured to determine that.

ここで、境界強度判定部153Aは、当該ブロックにおいて図4のステップS41における所定条件を全て満足したことをもって、「洗練化処理が適用された」と判断してもよい。また、図4のステップS41の判定結果を示すフラグを用意しておき、境界強度判定部153Aは、フラグの値によって洗練化処理の適用有無を判断するように構成されていてもよい。 Here, the boundary strength determination unit 153A may determine that "the refinement process has been applied" when all the predetermined conditions in step S41 of FIG. 4 are satisfied in the block. Further, a flag indicating the determination result of step S41 in FIG. 4 may be prepared, and the boundary strength determination unit 153A may be configured to determine whether or not the refinement process is applied based on the value of the flag.

また、境界強度判定部153Aは、対象ブロック又は隣接ブロックの少なくともいずれかが洗練化部111Cによる洗練化処理が適用されたブロックである場合に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 Further, the boundary strength determination unit 153A determines that the boundary strength of the block boundary is "1" when at least one of the target block or the adjacent block is a block to which the refinement process by the refinement unit 111C is applied. It may be configured to do so.

或いは、境界強度判定部153Aは、当該境界が洗練化部111Cによる洗練化処理におけるサブブロック境界である場合に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 Alternatively, the boundary strength determination unit 153A may be configured to determine that the boundary strength of the block boundary is "1" when the boundary is a sub-block boundary in the refinement process by the refinement unit 111C. good.

さらに、境界強度判定部153Aは、ブロック境界の両側のブロックの少なくともいずれかでDMVRが適用されている場合に、ブロック境界の境界強度が「1」であると判定するように構成されていてもよい。 Further, even if the boundary strength determination unit 153A is configured to determine that the boundary strength of the block boundary is "1" when DMVR is applied to at least one of the blocks on both sides of the block boundary. good.

例えば、図7に示すように、境界強度判定部153Aは、上述した条件がいずれも満たされない場合に、ブロック境界の境界強度が「0」であると判定するように構成されていてもよい。 For example, as shown in FIG. 7, the boundary strength determination unit 153A may be configured to determine that the boundary strength of the block boundary is “0” when none of the above conditions are satisfied.

なお、境界強度の値が大きいほど、ブロック境界で生じるブロック歪みが大きい可能性が高い。 It should be noted that the larger the value of the boundary strength, the higher the possibility that the block distortion generated at the block boundary is large.

上述の境界強度判定方法は、輝度信号及び色差信号に対して共通の方法で判定してもよいし、一部異なる条件を用いて判定してもよい。例えば、上述の洗練化処理に関する条件を輝度信号及び色差信号の両方に適用してもよいし、輝度信号のみ或いは色差信号のみに適用してもよい。 The above-mentioned boundary strength determination method may be determined by a method common to the luminance signal and the color difference signal, or may be determined by using some different conditions. For example, the above-mentioned conditions relating to the refinement process may be applied to both the luminance signal and the color difference signal, or may be applied only to the luminance signal or only the color difference signal.

また、洗練化処理の結果を境界強度の判定時に考慮するかどうかについて制御するフラグを、SPS(Sequence Parameter Set)やPPS(Picture Parameter Set)と呼ばれるヘッダの中に備えてもよい。 Further, a flag for controlling whether or not the result of the refinement process is taken into consideration when determining the boundary strength may be provided in a header called SPS (Sequence Parameter Set) or PPS (Picture Parameter Set).

フィルタ決定部154Aは、ブロック境界に適用するフィルタ処理(例えば、デブロッキングフィルタ処理)の種類を決定するように構成されている。 The filter determination unit 154A is configured to determine the type of filter processing (for example, deblocking filter processing) applied to the block boundary.

例えば、フィルタ決定部154Aは、ブロック境界の境界強度、対象ブロック及び隣接ブロックに含まれる量子化パラメータ等に基づいて、ブロック境界に対して、フィルタ処理を適用するか否か、弱フィルタ処理及び強フィルタ処理のいずれのフィルタ処理を適用するかについて決定するように構成されていてもよい。 For example, the filter determination unit 154A determines whether or not to apply the filter processing to the block boundary based on the boundary strength of the block boundary, the quantization parameter included in the target block and the adjacent block, and the weak filter processing and the strong. It may be configured to determine which of the filtering filters to apply.

フィルタ決定部154Aは、ブロック境界の境界強度が「0」である場合に、フィルタ処理を適用しないと決定するように構成されていてもよい。 The filter determination unit 154A may be configured to determine that the filter processing is not applied when the boundary strength of the block boundary is “0”.

フィルタ処理部155Aは、フィルタ決定部154Aの決定に基づいてデブロッキング前画像に対する処理を行うように構成されている。デブロッキング前画像に対する処理は、フィルタ処理なし、弱フィルタ処理、強フィルタ処理等である。 The filter processing unit 155A is configured to perform processing on the pre-deblocking image based on the determination of the filter determination unit 154A. The processing for the image before deblocking is no filter processing, weak filter processing, strong filter processing, or the like.

(画像復号装置200)
以下、図8を参照して、本実施形態に係る画像復号装置200について説明する。図8は、本実施形態に係る画像復号装置200の機能ブロックの一例について示す図である。
(Image Decoding Device 200)
Hereinafter, the image decoding apparatus 200 according to the present embodiment will be described with reference to FIG. FIG. 8 is a diagram showing an example of a functional block of the image decoding apparatus 200 according to the present embodiment.

図8に示すように、画像復号装置200は、復号部210と、逆変換・逆量子化部220と、加算器230と、インター予測部241と、イントラ予測部242と、インループフィルタ処理部250と、フレームバッファ260とを有する。 As shown in FIG. 8, the image decoding device 200 includes a decoding unit 210, an inverse conversion / inverse quantization unit 220, an adder 230, an inter-prediction unit 241 and an intra-prediction unit 242, and an in-loop filter processing unit. It has 250 and a frame buffer 260.

復号部210は、画像符号化装置100によって生成される符号化データを復号し、係数レベル値を復号するように構成されている。 The decoding unit 210 is configured to decode the coded data generated by the image coding device 100 and decode the coefficient level value.

ここで、例えば、復号は、符号化部140で行われるエントロピー符号化とは逆の手順のエントロピー復号である。 Here, for example, the decoding is the entropy decoding in the reverse procedure of the entropy coding performed by the coding unit 140.

また、復号部210は、符号化データの復号処理によって制御データを取得するように構成されていてもよい。 Further, the decoding unit 210 may be configured to acquire control data by decoding processing of encoded data.

なお、上述したように、制御データは、符号化ブロックサイズ、予測ブロックサイズ、変換ブロックサイズ等のサイズデータを含んでもよい。 As described above, the control data may include size data such as a coded block size, a predicted block size, and a conversion block size.

逆変換・逆量子化部220は、復号部210から出力される係数レベル値の逆変換処理を行うように構成されている。ここで、逆変換・逆量子化部220は、逆変換処理に先立って、係数レベル値の逆量子化を行うように構成されていてもよい。 The inverse conversion / inverse quantization unit 220 is configured to perform an inverse conversion process of the coefficient level value output from the decoding unit 210. Here, the inverse transformation / inverse quantization unit 220 may be configured to perform inverse quantization of the coefficient level value prior to the inverse transformation process.

ここで、逆変換処理及び逆量子化は、変換・量子化部131で行われる変換処理及び量子化とは逆の手順で行われる。 Here, the inverse conversion process and the inverse quantization are performed in the reverse procedure of the conversion process and the quantization performed by the conversion / quantization unit 131.

加算器230は、逆変換・逆量子化部220から出力される予測残差信号に予測信号を加算してフィルタ処理前復号信号を生成し、フィルタ処理前復号信号をイントラ予測部242及びインループフィルタ処理部250に出力するように構成されている。 The adder 230 adds a prediction signal to the prediction residual signal output from the inverse conversion / inverse quantization unit 220 to generate a pre-filter processing decoding signal, and the pre-filter processing decoding signal is used by the intra prediction unit 242 and the in-loop. It is configured to output to the filter processing unit 250.

ここで、フィルタ処理前復号信号は、イントラ予測部242で用いる参照ブロックを構成する。 Here, the pre-filtered decoding signal constitutes a reference block used by the intra prediction unit 242.

インター予測部241は、インター予測部111と同様に、インター予測(フレーム間予測)によって予測信号を生成するように構成されている。 Similar to the inter-prediction unit 111, the inter-prediction unit 241 is configured to generate a prediction signal by inter-prediction (inter-frame prediction).

具体的には、インター予測部241は、符号化データから復号した動きベクトルと参照フレームに含まれる参照信号に基づいて予測信号を予測ブロック毎に生成するように構成されている。インター予測部241は、予測信号を加算器230に出力するように構成されている。 Specifically, the inter-prediction unit 241 is configured to generate a prediction signal for each prediction block based on the motion vector decoded from the coded data and the reference signal included in the reference frame. The inter-prediction unit 241 is configured to output a prediction signal to the adder 230.

イントラ予測部242は、イントラ予測部112と同様に、イントラ予測(フレーム内予測)によって予測信号を生成するように構成されている。 Like the intra prediction unit 112, the intra prediction unit 242 is configured to generate a prediction signal by intra prediction (in-frame prediction).

具体的には、イントラ予測部242は、対象フレームに含まれる参照ブロックを特定し、特定された参照ブロックに基づいて予測信号を予測ブロック毎に生成するように構成されている。イントラ予測部242は、予測信号を加算器230に出力するように構成されている。 Specifically, the intra prediction unit 242 is configured to specify a reference block included in the target frame and generate a prediction signal for each prediction block based on the specified reference block. The intra prediction unit 242 is configured to output a prediction signal to the adder 230.

インループフィルタ処理部250は、インループフィルタ処理部150と同様に、加算器230から出力されるフィルタ処理前復号信号に対してフィルタ処理を行うとともに、フィルタ処理後復号信号をフレームバッファ260に出力するように構成されている。 Similar to the in-loop filter processing unit 150, the in-loop filter processing unit 250 performs filter processing on the pre-filter processing decoded signal output from the adder 230, and outputs the post-filter processing decoded signal to the frame buffer 260. It is configured to do.

ここで、例えば、フィルタ処理は、ブロック(符号化ブロック、予測ブロック、変換ブロック、あるいはそれらを分割したサブブロック)の境界部分で生じる歪みを減少するデブロッキングフィルタ処理である。 Here, for example, the filtering process is a deblocking filter process that reduces the distortion that occurs at the boundary portion of a block (encoded block, prediction block, conversion block, or sub-block that divides them).

フレームバッファ260は、フレームバッファ160と同様に、インター予測部241で用いる参照フレームを蓄積するように構成されている。 Like the frame buffer 160, the frame buffer 260 is configured to store reference frames used by the inter-prediction unit 241.

ここで、フィルタ処理後復号信号は、インター予測部241で用いる参照フレームを構成する。 Here, the filtered decoded signal constitutes a reference frame used by the inter-prediction unit 241.

(インター予測部241)
以下、図9を参照して、本実施形態に係るインター予測部241について説明する。図9は、本実施形態に係るインター予測部241の機能ブロックの一例について示す図である。
(Inter prediction unit 241)
Hereinafter, the inter-prediction unit 241 according to the present embodiment will be described with reference to FIG. 9. FIG. 9 is a diagram showing an example of a functional block of the inter-prediction unit 241 according to the present embodiment.

図9に示すように、インター予測部241は、動きベクトル復号部241Bと、洗練化部241Cと、予測信号生成部241Dとを有する。 As shown in FIG. 9, the inter-prediction unit 241 has a motion vector decoding unit 241B, a refinement unit 241C, and a prediction signal generation unit 241D.

インター予測部241は、動きベクトルに基づいて予測ブロックに含まれる予測信号を生成するように構成されている予測部の一例である。 The inter prediction unit 241 is an example of a prediction unit configured to generate a prediction signal included in the prediction block based on a motion vector.

動きベクトル復号部241Bは、画像符号化装置100から受信する制御データの復号によって動きベクトルを取得するように構成されている。 The motion vector decoding unit 241B is configured to acquire a motion vector by decoding control data received from the image coding device 100.

洗練化部241Cは、洗練化部111Cと同様に、動きベクトルを修正する洗練化処理を実行するように構成されている。 The refinement unit 241C is configured to execute the refinement process for modifying the motion vector, similarly to the refinement unit 111C.

予測信号生成部241Dは、予測信号生成部111Dと同様に、動きベクトルに基づいて予測信号を生成するように構成されている。 Like the prediction signal generation unit 111D, the prediction signal generation unit 241D is configured to generate a prediction signal based on the motion vector.

(インループフィルタ処理部250)
以下において、本実施形態に係るインループフィルタ処理部250について説明する。図10は、本実施形態に係るインループフィルタ処理部250を示す図である。
(In-loop filter processing unit 250)
Hereinafter, the in-loop filter processing unit 250 according to the present embodiment will be described. FIG. 10 is a diagram showing an in-loop filter processing unit 250 according to the present embodiment.

図10に示すように、インループフィルタ処理部250は、対象ブロック境界検出部251と、隣接ブロック境界検出部252と、境界強度判定部253と、フィルタ決定部254と、フィルタ処理部255とを有する。 As shown in FIG. 10, the in-loop filter processing unit 250 includes a target block boundary detection unit 251, an adjacent block boundary detection unit 252, a boundary strength determination unit 253, a filter determination unit 254, and a filter processing unit 255. Have.

ここで、末尾に「A」が付されている構成は、垂直方向のブロック境界に対するデブロッキングフィルタ処理に関する構成であり、末尾に「B」が付されている構成は、水平方向のブロック境界に対するデブロッキングフィルタ処理に関する構成である。 Here, the configuration with "A" at the end is the configuration related to the deblocking filter processing for the vertical block boundary, and the configuration with "B" at the end is the configuration for the horizontal block boundary. This is a configuration related to deblocking filter processing.

ここでは、垂直方向のブロック境界に対するデブロッキングフィルタ処理が行われた後に、水平方向のブロック境界に対するデブロッキングフィルタ処理が行われるケースについて例示する。 Here, an example is described in which a deblocking filter process is performed on a vertical block boundary and then a deblocking filter process is performed on a horizontal block boundary.

デブロッキングフィルタ処理は、上述したように、符号化ブロックに対して適用されてもよく、予測ブロックに対して適用されてもよく、変換ブロックに対して適用されてもよい。また、上述の各ブロックを分割したサブブロックに適用されてもよい。すなわち、対象ブロック及び隣接ブロックは、符号化ブロックであってもよく、予測ブロックであってもよく、変換ブロックであってもよく、これらを分割したサブブロックでもよい。 As described above, the deblocking filtering process may be applied to the coded block, the predicted block, or the transformed block. Further, it may be applied to the subblocks obtained by dividing each of the above blocks. That is, the target block and the adjacent block may be a coded block, a prediction block, a conversion block, or a subblock obtained by dividing them.

垂直方向のブロック境界に対するデブロッキングフィルタ処理及び水平方向のブロック境界に対するデブロッキングフィルタ処理は同様の処理であるため、以下においては、垂直方向のブロック境界に対するデブロッキングフィルタ処理について説明する。 Since the deblocking filter processing for the vertical block boundary and the deblocking filter processing for the horizontal block boundary are the same processing, the deblocking filter processing for the vertical block boundary will be described below.

対象ブロック境界検出部251Aは、対象ブロック境界検出部151Aと同様に、対象ブロックのブロックサイズを示す制御データに基づいて、対象ブロックの境界を検出するように構成されている。 Similar to the target block boundary detection unit 151A, the target block boundary detection unit 251A is configured to detect the boundary of the target block based on the control data indicating the block size of the target block.

隣接ブロック境界検出部252Aは、隣接ブロック境界検出部152Aと同様に、隣接ブロックのブロックサイズを示す制御データに基づいて、隣接ブロックの境界を検出するように構成されている。 The adjacent block boundary detection unit 252A is configured to detect the boundary of the adjacent block based on the control data indicating the block size of the adjacent block, similarly to the adjacent block boundary detection unit 152A.

境界強度判定部253Aは、境界強度判定部153Aと同様に、対象ブロックと隣接ブロックとのブロック境界の境界強度を判定するように構成されている。ブロック境界の境界強度の判定方法は上述した通りである。 The boundary strength determination unit 253A is configured to determine the boundary strength of the block boundary between the target block and the adjacent block, similarly to the boundary strength determination unit 153A. The method for determining the boundary strength of the block boundary is as described above.

フィルタ決定部254Aは、フィルタ決定部154Aと同様に、ブロック境界に適用するデブロッキングフィルタ処理の種類を決定するように構成されている。デブロッキングフィルタ処理の種類の決定方法は、上述した通りである。 Like the filter determination unit 154A, the filter determination unit 254A is configured to determine the type of deblocking filter processing applied to the block boundary. The method for determining the type of deblocking filter processing is as described above.

フィルタ処理部255Aは、フィルタ処理部155Aと同様に、フィルタ決定部254Aの決定に基づいてデブロッキング前画像に対する処理を行うように構成されている。デブロッキング前画像に対する処理は、フィルタ処理なし、弱フィルタ処理、強フィルタ処理等である。 Similar to the filter processing unit 155A, the filter processing unit 255A is configured to perform processing on the pre-deblocking image based on the determination of the filter determination unit 254A. The processing for the image before deblocking is no filter processing, weak filter processing, strong filter processing, or the like.

本実施形態に係る画像符号化装置100及び画像復号装置200によれば、境界強度判定部153、253において、境界強度を決定する際に、当該境界に隣接するブロックにおいて洗練化部111C、241Cによる洗練化処理が適用されたか否かを考慮する。 According to the image coding device 100 and the image decoding device 200 according to the present embodiment, when the boundary strength is determined by the boundary strength determination units 153 and 253, the refinement units 111C and 241C are used in the blocks adjacent to the boundary. Consider whether the refinement process has been applied.

例えば、上述のように、当該境界に隣接する二つのブロックのうち、少なくとも一つのブロックで洗練化処理が適用された場合に、当該境界の境界強度を1に設定する。 For example, as described above, when the refinement process is applied to at least one of the two blocks adjacent to the boundary, the boundary strength of the boundary is set to 1.

境界強度が「1」以上の境界については、フィルタ決定部154及び254において、量子化パラメータ等のパラメータを考慮して当該ブロック境界にデブロッキングフィルタが適用されるか否かについて及びデブロッキングフィルタの種類を決定する。 For boundaries with a boundary strength of "1" or more, the filter determination units 154 and 254 consider whether or not a deblocking filter is applied to the block boundary in consideration of parameters such as quantization parameters, and the deblocking filter. Determine the type.

このような構成とすることで、ハードウェア実装の制約上、洗練化後の動きベクトルの値が前記境界強度の判定に用いることができない場合も、洗練化処理を実施したブロックの境界で適切にデブロッキングフィルタを適用できるようになり、ブロックノイズを抑制して主観画質を向上させることができる。 With such a configuration, even if the value of the motion vector after refinement cannot be used for determining the boundary strength due to the limitation of hardware implementation, it is appropriate at the boundary of the block subjected to the refinement process. A deblocking filter can be applied, block noise can be suppressed, and subjective image quality can be improved.

デブロッキングフィルタの適否の判定や境界強度の決定方法は、種々提案されている。例えば、特許文献1では、当該ブロックがスキップモードであるか等のシンタックスの情報に基づいてデブロッキングフィルタの適用を省略する技術が開示されている。また、例えば、特許文献2では、量子化パラメータを用いてデブロッキングフィルタの適用を省略する技術が開示されている。 Various methods for determining the suitability of the deblocking filter and determining the boundary strength have been proposed. For example, Patent Document 1 discloses a technique for omitting the application of a deblocking filter based on syntax information such as whether the block is in skip mode. Further, for example, Patent Document 2 discloses a technique of omitting the application of a deblocking filter by using a quantization parameter.

しかし、いずれについても、洗練化処理の適否については考慮されていない。本発明によって解決される課題の一つは、シンタックスから復号した動きベクトルの値を、復号側で修正する洗練化処理において、修正後の動きベクトルの値がデブロッキングフィルタの適用判定に使用できない場合、適切に適用判定ができないという洗練化処理に特有の課題である。 However, neither of them considers the suitability of the refinement process. One of the problems solved by the present invention is that the corrected motion vector value cannot be used for the application determination of the deblocking filter in the refinement process in which the motion vector value decoded from the syntax is corrected on the decoding side. In this case, it is a problem peculiar to the refinement process that the application judgment cannot be made appropriately.

よって、洗練化処理の適否を考慮しない特許文献1や特許文献2の方法で、この課題を解決することはできない。一方、特許文献1や特許文献2の方法を、本発明のデブロッキングフィルタの適用判定と組み合わせることは可能である。 Therefore, this problem cannot be solved by the methods of Patent Document 1 and Patent Document 2 that do not consider the suitability of the refinement process. On the other hand, it is possible to combine the methods of Patent Document 1 and Patent Document 2 with the application determination of the deblocking filter of the present invention.

本実施形態に係る画像符号化装置100及び画像復号装置200によれば、前記洗練化部111C、241Cにおける洗練化処理の実行条件として、当該処理の基準となる動きベクトルがSymmetric MVDモードで符号化されているか否かを考慮する。 According to the image coding device 100 and the image decoding device 200 according to the present embodiment, the motion vector that is the reference of the processing is encoded in the Symmetric MVD mode as the execution condition of the refinement processing in the refinement units 111C and 241C. Consider whether or not it has been done.

かかる洗練化処理において、L0側とL1側の差分動きベクトルの絶対値が同じで符号が反転した点のみを探索する場合、Symmetric MVDモードで動きベクトルを伝送する場合と同様の動きベクトルを得ることができる。 In such a refinement process, when searching only the points where the absolute values of the difference motion vectors on the L0 side and the L1 side are the same and the signs are inverted, a motion vector similar to the case where the motion vector is transmitted in the Symmetric MVD mode is obtained. Can be done.

よって、上述の洗練化処理で本来伝送した動きベクトルが得られる場合、Symmetric MVDモードで伝送する差分動きベクトルを可能な限り小さくすることで、差分動きベクトルに関する符号量を削減することができる。 Therefore, when the motion vector originally transmitted is obtained by the above-mentioned refinement process, the code amount related to the differential motion vector can be reduced by making the differential motion vector transmitted in the Symmetric MVD mode as small as possible.

特に、差分動きベクトルが特定の値(0等)の際にフラグのみを伝送し、それ以外の値の場合は、差分値を直接符号化する符号化方法となっている場合、かかる洗練化処理で修正する動きベクトルの差分が微小でも、符号量の削減効果が大きくなる可能性がある。 In particular, if the difference motion vector is a coding method that transmits only the flag when it is a specific value (0, etc.) and directly encodes the difference value when it is another value, such refinement processing is performed. Even if the difference in the motion vector corrected by is small, the effect of reducing the code amount may be large.

また、上述の洗練化処理の実行条件として、かかる洗練化処理の基準となる動きベクトルがSymmetric MVDモードで符号化されており、さらに差分動きベクトルの値が予め定めた閾値以下であることという条件とすることで、差分動きベクトルの値によって洗練化処理を実行するかどうかを暗黙的に切り替えることも可能となる。 Further, as the execution condition of the above-mentioned refinement process, the motion vector that is the reference of the refinement process is encoded in the Symmetric MVD mode, and the value of the difference motion vector is equal to or less than a predetermined threshold value. By doing so, it is also possible to implicitly switch whether or not to execute the refinement process depending on the value of the differential motion vector.

同様に、予測信号生成部111D、241DにおけるBDOF処理の適用条件に、当該ブロックの動きベクトルがSymmetric MVDモードで符号化されており、さらに差分動きベクトルの値が予め定めた閾値以下であることという条件を用いることで、差分動きベクトルの値によってBDOF処理を適用するかどうかを暗黙的に切り替えることが可能となる。 Similarly, the motion vector of the block is encoded in the Symmetric MVD mode under the application conditions of the BDOF processing in the prediction signal generation units 111D and 241D, and the value of the differential motion vector is equal to or less than a predetermined threshold value. By using the condition, it is possible to implicitly switch whether to apply the BDOF processing depending on the value of the differential motion vector.

本実施形態に係る画像符号化装置100及び画像復号装置200によれば、予測信号生成部111D、241DにおいてBDOF処理を実行するか否かの判定に、前記洗練化処理の結果を考慮する。非特許文献3ではL0とL1の予測信号の絶対値差分値を用いて判定を行っているが、その代わりに洗練化処理の結果による判定を行うことで、前記絶対値差分を算出する処理を削減することができる。 According to the image coding device 100 and the image decoding device 200 according to the present embodiment, the result of the refinement processing is taken into consideration in determining whether or not the BDOF processing is executed in the prediction signal generation units 111D and 241D. In Non-Patent Document 3, the determination is performed using the absolute value difference value of the predicted signals of L0 and L1, but instead, the process of calculating the absolute value difference is performed by performing the determination based on the result of the refinement process. Can be reduced.

また、上述の画像符号化装置100及び画像復号装置200は、コンピュータに各機能(各工程)を実行させるプログラムであって実現されていてもよい。 Further, the above-mentioned image coding device 100 and image decoding device 200 may be realized by a program that causes a computer to execute each function (each step).

なお、上記の各実施形態では、本発明を画像符号化装置100及び画像復号装置200への適用を例にして説明したが、本発明はこれのみに限定されるものではなく、符号化装置および復号装置の各機能を備えた符号化/復号システムにも同様に適用できる。
本発明によれば、洗練化後の動きベクトルをデブロッキングフィルタの適用判定に用いることができない場合でも、洗練化処理を行ったブロックの境界に適切にデブロッキングフィルタを適用し、ブロックノイズを抑制して主観画質を向上させることができる。
In each of the above embodiments, the present invention has been described by taking application to the image coding device 100 and the image decoding device 200 as an example, but the present invention is not limited to this, and the coding device and the coding device and the present invention are described. It can be similarly applied to a coding / decoding system having each function of the decoding device.
According to the present invention, even when the refined motion vector cannot be used for determining the application of the deblocking filter, the deblocking filter is appropriately applied to the boundary of the refined block to suppress the block noise. It is possible to improve the subjective image quality.

10…画像処理システム
100…画像符号化装置
111、241…インター予測部
111A…動きベクトル探索部
111B…動きベクトル符号化部
111C、241C…洗練化部
111D、241D…予測信号生成部
112、242…イントラ予測部
121…減算器
122、230…加算器
131…変換・量子化部
132、220…逆変換・逆量子化部
140…符号化部
150、250…インループフィルタ処理部
151、251…対象ブロック境界検出部
152、252…隣接ブロック境界検出部
153、253…境界強度判定部
154、254…フィルタ決定部
155、255…フィルタ処理部
160、260…フレームバッファ
200…画像復号装置
210…復号部
241B…動きベクトル復号部
10 ... Image processing system 100 ... Image coding device 111, 241 ... Inter prediction unit 111A ... Motion vector search unit 111B ... Motion vector coding unit 111C, 241C ... Refinement unit 111D, 241D ... Prediction signal generation unit 112, 242 ... Intra prediction unit 121 ... subtractor 122, 230 ... adder 131 ... conversion / quantization unit 132, 220 ... inverse conversion / inverse quantization unit 140 ... coding unit 150, 250 ... in-loop filter processing unit 151, 251 ... target Block boundary detection unit 152, 252 ... Adjacent block boundary detection unit 153, 253 ... Boundary strength determination unit 154, 254 ... Filter determination unit 155, 255 ... Filter processing unit 160, 260 ... Frame buffer 200 ... Image decoding device 210 ... Decoding unit 241B ... Motion vector decoding unit

Claims (3)

画像復号装置であって、
符号化データから動きベクトルを復号するように構成されている動きベクトル復号部と、
復号された前記動きベクトルを修正する洗練化処理を行うように構成されている洗練化部と、
前記洗練化部から出力される修正された前記動きベクトルに基づいて予測信号を生成するように構成されている予測信号生成部とを有し、
前記予測信号生成部は、
ブロックを分割したサブブロック毎にBDOF適用条件を満たしているかについて判定し、
前記BDOF適用条件を満たしている前記サブブロックについて、前記洗練化処理における探索コストに基づいて、BDOF処理を適用するか否かについて判定するように構成されており、
前記サブブロックの水平方向及び垂直方向のサイズは、それぞれ16画素以下であることを特徴とする画像復号装置。
It is an image decoder
A motion vector decoder configured to decode motion vectors from coded data,
A refinement unit configured to perform a refinement process for correcting the decoded motion vector, and a refinement unit.
It has a prediction signal generation unit configured to generate a prediction signal based on the modified motion vector output from the refinement unit.
The prediction signal generation unit is
It is determined whether the BDOF application condition is satisfied for each subblock in which the block is divided, and it is determined.
It is configured to determine whether or not to apply the BDOF process to the sub-block that satisfies the BDOF application condition based on the search cost in the refinement process.
An image decoding device characterized in that the horizontal and vertical sizes of the subblocks are 16 pixels or less, respectively.
符号化データから動きベクトルを復号する工程Aと、
復号された前記動きベクトルを修正する洗練化処理を行う工程Bと、
前記工程Bにおいて修正された前記動きベクトルに基づいて予測信号を生成する工程Cとを有し、
前記工程Cは、
ブロックを分割したサブブロック毎にBDOF適用条件を満たしているかについて判定する工程と、
前記BDOF適用条件を満たしている前記サブブロックについて、前記洗練化処理における探索コストに基づいて、BDOF処理を適用するか否かについて判定する工程とを有し、
前記サブブロックの水平方向及び垂直方向のサイズは、それぞれ16画素以下であることを特徴とする画像復号方法。
Step A to decode the motion vector from the coded data,
Step B, which performs a refinement process for correcting the decoded motion vector, and
It has a step C of generating a prediction signal based on the motion vector modified in the step B.
The step C is
The process of determining whether the BDOF application condition is satisfied for each subblock obtained by dividing the block, and
It has a step of determining whether or not to apply the BDOF process to the sub-block satisfying the BDOF application condition based on the search cost in the refinement process.
An image decoding method characterized in that the horizontal and vertical sizes of the subblocks are 16 pixels or less, respectively.
画像復号装置で用いるプログラムであって、コンピュータに、
符号化データから動きベクトルを復号する工程Aと、
復号された前記動きベクトルを修正する洗練化処理を行う工程Bと、
前記工程Bにおいて修正された前記動きベクトルに基づいて予測信号を生成する工程Cとを実行させ、
前記工程Cは、
ブロックを分割したサブブロック毎にBDOF適用条件を満たしているかについて判定する工程と、
前記BDOF適用条件を満たしている前記サブブロックについて、前記洗練化処理における探索コストに基づいて、BDOF処理を適用するか否かについて判定する工程とを有し、
前記サブブロックの水平方向及び垂直方向のサイズは、それぞれ16画素以下であることを特徴とするプログラム。
A program used in an image decoder, which can be used on a computer.
Step A to decode the motion vector from the coded data,
Step B, which performs a refinement process for correcting the decoded motion vector, and
A step C of generating a prediction signal based on the motion vector corrected in the step B is executed.
The step C is
The process of determining whether the BDOF application condition is satisfied for each subblock obtained by dividing the block, and
It has a step of determining whether or not to apply the BDOF process to the sub-block satisfying the BDOF application condition based on the search cost in the refinement process.
A program characterized in that the horizontal and vertical sizes of the subblocks are 16 pixels or less, respectively.
JP2021167722A 2019-03-11 2021-10-12 Image decoder, image decoding method and program Active JP7034363B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021167722A JP7034363B2 (en) 2019-03-11 2021-10-12 Image decoder, image decoding method and program
JP2022031145A JP7061737B1 (en) 2019-03-11 2022-03-01 Image decoder, image decoding method and program
JP2022068204A JP7083971B1 (en) 2019-03-11 2022-04-18 Image decoder, image decoding method and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019043966A JP6867611B2 (en) 2019-03-11 2019-03-11 Image decoding device, image decoding method and program
JP2021048673A JP6961115B2 (en) 2019-03-11 2021-03-23 Image decoding device, image decoding method and program
JP2021167722A JP7034363B2 (en) 2019-03-11 2021-10-12 Image decoder, image decoding method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021048673A Division JP6961115B2 (en) 2019-03-11 2021-03-23 Image decoding device, image decoding method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022031145A Division JP7061737B1 (en) 2019-03-11 2022-03-01 Image decoder, image decoding method and program

Publications (2)

Publication Number Publication Date
JP2022019720A JP2022019720A (en) 2022-01-27
JP7034363B2 true JP7034363B2 (en) 2022-03-11

Family

ID=87885270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021167722A Active JP7034363B2 (en) 2019-03-11 2021-10-12 Image decoder, image decoding method and program

Country Status (1)

Country Link
JP (1) JP7034363B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020184487A1 (en) 2019-03-08 2020-09-17 シャープ株式会社 Dynamic image decoding device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6867611B2 (en) * 2019-03-11 2021-04-28 Kddi株式会社 Image decoding device, image decoding method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020184487A1 (en) 2019-03-08 2020-09-17 シャープ株式会社 Dynamic image decoding device

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Ching-Yeh Chen et al.,CE9-related: Simplification of cascading DMVR and BDOF processes,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0097-v1,14th Meeting: Geneva, CH,2019年03月,pp.1-4
Kenji Kondo, Masaru Ikeda and Teruhiko Suzuki,Non-CE9: On early termination for BDOF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JVET-M0073-r2,13th Meeting: Marrakech, MA,2019年01月,pp.1-5
Kyohei Unno, Kei Kawamura and Sei Naito,CE9: Disabling SAD based early termination of BDOF (CE9-2.1),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0158-v2,14th Meeting: Geneva, CH,2019年03月,pp.1-4
Sriram Sethuraman,Non-CE9: Co-existence analysis for DMVR with BDOF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0223-v4,13th Meeting: Marrakech, MA,2019年01月,pp.1-5
Takeshi Chujoh and Tomohiro Ikai,CE9-related: Early termination for BDOF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0148-v3,14th Meeting: Geneva, CH,2019年03月,pp.1-6
Xiaoyu Xiu, Yuwen He and Yan Ye,CE9-related: Complexity reduction and bit-width control for bi-directional optical flow (BIO),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0256_v2,12th Meeting: Macao, CN,2018年09月,pp.1-15

Also Published As

Publication number Publication date
JP2022019720A (en) 2022-01-27

Similar Documents

Publication Publication Date Title
JP6961115B2 (en) Image decoding device, image decoding method and program
KR20220154068A (en) Method and apparatus for intra picture coding based on template matching
KR102140331B1 (en) Method for intra prediction and apparatus thereof
JP5594841B2 (en) Image encoding apparatus and image decoding apparatus
JP7076660B2 (en) Image decoder, image decoding method and program
JP7411318B2 (en) Image decoding device, image encoding device, image processing system and program
JP7026276B2 (en) Image decoder, image decoding method and program
JP6914462B2 (en) Image decoding device, image decoding method and program
JP7034363B2 (en) Image decoder, image decoding method and program
JP7083971B1 (en) Image decoder, image decoding method and program
JP7061737B1 (en) Image decoder, image decoding method and program
WO2020184262A1 (en) Image decoding device, image decoding method, and program
JP6976916B2 (en) Image decoding device, image coding device, image processing system and program
WO2020255846A1 (en) Image decoding device, image decoding method, and program
JP7324899B2 (en) Image decoding device, image decoding method and program
WO2021251278A1 (en) Image decoding device, image decoding method, and program
WO2020137125A1 (en) Image decoding device, image encoding device, program, and image processing system
WO2011142221A1 (en) Encoding device and decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211012

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220301

R150 Certificate of patent or registration of utility model

Ref document number: 7034363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150