JP2020156044A - Video image encoding device, video image decoding device and program - Google Patents

Video image encoding device, video image decoding device and program Download PDF

Info

Publication number
JP2020156044A
JP2020156044A JP2019055126A JP2019055126A JP2020156044A JP 2020156044 A JP2020156044 A JP 2020156044A JP 2019055126 A JP2019055126 A JP 2019055126A JP 2019055126 A JP2019055126 A JP 2019055126A JP 2020156044 A JP2020156044 A JP 2020156044A
Authority
JP
Japan
Prior art keywords
frame
super
resolution
image
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019055126A
Other languages
Japanese (ja)
Other versions
JP7352364B2 (en
Inventor
康孝 松尾
Yasutaka Matsuo
康孝 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019055126A priority Critical patent/JP7352364B2/en
Publication of JP2020156044A publication Critical patent/JP2020156044A/en
Application granted granted Critical
Publication of JP7352364B2 publication Critical patent/JP7352364B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To perform inter-screen prediction while compensating a blur due to encoding without increasing types of super-resolution images.SOLUTION: A high-frequency power calculation unit 10 of a video image encoding device 1 calculates high-frequency power p of an I frame. Super-resolution calculation means 12 calculates a super-resolution α on the basis of the high-frequency power p, an encoding order number n and a QP off-set value Qoff. Super-resolution processing means 13 performs super-resolution processing using the resolution α for a local decoding frame K, and generates a super-resolution frame C. Inter-screen prediction means 15 performs inter-screen prediction and calculates prediction images KY and CY, and prediction errors KE and CE for each area on the basis of a standard picture being a current local decoding frame K(P, B), and reference pictures being a past local decoding frame K and a super-resolution frame C. Selection means 16 selects a prediction image, in which RD cost of the prediction errors KE and CE, of prediction images KY and CY for each area, and outputs an inter-screen prediction result.SELECTED DRAWING: Figure 3

Description

本発明は、動画像を符号化する動画像符号化装置、符号化信号を復号する動画像復号装置、及びこれらのプログラムに関し、特に、画面間予測効率を高めるために、符号化に起因するぼやけを超解像補償しながら画面間予測を行う技術に関する。 The present invention relates to a moving image coding device that encodes a moving image, a moving image decoding device that decodes a coded signal, and a program thereof, and in particular, blurring due to coding in order to improve interscreen prediction efficiency. It relates to a technique for performing inter-screen prediction while compensating for super-resolution.

従来、解像度の高い4Kまたは8Kの動画像を対象とした動画圧縮方式の標準規格として、H.265/HEVC(High Efficiency Video Coding)が知られている(例えば非特許文献1を参照)。このH.265/HEVCの規格は、符号化されたフレームを用いて動きを予測し、予測残差の信号を直交変換して符号化する、動き補償及び直交変換の技術を基本としている。 Conventionally, H.265 / HEVC (High Efficiency Video Coding) is known as a standard of a moving image compression method for a high-resolution 4K or 8K moving image (see, for example, Non-Patent Document 1). This H.265 / HEVC standard is based on motion compensation and orthogonal conversion techniques that predict motion using encoded frames and orthogonally transform and encode the signal of the predicted residuals.

図9は、従来の動画像符号化装置の構成例を示すブロック図であり、H.265/HEVCの標準規格に従った符号化側の構成を示している。この動画像符号化装置100は、減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、インループフィルタ117、画面間予測部118、スイッチ119及びエントロピー符号化部120を備えている。画面間予測部118は、画面間予測手段121及びフレームメモリ122を備えている。 FIG. 9 is a block diagram showing a configuration example of a conventional moving image coding device, and shows a configuration on the coding side according to the H.265 / HEVC standard. The moving image coding device 100 includes a subtraction unit 110, an orthogonal conversion unit 111, a quantization unit 112, an inverse quantization unit 113, an inverse orthogonal conversion unit 114, an addition unit 115, an in-screen prediction unit 116, and an in-loop filter 117. It includes an inter-screen prediction unit 118, a switch 119, and an entropy coding unit 120. The inter-screen prediction unit 118 includes inter-screen prediction means 121 and a frame memory 122.

動画像符号化装置100は、入力動画像に対し、フレーム毎に符号化処理を行い、符号化信号を生成して出力する装置である。 The moving image coding device 100 is a device that performs coding processing on each frame of an input moving image to generate and output a coded signal.

入力動画像のフレームは、減算部110により、画面内予測部116または画面間予測部118により生成された予測画像との間で減算処理が施される。これにより、残差画像が生成される。 The frame of the input moving image is subjected to subtraction processing by the subtraction unit 110 with the prediction image generated by the in-screen prediction unit 116 or the inter-screen prediction unit 118. As a result, a residual image is generated.

残差画像は、直交変換部111による直交変換処理、量子化部112による量子化処理、及びエントロピー符号化部120によりエントロピー符号化が施され、符号化信号として出力される。 The residual image is subjected to orthogonal conversion processing by the orthogonal conversion unit 111, quantization processing by the quantization unit 112, and entropy coding by the entropy coding unit 120, and is output as a coded signal.

一方、量子化部112により量子化処理が施された量子化インデックス列は、逆量子化部113による逆量子化処理、逆直交変換部114による逆直交変換処理が施される。これにより、復号残差画像が生成される。 On the other hand, the quantization index sequence subjected to the quantization processing by the quantization unit 112 is subjected to the inverse quantization processing by the inverse quantization unit 113 and the inverse orthogonal conversion processing by the inverse orthogonal conversion unit 114. As a result, a decoding residual image is generated.

復号残差画像は、加算部115により、予測画像との間で加算処理が施される。加算部115による加算結果の画像は、画面内予測部116による画面内予測処理が施される。また、加算結果の画像は、インループフィルタ117によるフィルタ処理が施され、局部復号フレームとして画面間予測部118のフレームメモリ122に格納される。 The decoded residual image is subjected to addition processing with the predicted image by the addition unit 115. The image of the addition result by the addition unit 115 is subjected to the in-screen prediction processing by the in-screen prediction unit 116. Further, the image of the addition result is filtered by the in-loop filter 117 and stored in the frame memory 122 of the inter-screen prediction unit 118 as a local decoding frame.

フレームメモリ122に格納された局部復号フレームは、画面間予測手段121により過去の局部復号フレームとして読み出される。そして、現在の局部復号フレーム(入力動画像のフレーム)を基準ピクチャとし、過去の局部復号フレームを参照ピクチャとして、画面間予測処理が行われる。 The local decoding frame stored in the frame memory 122 is read out as a past local decoding frame by the inter-screen prediction means 121. Then, the inter-screen prediction processing is performed using the current local decoding frame (frame of the input moving image) as a reference picture and the past local decoding frame as a reference picture.

画面内予測部116による画面内予測処理にて生成された画像、及び画面間予測手段121による画面間予測処理にて生成された画像のうち、いずれか一方がスイッチ119により選択され、予測画像として減算部110及び加算部115へ入力される。 One of the image generated by the in-screen prediction process by the in-screen prediction unit 116 and the image generated by the in-screen prediction process by the inter-screen prediction means 121 is selected by the switch 119 and used as the prediction image. It is input to the subtraction unit 110 and the addition unit 115.

このような動き補償及び直交変換を基本とした動画像符号化技術において、符号化効率を向上させるための技術が提案されている。例えば、画像を縮小してから符号化及び伝送を行い、復号後に超解像復元し、また、画像の複雑度に応じて最適な折り返し周波数を設定して伝送することで、超解像画質を高める技術がある(例えば、特許文献1を参照)。 In the moving image coding technology based on such motion compensation and orthogonal conversion, a technology for improving the coding efficiency has been proposed. For example, the image is reduced, then encoded and transmitted, and after decoding, the super-resolution is restored, and the optimum folding frequency is set according to the complexity of the image and transmitted to obtain super-resolution image quality. There is a technique for enhancing (see, for example, Patent Document 1).

特許第6344800号公報Japanese Patent No. 6344800

大久保榮、鈴木輝彦、高村誠之、中條健、「インプレス標準教科書シリーズ H.265/HEVC教科書」、インプレスジャパンEi Okubo, Teruhiko Suzuki, Masayuki Takamura, Ken Nakajo, "Impress Standard Textbook Series H.265 / HEVC Textbook", Impress Japan

図9に示した従来の動画像符号化装置100において、入力動画像のI,P,Bフレームのうち最初のIフレームに対し、画面内予測部116にて画面内予測処理が行われる。この画面内予測処理では、Iフレームがブロック領域に分割され、直交変換部111にて直交変換が行われ、その高周波パワ一を低減するために、量子化部112にて量子化マトリクスが乗算される。これにより、非可逆圧縮とはなるが、多くの情報量を削減することができる。 In the conventional moving image coding device 100 shown in FIG. 9, the in-screen prediction unit 116 performs in-screen prediction processing for the first I frame among the I, P, and B frames of the input moving image. In this in-screen prediction process, the I-frame is divided into block regions, orthogonal conversion is performed by the orthogonal conversion unit 111, and the quantization matrix is multiplied by the quantization unit 112 in order to reduce the high frequency power. Orthogonal. This results in lossy compression, but can reduce a large amount of information.

以降のP,Bフレームに対しては、過去の画面内予測処理及び画面間予測処理により得られた局部復号フレームを利用して、画面間予測部118にて画面間予測処理が行われ、また、フレーム内の一部では画面内予測部116にて画面内予測処理が行われる。 For the subsequent P and B frames, the inter-screen prediction processing is performed by the inter-screen prediction unit 118 using the local decoding frames obtained by the past in-screen prediction processing and the inter-screen prediction processing. , In-screen prediction processing is performed by the in-screen prediction unit 116 in a part of the frame.

このような符号化処理においては、基本的に、符号化順が後のフレームほど、符号化に起因するぼやけ量が大きくなり易い。このため、従来の画面間予測処理では、符号化効率が低下し、符号化画質が劣化し易いという問題があった。 In such a coding process, basically, the later the coding order is, the larger the amount of blurring due to coding tends to be. Therefore, in the conventional inter-screen prediction processing, there is a problem that the coding efficiency is lowered and the coded image quality is easily deteriorated.

そして、このぼやけを補償するために、超解像フレームを用いた画面間予測を行う手法が想定される。しかし、この手法では、多数の超解像度による超解像フレームを用意しなければならないため、回路規模及び処理時間が増加するという問題があった。 Then, in order to compensate for this blurring, a method of performing inter-screen prediction using a super-resolution frame is assumed. However, this method has a problem that the circuit scale and the processing time increase because a large number of super-resolution frames with super-resolution must be prepared.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、超解像画像の種類を増やすことなく、符号化に起因するぼやけを補償しながら画面間予測を行うことが可能な動画像符号化装置、動画像復号装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above problems, and an object of the present invention is to perform inter-screen prediction while compensating for blurring caused by coding without increasing the types of super-resolution images. It is an object of the present invention to provide a possible moving image encoding device, moving image decoding device and program.

前記課題を解決するために、請求項1の動画像符号化装置は、入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号フレームを生成し、当該局部復号フレームを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、前記局部復号フレームに基づいて超解像フレームを生成し、前記画面間予測により、所定領域毎に、前記局部復号フレームの前記予測画像及び前記超解像フレームの前記予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、前記画面間予測部が、前記超解像フレームを生成する際に用いる超解像度を算出する超解像度算出手段と、前記局部復号フレームに対し、前記超解像度算出手段により算出された前記超解像度を用いた超解像処理を行い、前記超解像フレームを生成する超解像処理手段と、現在の前記局部復号フレームを基準ピクチャとし、過去の前記局部復号フレーム及び前記超解像処理手段により生成された過去の前記超解像フレームを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号フレームの前記予測画像、及び前記超解像フレームの前記予測画像を生成する画面間予測手段と、前記所定領域毎に、前記局部復号フレームの前記予測画像及び前記超解像フレームの前記予測画像のうちのいずれか一方を選択する選択手段と、を備え、前記超解像度算出手段が、前記入力動画像のフレームに含まれるIフレームからの符号化順の番号を符号化順番号として、前記符号化順番号、または、前記入力動画像の前記フレームのQPオフセット値、または、前記符号化順番号及び前記QPオフセット値に基づいて、前記超解像度を算出する、ことを特徴とする。 In order to solve the above-mentioned problems, the moving image coding apparatus according to claim 1 subtracts a predicted image from the input moving image to generate a residual image, and orthogonally transforms, quantizes, and entropy code the residual image. In addition to generating and outputting a coded signal, the quantization index sequence generated by the quantization is subjected to dequantization and inverse orthogonal conversion to generate a decoding residual image, and the decoding residual image is generated. The predicted image is added to to generate an image after addition, the added image is filtered to generate a local decoding frame, and interscreen prediction is performed using the local decoding frame to generate the predicted image. A super-resolution frame is generated based on the local decoding frame, and the predicted image of the local decoding frame and the super-resolution frame of the super-resolution frame are described for each predetermined region by the inter-screen prediction. An inter-screen prediction unit that generates a prediction image and selects any one of the above-mentioned prediction images is provided, and the inter-screen prediction unit calculates the super-resolution to be used when generating the super-resolution frame. A super-resolution processing means for generating the super-resolution frame by performing super-resolution processing using the super-resolution calculated by the super-resolution calculation means on the local decoding frame. The screen-to-screen prediction is performed using the current local decoding frame as a reference picture, the past local decoding frame, and the past super-resolution frame generated by the super-resolution processing means as a reference picture, and the predetermined area. Each time, the inter-screen prediction means for generating the predicted image of the local decoding frame and the predicted image of the super-resolution frame, and the predicted image and the super-resolution of the local decoding frame for each predetermined region. The super-resolution calculation means includes a selection means for selecting one of the predicted images of the frame, and the super-resolution calculation means assigns a coding order number from the I frame included in the frame of the input moving image in the coding order. As a number, the super-resolution is calculated based on the coding sequence number, the QP offset value of the frame of the input moving image, or the coding sequence number and the QP offset value. To do.

また、請求項2の動画像符号化装置は、請求項1に記載の動画像符号化装置において、さらに、前記入力動画像のIフレームに対して前記直交変換、前記量子化、前記逆量子化及び前記逆直交変換が行われた復号フレームに基づいて、高周波パワーを算出する第1高周波パワー算出部を備え、前記超解像度算出手段が、前記第1高周波パワー算出部により算出された前記高周波パワー、または、前記高周波パワー及び前記符号化順番号、または、前記高周波パワー及び前記QPオフセット値、または、前記高周波パワー、前記符号化順番号及び前記QPオフセット値に基づいて、前記超解像度を算出する、ことを特徴とする。 Further, the moving image coding device according to claim 2 is the moving image coding device according to claim 1, further, the orthogonal conversion, the quantization, and the inverse quantization with respect to the I frame of the input moving image. A first high-frequency power calculation unit that calculates the high-frequency power based on the decoding frame in which the inverse orthogonal conversion is performed is provided, and the super-resolution calculation means is the high-frequency power calculated by the first high-frequency power calculation unit. , Or, the super-resolution is calculated based on the high-frequency power and the coding sequence number, or the high-frequency power and the QP offset value, or the high-frequency power, the coding sequence number, and the QP offset value. , Characterized by.

また、請求項3の動画像符号化装置は、請求項1に記載の動画像符号化装置において、さらに、前記入力動画像のIフレームについての前記加算後画像に前記フィルタ処理が施された前記局部復号フレームに基づいて、高周波パワーを算出する第2高周波パワー算出部を備え、前記超解像度算出手段が、前記第2高周波パワー算出部により算出された前記高周波パワー、または、前記高周波パワー及び前記符号化順番号、または、前記高周波パワー及び前記QPオフセット値、または、前記高周波パワー、前記符号化順番号及び前記QPオフセット値に基づいて、前記超解像度を算出する、ことを特徴とする。 Further, the moving image coding device according to claim 3 is the moving image coding device according to claim 1, wherein the added image of the I frame of the input moving image is further filtered. A second high-frequency power calculation unit that calculates high-frequency power based on a local decoding frame is provided, and the super-resolution calculation means is the high-frequency power calculated by the second high-frequency power calculation unit, or the high-frequency power and the above. It is characterized in that the super-resolution is calculated based on the coding sequence number or the high frequency power and the QP offset value, or the high frequency power, the coding sequence number and the QP offset value.

さらに、請求項4の動画像復号装置は、動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号フレームを生成することで、元の前記動画像を復元し、前記復号フレームを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、前記符号化信号に、局部復号フレームの予測画像及び超解像フレームの予測画像から選択した一つの前記予測画像の種類、及び前記超解像フレームを生成する際の超解像度のパラメータが含まれている場合に、前記復号フレームに対し、前記パラメータに含まれる前記超解像度を用いた超解像処理を行い、超解像フレームを生成し、前記画面間予測により、所定領域毎に、前記パラメータに含まれる前記予測画像の種類に従って、前記復号フレーム及び前記超解像フレームのうちのいずれか一つの前記予測画像を生成する画面間予測部、を備えたことを特徴とする。 Further, the moving image decoding device according to claim 4 inputs a moving image encoded signal, performs entropy decoding, inverse quantization, and inverse orthogonal conversion on the encoded signal to generate a decoding residual image, and the decoding is performed. The predicted image is added to the residual image to generate the added image, and the added image is filtered to generate a decoded frame, thereby restoring the original moving image and using the decoded frame. In the moving image decoding device that performs inter-screen prediction and generates the predicted image, the coded signal includes one type of the predicted image selected from the predicted image of the local decoding frame and the predicted image of the super-resolution frame, and When a super-resolution parameter for generating the super-resolution frame is included, the decoded frame is subjected to super-resolution processing using the super-resolution included in the parameter, and the super-resolution frame is performed. To generate the predicted image of any one of the decoded frame and the super-resolution frame according to the type of the predicted image included in the parameter for each predetermined region by the inter-screen prediction. It is characterized by having an interval prediction unit.

さらに、請求項5のプログラムは、コンピュータを、請求項1から3までのいずれか一項に記載の動画像符号化装置として機能させることを特徴とする。 Further, the program of claim 5 is characterized in that the computer functions as the moving image coding device according to any one of claims 1 to 3.

また、請求項6のプログラムは、コンピュータを、請求項4に記載の動画像復号装置として機能させることを特徴とする。 The program of claim 6 is characterized in that the computer functions as the moving image decoding device according to claim 4.

以上のように、本発明によれば、超解像画像の種類を増やすことなく、符号化に起因するぼやけを補償しながら画面間予測を行うことが可能となる。 As described above, according to the present invention, it is possible to perform inter-screen prediction while compensating for blurring caused by coding without increasing the types of super-resolution images.

本発明の実施形態による動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the moving image coding apparatus by embodiment of this invention. 高周波パワー算出部の処理例を説明する図である。It is a figure explaining the processing example of the high frequency power calculation part. 動画像符号化装置に備えた画面間予測部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the inter-screen prediction part provided in the moving image coding apparatus. 動画像符号化装置に備えた画面間予測部の処理例を示すフローチャートある。It is a flowchart which shows the processing example of the interscreen prediction unit provided in the moving image coding apparatus. 超解像度算出手段が用いる参照ピクチャセット情報及びQPオフセット値Qoffの例を説明する図である。It is a figure explaining the example of the reference picture set information and QP offset value Q off used by the super-resolution calculation means. 超解像処理手段の処理例(ステップS404)を説明する図である。It is a figure explaining the processing example (step S404) of the super-resolution processing means. 本発明の実施形態による動画像復号装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the moving image decoding apparatus by embodiment of this invention. 動画像復号装置に備えた画面間予測部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the interscreen prediction part provided in the moving image decoding apparatus. 従来の動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the conventional moving image coding apparatus.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、Iフレームの局部復号フレームが持つ周波数スペクトルパワー、Iフレームからの符号化順の番号、及びQPオフセット値Qoffのうちのいずれかのデータに基づいて、画面間予測処理に用いる超解像フレームの超解像度を算出することを特徴とする。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. The present invention is super-resolution used in inter-screen prediction processing based on any one of the frequency spectrum power of the local decoding frame of the I-frame, the coding order number from the I-frame, and the QP offset value Q off. It is characterized by calculating the super-resolution of the resolution frame.

これにより、一つの超解像フレームを用いてぼやけ補償を行えば済む。したがって、超解像画像の種類を増やすことなく、符号化に起因するぼやけを補償しながら画面間予測を行うことが可能となる。 As a result, blur compensation can be performed using one super-resolution frame. Therefore, it is possible to perform inter-screen prediction while compensating for blurring caused by coding without increasing the types of super-resolution images.

また、復号側は、符号化側からパラメータとして送られてきた超解像度を用いて超解像フレームを生成し、当該超解像フレームを用いて画面間予測を行う。これにより、超解像画像の種類を増やすことなく、符号化に起因するぼやけを補償しながら画面間予測を行うことが可能となる。 Further, the decoding side generates a super-resolution frame using the super-resolution sent as a parameter from the coding side, and performs inter-screen prediction using the super-resolution frame. This makes it possible to perform inter-screen prediction while compensating for blurring caused by coding without increasing the types of super-resolution images.

〔動画像符号化装置〕
まず、本発明の実施形態による動画像符号化装置について説明する。図1は、本発明の実施形態による動画像符号化装置の構成例を示すブロック図である。この動画像符号化装置1は、減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、高周波パワー算出部10、インループフィルタ117、画面間予測部11、スイッチ119及びエントロピー符号化部120を備えている。尚、図1には、本発明に関連する構成部のみを示しており、関連しない構成部は省略してある。
[Video encoding device]
First, a moving image coding device according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a moving image coding device according to an embodiment of the present invention. The moving image coding device 1 includes a subtraction unit 110, an orthogonal conversion unit 111, a quantization unit 112, an inverse quantization unit 113, an inverse orthogonal conversion unit 114, an addition unit 115, an in-screen prediction unit 116, and a high frequency power calculation unit 10. , An in-loop filter 117, an inter-screen prediction unit 11, a switch 119, and an entropy coding unit 120. Note that FIG. 1 shows only the components related to the present invention, and the components not related to the present invention are omitted.

減算部110は、入力動画像のフレーム(Iフレーム、Pフレーム及びBフレーム)を入力すると共に、スイッチ119から当該フレームの予測画像を入力する。そして、減算部110は、入力動画像のフレームから予測画像を減算し、減算結果の残差画像を生成し、残差画像を直交変換部111に出力する。 The subtraction unit 110 inputs a frame (I frame, P frame, and B frame) of the input moving image, and inputs a predicted image of the frame from the switch 119. Then, the subtraction unit 110 subtracts the predicted image from the frame of the input moving image, generates a residual image of the subtraction result, and outputs the residual image to the orthogonal conversion unit 111.

直交変換部111は、減算部110から残差画像を入力し、残差画像に対し直交変換を行い、変換係数列を生成する。そして、直交変換部111は、変換係数列を量子化部112に出力する。 The orthogonal conversion unit 111 inputs a residual image from the subtraction unit 110, performs orthogonal conversion on the residual image, and generates a conversion coefficient sequence. Then, the orthogonal conversion unit 111 outputs the conversion coefficient sequence to the quantization unit 112.

量子化部112は、直交変換部111から変換係数列を入力し、変換係数列に対し量子化を行い、量子化インデックス列を生成する。そして、量子化部112は、量子化インデックス列を逆量子化部113及びエントロピー符号化部120に出力する。 The quantization unit 112 inputs a conversion coefficient sequence from the orthogonal conversion unit 111, performs quantization on the conversion coefficient sequence, and generates a quantization index sequence. Then, the quantization unit 112 outputs the quantization index sequence to the inverse quantization unit 113 and the entropy coding unit 120.

逆量子化部113は、量子化部112から量子化インデックス列を入力し、量子化部112の逆の処理を行うことで、量子化インデックス列を逆量子化し、変換係数列を生成する。そして、逆量子化部113は、変換係数列を逆直交変換部114に出力する。 The inverse quantization unit 113 inputs the quantization index string from the quantization unit 112 and performs the reverse processing of the quantization unit 112 to inversely quantize the quantization index sequence and generate a conversion coefficient sequence. Then, the inverse quantization unit 113 outputs the conversion coefficient sequence to the inverse orthogonal conversion unit 114.

逆直交変換部114は、逆量子化部113から変換係数列を入力し、直交変換部111の逆の処理を行うことで、変換係数列を逆直交変換し、復号残差画像を生成する。そして、逆直交変換部114は、復号残差画像を加算部115に出力する。 The inverse orthogonal conversion unit 114 inputs the conversion coefficient sequence from the inverse quantization unit 113 and performs the reverse processing of the orthogonal conversion unit 111 to perform inverse orthogonal conversion of the conversion coefficient sequence and generate a decoding residual image. Then, the inverse orthogonal conversion unit 114 outputs the decoding residual image to the addition unit 115.

加算部115は、逆直交変換部114から復号残差画像を入力すると共に、スイッチ119から予測画像を入力する。そして、加算部115は、予測画像に復号残差画像を加算し、加算後の画像(加算後画像)を画面内予測部116、高周波パワー算出部10及びインループフィルタ117に出力する。 The addition unit 115 inputs the decoding residual image from the inverse orthogonal conversion unit 114, and inputs the predicted image from the switch 119. Then, the adding unit 115 adds the decoding residual image to the predicted image, and outputs the added image (added image) to the in-screen prediction unit 116, the high frequency power calculation unit 10, and the in-loop filter 117.

画面内予測部116は、加算部115から加算後画像を入力し、所定領域毎に、加算後画像に画面内予測処理を施し、画面内予測結果を生成し、所定領域毎の画面内予測結果をスイッチ119に出力する。 The in-screen prediction unit 116 inputs the added image from the adding unit 115, performs in-screen prediction processing on the added image for each predetermined area, generates an in-screen prediction result, and generates an in-screen prediction result for each predetermined area. Is output to the switch 119.

高周波パワー算出部10は、加算部115から、加算後画像のうちIフレームの復号画像(Iフレーム復号画像)を入力し、Iフレーム復号画像に基づいて高周波パワーpを算出し、Iフレーム復号画像の高周波パワーpを画面間予測部11に出力する。高周波パワー算出部10の詳細については後述する。 The high-frequency power calculation unit 10 inputs an I-frame decoded image (I-frame decoded image) of the added image from the addition unit 115, calculates the high-frequency power p based on the I-frame decoded image, and calculates the I-frame decoded image. High-frequency power p is output to the inter-screen prediction unit 11. The details of the high frequency power calculation unit 10 will be described later.

ここで、Iフレーム復号画像は、入力動画像のIフレームに対し、直交変換部111の処理、量子化部112の処理、逆量子化部113の処理及び逆直交変換部114の処理が行われることにより得られた復号画像である。 Here, in the I-frame decoded image, the processing of the orthogonal conversion unit 111, the processing of the quantization unit 112, the processing of the inverse quantization unit 113, and the processing of the inverse orthogonal conversion unit 114 are performed on the I frame of the input moving image. It is a decoded image obtained by this.

インループフィルタ117は、加算部115から加算後画像を入力し、加算後画像にフィルタ処理を施し、局部復号フレームKを生成する。そして、インループフィルタ117は、局部復号フレームKを画面間予測部11に出力する。 The in-loop filter 117 inputs the added image from the adding unit 115, filters the added image, and generates a local decoding frame K. Then, the in-loop filter 117 outputs the local decoding frame K to the inter-screen prediction unit 11.

これにより、加算後画像がIフレームの場合、Iフレームの局部復号フレームKが生成され、加算後画像がPフレームの場合、Pフレームの局部復号フレームKが生成され、加算後画像がBフレームの場合、Bフレームの局部復号フレームKが生成される。 As a result, when the added image is an I frame, a local decoding frame K of the I frame is generated, and when the added image is a P frame, a local decoding frame K of the P frame is generated, and the added image is a B frame. In this case, the local decoding frame K of the B frame is generated.

画面間予測部11は、高周波パワー算出部10から、Iフレーム復号画像の高周波パワーpを入力すると共に、インループフィルタ117から局部復号フレームKを入力する。また、画面間予測部11は、予め設定された参照ピクチャオフセット情報及びQP(Quality of Picture)オフセット値Qoffを入力する。参照ピクチャオフセット情報及びQPオフセット値Qoffの詳細については後述する。 The inter-screen prediction unit 11 inputs the high-frequency power p of the I-frame decoded image from the high-frequency power calculation unit 10, and inputs the local decoding frame K from the in-loop filter 117. Further, the inter-screen prediction unit 11 inputs preset reference picture offset information and QP (Quality of Picture) offset value Q off . Details of the reference picture offset information and the QP offset value Q off will be described later.

画面間予測部11は、高周波パワーp、参照ピクチャオフセット情報及びQPオフセット値に基づいて超解像度αを算出し、局部復号フレームKに対し、超解像度αを用いて超解像処理を行い、超解像フレームCを生成する。 The inter-screen prediction unit 11 calculates the super-resolution α based on the high-frequency power p, the reference picture offset information, and the QP offset value, and performs super-resolution processing on the local decoding frame K using the super-resolution α to super-resolution. The resolution frame C is generated.

これにより、画面間予測部11に入力された局部復号フレームKがIフレームの局部復号フレームKの場合、Iフレームの超解像フレームCが生成され、Pフレームの局部復号フレームKの場合、Pフレームの超解像フレームCが生成される。また、Bフレームの局部復号フレームKの場合、Bフレームの超解像フレームCが生成される。 As a result, when the local decoding frame K input to the inter-screen prediction unit 11 is the local decoding frame K of the I frame, the super-resolution frame C of the I frame is generated, and when the local decoding frame K of the P frame is P. The super-resolution frame C of the frame is generated. Further, in the case of the local decoding frame K of the B frame, the super-resolution frame C of the B frame is generated.

画面間予測部11は、所定領域毎に、現在の局部復号フレームK(入力動画像のP,Bフレーム)である基準ピクチャ、並びに局部復号フレームK及び超解像フレームCの参照ピクチャを用いて、画面間予測を行う。画面間予測部11は、所定領域毎に、局部復号フレームK及び超解像フレームCのそれぞれについて、予測画像KY,CY、予測誤差KE,CE及び動きベクトル等を求める。 The inter-screen prediction unit 11 uses a reference picture which is the current local decoding frame K (P and B frames of the input moving image) and a reference picture of the local decoding frame K and the super-resolution frame C for each predetermined area. , Perform inter-screen prediction. The inter-screen prediction unit 11 obtains prediction images KY, CY, prediction errors KE, CE, motion vectors, and the like for each of the local decoding frame K and the super-resolution frame C for each predetermined area.

これにより、Pフレームの画面間予測処理が行われた場合、Pフレームの局部復号フレームKについての予測画像KY及び予測誤差KE、並びにPフレームの超解像フレームCについての予測画像CY及び予測誤差CEが得られる。また、Bフレームの画面間予測処理が行われた場合、Bフレームの局部復号フレームKについての予測画像KY及び予測誤差KE、並びにBフレームの超解像フレームCについての予測画像CY及び予測誤差CEが得られる。 As a result, when the inter-screen prediction processing of the P frame is performed, the prediction image KY and the prediction error KE for the local decoding frame K of the P frame, and the prediction image CY and the prediction error for the super-resolution frame C of the P frame. CE is obtained. Further, when the inter-screen prediction processing of the B frame is performed, the prediction image KY and the prediction error KE for the local decoding frame K of the B frame, and the prediction image CY and the prediction error CE for the super-resolution frame C of the B frame are performed. Is obtained.

画面間予測部11は、所定領域毎に、予測誤差KE,CEのうち最小(小さい方)の予測画像を選択し、所定領域毎に選択した予測画像を、所定領域毎の画面間予測結果としてスイッチ119に出力する。 The inter-screen prediction unit 11 selects the smallest (smaller) prediction image of the prediction errors KE and CE for each predetermined area, and uses the predicted image selected for each predetermined area as the inter-screen prediction result for each predetermined area. Output to switch 119.

また、画面間予測部11は、フレーム毎に算出した超解像度αをパラメータに設定すると共に、所定領域毎に予測画像を選択する処理において、所定領域毎に実際に選択した予測画像の種類、算出した動きベクトル等をパラメータに設定する。予測画像の種類は、復号フレーム及び超解像フレームのうちのいずれか一つを示す。そして、画面間予測部11は、パラメータをエントロピー符号化部120に出力する。画面間予測部11の詳細については後述する。 Further, the inter-screen prediction unit 11 sets the super-resolution α calculated for each frame as a parameter, and in the process of selecting the predicted image for each predetermined area, the type and calculation of the predicted image actually selected for each predetermined area. Set the motion vector etc. as parameters. The type of the predicted image indicates any one of a decoding frame and a super-resolution frame. Then, the inter-screen prediction unit 11 outputs the parameter to the entropy encoding unit 120. The details of the inter-screen prediction unit 11 will be described later.

スイッチ119は、画面内予測部116から所定領域毎の画面内予測結果を入力すると共に、画面間予測部11から所定領域毎の画面間予測結果を入力し、いずれか一方を選択し、予測画像として減算部110及び加算部115に出力する。 The switch 119 inputs the in-screen prediction result for each predetermined area from the in-screen prediction unit 116, and also inputs the in-screen prediction result for each predetermined area from the inter-screen prediction unit 11, selects one of them, and predicts the image. Is output to the subtraction unit 110 and the addition unit 115.

エントロピー符号化部120は、量子化部112から量子化インデックス列を入力すると共に、画面間予測部11からパラメータを入力し、さらに、直交変換部111等からパラメータを入力する。そして、エントロピー符号化部120は、量子化インデックス列及びパラメータに対しエントロピー符号化を行い、符号化信号を生成する。エントロピー符号化部120は、符号化信号を、後述する動画像復号装置2へ出力する。 The entropy encoding unit 120 inputs the quantization index sequence from the quantization unit 112, inputs the parameters from the inter-screen prediction unit 11, and further inputs the parameters from the orthogonal conversion unit 111 and the like. Then, the entropy coding unit 120 performs entropy coding on the quantization index sequence and the parameter, and generates a coded signal. The entropy coding unit 120 outputs the coded signal to the moving image decoding device 2 described later.

〔高周波パワー算出部10〕
次に、図1に示した高周波パワー算出部10について詳細に説明する。図2は、高周波パワー算出部10の処理例を示す図である。
[High frequency power calculation unit 10]
Next, the high frequency power calculation unit 10 shown in FIG. 1 will be described in detail. FIG. 2 is a diagram showing a processing example of the high frequency power calculation unit 10.

高周波パワー算出部10は、加算部115からIフレーム復号画像を入力し(ステップS201)、Iフレーム復号画像を1階ウェーブレット分解する(ステップS202)。 The high-frequency power calculation unit 10 inputs an I-frame decoded image from the addition unit 115 (step S201), and decomposes the I-frame decoded image into first-order wavelets (step S202).

高周波パワー算出部10は、1階ウェーブレット分解後の画像について、水平、垂直及び対角の高周波帯域における全ての位相位置の要素値(画素値)を用いて、RMS(Root Mean Square:二乗平均平方根)値を算出する(ステップS203)。 The high-frequency power calculation unit 10 uses RMS (Root Mean Square: root mean square) for the image after first-order wavelet decomposition using the element values (pixel values) of all phase positions in the horizontal, vertical, and diagonal high-frequency bands. ) Calculate the value (step S203).

高周波パワー算出部10は、Iフレーム復号画像の高周波帯域のRMS値を正規化し、Iフレーム復号画像の高周波パワーpを求め、Iフレーム復号画像の高周波パワーpを画面間予測部11に出力する(ステップS204)。 The high-frequency power calculation unit 10 normalizes the RMS value in the high-frequency band of the I-frame decoded image, obtains the high-frequency power p of the I-frame decoded image, and outputs the high-frequency power p of the I-frame decoded image to the inter-screen prediction unit 11 ( Step S204).

このように、高周波パワー算出部10により、Iフレーム復号画像からその高周波パワーpが算出される。高周波パワーpは、Iフレーム復号画像の劣化具合いを示すパワー値であり、パワー値が大きいほど、劣化が小さく、パワー値が小さいほど、劣化が大きいことを示している。また、高周波パワーpは、後述する超解像度算出手段12において、GOP(Group Of Picture)を構成する全てのフレームに対する超解像度αを算出する際に用いられる。 In this way, the high-frequency power calculation unit 10 calculates the high-frequency power p from the I-frame decoded image. The high-frequency power p is a power value indicating the degree of deterioration of the I-frame decoded image, and the larger the power value, the smaller the deterioration, and the smaller the power value, the larger the deterioration. Further, the high frequency power p is used in the super-resolution calculation means 12 described later when calculating the super-resolution α for all the frames constituting the GOP (Group Of Picture).

〔画面間予測部11〕
次に、図1に示した画面間予測部11について詳細に説明する。図3は、動画像符号化装置1に備えた画面間予測部11の構成例を示すブロック図であり、図4は、動画像符号化装置1に備えた画面間予測部11の処理例を示すフローチャートである。
[Inter-screen prediction unit 11]
Next, the inter-screen prediction unit 11 shown in FIG. 1 will be described in detail. FIG. 3 is a block diagram showing a configuration example of the inter-screen prediction unit 11 provided in the moving image coding device 1, and FIG. 4 is a processing example of the inter-screen prediction unit 11 provided in the moving image coding device 1. It is a flowchart which shows.

この画面間予測部11は、超解像度算出手段12、超解像処理手段13、フレームメモリ14、画面間予測手段15、選択手段16及びパラメータ処理手段17を備えている。尚、図3には、本発明に関連する構成部のみを示しており、関連しない構成部は省略してある。 The inter-screen prediction unit 11 includes a super-resolution calculation means 12, a super-resolution processing means 13, a frame memory 14, an inter-screen prediction means 15, a selection means 16, and a parameter processing means 17. Note that FIG. 3 shows only the components related to the present invention, and the components not related to the present invention are omitted.

画面間予測部11は、高周波パワー算出部10からIフレーム復号画像の高周波パワーpを入力する(ステップS401)。また、画面間予測部11は、インループフィルタ117から局部復号フレームK(I,P,B)を入力し、局部復号フレームKをフレームメモリ14に格納する(ステップS402)。 The inter-screen prediction unit 11 inputs the high-frequency power p of the I-frame decoded image from the high-frequency power calculation unit 10 (step S401). Further, the inter-screen prediction unit 11 inputs the local decoding frame K (I, P, B) from the in-loop filter 117, and stores the local decoding frame K in the frame memory 14 (step S402).

局部復号フレームK(I,P,B)は、Iフレームの局部復号フレームK、Pフレームの局部復号フレームK、及びBフレームの局部復号フレームKを示す。これにより、フレームメモリ14には、Iフレームの局部復号フレームK、Pフレームの局部復号フレームK、及びBフレームの局部復号フレームKが格納される。 The local decoding frame K (I, P, B) indicates a local decoding frame K of the I frame, a local decoding frame K of the P frame, and a local decoding frame K of the B frame. As a result, the frame memory 14 stores the local decoding frame K of the I frame, the local decoding frame K of the P frame, and the local decoding frame K of the B frame.

超解像度算出手段12は、予め設定された参照ピクチャオフセット情報及びQPオフセット値Qoffを入力し、後述する処理にて、高周波パワーp、参照ピクチャオフセット情報及びQPオフセット値Qoffに基づいて、超解像度αを算出する(ステップS403)。そして、超解像度算出手段12は、超解像度αを超解像処理手段13に出力する。 The super-resolution calculation means 12 inputs preset reference picture offset information and QP offset value Q off , and in a process described later, super-resolution calculation means based on the high frequency power p, reference picture offset information and QP offset value Q off. The resolution α is calculated (step S403). Then, the super-resolution calculation means 12 outputs the super-resolution α to the super-resolution processing means 13.

超解像処理手段13は、超解像度算出手段12から超解像度αを入力すると共に、局部復号フレームK(I,P,B)を入力する。そして、超解像処理手段13は、局部復号フレームK(I,P,B)に対し、超解像度αを用いた超解像処理を行い、超解像フレームC(I,P,B)を生成し、超解像フレームC(I,P,B)をフレームメモリ14に格納する(ステップS404)。 The super-resolution processing means 13 inputs the super-resolution α from the super-resolution calculation means 12, and also inputs the local decoding frame K (I, P, B). Then, the super-resolution processing means 13 performs super-resolution processing using the super-resolution α on the local decoding frame K (I, P, B) to perform super-resolution frame C (I, P, B). Generate and store the super-resolution frame C (I, P, B) in the frame memory 14 (step S404).

超解像フレームC(I,P,B)は、Iフレームの超解像フレームC、Pフレームの超解像フレームC、及びBフレームの超解像フレームCを示す。これにより、フレームメモリ14には、局部復号フレームK(I,B,P)に加え、Iフレームの超解像フレームC、Pフレームの超解像フレームC、及びBフレームの超解像フレームCが格納される。 The super-resolution frame C (I, P, B) indicates an I-frame super-resolution frame C, a P-frame super-resolution frame C, and a B-frame super-resolution frame C. As a result, in the frame memory 14, in addition to the local decoding frame K (I, B, P), the super-resolution frame C of the I frame, the super-resolution frame C of the P frame, and the super-resolution frame C of the B frame Is stored.

画面間予測手段15は、フレームメモリ14に格納された局部復号フレームK(I,P,B)及び超解像フレームC(I,P,B)を過去の局部復号フレームK(I,P,B)及び超解像フレームC(I,P,B)とし、これを参照ピクチャとして読み出す(ステップS405)。また、画面間予測手段15は、現在の局部復号フレームK(入力動画像のP,Bフレーム)を入力する。 The inter-screen prediction means 15 converts the local decoding frame K (I, P, B) and the super-resolution frame C (I, P, B) stored in the frame memory 14 into the past local decoding frames K (I, P, B). B) and the super-resolution frame C (I, P, B) are used, and these are read out as reference pictures (step S405). Further, the inter-screen prediction means 15 inputs the current local decoding frame K (P and B frames of the input moving image).

画面間予測手段15は、現在の局部復号フレームKを基準ピクチャとして、基準ピクチャ及び参照ピクチャを用いて、所定領域毎に、例えばブロックマッチング法にて、予測画像KY,CY(P,B)及び予測誤差KE,CE(P,B)を生成する(ステップS406)。そして、画面間予測手段15は、予測画像KY,CY(P,B)及び予測誤差KE,CE(P,B)を選択手段16に出力する。 The inter-screen prediction means 15 uses the current local decoding frame K as a reference picture, and uses the reference picture and the reference picture for each predetermined area, for example, by a block matching method, to predict images KY, CY (P, B) and Prediction errors KE and CE (P, B) are generated (step S406). Then, the inter-screen prediction means 15 outputs the prediction images KY, CY (P, B) and the prediction errors KE, CE (P, B) to the selection means 16.

所定領域は、例えばslice(スライス)領域、CTU(Coding Tree Unit:コーディングツリーユニット)領域、CU(Coding Unit:コーディングユニット)領域である。 The predetermined area is, for example, a slice area, a CTU (Coding Tree Unit) area, and a CU (Coding Unit) area.

予測画像KY,CY(P)は、Pフレームの局部復号フレームKの予測画像KY、Pフレームの超解像フレームCの予測画像CYを示す。予測画像KY,CY(B)は、Bフレームの局部復号フレームKの予測画像KY、Bフレームの超解像フレームCの予測画像CYを示す。また、予測誤差KE,CE(P)は、Pフレームの局部復号フレームKの予測誤差KE、Pフレームの超解像フレームCの予測誤差CEを示す。予測誤差KE,CE(B)は、Bフレームの局部復号フレームKの予測誤差KE、Bフレームの超解像フレームCの予測誤差CEを示す。 The predicted images KY and CY (P) indicate the predicted image KY of the local decoding frame K of the P frame and the predicted image CY of the super-resolution frame C of the P frame. The predicted images KY and CY (B) show the predicted image KY of the local decoding frame K of the B frame and the predicted image CY of the super-resolution frame C of the B frame. Further, the prediction errors KE and CE (P) indicate the prediction error KE of the local decoding frame K of the P frame and the prediction error CE of the super-resolution frame C of the P frame. The prediction errors KE and CE (B) indicate the prediction error KE of the local decoding frame K of the B frame and the prediction error CE of the super-resolution frame C of the B frame.

選択手段16は、画面間予測手段15から予測画像KY,CY(P,B)及び予測誤差KE,CE(P,B)を入力する。そして、選択手段16は、所定領域毎に、予測画像KY,CYのうち、予測誤差KE,CEのRDコストが最小となる予測画像(小さい方の予測画像)を選択する(ステップS407)。選択手段16は、所定領域毎に選択した予測画像を、所定領域毎の画面間予測結果としてスイッチ119に出力する(ステップS408)。 The selection means 16 inputs the prediction images KY, CY (P, B) and the prediction errors KE, CE (P, B) from the inter-screen prediction means 15. Then, the selection means 16 selects the predicted image (smaller predicted image) having the smallest RD cost of the prediction errors KE and CE from the predicted images KY and CY for each predetermined region (step S407). The selection means 16 outputs the predicted image selected for each predetermined area to the switch 119 as an inter-screen prediction result for each predetermined area (step S408).

パラメータ処理手段17は、超解像度算出手段12によりフレーム毎に算出された超解像度αをパラメータに設定する。また、パラメータ処理手段17は、選択手段16により所定領域毎に選択された予測画像の種類、画面間予測手段15により算出された動きベクトル等をパラメータに設定する。そして、パラメータ処理手段17は、パラメータをエントロピー符号化部120に出力する。 The parameter processing means 17 sets the super-resolution α calculated for each frame by the super-resolution calculation means 12 as a parameter. Further, the parameter processing means 17 sets the type of the predicted image selected for each predetermined area by the selection means 16, the motion vector calculated by the inter-screen prediction means 15, and the like as parameters. Then, the parameter processing means 17 outputs the parameter to the entropy coding unit 120.

このように、Pフレームの画面間予測処理が行われた場合、Pフレームの局部復号フレームKについての予測画像KY及び予測誤差KE、並びにPフレームの超解像フレームCについての予測画像CY及び予測誤差CEが得られる。そして、予測画像KY,CYのうち予測誤差KE,CEのRDコストが最小となる予測画像が選択され、画面間予測結果として出力される。Bフレームについても同様である。 When the inter-screen prediction processing of the P frame is performed in this way, the prediction image KY and the prediction error KE for the local decoding frame K of the P frame, and the prediction image CY and the prediction for the super-resolution frame C of the P frame are performed. The error CE is obtained. Then, among the predicted images KY and CY, the predicted image having the smallest prediction error KE and CE RD cost is selected and output as an interscreen prediction result. The same applies to the B frame.

〔超解像度算出手段12〕
次に、図3に示した超解像度算出手段12の処理(図4のステップS403)について詳細に説明する。前述のとおり、超解像度算出手段12は、高周波パワーp、参照ピクチャオフセット情報及びQPオフセット値Qoffに基づいて、超解像度αを算出する。
[Super resolution calculation means 12]
Next, the process of the super-resolution calculation means 12 shown in FIG. 3 (step S403 in FIG. 4) will be described in detail. As described above, the super-resolution calculation means 12 calculates the super-resolution α based on the high-frequency power p, the reference picture offset information, and the QP offset value Q off .

図5は、超解像度算出手段12が用いる参照ピクチャセット情報及びQPオフセット値Qoffの例を説明する図である。参照ピクチャセット情報は、GOPにおいて、画面間予測処理に用いる参照ピクチャの情報により構成される。参照ピクチャセット情報には、フレームの入力順の番号(入力順番号)、フレームの符号化順の番号(符号化順番号)n、フレームの種類及び参照関係の情報が含まれる。 FIG. 5 is a diagram illustrating an example of reference picture set information and QP offset value Q off used by the super-resolution calculation means 12. The reference picture set information is composed of reference picture information used for inter-screen prediction processing in GOP. The reference picture set information includes information on the frame input order number (input order number), the frame coding order number (coding order number) n, the frame type, and the reference relationship.

入力順番号は、GOPにおけるフレームの順番を示し、符号化順番号nは、符号化処理が行われるフレームの順番を示す。符号化順番号nが大きいほど、Iフレームから離れていることを意味する。 The input sequence number indicates the order of the frames in the GOP, and the coding sequence number n indicates the order of the frames in which the coding process is performed. The larger the coding sequence number n, the farther away from the I frame.

QPオフセット値Qoffは、フレームの画質を表す値であり、フレーム毎に設定される。QPオフセット値Qoffが大きいほど、画質が悪く、QPオフセット値Qoffが小さいほど、画質が良いことを示す。このように、参照ピクチャセット情報及びQPオフセット値Qoffは、GOPを構成するフレーム毎に予め設定される。 The QP offset value Q off is a value representing the image quality of the frame, and is set for each frame. As QP offset value Q off is large, the image quality is poor, as the QP offset value Q off is small, indicating that the image quality is good. In this way, the reference picture set information and the QP offset value Q off are preset for each frame constituting the GOP.

図5を参照して、例えば、参照ピクチャセット情報において、入力順番号=0及び符号化順番号n=0のフレームはIフレームである。このIフレームは、入力順番号=1,2,4,8,16(符号化順番号n=5,4,3,2,1)のBフレームに参照されることを示している。このIフレームのQPオフセット値Qoffは0である。 With reference to FIG. 5, for example, in the reference picture set information, the frame of the input sequence number = 0 and the coded sequence number n = 0 is an I frame. It is shown that this I frame is referred to by the B frame of the input sequence number = 1,2,4,8,16 (coding sequence number n = 5,4,5,3,2,1). The QP offset value Q off of this I frame is 0.

超解像度算出手段12は、高周波パワーpが大きければ大きいほど、小さい値の超解像度αを算出(設定)し、高周波パワーpが小さければ小さいほど、大きい値の超解像度αを算出する。高周波パワーpが大きい場合、符号化に起因するフレームのぼやけの程度は小さく、高周波パワーpが小さい場合、ぼやけの程度は大きいからである。この高周波パワーpは、GOPを構成する各フレームの超解像度αを算出する際に用いられる。 The super-resolution calculation means 12 calculates (sets) a super-resolution α having a smaller value as the high-frequency power p is larger, and calculates a super-resolution α having a larger value as the high-frequency power p is smaller. This is because when the high frequency power p is large, the degree of blurring of the frame due to coding is small, and when the high frequency power p is small, the degree of blurring is large. This high frequency power p is used when calculating the super-resolution α of each frame constituting the GOP.

超解像度算出手段12は、符号化順番号nが大きければ大きいほど、大きい値の超解像度αを算出し、符号化順番号nが小さければ小さいほど、小さい値の超解像度αを算出する。符号化順番号nが大きい場合、符号化に起因するフレームのぼやけの程度は大きく、符号化順番号nが小さい場合、ぼやけの程度は小さいからである。 The super-resolution calculation means 12 calculates the super-resolution α having a larger value as the coding sequence number n is larger, and calculates the super-resolution α having a smaller value as the coding sequence number n is smaller. This is because when the coding sequence number n is large, the degree of blurring of the frame due to coding is large, and when the coding sequence number n is small, the degree of blurring is small.

超解像度算出手段12は、QPオフセット値Qoffが大きければ大きいほど(画質が悪いほど)、大きい値の超解像度αを算出し、QPオフセット値Qoffが小さければ小さいほど(画質が良いほど)、小さい値の超解像度αを算出する。QPオフセット値Qoffが大きい場合、符号化に起因するフレームのぼやけの程度は大きく、QPオフセット値Qoffが小さい場合、ぼやけの程度は小さいからである。 The super-resolution calculation means 12 calculates the super-resolution α of a large value as the QP offset value Q off is larger (the lower the image quality), and the smaller the QP offset value Q off is (the better the image quality). , Calculate the super-resolution α with a small value. This is because when the QP offset value Q off is large, the degree of blurring of the frame due to coding is large, and when the QP offset value Q off is small, the degree of blurring is small.

具体的には、超解像度算出手段12は、高周波パワーp、符号化順番号n、QPオフセット値Qoff等を用いた以下の式にて、符号化順番号nのフレームについての超解像度αnを算出する。
[数1]
αn=a(1/p)(n/nmax)(Qoff/Qoff-max) ・・・(1)
Specifically, the super-resolution calculation means 12 uses the following formula using the high-frequency power p, the coding sequence number n, the QP offset value Q off, etc., to obtain the super-resolution α n for the frame of the coding sequence number n. Is calculated.
[Number 1]
α n = a (1 / p) (n / n max ) (Q off / Q off-max ) ・ ・ ・ (1)

ここで、aはパラメータであり、nmaxは、イントラフレームであるIフレームの周期、すなわち符号化順番号nの最大値であり、Qoff-maxは、QPオフセット値Qoffの最大値である。超解像度αnは、1以上の実数である。 Here, a is a parameter, n max is the period of the I frame which is an intra frame, that is, the maximum value of the coding sequence number n, and Q off-max is the maximum value of the QP offset value Q off. .. The super-resolution α n is a real number of 1 or more.

図5を参照して、例えば符号化順番号n=3の超解像度α3は、前記式(1)に対してnmax=16,Qoff=4、Qoff-max=6を代入して算出される。 With reference to FIG. 5, for example, for the super-resolution α 3 having a coding sequence number n = 3, substituting n max = 16, Q off = 4, and Q off-max = 6 with respect to the above equation (1). It is calculated.

このように、超解像度算出手段12により、高周波パワーpが大きい場合、符号化順番号nが小さい場合、またはQPオフセット値Qoffが小さい場合、符号化に起因するぼやけが小さいとして、小さい値の超解像度αが算出される。一方、高周波パワーpが小さい場合、符号化順番号nが大きい場合、またはQPオフセット値Qoffが大きい場合、符号化に起因するぼやけが大きいとして、大きい値の超解像度αが算出される。 As described above, when the high frequency power p is large, the coding sequence number n is small, or the QP offset value Q off is small, the super-resolution calculation means 12 considers that the blurring due to coding is small, and the value is small. The super-resolution α is calculated. On the other hand, when the high frequency power p is small, the coding sequence number n is large, or the QP offset value Q off is large, the super-resolution α having a large value is calculated assuming that the blurring due to coding is large.

〔超解像処理手段13〕
次に、図3に示した超解像処理手段13の処理(図4のステップS404)について詳細に説明する。前述のとおり、超解像処理手段13は、局部復号フレームK(I,P,B)に対し、超解像度αを用いた超解像処理を行い、超解像フレームC(I,P,B)を生成する。
[Super-resolution processing means 13]
Next, the processing of the super-resolution processing means 13 shown in FIG. 3 (step S404 in FIG. 4) will be described in detail. As described above, the super-resolution processing means 13 performs super-resolution processing using the super-resolution α on the local decoding frame K (I, P, B), and super-resolution frame C (I, P, B). ) Is generated.

図6は、超解像処理手段13の処理例を説明する図であり、図4のステップS404の詳細を示している。 FIG. 6 is a diagram illustrating a processing example of the super-resolution processing means 13, and shows the details of step S404 of FIG.

超解像処理手段13は、インループフィルタ117から局部復号フレームK(I,P,B)を入力し(ステップS601)、例えば局部復号フレームKを1階ウェーブレット分解する(ステップS602)。 The super-resolution processing means 13 inputs the local decoding frame K (I, P, B) from the in-loop filter 117 (step S601), and decomposes the local decoding frame K, for example, into the first-order wavelet (step S602).

超解像処理手段13は、1階ウェーブレット分解後の画像について、水平、垂直及び対角の高周波帯域における全ての位相位置の要素値(画素値)に対し、超解像度αを乗算する(ステップS603)。 The super-resolution processing means 13 multiplies the element values (pixel values) of all phase positions in the horizontal, vertical, and diagonal high-frequency bands of the image after the first-order wavelet decomposition by the super-resolution α (step S603). ).

超解像処理手段13は、1階ウェーブレット分解後の乗算後画像を1階ウェーブレット再構成する(ステップS604)。そして、超解像処理手段13は、超解像フレームC(I,P,B)を生成し、超解像フレームC(I,P,B)をフレームメモリ14に格納する(ステップS605)。 The super-resolution processing means 13 reconstructs the first-order wavelet after multiplication after the first-order wavelet decomposition (step S604). Then, the super-resolution processing means 13 generates the super-resolution frame C (I, P, B) and stores the super-resolution frame C (I, P, B) in the frame memory 14 (step S605).

このように、超解像処理手段13により、Iフレームの局部復号フレームKについてIフレームの超解像フレームCが生成され、Pフレームの局部復号フレームKについてPフレームの超解像フレームCが生成される。また、Bフレームの局部復号フレームKについてBフレームの超解像フレームCが生成される。 In this way, the super-resolution processing means 13 generates an I-frame super-resolution frame C for the I-frame local decoding frame K, and generates a P-frame super-resolution frame C for the P-frame local decoding frame K. Will be done. Further, the super-resolution frame C of the B frame is generated for the local decoding frame K of the B frame.

以上のように、本発明の実施形態の動画像符号化装置1によれば、高周波パワー算出部10は、Iフレーム復号画像を1階ウェーブレット分解し、水平、垂直及び対角の高周波帯域における全ての位相位置の要素値を用いて、RMS値を算出する。そして、高周波パワー算出部10は、RMS値を正規化して、Iフレーム復号画像の高周波パワーpを求める。 As described above, according to the moving image coding device 1 of the embodiment of the present invention, the high-frequency power calculation unit 10 decomposes the I-frame decoded image into the first-order wavelet, and performs all in the horizontal, vertical, and diagonal high-frequency bands. The RMS value is calculated using the element value of the phase position of. Then, the high-frequency power calculation unit 10 normalizes the RMS value to obtain the high-frequency power p of the I-frame decoded image.

画面間予測部11の超解像度算出手段12は、高周波パワーp、参照ピクチャオフセット情報に含まれる符号化順番号n、及びQPオフセット値Qoffに基づいて、前記式(1)にて超解像度αを算出する。 The super-resolution calculation means 12 of the inter-screen prediction unit 11 uses the super-resolution α according to the above equation (1) based on the high-frequency power p, the coding sequence number n included in the reference picture offset information, and the QP offset value Q off. Is calculated.

画面間予測部11の超解像処理手段13は、局部復号フレームK(I,P,B)毎に、局部復号フレームKに対し、超解像度αを用いた超解像処理を施し、超解像フレームC(I,P,B)を生成し、フレームメモリ14に格納する。 The super-resolution processing means 13 of the inter-screen prediction unit 11 performs super-resolution processing using super-resolution α on the local decoding frame K for each local decoding frame K (I, P, B) to achieve super-resolution. Image frames C (I, P, B) are generated and stored in the frame memory 14.

画面間予測部11の画面間予測手段15は、PフレームまたはBフレームのそれぞれについて画面間予測を行う。具体的には、画面間予測手段15は、現在の局部復号フレームK(P,B)である基準ピクチャと、フレームメモリ14から読み出した過去の局部復号フレームK(I,P,B)及び超解像フレームC(I,P,B)である参照ピクチャとに基づいて、所定領域毎に、画面間予測を行い予測画像KY,CY及び予測誤差KE,CEを求める。 The inter-screen prediction means 15 of the inter-screen prediction unit 11 performs inter-screen prediction for each of the P frame and the B frame. Specifically, the inter-screen prediction means 15 includes a reference picture which is the current local decoding frame K (P, B), the past local decoding frame K (I, P, B) read from the frame memory 14, and super-resolution. Based on the reference picture which is the resolution frame C (I, P, B), inter-screen prediction is performed for each predetermined area, and the prediction images KY and CY and the prediction errors KE and CE are obtained.

画面間予測部11の選択手段16は、所定領域毎に、予測画像KY,CYのうちのいずれか一方、この場合は、予測誤差KE,CEのRDコストが最小となる予測画像(小さい方の予測画像)を選択し、これを画面間予測結果として出力する。 The selection means 16 of the inter-screen prediction unit 11 selects one of the prediction images KY and CY for each predetermined area, and in this case, the prediction image (the smaller one) that minimizes the RD cost of the prediction errors KE and CE. Prediction image) is selected and this is output as an inter-screen prediction result.

このように、画面間予測処理に用いる参照ピクチャとして、局部復号フレームKに加え、当該局部復号フレームKの種類(I,P,B)に対応した一つの超解像フレームCが生成される。この超解像フレームCは、高周波パワーp、符号化順番号n及びQPオフセット値Qoffから算出された超解像度αに基づいて、生成される。 As described above, as the reference picture used for the inter-screen prediction processing, in addition to the local decoding frame K, one super-resolution frame C corresponding to the type (I, P, B) of the local decoding frame K is generated. This super-resolution frame C is generated based on the super-resolution α calculated from the high-frequency power p, the coding sequence number n, and the QP offset value Q off .

ここで、高周波パワーpが大きい場合、符号化順番号nが小さい場合、またはQPオフセット値Qoffが小さい場合、符号化に起因するぼやけが小さいとして、小さい値の超解像度αを用いた超解像フレームCが生成される。一方、高周波パワーpが小さい場合、符号化順番号nが大きい場合、またはQPオフセット値Qoffが大きい場合、符号化に起因するぼやけが大きいとして、大きい値の超解像度αを用いた超解像フレームCが生成される。 Here, when the high-frequency power p is large, the coding sequence number n is small, or the QP offset value Q off is small, it is assumed that the blurring due to coding is small, and a super-resolution using a small value super-resolution α is used. The image frame C is generated. On the other hand, when the high frequency power p is small, the coding sequence number n is large, or the QP offset value Q off is large, it is considered that the blurring due to coding is large, and the super-resolution using a large value super-resolution α is used. Frame C is generated.

このように、超解像画像の種類を増やすことなく、符号化に起因するぼやけを補償しながら画面間予測を行うことが可能となる。 In this way, it is possible to perform inter-screen prediction while compensating for blurring caused by coding without increasing the types of super-resolution images.

〔動画像復号装置〕
次に、本発明の実施形態による動画像復号装置について説明する。図7は、本発明の実施形態による動画像復号装置の構成例を示すブロック図である。この動画像復号装置2は、エントロピー復号部20、逆量子化部21、逆直交変換部22、加算部23、画面内予測部24、インループフィルタ25、画面間予測部26及びスイッチ27を備えている。尚、図7には、本発明に関連する構成部のみを示しており、関連しない構成部は省略してある。
[Video decoding device]
Next, the moving image decoding device according to the embodiment of the present invention will be described. FIG. 7 is a block diagram showing a configuration example of a moving image decoding device according to an embodiment of the present invention. The moving image decoding device 2 includes an entropy decoding unit 20, an inverse quantization unit 21, an inverse orthogonal conversion unit 22, an addition unit 23, an in-screen prediction unit 24, an in-loop filter 25, an inter-screen prediction unit 26, and a switch 27. ing. Note that FIG. 7 shows only the components related to the present invention, and the components not related to the present invention are omitted.

エントロピー復号部20は、図1に示した動画像符号化装置1から出力された符号化信号を入力し、図1に示したエントロピー符号化部120の逆の処理を行うことで、符号化信号に対しエントロピー復号を行い、量子化インデックス列及びパラメータを生成する。 The entropy decoding unit 20 inputs the coded signal output from the moving image coding device 1 shown in FIG. 1 and performs the reverse processing of the entropy coding unit 120 shown in FIG. 1, thereby performing the reverse processing of the coded signal. Is entropy-decoded to generate a quantized index string and parameters.

エントロピー復号部20は、量子化インデックス列を逆量子化部21に出力する。また、エントロピー復号部20は、フレーム毎の超解像度α、並びに所定領域毎に選択された予測画像の種類及び算出された動きベクトルを含むパラメータを画面間予測部26に出力すると共に、他のパラメータを逆量子化部21等に出力する。 The entropy decoding unit 20 outputs the quantization index sequence to the inverse quantization unit 21. Further, the entropy decoding unit 20 outputs a parameter including the super-resolution α for each frame, the type of the predicted image selected for each predetermined area, and the calculated motion vector to the inter-screen prediction unit 26, and other parameters. Is output to the inverse quantization unit 21 and the like.

逆量子化部21は、エントロピー復号部20から量子化インデックス列を入力し、図1に示した量子化部112の逆の処理を行うことで、量子化インデックス列を逆量子化し、変換係数列を生成する。そして、逆量子化部21は、変換係数列を逆直交変換部22に出力する。 The inverse quantization unit 21 inputs the quantization index sequence from the entropy decoding unit 20 and performs the reverse processing of the quantization unit 112 shown in FIG. 1 to inversely quantize the quantization index sequence and convert coefficient sequence. To generate. Then, the inverse quantization unit 21 outputs the conversion coefficient sequence to the inverse orthogonal conversion unit 22.

逆直交変換部22は、逆量子化部21から変換係数列を入力し、図1に示した直交変換部111の逆の処理を行うことで、変換係数列を逆直交変換し、復号残差画像を生成する。そして、逆直交変換部22は、復号残差画像を加算部23に出力する。 The inverse orthogonal conversion unit 22 inputs the conversion coefficient sequence from the inverse quantization unit 21 and performs the reverse processing of the orthogonal conversion unit 111 shown in FIG. 1 to perform the inverse orthogonal conversion of the conversion coefficient sequence and the decoding residual. Generate an image. Then, the inverse orthogonal conversion unit 22 outputs the decoding residual image to the addition unit 23.

加算部23は、逆直交変換部22から復号残差画像を入力すると共に、スイッチ27から予測画像を入力する。そして、加算部23は、予測画像に復号残差画像を加算し、加算後の画像(加算後画像)を画面内予測部24及びインループフィルタ25に出力する。 The addition unit 23 inputs the decoding residual image from the inverse orthogonal conversion unit 22, and also inputs the predicted image from the switch 27. Then, the adding unit 23 adds the decoding residual image to the predicted image, and outputs the added image (added image) to the in-screen prediction unit 24 and the in-loop filter 25.

画面内予測部24は、加算部23から加算後画像を入力し、図1に示した画面内予測部116と同様の処理を行うことで、所定領域毎に、加算後画像に画面内予測処理を施し、所定領域毎の画面内予測結果をスイッチ27に出力する。また、画面内予測部24は、加算後画像を復号画像として出力する。これにより、元の動画像が復元される。 The in-screen prediction unit 24 inputs the added image from the adding unit 23 and performs the same processing as the in-screen prediction unit 116 shown in FIG. 1, so that the in-screen prediction processing is performed on the added image for each predetermined area. Is performed, and the in-screen prediction result for each predetermined area is output to the switch 27. Further, the in-screen prediction unit 24 outputs the added image as a decoded image. As a result, the original moving image is restored.

インループフィルタ25は、加算部23から加算後画像を入力し、図1に示したインループフィルタ117と同様の処理を行うことで、加算後画像にフィルタ処理を施し、復号フレームK’を生成する。そして、インループフィルタ25は、復号フレームK’を画面間予測部26に出力する。 The in-loop filter 25 inputs the added image from the adding unit 23 and performs the same processing as the in-loop filter 117 shown in FIG. 1 to filter the added image and generate a decoding frame K'. To do. Then, the in-loop filter 25 outputs the decoding frame K'to the inter-screen prediction unit 26.

画面間予測部26は、インループフィルタ25から復号フレームK’を入力すると共に、エントロピー復号部20から、超解像度α、並びに所定領域毎に選択された予測画像の種類及び動きベクトル等のパラメータを入力する。 The inter-screen prediction unit 26 inputs the decoding frame K'from the in-loop filter 25, and from the entropy decoding unit 20, parameters such as the super-resolution α and the type and motion vector of the prediction image selected for each predetermined area are input. input.

画面間予測部26は、パラメータに基づいて所定の画面間予測を行うことで、復号フレームK’の予測画像KY’及び超解像フレームC’の予測画像CY’のうちのいずれか一つの予測画像を生成する。そして、画面間予測部26は、これを所定領域毎の画面間予測結果としてスイッチ27に出力する。また、画面間予測部26は、復号フレームK’を復号画像として出力する。これにより、元の動画像が復元される。画面間予測部26の詳細については後述する。 The inter-screen prediction unit 26 predicts one of the predicted image KY'of the decoding frame K'and the predicted image CY' of the super-resolution frame C'by performing a predetermined inter-screen prediction based on the parameters. Generate an image. Then, the inter-screen prediction unit 26 outputs this to the switch 27 as an inter-screen prediction result for each predetermined area. Further, the inter-screen prediction unit 26 outputs the decoding frame K'as a decoded image. As a result, the original moving image is restored. The details of the inter-screen prediction unit 26 will be described later.

スイッチ27は、画面内予測部24から所定領域毎の画面内予測結果を入力すると共に、画面間予測部26から所定領域毎の画面間予測結果を入力し、いずれか一方を選択し、予測画像として加算部23に出力する。 The switch 27 inputs the in-screen prediction result for each predetermined area from the in-screen prediction unit 24, and also inputs the in-screen prediction result for each predetermined area from the inter-screen prediction unit 26, selects one of them, and predicts the image. Is output to the addition unit 23.

〔画面間予測部26〕
次に、図7に示した画面間予測部26について詳細に説明する。図8は、動画像復号装置2に備えた画面間予測部26の構成例を示すブロック図である。この画面間予測部26は、超解像処理手段30、フレームメモリ31、画面間予測手段32及びパラメータ処理手段33を備えている。尚、図8には、本発明に関連する構成部のみを示しており、関連しない構成部は省略してある。
[Inter-screen prediction unit 26]
Next, the inter-screen prediction unit 26 shown in FIG. 7 will be described in detail. FIG. 8 is a block diagram showing a configuration example of the inter-screen prediction unit 26 provided in the moving image decoding device 2. The inter-screen prediction unit 26 includes a super-resolution processing means 30, a frame memory 31, an inter-screen prediction means 32, and a parameter processing means 33. Note that FIG. 8 shows only the constituent parts related to the present invention, and the unrelated constituent parts are omitted.

画面間予測部26は、インループフィルタ25から復号フレームK’(I,P,B)を入力し、復号フレームK’をフレームメモリ31に格納する。 The inter-screen prediction unit 26 inputs the decoding frame K'(I, P, B) from the in-loop filter 25, and stores the decoding frame K'in the frame memory 31.

画面間予測部26のパラメータ処理手段33は、エントロピー復号部20から、フレーム毎の超解像度α、並びに所定領域毎に選択された予測画像の種類及び算出された動きベクトル等のパラメータを入力する。パラメータ処理手段33は、超解像度αを超解像処理手段30に出力すると共に、予測画像の種類及び動きベクトル等を画面間予測手段32に出力する。前述のとおり、予測画像の種類は、復号フレーム及び超解像フレームのうちのいずれか一つを示す。 The parameter processing means 33 of the inter-screen prediction unit 26 inputs parameters such as the super-resolution α for each frame, the type of the predicted image selected for each predetermined area, and the calculated motion vector from the entropy decoding unit 20. The parameter processing means 33 outputs the super-resolution α to the super-resolution processing means 30, and outputs the type of the predicted image, the motion vector, and the like to the inter-screen prediction means 32. As described above, the type of the predicted image indicates any one of the decoding frame and the super-resolution frame.

超解像処理手段30は、パラメータ処理手段33から超解像度αを入力し、復号フレームK’(I,P,B)に対し、図3に示した超解像処理手段13と同様に、超解像度αを用いた超解像処理を施し、超解像フレームC’(I,P,B)を生成する。超解像処理手段30は、超解像フレームC’をフレームメモリ31に格納する。 The super-resolution processing means 30 inputs the super-resolution α from the parameter processing means 33, and for the decoding frame K'(I, P, B), similarly to the super-resolution processing means 13 shown in FIG. Super-resolution processing using the resolution α is performed to generate a super-resolution frame C'(I, P, B). The super-resolution processing means 30 stores the super-resolution frame C'in the frame memory 31.

超解像フレームC’(I,P,B)は、Iフレームの超解像フレームC’、Pフレームの超解像フレームC’、及びBフレームの超解像フレームC’を示す。これにより、フレームメモリ31には、復号フレームK’(I,B,P)に加え、Iフレームの超解像フレームC’、Pフレームの超解像フレームC’、及びBフレームの超解像フレームC’が格納される。 The super-resolution frame C'(I, P, B) indicates an I-frame super-resolution frame C', a P-frame super-resolution frame C', and a B-frame super-resolution frame C'. As a result, in the frame memory 31, in addition to the decoding frame K'(I, B, P), the super-resolution frame C'of the I frame, the super-resolution frame C'of the P frame, and the super-resolution of the B frame Frame C'is stored.

画面間予測手段32は、パラメータ処理手段33から予測画像の種類及び動きベクトル等を入力し、予測画像の種類が復号フレームを示している場合、フレームメモリ31に格納された復号フレームK’を過去の復号フレームK’として読み出す。 The inter-screen prediction means 32 inputs the type of the prediction image, the motion vector, and the like from the parameter processing means 33, and when the type of the prediction image indicates a decoding frame, the decoding frame K'stored in the frame memory 31 is stored in the past. Read as the decoding frame K'of.

また、画面間予測手段32は、予測画像の種類が超解像フレームを示している場合、フレームメモリ31に格納された超解像フレームC’を過去の超解像フレームC’として読み出す。 Further, when the type of the predicted image indicates a super-resolution frame, the inter-screen prediction means 32 reads out the super-resolution frame C'stored in the frame memory 31 as the past super-resolution frame C'.

画面間予測手段32は、過去の復号フレームK’または過去の超解像フレームC’、及び動きベクトルに基づいて、画面間予測を行い、所定領域毎に、予測画像を求める。所定領域は、図3と同様に、例えばslice領域、CTU領域、CU領域である。 The inter-screen prediction means 32 performs inter-screen prediction based on the past decoding frame K'or the past super-resolution frame C'and the motion vector, and obtains a predicted image for each predetermined area. The predetermined region is, for example, a slice region, a CTU region, and a CU region, as in FIG.

画面間予測手段32は、所定領域毎の予測画像を画面間予測結果としてスイッチ27に出力する。 The inter-screen prediction means 32 outputs a prediction image for each predetermined area to the switch 27 as an inter-screen prediction result.

また、図示しない読み出し部は、フレームメモリ31から復号フレームK’を読み出し、これを復号画像として出力する。 Further, a reading unit (not shown) reads the decoded frame K'from the frame memory 31 and outputs this as a decoded image.

以上のように、本発明の実施形態の動画像復号装置2によれば、画面間予測部26の超解像処理手段30は、復号フレームK’に基づき、動画像符号化装置1から送信されたパラメータに含まれる超解像度αを用いて超解像フレームC’を生成する。そして、超解像処理手段30は、超解像フレームC’をフレームメモリ31に格納する。 As described above, according to the moving image decoding device 2 of the embodiment of the present invention, the super-resolution processing means 30 of the inter-screen prediction unit 26 is transmitted from the moving image coding device 1 based on the decoding frame K'. The super-resolution frame C'is generated using the super-resolution α included in the parameters. Then, the super-resolution processing means 30 stores the super-resolution frame C'in the frame memory 31.

画面間予測手段32は、パラメータに含まれる予測画像の種類に従い、フレームメモリ31から復号フレームK’または超解像フレームC’を過去のフレームとして読み出す。そして、画面間予測手段32は、読み出した過去のフレーム、及びパラメータに含まれる動きベクトルに基づいて、画面間予測を行い、所定領域毎に予測画像を求め、これを画面間予測結果として出力する。 The inter-screen prediction means 32 reads the decoding frame K'or the super-resolution frame C'as a past frame from the frame memory 31 according to the type of the prediction image included in the parameter. Then, the inter-screen prediction means 32 performs inter-screen prediction based on the read past frame and the motion vector included in the parameter, obtains a prediction image for each predetermined area, and outputs this as an inter-screen prediction result. ..

このように、動画像復号装置2により、動画像符号化装置1から送信されたパラメータに含まれる超解像度αに従い、動画像符号化装置1にて生成された超解像フレームCと同等の超解像フレームC’が生成される。また、動画像復号装置2により、動画像符号化装置1から送信されたパラメータに含まれる予測画像の種類に従い、復号フレームK’または超解像フレームC’を用いて画面間予測処理が行われる。そして、動画像符号化装置1にて選択された予測画像と同じ種類の予測画像が生成され、復号画像が生成される。 In this way, the moving image decoding device 2 follows the super-resolution α included in the parameters transmitted from the moving image coding device 1, and is equivalent to the super-resolution frame C generated by the moving image coding device 1. The resolution frame C'is generated. Further, the moving image decoding device 2 performs inter-screen prediction processing using the decoding frame K'or the super-resolution frame C'according to the type of the predicted image included in the parameters transmitted from the moving image coding device 1. .. Then, a predicted image of the same type as the predicted image selected by the moving image coding device 1 is generated, and a decoded image is generated.

このように、超解像画像の種類を増やすことなく、符号化に起因するぼやけを補償しながら画面間予測を行うことが可能となる。 In this way, it is possible to perform inter-screen prediction while compensating for blurring caused by coding without increasing the types of super-resolution images.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。 Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the technical idea.

例えば前記実施形態では、動画像符号化装置1の画面間予測部11の超解像度算出手段12は、高周波パワーp、符号化順番号n及びQPオフセット値Qoffに基づいて、前記式(1)にて超解像度αを算出するようにした。 For example, in the above embodiment, the super-resolution calculation means 12 of the inter-screen prediction unit 11 of the moving image coding device 1 is based on the high-frequency power p, the coding sequence number n, and the QP offset value Q off. To calculate the super-resolution α in.

これに対し、超解像度算出手段12は、高周波パワーp、符号化順番号n及びQPオフセット値Qoffのうちのいずれか一つのデータに基づいて、超解像度αを算出するようにしてもよい。また、超解像度算出手段12は、高周波パワーp、符号化順番号n及びQPオフセット値Qoffのうちの2つのデータに基づいて、超解像度αを算出するようにしてもよい。 On the other hand, the super-resolution calculation means 12 may calculate the super-resolution α based on any one of the data of the high frequency power p, the coding sequence number n, and the QP offset value Q off . Further, the super-resolution calculation means 12 may calculate the super-resolution α based on two data of the high frequency power p, the coding sequence number n, and the QP offset value Q off .

例えば、超解像度算出手段12は、以下の式にて、符号化順番号n及びQPオフセット値Qoffに基づいて、超解像度αを算出する。
[数2]
αn=a(n/nmax)(Qoff/Qoff-max) ・・・(2)
この場合、動画像符号化装置1は、図1に示した構成において、高周波パワー算出部10を備える必要がない。
For example, the super-resolution calculation means 12 calculates the super-resolution α based on the coding sequence number n and the QP offset value Q off by the following formula.
[Number 2]
α n = a (n / n max ) (Q off / Q off-max ) ・ ・ ・ (2)
In this case, the moving image coding device 1 does not need to include the high frequency power calculation unit 10 in the configuration shown in FIG.

また、前記実施形態では、高周波パワー算出部10は、加算部115からIフレーム復号画像を入力し、Iフレーム復号画像に基づいて高周波パワーpを算出するようにした。このIフレーム復号画像は、入力動画像のIフレームに対し、直交変換部111の処理、量子化部112の処理、逆量子化部113の処理及び逆直交変換部114の処理が行われることにより得られた復号画像である。 Further, in the above embodiment, the high frequency power calculation unit 10 inputs an I-frame decoded image from the addition unit 115, and calculates the high frequency power p based on the I-frame decoded image. This I-frame decoded image is obtained by performing the processing of the orthogonal conversion unit 111, the processing of the quantization unit 112, the processing of the inverse quantization unit 113, and the processing of the inverse orthogonal conversion unit 114 on the I frame of the input moving image. This is the obtained decoded image.

これに対し、高周波パワー算出部10は、インループフィルタ117からIフレームの局部復号フレームを入力し、インループフィルタ117によりフィルタ処理が行われたIフレームの局部復号フレームに基づいて、高周波パワーpを算出するようにしてもよい。 On the other hand, the high frequency power calculation unit 10 inputs the local decoding frame of the I frame from the in-loop filter 117, and based on the local decoding frame of the I frame filtered by the in-loop filter 117, the high frequency power p. May be calculated.

尚、本発明の実施形態による動画像符号化装置1及び動画像復号装置2のハードウェア構成としては、通常のコンピュータを使用することができる。動画像符号化装置1及び動画像復号装置2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。 As the hardware configuration of the moving image coding device 1 and the moving image decoding device 2 according to the embodiment of the present invention, a normal computer can be used. The moving image coding device 1 and the moving image decoding device 2 are composed of a computer provided with a volatile storage medium such as a CPU and RAM, a non-volatile storage medium such as a ROM, and an interface.

動画像符号化装置1に備えた減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、高周波パワー算出部10、インループフィルタ117、画面間予測部11、スイッチ119及びエントロピー符号化部120の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Subtraction unit 110, orthogonal conversion unit 111, quantization unit 112, inverse quantization unit 113, inverse orthogonal conversion unit 114, addition unit 115, in-screen prediction unit 116, high frequency power calculation unit 10 provided in the moving image coding device 1. , The in-loop filter 117, the inter-screen prediction unit 11, the switch 119, and the entropy coding unit 120 are each realized by causing the CPU to execute a program describing these functions.

また、動画像復号装置2に備えたエントロピー復号部20、逆量子化部21、逆直交変換部22、加算部23、画面内予測部24、インループフィルタ25、画面間予測部26及びスイッチ27も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Further, the entropy decoding unit 20, the inverse quantization unit 21, the inverse orthogonal conversion unit 22, the addition unit 23, the in-screen prediction unit 24, the in-loop filter 25, the inter-screen prediction unit 26, and the switch 27 provided in the moving image decoding device 2 are provided. Is also realized by causing the CPU to execute a program that describes these functions.

これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.

1,100 動画像符号化装置
2 動画像復号装置
10 高周波パワー算出部
11,26,118 画面間予測部
12 超解像度算出手段
13,30 超解像処理手段
14,31,122 フレームメモリ
15,32,121 画面間予測手段
16 選択手段
17,33 パラメータ処理手段
20 エントロピー復号部
21,113 逆量子化部
22,114 逆直交変換部
23,115 加算部
24,116 画面内予測部
25,117 インループフィルタ
27,119 スイッチ
110 減算部
111 直交変換部
112 量子化部
120 エントロピー符号化部
p 高周波パワー
α 超解像度
n 符号化順番号
max Iフレームの周期(符号化順番号nの最大値)
off QPオフセット値
off-max QPオフセット値Qoffの最大値
K 局部復号フレーム
K’ 復号フレーム
C,C’ 超解像フレーム
KY 局部復号フレームKの予測画像
CY 超解像フレームCの予測画像
KE 局部復号フレームKの予測誤差
CE 超解像フレームCの予測誤差
1,100 Video coding device 2 Video decoding device 10 High-frequency power calculation unit 11,26,118 Inter-screen prediction unit 12 Super-resolution calculation means 13,30 Super-resolution processing means 14, 31, 122 Frame memory 15, 32 , 121 Inter-screen prediction means 16 Selection means 17, 33 Parameter processing means 20 Entropy decoding unit 21, 113 Inverse quantization unit 22, 114 Inverse orthogonal conversion unit 23, 115 Addition unit 24, 116 In-screen prediction unit 25, 117 In-loop Filter 27, 119 Switch 110 Subtraction unit 111 Orthogonal conversion unit 112 Quantization unit 120 Entropy coding unit p High-resolution power α Super-resolution n Coding sequence number n max I-frame period (maximum value of coding sequence number n)
Q off QP offset value Q off-max QP offset value Q off maximum value K Local decoding frame K'Decoding frame C, C'Super-resolution frame KY Local decoding frame K prediction image CY Super-resolution frame C prediction image KE Local decoding frame K prediction error CE Super-resolution frame C prediction error

Claims (6)

入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号フレームを生成し、当該局部復号フレームを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、
前記局部復号フレームに基づいて超解像フレームを生成し、前記画面間予測により、所定領域毎に、前記局部復号フレームの前記予測画像及び前記超解像フレームの前記予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、
前記画面間予測部は、
前記超解像フレームを生成する際に用いる超解像度を算出する超解像度算出手段と、
前記局部復号フレームに対し、前記超解像度算出手段により算出された前記超解像度を用いた超解像処理を行い、前記超解像フレームを生成する超解像処理手段と、
現在の前記局部復号フレームを基準ピクチャとし、過去の前記局部復号フレーム及び前記超解像処理手段により生成された過去の前記超解像フレームを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号フレームの前記予測画像、及び前記超解像フレームの前記予測画像を生成する画面間予測手段と、
前記所定領域毎に、前記局部復号フレームの前記予測画像及び前記超解像フレームの前記予測画像のうちのいずれか一方を選択する選択手段と、を備え、
前記超解像度算出手段は、
前記入力動画像のフレームに含まれるIフレームからの符号化順の番号を符号化順番号として、前記符号化順番号、または、前記入力動画像の前記フレームのQPオフセット値、または、前記符号化順番号及び前記QPオフセット値に基づいて、前記超解像度を算出する、ことを特徴とする動画像符号化装置。
A residual image is generated by subtracting a predicted image from the input moving image, orthogonal conversion, quantization and entropy coding are performed on the residual image, a coded signal is generated and output, and the quantization is performed. The generated quantization index sequence is subjected to inverse quantization and inverse orthogonal conversion to generate a decoded residual image, and the predicted image is added to the decoded residual image to generate an added image, and the added image is generated. To generate a local decoding frame, perform inter-screen prediction using the local decoding frame, and generate the predicted image in the moving image coding device.
A super-resolution frame is generated based on the local decoding frame, and the prediction image of the local decoding frame and the prediction image of the super-resolution frame are generated for each predetermined region by the inter-screen prediction. An inter-screen prediction unit for selecting any one of the prediction images is provided.
The inter-screen prediction unit
A super-resolution calculation means for calculating the super-resolution used when generating the super-resolution frame, and
A super-resolution processing means that performs super-resolution processing using the super-resolution calculated by the super-resolution calculation means on the local decoding frame to generate the super-resolution frame, and
The screen-to-screen prediction is performed using the current local decoding frame as a reference picture and the past local decoding frame and the past super-resolution frame generated by the super-resolution processing means as a reference picture, and for each of the predetermined regions. In addition, the inter-screen prediction means for generating the prediction image of the local decoding frame and the prediction image of the super-resolution frame,
For each predetermined region, a selection means for selecting either one of the predicted image of the local decoding frame and the predicted image of the super-resolution frame is provided.
The super-resolution calculation means
The coding order number from the I frame included in the frame of the input moving image is used as the coding order number, or the QP offset value of the frame of the input moving image, or the coding. A moving image coding device characterized in that the super-resolution is calculated based on a sequence number and the QP offset value.
請求項1に記載の動画像符号化装置において、
さらに、前記入力動画像のIフレームに対して前記直交変換、前記量子化、前記逆量子化及び前記逆直交変換が行われた復号フレームに基づいて、高周波パワーを算出する第1高周波パワー算出部を備え、
前記超解像度算出手段は、
前記第1高周波パワー算出部により算出された前記高周波パワー、または、前記高周波パワー及び前記符号化順番号、または、前記高周波パワー及び前記QPオフセット値、または、前記高周波パワー、前記符号化順番号及び前記QPオフセット値に基づいて、前記超解像度を算出する、ことを特徴とする動画像符号化装置。
In the moving image coding apparatus according to claim 1,
Further, a first high-frequency power calculation unit that calculates high-frequency power based on a decoding frame in which the orthogonal conversion, the quantization, the inverse quantization, and the inverse orthogonal conversion are performed on the I frame of the input moving image. With
The super-resolution calculation means
The high frequency power calculated by the first high frequency power calculation unit, or the high frequency power and the coding sequence number, or the high frequency power and the QP offset value, or the high frequency power, the coding sequence number and A moving image coding device characterized in that the super-resolution is calculated based on the QP offset value.
請求項1に記載の動画像符号化装置において、
さらに、前記入力動画像のIフレームについての前記加算後画像に前記フィルタ処理が施された前記局部復号フレームに基づいて、高周波パワーを算出する第2高周波パワー算出部を備え、
前記超解像度算出手段は、
前記第2高周波パワー算出部により算出された前記高周波パワー、または、前記高周波パワー及び前記符号化順番号、または、前記高周波パワー及び前記QPオフセット値、または、前記高周波パワー、前記符号化順番号及び前記QPオフセット値に基づいて、前記超解像度を算出する、ことを特徴とする動画像符号化装置。
In the moving image coding apparatus according to claim 1,
Further, a second high frequency power calculation unit that calculates high frequency power based on the local decoding frame obtained by applying the filter processing to the added image for the I frame of the input moving image is provided.
The super-resolution calculation means
The high frequency power calculated by the second high frequency power calculation unit, or the high frequency power and the coding sequence number, or the high frequency power and the QP offset value, or the high frequency power, the coding sequence number and A moving image coding device characterized in that the super-resolution is calculated based on the QP offset value.
動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号フレームを生成することで、元の前記動画像を復元し、前記復号フレームを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、
前記符号化信号に、局部復号フレームの予測画像及び超解像フレームの予測画像から選択した一つの前記予測画像の種類、及び前記超解像フレームを生成する際の超解像度のパラメータが含まれている場合に、
前記復号フレームに対し、前記パラメータに含まれる前記超解像度を用いた超解像処理を行い、超解像フレームを生成し、前記画面間予測により、所定領域毎に、前記パラメータに含まれる前記予測画像の種類に従って、前記復号フレーム及び前記超解像フレームのうちのいずれか一つの前記予測画像を生成する画面間予測部、を備えたことを特徴とする動画像復号装置。
After inputting the encoded signal of the moving image, entropy decoding, inverse quantization and inverse orthogonal conversion are performed on the encoded signal to generate the decoded residual image, and the predicted image is added to the decoded residual image and added. By generating an image and filtering the added image to generate a decoded frame, the original moving image is restored, interscreen prediction is performed using the decoded frame, and the predicted image is generated. In the moving image decoding device
The coded signal includes one type of the predicted image selected from the predicted image of the locally decoded frame and the predicted image of the super-resolution frame, and a super-resolution parameter for generating the super-resolution frame. If so,
The decoding frame is subjected to super-resolution processing using the super-resolution included in the parameter to generate a super-resolution frame, and the prediction included in the parameter is included in each predetermined region by the inter-screen prediction. A moving image decoding device including an inter-screen prediction unit that generates the predicted image of any one of the decoding frame and the super-resolution frame according to the type of image.
コンピュータを、請求項1から3までのいずれか一項に記載の動画像符号化装置として機能させるためのプログラム。 A program for causing a computer to function as the moving image coding device according to any one of claims 1 to 3. コンピュータを、請求項4に記載の動画像復号装置として機能させるためのプログラム。 A program for causing a computer to function as the moving image decoding device according to claim 4.
JP2019055126A 2019-03-22 2019-03-22 Video encoding device, video decoding device and program Active JP7352364B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019055126A JP7352364B2 (en) 2019-03-22 2019-03-22 Video encoding device, video decoding device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019055126A JP7352364B2 (en) 2019-03-22 2019-03-22 Video encoding device, video decoding device and program

Publications (2)

Publication Number Publication Date
JP2020156044A true JP2020156044A (en) 2020-09-24
JP7352364B2 JP7352364B2 (en) 2023-09-28

Family

ID=72559972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019055126A Active JP7352364B2 (en) 2019-03-22 2019-03-22 Video encoding device, video decoding device and program

Country Status (1)

Country Link
JP (1) JP7352364B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015104963A1 (en) * 2014-01-09 2015-07-16 株式会社日立国際電気 Image processing device and moving image transmission method
JP2018198402A (en) * 2017-05-24 2018-12-13 日本放送協会 Encoder, decoder, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199587A (en) 2007-01-18 2008-08-28 Matsushita Electric Ind Co Ltd Image coding apparatus, image decoding apparatus and methods thereof
JP2009182776A (en) 2008-01-31 2009-08-13 Hitachi Ltd Coder, decoder, moving image coding method, and moving image decoding method
JP2013131786A (en) 2010-04-09 2013-07-04 Mitsubishi Electric Corp Video encoder and video decoder

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015104963A1 (en) * 2014-01-09 2015-07-16 株式会社日立国際電気 Image processing device and moving image transmission method
JP2018198402A (en) * 2017-05-24 2018-12-13 日本放送協会 Encoder, decoder, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YASUTAKA MATSUO, ET AL.: "Super-Resolved and Blurred Decoded Pictures for Improving Coding Efficiency in Inter-Frame Predictio", 2018 4TH INTERNATIONAL CONFERENCE ON FRONTIERS OF SIGNAL PROCESSING (ICFSP), JPN6023010880, 27 September 2018 (2018-09-27), pages 120 - 124, XP033457723, ISSN: 0005018477, DOI: 10.1109/ICFSP.2018.8552056 *
松尾康孝、ほか: "超解像・ぼやけピクチャを用いた画面間予測による符号化効率改善の検討", PCSJ/IMPS2018, JPN6023010881, 19 November 2018 (2018-11-19), pages 20 - 21, ISSN: 0005018476 *

Also Published As

Publication number Publication date
JP7352364B2 (en) 2023-09-28

Similar Documents

Publication Publication Date Title
KR102165340B1 (en) Methods of determination for chroma quantization parameter and apparatuses for using the same
JP6615290B2 (en) Video encoding method, video decoding method, video encoder, and video decoder
US9294768B2 (en) Moving-picture encoding apparatus and moving-picture decoding apparatus
US20180048911A1 (en) Intra prediction method of chrominance block using luminance sample, and apparatus using same
US9420281B2 (en) Method and apparatus for encoding/decoding video using high-precision filter
RU2760234C2 (en) Data encoding and decoding
US20230071246A1 (en) Inverse quantization device and method used in video decoding device
JP5908619B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
CN113132731A (en) Video decoding method, device, equipment and storage medium
JP5526277B2 (en) Moving picture decoding apparatus, method and program
JP2013070419A (en) Video encoding device and video decoding device
JP7352364B2 (en) Video encoding device, video decoding device and program
KR102228577B1 (en) The method of encoding and decoding of quantization matrix and the apparatus for using the same
CN112313955A (en) Method and device for encoding and decoding a data stream representing at least one image
JP2014042332A (en) Moving image encoding device and moving image decoding device
JP5696248B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
JP5525650B2 (en) Moving picture decoding apparatus, method and program
JP5323209B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
CN116320417A (en) Video coding method and device
KR20120100742A (en) Methods of coding usnig skip mode and apparatuses for using the same
JP2014143737A (en) Moving image encoder and moving image decoder
KR20130050534A (en) Methods of encoding using hadamard transform and apparatuses using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230915

R150 Certificate of patent or registration of utility model

Ref document number: 7352364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150