JP2020150422A - Moving image encoder, moving image decoder, and program - Google Patents

Moving image encoder, moving image decoder, and program Download PDF

Info

Publication number
JP2020150422A
JP2020150422A JP2019046520A JP2019046520A JP2020150422A JP 2020150422 A JP2020150422 A JP 2020150422A JP 2019046520 A JP2019046520 A JP 2019046520A JP 2019046520 A JP2019046520 A JP 2019046520A JP 2020150422 A JP2020150422 A JP 2020150422A
Authority
JP
Japan
Prior art keywords
picture
pictures
image
super
decoded picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019046520A
Other languages
Japanese (ja)
Other versions
JP7252016B2 (en
Inventor
康孝 松尾
Yasutaka Matsuo
康孝 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019046520A priority Critical patent/JP7252016B2/en
Publication of JP2020150422A publication Critical patent/JP2020150422A/en
Application granted granted Critical
Publication of JP7252016B2 publication Critical patent/JP7252016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To obtain a moving image having subjectively high image quality even when blurring or sharpening of an object occurs for each region between pictures of a moving image.SOLUTION: A moving image encoder 1 includes an inter-screen prediction unit 10 comprising: a super-resolution processing unit 11 for generating super-resolution pictures CH,V,D; a blurring processing unit 12 for generating blurred pictures BH,V,D; an inter-screen prediction processing unit 14 for performing inter-screen prediction processing to calculate a prediction image and the like of each picture for each predetermined region; a frequency analysis unit 15 for calculating power variation information between pictures; and a selection unit 16 that for each predetermined region and on the basis of the power variation information and the like, calculates weight tCH,V,D, tBH,V,D and selects a prediction image corresponding to the minimum prediction error of a prediction error of a local decoded picture, prediction errors of the super-resolution pictures multiplied by the weight tCH,V,D, and prediction errors of the blurred pictures multiplied by the weight tBH,V,D.SELECTED DRAWING: Figure 2

Description

本発明は、動画像を符号化する動画像符号化装置、符号化信号を復号する動画像復号装置及びプログラムに関する。 The present invention relates to a moving image coding device for encoding a moving image, a moving image decoding device for decoding a coded signal, and a program.

従来、解像度の高い4Kまたは8Kの動画像を対象とした動画圧縮方式の標準規格として、H.265/HEVC(High Efficiency Video Coding)が知られている(例えば非特許文献1を参照)。このH.265/HEVCの規格は、符号化されたフレームを用いて動きを予測し、予測残差の信号を直交変換して符号化する、動き補償及び直交変換の技術を基本としている。 Conventionally, H.265 / HEVC (High Efficiency Video Coding) is known as a standard of a moving image compression method for a high-resolution 4K or 8K moving image (see, for example, Non-Patent Document 1). This H.265 / HEVC standard is based on motion compensation and orthogonal conversion techniques that predict motion using encoded frames and orthogonally transform and encode the signal of the predicted residuals.

図14は、従来の動画像符号化装置の構成例を示すブロック図であり、H.265/HEVCの標準規格に従った符号化側の構成を示している。この動画像符号化装置100は、減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、インループフィルタ117、画面間予測部118、スイッチ119及びエントロピー符号化部120を備えている。画面間予測部118は、画面間予測処理部121及びフレームメモリ122を備えている。 FIG. 14 is a block diagram showing a configuration example of a conventional moving image coding device, and shows a configuration on the coding side according to the H.265 / HEVC standard. The moving image coding device 100 includes a subtraction unit 110, an orthogonal conversion unit 111, a quantization unit 112, an inverse quantization unit 113, an inverse orthogonal conversion unit 114, an addition unit 115, an in-screen prediction unit 116, and an in-loop filter 117. It includes an inter-screen prediction unit 118, a switch 119, and an entropy coding unit 120. The inter-screen prediction unit 118 includes an inter-screen prediction processing unit 121 and a frame memory 122.

動画像符号化装置100は、入力動画像に対し、1フレームのピクチャ毎に符号化処理を行い、符号化信号を生成して出力する装置である。 The moving image coding device 100 is a device that performs coding processing for each frame of a picture on an input moving image to generate and output a coded signal.

入力動画像のピクチャは、減算部110により、画面内予測部116または画面間予測部118により生成された予測画像との間で減算処理が施される。これにより、残差画像が生成される。 The picture of the input moving image is subjected to subtraction processing by the subtraction unit 110 with the prediction image generated by the in-screen prediction unit 116 or the inter-screen prediction unit 118. As a result, a residual image is generated.

残差画像は、直交変換部111による直交変換処理、量子化部112による量子化処理、及びエントロピー符号化部120によりエントロピー符号化が施され、符号化信号として出力される。 The residual image is subjected to orthogonal conversion processing by the orthogonal conversion unit 111, quantization processing by the quantization unit 112, and entropy coding by the entropy coding unit 120, and is output as a coded signal.

一方、量子化部112により量子化処理が施された量子化インデックス列は、逆量子化部113による逆量子化処理、逆直交変換部114による逆直交変換処理が施される。これにより、復号残差画像が生成される。 On the other hand, the quantization index sequence subjected to the quantization processing by the quantization unit 112 is subjected to the inverse quantization processing by the inverse quantization unit 113 and the inverse orthogonal conversion processing by the inverse orthogonal conversion unit 114. As a result, a decoding residual image is generated.

復号残差画像は、加算部115により、予測画像との間で加算処理が施される。加算部115による加算結果の画像は、画面内予測部116による画面内予測処理が施される。また、加算結果の画像は、インループフィルタ117によるフィルタ処理が施され、局部復号ピクチャとして画面間予測部118のフレームメモリ122に格納される。 The decoded residual image is subjected to addition processing with the predicted image by the addition unit 115. The image of the addition result by the addition unit 115 is subjected to the in-screen prediction processing by the in-screen prediction unit 116. Further, the image of the addition result is filtered by the in-loop filter 117 and stored in the frame memory 122 of the inter-screen prediction unit 118 as a locally decoded picture.

フレームメモリ122に格納された局部復号ピクチャは、画面間予測処理部121により過去の局部復号ピクチャとして読み出される。そして、現在の局部復号ピクチャ(入力動画像のピクチャ)を基準ピクチャとし、過去の局部復号ピクチャを参照ピクチャとして、画面間予測処理が行われる。 The locally decoded picture stored in the frame memory 122 is read out as a past locally decoded picture by the inter-screen prediction processing unit 121. Then, the inter-screen prediction processing is performed using the current locally decoded picture (picture of the input moving image) as a reference picture and the past locally decoded picture as a reference picture.

画面内予測部116による画面内予測処理にて生成された画像、及び画面間予測処理部121による画面間予測処理にて生成された画像のうち、いずれか一方がスイッチ119により選択され、予測画像として減算部110へ入力される。 One of the image generated by the in-screen prediction process by the in-screen prediction unit 116 and the image generated by the inter-screen prediction process by the inter-screen prediction processing unit 121 is selected by the switch 119, and the prediction image is selected. Is input to the subtraction unit 110.

このような動き補償及び直交変換を基本とした動画像符号化技術において、符号化効率を向上させるための技術が提案されている。例えば、色差信号の符号化効率を向上させるために、複数フレームによる超解像処理を適用して色差補間を行い、色差間引き画像をYCbCr4:4:4に変換する技術がある(例えば、特許文献1を参照)。 In the moving image coding technology based on such motion compensation and orthogonal conversion, a technology for improving the coding efficiency has been proposed. For example, in order to improve the coding efficiency of a color difference signal, there is a technique of applying super-resolution processing by a plurality of frames to perform color difference interpolation and converting a color difference thinned image to YCbCr 4: 4: 4 (for example, Patent Document). 1).

また、動画像の符号化効率を向上させるために、画像を縮小してから符号化及び伝送を行い、復号後に超解像復元し、また、画像の複雑度に応じて最適な折り返し周波数を設定して伝送することで、超解像画質を高める技術もある(例えば、特許文献2を参照)。 In addition, in order to improve the coding efficiency of moving images, the image is reduced, then coded and transmitted, super-resolution restored after decoding, and the optimum folding frequency is set according to the complexity of the image. There is also a technique for improving super-resolution image quality by transmitting the image (see, for example, Patent Document 2).

特許第6152642号公報Japanese Patent No. 6152642 特許第6344800号公報Japanese Patent No. 6344800

大久保榮、「インプレス標準教科書シリーズ H.265/HEVC教科書」、インプレスジャパンEi Okubo, "Impress Standard Textbook Series H.265 / HEVC Textbook", Impress Japan

従来の動き補償及び直交変換を基本とした動画像符号化技術では、画面間予測処理により生成される予測画像は、例えばブロックマッチング法にて予測誤差が最小となる画像が選択される。これにより、符号化効率を向上させることができ、復号側において客観的に高画質な動画像を得ることができる。 In the conventional moving image coding technique based on motion compensation and orthogonal conversion, an image having the minimum prediction error is selected as the predicted image generated by the inter-screen prediction processing, for example, by a block matching method. As a result, the coding efficiency can be improved, and an objectively high-quality moving image can be obtained on the decoding side.

しかしながら、動画像のピクチャ間におけるオブジェクトの動きに伴って、領域毎にぼやけまたは鮮鋭化が起こる場合がある。従来の動画像符号化技術では、例えば、ぼやけまたは鮮鋭化が起こる動画像であっても、通常の局部復号画像を用いて予測画像を生成する。 However, blurring or sharpening may occur in each region due to the movement of objects between pictures of moving images. In the conventional moving image coding technique, for example, even a moving image in which blurring or sharpening occurs, a predicted image is generated by using a normal locally decoded image.

このため、ぼやけまたは鮮鋭化が起こる動画像と、通常の動画像(ぼやけまたは鮮鋭化が起こらない動画像)とを区別した画面間予測処理を行うことができない。また、水平方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像と、垂直方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像とを区別した画面間予測を行うことができない。 For this reason, it is not possible to perform inter-screen prediction processing that distinguishes between a moving image in which blurring or sharpening occurs and a normal moving image (moving image in which blurring or sharpening does not occur). In addition, it is not possible to perform inter-screen prediction that distinguishes between a moving image in which blurring or sharpening occurs due to horizontal movement and a moving image in which blurring or sharpening occurs due to vertical movement.

このように、従来の動画像符号化技術では、客観的に高画質な動画像を得ることができるが、必ずしも主観的に高画質な動画像を得ることができるとは限らないという問題があった。 As described above, in the conventional moving image coding technique, it is possible to objectively obtain a high-quality moving image, but there is a problem that it is not always possible to obtain a subjectively high-quality moving image. It was.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、主観的に高画質な動画像を得ることが可能な動画像符号化装置、動画像復号装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above problems, and an object of the present invention is to subjectively obtain high image quality even when an object is blurred or sharpened for each area between pictures of a moving image. It is an object of the present invention to provide a moving image coding device, a moving image decoding device, and a program capable of obtaining a moving image.

前記課題を解決するために、請求項1の動画像符号化装置は、入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、前記局部復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、前記画面間予測部が、前記局部復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記超解像処理部により生成された過去の前記複数の超解像ピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数の超解像ピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数の超解像ピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像のうちのいずれか一つを選択する選択部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems, the motion image coding apparatus according to claim 1 subtracts a predicted image from the input motion image to generate a residual image, and orthogonally transforms, quantizes, and entropy code the residual image. In addition to generating and outputting a coded signal, the quantization index sequence generated by the quantization is subjected to inverse quantization and inverse orthogonal conversion to generate a decoding residual image, and the decoding residual image is generated. The predicted image is added to to generate an image after addition, the added image is filtered to generate a locally decoded picture, and interscreen prediction is performed using the locally decoded picture to generate the predicted image. A plurality of super-resolution pictures are generated based on the locally decoded picture, and the predicted image of the locally decoded picture and the plurality of super-resolutions are generated for each predetermined area by the inter-screen prediction. An inter-screen prediction unit that generates a predicted image of a picture and selects any one of the predicted images is provided, and the inter-screen prediction unit performs super-resolution processing on the locally decoded picture and horizontally. A super-resolution that generates a picture that emphasizes a component of a high-frequency band in the direction, a picture that emphasizes a component of a high-frequency band in the vertical direction, and a picture that emphasizes a component of a high-frequency band in the diagonal direction as the plurality of super-resolution pictures. Between the screens, the processing unit and the current locally decoded picture are used as reference pictures, and each of the past locally decoded picture and the past plurality of super-resolution pictures generated by the super-resolution processing unit are used as reference pictures. An inter-screen prediction processing unit that performs prediction, generates a prediction image and a motion vector of the locally decoded picture for each predetermined region, and generates a prediction image and a motion vector of the plurality of super-resolution pictures, and a current A frequency analysis unit that performs frequency analysis of the locally decoded picture and the past locally decoded picture and generates power fluctuation information between the current locally decoded picture and the past locally decoded picture, and each of the predetermined regions. , The power fluctuation information generated by the frequency analysis unit, or the motion vector of the power fluctuation information, the locally decoded picture generated by the inter-screen prediction processing unit, and the motion vector of the plurality of super-resolution pictures. Based on this, it is characterized by including a selection unit for selecting any one of the predicted image of the locally decoded picture and the predicted image of the plurality of super-resolution pictures.

また、請求項2の動画像符号化装置は、入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、前記局部復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、前記画面間予測部が、前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数のぼやけピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する選択部と、を備えたことを特徴とする。 Further, the moving image coding device of claim 2 subtracts a predicted image from the input moving image to generate a residual image, performs orthogonal conversion, quantization and entropy coding on the residual image, and encodes the residual image. A signal is generated and output, and the quantization index sequence generated by the quantization is subjected to inverse quantization and inverse orthogonal conversion to generate a decoding residual image, and the predicted image is added to the decoding residual image. To generate an image after addition, filter the added image to generate a locally decoded picture, perform inter-screen prediction using the locally decoded picture, and generate the predicted image. In, a plurality of blurred pictures are generated based on the locally decoded picture, and a predicted image of the locally decoded picture and a predicted image of the plurality of blurred pictures are generated for each predetermined area by the inter-screen prediction. An inter-screen prediction unit for selecting any one of the predicted images is provided, and the inter-screen prediction unit performs blurring processing on the locally decoded picture to suppress components in the high frequency band in the horizontal direction. The blur processing unit that generates a picture in which the component of the high frequency band in the direction is suppressed and the picture in which the component of the high frequency band in the diagonal direction is suppressed as the plurality of blur pictures, and the current locally decoded picture are used as reference pictures in the past. The inter-screen prediction is performed using each of the locally decoded picture and the plurality of past blurred pictures generated by the blur processing unit as reference pictures, and the predicted image and motion vector of the locally decoded picture are performed for each predetermined area. Is generated, and the inter-screen prediction processing unit that generates the predicted images and motion vectors of the plurality of blurred pictures, and the frequency analysis of the current locally decoded picture and the past locally decoded picture are performed to perform the current local decoding. A frequency analysis unit that generates power fluctuation information between the picture and the past locally decoded picture, the power fluctuation information generated by the frequency analysis unit for each predetermined region, or the power fluctuation information and the said One of the predicted image of the locally decoded picture and the predicted image of the plurality of blurred pictures based on the motion vector of the locally decoded picture and the motion vector of the plurality of blurred pictures generated by the inter-screen prediction processing unit. It is characterized by having a selection unit for selecting one.

また、請求項3の動画像符号化装置は、請求項1に記載の動画像符号化装置において、前記局部復号ピクチャに基づいて、前記複数の超解像ピクチャ及び複数のぼやけピクチャを生成し、画面間予測により、前記所定領域毎に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、前記画面間予測部が、さらに、前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、前記画面間予測処理部が、現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ、前記超解像処理部により生成された過去の前記複数の超解像ピクチャ、及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトル、前記複数の超解像ピクチャの予測画像及び動きベクトル、並びに前記複数のぼやけピクチャの予測画像及び動きベクトルを生成し、前記選択部が、前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル、前記複数の超解像ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する、ことを特徴とする。 Further, the motion image coding device according to claim 3 generates the plurality of super-resolution pictures and the plurality of blurry pictures based on the locally decoded picture in the motion image coding device according to claim 1. By inter-screen prediction, a predicted image of the locally decoded picture, a predicted image of the plurality of super-resolution pictures, and a predicted image of the plurality of blurred pictures are generated for each predetermined area, and among these predicted images, the predicted images are generated. An inter-screen prediction unit for selecting any one is provided, and the inter-screen prediction unit further blurs the locally decoded picture to suppress components in the horizontal high-frequency band, and a vertical high-frequency band. A blurring processing unit that generates a picture in which the components of the above are suppressed and a picture in which the components in the high frequency band in the diagonal direction are suppressed as the plurality of blurring pictures are provided, and the inter-screen prediction processing unit produces the current locally decoded picture. As a reference picture, each of the past locally decoded picture, the past plurality of super-resolution pictures generated by the super-resolution processing unit, and the past plurality of blurring pictures generated by the blur processing unit can be used as reference pictures. The screen-to-screen prediction is performed as a reference picture, and the predicted image and motion vector of the locally decoded picture, the predicted image and motion vector of the plurality of super-resolution pictures, and the predicted image of the plurality of blurred pictures are performed for each predetermined area. And the motion vector is generated, and the selection unit generates the power fluctuation information or the power fluctuation information generated by the frequency analysis unit and the local area generated by the inter-screen prediction processing unit for each predetermined region. Based on the motion vector of the decoded picture, the motion vector of the plurality of super-resolution pictures, and the motion vector of the plurality of blurred pictures, the predicted image of the locally decoded picture, the predicted image of the plurality of super-resolution pictures, and the plurality of It is characterized in that one of the predicted images of the blurred picture is selected.

また、請求項4の動画像符号化装置は、請求項1から3までのいずれか一項に記載の動画像符号化装置において、前記周波数解析部が、現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャについて、デシメーションを伴わない1階ウェーブレットパケット分解にて前記周波数解析を行い、現在の前記局部復号ピクチャの解析結果及び過去の前記局部復号ピクチャの解析結果に基づいて、周波数帯域毎かつ位相位置毎の前記パワー変動情報を生成する、ことを特徴とする。 Further, in the moving image coding device according to claim 4, in the moving image coding device according to any one of claims 1 to 3, the frequency analysis unit uses the current local decoding picture and the past said. The frequency analysis of the locally decoded picture is performed by first-order wavelet packet decomposition without decimation, and based on the current analysis result of the locally decoded picture and the past analysis result of the locally decoded picture, each frequency band and phase It is characterized in that the power fluctuation information for each position is generated.

さらに、請求項5の動画像復号装置は、動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、前記符号化信号に、局部復号ピクチャの予測画像及び複数の超解像ピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、前記復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数の超解像ピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、前記画面間予測部が、前記復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、前記パラメータに従って、前記復号ピクチャ及び前記超解像処理部により生成された前記複数の超解像ピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、を備えたことを特徴とする。 Further, the moving image decoding apparatus according to claim 5 inputs a moving image encoded signal, performs entropy decoding, inverse quantization, and inverse orthogonal conversion on the encoded signal to generate a decoding residual image, and the above-mentioned The predicted image is added to the decoded residual image to generate an image after addition, and the added image is filtered to generate a decoded picture, thereby restoring the original moving image and using the decoded picture. In a moving image decoding device that performs inter-screen prediction and generates the predicted image, the coded signal is a predicted image of one of the predicted images selected from a predicted image of a locally decoded picture and a predicted image of a plurality of super-resolution pictures. When a parameter indicating the type is included, a plurality of super-resolution pictures are generated based on the decoded picture, and according to the inter-screen prediction, the decoded picture and the plurality of super-resolution pictures are generated for each predetermined area according to the parameter. An inter-screen prediction unit that generates a prediction image of any one of the resolution pictures is provided, and the inter-screen prediction unit performs super-resolution processing on the decoded picture to emphasize the components in the high frequency band in the horizontal direction. A super-resolution processing unit that generates a picture, a picture emphasizing a component in a vertical high-frequency band, and a picture emphasizing a component in a diagonal high-frequency band as the plurality of super-resolution pictures, and the above-mentioned according to the parameters. A screen that performs inter-screen prediction using the decoded picture and any one of the plurality of super-resolution pictures generated by the super-resolution processing unit, and generates the predicted image for each predetermined area. It is characterized by having an interval prediction processing unit.

また、請求項6の動画像復号装置は、動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、前記符号化信号に、局部復号ピクチャの予測画像及び複数のぼやけピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、前記復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、前記画面間予測部が、前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、前記パラメータに従って、前記復号ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、を備えたことを特徴とする。 Further, the moving image decoding device according to claim 6 inputs a moving image encoded signal, performs entropy decoding, inverse quantization, and inverse orthogonal conversion on the encoded signal to generate a decoding residual image, and said that. The predicted image is added to the decoded residual image to generate the added image, and the added image is filtered to generate the decoded picture, thereby restoring the original moving image and using the decoded picture. In the moving image decoding device that performs inter-screen prediction and generates the predicted image, the coded signal is a type of one predicted image selected from the predicted image of the locally decoded picture and the predicted image of a plurality of blurred pictures. When the indicated parameters are included, a plurality of blurred pictures are generated based on the decoded picture, and according to the inter-screen prediction, the decoded picture and the plurality of blurred pictures are generated according to the parameters for each predetermined area. An inter-screen prediction unit that generates any one of the predicted images is provided, and the inter-screen prediction unit performs blurring processing on the decoded picture to suppress components in the high frequency band in the horizontal direction, and a high frequency band in the vertical direction. A blur processing unit that generates a picture in which components are suppressed and a picture in which components in a diagonal high frequency band are suppressed as the plurality of blur pictures, and the decoded picture and the blur processing unit generated by the blur processing unit according to the parameters. It is characterized by including an inter-screen prediction processing unit that performs inter-screen prediction using any one of a plurality of blurred pictures and generates the predicted image for each predetermined area.

また、請求項7の動画像復号装置は、請求項5に記載の動画像復号装置において、前記符号化信号に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び複数のぼやけピクチャから選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、前記復号ピクチャに基づいて、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャを生成し、前記画面間予測により、前記所定領域毎に、前記パラメータに従って前記復号ピクチャ、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、前記画面間予測部が、さらに、前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、前記画面間予測処理部が、前記パラメータに従って、前記復号ピクチャ、前記超解像処理部により生成された前記複数の超解像ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する、ことを特徴とする。 In addition, the moving image decoding device according to claim 7 is the moving image decoding device according to claim 5, in which the encoded signal includes a predicted image of the locally decoded picture, a predicted image of the plurality of super-resolution pictures, and a plurality of predicted images. When a parameter indicating one type of the predicted image selected from the blurred pictures is included, the plurality of super-resolution pictures and the plurality of blurred pictures are generated based on the decoded picture, and the screen is displayed. The inter-screen prediction unit is provided for each predetermined region to generate a prediction image of any one of the decoded picture, the plurality of super-resolution pictures, and the plurality of blurry pictures according to the parameters. The inter-screen prediction unit further blurs the decoded picture to suppress the horizontal high frequency band component, the vertical high frequency band component suppressed picture, and the diagonal high frequency band component. The inter-screen prediction processing unit includes the blurring processing unit that generates the suppressed picture as the plurality of blurring pictures, and the inter-screen prediction processing unit performs the decoding picture and the plurality of super-resolutions generated by the super-resolution processing unit according to the parameters. The feature is that the inter-screen prediction is performed using any one of the image picture and the plurality of blur pictures generated by the blur processing unit, and the predicted image for each predetermined area is generated. To do.

さらに、請求項8のプログラムは、コンピュータを、請求項1から4までのいずれか一項に記載の動画像符号化装置として機能させることを特徴とする。 Further, the program of claim 8 is characterized in that the computer functions as the moving image coding device according to any one of claims 1 to 4.

また、請求項9のプログラムは、コンピュータを、請求項5から7までのいずれか一項に記載の動画像復号装置として機能させることを特徴とする。 The program of claim 9 is characterized in that the computer functions as the moving image decoding device according to any one of claims 5 to 7.

以上のように、本発明によれば、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、主観的に高画質な動画像を得ることが可能となる。 As described above, according to the present invention, it is possible to subjectively obtain a high-quality moving image even when the object is blurred or sharpened for each region between the pictures of the moving image.

本発明の実施形態による動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the moving image coding apparatus by embodiment of this invention. 動画像符号化装置に備えた画面間予測部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the inter-screen prediction part provided in the moving image coding apparatus. 逆直交変換部から加算部及びインループフィルタを経て画面間予測部までの処理の流れを説明する図である。It is a figure explaining the process flow from the inverse orthogonal conversion part to the inter-screen prediction part through an addition part and an in-loop filter. 超解像処理部の処理例を説明する図である。It is a figure explaining the processing example of the super-resolution processing part. ぼやけ処理部の処理例を説明する図である。It is a figure explaining the processing example of the blurring processing part. 画面間予測処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the inter-screen prediction processing unit. 周波数解析部の処理例を説明する図である。It is a figure explaining the processing example of the frequency analysis part. 選択部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a selection part. 選択部の処理例を示すフローチャートである。It is a flowchart which shows the processing example of a selection part. 動き量算出部により算出される水平超解像ピクチャの動き量CVH-mH,V,Dの例を説明する図である。It is a figure explaining the example of the movement amount CV H- m H, V, D of the horizontal super-resolution picture calculated by the movement amount calculation unit. パワー変動量算出部により算出されるパワー変動量pH,V,Dの例を説明する図である。It is a figure explaining the example of the power fluctuation amount pH , V, D calculated by the power fluctuation amount calculation unit. 本発明の実施形態による動画像復号装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the moving image decoding apparatus by embodiment of this invention. 動画像復号装置に備えた画面間予測部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the interscreen prediction part provided in the moving image decoding apparatus. 従来の動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the conventional moving image coding apparatus.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、動き補償及び直交変換を基本とした動画像符号化技術において、画面間予測処理に用いる参照ピクチャとして、局部復号ピクチャKに加え、複数の超解像ピクチャCまたは/及び複数のぼやけピクチャBを生成し、ピクチャのパワー変動量、動き量等を考慮して、領域単位で最適な予測画像を選択することを特徴とする。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the moving image coding technique based on motion compensation and orthogonal conversion, the present invention includes a plurality of super-resolution pictures C and / and a plurality of blurs as reference pictures used for inter-screen prediction processing in addition to the locally decoded picture K. The feature is that the picture B is generated, and the optimum predicted image is selected for each area in consideration of the power fluctuation amount, the movement amount, and the like of the picture.

これにより、動画像のピクチャ間で過去のピクチャから現在のピクチャへ向けてオブジェクトのぼやけが起こる場合、領域単位でぼやけピクチャBの予測画像が選択される。また、オブジェクトの鮮鋭化が起こる場合、領域単位で超解像ピクチャCが選択される。このため、入力動画像と予測画像との間の残差を小さくすることができる。 As a result, when the object is blurred from the past picture to the current picture between the pictures of the moving image, the predicted image of the blurred picture B is selected for each area. Further, when the object is sharpened, the super-resolution picture C is selected for each area. Therefore, the residual between the input moving image and the predicted image can be reduced.

また、復号側においても、元の動画像にオブジェクトのぼやけが起こる場合、ぼやけピクチャB’の予測画像が生成され、ぼやけが起こる動画像を復元することができる。さらに、元の動画像にオブジェクトの鮮鋭化が起こる場合、超解像ピクチャC’が生成され、鮮鋭化が起こる動画像を復元することができる。 Further, on the decoding side as well, when the original moving image is blurred, the predicted image of the blurred picture B'is generated, and the blurred moving image can be restored. Further, when the sharpening of the object occurs in the original moving image, a super-resolution picture C'is generated, and the moving image in which the sharpening occurs can be restored.

したがって、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、画面間予測効率を向上させることができると共に、主観的に高画質な動画像を得ることが可能となる。 Therefore, even when the object is blurred or sharpened for each area between the pictures of the moving image, the inter-screen prediction efficiency can be improved and the moving image of high quality can be subjectively obtained. It becomes.

〔動画像符号化装置〕
まず、本発明の実施形態による動画像符号化装置について説明する。図1は、本発明の実施形態による動画像符号化装置の構成例を示すブロック図である。この動画像符号化装置1は、減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、インループフィルタ117、画面間予測部10、スイッチ119及びエントロピー符号化部120を備えている。尚、図1には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Video encoding device]
First, a moving image coding device according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a moving image coding device according to an embodiment of the present invention. The moving image coding device 1 includes a subtraction unit 110, an orthogonal conversion unit 111, a quantization unit 112, an inverse quantization unit 113, an inverse orthogonal conversion unit 114, an addition unit 115, an in-screen prediction unit 116, and an in-loop filter 117. It includes an inter-screen prediction unit 10, a switch 119, and an entropy coding unit 120. Note that FIG. 1 shows only the components directly related to the present invention, and the components not directly related to the present invention are omitted.

減算部110は、入力動画像のピクチャ(Iピクチャ、Pピクチャ及びBピクチャ)を入力すると共に、スイッチ119から当該ピクチャの予測画像を入力する。そして、減算部110は、入力動画像のピクチャから予測画像を減算し、減算結果の残差画像を生成し、残差画像を直交変換部111に出力する。 The subtraction unit 110 inputs a picture of the input moving image (I picture, P picture, and B picture), and inputs a predicted image of the picture from the switch 119. Then, the subtraction unit 110 subtracts the predicted image from the picture of the input moving image, generates a residual image of the subtraction result, and outputs the residual image to the orthogonal conversion unit 111.

直交変換部111は、減算部110から残差画像を入力し、残差画像に対し直交変換を行い、変換係数列を生成する。そして、直交変換部111は、変換係数列を量子化部112に出力する。 The orthogonal conversion unit 111 inputs a residual image from the subtraction unit 110, performs orthogonal conversion on the residual image, and generates a conversion coefficient sequence. Then, the orthogonal conversion unit 111 outputs the conversion coefficient sequence to the quantization unit 112.

量子化部112は、直交変換部111から変換係数列を入力し、変換係数列に対し量子化を行い、量子化インデックス列を生成する。そして、量子化部112は、量子化インデックス列を逆量子化部113及びエントロピー符号化部120に出力する。 The quantization unit 112 inputs a conversion coefficient sequence from the orthogonal conversion unit 111, performs quantization on the conversion coefficient sequence, and generates a quantization index sequence. Then, the quantization unit 112 outputs the quantization index sequence to the inverse quantization unit 113 and the entropy coding unit 120.

逆量子化部113は、量子化部112から量子化インデックス列を入力し、量子化部112の逆の処理を行うことで、量子化インデックス列を逆量子化し、変換係数列を生成する。そして、逆量子化部113は、変換係数列を逆直交変換部114に出力する。 The inverse quantization unit 113 inputs the quantization index string from the quantization unit 112 and performs the reverse processing of the quantization unit 112 to inversely quantize the quantization index sequence and generate a conversion coefficient sequence. Then, the inverse quantization unit 113 outputs the conversion coefficient sequence to the inverse orthogonal conversion unit 114.

逆直交変換部114は、逆量子化部113から変換係数列を入力し、直交変換部111の逆の処理を行うことで、変換係数列を逆直交変換し、復号残差画像を生成する。そして、逆直交変換部114は、復号残差画像を加算部115に出力する。 The inverse orthogonal conversion unit 114 inputs the conversion coefficient sequence from the inverse quantization unit 113 and performs the reverse processing of the orthogonal conversion unit 111 to perform inverse orthogonal conversion of the conversion coefficient sequence and generate a decoding residual image. Then, the inverse orthogonal conversion unit 114 outputs the decoding residual image to the addition unit 115.

加算部115は、逆直交変換部114から復号残差画像を入力すると共に、スイッチ119から予測画像を入力する。そして、加算部115は、予測画像に復号残差画像を加算し、加算後の画像を画面内予測部116及びインループフィルタ117に出力する。 The addition unit 115 inputs the decoding residual image from the inverse orthogonal conversion unit 114, and inputs the predicted image from the switch 119. Then, the addition unit 115 adds the decoding residual image to the prediction image, and outputs the added image to the in-screen prediction unit 116 and the in-loop filter 117.

画面内予測部116は、加算部115から加算後の画像を入力し、所定領域毎に、加算後の画像に画面内予測処理を施し、画面内予測結果を生成し、所定領域毎の画面内予測結果をスイッチ119に出力する。 The in-screen prediction unit 116 inputs the image after addition from the addition unit 115, performs in-screen prediction processing on the added image for each predetermined area, generates an in-screen prediction result, and in-screen for each predetermined area. The prediction result is output to the switch 119.

インループフィルタ117は、加算部115から加算後の画像を入力し、加算後の画像にフィルタ処理を施し、局部復号ピクチャKを生成する。そして、インループフィルタ117は、局部復号ピクチャKを画面間予測部10に出力する。 The in-loop filter 117 inputs the image after addition from the addition unit 115, filters the image after addition, and generates a locally decoded picture K. Then, the in-loop filter 117 outputs the locally decoded picture K to the inter-screen prediction unit 10.

画面間予測部10は、インループフィルタ117から局部復号ピクチャKを入力し、局部復号ピクチャKから複数の超解像ピクチャC及び複数のぼやけピクチャBを生成する。局部復号ピクチャK、複数の超解像ピクチャC及び複数のぼやけピクチャBは、画面間予測処理のための参照ピクチャとして用いられる。 The inter-screen prediction unit 10 inputs the locally decoded picture K from the in-loop filter 117, and generates a plurality of super-resolution pictures C and a plurality of blurred pictures B from the locally decoded picture K. The locally decoded picture K, the plurality of super-resolution pictures C, and the plurality of blurred pictures B are used as reference pictures for interscreen prediction processing.

画面間予測部10は、所定領域毎に、現在の局部復号ピクチャK(入力動画像のピクチャ)である基準ピクチャ、及び局部復号ピクチャK等の参照ピクチャを用いて、画面間予測処理を行う。画面間予測部10は、所定領域毎に、局部復号ピクチャK、複数の超解像ピクチャC及び複数のぼやけピクチャBのそれぞれについて、動きベクトル、予測画像及び予測誤差を求める。 The inter-screen prediction unit 10 performs inter-screen prediction processing for each predetermined area by using a reference picture which is a current locally decoded picture K (picture of an input moving image) and a reference picture such as a locally decoded picture K. The inter-screen prediction unit 10 obtains motion vectors, prediction images, and prediction errors for each of the locally decoded picture K, the plurality of super-resolution pictures C, and the plurality of blurry pictures B for each predetermined area.

画面間予測部10は、所定領域毎に、ピクチャのパワー変動量等から重みを求め、当該重みを予測誤差に乗算し、重み乗算後の予測誤差が最小となるピクチャの画像を最適な予測画像として選択する。そして、画面間予測部10は、所定領域毎に選択した予測画像を、所定領域毎の画面間予測結果としてスイッチ119に出力する。 The inter-screen prediction unit 10 obtains a weight from the power fluctuation amount of the picture for each predetermined area, multiplies the weight by the prediction error, and obtains the image of the picture that minimizes the prediction error after the weight multiplication is the optimum prediction image. Select as. Then, the inter-screen prediction unit 10 outputs the prediction image selected for each predetermined area to the switch 119 as the inter-screen prediction result for each predetermined area.

また、画面間予測部10は、所定領域毎に最適な予測画像を選択する処理において、所定領域毎に実際に選択した予測画像の種類、算出した動きベクトル等をパラメータに設定する。そして、画面間予測部10は、パラメータをエントロピー符号化部120に出力する。画面間予測部10の詳細については後述する。 Further, the inter-screen prediction unit 10 sets parameters such as the type of the predicted image actually selected for each predetermined area, the calculated motion vector, and the like in the process of selecting the optimum predicted image for each predetermined area. Then, the inter-screen prediction unit 10 outputs the parameter to the entropy coding unit 120. The details of the inter-screen prediction unit 10 will be described later.

スイッチ119は、画面内予測部116から所定領域毎の画面内予測結果を入力すると共に、画面間予測部10から所定領域毎の画面間予測結果を入力し、いずれか一方を選択し、予測画像として減算部110及び加算部115に出力する。 The switch 119 inputs the in-screen prediction result for each predetermined area from the in-screen prediction unit 116, and also inputs the in-screen prediction result for each predetermined area from the inter-screen prediction unit 10, selects one of them, and selects a prediction image. Is output to the subtraction unit 110 and the addition unit 115.

エントロピー符号化部120は、量子化部112から量子化インデックス列を入力すると共に、画面間予測部10からパラメータを入力し、さらに、直交変換部111等からパラメータを入力する。そして、エントロピー符号化部120は、量子化インデックス列及びパラメータに対しエントロピー符号化を行い、符号化信号を生成する。エントロピー符号化部120は、符号化信号を、後述する動画像復号装置2へ出力する。 The entropy encoding unit 120 inputs the quantization index sequence from the quantization unit 112, inputs the parameters from the inter-screen prediction unit 10, and further inputs the parameters from the orthogonal conversion unit 111 and the like. Then, the entropy coding unit 120 performs entropy coding on the quantization index sequence and the parameter, and generates a coded signal. The entropy coding unit 120 outputs the coded signal to the moving image decoding device 2 described later.

〔画面間予測部10〕
次に、図1に示した画面間予測部10について詳細に説明する。図2は、動画像符号化装置1に備えた画面間予測部10の構成例を示すブロック図である。この画面間予測部10は、超解像処理部11、ぼやけ処理部12、フレームメモリ13、画面間予測処理部14、周波数解析部15、選択部16及びパラメータ処理部17を備えている。尚、図2には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Inter-screen prediction unit 10]
Next, the inter-screen prediction unit 10 shown in FIG. 1 will be described in detail. FIG. 2 is a block diagram showing a configuration example of the inter-screen prediction unit 10 provided in the moving image coding device 1. The inter-screen prediction processing unit 10 includes a super-resolution processing unit 11, a blur processing unit 12, a frame memory 13, an inter-screen prediction processing unit 14, a frequency analysis unit 15, a selection unit 16, and a parameter processing unit 17. Note that FIG. 2 shows only the components directly related to the present invention, and the components not directly related to the present invention are omitted.

画面間予測部10は、インループフィルタ117から局部復号ピクチャKを入力し、局部復号ピクチャKをフレームメモリ13に格納する。 The inter-screen prediction unit 10 inputs the locally decoded picture K from the in-loop filter 117, and stores the locally decoded picture K in the frame memory 13.

超解像処理部11は、局部復号ピクチャKに超解像処理を施し、3種類の超解像ピクチャCH,V,D(水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCD)を生成する。Hは水平、Vは垂直、Dは対角を示す。超解像処理部11は、3種類の超解像ピクチャCH,V,Dをフレームメモリ13に格納する。超解像処理部11の詳細については後述する。 The super-resolution processing unit 11 performs super-resolution processing on the locally decoded picture K, and three types of super-resolution pictures C H, V, D (horizontal super-resolution picture C H , vertical super-resolution picture C V, and generating a diagonal super-resolution picture C D). H is horizontal, V is vertical, and D is diagonal. The super-resolution processing unit 11 stores three types of super-resolution pictures C H, V, and D in the frame memory 13. The details of the super-resolution processing unit 11 will be described later.

水平超解像ピクチャCHは、水平方向の高周波帯域の成分を強調した画像である。垂直超解像ピクチャCVは、垂直方向の高周波帯域の成分を強調した画像である。対角超解像ピクチャCDは、対角方向(水平かつ垂直方向)の高周波帯域の成分を強調した画像である。 The horizontal super-resolution picture C H is an image in which components in the high frequency band in the horizontal direction are emphasized. The vertical super-resolution picture CV is an image in which components in the high frequency band in the vertical direction are emphasized. Diagonal super-resolution picture C D is an image that emphasizes the high frequency band components in the diagonal direction (horizontal and vertical).

ぼやけ処理部12は、局部復号ピクチャKにぼやけ処理を施し、3種類のぼやけピクチャBH,V,D(水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBD)を生成する。ぼやけ処理部12は、3種類のぼやけピクチャBH,V,Dをフレームメモリ13に格納する。ぼやけ処理部12の詳細については後述する。 The blur processing unit 12 performs blur processing on the locally decoded picture K to generate three types of blur pictures B H, V, D (horizontal blur picture B H , vertical blur picture B V, and diagonal blur picture B D ). .. The blur processing unit 12 stores three types of blur pictures B H, V, and D in the frame memory 13. The details of the blur processing unit 12 will be described later.

水平ぼやけピクチャBHは、水平方向の高周波帯域の成分を抑制した画像である。垂直ぼやけピクチャBVは、垂直方向の高周波帯域の成分を抑制した画像である。対角ぼやけピクチャBDは、対角方向(水平かつ垂直方向)の高周波帯域の成分を抑制した画像である。 The horizontally blurred picture B H is an image in which components in the high frequency band in the horizontal direction are suppressed. The vertical blur picture B V is an image in which components in the high frequency band in the vertical direction are suppressed. The diagonally blurred picture BD is an image in which components in the high frequency band in the diagonal direction (horizontal and vertical directions) are suppressed.

フレームメモリ13には、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dがフレーム毎に格納される。 The frame memory 13 stores locally decoded pictures K, three types of super-resolution pictures C H, V, D, and three types of blurry pictures B H, V, D for each frame.

画面間予測処理部14は、フレームメモリ13に格納された局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dを、過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dとして読み出す。また、画面間予測処理部14は、現在の局部復号ピクチャK(入力動画像のピクチャ)を入力する。 The inter-screen prediction processing unit 14 displays the locally decoded picture K stored in the frame memory 13, three types of super-resolution pictures C H, V, D and three types of blurred pictures B H, V, D in the past. Read as decoded picture K, super-resolution picture C H, V, D and blurred picture B H, V, D. Further, the inter-screen prediction processing unit 14 inputs the current locally decoded picture K (picture of the input moving image).

画面間予測処理部14は、現在の局部復号ピクチャKを基準ピクチャとし、過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dを参照ピクチャとして、所定領域毎に、例えばブロックマッチング法にて、予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを求める。所定領域は、例えばslice(スライス)領域、CTU(Coding Tree Unit:コーディングツリーユニット)領域、CU(Coding Unit:コーディングユニット)領域である。 The inter-screen prediction processing unit 14 uses the current locally decoded picture K as a reference picture, and the past locally decoded picture K, the super-resolution picture C H, V, D and the blurred picture B H, V, D as reference pictures. Predicted images KY, CY H, V, D , BY H, V, D , motion vectors KV, CV H, V, D , BV H, V, D and prediction error for each predetermined region, for example, by the block matching method. Find KE, CE H, V, D , BE H, V, D. The predetermined area is, for example, a slice area, a CTU (Coding Tree Unit) area, and a CU (Coding Unit) area.

画面間予測処理部14は、所定領域毎の予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを選択部16に出力する。画面間予測処理部14の詳細については後述する。 The inter-screen prediction processing unit 14 includes prediction images KY, CY H, V, D , BY H, V, D , motion vectors KV, CV H, V, D , BV H, V, D and prediction errors for each predetermined area. KE, CE H, V, D , BE H, V, D are output to the selection unit 16. The details of the inter-screen prediction processing unit 14 will be described later.

予測画像KYは、1種類の局部復号ピクチャの予測画像である。予測画像CYH,V,Dは、3種類の超解像ピクチャの予測画像であり、水平超解像ピクチャの予測画像CYH、垂直超解像ピクチャの予測画像CYV及び対角超解像ピクチャの予測画像CYDからなる。 The predicted image KY is a predicted image of one type of locally decoded picture. The predicted images CY H, V, and D are predicted images of three types of super-resolution pictures, the predicted image CY H of the horizontal super-resolution picture, the predicted image CY V of the vertical super-resolution picture, and the diagonal super-resolution. It consists of a predicted image CY D of a picture.

予測画像BYH,V,Dは、3種類のぼやけピクチャの予測画像であり、水平ぼやけピクチャの予測画像BYH、垂直ぼやけピクチャの予測画像BYV及び対角ぼやけピクチャの予測画像BYDからなる。 The predicted image BY H, V, D is a predicted image of three types of blurred pictures, and is composed of a predicted image BY H of a horizontally blurred picture, a predicted image BY V of a vertically blurred picture, and a predicted image BY D of a diagonal blurred picture. ..

動きベクトルKVは、1種類の局部復号ピクチャの動きベクトルである。動きベクトルCVH,V,Dは、3種類の超解像ピクチャの動きベクトルであり、水平超解像ピクチャの動きベクトルCVH、垂直超解像ピクチャの動きベクトルCVV及び対角超解像ピクチャの動きベクトルCVDからなる。 The motion vector KV is a motion vector of one type of locally decoded picture. The motion vectors CV H, V, and D are motion vectors of three types of super-resolution pictures, the motion vector CV H of the horizontal super-resolution picture, the motion vector CV V of the vertical super-resolution picture, and the diagonal super-resolution. It consists of the motion vector CV D of the picture.

動きベクトルBVH,V,Dは、3種類のぼやけピクチャの動きベクトルであり、水平ぼやけピクチャの動きベクトルBVH、垂直ぼやけピクチャの動きベクトルBVV及び対角ぼやけピクチャの動きベクトルBVDからなる。 The motion vector BV H, V, D is a motion vector of three types of blurry pictures, and is composed of a motion vector BV H of a horizontally blurred picture, a motion vector BV V of a vertically blurred picture, and a motion vector BV D of a diagonally blurred picture. ..

予測誤差KEは、1種類の局部復号ピクチャの予測誤差である。予測誤差CEH,V,Dは、3種類の超解像ピクチャの予測誤差であり、水平超解像ピクチャの予測誤差CEH、垂直超解像ピクチャの予測誤差CEV及び対角超解像ピクチャの予測誤差CEDからなる。 The prediction error KE is a prediction error of one type of locally decoded picture. The prediction errors CE H, V, and D are the prediction errors of three types of super-resolution pictures, the prediction error CE H of the horizontal super-resolution picture, the prediction error CE V of the vertical super-resolution picture, and the diagonal super-resolution. It consists of the picture prediction error CE D.

予測誤差BEH,V,Dは、3種類のぼやけピクチャの予測誤差であり、水平ぼやけピクチャの予測誤差BEH、垂直ぼやけピクチャの予測誤差BEV及び対角ぼやけピクチャの予測誤差BEDからなる。 The prediction error BE H, V, D is a prediction error of three types of blurry pictures, and consists of a prediction error BE H of a horizontally blurred picture, a prediction error BE V of a vertically blurred picture, and a prediction error BE D of a diagonally blurred picture. ..

周波数解析部15は、フレームメモリ13に格納された局部復号ピクチャKを、過去の局部復号ピクチャKとして読み出し、現在の局部復号ピクチャKを入力する。 The frequency analysis unit 15 reads the locally decoded picture K stored in the frame memory 13 as the past locally decoded picture K, and inputs the current locally decoded picture K.

周波数解析部15は、現在の局部復号ピクチャK及び過去の局部復号ピクチャKのそれぞれについて周波数解析を行う。そして、周波数解析部15は、現在の局部復号ピクチャKの解析結果から過去の局部復号ピクチャKの解析結果を減算し、周波数帯域毎かつ位相位置毎のパワー変動情報を求める。周波数解析部15は、周波数帯域毎かつ位相位置毎のパワー変動情報を選択部16に出力する。周波数解析部15の詳細については後述する。 The frequency analysis unit 15 performs frequency analysis on each of the current locally decoded picture K and the past locally decoded picture K. Then, the frequency analysis unit 15 subtracts the analysis result of the past locally decoded picture K from the analysis result of the current locally decoded picture K, and obtains the power fluctuation information for each frequency band and each phase position. The frequency analysis unit 15 outputs power fluctuation information for each frequency band and each phase position to the selection unit 16. The details of the frequency analysis unit 15 will be described later.

選択部16は、画面間予測処理部14から所定領域毎の予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを入力する。また、選択部16は、周波数解析部15から周波数帯域毎かつ位相位置毎のパワー変動情報を入力する。 The selection unit 16 is a prediction image KY, CY H, V, D , BY H, V, D , motion vector KV, CV H, V, D , BV H, V, for each predetermined area from the inter-screen prediction processing unit 14 . Enter D and prediction error KE, CE H, V, D , BE H, V, D. Further, the selection unit 16 inputs power fluctuation information for each frequency band and each phase position from the frequency analysis unit 15.

選択部16は、所定領域毎に、3種類の超解像ピクチャCH,V,Dにつき、超解像ピクチャの動きベクトルCVH,V,D及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出する。 The selection unit 16 has motion vectors CV H, V, D of the super-resolution picture and intensity information cp H, V of the super-resolution picture for three types of super-resolution pictures C H, V, D for each predetermined area. Based on , D , the weights tC H, V, D of the super-resolution picture are calculated.

尚、選択部16は、パワー変動情報及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出するようにしてもよい。また、選択部16は、超解像ピクチャの動きベクトルCVH,V,D、パワー変動情報及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出するようにしてもよい。 The selection unit 16 may calculate the weights tC H, V, D of the super-resolution picture based on the power fluctuation information and the intensity information cp H, V, D of the super-resolution picture. Further, the selection unit 16 determines the super-resolution picture weight tC H based on the motion vector CV H, V, D of the super-resolution picture, the power fluctuation information, and the intensity information cp H, V, D of the super-resolution picture. , V, D may be calculated.

重みtCH,V,Dは、3種類の超解像ピクチャの重みであり、水平超解像ピクチャの重みtCH、垂直超解像ピクチャの重みtCV及び対角超解像ピクチャの重みtCDからなる。 The weights tC H, V, and D are the weights of three types of super-resolution pictures, the weight tC H of the horizontal super-resolution picture, the weight tC V of the vertical super-resolution picture, and the weight tC of the diagonal super-resolution picture. Consists of D.

また、選択部16は、所定領域毎に、3種類のぼやけピクチャBH,V,Dにつき、パワー変動情報及びぼやけピクチャの強度情報bpH,V,Dに基づいて、ぼやけピクチャの重みtBH,V,Dを算出する。 Further, the selection unit 16 sets the weight tB H of the blur picture based on the power fluctuation information and the intensity information bp H, V, D of the blur picture for each of the three types of blur pictures B H, V, D for each predetermined area. , V, D are calculated.

尚、選択部16は、ぼやけピクチャの動きベクトルBVH,V,D、パワー変動情報及びぼやけピクチャの強度情報bpH,V,Dに基づいて、ぼやけピクチャの重みtBH,V,Dを算出するようにしてもよい。 The selection unit 16 calculates the weights tB H, V, D of the blurred picture based on the motion vector BV H, V, D of the blurred picture, the power fluctuation information, and the intensity information bp H, V, D of the blurred picture. You may try to do it.

重みtBH,V,Dは、3種類のぼやけピクチャの重みであり、水平ぼやけピクチャの重みtBH、垂直ぼやけピクチャの重みtBV及び対角ぼやけピクチャの重みtBDからなる。 Weight tB H, V, D is 3 a kind of blur weights picture consists weight tB D horizontal blur weight tB H picture, vertical blur picture blur weight tB V and diagonal picture.

選択部16は、所定領域毎に、3種類の超解像ピクチャCH,V,Dにつき、超解像ピクチャの予測誤差CEH,V,Dのそれぞれに、対応する重みtCH,V,Dを乗算する。また、選択部16は、所定領域毎に、3種類のぼやけピクチャBH,V,Dにつき、ぼやけピクチャの予測誤差BEH,V,Dのそれぞれに、対応する重みtBH,V,Dを乗算する。 The selection unit 16 has weights tC H, V, corresponding to the prediction errors CE H, V, D of the super-resolution pictures for each of the three types of super-resolution pictures C H, V, D for each predetermined region . Multiply D. Further, the selection unit 16 assigns corresponding weights tB H, V, D to each of the prediction errors BE H, V, D of the blurry picture for each of the three types of blurry pictures B H, V, D for each predetermined area. Multiply.

選択部16は、所定領域毎に、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差を特定する。そして、選択部16は、特定した予測誤差に対応する予測画像を選択する。これにより、7種類のピクチャの予測画像KY,CYH,V,D,BYH,V,Dのうち、いずれか一つの予測画像が選択される。 The selection unit 16 has a prediction error KE of the locally decoded picture, a prediction error CE H, V, D after weight multiplication of the super-resolution picture, and a prediction error BE H, V after weight multiplication of the blurred picture for each predetermined area. , D , specify the smallest prediction error. Then, the selection unit 16 selects a prediction image corresponding to the specified prediction error. As a result, any one of the predicted images KY, CY H, V, D , BY H, V, and D of the seven types of pictures is selected.

選択部16は、所定領域毎に、選択した予測画像を画面間予測結果としてスイッチ119に出力する。選択部16の詳細については後述する。 The selection unit 16 outputs the selected predicted image to the switch 119 as an inter-screen prediction result for each predetermined area. The details of the selection unit 16 will be described later.

パラメータ処理部17は、選択部16により所定領域毎に選択された予測画像の種類、及び算出された動きベクトル等をパラメータに設定し、パラメータをエントロピー符号化部120に出力する。 The parameter processing unit 17 sets the type of the predicted image selected for each predetermined area by the selection unit 16 and the calculated motion vector as parameters, and outputs the parameters to the entropy coding unit 120.

図3は、逆直交変換部114から加算部115及びインループフィルタ117を経て画面間予測部10までの処理の流れを説明する図である。 FIG. 3 is a diagram illustrating a processing flow from the inverse orthogonal conversion unit 114 to the inter-screen prediction unit 10 via the addition unit 115 and the in-loop filter 117.

加算部115により、逆直交変換部114により生成された復号残差画像と、画面間予測部10により生成された画面間予測結果すなわち予測画像とが加算され、加算後の画像がインループフィルタ117に入力される。インループフィルタ117によりフィルタ処理された局部復号ピクチャKは、フレームメモリ13に格納されると共に、超解像処理部11及びぼやけ処理部12に入力される。 The addition unit 115 adds the decoding residual image generated by the inverse orthogonal conversion unit 114 and the inter-screen prediction result, that is, the prediction image generated by the inter-screen prediction unit 10, and the added image is the in-loop filter 117. Is entered in. The locally decoded picture K filtered by the in-loop filter 117 is stored in the frame memory 13 and input to the super-resolution processing unit 11 and the blur processing unit 12.

超解像処理部11において、局部復号ピクチャKに対し超解像処理が施され、3種類の超解像ピクチャCH,V,Dが生成され、フレームメモリ13に格納される。ぼやけ処理部12において、局部復号ピクチャKに対しぼやけ処理が施され、3種類のぼやけピクチャBH,V,Dが生成され、フレームメモリ13に格納される。 The super-resolution processing unit 11 performs super-resolution processing on the locally decoded picture K , generates three types of super-resolution pictures C H, V, and D , and stores them in the frame memory 13. The blurring processing unit 12 performs blurring processing on the locally decoded picture K , generates three types of blurry pictures B H, V, and D , and stores them in the frame memory 13.

これにより、フレームメモリ13には、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dである7種類のピクチャが格納される。これらのピクチャは、画面間予測処理部14により、過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dとして読み出される。 As a result, the frame memory 13 stores seven types of pictures, which are the locally decoded picture K, the three types of super-resolution pictures C H, V, D, and the three types of blurred pictures B H, V, D. These pictures are read out by the inter-screen prediction processing unit 14 as past locally decoded pictures K, super-resolution pictures C H, V, D and blurry pictures B H, V, D.

画面間予測処理部14において、現在の局部復号ピクチャKを基準ピクチャとし、過去の局部復号ピクチャKを参照ピクチャとして画面間予測処理が行われ、予測画像KY等が生成される。また、画面間予測処理部14において、過去の3種類の超解像ピクチャCH,V,Dを参照ピクチャとして3種類の画面間予測処理が行われ、3種類の予測画像CYH,V,D等が生成される。さらに、画面間予測処理部14において、過去の3種類のぼやけピクチャBH,V,Dを参照ピクチャとして3種類の画面間予測処理が行われ、3種類の予測画像BYH,V,D等が生成される。予測画像KY,CYH,V,D,BYH,V,D等は選択部16に入力される。 In the inter-screen prediction processing unit 14, inter-screen prediction processing is performed using the current locally decoded picture K as a reference picture and the past locally decoded picture K as a reference picture to generate a predicted image KY and the like. Further, in the inter-screen prediction processing unit 14, three types of inter-screen prediction processing are performed using the past three types of super-resolution pictures CH, V, D as reference pictures, and three types of prediction images CY H, V, D etc. are generated. Further, in the inter-screen prediction processing unit 14, three types of inter-screen prediction processing are performed using the past three types of blurred pictures B H, V, D as reference pictures, and three types of prediction images BY H, V, D and the like are performed. Is generated. The predicted images KY, CY H, V, D , BY H, V, D and the like are input to the selection unit 16.

周波数解析部15により、現在の局部復号ピクチャK及び過去の局部復号ピクチャKに基づいてパワー変動情報が生成され、パワー変動情報が選択部16に入力される。 The frequency analysis unit 15 generates power fluctuation information based on the current locally decoded picture K and the past locally decoded picture K, and the power fluctuation information is input to the selection unit 16.

選択部16により、所定領域毎に、パワー変動情報等に基づいて、予測画像KY,CYH,V,D,BYH,V,Dのうちのいずれか一つの予測画像が選択され、画面間予測結果として加算部115に出力される。 The selection unit 16 selects any one of the predicted images KY, CY H, V, D , BY H, V, and D for each predetermined area based on the power fluctuation information and the like, and between the screens. It is output to the addition unit 115 as a prediction result.

このように、画面間予測処理部14において、参照ピクチャとして、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dの合計7種類のピクチャが用いられる。また、所定領域毎に、7種類の予測画像KY,CYH,V,D,BYH,V,Dのうちのいずれか一つが、予測画像として選択される。 As described above, in the inter-screen prediction processing unit 14, there are a total of seven types of reference pictures, a locally decoded picture K, three types of super-resolution pictures C H, V, D, and three types of blurry pictures B H, V, D. Picture is used. Further, for each predetermined area, any one of the seven types of predicted images KY, CY H, V, D , BY H, V, and D is selected as the predicted image.

〔超解像処理部11〕
次に、図2に示した超解像処理部11について詳細に説明する。図4は、超解像処理部11の処理例を説明する図である。
[Super-resolution processing unit 11]
Next, the super-resolution processing unit 11 shown in FIG. 2 will be described in detail. FIG. 4 is a diagram illustrating a processing example of the super-resolution processing unit 11.

超解像処理部11は、局部復号ピクチャKを入力し、例えば局部復号ピクチャKを1階ウェーブレット分解する(ステップS401)。そして、超解像処理部11は、1階ウェーブレット分解後の画像について、水平(H)、垂直(V)及び対角(D)の高周波帯域の全ての位相位置の要素値(画素値)に対し、予め設定された超解像ピクチャの水平用強度情報cpH1,V1,D1、垂直用強度情報cpH2,V2,D2及び対角用強度情報cpH3,V3,D3をそれぞれ乗算する(ステップS402)。 The super-resolution processing unit 11 inputs the local decoding picture K, and for example, the local decoding picture K is first-order wavelet-decomposed (step S401). Then, the super-resolution processing unit 11 sets the element values (pixel values) of all the phase positions in the horizontal (H), vertical (V), and diagonal (D) high-frequency bands of the image after the first-order wavelet decomposition. On the other hand, the horizontal intensity information cp H1, V1, D1 of the preset super-resolution picture, the vertical intensity information cp H2, V2, D2 and the diagonal intensity information cp H3, V3, D3 are multiplied respectively (step). S402).

水平用強度情報cpH1,V1,D1は、1階ウェーブレット分解後の画像における水平高周波帯域に対応する水平強度cpH1、垂直高周波帯域に対応する垂直強度cpV1、及び対角高周波帯域に対応する対角強度cpD1からなる。水平用強度情報cpH1,V1,D1は、水平高周波帯域の成分を強調した(パワーの強い)水平超解像ピクチャCHを生成するための強度情報であり、cpH1>cpV1,cpD1の条件を満たす強度情報が用いられる。例えば図4に示すように、水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 The horizontal intensity information cp H1, V1, D1 corresponds to the horizontal intensity cp H1 corresponding to the horizontal high frequency band in the image after the first-order wavelet decomposition, the vertical intensity cp V1 corresponding to the vertical high frequency band, and the diagonal high frequency band. It consists of diagonal strength cp D1 . The horizontal intensity information cp H1, V1, D1 is the intensity information for generating a horizontal super-resolution picture C H that emphasizes the components of the horizontal high-frequency band (strong power), and is cp H1 > cp V1 , cp D1. Strength information satisfying the above conditions is used. For example, as shown in FIG. 4, horizontal strength cp H1 = 1.2, vertical strength cp V1 = 1.0, and diagonal strength cp D1 = 1.0 are used.

垂直用強度情報cpH2,V2,D2は、水平強度cpH2、垂直強度cpV2及び対角強度cpD2からなる。垂直用強度情報cpH2,V2,D2は、垂直高周波帯域の成分を強調した(パワーの強い)垂直超解像ピクチャCVを生成するための強度情報であり、cpV2>cpH2,cpD2の条件を満たす強度情報が用いられる。例えば図4に示すように、水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 The vertical strength information cp H2, V2, D2 is composed of the horizontal strength cp H2 , the vertical strength cp V2, and the diagonal strength cp D2 . Vertical intensity information cp H2, V2, D2 is intensity information for generating a vertical super-resolution picture C V that emphasizes the components of the vertical high-frequency band (strong power), and is cp V2 > cp H2 , cp D2. Strength information satisfying the above conditions is used. For example, as shown in FIG. 4, horizontal strength cp H2 = 1.0, vertical strength cp V2 = 1.2, and diagonal strength cp D2 = 1.0 are used.

対角用強度情報cpH3,V3,D3は、水平強度cpH3、垂直強度cpV3及び対角強度cpD3からなる。対角用強度情報cpH3,V3,D3は、対角高周波帯域の成分を強調した(パワーの強い)対角超解像ピクチャCDを生成するための強度情報であり、cpD3>cpH3,cpV3の条件を満たす強度情報が用いられる。例えば図4に示すように、水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 The diagonal strength information cp H3, V3, D3 is composed of the horizontal strength cp H3 , the vertical strength cp V3, and the diagonal strength cp D3 . For diagonal intensity information cp H3, V3, D3 emphasized the elements of the diagonal high frequency band is the intensity information for generating the diagonal super-resolution picture C D (strong power), cp D3> cp H3 , Cp V3 condition information is used. For example, as shown in FIG. 4, horizontal strength cp H3 = 1.0, vertical strength cp V3 = 1.0, and diagonal strength cp D3 = 1.2 are used.

超解像処理部11は、1階ウェーブレット分解後の乗算後画像のそれぞれを1階ウェーブレット再構成し、3種類の超解像ピクチャCH,V,D、すなわち水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCDを生成する(ステップS403)。 The super-resolution processing unit 11 reconstructs each of the multiplied images after the first-order wavelet decomposition into first-order wavelets, and three types of super-resolution pictures C H, V, D , that is, horizontal super-resolution pictures C H , A vertical super-resolution picture C V and a diagonal super-resolution picture C D are generated (step S403).

このように、超解像処理部11により、局部復号ピクチャKから3種類の水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCDが生成される。 In this way, the super-resolution processing unit 11 generates three types of horizontal super-resolution picture C H , vertical super-resolution picture C V, and diagonal super-resolution picture C D from the locally decoded picture K.

〔ぼやけ処理部12〕
次に、図2に示したぼやけ処理部12について詳細に説明する。図5は、ぼやけ処理部12の処理例を説明する図である。
[Blur processing unit 12]
Next, the blurring processing unit 12 shown in FIG. 2 will be described in detail. FIG. 5 is a diagram illustrating a processing example of the blur processing unit 12.

ぼやけ処理部12は、局部復号ピクチャKを入力し、例えば局部復号ピクチャKを1階ウェーブレット分解する(ステップS501)。そして、ぼやけ処理部12は、1階ウェーブレット分解後の画像について、水平、垂直及び対角の高周波帯域の全ての位相位置の要素値に対し、予め設定されたぼやけピクチャの水平用強度情報bpH1,V1,D1、垂直用強度情報bpH2,V2,D2及び対角用強度情報bpH3,V3,D3をそれぞれ乗算する(ステップS502)。 The blurring processing unit 12 inputs the locally decoded picture K, and for example, the locally decoded picture K is first-order wavelet-decomposed (step S501). Then, the blur processing unit 12 sets the horizontal intensity information bp H1 of the blur picture preset for the element values of all the phase positions in the horizontal, vertical, and diagonal high frequency bands of the image after the first-order wavelet decomposition. , V1, D1 , vertical strength information bp H2, V2, D2 and diagonal strength information bp H3, V3, D3 , respectively (step S502).

水平用強度情報bpH1,V1,D1は、1階ウェーブレット分解後の画像における水平高周波帯域に対応する水平強度bpH1、垂直高周波帯域に対応する垂直強度bpV1、及び対角高周波帯域に対応する対角強度bpD1からなる。水平用強度情報bpH1,V1,D1は、水平高周波帯域の成分を抑制した(パワーの弱い)水平ぼやけピクチャBHを生成するための強度情報であり、bpH1<bpV1,bpD1の条件を満たす強度情報が用いられる。例えば図5に示すように、水平強度bpH1=0.8、垂直強度bpV1=1.0及び対角強度bpD1=1.0が用いられる。 The horizontal intensity information bp H1, V1, D1 corresponds to the horizontal intensity bp H1 corresponding to the horizontal high frequency band in the image after the first-order wavelet decomposition, the vertical intensity bp V1 corresponding to the vertical high frequency band, and the diagonal high frequency band. It consists of diagonal strength bp D1 . The horizontal intensity information bp H1, V1, D1 is the intensity information for generating a horizontally blurred picture B H in which the components of the horizontal high frequency band are suppressed (weak power), and the conditions of bp H1 <bp V1 and bp D1 . Intensity information that satisfies is used. For example, as shown in FIG. 5, horizontal strength bp H1 = 0.8, vertical strength bp V1 = 1.0, and diagonal strength bp D1 = 1.0 are used.

垂直用強度情報bpH2,V2,D2は、水平強度bpH2、垂直強度bpV2及び対角強度bpD2からなる。垂直用強度情報bpH2,V2,D2は、垂直高周波帯域の成分を抑制した(パワーの弱い)垂直ぼやけピクチャBVを生成するための強度情報であり、bpV2<bpH2,bpD2の条件を満たす強度情報が用いられる。例えば図5に示すように、水平強度bpH2=1.0、垂直強度bpV2=0.8及び対角強度bpD2=1.0が用いられる。 The vertical strength information bp H2, V2, D2 is composed of the horizontal strength bp H2 , the vertical strength bp V2, and the diagonal strength bp D2 . The vertical intensity information bp H2, V2, D2 is the intensity information for generating a vertically blurred picture B V in which the components of the vertical high frequency band are suppressed (weak power), and the conditions of bp V2 <bp H2 , bp D2 . Intensity information that satisfies is used. For example, as shown in FIG. 5, horizontal strength bp H2 = 1.0, vertical strength bp V2 = 0.8, and diagonal strength bp D2 = 1.0 are used.

対角用強度情報bpH3,V3,D3は、水平強度bpH3、垂直強度bpV3及び対角強度bpD3からなる。対角用強度情報bpH3,V3,D3は、対角高周波帯域の成分を抑制した(パワーの弱い)対角ぼやけピクチャBDを生成するための強度情報であり、bpD3<bpH3,bpV3の条件を満たす強度情報が用いられる。例えば図5に示すように、水平強度bpH3=1.0、垂直強度bpV3=1.0及び対角強度bpD3=0.8が用いられる。 The diagonal strength information bp H3, V3, D3 is composed of the horizontal strength bp H3 , the vertical strength bp V3, and the diagonal strength bp D3 . Diagonal intensity information bp H3, V3, D3 is intensity information for generating a diagonally blurred picture BD in which components in the diagonal high frequency band are suppressed (weak power), and bp D3 <bp H3 , bp. Strength information that satisfies the conditions of V3 is used. For example, as shown in FIG. 5, horizontal strength bp H3 = 1.0, vertical strength bp V3 = 1.0, and diagonal strength bp D3 = 0.8 are used.

ぼやけ処理部12は、1階ウェーブレット分解後の乗算後画像のそれぞれを1階ウェーブレット再構成し、3種類のぼやけピクチャBH,V,D、すなわち水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBDを生成する(ステップS503)。 The blur processing unit 12 reconstructs each of the multiplied images after the first-order wavelet decomposition into the first-order wavelet, and three types of blur pictures B H, V, D , that is, horizontal blur picture B H , vertical blur picture B V, and A diagonally blurred picture BD is generated (step S503).

このように、ぼやけ処理部12により、局部復号ピクチャKから3種類の水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBDが生成される。 In this way, the blur processing unit 12 generates three types of horizontal blur picture B H , vertical blur picture B V, and diagonal blur picture B D from the locally decoded picture K.

〔画面間予測処理部14〕
次に、図2に示した画面間予測処理部14について詳細に説明する。図6は、画面間予測処理部14の構成例を示すブロック図である。この画面間予測処理部14は、復号ピクチャ予測部20、超解像予測部21及びぼやけ予測部22を備えている。尚、図6には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Inter-screen prediction processing unit 14]
Next, the inter-screen prediction processing unit 14 shown in FIG. 2 will be described in detail. FIG. 6 is a block diagram showing a configuration example of the inter-screen prediction processing unit 14. The inter-screen prediction processing unit 14 includes a decoding picture prediction unit 20, a super-resolution prediction unit 21, and a blur prediction unit 22. Note that FIG. 6 shows only the components directly related to the present invention, and the components not directly related to the present invention are omitted.

復号ピクチャ予測部20は、フレームメモリ13に格納された局部復号ピクチャKを、過去の局部復号ピクチャKとして読み出し、現在の局部復号ピクチャKを入力する。 The decoding picture prediction unit 20 reads the local decoding picture K stored in the frame memory 13 as the past local decoding picture K, and inputs the current local decoding picture K.

復号ピクチャ予測部20は、現在の局部復号ピクチャKを基準ピクチャとし、過去の局部復号ピクチャKを参照ピクチャとして、基準ピクチャ及び参照ピクチャに基づいて、所定領域毎に、例えばブロックマッチング法にて、予測画像KY、動きベクトルKV及び予測誤差KEを求める。 The decoded picture prediction unit 20 uses the current locally decoded picture K as a reference picture and the past locally decoded picture K as a reference picture, and based on the reference picture and the reference picture, for each predetermined area, for example, by a block matching method. The prediction image KY, the motion vector KV, and the prediction error KE are obtained.

復号ピクチャ予測部20は、予測画像KY、動きベクトルKV及び予測誤差KEを選択部16に出力する。 The decoded picture prediction unit 20 outputs the prediction image KY, the motion vector KV, and the prediction error KE to the selection unit 16.

超解像予測部21は、フレームメモリ13に格納された3種類の超解像ピクチャCH,V,Dを、過去の超解像ピクチャCH,V,Dとして読み出し、現在の局部復号ピクチャKを入力する。 The super-resolution prediction unit 21 reads out three types of super-resolution pictures C H, V, D stored in the frame memory 13 as past super-resolution pictures C H, V, D , and reads the current local decoding picture. Enter K.

超解像予測部21は、現在の局部復号ピクチャKを基準ピクチャとし、過去の超解像ピクチャCH,V,Dを参照ピクチャとして、基準ピクチャ及び参照ピクチャに基づいて、所定領域毎に、例えばブロックマッチング法にて、予測画像CYH,V,D、動きベクトルCVH,V,D及び予測誤差CEH,V,Dとして求める。 The super-resolution prediction unit 21 uses the current locally decoded picture K as a reference picture and the past super-resolution pictures C H, V, D as reference pictures, and based on the reference picture and the reference picture, for each predetermined area, For example, by the block matching method, it is obtained as the predicted image CY H, V, D , the motion vector CV H, V, D and the prediction error CE H, V, D.

超解像予測部21は、予測画像CYH,V,D、動きベクトルCVH,V,D及び予測誤差CEH,V,Dを選択部16に出力する。 The super-resolution prediction unit 21 outputs the prediction images CY H, V, D , the motion vectors CV H, V, D and the prediction error CE H, V, D to the selection unit 16.

ぼやけ予測部22は、フレームメモリ13に格納された3種類のぼやけピクチャBH,V,Dを、過去のぼやけピクチャBH,V,Dとして読み出し、現在の局部復号ピクチャKを入力する。 The blur prediction unit 22 reads out three types of blur pictures B H, V, D stored in the frame memory 13 as past blur pictures B H, V, D , and inputs the current locally decoded picture K.

ぼやけ予測部22は、現在の局部復号ピクチャKを基準ピクチャとし、過去のぼやけピクチャBH,V,Dを参照ピクチャとして、基準ピクチャ及び参照ピクチャに基づいて、所定領域毎に、例えばブロックマッチング法にて、予測画像BYH,V,D、動きベクトルBVH,V,D及び予測誤差BEH,V,Dを求める。 The blur prediction unit 22 uses the current locally decoded picture K as a reference picture and the past blur pictures B H, V, D as reference pictures, and based on the reference picture and the reference picture, for each predetermined area, for example, a block matching method. The predicted image BY H, V, D , the motion vector BV H, V, D and the prediction error BE H, V, D are obtained.

ぼやけ予測部22は、予測画像BYH,V,D、動きベクトルBVH,V,D及び予測誤差BEH,V,Dを選択部16に出力する。 The blur prediction unit 22 outputs the prediction image BY H, V, D , the motion vector BV H, V, D, and the prediction error BE H, V, D to the selection unit 16.

このように、画面間予測処理部14により、局部復号ピクチャの予測画像KY、動きベクトルKV及び予測誤差KEに加え、超解像ピクチャの予測画像CYH,V,D、動きベクトルCVH,V,D及び予測誤差CEH,V,D、並びにぼやけピクチャの予測画像BYH,V,D、動きベクトルBVH,V,D及び予測誤差BEH,V,Dが生成される。 In this way, the inter-screen prediction processing unit 14 adds the prediction image KY, the motion vector KV, and the prediction error KE of the locally decoded picture, as well as the prediction images CY H, V, D , and the motion vector CV H, V of the super-resolution picture. , D and the prediction error CE H, V, D , and the prediction image BY H, V, D of the blurred picture, the motion vector BV H, V, D and the prediction error BE H, V, D are generated.

〔周波数解析部15〕
次に、図2に示した周波数解析部15について詳細に説明する。図7は、周波数解析部15の処理例を説明する図である。
[Frequency analysis unit 15]
Next, the frequency analysis unit 15 shown in FIG. 2 will be described in detail. FIG. 7 is a diagram illustrating a processing example of the frequency analysis unit 15.

周波数解析部15は、フレームメモリ13に格納された局部復号ピクチャKを、過去の局部復号ピクチャKとして読み出し、現在の局部復号ピクチャKを入力する。 The frequency analysis unit 15 reads the locally decoded picture K stored in the frame memory 13 as the past locally decoded picture K, and inputs the current locally decoded picture K.

周波数解析部15は、現在の局部復号ピクチャKについて、デシメーションを伴わない1階ウェーブレットパケット分解にて周波数解析を行い、現在の局部復号ピクチャKの解析結果を生成する(ステップS701)。これにより、現在の局部復号ピクチャKの空間低周波帯域信号、水平高周波帯域信号、垂直高周波帯域信号及び対角高周波帯域信号が生成される。 The frequency analysis unit 15 performs frequency analysis on the current locally decoded picture K by first-order wavelet packet decomposition without decimation, and generates an analysis result of the current locally decoded picture K (step S701). As a result, the spatial low frequency band signal, the horizontal high frequency band signal, the vertical high frequency band signal, and the diagonal high frequency band signal of the current locally decoded picture K are generated.

また、周波数解析部15は、過去の局部復号ピクチャKについて、デシメーションを伴わない1階ウェーブレットパケット分解にて周波数解析を行い、過去の局部復号ピクチャKの解析結果を生成する(ステップS702)。これにより、過去の局部復号ピクチャKの空間低周波帯域信号、水平高周波帯域信号、垂直高周波帯域信号及び対角高周波帯域信号が生成される。 Further, the frequency analysis unit 15 performs frequency analysis on the past locally decoded picture K by first-order wavelet packet decomposition without decimation, and generates an analysis result of the past locally decoded picture K (step S702). As a result, the spatial low frequency band signal, the horizontal high frequency band signal, the vertical high frequency band signal, and the diagonal high frequency band signal of the past locally decoded picture K are generated.

周波数解析部15は、周波数帯域毎かつ位相位置毎に、現在の局部復号ピクチャKの解析結果から過去の局部復号ピクチャKの解析結果を減算し、周波数帯域毎かつ位相位置毎のパワー変動情報を求める(ステップS703)。 The frequency analysis unit 15 subtracts the analysis result of the past locally decoded picture K from the analysis result of the current locally decoded picture K for each frequency band and each phase position, and obtains the power fluctuation information for each frequency band and each phase position. Obtain (step S703).

具体的には、周波数解析部15は、現在の局部復号ピクチャKの水平高周波帯域信号における位相位置(画素位置)の要素値(画素値)から、過去の局部復号ピクチャKの水平高周波帯域信号における対応する位相位置の要素値を減算する。そして、周波数解析部15は、減算結果を水平高周波数帯域のパワー変動情報とする。 Specifically, the frequency analysis unit 15 changes the element value (pixel value) of the phase position (pixel position) in the horizontal high-frequency band signal of the current locally decoded picture K to the horizontal high-frequency band signal of the past locally decoded picture K. Subtract the element values for the corresponding phase positions. Then, the frequency analysis unit 15 uses the subtraction result as power fluctuation information in the horizontal high frequency band.

また、周波数解析部15は、現在の局部復号ピクチャKの垂直高周波帯域信号における位相位置の要素値から、過去の局部復号ピクチャKの垂直高周波帯域信号における対応する位相位置の要素値を減算する。そして、周波数解析部15は、減算結果を垂直高周波数帯域のパワー変動情報とする。 Further, the frequency analysis unit 15 subtracts the element value of the corresponding phase position in the vertical high frequency band signal of the past locally decoded picture K from the element value of the phase position in the vertical high frequency band signal of the current locally decoded picture K. Then, the frequency analysis unit 15 uses the subtraction result as power fluctuation information in the vertical high frequency band.

さらに、周波数解析部15は、現在の局部復号ピクチャKの対角高周波帯域信号における位相位置の要素値から、過去の局部復号ピクチャKの対角高周波帯域信号における対応する位相位置の要素値を減算する。そして、周波数解析部15は、減算結果を対角高周波数帯域のパワー変動情報とする。 Further, the frequency analysis unit 15 subtracts the element value of the corresponding phase position in the diagonal high frequency band signal of the past locally decoded picture K from the element value of the phase position in the diagonal high frequency band signal of the current locally decoded picture K. To do. Then, the frequency analysis unit 15 uses the subtraction result as power fluctuation information in the diagonal high frequency band.

周波数解析部15は、水平高周波数帯域の各位相位置のパワー変動情報、垂直高周波数帯域の各位相位置のパワー変動情報、及び対角高周波数帯域の各位相位置のパワー変動情報を、周波数帯域毎かつ位相位置毎のパワー変動情報として選択部16に出力する。 The frequency analysis unit 15 obtains power fluctuation information of each phase position in the horizontal high frequency band, power fluctuation information of each phase position in the vertical high frequency band, and power fluctuation information of each phase position in the diagonal high frequency band in the frequency band. It is output to the selection unit 16 as power fluctuation information for each phase position.

このように、周波数解析部15により、周波数帯域毎かつ位相位置毎のパワー変動情報が生成される。 In this way, the frequency analysis unit 15 generates power fluctuation information for each frequency band and each phase position.

パワー変動情報は、現在のピクチャが過去のピクチャに比べ、ぼやけているかまたは鮮鋭化しているかを示す指標として扱われる。パワー変動情報から得られた後述するパワー変動量が第1の閾値(正の値)よりも大きい場合、現在のピクチャのパワーが過去のピクチャよりも大きいため、現在のピクチャが過去のピクチャに比べ、鮮鋭化しているものと判断される。また、パワー変動量が第1の閾値(負の値)よりも小さい場合、現在のピクチャのパワーが過去のピクチャよりも小さいため、現在のピクチャが過去のピクチャに比べ、ぼやけているものと判断される。さらに、パワー変動量が第1の閾値と第2の閾値との間にある場合、現在のピクチャのパワーと過去のピクチャのパワーとがほぼ同じであるため、現在のピクチャ及び過去のピクチャにおけるぼやけの程度及び鮮鋭化の程度はさほど変わらないものと判断される。詳細については後述する。 The power fluctuation information is treated as an index indicating whether the current picture is blurry or sharper than the past pictures. When the amount of power fluctuation described later obtained from the power fluctuation information is larger than the first threshold value (positive value), the power of the current picture is larger than that of the past picture, so that the current picture is compared with the past picture. , It is judged that it is sharpening. If the power fluctuation amount is smaller than the first threshold value (negative value), it is determined that the current picture is blurred compared to the past picture because the power of the current picture is smaller than that of the past picture. Will be done. Further, when the power fluctuation amount is between the first threshold value and the second threshold value, the power of the current picture and the power of the past picture are almost the same, so that the current picture and the past picture are blurred. It is judged that the degree of sharpening and the degree of sharpening do not change so much. Details will be described later.

〔選択部16〕
次に、図2に示した選択部16について詳細に説明する。図8は、選択部16の構成例を示すブロック図であり、図9は、選択部16の処理例を示すフローチャートである。
[Selection unit 16]
Next, the selection unit 16 shown in FIG. 2 will be described in detail. FIG. 8 is a block diagram showing a configuration example of the selection unit 16, and FIG. 9 is a flowchart showing a processing example of the selection unit 16.

この選択部16は、動き量算出部30、パワー変動量算出部31、重み算出部32及び予測画像選択部33を備えている。尚、図8には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。 The selection unit 16 includes a movement amount calculation unit 30, a power fluctuation amount calculation unit 31, a weight calculation unit 32, and a prediction image selection unit 33. Note that FIG. 8 shows only the components directly related to the present invention, and the components not directly related to the present invention are omitted.

選択部16は、画面間予測処理部14から、所定領域毎の予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを入力する。また、選択部16は、周波数解析部15から周波数帯域毎かつ位相位置毎のパワー変動情報を入力する(ステップS901)。 The selection unit 16 is a prediction image KY, CY H, V, D , BY H, V, D , motion vector KV, CV H, V, D , BV H, V for each predetermined area from the inter-screen prediction processing unit 14. , D and prediction error Enter KE, CE H, V, D , BE H, V, D. Further, the selection unit 16 inputs power fluctuation information for each frequency band and each phase position from the frequency analysis unit 15 (step S901).

(動き量算出部30)
動き量算出部30は、所定領域毎に、超解像ピクチャの動きベクトルCVH,V,Dから、水平方向、垂直方向及び対角方向の成分である動き量CVH,V,D-mH,V,Dを算出する。また、動き量算出部30は、所定領域毎に、ぼやけピクチャの動きベクトルBVH,V,Dから、水平方向、垂直方向及び対角方向の成分であるぼやけピクチャの動き量BVH,V,D-mH,V,Dを算出する(ステップS902)。そして、動き量算出部30は、所定領域毎の動き量CVH,V,D-mH,V,D,BVH,V,D-mH,V,Dを重み算出部32に出力する。
(Movement amount calculation unit 30)
The motion amount calculation unit 30 is a motion amount CV H, V, D -m which is a component in the horizontal direction, the vertical direction, and the diagonal direction from the motion vector CV H, V, D of the super-resolution picture for each predetermined region. Calculate H, V, D. Further, the motion amount calculation unit 30 uses the motion vectors BV H, V, D of the blurry picture for each predetermined area to move the motion amount BV H, V, of the blurry picture which is a component in the horizontal, vertical and diagonal directions . D- m H, V, D are calculated (step S902). Then, the movement amount calculation unit 30 outputs the movement amount CV H, V, D −m H, V, D , BV H, V, D −m H, V, D for each predetermined region to the weight calculation unit 32. ..

超解像ピクチャの動き量CVH,V,D-mH,V,Dは、水平超解像ピクチャの水平動き量CVH-mH、垂直動き量CVH-mV及び対角動き量CVH-mDと、垂直超解像ピクチャの水平動き量CVV-mH、垂直動き量CVV-mV及び対角動き量CVV-mDと、対角超解像ピクチャの水平動き量CVD-mH、垂直動き量CVD-mV及び対角動き量CVD-mDとからなる。 The amount of movement CV H, V, D -m H, V, D of the super-resolution picture is the amount of horizontal movement CV H -m H , the amount of vertical movement CV H -m V, and the amount of diagonal movement of the horizontal super-resolution picture. CV H -m D , horizontal movement amount CV V -m H of vertical super-resolution picture, vertical movement amount CV V -m V and diagonal movement amount CV V -m D , horizontal movement amount of diagonal super-resolution picture It consists of a movement amount CV D -m H , a vertical movement amount CV D -m V, and a diagonal movement amount CV D -m D.

ぼやけピクチャの動き量BVH,V,D-mH,V,Dは、水平ぼやけピクチャの水平動き量BVH-mH、垂直動き量BVH-mV及び対角動き量BVH-mDと、垂直ぼやけピクチャの水平動き量BVV-mH、垂直動き量BVV-mV及び対角動き量BVV-mDと、対角ぼやけピクチャの水平動き量BVD-mH、垂直動き量BVD-mV及び対角動き量BVD-mDとからなる。 The amount of movement BV H, V, D -m H, V, D of a blurred picture is the amount of horizontal movement BV H -m H , the amount of vertical movement BV H -m V, and the amount of diagonal movement BV H -m of a horizontally blurred picture. D and the horizontal movement amount BV V -m H of the vertically blurred picture, the vertical movement amount BV V -m V and the diagonal movement amount BV V -m D, and the horizontal movement amount BV D -m H of the diagonally blurred picture. It consists of a vertical movement amount BV D -m V and a diagonal movement amount BV D -m D.

水平動き量は、動きベクトルを水平方向に射影したときの大きさを示し、垂直動き量は、動きベクトルを垂直方向に射影したときの大きさを示し、対角動き量は、動きベクトルを対角方向に射影したときの大きさを示す。 The horizontal movement amount indicates the magnitude when the motion vector is projected in the horizontal direction, the vertical movement amount indicates the magnitude when the motion vector is projected in the vertical direction, and the diagonal movement amount indicates the magnitude when the motion vector is projected in the vertical direction. Shows the size when projected in the angular direction.

このように、動き量算出部30により、所定領域毎に、水平超解像ピクチャCHについて、水平動き量CVH-mH、垂直動き量CVH-mV及び対角動き量CVH-mDが算出される。また、垂直超解像ピクチャCVについて、水平動き量CVV-mH、垂直動き量CVV-mV及び対角動き量CVV-mDが算出され、対角超解像ピクチャCDについて、水平動き量CVD-mH、垂直動き量CVD-mV及び対角動き量CVD-mDが算出される。 In this way, the movement amount calculation unit 30 determines the horizontal movement amount CV H -m H , the vertical movement amount CV H -m V, and the diagonal movement amount CV H-for each predetermined region for the horizontal super-resolution picture C H. m D is calculated. Further, for the vertical super-resolution picture C V , the horizontal movement amount CV V -m H , the vertical movement amount CV V -m V, and the diagonal movement amount CV V -m D are calculated, and the diagonal super-resolution picture C D is calculated. The horizontal movement amount CV D -m H , the vertical movement amount CV D -m V, and the diagonal movement amount CV D -m D are calculated.

さらに、動き量算出部30により、所定領域毎に、水平ぼやけピクチャBHについて、水平動き量BVH-mH、垂直動き量BVH-mV及び対角動き量BVH-mDが算出される。また、垂直ぼやけピクチャBVについて、水平動き量BVV-mH、垂直動き量BVV-mV及び対角動き量BVV-mDが算出され、対角ぼやけピクチャBDについて、水平動き量BVD-mH、垂直動き量BVD-mV及び対角動き量BVD-mDが算出される。 Further, the movement amount calculation unit 30 calculates the horizontal movement amount BV H- m H , the vertical movement amount BV H- m V, and the diagonal movement amount BV H- m D for each predetermined area for the horizontally blurred picture B H. Will be done. Further, the horizontal movement amount BV V -m H , the vertical movement amount BV V -m V and the diagonal movement amount BV V -m D are calculated for the vertical blur picture B V , and the horizontal movement for the diagonal blur picture B D. The amount BV D -m H , the vertical movement amount BV D -m V, and the diagonal movement amount BV D -m D are calculated.

図10は、動き量算出部30により算出される水平超解像ピクチャの動き量CVH-mH,V,Dの例を説明する図である。フレームtの時刻のピクチャを基準ピクチャとし、フレームt−1の時刻におけるピクチャを参照ピクチャとする。α1は、水平超解像ピクチャの動きベクトルCVHにおける水平方向を示し、β1は、水平超解像ピクチャの動きベクトルCVHにおける垂直方向を示し、γ1は、水平超解像ピクチャの動きベクトルCVHにおける対角方向を示す。 FIG. 10 is a diagram illustrating an example of the movement amount CV H- m H, V, D of the horizontal super-resolution picture calculated by the movement amount calculation unit 30. The picture at the time of frame t is used as the reference picture, and the picture at the time of frame t-1 is used as the reference picture. α1 indicates the horizontal direction in the motion vector CV H of the horizontal super-resolution picture, β1 indicates the vertical direction in the motion vector CV H of the horizontal super-resolution picture, and γ1 indicates the motion vector CV of the horizontal super-resolution picture. Indicates the diagonal direction at H.

図10に示すように、動き量算出部30により、基準ピクチャを基準とした参照ピクチャに対する水平超解像ピクチャの動きベクトルCVHから、所定領域毎に、これを水平方向α1に射影したときの水平動き量CVH-mH、垂直方向β1に射影したときの垂直動き量CVH-mV、及び対角方向γ1に射影したときの対角動き量CVH-mDが算出される。 As shown in FIG. 10, when the motion amount calculation unit 30 projects the motion vector CV H of the horizontal super-resolution picture with respect to the reference picture based on the reference picture in each predetermined region in the horizontal direction α1. The horizontal movement amount CV H- m H , the vertical movement amount CV H -m V when projected in the vertical direction β1, and the diagonal movement amount CV H -m D when projected in the diagonal direction γ1 are calculated.

(パワー変動量算出部31)
図8及び図9に戻って、パワー変動量算出部31は、周波数帯域毎かつ位相位置毎のパワー変動情報から、所定領域毎に、水平高周波帯域、垂直高周波帯域及び対角高周波帯域の成分であるパワー変動量pH,V,Dを算出する(ステップS903)。そして、パワー変動量算出部31は、所定領域毎のパワー変動量pH,V,Dを重み算出部32に出力する。
(Power fluctuation amount calculation unit 31)
Returning to FIGS. 8 and 9, the power fluctuation amount calculation unit 31 uses the components of the horizontal high frequency band, the vertical high frequency band, and the diagonal high frequency band for each predetermined region from the power fluctuation information for each frequency band and each phase position. A certain power fluctuation amount pH , V, D is calculated (step S903). Then, the power fluctuation amount calculation unit 31 outputs the power fluctuation amount pH , V, D for each predetermined region to the weight calculation unit 32.

具体的には、パワー変動量算出部31は、所定領域毎に、周波数帯域毎かつ位相位置毎のパワー変動情報から当該領域のパワー変動情報を抽出する。そして、パワー変動量算出部31は、当該領域のパワー変動情報に含まれる水平高周波帯域の全ての位相位置における要素値を合計し、当該領域の水平パワー変動量pHを求める。 Specifically, the power fluctuation amount calculation unit 31 extracts the power fluctuation information of the region from the power fluctuation information of each frequency band and each phase position for each predetermined region. Then, the power change amount calculation unit 31 sums the element values in all phase positions of the horizontal high frequency band included in the power variation information of the area to determine the horizontal power fluctuation amount p H of the area.

また、パワー変動量算出部31は、当該領域のパワー変動情報に含まれる垂直高周波帯域の全ての位相位置における要素値を合計し、当該領域の垂直パワー変動量pVを求める。さらに、パワー変動量算出部31は、当該領域のパワー変動情報に含まれる対角高周波帯域の全ての位相位置の要素値を合計し、当該領域の対角パワー変動量pDを求める。 The power variation amount calculating unit 31 sums the element values in all phase positions of the vertical high-frequency band included in the power variation information of the area, determine the vertical power variation p V of the region. Furthermore, the power change amount calculation unit 31 sums the element values of all the phase position of the diagonal high-frequency band included in the power variation information of the area, determine the diagonal power fluctuation amount p D of the region.

このように、パワー変動量算出部31により、所定領域毎に、水平高周波帯域の成分である水平パワー変動量pH、垂直高周波帯域の成分である垂直パワー変動量pV、及び対角高周波帯域の成分である対角パワー変動量pDが算出される。 Thus, the power fluctuation amount calculating section 31, for each predetermined region, a horizontal high-frequency lateral power variation amount is a component of the band p H, vertical high-frequency vertical power variation amount is a component of the band p V, and diagonal high-frequency band The diagonal power fluctuation amount p D, which is a component of, is calculated.

図11は、パワー変動量算出部31により算出されるパワー変動量pH,V,Dの例を説明する図である。α2はパワー変動情報における水平高周波帯域の方向を示し、β2は、パワー変動情報における垂直高周波帯域の方向を示し、γ2は、パワー変動情報における対角高周波帯域の方向を示す。 FIG. 11 is a diagram illustrating an example of power fluctuation amounts pH , V, and D calculated by the power fluctuation amount calculation unit 31. α2 indicates the direction of the horizontal high frequency band in the power fluctuation information, β2 indicates the direction of the vertical high frequency band in the power fluctuation information, and γ2 indicates the direction of the diagonal high frequency band in the power fluctuation information.

図11に示すように、パワー変動量算出部31により、周波数帯域毎かつ位相位置毎のパワー変動情報から、所定領域毎に、水平高周波帯域の方向α2の成分である水平パワー変動量pH、垂直高周波帯域の方向β2の成分である垂直パワー変動量pV、及び対角高周波帯域の方向γ2の成分である対角パワー変動量pDが算出される。 As shown in FIG. 11, the power fluctuation amount calculating section 31, from the power variation information of each frequency band and each phase position, for each predetermined region, horizontal power variation amount is a component in the direction α2 of the horizontal high frequency band p H, The vertical power fluctuation amount p V , which is a component of the direction β2 of the vertical high frequency band, and the diagonal power fluctuation amount p D, which is a component of the direction γ2 of the diagonal high frequency band, are calculated.

(重み算出部32)
重み算出部32は、動き量算出部30から所定領域毎の動き量CVH,V,D-mH,V,D,BVH,V,D-mH,V,Dを入力すると共に、パワー変動量算出部31から所定領域毎のパワー変動量pH,V,Dを入力する。また、重み算出部32は、予め設定された超解像ピクチャの強度情報cpH,V,D及びぼやけピクチャの強度情報bpH,V,Dを入力する。
(Weight calculation unit 32)
The weight calculation unit 32 inputs the movement amount CV H, V, D -m H, V, D , BV H, V, D -m H, V, D for each predetermined area from the movement amount calculation unit 30, and at the same time. The power fluctuation amount pH , V, D for each predetermined area is input from the power fluctuation amount calculation unit 31. Further, the weight calculation unit 32 inputs preset intensity information cp H, V, D of the super-resolution picture and intensity information bp H, V, D of the blurred picture.

超解像ピクチャの強度情報cpH,V,Dは、図2に示した超解像処理部11による超解像ピクチャCH,V,Dの生成の際に用いた水平用強度情報cpH1,V1,D1、垂直用強度情報cpH2,V2,D2及び対角用強度情報cpH3,V3,D3に相当する。また、ぼやけピクチャの強度情報bpH,V,Dは、図2に示したぼやけ処理部12によるぼやけピクチャBH,V,Dの生成の際に用いた水平用強度情報bpH1,V1,D1、垂直用強度情報bpH2,V2,D2及び対角用強度情報bpH3,V3,D3に相当する。 The intensity information cp H, V, D of the super-resolution picture is the intensity information cp H1 for horizontal used when the super-resolution picture C H, V, D was generated by the super-resolution processing unit 11 shown in FIG. , V1, D1 , vertical strength information cp H2, V2, D2 and diagonal strength information cp H3, V3, D3 . Further, the intensity information bp H, V, D of the blurred picture is the horizontal intensity information bp H1, V1, D1 used when the blurred picture B H, V, D was generated by the blur processing unit 12 shown in FIG. , Corresponds to vertical strength information bp H2, V2, D2 and diagonal strength information bp H3, V3, D3 .

重み算出部32は、超解像ピクチャCH,V,Dについて、所定領域毎に、以下の式にて、超解像ピクチャの動き量CVH,V,D-mH,V,D及び超解像ピクチャの強度情報cpH,V,D(cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3)に基づいて、超解像ピクチャCH,V,Dのそれぞれについて重みtCH,V,Dを算出する(ステップS904)。
[数1]
tCH=d/{(a×cpH1×(CVH-mH)+b×cpV1×(CVH-mV)+c×cpD1×(CVH-mD)} ・・・(1)
[数2]
tCV=d/{(a×cpH2×(CVV-mH)+b×cpV2×(CVV-mV)+c×cpD2×(CVV-mD)} ・・・(2)
[数3]
tCD=d/{(a×cpH3×(CVD-mH)+b×cpV3×(CVD-mV)+c×cpD3×(CVD-mD)} ・・・(3)
The weight calculation unit 32 uses the following formula for each predetermined region for the super-resolution pictures C H, V, D to move the super-resolution pictures CV H, V, D -m H, V, D and Super-resolution picture C H, V, D based on super-resolution picture intensity information cp H, V, D (cp H1, V1, D1 , cp H2, V2, D2 , cp H3, V3, D3 ) The weights tC H, V, and D are calculated for each (step S904).
[Number 1]
tC H = d / {(a × cp H1 × (CV H -m H) + b × cp V1 × (CV H -m V) + c × cp D1 × (CV H -m D)} ··· (1)
[Number 2]
tC V = d / {(a × cp H2 × (CV V -m H) + b × cp V2 × (CV V -m V) + c × cp D2 × (CV V -m D)} ··· (2)
[Number 3]
tC D = d / {(a × cp H3 × (CV D -m H) + b × cp V3 × (CV D -m V) + c × cp D3 × (CV D -m D)} ··· (3)

重みtCHは、水平超解像ピクチャCHの重みを示し、重みtCVは、垂直超解像ピクチャCVの重みを示し、重みtCDは、対角超解像ピクチャCDの重みを示す。パラメータa,b,c,dは、予め設定された定数を示す。 The weight tC H indicates the weight of the horizontal super-resolution picture C H , the weight tC V indicates the weight of the vertical super-resolution picture C V , and the weight tC D indicates the weight of the diagonal super-resolution picture C D. Shown. The parameters a, b, c, and d indicate preset constants.

前記式(1)において、水平超解像ピクチャCHについて、前述したとおり、例えば水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 In the above equation (1), for the horizontal super-resolution picture C H , for example, horizontal intensity cp H1 = 1.2, vertical intensity cp V1 = 1.0, and diagonal intensity cp D1 = 1.0 are used as described above.

前記式(2)において、垂直超解像ピクチャCVについて、前述したとおり、例えば水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 In the above equation (2), for the vertical super-resolution picture C V , for example, horizontal intensity cp H2 = 1.0, vertical intensity cp V2 = 1.2, and diagonal intensity cp D2 = 1.0 are used as described above.

前記式(3)において、対角超解像ピクチャCDについて、前述したとおり、例えば水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 In the formula (3), the diagonal super-resolution picture C D, as described above, for example, a horizontal intensity cp H3 = 1.0, vertical strength cp V3 = 1.0 and diagonal intensity cp D3 = 1.2 is used.

このように、前記式(1)(2)(3)に示す重みtCH,V,Dは、超解像ピクチャの動き量CVH,V,D-mH,V,Dに基づいて算出され、動き量CVH,V,D-mH,V,Dが大きいほど、小さい値となり、動き量CVH,V,D-mH,V,Dが小さいほど、大きい値となる。この場合、動き量CVH,V,D-mH,V,Dが大きいほど、基準ピクチャよりも参照ピクチャがぼやけている可能性が高いため、参照ピクチャに対して基準ピクチャが鮮鋭化している可能性が高い。 As described above, the weights tC H, V, D shown in the above equations (1), (2) and (3) are calculated based on the movement amount CV H, V, D -m H, V, D of the super-resolution picture. The larger the movement amount CV H, V, D -m H, V, D , the smaller the value, and the smaller the movement amount CV H, V, D -m H, V, D , the larger the value. In this case, as the amount of movement CV H, V, D -m H, V, D is larger, the reference picture is more likely to be blurred than the reference picture, so that the reference picture is sharper than the reference picture. Probability is high.

そこで、動き量CVH,V,D-mH,V,Dが大きい方向(水平方向、垂直方向及び対角方向)ほど、重みtCH,V,Dを小さい値とすることで、後述するステップS907において、重み乗算後の予測誤差CEH,V,Dを小さい値とし、その方向に対応する超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。つまり、基準ピクチャから参照ピクチャへの動き量CVH,V,D-mH,V,Dが大きい方向ほど、ぼやけが大きいと仮定して、鮮鋭化の強い方向の超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。 Therefore, the larger the amount of movement CV H, V, D -m H, V, D (horizontal, vertical, and diagonal directions), the smaller the weights tC H, V, D will be, which will be described later. In step S907, the prediction error CE H, V, D after weight multiplication is set to a small value, and the predicted images CY H, V, D of the super-resolution picture corresponding to the direction are selected. That is, assuming that the larger the amount of movement CV H, V, D -m H, V, D from the reference picture to the reference picture, the greater the blurring, the predicted image of the super-resolution picture in the direction of strong sharpening. CY H, V, D are selected.

尚、重み算出部32は、超解像ピクチャCH,V,Dにつき、ステップS904において、超解像ピクチャの動き量CVH,V,D-mH,V,Dの代わりにパワー変動量pH,V,Dを用いるようにしてもよい。すなわち、重み算出部32は、所定領域毎に、以下の式にて、パワー変動量pH,V,D及び超解像ピクチャの強度情報cpH,V,D(cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3)に基づいて、超解像ピクチャCH,V,Dのそれぞれについて重みtCH,V,Dを算出するようにしてもよい。
[数4]
tCH=h/(e×cpH1×pH+f×cpV1×pV+g×cpD1×pD) ・・・(4)
[数5]
tCV=h/(e×cpH2×pH+f×cpV2×pV+g×cpD2×pD) ・・・(5)
[数6]
tCD=h/(e×cpH3×pH+f×cpV3×pV+g×cpD3×pD) ・・・(6)
In step S904, the weight calculation unit 32 uses the super-resolution pictures C H, V, and D to change the power fluctuation amount instead of the movement amount CV H, V, D -m H, V, D of the super-resolution picture. PH , V, D may be used. That is, the weight calculation unit 32 uses the following equation for each predetermined region to calculate the power fluctuation amount pH , V, D and the intensity information of the super-resolution picture cp H, V, D (cp H1, V1, D1 , D1) . The weights tC H, V, D may be calculated for each of the super-resolution pictures C H, V, D based on cp H2, V2, D2 , cp H3, V3, D3 ).
[Number 4]
tC H = h / (e × cp H1 × p H + f × cp V1 × p V + g × cp D1 × p D ) ・ ・ ・ (4)
[Number 5]
tC V = h / (e × cp H2 × p H + f × cp V2 × p V + g × cp D2 × p D ) ・ ・ ・ (5)
[Number 6]
tC D = h / (e × cp H3 × p H + f × cp V3 × p V + g × cp D3 × p D ) ・ ・ ・ (6)

パラメータe,f,g,hは、予め設定された定数を示す。 The parameters e, f, g, and h indicate preset constants.

前記式(4)において、前記式(1)と同様に、例えば水平超解像ピクチャCHについての水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 In the above equation (4), for example, the horizontal intensity cp H1 = 1.2, the vertical intensity cp V1 = 1.0, and the diagonal intensity cp D1 = 1.0 for the horizontal super-resolution picture C H are used as in the above equation (1). ..

前記式(5)において、前記式(2)と同様に、例えば垂直超解像ピクチャCVについての水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 In the equation (5), similarly to the equation (2), for example, the horizontal intensity cp H2 = 1.0, the vertical intensity cp V2 = 1.2 and the diagonal intensity cp D2 = 1.0 for the vertical super-resolution picture CV are used. ..

前記式(6)において、前記式(3)と同様に、対角超解像ピクチャCDについての水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 In the formula (6), similarly to the equation (3), the diagonal super-resolution picture C D horizontal intensity cp H3 = 1.0 for vertical strength cp V3 = 1.0 and diagonal intensity cp D3 = 1.2 is used ..

このように、前記式(4)(5)(6)に示す重みtCH,V,Dは、パワー変動量pH,V,Dに基づいて算出され、パワー変動量pH,V,Dが正方向に大きいほど、小さい値となり、パワー変動量pH,V,Dが正方向に小さいほど、大きい値となる。この場合、パワー変動量pH,V,Dが正方向に大きいほど、基準ピクチャよりも参照ピクチャがぼやけている可能性が高いため、参照ピクチャに対して基準ピクチャが鮮鋭化している可能性が高い。 Thus, the equation (4) (5) weight tC H shown in (6), V, D, the power fluctuation amount p H, V, is calculated based on D, the power fluctuation amount p H, V, D The larger the value in the positive direction, the smaller the value, and the smaller the power fluctuation amounts pH , V, D in the positive direction, the larger the value. In this case, the larger the power fluctuation amount pH , V, D is in the positive direction, the more likely the reference picture is blurred than the reference picture. Therefore, the reference picture may be sharper than the reference picture. high.

そこで、パワー変動量pH,V,Dが正方向に大きい方向(水平方向、垂直方向及び対角方向)ほど、重みtCH,V,Dを小さい値とすることで、後述するステップS907において、重み乗算後の予測誤差CEH,V,Dを小さい値とし、その方向に対応する超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。つまり、基準ピクチャから参照ピクチャへのパワー変動量pH,V,Dが正方向に大きい方向ほど、ぼやけが大きいと仮定して、鮮鋭化の強い方向の超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。 Therefore, in the direction in which the power fluctuation amounts pH , V, D are larger in the positive direction (horizontal direction, vertical direction, and diagonal direction), the weights tC H, V, D are set to smaller values, so that in step S907 described later. , The prediction error CE H, V, D after weight multiplication is set to a small value, and the prediction images CY H, V, D of the super-resolution picture corresponding to the direction are selected. That is, assuming that the larger the power fluctuation amount pH , V, D from the reference picture to the reference picture in the positive direction, the greater the blurring, the predicted image CY H, of the super-resolution picture in the direction of strong sharpening . V and D are selected.

また、重み算出部32は、超解像ピクチャCH,V,Dにつき、ステップS904において、動き量CVH,V,D-mH,V,Dの代わりに、超解像ピクチャの動き量CVH,V,D-mH,V,D及びパワー変動量pH,V,Dを用いるようにしてもよい。すなわち、重み算出部32は、所定領域毎に、以下の式にて、超解像ピクチャの動き量CVH,V,D-mH,V,D、パワー変動量pH,V,D及び超解像ピクチャの強度情報cpH,V,D(cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3)に基づいて、超解像ピクチャCH,V,Dのそれぞれについて重みtCH,V,Dを算出するようにしてもよい。
[数7]
tCH=o/〔{(i×cpH1×(CVH-mH)+j×cpV1×(CVH-mV)+k×cpD1×(CVH-mD)}+(l×cpH1×pH+m×cpV1×pV+n×cpD1×pD)〕
・・・(7)
[数8]
tCV=o/〔{(i×cpH2×(CVV-mH)+j×cpV2×(CVV-mV)+k×cpD2×(CVV-mD)}+(l×cpH2×pH+m×cpV2×pV+n×cpD2×pD)〕
・・・(8)
[数9]
tCD=o/〔{(i×cpH3×(CVD-mH)+j×cpV3×(CVD-mV)+k×cpD3×(CVD-mD)}+(l×cpH3×pH+m×cpV3×pV+n×cpD3×pD)〕
・・・(9)
Further, in step S904, the weight calculation unit 32 uses the super-resolution picture C H, V, D instead of the movement amount CV H, V, D -m H, V, D to move the super-resolution picture. CV H, V, D −m H, V, D and power fluctuations pH, V, D may be used. That is, the weight calculator 32, for each predetermined region, by the following equation, the motion amount of the super-resolution picture CV H, V, D -m H , V, D, power fluctuation amount p H, V, D and Super-resolution picture C H, V, D based on super-resolution picture intensity information cp H, V, D (cp H1, V1, D1 , cp H2, V2, D2 , cp H3, V3, D3 ) The weights tC H, V, and D may be calculated for each.
[Number 7]
tC H = o / [{(i × cp H1 × ( CV H -m H) + j × cp V1 × (CV H -m V) + k × cp D1 × (CV H -m D)} + (l × cp H1 x p H + m x cp V1 x p V + n x cp D1 x p D )]
... (7)
[Number 8]
tC V = o / [{(i × cp H2 × ( CV V -m H) + j × cp V2 × (CV V -m V) + k × cp D2 × (CV V -m D)} + (l × cp H2 x p H + m x cp V2 x p V + n x cp D2 x p D )]
... (8)
[Number 9]
tC D = o / [{(i × cp H3 × ( CV D -m H) + j × cp V3 × (CV D -m V) + k × cp D3 × (CV D -m D)} + (l × cp H3 x p H + m x cp V3 x p V + n x cp D3 x p D )]
... (9)

パラメータi,j,k,l,m,n,oは、予め設定された定数を示す。 The parameters i, j, k, l, m, n, o indicate preset constants.

前記式(7)において、前記式(1)と同様に、例えば水平超解像ピクチャCHについての水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 In the above equation (7), similarly to the above equation (1), for example, the horizontal intensity cp H1 = 1.2, the vertical intensity cp V1 = 1.0, and the diagonal intensity cp D1 = 1.0 for the horizontal super-resolution picture C H are used. ..

また、前記式(8)において、前記式(2)と同様に、例えば垂直超解像ピクチャCVについての水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 Further, in the above equation (8), similarly to the above equation (2), for example, the horizontal intensity cp H2 = 1.0, the vertical intensity cp V2 = 1.2 and the diagonal intensity cp D2 = 1.0 for the vertical super-resolution picture CV. Used.

また、前記式(9)において、前記式(3)と同様に、対角超解像ピクチャCDについての水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 Further, in the formula (9), similarly to the equation (3), the horizontal intensity for diagonal super-resolution picture C D cp H3 = 1.0, vertical strength cp V3 = 1.0 and diagonal intensity cp D3 = 1.2 Used.

重み算出部32は、ステップS904から移行して、ぼやけピクチャBH,V,Dについて、所定領域毎に、以下の式にて、パワー変動量pH,V,D及びぼやけピクチャの強度情報bpH,V,D(bpH1,V1,D1,bpH2,V2,D2,bpH3,V3,D3)に基づいて、ぼやけピクチャBH,V,Dのそれぞれについて重みtBH,V,Dを算出する(ステップS905)。
[数10]
tBH=s/(p×bpH1×pH+q×bpV1×pV+r×bpD1×pD) ・・・(10)
[数11]
tBV=s/(p×bpH2×pH+q×bpV2×pV+r×bpD2×pD) ・・・(11)
[数12]
tBD=s/(p×bpH3×pH+q×bpV3×pV+r×bpD3×pD) ・・・(12)
The weight calculation unit 32 shifts from step S904, and for the blurred pictures B H, V, D , the power fluctuation amount pH , V, D and the intensity information bp of the blurred picture are expressed by the following formulas for each predetermined area. Based on H, V, D (bp H1, V1, D1 , bp H2, V2, D2 , bp H3, V3, D3 ), the weights tB H, V, D for each of the blurred pictures B H, V, D Calculate (step S905).
[Number 10]
tB H = s / (p × bp H1 × p H + q × bp V1 × p V + r × bp D1 × p D ) ・ ・ ・ (10)
[Number 11]
tB V = s / (p × bp H2 × p H + q × bp V2 × p V + r × bp D2 × p D ) ・ ・ ・ (11)
[Number 12]
tB D = s / (p × bp H3 × p H + q × bp V3 × p V + r × bp D3 × p D) ··· (12)

重みtBHは、水平ぼやけピクチャBHの重みを示し、重みtBVは、垂直ぼやけピクチャBVの重みを示し、重みtBDは、水平ぼやけピクチャBDの重みを示す。パラメータp,q,r,sは、予め設定された定数を示す。 The weight tB H indicates the weight of the horizontally blurred picture B H , the weight tB V indicates the weight of the vertically blurred picture B V , and the weight tB D indicates the weight of the horizontally blurred picture B D. The parameters p, q, r, s indicate preset constants.

前記式(10)において、水平ぼやけピクチャBHについて、前述したとおり、例えば水平強度bpH1=0.8、垂直強度bpV1=1.0及び対角強度bpD1=1.0が用いられる。 In the above equation (10), for the horizontally blurred picture B H , for example, horizontal intensity bp H1 = 0.8, vertical intensity bp V1 = 1.0, and diagonal intensity bp D1 = 1.0 are used as described above.

前記式(11)において、垂直ぼやけピクチャBVについて、前述したとおり、例えば水平強度bpH2=1.0、垂直強度bpV2=0.8及び対角強度bpD2=1.0が用いられる。 In the above equation (11), for the vertical blur picture B V , for example, horizontal intensity bp H2 = 1.0, vertical intensity bp V2 = 0.8, and diagonal intensity bp D2 = 1.0 are used as described above.

前記式(12)において、対角ぼやけピクチャBDについて、前述したとおり、例えば水平強度bpH3=1.0、垂直強度bpV3=1.0及び対角強度bpD3=0.8が用いられる。 In the above equation (12), for the diagonally blurred picture BD , for example, horizontal intensity bp H3 = 1.0, vertical intensity bp V3 = 1.0, and diagonal intensity bp D3 = 0.8 are used as described above.

このように、前記式(10)(11)(12)に示す重みtBH,V,Dは、パワー変動量pH,V,Dに基づいて算出され、パワー変動量pH,V,Dが負方向に大きいほど、絶対値が小さい値となり、パワー変動量pH,V,Dが負方向に小さいほど、絶対値が大きい値となる。この場合、パワー変動量pH,V,Dが負方向に大きいほど、基準ピクチャよりも参照ピクチャが鮮鋭化している可能性が高いため、参照ピクチャに対して基準ピクチャがぼやけている可能性が高い。 Thus, the equation (10) (11) (12) weight shown in tB H, V, D, the power fluctuation amount p H, V, is calculated based on D, the power fluctuation amount p H, V, D The larger the value in the negative direction, the smaller the absolute value, and the smaller the power fluctuation amounts pH , V, D in the negative direction, the larger the absolute value. In this case, the larger the power fluctuation amount pH , V, D is in the negative direction, the more likely the reference picture is sharper than the reference picture, so that the reference picture may be blurred with respect to the reference picture. high.

そこで、パワー変動量pH,V,Dが負方向に大きい値を有する方向(水平方向、垂直方向及び対角方向)ほど、重みtBH,V,Dの絶対値を小さい値とすることで、後述するステップS907において、重み乗算後の予測誤差BEH,V,Dを小さい値とし、その方向に対応するぼやけピクチャの予測画像BYH,V,Dが選択されるようにしている。つまり、基準ピクチャから参照ピクチャへのパワー変動量pH,V,Dが負の大きい値を有する方向ほど、鮮鋭化が大きいと仮定して、ぼやけの強い方向のぼやけピクチャの予測画像BYH,V,Dが選択されるようにしている。 Therefore, the absolute value of the weights tB H, V, D is set to a smaller value in the direction in which the power fluctuation amount pH , V, D has a larger value in the negative direction (horizontal direction, vertical direction, and diagonal direction). In step S907, which will be described later, the prediction error BE H, V, D after weight multiplication is set to a small value, and the predicted images BY H, V, D of the blurred picture corresponding to the direction are selected. That is, assuming that the sharpening is greater in the direction in which the power fluctuation amount pH , V, D from the reference picture to the reference picture has a larger negative value, the predicted image BY H, of the blur picture in the direction of strong blur . V and D are selected.

尚、重み算出部32は、ぼやけピクチャBH,V,Dにつき、ステップS905において、パワー変動量pH,V,Dの代わりにぼやけピクチャの動き量BVH,V,D-mH,V,D及びパワー変動量pH,V,Dを用いるようにしてもよい。すなわち、重み算出部32は、所定領域毎に、以下の式にて、ぼやけピクチャの動き量BVH,V,D-mH,V,D、パワー変動量pH,V,D及びぼやけピクチャの強度情報bpH,V,D(bpH1,V1,D1,bpH2,V2,D2,bpH3,V3,D3)に基づいて、ぼやけピクチャBH,V,Dのそれぞれについて重みtBH,V,Dを算出するようにしてもよい。
[数13]
tBH=z/〔{(t×bpH1×(BVH-mH)+u×bpV1×(BVH-mV)+v×bpD1×(BVH-mD)}+(w×bpH1×pH+x×bpV1×pV+y×bpD1×pD)〕
・・・(13)
[数14]
tBV=z/〔{(t×bpH2×(BVV-mH)+u×bpV2×(BVV-mV)+v×bpD2×(BVV-mD)}+(w×bpH2×pH+x×bpV2×pV+y×bpD2×pD)〕
・・・(14)
[数15]
tBD=z/〔{(t×bpH3×(BVD-mH)+u×bpV3×(BVD-mV)+v×bpD3×(BVD-mD)}+(w×bpH3×pH+x×bpV3×pV+y×bpD3×pD)〕
・・・(15)
The weight calculation unit 32, blurred picture B H, V, per D, in step S905, the power fluctuation amount p H, V, the amount of motion blur picture instead of D BV H, V, D -m H, V , D and power fluctuations pH, V, D may be used. That is, the weight calculation unit 32 uses the following formula for each predetermined area to determine the movement amount BV H, V, D −m H, V, D , the power fluctuation amount pH , V, D and the blur picture. Based on the intensity information bp H, V, D (bp H1, V1, D1 , bp H2, V2, D2 , bp H3, V3, D3 ), the weights tB H, for each of the blurred pictures B H, V, D. V and D may be calculated.
[Number 13]
tB H = z / [{(t × bp H1 × ( BV H -m H) + u × bp V1 × (BV H -m V) + v × bp D1 × (BV H -m D)} + (w × bp H1 x p H + x x bp V1 x p V + y x bp D1 x p D )]
... (13)
[Number 14]
tB V = z / [{(t × bp H2 × ( BV V -m H) + u × bp V2 × (BV V -m V) + v × bp D2 × (BV V -m D)} + (w × bp H2 x p H + x x bp V2 x p V + y x bp D2 x p D )]
... (14)
[Number 15]
tB D = z / [{(t × bp H3 × ( BV D -m H) + u × bp V3 × (BV D -m V) + v × bp D3 × (BV D -m D)} + (w × bp H3 x p H + x x bp V3 x p V + y x bp D3 x p D )]
... (15)

パラメータt,u,v,w,x,y,zは、予め設定された定数を示す。 The parameters t, u, v, w, x, y, z indicate preset constants.

前記式(13)において、前記式(10)と同様に、例えば水平ぼやけピクチャBHについての水平強度bpH1=0.8、垂直強度bpV1=1.0及び対角強度bpD1=1.0が用いられる。 In the equation (13), similarly to the equation (10), for example, the horizontal intensity bp H1 = 0.8, the vertical intensity bp V1 = 1.0, and the diagonal intensity bp D1 = 1.0 for the horizontally blurred picture B H are used.

また、前記式(14)において、前記式(11)と同様に、例えば垂直ぼやけピクチャBVについての水平強度bpH2=1.0、垂直強度bpV2=0.8及び対角強度bpD2=1.0が用いられる。 Further, in the equation (14), similarly to the equation (11), for example, the horizontal intensity bp H2 = 1.0, the vertical intensity bp V2 = 0.8, and the diagonal intensity bp D2 = 1.0 for the vertical blur picture B V are used. ..

また、前記式(15)において、前記式(12)と同様に、対角ぼやけピクチャBDについての水平強度bpH3=1.0、垂直強度bpV3=1.0及び対角強度bpD3=0.8が用いられる。 Further, in the equation (15), similarly to the equation (12), the horizontal intensity bp H3 = 1.0, the vertical intensity bp V3 = 1.0, and the diagonal intensity bp D3 = 0.8 for the diagonally blurred picture BD are used. ..

重み算出部32は、ステップS904にて算出した所定領域毎の超解像ピクチャの重みtCH,V,D、及びステップS905にて算出したぼやけピクチャの重みtBH,V,Dを予測画像選択部33に出力する。 The weight calculation unit 32 selects the predicted image selection of the super-resolution picture weights tC H, V, D calculated in step S904 and the blur picture weights tB H, V, D calculated in step S905. Output to unit 33.

(予測画像選択部33)
予測画像選択部33は、重み算出部32から、所定領域毎の超解像ピクチャの重みtCH,V,D及びぼやけピクチャの重みtBH,V,Dを入力する。また、予測画像選択部33は、画面間予測処理部14から、所定領域毎の予測画像KY,CYH,V,D,BYH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを入力する。
(Prediction image selection unit 33)
The prediction image selection unit 33 inputs the weights tC H, V, D of the super-resolution picture and the weights tB H, V, D of the blurred picture for each predetermined area from the weight calculation unit 32. Further, the prediction image selection unit 33, from the inter-screen prediction processing unit 14, predicts images KY, CY H, V, D , BY H, V, D and prediction errors KE, CE H, V, D for each predetermined area. Enter BE H, V, D.

予測画像選択部33は、ステップS905から移行して、所定領域毎に、超解像ピクチャCH,V,Dにつき、超解像ピクチャの予測誤差CEH,V,Dに、対応する重みtCH,V,Dを乗算する。また、予測画像選択部33は、所定領域毎に、ぼやけピクチャBH,V,Dにつき、ぼやけピクチャの予測誤差BEH,V,Dに、対応する重みtBH,V,Dを乗算する(ステップS906)。 The prediction image selection unit 33 shifts from step S905 and has a weight tC corresponding to the prediction error CE H, V, D of the super-resolution picture for each predetermined region for the super-resolution pictures C H, V, D. Multiply H, V, D. Further, the prediction image selection unit 33 multiplies the prediction error BE H, V, D of the blurry picture by the corresponding weights tB H, V, D for each of the blurry pictures B H, V, D for each predetermined area ( Step S906).

これにより、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dが得られる。 As a result, the prediction error CE H, V, D after the weight multiplication of the super-resolution picture and the prediction error BE H, V, D after the weight multiplication of the blurred picture can be obtained.

予測画像選択部33は、所定領域毎に、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差を特定する。そして、予測画像選択部33は、最小の予測誤差に対応する予測画像を選択する(ステップS907)。これにより、7種類のピクチャの予測画像KY,CYH,V,D,BYH,V,Dのうち、いずれか一つの予測画像が選択される。 The prediction image selection unit 33 determines the prediction error KE of the locally decoded picture, the prediction error CE H, V, D after weight multiplication of the super-resolution picture, and the prediction error BE H after weight multiplication of the blurred picture for each predetermined area. , V, D , identify the smallest prediction error. Then, the prediction image selection unit 33 selects the prediction image corresponding to the minimum prediction error (step S907). As a result, any one of the predicted images KY, CY H, V, D , BY H, V, and D of the seven types of pictures is selected.

予測画像選択部33は、所定領域毎に、選択した予測画像を画面間予測結果としてスイッチ119に出力する(ステップS908)。 The prediction image selection unit 33 outputs the selected prediction image to the switch 119 as an inter-screen prediction result for each predetermined area (step S908).

例えば、ある領域について、水平超解像ピクチャの重み乗算後の予測誤差CEHが、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうちの最小値である場合を想定する。この場合、予測画像選択部33は、当該領域について、局部復号ピクチャの予測画像KY、超解像ピクチャの予測画像CYH,V,D、及びぼやけピクチャの予測画像BYH,V,Dのうち、水平超解像ピクチャの予測画像CYHを選択する。そして、予測画像選択部33は、当該領域について、水平超解像ピクチャの予測画像CYHを画面間予測結果としてスイッチ119に出力する。 For example, for a region, the prediction error CE H after weight multiplication of the horizontal super-resolution picture is the prediction error KE of the locally decoded picture, the prediction error CE H, V, D after weight multiplication of the super-resolution picture, and blurring. It is assumed that the prediction error after weight multiplication of the picture is the minimum value among BE H, V, and D. In this case, the prediction image selection unit 33 has the predicted image KY of the locally decoded picture, the predicted image CY H, V, D of the super-resolution picture, and the predicted image BY H, V, D of the blurred picture for the region. , Select the predicted image CY H of the horizontal super-resolution picture. Then, the prediction image selection unit 33 outputs the prediction image CY H of the horizontal super-resolution picture to the switch 119 as the inter-screen prediction result for the region.

以上のように、本発明の実施形態の動画像符号化装置1によれば、画面間予測部10の超解像処理部11は、局部復号ピクチャKに超解像処理を施し、3種類の超解像ピクチャCH,V,Dを生成し、フレームメモリ13に格納する。ぼやけ処理部12は、局部復号ピクチャKにぼやけ処理を施し、3種類のぼやけピクチャBH,V,Dを生成し、フレームメモリ13に格納する。 As described above, according to the moving image coding device 1 of the embodiment of the present invention, the super-resolution processing unit 11 of the inter-screen prediction unit 10 performs super-resolution processing on the local decoding picture K to perform three types of super-resolution processing. The super-resolution pictures C H, V, and D are generated and stored in the frame memory 13. The blur processing unit 12 performs blur processing on the locally decoded picture K, generates three types of blur pictures B H, V, and D , and stores them in the frame memory 13.

画面間予測処理部14は、現在の局部復号ピクチャKである基準ピクチャと、フレームメモリ13から読み出した過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dである参照ピクチャとに基づいて、所定領域毎に、画面間予測を行って動きベクトルKV,CVH,V,D,BVH,V,D、予測画像KY,CYH,V,D,BYH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを求める。 The inter-screen prediction processing unit 14 includes a reference picture which is the current locally decoded picture K, and past locally decoded pictures K, super-resolution pictures C H, V, D and blurred pictures B H, V read from the frame memory 13. Based on the reference picture , which is D , the motion vector KV, CV H, V, D , BV H, V, D , and the predicted image KY, CY H, V, D are predicted for each predetermined area. , BY H, V, D and prediction error KE, CE H, V, D , BE H, V, D.

周波数解析部15は、現在の局部復号ピクチャK及び過去の局部復号ピクチャKについて周波数解析を行い、現在の局部復号ピクチャKの解析結果から過去の局部復号ピクチャKの解析結果を減算し、周波数帯域毎かつ位相位置毎のパワー変動情報を求める。 The frequency analysis unit 15 performs frequency analysis on the current locally decoded picture K and the past locally decoded picture K, subtracts the analysis result of the past locally decoded picture K from the analysis result of the current locally decoded picture K, and performs frequency band. Obtain power fluctuation information for each phase position.

選択部16は、所定領域毎に、超解像ピクチャの動きベクトルCVH,V,D及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出する。また、選択部16は、所定領域毎に、パワー変動情報及びぼやけピクチャの強度情報bpH,V,Dに基づいて、ぼやけピクチャの重みtBH,V,Dを算出する。 The selection unit 16 sets the weight tC H, of the super-resolution picture based on the motion vector CV H, V, D of the super-resolution picture and the intensity information cp H, V, D of the super-resolution picture for each predetermined region . Calculate V and D. Further, the selection unit 16 calculates the weights tB H, V, D of the blurred picture based on the power fluctuation information and the intensity information bp H, V, D of the blurred picture for each predetermined area.

選択部16は、所定領域毎に、超解像ピクチャの予測誤差CEH,V,Dに、対応する重みtCH,V,Dを乗算し、ぼやけピクチャの予測誤差BEH,V,Dに、対応する重みtBH,V,Dを乗算する。選択部16は、所定領域毎に、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 The selection unit 16 multiplies the prediction error CE H, V, D of the super-resolution picture by the corresponding weights tC H, V, D for each predetermined region to obtain the prediction error BE H, V, D of the blurred picture. , Multiply the corresponding weights tB H, V, D. The selection unit 16 has a prediction error KE of the locally decoded picture, a prediction error CE H, V, D after weight multiplication of the super-resolution picture, and a prediction error BE H, V after weight multiplication of the blurred picture for each predetermined area. Of , D , the predicted image corresponding to the smallest prediction error is selected.

このように、画面間予測処理に用いる参照ピクチャとして、局部復号ピクチャKに加え、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dが生成される。そして、所定領域毎に、ピクチャのパワー変動量、動き量等が考慮され、ぼやけ及び鮮鋭化、並びにこれらの方向性を考慮した最適なピクチャが予測画像として選択される。 In this way, in addition to the locally decoded picture K, three types of super-resolution pictures C H, V, D and three types of blurry pictures B H, V, D are generated as reference pictures used in the inter-screen prediction processing. .. Then, the power fluctuation amount, the movement amount, and the like of the picture are taken into consideration for each predetermined area, and the optimum picture considering the blurring and sharpening, and these directions is selected as the predicted image.

これにより、過去のピクチャから現在のピクチャへ向けてオブジェクトのぼやけが起こる場合、予測画像としてぼやけピクチャBが選択され、オブジェクトの鮮鋭化が起こる場合、超解像ピクチャCが選択される。このため、入力動画像と予測画像との間の残差を小さくすることができる。 As a result, when the object is blurred from the past picture to the current picture, the blurred picture B is selected as the predicted image, and when the object is sharpened, the super-resolution picture C is selected. Therefore, the residual between the input moving image and the predicted image can be reduced.

従来技術では、局部復号ピクチャKのみを参照ピクチャとして画面間予測を行うことで、客観的に高画質な動画像を得ることができた。しかし、従来技術では、ぼやけまたは鮮鋭化が起こる動画像と、通常の動画像(ぼやけまたは鮮鋭化が起こらない動画像)とを区別した画面間予測を行うことができない。また、水平方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像と、垂直方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像とを区別した画面間予測を行うことができない。 In the prior art, it was possible to objectively obtain a high-quality moving image by performing inter-screen prediction using only the locally decoded picture K as a reference picture. However, in the prior art, it is not possible to perform inter-screen prediction that distinguishes between a moving image in which blurring or sharpening occurs and a normal moving image (moving image in which blurring or sharpening does not occur). In addition, it is not possible to perform inter-screen prediction that distinguishes between a moving image in which blurring or sharpening occurs due to horizontal movement and a moving image in which blurring or sharpening occurs due to vertical movement.

本発明の実施形態では、ぼやけ及び鮮鋭化、並びにこれらの方向性を考慮した画面間予測を行うようにした。したがって、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、画面間予測効率を向上させることができると共に、主観的に高画質な動画像を得ることが可能となる。 In the embodiment of the present invention, blurring and sharpening, and inter-screen prediction in consideration of these directions are performed. Therefore, even when the object is blurred or sharpened for each area between the pictures of the moving image, the inter-screen prediction efficiency can be improved and the moving image of high quality can be subjectively obtained. It becomes.

〔動画像復号装置〕
次に、本発明の実施形態による動画像復号装置について説明する。図12は、本発明の実施形態による動画像復号装置の構成例を示すブロック図である。この動画像復号装置2は、エントロピー復号部50、逆量子化部51、逆直交変換部52、加算部53、画面内予測部54、インループフィルタ55、画面間予測部56及びスイッチ57を備えている。尚、図12には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Video decoding device]
Next, the moving image decoding device according to the embodiment of the present invention will be described. FIG. 12 is a block diagram showing a configuration example of a moving image decoding device according to an embodiment of the present invention. The moving image decoding device 2 includes an entropy decoding unit 50, an inverse quantization unit 51, an inverse orthogonal conversion unit 52, an addition unit 53, an in-screen prediction unit 54, an in-loop filter 55, an inter-screen prediction unit 56, and a switch 57. ing. Note that FIG. 12 shows only the components directly related to the present invention, and the components not directly related to the present invention are omitted.

エントロピー復号部50は、図1に示した動画像符号化装置1から出力された符号化信号を入力し、図1に示したエントロピー符号化部120の逆の処理を行うことで、符号化信号に対しエントロピー復号を行い、量子化インデックス列及びパラメータを生成する。 The entropy decoding unit 50 inputs the coded signal output from the moving image coding device 1 shown in FIG. 1 and performs the reverse processing of the entropy coding unit 120 shown in FIG. 1, thereby performing the reverse processing of the coded signal. Is entropy-decoded to generate a quantized index string and parameters.

エントロピー復号部50は、量子化インデックス列を逆量子化部51に出力し、所定領域毎に選択された予測画像の種類及び算出された動きベクトルを含むパラメータを画面間予測部56に出力すると共に、他のパラメータを逆量子化部51等に出力する。 The entropy decoding unit 50 outputs the quantization index sequence to the inverse quantization unit 51, outputs the parameters including the type of the predicted image selected for each predetermined region and the calculated motion vector to the interscreen prediction unit 56, and outputs the parameters to the interscreen prediction unit 56. , Other parameters are output to the inverse quantization unit 51 and the like.

逆量子化部51は、エントロピー復号部50から量子化インデックス列を入力し、図1に示した量子化部112の逆の処理を行うことで、量子化インデックス列を逆量子化し、変換係数列を生成する。そして、逆量子化部51は、変換係数列を逆直交変換部52に出力する。 The inverse quantization unit 51 inputs the quantization index sequence from the entropy decoding unit 50 and performs the reverse processing of the quantization unit 112 shown in FIG. 1 to inversely quantize the quantization index sequence and convert coefficient sequence. To generate. Then, the inverse quantization unit 51 outputs the conversion coefficient sequence to the inverse orthogonal conversion unit 52.

逆直交変換部52は、逆量子化部51から変換係数列を入力し、図1に示した直交変換部111の逆の処理を行うことで、変換係数列を逆直交変換し、復号残差画像を生成する。そして、逆直交変換部52は、復号残差画像を加算部53に出力する。 The inverse orthogonal conversion unit 52 inputs the conversion coefficient sequence from the inverse quantization unit 51 and performs the reverse processing of the orthogonal conversion unit 111 shown in FIG. 1 to perform the inverse orthogonal conversion of the conversion coefficient sequence and the decoding residual. Generate an image. Then, the inverse orthogonal conversion unit 52 outputs the decoding residual image to the addition unit 53.

加算部53は、逆直交変換部52から復号残差画像を入力すると共に、スイッチ57から予測画像を入力する。そして、加算部53は、予測画像に復号残差画像を加算し、加算後の画像を画面内予測部54及びインループフィルタ55に出力する。 The addition unit 53 inputs the decoding residual image from the inverse orthogonal conversion unit 52, and inputs the predicted image from the switch 57. Then, the addition unit 53 adds the decoding residual image to the prediction image, and outputs the added image to the in-screen prediction unit 54 and the in-loop filter 55.

画面内予測部54は、加算部53から加算後の画像を入力し、図1に示した画面内予測部116と同様の処理を行うことで、所定領域毎に、加算後の画像に画面内予測処理を施し、所定領域毎の画面内予測結果をスイッチ57に出力する。また、画面内予測部54は、加算後の画像を復号画像として出力する。これにより、元の動画像が復元される。 The in-screen prediction unit 54 inputs the image after addition from the addition unit 53, and performs the same processing as the in-screen prediction unit 116 shown in FIG. 1, so that the image after addition is displayed in the screen for each predetermined area. Prediction processing is performed, and the in-screen prediction result for each predetermined area is output to the switch 57. Further, the in-screen prediction unit 54 outputs the added image as a decoded image. As a result, the original moving image is restored.

インループフィルタ55は、加算部53から加算後の画像を入力し、図1に示したインループフィルタ117と同様の処理を行うことで、加算後の画像にフィルタ処理を施し、復号ピクチャK’を生成する。そして、インループフィルタ55は、復号ピクチャK’を画面間予測部56に出力する。 The in-loop filter 55 inputs the image after addition from the addition unit 53, and performs the same processing as the in-loop filter 117 shown in FIG. 1 to perform filter processing on the image after addition, and decode picture K'. To generate. Then, the in-loop filter 55 outputs the decoded picture K'to the inter-screen prediction unit 56.

画面間予測部56は、インループフィルタ55から復号ピクチャK’を入力すると共に、エントロピー復号部50から、所定領域毎に選択された予測画像の種類及び算出された動きベクトルを含むパラメータを入力する。そして、画面間予測部56は、所定領域毎に、パラメータに基づいて所定の画面間予測処理を行うことで、局部復号ピクチャの予測画像KY’、3種類の超解像ピクチャの予測画像CYH,V,D’(水平超解像ピクチャの予測画像CYH’、垂直超解像ピクチャの予測画像CYV’及び対角超解像ピクチャの予測画像CYD’)、及び3種類のぼやけピクチャの予測画像BYH,V,D’(水平ぼやけピクチャの予測画像BYH’、垂直ぼやけピクチャの予測画像BYV’及び対角ぼやけピクチャの予測画像BYD’)のうちのいずれか一つの予測画像を生成し、これを所定領域毎の画面間予測結果としてスイッチ57に出力する。また、画面間予測部56は、復号ピクチャK’を復号画像として出力する。これにより、元の動画像が復元される。画面間予測部56の詳細については後述する。 The inter-screen prediction unit 56 inputs the decoded picture K'from the in-loop filter 55, and also inputs the parameter including the type of the predicted image selected for each predetermined area and the calculated motion vector from the entropy decoding unit 50. .. Then, the inter-screen prediction unit 56 performs a predetermined inter-screen prediction process based on the parameters for each predetermined area, so that the prediction image KY of the locally decoded picture ′'and the prediction image CY H of the three types of super-resolution pictures. , V, D '(horizontal prediction image CY H of the super-resolution picture', 'predicted image CY D and of diagonal super-resolution picture' prediction image CY V vertical super-resolution pictures), and 3 types of blurring the picture Prediction of any one of the prediction images BY H, V, D '(horizontal blur picture prediction image BY H ', vertical blur picture prediction image BY V ', and diagonal blur picture prediction image BY D '). An image is generated, and this is output to the switch 57 as an inter-screen prediction result for each predetermined area. Further, the inter-screen prediction unit 56 outputs the decoded picture K'as a decoded image. As a result, the original moving image is restored. The details of the inter-screen prediction unit 56 will be described later.

スイッチ57は、画面内予測部54から所定領域毎の画面内予測結果を入力すると共に、画面間予測部56から所定領域毎の画面間予測結果を入力し、いずれか一方を選択し、予測画像として加算部53に出力する。 The switch 57 inputs the in-screen prediction result for each predetermined area from the in-screen prediction unit 54, and also inputs the in-screen prediction result for each predetermined area from the inter-screen prediction unit 56, selects one of them, and predicts the image. Is output to the addition unit 53.

〔画面間予測部56〕
次に、図12に示した画面間予測部56について詳細に説明する。図13は、動画像復号装置2に備えた画面間予測部56の構成例を示すブロック図である。この画面間予測部56は、超解像処理部60、ぼやけ処理部61、フレームメモリ62、画面間予測処理部63及びパラメータ処理部64を備えている。尚、図13には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Inter-screen prediction unit 56]
Next, the inter-screen prediction unit 56 shown in FIG. 12 will be described in detail. FIG. 13 is a block diagram showing a configuration example of the inter-screen prediction unit 56 provided in the moving image decoding device 2. The inter-screen prediction unit 56 includes a super-resolution processing unit 60, a blur processing unit 61, a frame memory 62, an inter-screen prediction processing unit 63, and a parameter processing unit 64. Note that FIG. 13 shows only the components directly related to the present invention, and the components not directly related to the present invention are omitted.

画面間予測部56は、インループフィルタ55から復号ピクチャK’を入力し、復号ピクチャK’をフレームメモリ62に格納する。また、画面間予測部56のパラメータ処理部64は、エントロピー復号部50から、所定領域毎に選択された予測画像の種類及び算出された動きベクトルを含むパラメータを入力し、パラメータを画面間予測処理部63に出力する。予測画像の種類は、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dのうちのいずれか一つ(7種類のピクチャのうちのいずれか一つ)を示している。 The inter-screen prediction unit 56 inputs the decoded picture K'from the in-loop filter 55, and stores the decoded picture K'in the frame memory 62. Further, the parameter processing unit 64 of the inter-screen prediction unit 56 inputs parameters including the type of the predicted image selected for each predetermined area and the calculated motion vector from the entropy decoding unit 50, and performs inter-screen prediction processing of the parameters. Output to unit 63. The type of the predicted image is one of three types of super-resolution pictures C H, V, D and three types of blurry pictures B H, V, D (out of seven types of pictures). Any one of them) is shown.

超解像処理部60は、復号ピクチャK’に対し、図2に示した超解像処理部11と同様の超解像処理を施し、3種類の超解像ピクチャCH,V,D’(水平超解像ピクチャCH’、垂直超解像ピクチャCV’及び対角超解像ピクチャCD’)を生成する。超解像処理部60は、3種類の超解像ピクチャCH,V,D’をフレームメモリ62に格納する。 The super-resolution processing unit 60 performs the same super-resolution processing as the super-resolution processing unit 11 shown in FIG. 2 on the decoded picture K', and three types of super-resolution pictures C H, V, D '. (Horizontal super-resolution picture C H ', vertical super-resolution picture C V ', and diagonal super-resolution picture C D ') are generated. The super-resolution processing unit 60 stores three types of super-resolution pictures C H, V, D' in the frame memory 62.

ぼやけ処理部61は、復号ピクチャK’に対し、図2に示したぼやけ処理部12と同様のぼやけ処理を施し、ぼやけピクチャBH,V,D’(水平ぼやけピクチャBH’、垂直ぼやけピクチャBV’及び対角ぼやけピクチャBD’)を生成する。ぼやけ処理部61は、3種類のぼやけピクチャBH,V,D’をフレームメモリ62に格納する。 The blur processing unit 61 performs the same blur processing as the blur processing unit 12 shown in FIG. 2 on the decoded picture K', and blur pictures B H, V, D '(horizontal blur picture B H ', vertical blur picture. B V 'and diagonal blurred picture B D') to produce a. The blur processing unit 61 stores three types of blur pictures B H, V, D' in the frame memory 62.

フレームメモリ62には、復号ピクチャK’、3種類の超解像ピクチャCH,V,D’及び3種類のぼやけピクチャBH,V,D’がフレーム毎に格納される。 The frame memory 62 stores the decoded picture K', three types of super-resolution pictures C H, V, D' and three types of blurry pictures B H, V, D'for each frame.

画面間予測処理部63は、パラメータ処理部64からパラメータを入力し、パラメータに含まれる予測画像の種類が局部復号ピクチャKを示している場合、フレームメモリ62に格納された復号ピクチャK’を過去の復号ピクチャK’として読み出す。 The inter-screen prediction processing unit 63 inputs parameters from the parameter processing unit 64, and when the type of the predicted image included in the parameters indicates the locally decoded picture K, the decoded picture K'stored in the frame memory 62 is stored in the past. Read as the decoded picture K'of.

また、画面間予測処理部63は、パラメータに含まれる予測画像の種類が水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCDのいずれかを示している場合、フレームメモリ62に格納された対応する超解像ピクチャC’(予測画像の種類に対応する、水平超解像ピクチャCH’、垂直超解像ピクチャCV’及び対角超解像ピクチャCD’のうちのいずれか一つのピクチャ)を、過去の超解像ピクチャC’として読み出す。 Further, the inter-screen prediction processing unit 63 indicates that the type of the predicted image included in the parameter is one of the horizontal super-resolution picture C H , the vertical super-resolution picture C V, and the diagonal super-resolution picture C D. In the case, the corresponding super-resolution picture C'(horizontal super-resolution picture C H ', vertical super-resolution picture C V ', and diagonal super-resolution picture corresponding to the type of predicted image) stored in the frame memory 62. 'any one of the picture) in the past of the super-resolution picture C' C D read out as.

また、画面間予測処理部63は、パラメータに含まれる予測画像の種類が水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBDのいずれかを示している場合、フレームメモリ62に格納された対応するぼやけピクチャB’(予測画像の種類に対応する、水平ぼやけピクチャBH’、垂直ぼやけピクチャBV’及び対角ぼやけピクチャBD’のうちのいずれか一つのピクチャ)を、過去のぼやけピクチャB’として読み出す。 Further, when the type of the predicted image included in the parameter indicates any of the horizontal blur picture B H , the vertical blur picture B V, and the diagonal blur picture B D , the inter-screen prediction processing unit 63 stores the frame memory 62. The stored corresponding blur picture B'(one of the horizontal blur picture B H ', the vertical blur picture B V ', and the diagonal blur picture B D' corresponding to the type of predicted image), Read as a past blurred picture B'.

画面間予測処理部63は、過去の復号ピクチャK’、超解像ピクチャC’またはぼやけピクチャB’、及びパラメータに含まれる動きベクトルに基づいて、画面間予測を行い、所定領域毎に、予測画像を求める。所定領域は、図2と同様に、例えばslice(スライス)領域、CTU(Coding Tree Unit:コーディングツリーユニット)領域、CU(Coding Unit:コーディングユニット)領域である。 The inter-screen prediction processing unit 63 performs inter-screen prediction based on the past decoded picture K', super-resolution picture C'or blur picture B', and motion vectors included in the parameters, and predicts each predetermined area. Ask for an image. Similar to FIG. 2, the predetermined region is, for example, a slice region, a CTU (Coding Tree Unit) region, and a CU (Coding Unit) region.

画面間予測処理部63は、所定領域毎の予測画像を画面間予測結果としてスイッチ57に出力する。 The inter-screen prediction processing unit 63 outputs a prediction image for each predetermined area to the switch 57 as an inter-screen prediction result.

また、図示しない読み出し部は、フレームメモリ62から復号ピクチャK’を読み出し、これを復号画像Oとして出力する。 Further, a reading unit (not shown) reads the decoded picture K'from the frame memory 62 and outputs this as the decoded image O.

以上のように、本発明の実施形態の動画像復号装置2によれば、画面間予測部56の超解像処理部60は、復号ピクチャK’に基づいて3種類の超解像ピクチャCH,V,D’を生成し、フレームメモリ62に格納する。ぼやけ処理部61は、復号ピクチャK’に基づいて3種類のぼやけピクチャBH,V,D’を生成し、フレームメモリ62に格納する。 As described above, according to the video decoding apparatus 2 of the embodiment of the present invention, super-resolution processing unit 60 of the inter prediction unit 56, the three super-resolution picture C H based on the decoded picture K ' , V, D' are generated and stored in the frame memory 62. The blur processing unit 61 generates three types of blur pictures B H, V, D' based on the decoded picture K'and stores them in the frame memory 62.

画面間予測処理部63は、パラメータに含まれる予測画像の種類に従い、フレームメモリ62から復号ピクチャK’、超解像ピクチャC’(水平超解像ピクチャCH’、垂直超解像ピクチャCV’及び対角超解像ピクチャCD’のうちのいずれか一つのピクチャ)またはぼやけピクチャB’(水平ぼやけピクチャBH’、垂直ぼやけピクチャBV’及び対角ぼやけピクチャBD’のうちのいずれか一つのピクチャ)を読み出し、読み出したピクチャ、及びパラメータに含まれる動きベクトルに基づいて、所定領域毎に予測画像を求める。 The inter-screen prediction processing unit 63 determines from the frame memory 62 the decoded picture K', the super-resolution picture C'(horizontal super-resolution picture C H ', the vertical super-resolution picture CV ', according to the type of the predicted image included in the parameter. 'and diagonal super-resolution picture C D' of any one of the picture) or blurred picture B '(horizontal blur picture B H', vertical blur picture B V 'and diagonal blurred picture B D' of the Any one picture) is read out, and a predicted image is obtained for each predetermined area based on the read out picture and the motion vector included in the parameter.

このように、動画像符号化装置1において、画面間予測処理に用いる参照ピクチャとして、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dが生成され、領域単位で、ピクチャのパワー変動量、動き量等が考慮され、最適なピクチャが予測画像として選択された場合、動画像復号装置2では、動画像符号化装置1から入力したパラメータに含まれる予測画像の種類に従い、動画像符号化装置1にて選択された予測画像と同じ種類の予測画像が生成され、復号画像が生成される。 As described above, in the moving image coding apparatus 1, as the reference picture used for the inter-screen prediction processing, the locally decoded picture K, the three types of super-resolution pictures C H, V, D and the three types of blurred pictures B H, V , D are generated, the power fluctuation amount, the movement amount, etc. of the picture are taken into consideration in each area, and when the optimum picture is selected as the predicted image, the moving image decoding device 2 inputs from the moving image coding device 1. A predicted image of the same type as the predicted image selected by the moving image coding device 1 is generated according to the type of the predicted image included in the parameters, and a decoded image is generated.

これにより、過去のピクチャから現在のピクチャへ向けてオブジェクトのぼやけが起こる場合、ぼやけピクチャB’が選択され、オブジェクトの鮮鋭化が起こる場合、超解像ピクチャC’が選択され、予測画像が生成される。つまり、ぼやけ及び鮮鋭化、並びにこれらの方向性を考慮した予測画像が生成される。 As a result, when the object is blurred from the past picture to the current picture, the blurred picture B'is selected, and when the object is sharpened, the super-resolution picture C'is selected and the predicted image is generated. Will be done. That is, a prediction image is generated in consideration of blurring and sharpening, and these directions.

したがって、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、画面間予測効率を向上させることができると共に、主観的に高画質な動画像を得ることが可能となる。 Therefore, even when the object is blurred or sharpened for each area between the pictures of the moving image, the inter-screen prediction efficiency can be improved and the moving image of high quality can be subjectively obtained. It becomes.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。 Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the technical idea.

(超解像処理部11,60及びぼやけ処理部12,61のいずれか一方を備える例)
前記実施形態では、図2に示したとおり、動画像符号化装置1の画面間予測部10は、超解像処理部11及びぼやけ処理部12を備えるようにした。また、図13に示したとおり、動画像復号装置2の画面間予測部56は、超解像処理部60及びぼやけ処理部61を備えるようにした。
(Example of providing either one of the super-resolution processing units 11, 60 and the blur processing units 12, 61)
In the above embodiment, as shown in FIG. 2, the inter-screen prediction unit 10 of the moving image coding device 1 includes a super-resolution processing unit 11 and a blurring processing unit 12. Further, as shown in FIG. 13, the inter-screen prediction unit 56 of the moving image decoding device 2 is provided with a super-resolution processing unit 60 and a blurring processing unit 61.

これに対し、画面間予測部10は、超解像処理部11及びぼやけ処理部12のうちのいずれか一方を備えるようにしてもよい。また、画面間予測部56は、画面間予測部10に対応して、超解像処理部60及びぼやけ処理部61のうちのいずれか一方を備えるようにしてもよい。 On the other hand, the inter-screen prediction unit 10 may include either one of the super-resolution processing unit 11 and the blurring processing unit 12. Further, the inter-screen prediction unit 56 may include either one of the super-resolution processing unit 60 and the blur processing unit 61 in response to the inter-screen prediction unit 10.

動画像符号化装置1の画面間予測部10が超解像処理部11を備え、ぼやけ処理部12を備えていない場合、画面間予測部10の画面間予測処理部14は、基準ピクチャ、及び、過去の局部復号ピクチャK及び超解像ピクチャCH,V,Dである参照ピクチャに基づき、画面間予測を行い、所定領域毎に、動きベクトルKV,CVH,V,D、予測画像KY,CYH,V,D及び予測誤差KE,CEH,V,Dを求める。 When the inter-screen prediction processing unit 10 of the motion image coding device 1 includes the super-resolution processing unit 11 and does not include the blurring processing unit 12, the inter-screen prediction processing unit 14 of the inter-screen prediction unit 10 includes a reference picture and a reference picture. , The inter-screen prediction is performed based on the reference picture which is the past locally decoded picture K and the super-resolution picture C H, V, D , and the motion vector KV, CV H, V, D , and the predicted image KY are performed for each predetermined area. , CY H, V, D and prediction error KE, CE H, V, D.

選択部16は、所定領域毎に、前述と同様の処理にて、局部復号ピクチャの予測誤差KE及び超解像ピクチャの重み乗算後の予測誤差CEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 The selection unit 16 performs the same processing as described above for each predetermined area, and has the smallest prediction error among the prediction error KE of the locally decoded picture and the prediction error CE H, V, D after weight multiplication of the super-resolution picture. Select the predicted image corresponding to.

動画像復号装置2の画面間予測部56が超解像処理部60を備え、ぼやけ処理部61を備えていない場合、画面間予測部56の画面間予測処理部63は、パラメータに含まれる予測画像の種類に従い、フレームメモリ62から復号ピクチャK’及び超解像ピクチャC’のうちのいずれか一つのピクチャを読み出し、読み出したピクチャ、及びパラメータに含まれる動きベクトルに基づいて、所定領域毎に予測画像を求める。 When the inter-screen prediction processing unit 56 of the moving image decoding device 2 includes the super-resolution processing unit 60 and does not include the blurring processing unit 61, the inter-screen prediction processing unit 63 of the inter-screen prediction unit 56 includes prediction included in the parameters. According to the type of image, any one of the decoded picture K'and the super-resolution picture C'is read from the frame memory 62, and the read picture and the motion vector included in the parameter are used for each predetermined area. Obtain a predicted image.

一方、動画像符号化装置1の画面間予測部10がぼやけ処理部12を備え、超解像処理部11を備えていない場合、画面間予測部10の画面間予測処理部14は、基準ピクチャ、及び、過去の局部復号ピクチャK及びぼやけピクチャBH,V,Dである参照ピクチャに基づき、画面間予測を行い、所定領域毎に、動きベクトルKV,BVH,V,Dを求め、予測画像KY,BYH,V,D及び予測誤差KE,BEH,V,Dを求める。 On the other hand, when the inter-screen prediction processing unit 10 of the motion image coding device 1 includes the blurring processing unit 12 and does not include the super-resolution processing unit 11, the inter-screen prediction processing unit 14 of the inter-screen prediction unit 10 is a reference picture. , And, based on the reference picture which is the past locally decoded picture K and the blurred picture B H, V, D , the inter-screen prediction is performed, and the motion vectors KV, BV H, V, D are obtained and predicted for each predetermined area. Find the images KY, BY H, V, D and the prediction errors KE, BE H, V, D.

選択部16は、所定領域毎に、前述と同様の処理にて、局部復号ピクチャの予測誤差KE及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 The selection unit 16 corresponds to the smallest prediction error among the prediction error KE of the locally decoded picture and the prediction error BE H, V, D after weight multiplication of the blurred picture by the same processing as described above for each predetermined area. Select the predicted image to be used.

動画像復号装置2の画面間予測部56がぼやけ処理部61を備え、超解像処理部60を備えていない場合、画面間予測部56の画面間予測処理部63は、パラメータに含まれる予測画像の種類に従い、フレームメモリ62から復号ピクチャK’及びぼやけピクチャB’のうちのいずれか一つのピクチャを読み出し、読み出したピクチャ、及びパラメータに含まれる動きベクトルに基づいて、所定領域毎に予測画像を求める。 When the inter-screen prediction processing unit 56 of the moving image decoding device 2 includes the blurring processing unit 61 and does not include the super-resolution processing unit 60, the inter-screen prediction processing unit 63 of the inter-screen prediction unit 56 includes prediction included in the parameters. According to the type of image, any one of the decoded picture K'and the blurred picture B'is read from the frame memory 62, and the predicted image is predicted for each predetermined area based on the read picture and the motion vector included in the parameter. To ask.

(予測画像の他の選択処理)
また、前記実施形態では、動画像符号化装置1の画面間予測部10に備えた選択部16は、所定領域毎に、超解像ピクチャの重みtCH,V,D及びぼやけピクチャの重みtBH,V,Dを算出し、局部復号ピクチャの予測誤差KE、超解像ピクチャの重みtCH,V,Dを乗算した後の予測誤差CEH,V,D、及び、ぼやけピクチャの重みtBH,V,Dを乗算した後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択するようにした。
(Other selection processing of predicted image)
Further, in the above-described embodiment, the selection unit 16 provided in the inter-screen prediction unit 10 of the moving image coding device 1 has weights tC H, V, D of super-resolution pictures and weights tB of blurry pictures for each predetermined area. H, V, calculates D, the prediction error KE of the local decoded picture, the weight tC H super-resolution picture, V, D prediction after multiplying the error CE H, V, D and the weight of the blurred picture tB H, was set to V, the prediction error after multiplying D bE H, V, of the D, and selects a prediction image corresponding to the smallest prediction error.

これに対し、選択部16は、先に、選択されるべき予測画像の種類を判定し、当該種類の中で、予測画像を選択するようにしてもよい。予測画像の種類は、局部復号ピクチャK、超解像ピクチャC及びぼやけピクチャBのうちのいずれか一つ(3種類のうちのいずれか一つ)である。 On the other hand, the selection unit 16 may first determine the type of the predicted image to be selected, and select the predicted image among the types. The type of the predicted image is any one of the locally decoded picture K, the super-resolution picture C, and the blurred picture B (any one of the three types).

具体的には、選択部16は、パワー変動情報から算出したパワー変動量pH,V,Dを用いて、所定領域毎に、その水平パワー変動量pH、垂直パワー変動量pV及び対角パワー変動量pDの合計または平均をパワー変動量として求め、パワー変動量の閾値処理を行う。 More specifically, the selection unit 16, the power fluctuation amount p H calculated from the power variation information, V, using a D, and each predetermined area, the lateral power changing amount p H, vertical power variation p V and pairs find the total or average of the square power fluctuation amount p D as a power fluctuation amount, performs threshold processing of the power fluctuation amount.

選択部16は、パワー変動量が第1の閾値(予め設定された正の値)よりも大きいと判定した場合、予測画像の種類として超解像ピクチャCを判定する。パワー変動量が第1の閾値よりも大きい場合は、現在のピクチャのパワーが過去の画像よりも大きいため、現在の画像が過去の画像に比べ、鮮鋭化していると判断できるからである。この場合、選択部16は、前述と同様の処理にて、超解像ピクチャの重みtCH,V,Dを乗算した後の予測誤差CEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 When the selection unit 16 determines that the power fluctuation amount is larger than the first threshold value (a preset positive value), the selection unit 16 determines the super-resolution picture C as the type of the predicted image. This is because when the power fluctuation amount is larger than the first threshold value, the power of the current picture is larger than that of the past image, so that it can be determined that the current image is sharper than the past image. In this case, the selection unit 16 corresponds to the smallest prediction error among the prediction errors CE H, V, D after multiplying the super-resolution picture weights tC H, V, D by the same processing as described above. Select the predicted image to be used.

また、選択部16は、パワー変動量が第1の閾値と第2の閾値(予め設定された負の値)との間にあると判定した場合、予測画像の種類として局部復号ピクチャKを判定する。パワー変動量が第1の閾値と第2の閾値との間にある場合は、現在のピクチャのパワーと過去のピクチャのパワーとがほぼ同じであるため、現在の画像が過去の画像に比べ、ぼやけておらず、かつ鮮鋭化していないと判断できるからである。この場合、選択部16は、局部復号ピクチャKを予測画像として選択する。 Further, when the selection unit 16 determines that the power fluctuation amount is between the first threshold value and the second threshold value (a preset negative value), the selection unit 16 determines the locally decoded picture K as the type of the predicted image. To do. When the power fluctuation amount is between the first threshold value and the second threshold value, the power of the current picture and the power of the past picture are almost the same, so that the current image is compared with the past image. This is because it can be judged that the image is not blurred and is not sharpened. In this case, the selection unit 16 selects the locally decoded picture K as the predicted image.

また、選択部16はパワー変動量が第2の閾値よりも小さいと判定した場合、予測画像の種類としてぼやけピクチャBを判定する。パワー変動量が第2の閾値よりも小さい場合は、現在のピクチャのパワーが過去の画像よりも小さいため、現在の画像が過去の画像に比べ、ぼやけていると判断できるからである。この場合、選択部16は、前述と同様の処理にて、ぼやけピクチャの重みtBH,V,Dを乗算した後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 Further, when the selection unit 16 determines that the power fluctuation amount is smaller than the second threshold value, the selection unit 16 determines the blurred picture B as the type of the predicted image. This is because when the power fluctuation amount is smaller than the second threshold value, the power of the current picture is smaller than that of the past image, so that it can be determined that the current image is blurred as compared with the past image. In this case, the selection unit 16 performs the same processing as described above to perform the prediction corresponding to the smallest prediction error among the prediction errors BE H, V, D after multiplying the blur picture weights tB H, V, D. Select an image.

また、本発明の実施形態は、例えば、ピクチャ間で被写界深度内外に移動するオブジェクトを含む場合、オブジェクトが静止状態から動作状態に変化し、またはその逆の状態に変化した場合に適用がある。例えばカメラが突然パンまたはチルトの動作をした場合、これらの動作が停止した場合、画面内でオブジェクトが奥から手前へ移動した場合、この逆に移動した場合等に適用がある。 Further, the embodiment of the present invention is applicable, for example, when an object moving in and out of the depth of field between pictures is included, and when the object changes from a stationary state to an operating state and vice versa. is there. For example, it is applicable when the camera suddenly pans or tilts, when these operations stop, when the object moves from the back to the front on the screen, or vice versa.

尚、本発明の実施形態による動画像符号化装置1及び動画像復号装置2のハードウェア構成としては、通常のコンピュータを使用することができる。動画像符号化装置1及び動画像復号装置2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。 As the hardware configuration of the moving image coding device 1 and the moving image decoding device 2 according to the embodiment of the present invention, a normal computer can be used. The moving image coding device 1 and the moving image decoding device 2 are composed of a computer provided with a volatile storage medium such as a CPU and RAM, a non-volatile storage medium such as a ROM, and an interface.

動画像符号化装置1に備えた減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、インループフィルタ117、画面間予測部10、スイッチ119及びエントロピー符号化部120の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Subtraction unit 110, orthogonal conversion unit 111, quantization unit 112, inverse quantization unit 113, inverse orthogonal conversion unit 114, addition unit 115, in-screen prediction unit 116, in-loop filter 117, provided in the moving image coding device 1. Each function of the inter-screen prediction unit 10, the switch 119, and the entropy coding unit 120 is realized by causing the CPU to execute a program describing these functions.

また、動画像復号装置2に備えたエントロピー復号部50、逆量子化部51、逆直交変換部52、加算部53、画面内予測部54、インループフィルタ55、画面間予測部56及びスイッチ57も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Further, the entropy decoding unit 50, the inverse quantization unit 51, the inverse orthogonal conversion unit 52, the addition unit 53, the in-screen prediction unit 54, the in-loop filter 55, the inter-screen prediction unit 56, and the switch 57 provided in the moving image decoding device 2 are provided. Is also realized by causing the CPU to execute a program that describes these functions.

これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.

1,100 動画像符号化装置
2 動画像復号装置
10,56,118, 画面間予測部
14,63,121 画面間予測処理部
11,60 超解像処理部
12,61 ぼやけ処理部
13,62,122 フレームメモリ
15 周波数解析部
16 選択部
17,64 パラメータ処理部
20 復号ピクチャ予測部
21 超解像予測部
22 ぼやけ予測部
30 動き量算出部
31 パワー変動量算出部
32 重み算出部
33 予測画像選択部
50 エントロピー復号部
51,113 逆量子化部
52,114 逆直交変換部
53,115 加算部
54,116 画面内予測部
55,117 インループフィルタ
57,119 スイッチ
110 減算部
111 直交変換部
112 量子化部
120 エントロピー符号化部
K 局部復号ピクチャ
K’ 復号ピクチャ
C,CH,V,D,C’,CH,V,D’ 超解像ピクチャ
H,CH’ 水平超解像ピクチャ
V,CV’ 垂直超解像ピクチャ
D,CD’ 対角超解像ピクチャ
B,BH,V,D,B’,BH,V,D’ ぼやけピクチャ
H,BH’ 水平ぼやけピクチャ
V,BV’ 垂直ぼやけピクチャ
D,BD’ 対角ぼやけピクチャ
KY,KY’ 局部復号ピクチャの予測画像
CYH,V,D,CYH,V,D’ 超解像ピクチャの予測画像
BYH,V,D,BYH,V,D’ ぼやけピクチャの予測画像
KV 局部復号ピクチャの動きベクトル
CVH,V,D 超解像ピクチャの動きベクトル
BVH,V,D ぼやけピクチャの動きベクトル
KE 局部復号ピクチャの予測誤差
CEH,V,D 超解像ピクチャの予測誤差
BEH,V,D ぼやけピクチャの予測誤差
CVH,V,D-mH,V,D 超解像ピクチャの動き量
BVH,V,D-mH,V,D ぼやけピクチャの動き量
H,V,D パワー変動量
cpH,V,D,cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3 超解像ピクチャの強度情報
bpH,V,D,bpH1,V1,D1,bpH2,V2,D2,bpH3,V3,D3 ぼやけピクチャの強度情報
tCH,V,D,超解像ピクチャの重み
tBH,V,D,ぼやけピクチャの重み
1,100 Video coding device 2 Video decoding device 10, 56, 118, Inter-screen prediction unit 14, 63, 121 Inter-screen prediction processing unit 11, 60 Super-resolution processing unit 12, 61 Blur processing unit 13, 62 , 122 Frame memory 15 Frequency analysis unit 16 Selection unit 17, 64 Parameter processing unit 20 Decoding picture prediction unit 21 Super-resolution prediction unit 22 Blur prediction unit 30 Motion calculation unit 31 Power fluctuation calculation unit 32 Weight calculation unit 33 Prediction image Selection unit 50 Entropy decoding unit 51, 113 Inverse quantization unit 52, 114 Inverse orthogonal conversion unit 53, 115 Addition unit 54, 116 In-screen prediction unit 55, 117 In-loop filter 57, 119 Switch 110 Subtraction unit 111 Orthogonal conversion unit 112 quantization unit 120 entropy encoding unit K local decoded picture K 'decoded picture C, C H, V, D , C', C H, V, D ' super-resolution picture C H, C H' horizontal super picture C V, C V 'vertical super-resolution picture C D, C D' diagonal super picture B, B H, V, D , B ', B H, V, D' blurred picture B H, B H ' horizontal blur picture B V, B V 'vertical blur picture B D, B D' diagonal blurred picture KY, KY 'predicted image CY H of the local decoded picture, V, D, CY H, V, D' super picture Predicted image BY H, V, D , BY H, V, D' Predictive image of blurry picture KV Motion vector of locally decoded picture CV H, V, D Motion vector of super-resolution picture BV H, V, D Blurred picture Motion vector KE Local decoding picture prediction error CE H, V, D Super-resolution picture prediction error BE H, V, D Blurred picture prediction error CV H, V, D -m H, V, D Super-resolution Picture movement BV H, V, D -m H, V, D Blurred Picture movement pH H, V, D Power fluctuation cp H, V, D , cp H1, V1, D1 , cp H2, V2, D2 , cp H3, V3, D3 Super-resolution picture intensity information bp H, V, D , bp H1, V1, D1 , bp H2, V2, D2 , bp H3, V3, D3 Blurred picture intensity information tC H, V, D , super-resolution picture weight tB H, V, D , blur picture weight

Claims (9)

入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、
前記局部復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、
前記画面間予測部は、
前記局部復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、
現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記超解像処理部により生成された過去の前記複数の超解像ピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数の超解像ピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、
現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、
前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数の超解像ピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像のうちのいずれか一つを選択する選択部と、
を備えたことを特徴とする動画像符号化装置。
A residual image is generated by subtracting a predicted image from the input moving image, orthogonal conversion, quantization and entropy coding are performed on the residual image, a coded signal is generated and output, and the quantization is performed. The generated quantization index sequence is subjected to inverse quantization and inverse orthogonal conversion to generate a decoded residual image, and the predicted image is added to the decoded residual image to generate an added image, and the added image is generated. In a moving image coding device that generates a locally decoded picture, performs inter-screen prediction using the locally decoded picture, and generates the predicted image.
A plurality of super-resolution pictures are generated based on the locally decoded picture, and a predicted image of the locally decoded picture and a predicted image of the plurality of super-resolution pictures are generated for each predetermined area by the inter-screen prediction. An inter-screen prediction unit for selecting any one of these prediction images is provided.
The inter-screen prediction unit
A picture in which the locally decoded picture is subjected to super-resolution processing to emphasize the component in the high frequency band in the horizontal direction, a picture in which the component in the high frequency band in the vertical direction is emphasized, and a picture in which the component in the high frequency band in the diagonal direction is emphasized The super-resolution processing unit that generates the plurality of super-resolution pictures, and
The screen-to-screen prediction is performed using the current locally decoded picture as a reference picture and each of the past locally decoded picture and the past plurality of super-resolution pictures generated by the super-resolution processing unit as reference pictures. An inter-screen prediction processing unit that generates a prediction image and a motion vector of the locally decoded picture for each predetermined region and also generates a prediction image and a motion vector of the plurality of super-resolution pictures.
A frequency analysis unit that performs frequency analysis of the current locally decoded picture and the past locally decoded picture and generates power fluctuation information between the current locally decoded picture and the past locally decoded picture.
For each predetermined region, the motion vector of the power fluctuation information or the power fluctuation information generated by the frequency analysis unit, the motion vector of the locally decoded picture generated by the inter-screen prediction processing unit, and the plurality of super-resolutions. A selection unit that selects one of the predicted image of the locally decoded picture and the predicted image of the plurality of super-resolution pictures based on the motion vector of the picture.
A moving image encoding device characterized by being equipped with.
入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、
前記局部復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、
前記画面間予測部は、
前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、
現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数のぼやけピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、
現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、
前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する選択部と、
を備えたことを特徴とする動画像符号化装置。
A residual image is generated by subtracting a predicted image from the input moving image, orthogonal conversion, quantization and entropy coding are performed on the residual image, a coded signal is generated and output, and the quantization is performed. The generated quantization index sequence is subjected to inverse quantization and inverse orthogonal conversion to generate a decoded residual image, and the predicted image is added to the decoded residual image to generate an added image, and the added image is generated. In a moving image coding device that generates a locally decoded picture, performs inter-screen prediction using the locally decoded picture, and generates the predicted image.
A plurality of blurred pictures are generated based on the locally decoded picture, and a predicted image of the locally decoded picture and a predicted image of the plurality of blurred pictures are generated for each predetermined area by the inter-screen prediction, and these predictions are made. Equipped with an inter-screen prediction unit that selects any one of the images
The inter-screen prediction unit
The plurality of pictures in which the locally decoded picture is blurred to suppress the components in the high frequency band in the horizontal direction, the pictures in which the components in the high frequency band in the vertical direction are suppressed, and the pictures in which the components in the high frequency band in the diagonal direction are suppressed are obtained. Blurring processing part generated as a blurring picture of
The screen-to-screen prediction is performed using the current locally decoded picture as a reference picture and each of the past locally decoded picture and the past plurality of blurred pictures generated by the blur processing unit as reference pictures, and for each of the predetermined areas. In addition, an inter-screen prediction processing unit that generates a prediction image and a motion vector of the locally decoded picture and also generates a prediction image and a motion vector of the plurality of blurred pictures.
A frequency analysis unit that performs frequency analysis of the current locally decoded picture and the past locally decoded picture and generates power fluctuation information between the current locally decoded picture and the past locally decoded picture.
For each predetermined region, the motion vector of the power fluctuation information or the power fluctuation information generated by the frequency analysis unit, the motion vector of the locally decoded picture generated by the inter-screen prediction processing unit, and the plurality of blurred pictures. A selection unit that selects one of the predicted image of the locally decoded picture and the predicted image of the plurality of blurred pictures based on the motion vector.
A moving image encoding device characterized by being equipped with.
請求項1に記載の動画像符号化装置において、
前記局部復号ピクチャに基づいて、前記複数の超解像ピクチャ及び複数のぼやけピクチャを生成し、前記画面間予測により、前記所定領域毎に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、
前記画面間予測部は、さらに、
前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、
前記画面間予測処理部は、
現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ、前記超解像処理部により生成された過去の前記複数の超解像ピクチャ、及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトル、前記複数の超解像ピクチャの予測画像及び動きベクトル、並びに前記複数のぼやけピクチャの予測画像及び動きベクトルを生成し、
前記選択部は、
前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル、前記複数の超解像ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する、ことを特徴とする動画像符号化装置。
In the moving image coding apparatus according to claim 1,
Based on the locally decoded picture, the plurality of super-resolution pictures and the plurality of blurred pictures are generated, and the predicted image of the locally-decoded picture and the plurality of super-resolutions are generated for each predetermined region by the inter-screen prediction. A screen-to-screen prediction unit that generates a prediction image of a picture and a prediction image of the plurality of blurry pictures and selects any one of the prediction images is provided.
The inter-screen prediction unit further
The plurality of pictures in which the locally decoded picture is blurred to suppress the components in the high frequency band in the horizontal direction, the pictures in which the components in the high frequency band in the vertical direction are suppressed, and the pictures in which the components in the high frequency band in the diagonal direction are suppressed are obtained. Equipped with a blur processing unit that generates as a blur picture of
The inter-screen prediction processing unit
Using the current locally decoded picture as a reference picture, the past locally decoded picture, the past plurality of super-resolution pictures generated by the super-resolution processing unit, and the past said-mentioned generated by the blurring processing unit. The inter-screen prediction is performed using each of the plurality of blurred pictures as a reference picture, and the predicted image and motion vector of the locally decoded picture, the predicted image and motion vector of the plurality of super-resolution pictures, and the said Generates predicted images and motion vectors of multiple blurry pictures,
The selection unit
For each predetermined region, the power fluctuation information generated by the frequency analysis unit, the power fluctuation information, the motion vector of the locally decoded picture generated by the inter-screen prediction processing unit, and the plurality of super-resolutions. One of the predicted image of the locally decoded picture, the predicted image of the plurality of super-resolution pictures, and the predicted image of the plurality of blurred pictures based on the motion vector of the picture and the motion vector of the plurality of blurred pictures. A motion image encoding device characterized in that one is selected.
請求項1から3までのいずれか一項に記載の動画像符号化装置において、
前記周波数解析部は、
現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャについて、デシメーションを伴わない1階ウェーブレットパケット分解にて前記周波数解析を行い、現在の前記局部復号ピクチャの解析結果及び過去の前記局部復号ピクチャの解析結果に基づいて、周波数帯域毎かつ位相位置毎の前記パワー変動情報を生成する、ことを特徴とする動画像符号化装置。
In the moving image coding apparatus according to any one of claims 1 to 3,
The frequency analysis unit
The frequency analysis of the current locally decoded picture and the past locally decoded picture is performed by first-order wavelet packet decomposition without decimation, and the analysis result of the current locally decoded picture and the analysis of the past locally decoded picture are performed. A moving image coding device, characterized in that the power fluctuation information for each frequency band and each phase position is generated based on the result.
動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、
前記符号化信号に、局部復号ピクチャの予測画像及び複数の超解像ピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、
前記復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数の超解像ピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、
前記画面間予測部は、
前記復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、
前記パラメータに従って、前記復号ピクチャ及び前記超解像処理部により生成された前記複数の超解像ピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、
を備えたことを特徴とする動画像復号装置。
An encoded signal of a moving image is input, entropy decoding, inverse quantization, and inverse orthogonal conversion are performed on the encoded signal to generate a decoding residual image, and a predicted image is added to the decoded residual image and added. By generating a post-image and filtering the added image to generate a decoded picture, the original moving image is restored, inter-screen prediction is performed using the decoded picture, and the predicted image is generated. In the moving image decoding device
When the coded signal includes a parameter indicating the type of one predicted image selected from the predicted image of the locally decoded picture and the predicted image of a plurality of super-resolution pictures.
A plurality of super-resolution pictures are generated based on the decoded picture, and according to the inter-screen prediction, any one of the decoded picture and the plurality of super-resolution pictures is predicted according to the parameters for each predetermined area. Equipped with an inter-screen prediction unit that generates
The inter-screen prediction unit
The decoded picture is subjected to super-resolution processing to emphasize a picture in which a component in a high frequency band in the horizontal direction is emphasized, a picture in which a component in a high frequency band in a vertical direction is emphasized, and a picture in which a component in a high frequency band in a diagonal direction is emphasized. A super-resolution processing unit that generates multiple super-resolution pictures,
According to the parameters, the inter-screen prediction is performed using the decoded picture and any one of the plurality of super-resolution pictures generated by the super-resolution processing unit, and the prediction for each predetermined area is performed. Inter-screen prediction processing unit that generates images and
A moving image decoding device characterized by being equipped with.
動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、
前記符号化信号に、局部復号ピクチャの予測画像及び複数のぼやけピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、
前記復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、
前記画面間予測部は、
前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、
前記パラメータに従って、前記復号ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、
を備えたことを特徴とする動画像復号装置。
An encoded signal of a moving image is input, entropy decoding, inverse quantization, and inverse orthogonal conversion are performed on the encoded signal to generate a decoding residual image, and a predicted image is added to the decoded residual image and added. By generating a post-image and filtering the added image to generate a decoded picture, the original moving image is restored, inter-screen prediction is performed using the decoded picture, and the predicted image is generated. In the moving image decoding device
When the coded signal includes a parameter indicating the type of one predicted image selected from the predicted image of the locally decoded picture and the predicted image of a plurality of blurred pictures.
A screen that generates a plurality of blurred pictures based on the decoded picture, and generates a predicted image of any one of the decoded picture and the plurality of blurred pictures in accordance with the parameters for each predetermined area by the inter-screen prediction. Equipped with an interval prediction unit
The inter-screen prediction unit
A plurality of pictures in which the decoded picture is blurred to suppress the components in the high frequency band in the horizontal direction, the pictures in which the components in the high frequency band in the vertical direction are suppressed, and the pictures in which the components in the high frequency band in the diagonal direction are suppressed are obtained. The blur processing unit generated as a blur picture and
According to the parameters, the inter-screen prediction is performed using the decoded picture and any one of the plurality of blur pictures generated by the blur processing unit, and the predicted image for each predetermined region is generated. Inter-screen prediction processing unit and
A moving image decoding device characterized by being equipped with.
請求項5に記載の動画像復号装置において、
前記符号化信号に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び複数のぼやけピクチャから選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、
前記復号ピクチャに基づいて、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャを生成し、前記画面間予測により、前記所定領域毎に、前記パラメータに従って前記復号ピクチャ、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、
前記画面間予測部は、さらに、
前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、
前記画面間予測処理部は、
前記パラメータに従って、前記復号ピクチャ、前記超解像処理部により生成された前記複数の超解像ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する、ことを特徴とする動画像復号装置。
In the moving image decoding apparatus according to claim 5.
When the coded signal includes a parameter indicating the type of the predicted image selected from the predicted image of the locally decoded picture, the predicted image of the plurality of super-resolution pictures, and the plurality of blurred pictures.
Based on the decoded picture, the plurality of super-resolution pictures and the plurality of blurred pictures are generated, and according to the inter-screen prediction, the decoded picture and the plurality of super-resolution pictures are generated for each predetermined region according to the parameters. And an inter-screen prediction unit that generates a prediction image of any one of the plurality of blurred pictures.
The inter-screen prediction unit further
A plurality of pictures in which the decoded picture is blurred to suppress the components in the high frequency band in the horizontal direction, the pictures in which the components in the high frequency band in the vertical direction are suppressed, and the pictures in which the components in the high frequency band in the diagonal direction are suppressed are obtained. Equipped with a blur processing unit that generates as a blur picture
The inter-screen prediction processing unit
According to the parameters, any one of the decoded picture, the plurality of super-resolution pictures generated by the super-resolution processing unit, and the plurality of blurring pictures generated by the blurring processing unit is used. A moving image decoding device characterized in that inter-screen prediction is performed and the predicted image for each predetermined area is generated.
コンピュータを、請求項1から4までのいずれか一項に記載の動画像符号化装置として機能させるためのプログラム。 A program for causing a computer to function as the moving image coding device according to any one of claims 1 to 4. コンピュータを、請求項5から7までのいずれか一項に記載の動画像復号装置として機能させるためのプログラム。 A program for causing a computer to function as the moving image decoding device according to any one of claims 5 to 7.
JP2019046520A 2019-03-13 2019-03-13 Video encoding device, video decoding device and program Active JP7252016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019046520A JP7252016B2 (en) 2019-03-13 2019-03-13 Video encoding device, video decoding device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046520A JP7252016B2 (en) 2019-03-13 2019-03-13 Video encoding device, video decoding device and program

Publications (2)

Publication Number Publication Date
JP2020150422A true JP2020150422A (en) 2020-09-17
JP7252016B2 JP7252016B2 (en) 2023-04-04

Family

ID=72432271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046520A Active JP7252016B2 (en) 2019-03-13 2019-03-13 Video encoding device, video decoding device and program

Country Status (1)

Country Link
JP (1) JP7252016B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7461165B2 (en) 2020-02-26 2024-04-03 日本放送協会 Video encoding device, video decoding device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266778A (en) * 2003-03-04 2004-09-24 Matsushita Electric Ind Co Ltd Motion vector detecting apparatus
JP2016514378A (en) * 2013-01-30 2016-05-19 インテル・コーポレーション Content-adaptive interactive or functional predictive multi-pass pictures for highly efficient next-generation video coding
US20180242011A1 (en) * 2009-08-21 2018-08-23 Sk Telecom., Ltd Method and apparatus for encoding/decoding images using adaptive motion vector resolution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266778A (en) * 2003-03-04 2004-09-24 Matsushita Electric Ind Co Ltd Motion vector detecting apparatus
US20180242011A1 (en) * 2009-08-21 2018-08-23 Sk Telecom., Ltd Method and apparatus for encoding/decoding images using adaptive motion vector resolution
JP2016514378A (en) * 2013-01-30 2016-05-19 インテル・コーポレーション Content-adaptive interactive or functional predictive multi-pass pictures for highly efficient next-generation video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LAI, POLIN ET AL.: "Adaptive Reference Filtering for MVC", JVT-W065, JPN6023007191, 23 April 2007 (2007-04-23), pages 1 - 11, ISSN: 0004999130 *
松尾康孝,ほか2名: "超解像・ぼやけピクチャを用いた画面間予測による符号化効率改善の検討", PROC. PCSJ/IMPS2018, vol. P-1-02, JPN6023007190, 19 November 2018 (2018-11-19), JP, pages 20 - 21, ISSN: 0004999129 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7461165B2 (en) 2020-02-26 2024-04-03 日本放送協会 Video encoding device, video decoding device, and program

Also Published As

Publication number Publication date
JP7252016B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
KR102075061B1 (en) Apparatus and method for image coding and decoding
JP6902937B2 (en) Video decoding method and video decoding device
KR101901355B1 (en) Method and apparatus for performing graph-based prediction using optimazation function
TWI681670B (en) Method, apparatus and system for processing picture
KR101484606B1 (en) Methods and apparatus for adaptive reference filtering
KR20110112176A (en) Method and apparatus for interpolation based on transform and inverse transform
US9641847B2 (en) Method and device for classifying samples of an image
US10257541B2 (en) Method and apparatus for encoding and decoding video signal using adaptive sampling
KR102059842B1 (en) Method and apparatus for performing graph-based transformation using generalized graph parameters
US11876958B2 (en) Video picture component prediction method and apparatus, and computer storage medium
JP2018107692A (en) Moving image decoder, moving image decoding method, moving image encoder, moving image encoding method and computer readable recording medium
JP7252016B2 (en) Video encoding device, video decoding device and program
US11202082B2 (en) Image processing apparatus and method
EP4258667A1 (en) Video codec using block-based deep learning model
WO2024141694A1 (en) A method, an apparatus and a computer program product for image and video processing
KR20240013045A (en) Video In-loop Filter Adaptive to Various Noise and Characteristics
JP2020156044A (en) Video image encoding device, video image decoding device and program
US20200329232A1 (en) Method and device for encoding or decoding video signal by using correlation of respective frequency components in original block and prediction block
WO2013098937A1 (en) Moving picture encoding method, moving picture decoding method, moving picture encoding device and moving picture decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7252016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150