JP7252016B2 - Video encoding device, video decoding device and program - Google Patents

Video encoding device, video decoding device and program Download PDF

Info

Publication number
JP7252016B2
JP7252016B2 JP2019046520A JP2019046520A JP7252016B2 JP 7252016 B2 JP7252016 B2 JP 7252016B2 JP 2019046520 A JP2019046520 A JP 2019046520A JP 2019046520 A JP2019046520 A JP 2019046520A JP 7252016 B2 JP7252016 B2 JP 7252016B2
Authority
JP
Japan
Prior art keywords
picture
super
inter
pictures
decoded picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019046520A
Other languages
Japanese (ja)
Other versions
JP2020150422A (en
Inventor
康孝 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2019046520A priority Critical patent/JP7252016B2/en
Publication of JP2020150422A publication Critical patent/JP2020150422A/en
Application granted granted Critical
Publication of JP7252016B2 publication Critical patent/JP7252016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像を符号化する動画像符号化装置、符号化信号を復号する動画像復号装置及びプログラムに関する。 The present invention relates to a moving image encoding device that encodes a moving image, a moving image decoding device that decodes an encoded signal, and a program.

従来、解像度の高い4Kまたは8Kの動画像を対象とした動画圧縮方式の標準規格として、H.265/HEVC(High Efficiency Video Coding)が知られている(例えば非特許文献1を参照)。このH.265/HEVCの規格は、符号化されたフレームを用いて動きを予測し、予測残差の信号を直交変換して符号化する、動き補償及び直交変換の技術を基本としている。 Conventionally, H.265/HEVC (High Efficiency Video Coding) is known as a standard of a moving image compression method for high-resolution 4K or 8K moving images (see, for example, Non-Patent Document 1). The H.265/HEVC standard is based on motion compensation and orthogonal transform technology that predicts motion using encoded frames, orthogonally transforms prediction residual signals, and encodes them.

図14は、従来の動画像符号化装置の構成例を示すブロック図であり、H.265/HEVCの標準規格に従った符号化側の構成を示している。この動画像符号化装置100は、減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、インループフィルタ117、画面間予測部118、スイッチ119及びエントロピー符号化部120を備えている。画面間予測部118は、画面間予測処理部121及びフレームメモリ122を備えている。 FIG. 14 is a block diagram showing a configuration example of a conventional video encoding device, showing the configuration on the encoding side according to the H.265/HEVC standard. This video encoding device 100 includes a subtraction unit 110, an orthogonal transformation unit 111, a quantization unit 112, an inverse quantization unit 113, an inverse orthogonal transformation unit 114, an addition unit 115, an intra-screen prediction unit 116, an in-loop filter 117, It has an inter-frame prediction unit 118 , a switch 119 and an entropy coding unit 120 . The inter-screen prediction unit 118 includes an inter-screen prediction processing unit 121 and a frame memory 122 .

動画像符号化装置100は、入力動画像に対し、1フレームのピクチャ毎に符号化処理を行い、符号化信号を生成して出力する装置である。 The video encoding device 100 is a device that performs encoding processing on an input video for each picture of one frame, and generates and outputs an encoded signal.

入力動画像のピクチャは、減算部110により、画面内予測部116または画面間予測部118により生成された予測画像との間で減算処理が施される。これにより、残差画像が生成される。 A picture of the input moving image is subtracted from the prediction image generated by the intra prediction section 116 or the inter prediction section 118 by the subtraction section 110 . This produces a residual image.

残差画像は、直交変換部111による直交変換処理、量子化部112による量子化処理、及びエントロピー符号化部120によりエントロピー符号化が施され、符号化信号として出力される。 The residual image is subjected to orthogonal transformation processing by the orthogonal transformation unit 111, quantization processing by the quantization unit 112, and entropy encoding by the entropy encoding unit 120, and is output as an encoded signal.

一方、量子化部112により量子化処理が施された量子化インデックス列は、逆量子化部113による逆量子化処理、逆直交変換部114による逆直交変換処理が施される。これにより、復号残差画像が生成される。 On the other hand, the quantization index sequence quantized by the quantization section 112 is subjected to inverse quantization processing by the inverse quantization section 113 and inverse orthogonal transformation processing by the inverse orthogonal transformation section 114 . A decoded residual image is thereby generated.

復号残差画像は、加算部115により、予測画像との間で加算処理が施される。加算部115による加算結果の画像は、画面内予測部116による画面内予測処理が施される。また、加算結果の画像は、インループフィルタ117によるフィルタ処理が施され、局部復号ピクチャとして画面間予測部118のフレームメモリ122に格納される。 Addition processing is performed between the decoded residual image and the predicted image by the addition unit 115 . The image resulting from the addition by the addition unit 115 is subjected to intra-screen prediction processing by the intra-screen prediction unit 116 . The image resulting from the addition is filtered by the in-loop filter 117 and stored in the frame memory 122 of the inter prediction unit 118 as a locally decoded picture.

フレームメモリ122に格納された局部復号ピクチャは、画面間予測処理部121により過去の局部復号ピクチャとして読み出される。そして、現在の局部復号ピクチャ(入力動画像のピクチャ)を基準ピクチャとし、過去の局部復号ピクチャを参照ピクチャとして、画面間予測処理が行われる。 The locally decoded picture stored in the frame memory 122 is read as a past locally decoded picture by the inter prediction processing unit 121 . Then, inter prediction processing is performed using the current locally decoded picture (input video picture) as a reference picture and the past locally decoded picture as a reference picture.

画面内予測部116による画面内予測処理にて生成された画像、及び画面間予測処理部121による画面間予測処理にて生成された画像のうち、いずれか一方がスイッチ119により選択され、予測画像として減算部110へ入力される。 One of the image generated by the intra-screen prediction processing by the intra-screen prediction unit 116 and the image generated by the inter-screen prediction processing by the inter-screen prediction processing unit 121 is selected by the switch 119, and the predicted image is is input to the subtraction unit 110 as .

このような動き補償及び直交変換を基本とした動画像符号化技術において、符号化効率を向上させるための技術が提案されている。例えば、色差信号の符号化効率を向上させるために、複数フレームによる超解像処理を適用して色差補間を行い、色差間引き画像をYCbCr4:4:4に変換する技術がある(例えば、特許文献1を参照)。 Techniques for improving coding efficiency have been proposed in moving image coding techniques based on such motion compensation and orthogonal transform. For example, in order to improve the coding efficiency of color difference signals, there is a technique of performing color difference interpolation by applying super-resolution processing using multiple frames and converting a color difference thinned image to YCbCr4:4:4 (see, for example, Patent Document 1).

また、動画像の符号化効率を向上させるために、画像を縮小してから符号化及び伝送を行い、復号後に超解像復元し、また、画像の複雑度に応じて最適な折り返し周波数を設定して伝送することで、超解像画質を高める技術もある(例えば、特許文献2を参照)。 In addition, in order to improve the coding efficiency of moving images, the image is shrunk before being encoded and transmitted, super-resolution restoration is performed after decoding, and the optimal folding frequency is set according to the complexity of the image. There is also a technique for improving the super-resolution image quality by transmitting as such (see Patent Document 2, for example).

特許第6152642号公報Japanese Patent No. 6152642 特許第6344800号公報Japanese Patent No. 6344800

大久保榮、「インプレス標準教科書シリーズ H.265/HEVC教科書」、インプレスジャパンSakae Okubo, "Impress Standard Textbook Series H.265/HEVC Textbook", Impress Japan

従来の動き補償及び直交変換を基本とした動画像符号化技術では、画面間予測処理により生成される予測画像は、例えばブロックマッチング法にて予測誤差が最小となる画像が選択される。これにより、符号化効率を向上させることができ、復号側において客観的に高画質な動画像を得ることができる。 In the conventional moving image coding technology based on motion compensation and orthogonal transformation, an image with a minimum prediction error is selected by block matching, for example, as a predicted image generated by inter-frame prediction processing. As a result, the encoding efficiency can be improved, and a moving image with objectively high image quality can be obtained on the decoding side.

しかしながら、動画像のピクチャ間におけるオブジェクトの動きに伴って、領域毎にぼやけまたは鮮鋭化が起こる場合がある。従来の動画像符号化技術では、例えば、ぼやけまたは鮮鋭化が起こる動画像であっても、通常の局部復号画像を用いて予測画像を生成する。 However, region-to-region blurring or sharpening may occur as objects move between pictures of the moving image. Conventional video coding techniques, for example, generate predicted images using normal locally decoded images, even for moving images that are blurred or sharpened.

このため、ぼやけまたは鮮鋭化が起こる動画像と、通常の動画像(ぼやけまたは鮮鋭化が起こらない動画像)とを区別した画面間予測処理を行うことができない。また、水平方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像と、垂直方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像とを区別した画面間予測を行うことができない。 For this reason, it is not possible to perform inter-frame prediction processing that distinguishes moving images that are blurry or sharpened from normal moving images (moving images that are not blurred or sharpened). In addition, it is not possible to perform inter-frame prediction by distinguishing between a moving image that blurs or sharpens due to horizontal movement and a moving image that blurs or sharpens due to vertical movement.

このように、従来の動画像符号化技術では、客観的に高画質な動画像を得ることができるが、必ずしも主観的に高画質な動画像を得ることができるとは限らないという問題があった。 As described above, the conventional moving image coding technology can objectively obtain a high-quality moving image, but there is a problem that it is not always possible to obtain a subjectively high-quality moving image. rice field.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、主観的に高画質な動画像を得ることが可能な動画像符号化装置、動画像復号装置及びプログラムを提供することにある。 SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to achieve subjectively high image quality even when blurring or sharpening of objects occurs in each region between pictures of a moving image. It is an object of the present invention to provide a moving image encoding device, a moving image decoding device, and a program capable of obtaining a dynamic image.

前記課題を解決するために、請求項1の動画像符号化装置は、入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、前記局部復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、前記画面間予測部が、前記局部復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記超解像処理部により生成された過去の前記複数の超解像ピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数の超解像ピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数の超解像ピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像のうちのいずれか一つを選択する選択部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems, the moving image coding apparatus of claim 1 subtracts a predicted image from an input moving image to generate a residual image, and performs orthogonal transformation, quantization, and entropy coding on the residual image. generating and outputting a coded signal, performing inverse quantization and inverse orthogonal transformation on the quantization index sequence generated by the quantization, generating a decoded residual image, and generating the decoded residual image; generates a post-addition image by adding the predicted image to , performs filtering on the post-addition image to generate a locally decoded picture, performs inter prediction using the locally decoded picture, and generates the predicted image generating a plurality of super-resolution pictures based on the locally decoded picture, and predicting the locally decoded picture and the plurality of super-resolution pictures for each predetermined region by the inter-picture prediction; an inter-picture prediction unit that generates prediction images of pictures and selects one of the prediction images, the inter-picture prediction unit performs super-resolution processing on the locally decoded picture, Super-resolution for generating a picture in which a directional high-frequency band component is emphasized, a picture in which a vertical high-frequency band component is emphasized, and a picture in which a diagonal high-frequency band component is emphasized, as the plurality of super-resolution pictures. and a processing unit, using the current locally decoded picture as a reference picture, and using the past local decoded picture and each of the plurality of past super-resolution pictures generated by the super-resolution processing unit as reference pictures, and An inter-screen prediction processing unit that performs prediction, generates a predicted image and a motion vector of the locally decoded picture for each of the predetermined regions, and generates a predicted image and a motion vector of the plurality of super-resolution pictures; a frequency analysis unit that performs frequency analysis on the locally decoded picture and the past locally decoded picture and generates power fluctuation information between the current locally decoded picture and the past locally decoded picture; , the power fluctuation information generated by the frequency analysis unit, or the power fluctuation information and the motion vector of the locally decoded picture and the motion vector of the plurality of super-resolution pictures generated by the inter prediction processing unit and a selection unit that selects one of the prediction image of the locally decoded picture and the prediction images of the plurality of super-resolution pictures based on the prediction image.

また、請求項2の動画像符号化装置は、入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、前記局部復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、前記画面間予測部が、前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数のぼやけピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する選択部と、を備えたことを特徴とする。 Further, the moving image coding apparatus of claim 2 subtracts a predicted image from an input moving image to generate a residual image, performs orthogonal transformation, quantization, and entropy coding on the residual image, and encodes the residual image. Generate and output a signal, perform inverse quantization and inverse orthogonal transformation on the quantization index sequence generated by the quantization, generate a decoded residual image, and add the predicted image to the decoded residual image. a video coding apparatus for generating an image after addition, performing filtering on the image after addition to generate a locally decoded picture, performing inter-picture prediction using the locally decoded picture, and generating the predicted image generating a plurality of blurred pictures based on the locally decoded picture; generating a predicted image of the locally decoded picture and a predicted image of the plurality of blurred pictures for each predetermined region by the inter prediction; An inter-picture prediction unit that selects one of the predicted images, the inter-picture prediction unit performs blurring processing on the locally decoded picture, suppresses horizontal high-frequency band components, a blur processing unit that generates, as the plurality of blurry pictures, a picture in which a high-frequency band component in a direction is suppressed and a picture in which a high-frequency band component in a diagonal direction is suppressed; and the plurality of past blurred pictures generated by the blur processing unit are used as reference pictures to perform the inter-frame prediction, and for each predetermined region, the predicted image and motion vector of the locally decoded picture are obtained. is generated, and an inter-picture prediction processing unit that generates predicted images and motion vectors of the plurality of blurred pictures, performs frequency analysis of the current locally decoded picture and the past locally decoded picture, and performs the current local decoding a frequency analysis unit that generates power fluctuation information between a picture and the previous locally decoded picture; and for each of the predetermined regions, the power fluctuation information generated by the frequency analysis unit, or the power fluctuation information and the one of a predicted image of the locally decoded picture and a predicted image of the plurality of blurred pictures based on the motion vector of the locally decoded picture and the motion vectors of the plurality of blurred pictures generated by an inter prediction processing unit; and a selection unit for selecting one.

また、請求項3の動画像符号化装置は、請求項1に記載の動画像符号化装置において、前記局部復号ピクチャに基づいて、前記複数の超解像ピクチャ及び複数のぼやけピクチャを生成し、画面間予測により、前記所定領域毎に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、前記画面間予測部が、さらに、前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、前記画面間予測処理部が、現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ、前記超解像処理部により生成された過去の前記複数の超解像ピクチャ、及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトル、前記複数の超解像ピクチャの予測画像及び動きベクトル、並びに前記複数のぼやけピクチャの予測画像及び動きベクトルを生成し、前記選択部が、前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル、前記複数の超解像ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する、ことを特徴とする。 Further, the video encoding device according to claim 3 is the video encoding device according to claim 1, wherein the plurality of super-resolution pictures and the plurality of blurred pictures are generated based on the locally decoded picture, By inter-frame prediction, for each of the predetermined regions, a predicted image of the locally decoded picture, a predicted image of the plurality of super-resolution pictures, and a predicted image of the plurality of blurred pictures are generated, and one of these predicted images is generated. An inter-picture prediction unit that selects any one of them, wherein the inter-picture prediction unit further applies blurring processing to the locally decoded picture, a picture in which horizontal high-frequency band components are suppressed, and a vertical high-frequency band and a picture with suppressed high-frequency band components in the diagonal direction as the plurality of blurred pictures, wherein the inter-prediction processing unit converts the current locally decoded picture into As a reference picture, each of the past locally decoded picture, the plurality of past super-resolution pictures generated by the super-resolution processing unit, and the plurality of past blurry pictures generated by the blurring processing unit The inter-prediction is performed as a reference picture, and for each of the predetermined regions, the predicted image and motion vector of the locally decoded picture, the predicted image and motion vector of the plurality of super-resolution pictures, and the predicted image of the plurality of blurred pictures. and a motion vector, and the selection unit selects the power fluctuation information generated by the frequency analysis unit for each predetermined region, or the power fluctuation information and the local region generated by the inter-screen prediction processing unit Based on the motion vector of the decoded picture, the motion vector of the plurality of super-resolution pictures, and the motion vector of the plurality of blurred pictures, the prediction image of the locally decoded picture, the prediction image of the plurality of super-resolution pictures, and the plurality of and selecting any one of the predicted images of the blurred pictures of the .

また、請求項4の動画像符号化装置は、請求項1から3までのいずれか一項に記載の動画像符号化装置において、前記周波数解析部が、現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャについて、デシメーションを伴わない1階ウェーブレットパケット分解にて前記周波数解析を行い、現在の前記局部復号ピクチャの解析結果及び過去の前記局部復号ピクチャの解析結果に基づいて、周波数帯域毎かつ位相位置毎の前記パワー変動情報を生成する、ことを特徴とする。 Further, the moving picture coding apparatus according to claim 4 is the moving picture coding apparatus according to any one of claims 1 to 3, wherein the frequency analysis unit uses the current locally decoded picture and the past For the locally decoded picture, the frequency analysis is performed by first-order wavelet packet decomposition without decimation, and based on the analysis result of the current locally decoded picture and the analysis result of the past locally decoded picture, each frequency band and phase It is characterized by generating the power fluctuation information for each position.

さらに、請求項5の動画像復号装置は、動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、前記符号化信号に、局部復号ピクチャの予測画像及び複数の超解像ピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、前記復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数の超解像ピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、前記画面間予測部が、前記復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、前記パラメータに従って、前記復号ピクチャ及び前記超解像処理部により生成された前記複数の超解像ピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、を備えたことを特徴とする。 Further, the moving image decoding apparatus according to claim 5 receives a coded signal of a moving image, performs entropy decoding, inverse quantization, and inverse orthogonal transform on the coded signal, generates a decoded residual image, adding a predicted image to a decoded residual image to generate a post-addition image, performing filtering on the post-addition image to generate a decoded picture, thereby restoring the original moving image, and using the decoded picture; In a video decoding device that performs inter-picture prediction and generates the predicted image, the encoded signal includes one predicted image selected from a predicted image of a locally decoded picture and a plurality of predicted images of super-resolution pictures. When a parameter indicating a type is included, a plurality of super-resolution pictures are generated based on the decoded picture, and the inter-prediction is performed to generate the decoded picture and the plurality of super-resolution pictures for each predetermined region according to the parameter. An inter-picture prediction unit for generating a predicted image of any one of the resolution pictures, wherein the inter-picture prediction unit performs super-resolution processing on the decoded picture to emphasize horizontal high-frequency band components. A super-resolution processing unit that generates a picture, a picture in which vertical high-frequency band components are emphasized, and a picture in which diagonal high-frequency band components are emphasized, as the plurality of super-resolution pictures; A screen for performing the inter-screen prediction using a decoded picture and one of the plurality of super-resolution pictures generated by the super-resolution processing unit to generate the predicted image for each of the predetermined regions. and an inter-prediction processing unit.

また、請求項6の動画像復号装置は、動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、前記符号化信号に、局部復号ピクチャの予測画像及び複数のぼやけピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、前記復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、前記画面間予測部が、前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、前記パラメータに従って、前記復号ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、を備えたことを特徴とする。 Further, the moving image decoding apparatus according to claim 6 receives a coded signal of a moving image, performs entropy decoding, inverse quantization, and inverse orthogonal transform on the coded signal to generate a decoded residual image, adding a predicted image to a decoded residual image to generate a post-addition image, performing filtering on the post-addition image to generate a decoded picture, thereby restoring the original moving image, and using the decoded picture; In a moving picture decoding device that performs inter-picture prediction by using the coded signal to generate the predicted picture, the type of one of the predicted pictures selected from the predicted picture of a locally decoded picture and the predicted picture of a plurality of blurry pictures is included in the encoded signal. generating a plurality of blurred pictures based on the decoded picture, and generating a plurality of blurred pictures based on the decoded picture for each predetermined region according to the parameter, among the decoded picture and the plurality of blurred pictures, by the inter prediction An inter-prediction unit that generates one of the predicted images, the inter-prediction unit performs blur processing on the decoded picture, suppresses horizontal high-frequency band components, vertical high-frequency band a blur processing unit that generates, as the plurality of blurred pictures, pictures with suppressed components and pictures with suppressed high-frequency band components in a diagonal direction; an inter-picture prediction processing unit that performs the inter-picture prediction using any one of a plurality of blurred pictures and generates the predicted image for each of the predetermined regions.

また、請求項7の動画像復号装置は、請求項5に記載の動画像復号装置において、前記符号化信号に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び複数のぼやけピクチャから選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、前記復号ピクチャに基づいて、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャを生成し、前記画面間予測により、前記所定領域毎に、前記パラメータに従って前記復号ピクチャ、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、前記画面間予測部が、さらに、前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、前記画面間予測処理部が、前記パラメータに従って、前記復号ピクチャ、前記超解像処理部により生成された前記複数の超解像ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する、ことを特徴とする。 Further, the moving image decoding device according to claim 7 is the moving image decoding device according to claim 5, wherein the encoded signal includes a predicted image of the locally decoded picture, a predicted image of the plurality of super-resolution pictures, and a plurality of super-resolution pictures. the plurality of super-resolution pictures and the plurality of blurred pictures are generated based on the decoded picture, and the screen an inter prediction unit that generates a predicted image of any one of the decoded picture, the plurality of super-resolution pictures, and the plurality of blurred pictures according to the parameter for each of the predetermined regions by inter prediction; The inter-frame prediction unit further performs blurring processing on the decoded picture, a picture with suppressed high-frequency band components in the horizontal direction, a picture with suppressed high-frequency band components in the vertical direction, and a high-frequency band component in the diagonal direction. a blur processing unit that generates the suppressed pictures as the plurality of blurred pictures, and the inter-prediction processing unit generates the decoded picture and the plurality of super-resolutions generated by the super-resolution processing unit according to the parameters; The inter prediction is performed using an image picture and any one of the plurality of blurred pictures generated by the blur processing unit to generate the predicted image for each of the predetermined regions. do.

さらに、請求項8のプログラムは、コンピュータを、請求項1から4までのいずれか一項に記載の動画像符号化装置として機能させることを特徴とする。 Further, the program according to claim 8 causes a computer to function as the moving image encoding device according to any one of claims 1 to 4.

また、請求項9のプログラムは、コンピュータを、請求項5から7までのいずれか一項に記載の動画像復号装置として機能させることを特徴とする。 A program according to claim 9 causes a computer to function as the moving image decoding device according to any one of claims 5 to 7.

以上のように、本発明によれば、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、主観的に高画質な動画像を得ることが可能となる。 As described above, according to the present invention, it is possible to obtain subjectively high-quality moving images even when objects are blurred or sharpened in each area between pictures of the moving images.

本発明の実施形態による動画像符号化装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a video encoding device according to an embodiment of the present invention; FIG. 動画像符号化装置に備えた画面間予測部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the inter-screen prediction part with which the video encoding apparatus was equipped. 逆直交変換部から加算部及びインループフィルタを経て画面間予測部までの処理の流れを説明する図である。It is a figure explaining the flow of a process from an inverse orthogonal transformation part to an inter-screen prediction part via an addition part and an in-loop filter. 超解像処理部の処理例を説明する図である。It is a figure explaining the example of a process of a super-resolution process part. ぼやけ処理部の処理例を説明する図である。It is a figure explaining the example of a process of a blur process part. 画面間予測処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an inter-screen prediction process part. 周波数解析部の処理例を説明する図である。It is a figure explaining the example of a process of a frequency-analysis part. 選択部の構成例を示すブロック図である。4 is a block diagram showing a configuration example of a selection unit; FIG. 選択部の処理例を示すフローチャートである。8 is a flow chart showing a processing example of a selection unit; 動き量算出部により算出される水平超解像ピクチャの動き量CVH-mH,V,Dの例を説明する図である。FIG. 10 is a diagram illustrating an example of motion amounts CV H −m H, V, and D of a horizontal super-resolution picture calculated by a motion amount calculator; パワー変動量算出部により算出されるパワー変動量pH,V,Dの例を説明する図である。FIG. 5 is a diagram for explaining an example of power fluctuation amounts p H, V, and D calculated by a power fluctuation amount calculator; 本発明の実施形態による動画像復号装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a video decoding device according to an embodiment of the present invention; FIG. 動画像復号装置に備えた画面間予測部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the inter-frame prediction part with which the video decoding apparatus was equipped. 従来の動画像符号化装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a conventional video encoding device; FIG.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、動き補償及び直交変換を基本とした動画像符号化技術において、画面間予測処理に用いる参照ピクチャとして、局部復号ピクチャKに加え、複数の超解像ピクチャCまたは/及び複数のぼやけピクチャBを生成し、ピクチャのパワー変動量、動き量等を考慮して、領域単位で最適な予測画像を選択することを特徴とする。 EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing this invention is demonstrated in detail using drawing. In the video coding technology based on motion compensation and orthogonal transform, the present invention uses a locally decoded picture K as a reference picture for inter-picture prediction processing, as well as a plurality of super-resolution pictures C and/or a plurality of blurring pictures. It is characterized by generating a picture B and selecting an optimum prediction image for each area in consideration of the amount of power fluctuation, the amount of motion, etc. of the picture.

これにより、動画像のピクチャ間で過去のピクチャから現在のピクチャへ向けてオブジェクトのぼやけが起こる場合、領域単位でぼやけピクチャBの予測画像が選択される。また、オブジェクトの鮮鋭化が起こる場合、領域単位で超解像ピクチャCが選択される。このため、入力動画像と予測画像との間の残差を小さくすることができる。 As a result, when blurring of an object occurs between pictures of the moving image from the past picture to the current picture, the prediction image of the blurry picture B is selected for each region. Also, when object sharpening occurs, a super-resolution picture C is selected on a region-by-region basis. Therefore, it is possible to reduce the residual error between the input moving image and the predicted image.

また、復号側においても、元の動画像にオブジェクトのぼやけが起こる場合、ぼやけピクチャB’の予測画像が生成され、ぼやけが起こる動画像を復元することができる。さらに、元の動画像にオブジェクトの鮮鋭化が起こる場合、超解像ピクチャC’が生成され、鮮鋭化が起こる動画像を復元することができる。 Also, on the decoding side, when an object blur occurs in the original moving image, a predicted image of the blurred picture B' is generated, and the blurred moving image can be restored. Furthermore, if object sharpening occurs in the original video, a super-resolution picture C' can be generated to recover the video in which the sharpening occurs.

したがって、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、画面間予測効率を向上させることができると共に、主観的に高画質な動画像を得ることが可能となる。 Therefore, it is possible to improve the efficiency of inter-picture prediction and obtain subjectively high-quality moving images even when objects are blurred or sharpened in each area between pictures of moving images. becomes.

〔動画像符号化装置〕
まず、本発明の実施形態による動画像符号化装置について説明する。図1は、本発明の実施形態による動画像符号化装置の構成例を示すブロック図である。この動画像符号化装置1は、減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、インループフィルタ117、画面間予測部10、スイッチ119及びエントロピー符号化部120を備えている。尚、図1には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Video encoding device]
First, a video encoding device according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a video encoding device according to an embodiment of the present invention. This video encoding device 1 includes a subtraction unit 110, an orthogonal transformation unit 111, a quantization unit 112, an inverse quantization unit 113, an inverse orthogonal transformation unit 114, an addition unit 115, an intra-screen prediction unit 116, an in-loop filter 117, It has an inter-frame prediction unit 10 , a switch 119 and an entropy coding unit 120 . Note that FIG. 1 shows only components directly related to the present invention, and components not directly related are omitted.

減算部110は、入力動画像のピクチャ(Iピクチャ、Pピクチャ及びBピクチャ)を入力すると共に、スイッチ119から当該ピクチャの予測画像を入力する。そして、減算部110は、入力動画像のピクチャから予測画像を減算し、減算結果の残差画像を生成し、残差画像を直交変換部111に出力する。 The subtraction unit 110 receives pictures (I picture, P picture, and B picture) of the input moving picture, and also receives a predicted picture of the picture from the switch 119 . The subtraction unit 110 then subtracts the prediction image from the picture of the input moving image, generates a residual image as a result of the subtraction, and outputs the residual image to the orthogonal transformation unit 111 .

直交変換部111は、減算部110から残差画像を入力し、残差画像に対し直交変換を行い、変換係数列を生成する。そして、直交変換部111は、変換係数列を量子化部112に出力する。 The orthogonal transformation unit 111 receives the residual image from the subtraction unit 110, performs orthogonal transformation on the residual image, and generates a transform coefficient sequence. Orthogonal transform section 111 then outputs the transform coefficient sequence to quantization section 112 .

量子化部112は、直交変換部111から変換係数列を入力し、変換係数列に対し量子化を行い、量子化インデックス列を生成する。そして、量子化部112は、量子化インデックス列を逆量子化部113及びエントロピー符号化部120に出力する。 The quantization unit 112 receives the transform coefficient sequence from the orthogonal transform unit 111, quantizes the transform coefficient sequence, and generates a quantization index sequence. Quantization section 112 then outputs the quantization index sequence to inverse quantization section 113 and entropy coding section 120 .

逆量子化部113は、量子化部112から量子化インデックス列を入力し、量子化部112の逆の処理を行うことで、量子化インデックス列を逆量子化し、変換係数列を生成する。そして、逆量子化部113は、変換係数列を逆直交変換部114に出力する。 The inverse quantization unit 113 receives the quantization index sequence from the quantization unit 112 and performs reverse processing of the quantization unit 112 to inversely quantize the quantization index sequence and generate a transform coefficient sequence. Then, inverse quantization section 113 outputs the transform coefficient sequence to inverse orthogonal transform section 114 .

逆直交変換部114は、逆量子化部113から変換係数列を入力し、直交変換部111の逆の処理を行うことで、変換係数列を逆直交変換し、復号残差画像を生成する。そして、逆直交変換部114は、復号残差画像を加算部115に出力する。 The inverse orthogonal transform unit 114 receives the transform coefficient sequence from the inverse quantization unit 113 and performs the inverse process of the orthogonal transform unit 111 to inverse orthogonal transform the transform coefficient sequence and generates a decoded residual image. Inverse orthogonal transform section 114 then outputs the decoded residual image to addition section 115 .

加算部115は、逆直交変換部114から復号残差画像を入力すると共に、スイッチ119から予測画像を入力する。そして、加算部115は、予測画像に復号残差画像を加算し、加算後の画像を画面内予測部116及びインループフィルタ117に出力する。 The adder 115 receives the decoded residual image from the inverse orthogonal transform unit 114 and the predicted image from the switch 119 . The addition unit 115 then adds the decoded residual image to the predicted image, and outputs the image after the addition to the intra-frame prediction unit 116 and the in-loop filter 117 .

画面内予測部116は、加算部115から加算後の画像を入力し、所定領域毎に、加算後の画像に画面内予測処理を施し、画面内予測結果を生成し、所定領域毎の画面内予測結果をスイッチ119に出力する。 The intra-screen prediction unit 116 receives the added image from the addition unit 115, performs intra-screen prediction processing on the added image for each predetermined region, generates an intra-screen prediction result, and generates an intra-screen prediction result for each predetermined region. The prediction result is output to switch 119 .

インループフィルタ117は、加算部115から加算後の画像を入力し、加算後の画像にフィルタ処理を施し、局部復号ピクチャKを生成する。そして、インループフィルタ117は、局部復号ピクチャKを画面間予測部10に出力する。 The in-loop filter 117 receives the added image from the adder 115, performs filtering on the added image, and generates a locally decoded picture K. FIG. The in-loop filter 117 then outputs the locally decoded picture K to the inter prediction unit 10 .

画面間予測部10は、インループフィルタ117から局部復号ピクチャKを入力し、局部復号ピクチャKから複数の超解像ピクチャC及び複数のぼやけピクチャBを生成する。局部復号ピクチャK、複数の超解像ピクチャC及び複数のぼやけピクチャBは、画面間予測処理のための参照ピクチャとして用いられる。 The inter prediction unit 10 receives the locally decoded picture K from the in-loop filter 117 and generates a plurality of super-resolution pictures C and a plurality of blurred pictures B from the locally decoded picture K. FIG. A locally decoded picture K, a plurality of super-resolved pictures C, and a plurality of blurred pictures B are used as reference pictures for inter-prediction processing.

画面間予測部10は、所定領域毎に、現在の局部復号ピクチャK(入力動画像のピクチャ)である基準ピクチャ、及び局部復号ピクチャK等の参照ピクチャを用いて、画面間予測処理を行う。画面間予測部10は、所定領域毎に、局部復号ピクチャK、複数の超解像ピクチャC及び複数のぼやけピクチャBのそれぞれについて、動きベクトル、予測画像及び予測誤差を求める。 The inter-prediction unit 10 performs inter-prediction processing using a reference picture that is the current local decoded picture K (picture of the input video) and a reference picture such as the local decoded picture K for each predetermined region. The inter-picture prediction unit 10 obtains a motion vector, a predicted image, and a prediction error for each of the locally decoded picture K, multiple super-resolution pictures C, and multiple blurred pictures B for each predetermined region.

画面間予測部10は、所定領域毎に、ピクチャのパワー変動量等から重みを求め、当該重みを予測誤差に乗算し、重み乗算後の予測誤差が最小となるピクチャの画像を最適な予測画像として選択する。そして、画面間予測部10は、所定領域毎に選択した予測画像を、所定領域毎の画面間予測結果としてスイッチ119に出力する。 The inter-picture prediction unit 10 obtains a weight for each predetermined region from the power fluctuation amount of the picture, etc., multiplies the prediction error by the weight, and selects the image of the picture with the smallest prediction error after weight multiplication as the optimum predicted image. Select as Then, the inter-screen prediction unit 10 outputs the predicted image selected for each predetermined area to the switch 119 as an inter-screen prediction result for each predetermined area.

また、画面間予測部10は、所定領域毎に最適な予測画像を選択する処理において、所定領域毎に実際に選択した予測画像の種類、算出した動きベクトル等をパラメータに設定する。そして、画面間予測部10は、パラメータをエントロピー符号化部120に出力する。画面間予測部10の詳細については後述する。 In addition, in the process of selecting the optimum predicted image for each predetermined region, the inter-screen prediction unit 10 sets parameters such as the type of predicted image actually selected for each predetermined region, the calculated motion vector, and the like. The inter prediction unit 10 then outputs the parameters to the entropy coding unit 120 . Details of the inter-screen prediction unit 10 will be described later.

スイッチ119は、画面内予測部116から所定領域毎の画面内予測結果を入力すると共に、画面間予測部10から所定領域毎の画面間予測結果を入力し、いずれか一方を選択し、予測画像として減算部110及び加算部115に出力する。 The switch 119 receives the intra-prediction result for each predetermined region from the intra-prediction unit 116 and the inter-prediction result for each predetermined region from the inter-prediction unit 10, selects one of them, and selects the predicted image. , to the subtraction unit 110 and the addition unit 115 .

エントロピー符号化部120は、量子化部112から量子化インデックス列を入力すると共に、画面間予測部10からパラメータを入力し、さらに、直交変換部111等からパラメータを入力する。そして、エントロピー符号化部120は、量子化インデックス列及びパラメータに対しエントロピー符号化を行い、符号化信号を生成する。エントロピー符号化部120は、符号化信号を、後述する動画像復号装置2へ出力する。 The entropy coding unit 120 receives the quantization index sequence from the quantization unit 112, the parameters from the inter-frame prediction unit 10, and the parameters from the orthogonal transformation unit 111 and the like. Then, entropy coding section 120 performs entropy coding on the quantization index sequence and parameters to generate a coded signal. The entropy coding unit 120 outputs the coded signal to the video decoding device 2, which will be described later.

〔画面間予測部10〕
次に、図1に示した画面間予測部10について詳細に説明する。図2は、動画像符号化装置1に備えた画面間予測部10の構成例を示すブロック図である。この画面間予測部10は、超解像処理部11、ぼやけ処理部12、フレームメモリ13、画面間予測処理部14、周波数解析部15、選択部16及びパラメータ処理部17を備えている。尚、図2には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Inter-screen prediction unit 10]
Next, the inter-screen prediction unit 10 shown in FIG. 1 will be described in detail. FIG. 2 is a block diagram showing a configuration example of the inter-frame prediction unit 10 provided in the video encoding device 1. As shown in FIG. The inter-screen prediction unit 10 includes a super-resolution processing unit 11 , a blur processing unit 12 , a frame memory 13 , an inter-screen prediction processing unit 14 , a frequency analysis unit 15 , a selection unit 16 and a parameter processing unit 17 . FIG. 2 shows only components directly related to the present invention, and components not directly related are omitted.

画面間予測部10は、インループフィルタ117から局部復号ピクチャKを入力し、局部復号ピクチャKをフレームメモリ13に格納する。 The inter prediction unit 10 receives the locally decoded picture K from the in-loop filter 117 and stores the locally decoded picture K in the frame memory 13 .

超解像処理部11は、局部復号ピクチャKに超解像処理を施し、3種類の超解像ピクチャCH,V,D(水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCD)を生成する。Hは水平、Vは垂直、Dは対角を示す。超解像処理部11は、3種類の超解像ピクチャCH,V,Dをフレームメモリ13に格納する。超解像処理部11の詳細については後述する。 The super-resolution processing unit 11 performs super-resolution processing on the local decoded picture K, and produces three types of super-resolution pictures CH, V, D (horizontal super-resolution picture C H , vertical super-resolution picture C V and Generate a diagonal super-resolution picture C D ). H indicates horizontal, V indicates vertical, and D indicates diagonal. The super-resolution processor 11 stores three types of super-resolution pictures C H , V, and D in the frame memory 13 . Details of the super-resolution processing unit 11 will be described later.

水平超解像ピクチャCHは、水平方向の高周波帯域の成分を強調した画像である。垂直超解像ピクチャCVは、垂直方向の高周波帯域の成分を強調した画像である。対角超解像ピクチャCDは、対角方向(水平かつ垂直方向)の高周波帯域の成分を強調した画像である。 The horizontal super-resolution picture C H is an image in which horizontal high-frequency band components are emphasized. The vertical super-resolution picture C V is an image in which components in the vertical high-frequency band are emphasized. The diagonal super-resolution picture C D is an image in which high-frequency band components in the diagonal direction (horizontal and vertical directions) are emphasized.

ぼやけ処理部12は、局部復号ピクチャKにぼやけ処理を施し、3種類のぼやけピクチャBH,V,D(水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBD)を生成する。ぼやけ処理部12は、3種類のぼやけピクチャBH,V,Dをフレームメモリ13に格納する。ぼやけ処理部12の詳細については後述する。 The blur processing unit 12 performs blur processing on the locally decoded picture K to generate three types of blurred pictures B H , V, D (horizontal blurred picture B H , vertical blurred picture B V and diagonal blurred picture B D ). . The blur processor 12 stores three types of blurred pictures B H , V, and D in the frame memory 13 . Details of the blur processing unit 12 will be described later.

水平ぼやけピクチャBHは、水平方向の高周波帯域の成分を抑制した画像である。垂直ぼやけピクチャBVは、垂直方向の高周波帯域の成分を抑制した画像である。対角ぼやけピクチャBDは、対角方向(水平かつ垂直方向)の高周波帯域の成分を抑制した画像である。 The horizontally blurred picture BH is an image in which horizontal high frequency band components are suppressed. The vertically blurred picture B V is an image in which components in the vertical high frequency band are suppressed. The diagonally blurred picture B D is an image in which high-frequency components in the diagonal direction (horizontal and vertical directions) are suppressed.

フレームメモリ13には、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dがフレーム毎に格納される。 The frame memory 13 stores a locally decoded picture K, three types of super-resolution pictures CH , V, D , and three types of blurred pictures B H, V, D for each frame.

画面間予測処理部14は、フレームメモリ13に格納された局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dを、過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dとして読み出す。また、画面間予測処理部14は、現在の局部復号ピクチャK(入力動画像のピクチャ)を入力する。 The inter-picture prediction processing unit 14 converts the local decoded picture K, the three types of super-resolution pictures C H, V, D , and the three types of blurred pictures B H, V, D stored in the frame memory 13 into previous local predictions. Read out as decoded picture K, super-resolution picture C H, V, D , and blurred picture B H, V, D. Also, the inter prediction processing unit 14 inputs the current locally decoded picture K (picture of the input moving image).

画面間予測処理部14は、現在の局部復号ピクチャKを基準ピクチャとし、過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dを参照ピクチャとして、所定領域毎に、例えばブロックマッチング法にて、予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを求める。所定領域は、例えばslice(スライス)領域、CTU(Coding Tree Unit:コーディングツリーユニット)領域、CU(Coding Unit:コーディングユニット)領域である。 The inter-screen prediction processing unit 14 uses the current local decoded picture K as a reference picture, and the past local decoded picture K, super-resolution pictures C H, V, D , and blurred pictures B H, V, D as reference pictures, Predicted images KY, CYH ,V,D, BYH,V, D , motion vectors KV, CVH ,V,D , BVH ,V,D and prediction error Find KE, CE H,V,D and BE H,V,D . The predetermined area is, for example, a slice area, a CTU (Coding Tree Unit) area, or a CU (Coding Unit) area.

画面間予測処理部14は、所定領域毎の予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを選択部16に出力する。画面間予測処理部14の詳細については後述する。 The inter-screen prediction processing unit 14 predicts predicted images KY, CYH ,V,D , BYH ,V,D , motion vectors KV, CVH ,V,D , BVH,V,D and prediction errors for each predetermined region. KE, CE H,V,D and BE H,V,D are output to the selector 16 . Details of the inter-screen prediction processing unit 14 will be described later.

予測画像KYは、1種類の局部復号ピクチャの予測画像である。予測画像CYH,V,Dは、3種類の超解像ピクチャの予測画像であり、水平超解像ピクチャの予測画像CYH、垂直超解像ピクチャの予測画像CYV及び対角超解像ピクチャの予測画像CYDからなる。 The predicted image KY is a predicted image of one type of locally decoded picture. The predicted images CY H, V, and D are predicted images of three types of super-resolution pictures, a predicted image CY H of a horizontal super-resolution picture, a predicted image CY V of a vertical super-resolution picture, and a diagonal super-resolution picture. It consists of the predicted image CY D of the picture.

予測画像BYH,V,Dは、3種類のぼやけピクチャの予測画像であり、水平ぼやけピクチャの予測画像BYH、垂直ぼやけピクチャの予測画像BYV及び対角ぼやけピクチャの予測画像BYDからなる。 The predicted images BYH, V, and D are predicted images of three types of blurred pictures, and consist of a predicted image BYH of a horizontally blurred picture, a predicted image BYV of a vertically blurred picture, and a predicted image BYD of a diagonally blurred picture. .

動きベクトルKVは、1種類の局部復号ピクチャの動きベクトルである。動きベクトルCVH,V,Dは、3種類の超解像ピクチャの動きベクトルであり、水平超解像ピクチャの動きベクトルCVH、垂直超解像ピクチャの動きベクトルCVV及び対角超解像ピクチャの動きベクトルCVDからなる。 A motion vector KV is a motion vector of one type of locally decoded picture. The motion vectors CV H, V, and D are the motion vectors of three types of super-resolution pictures : the motion vector CV H of the horizontal super-resolution picture, the motion vector CV V of the vertical super-resolution picture, and the diagonal super-resolution picture. It consists of the motion vector CV D of the picture.

動きベクトルBVH,V,Dは、3種類のぼやけピクチャの動きベクトルであり、水平ぼやけピクチャの動きベクトルBVH、垂直ぼやけピクチャの動きベクトルBVV及び対角ぼやけピクチャの動きベクトルBVDからなる。 The motion vectors BVH , V, D are the motion vectors of three types of blurred pictures, consisting of the motion vector BVH of the horizontal blurred picture, the motion vector BVV of the vertical blurred picture, and the motion vector BVD of the diagonal blurred picture. .

予測誤差KEは、1種類の局部復号ピクチャの予測誤差である。予測誤差CEH,V,Dは、3種類の超解像ピクチャの予測誤差であり、水平超解像ピクチャの予測誤差CEH、垂直超解像ピクチャの予測誤差CEV及び対角超解像ピクチャの予測誤差CEDからなる。 The prediction error KE is the prediction error of one type of locally decoded picture. The prediction errors CE H, V, and D are the prediction errors of three types of super-resolution pictures, the prediction error CE H of the horizontal super-resolution picture, the prediction error CE V of the vertical super-resolution picture, and the diagonal super-resolution picture. It consists of the picture prediction error CE D .

予測誤差BEH,V,Dは、3種類のぼやけピクチャの予測誤差であり、水平ぼやけピクチャの予測誤差BEH、垂直ぼやけピクチャの予測誤差BEV及び対角ぼやけピクチャの予測誤差BEDからなる。 The prediction errors BEH,V,D are the prediction errors of three types of blurred pictures, consisting of the prediction error BEH of the horizontal blurred picture, the prediction error BEV of the vertical blurred picture and the prediction error BED of the diagonal blurred picture. .

周波数解析部15は、フレームメモリ13に格納された局部復号ピクチャKを、過去の局部復号ピクチャKとして読み出し、現在の局部復号ピクチャKを入力する。 The frequency analysis unit 15 reads the local decoded picture K stored in the frame memory 13 as the past local decoded picture K, and inputs the current local decoded picture K. FIG.

周波数解析部15は、現在の局部復号ピクチャK及び過去の局部復号ピクチャKのそれぞれについて周波数解析を行う。そして、周波数解析部15は、現在の局部復号ピクチャKの解析結果から過去の局部復号ピクチャKの解析結果を減算し、周波数帯域毎かつ位相位置毎のパワー変動情報を求める。周波数解析部15は、周波数帯域毎かつ位相位置毎のパワー変動情報を選択部16に出力する。周波数解析部15の詳細については後述する。 The frequency analysis unit 15 performs frequency analysis on each of the current locally decoded picture K and the past locally decoded picture K. FIG. Then, the frequency analysis unit 15 subtracts the analysis result of the past locally decoded picture K from the analysis result of the current locally decoded picture K, and obtains power fluctuation information for each frequency band and for each phase position. The frequency analysis unit 15 outputs power fluctuation information for each frequency band and for each phase position to the selection unit 16 . Details of the frequency analysis unit 15 will be described later.

選択部16は、画面間予測処理部14から所定領域毎の予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを入力する。また、選択部16は、周波数解析部15から周波数帯域毎かつ位相位置毎のパワー変動情報を入力する。 The selection unit 16 selects predicted images KY, CYH ,V,D , BYH,V,D , motion vectors KV, CVH,V,D , BVH ,V, Enter D and prediction errors KE, CE H,V,D and BE H,V,D . The selection unit 16 also receives power fluctuation information for each frequency band and for each phase position from the frequency analysis unit 15 .

選択部16は、所定領域毎に、3種類の超解像ピクチャCH,V,Dにつき、超解像ピクチャの動きベクトルCVH,V,D及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出する。 The selection unit 16 selects super-resolution picture motion vectors CVH ,V,D and super-resolution picture intensity information cpH ,V for three types of super-resolution pictures CH,V,D for each predetermined region. , D , the weights tC H,V,D of the super-resolution picture are calculated.

尚、選択部16は、パワー変動情報及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出するようにしてもよい。また、選択部16は、超解像ピクチャの動きベクトルCVH,V,D、パワー変動情報及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出するようにしてもよい。 The selection unit 16 may calculate the weights tCH ,V,D of the super-resolution picture based on the power fluctuation information and the intensity information cpH ,V,D of the super-resolution picture. Further, the selection unit 16 selects the weight tC H of the super-resolution picture based on the motion vector CV H,V,D of the super-resolution picture, the power fluctuation information, and the intensity information cp H,V,D of the super-resolution picture. , V and D may be calculated.

重みtCH,V,Dは、3種類の超解像ピクチャの重みであり、水平超解像ピクチャの重みtCH、垂直超解像ピクチャの重みtCV及び対角超解像ピクチャの重みtCDからなる。 The weights tC H , V, and D are the weights of the three types of super-resolved pictures: the weight tC H of the horizontal super-resolved picture, the weight tC V of the vertical super-resolved picture, and the weight tC of the diagonal super-resolved picture. consists of D.

また、選択部16は、所定領域毎に、3種類のぼやけピクチャBH,V,Dにつき、パワー変動情報及びぼやけピクチャの強度情報bpH,V,Dに基づいて、ぼやけピクチャの重みtBH,V,Dを算出する。 Further, the selection unit 16 calculates the weight tBH of the blurred picture based on the power fluctuation information and the intensity information bpH ,V,D of the blurred picture for each of the three types of blurred pictures BH ,V,D for each predetermined region . , V and D are calculated.

尚、選択部16は、ぼやけピクチャの動きベクトルBVH,V,D、パワー変動情報及びぼやけピクチャの強度情報bpH,V,Dに基づいて、ぼやけピクチャの重みtBH,V,Dを算出するようにしてもよい。 The selection unit 16 calculates the weights tB H,V,D of the blurred picture based on the motion vector BV H,V,D of the blurred picture, the power fluctuation information, and the intensity information bp H,V ,D of the blurred picture. You may make it

重みtBH,V,Dは、3種類のぼやけピクチャの重みであり、水平ぼやけピクチャの重みtBH、垂直ぼやけピクチャの重みtBV及び対角ぼやけピクチャの重みtBDからなる。 The weights tB H , V, D are the weights of three types of blurred pictures, consisting of a horizontal blurred picture weight tB H , a vertical blurred picture weight tB V and a diagonal blurred picture weight tB D .

選択部16は、所定領域毎に、3種類の超解像ピクチャCH,V,Dにつき、超解像ピクチャの予測誤差CEH,V,Dのそれぞれに、対応する重みtCH,V,Dを乗算する。また、選択部16は、所定領域毎に、3種類のぼやけピクチャBH,V,Dにつき、ぼやけピクチャの予測誤差BEH,V,Dのそれぞれに、対応する重みtBH,V,Dを乗算する。 The selection unit 16 assigns weights tC H , V, Multiply D. Further, the selection unit 16 assigns weights tBH ,V,D corresponding to prediction errors BEH,V,D of blurred pictures to three types of blurred pictures BH ,V, D for each predetermined region. Multiply.

選択部16は、所定領域毎に、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差を特定する。そして、選択部16は、特定した予測誤差に対応する予測画像を選択する。これにより、7種類のピクチャの予測画像KY,CYH,V,D,BYH,V,Dのうち、いずれか一つの予測画像が選択される。 The selection unit 16 selects the prediction error KE of the locally decoded picture, the weight-multiplied prediction error CE H,V,D of the super-resolution picture, and the weight-multiplied prediction error BE H,V of the blurred picture for each predetermined region. , D to determine the smallest prediction error. Then, the selection unit 16 selects a predicted image corresponding to the specified prediction error. As a result, one of the predicted images KY, CYH ,V,D , and BYH ,V,D of seven types of pictures is selected.

選択部16は、所定領域毎に、選択した予測画像を画面間予測結果としてスイッチ119に出力する。選択部16の詳細については後述する。 The selection unit 16 outputs the selected prediction image to the switch 119 as an inter-screen prediction result for each predetermined region. Details of the selection unit 16 will be described later.

パラメータ処理部17は、選択部16により所定領域毎に選択された予測画像の種類、及び算出された動きベクトル等をパラメータに設定し、パラメータをエントロピー符号化部120に出力する。 The parameter processing unit 17 sets parameters such as the type of predicted image selected for each predetermined region by the selection unit 16 and the calculated motion vector, and outputs the parameters to the entropy encoding unit 120 .

図3は、逆直交変換部114から加算部115及びインループフィルタ117を経て画面間予測部10までの処理の流れを説明する図である。 FIG. 3 is a diagram illustrating the flow of processing from the inverse orthogonal transform unit 114 to the inter-frame prediction unit 10 via the addition unit 115 and the in-loop filter 117 .

加算部115により、逆直交変換部114により生成された復号残差画像と、画面間予測部10により生成された画面間予測結果すなわち予測画像とが加算され、加算後の画像がインループフィルタ117に入力される。インループフィルタ117によりフィルタ処理された局部復号ピクチャKは、フレームメモリ13に格納されると共に、超解像処理部11及びぼやけ処理部12に入力される。 The adding unit 115 adds the decoded residual image generated by the inverse orthogonal transform unit 114 and the inter prediction result generated by the inter prediction unit 10, that is, the predicted image, and the image after the addition is the in-loop filter 117. is entered in The locally decoded picture K filtered by the in-loop filter 117 is stored in the frame memory 13 and input to the super-resolution processor 11 and the blur processor 12 .

超解像処理部11において、局部復号ピクチャKに対し超解像処理が施され、3種類の超解像ピクチャCH,V,Dが生成され、フレームメモリ13に格納される。ぼやけ処理部12において、局部復号ピクチャKに対しぼやけ処理が施され、3種類のぼやけピクチャBH,V,Dが生成され、フレームメモリ13に格納される。 The local decoded picture K is subjected to super-resolution processing in the super-resolution processing unit 11 to generate three types of super-resolution pictures C H , V, and D , which are stored in the frame memory 13 . The blur processor 12 applies blur processing to the locally decoded picture K to generate three types of blurred pictures B H , V, and D , which are stored in the frame memory 13 .

これにより、フレームメモリ13には、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dである7種類のピクチャが格納される。これらのピクチャは、画面間予測処理部14により、過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dとして読み出される。 As a result, the frame memory 13 stores seven types of pictures, that is, the locally decoded picture K, three types of super-resolution pictures CH , V, D , and three types of blurred pictures B H, V, D. These pictures are read by the inter prediction processing unit 14 as past local decoded pictures K, super-resolution pictures CH , V, D , and blurred pictures B H, V, D.

画面間予測処理部14において、現在の局部復号ピクチャKを基準ピクチャとし、過去の局部復号ピクチャKを参照ピクチャとして画面間予測処理が行われ、予測画像KY等が生成される。また、画面間予測処理部14において、過去の3種類の超解像ピクチャCH,V,Dを参照ピクチャとして3種類の画面間予測処理が行われ、3種類の予測画像CYH,V,D等が生成される。さらに、画面間予測処理部14において、過去の3種類のぼやけピクチャBH,V,Dを参照ピクチャとして3種類の画面間予測処理が行われ、3種類の予測画像BYH,V,D等が生成される。予測画像KY,CYH,V,D,BYH,V,D等は選択部16に入力される。 The inter-picture prediction processing unit 14 performs inter-picture prediction processing using the current locally decoded picture K as a reference picture and the past locally decoded picture K as a reference picture to generate a predicted picture KY and the like. Further, in the inter-prediction processing unit 14, three types of inter-prediction processing are performed using past three types of super-resolution pictures CH , V, D as reference pictures, and three types of predicted images CY H, V, D etc. are generated. Furthermore, in the inter-picture prediction processing unit 14, three types of inter-picture prediction processing are performed using past three types of blurred pictures BH, V, D as reference pictures, and three types of predicted images BYH , V, D , etc. is generated. Predicted images KY, CY H,V,D , BY H,V,D, etc. are input to the selection unit 16 .

周波数解析部15により、現在の局部復号ピクチャK及び過去の局部復号ピクチャKに基づいてパワー変動情報が生成され、パワー変動情報が選択部16に入力される。 The frequency analysis unit 15 generates power fluctuation information based on the current locally decoded picture K and the past locally decoded picture K, and the power fluctuation information is input to the selection unit 16 .

選択部16により、所定領域毎に、パワー変動情報等に基づいて、予測画像KY,CYH,V,D,BYH,V,Dのうちのいずれか一つの予測画像が選択され、画面間予測結果として加算部115に出力される。 The selection unit 16 selects one of the predicted images KY, CYH ,V,D , and BYH,V,D based on the power fluctuation information and the like for each predetermined region, and selects the predicted image between the screens. The prediction result is output to addition section 115 .

このように、画面間予測処理部14において、参照ピクチャとして、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dの合計7種類のピクチャが用いられる。また、所定領域毎に、7種類の予測画像KY,CYH,V,D,BYH,V,Dのうちのいずれか一つが、予測画像として選択される。 In this way, in the inter prediction processing unit 14, as reference pictures, a total of 7 types of locally decoded picture K, 3 types of super-resolution pictures CH , V, D , and 3 types of blurred pictures B H, V, D picture is used. Also, one of the seven types of predicted images KY, CYH ,V,D , and BYH,V,D is selected as a predicted image for each predetermined region.

〔超解像処理部11〕
次に、図2に示した超解像処理部11について詳細に説明する。図4は、超解像処理部11の処理例を説明する図である。
[Super-resolution processing unit 11]
Next, the super-resolution processing unit 11 shown in FIG. 2 will be described in detail. 4A and 4B are diagrams for explaining a processing example of the super-resolution processing unit 11. FIG.

超解像処理部11は、局部復号ピクチャKを入力し、例えば局部復号ピクチャKを1階ウェーブレット分解する(ステップS401)。そして、超解像処理部11は、1階ウェーブレット分解後の画像について、水平(H)、垂直(V)及び対角(D)の高周波帯域の全ての位相位置の要素値(画素値)に対し、予め設定された超解像ピクチャの水平用強度情報cpH1,V1,D1、垂直用強度情報cpH2,V2,D2及び対角用強度情報cpH3,V3,D3をそれぞれ乗算する(ステップS402)。 The super-resolution processing unit 11 receives a locally decoded picture K and, for example, performs first-order wavelet decomposition on the locally decoded picture K (step S401). Then, the super-resolution processing unit 11 converts the element values (pixel values) of all the phase positions of the horizontal (H), vertical (V), and diagonal (D) high-frequency bands to the image after the first-order wavelet decomposition. In contrast, horizontal intensity information cp H1, V1, D1 , vertical intensity information cp H2, V2, D2 , and diagonal intensity information cp H3, V3, D3 of preset super-resolution pictures are multiplied (step S402).

水平用強度情報cpH1,V1,D1は、1階ウェーブレット分解後の画像における水平高周波帯域に対応する水平強度cpH1、垂直高周波帯域に対応する垂直強度cpV1、及び対角高周波帯域に対応する対角強度cpD1からなる。水平用強度情報cpH1,V1,D1は、水平高周波帯域の成分を強調した(パワーの強い)水平超解像ピクチャCHを生成するための強度情報であり、cpH1>cpV1,cpD1の条件を満たす強度情報が用いられる。例えば図4に示すように、水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 The horizontal intensity information cp H1, V1, D1 is the horizontal intensity cp H1 corresponding to the horizontal high frequency band, the vertical intensity cp V1 corresponding to the vertical high frequency band, and the diagonal high frequency band in the image after the first-order wavelet decomposition. consists of the diagonal intensity cp D1 . The horizontal intensity information cp H1 , V1, D1 is intensity information for generating a horizontal super-resolution picture C H that emphasizes horizontal high-frequency band components (high power), and cp H1 >cp V1 , cp D1. Intensity information that satisfies the condition of For example, as shown in FIG. 4, horizontal intensity cp H1 =1.2, vertical intensity cp V1 =1.0 and diagonal intensity cp D1 =1.0 are used.

垂直用強度情報cpH2,V2,D2は、水平強度cpH2、垂直強度cpV2及び対角強度cpD2からなる。垂直用強度情報cpH2,V2,D2は、垂直高周波帯域の成分を強調した(パワーの強い)垂直超解像ピクチャCVを生成するための強度情報であり、cpV2>cpH2,cpD2の条件を満たす強度情報が用いられる。例えば図4に示すように、水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 The vertical intensity information cpH2,V2,D2 consists of horizontal intensity cpH2 , vertical intensity cpV2 and diagonal intensity cpD2 . The vertical intensity information cp H2, V2, D2 is intensity information for generating a vertical super-resolution picture CV in which vertical high-frequency band components are emphasized (strong power), and cp V2 >cp H2 , cp D2 Intensity information that satisfies the condition of For example, as shown in FIG. 4, horizontal intensity cp H2 =1.0, vertical intensity cp V2 =1.2 and diagonal intensity cp D2 =1.0 are used.

対角用強度情報cpH3,V3,D3は、水平強度cpH3、垂直強度cpV3及び対角強度cpD3からなる。対角用強度情報cpH3,V3,D3は、対角高周波帯域の成分を強調した(パワーの強い)対角超解像ピクチャCDを生成するための強度情報であり、cpD3>cpH3,cpV3の条件を満たす強度情報が用いられる。例えば図4に示すように、水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 The diagonal strength information cp H3 , V3, D3 consists of a horizontal strength cp H3 , a vertical strength cp V3 and a diagonal strength cp D3 . The diagonal intensity information cp H3 , V3, D3 is intensity information for generating a diagonal super-resolution picture C D in which components in the diagonal high-frequency band are emphasized (strong power), and cp D3 >cp H3 , cp V3 are used. For example, as shown in FIG. 4, horizontal intensity cp H3 =1.0, vertical intensity cp V3 =1.0 and diagonal intensity cp D3 =1.2 are used.

超解像処理部11は、1階ウェーブレット分解後の乗算後画像のそれぞれを1階ウェーブレット再構成し、3種類の超解像ピクチャCH,V,D、すなわち水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCDを生成する(ステップS403)。 The super-resolution processing unit 11 performs first-order wavelet reconstruction on each of the post-multiplication images after first-order wavelet decomposition, and produces three types of super-resolution pictures CH, V, D , that is, horizontal super-resolution pictures CH , A vertical super-resolution picture C V and a diagonal super-resolution picture C D are generated (step S403).

このように、超解像処理部11により、局部復号ピクチャKから3種類の水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCDが生成される。 In this way, the super-resolution processing unit 11 generates three types of horizontal super-resolution picture C H , vertical super-resolution picture C V and diagonal super-resolution picture C D from the locally decoded picture K. FIG.

〔ぼやけ処理部12〕
次に、図2に示したぼやけ処理部12について詳細に説明する。図5は、ぼやけ処理部12の処理例を説明する図である。
[Blur processing unit 12]
Next, the blur processor 12 shown in FIG. 2 will be described in detail. FIG. 5 is a diagram for explaining an example of processing by the blur processing unit 12. As shown in FIG.

ぼやけ処理部12は、局部復号ピクチャKを入力し、例えば局部復号ピクチャKを1階ウェーブレット分解する(ステップS501)。そして、ぼやけ処理部12は、1階ウェーブレット分解後の画像について、水平、垂直及び対角の高周波帯域の全ての位相位置の要素値に対し、予め設定されたぼやけピクチャの水平用強度情報bpH1,V1,D1、垂直用強度情報bpH2,V2,D2及び対角用強度情報bpH3,V3,D3をそれぞれ乗算する(ステップS502)。 The blur processing unit 12 receives the locally decoded picture K and, for example, performs first-order wavelet decomposition on the locally decoded picture K (step S501). Then, the blur processing unit 12 calculates preset horizontal strength information bp H1 of a blurred picture for element values of all phase positions in horizontal, vertical, and diagonal high-frequency bands for the image after first-order wavelet decomposition. , V1, D1 , vertical strength information bp H2, V2, D2 , and diagonal strength information bp H3, V3, D3 are multiplied (step S502).

水平用強度情報bpH1,V1,D1は、1階ウェーブレット分解後の画像における水平高周波帯域に対応する水平強度bpH1、垂直高周波帯域に対応する垂直強度bpV1、及び対角高周波帯域に対応する対角強度bpD1からなる。水平用強度情報bpH1,V1,D1は、水平高周波帯域の成分を抑制した(パワーの弱い)水平ぼやけピクチャBHを生成するための強度情報であり、bpH1<bpV1,bpD1の条件を満たす強度情報が用いられる。例えば図5に示すように、水平強度bpH1=0.8、垂直強度bpV1=1.0及び対角強度bpD1=1.0が用いられる。 The horizontal intensity information bp H1, V1, D1 is the horizontal intensity bp H1 corresponding to the horizontal high frequency band, the vertical intensity bp V1 corresponding to the vertical high frequency band, and the diagonal high frequency band in the image after the first-order wavelet decomposition. consists of the diagonal intensity bp D1 . The horizontal intensity information bp H1 , V1, D1 is intensity information for generating a horizontally blurred picture B H in which horizontal high frequency band components are suppressed (weak power), and the condition of bp H1 <bp V1 , bp D1 is satisfied. Intensity information that satisfies is used. For example, as shown in FIG. 5, horizontal intensity bp H1 =0.8, vertical intensity bp V1 =1.0 and diagonal intensity bp D1 =1.0 are used.

垂直用強度情報bpH2,V2,D2は、水平強度bpH2、垂直強度bpV2及び対角強度bpD2からなる。垂直用強度情報bpH2,V2,D2は、垂直高周波帯域の成分を抑制した(パワーの弱い)垂直ぼやけピクチャBVを生成するための強度情報であり、bpV2<bpH2,bpD2の条件を満たす強度情報が用いられる。例えば図5に示すように、水平強度bpH2=1.0、垂直強度bpV2=0.8及び対角強度bpD2=1.0が用いられる。 The vertical intensity information bp H2 , V2, D2 consists of horizontal intensity bp H2 , vertical intensity bp V2 and diagonal intensity bp D2 . The vertical intensity information bp H2 , V2, D2 is intensity information for generating a vertically blurred picture B V in which vertical high frequency band components are suppressed (weak power), and the condition of bp V2 <bp H2 , bp D2 is satisfied. Intensity information that satisfies is used. For example, as shown in FIG. 5, horizontal intensity bp H2 =1.0, vertical intensity bp V2 =0.8 and diagonal intensity bp D2 =1.0 are used.

対角用強度情報bpH3,V3,D3は、水平強度bpH3、垂直強度bpV3及び対角強度bpD3からなる。対角用強度情報bpH3,V3,D3は、対角高周波帯域の成分を抑制した(パワーの弱い)対角ぼやけピクチャBDを生成するための強度情報であり、bpD3<bpH3,bpV3の条件を満たす強度情報が用いられる。例えば図5に示すように、水平強度bpH3=1.0、垂直強度bpV3=1.0及び対角強度bpD3=0.8が用いられる。 The diagonal intensity information bp H3 , V3, D3 consists of horizontal intensity bp H3 , vertical intensity bp V3 and diagonal intensity bp D3 . The diagonal intensity information bp H3 , V3, D3 is intensity information for generating a diagonal blurred picture B D in which components in the diagonal high-frequency band are suppressed (weak power), and bp D3 <bp H3 , bp Intensity information that satisfies the conditions of V3 is used. For example, as shown in FIG. 5, horizontal intensity bp H3 =1.0, vertical intensity bp V3 =1.0 and diagonal intensity bp D3 =0.8 are used.

ぼやけ処理部12は、1階ウェーブレット分解後の乗算後画像のそれぞれを1階ウェーブレット再構成し、3種類のぼやけピクチャBH,V,D、すなわち水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBDを生成する(ステップS503)。 The blur processing unit 12 performs first-order wavelet reconstruction on each of the post-multiplication images after first-order wavelet decomposition, and produces three types of blurred pictures BH, V, and D , namely, horizontal blurred picture BH , vertical blurred picture BV and A diagonally blurred picture B D is generated (step S503).

このように、ぼやけ処理部12により、局部復号ピクチャKから3種類の水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBDが生成される。 In this way, the blur processor 12 generates three types of horizontally blurred picture BH , vertically blurred picture BV , and diagonally blurred picture BD from the locally decoded picture K. FIG.

〔画面間予測処理部14〕
次に、図2に示した画面間予測処理部14について詳細に説明する。図6は、画面間予測処理部14の構成例を示すブロック図である。この画面間予測処理部14は、復号ピクチャ予測部20、超解像予測部21及びぼやけ予測部22を備えている。尚、図6には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Inter-screen prediction processing unit 14]
Next, the inter-screen prediction processing unit 14 shown in FIG. 2 will be described in detail. FIG. 6 is a block diagram showing a configuration example of the inter-screen prediction processing unit 14. As shown in FIG. The inter-picture prediction processing unit 14 includes a decoded picture prediction unit 20 , a super-resolution prediction unit 21 and a blur prediction unit 22 . Note that FIG. 6 shows only components directly related to the present invention, and components not directly related are omitted.

復号ピクチャ予測部20は、フレームメモリ13に格納された局部復号ピクチャKを、過去の局部復号ピクチャKとして読み出し、現在の局部復号ピクチャKを入力する。 The decoded picture prediction unit 20 reads the locally decoded picture K stored in the frame memory 13 as the past locally decoded picture K, and inputs the current locally decoded picture K. FIG.

復号ピクチャ予測部20は、現在の局部復号ピクチャKを基準ピクチャとし、過去の局部復号ピクチャKを参照ピクチャとして、基準ピクチャ及び参照ピクチャに基づいて、所定領域毎に、例えばブロックマッチング法にて、予測画像KY、動きベクトルKV及び予測誤差KEを求める。 The decoded picture prediction unit 20 uses the current local decoded picture K as a reference picture and the past local decoded picture K as a reference picture. A predicted image KY, a motion vector KV, and a prediction error KE are obtained.

復号ピクチャ予測部20は、予測画像KY、動きベクトルKV及び予測誤差KEを選択部16に出力する。 The decoded picture prediction unit 20 outputs the predicted image KY, motion vector KV and prediction error KE to the selection unit 16 .

超解像予測部21は、フレームメモリ13に格納された3種類の超解像ピクチャCH,V,Dを、過去の超解像ピクチャCH,V,Dとして読み出し、現在の局部復号ピクチャKを入力する。 The super-resolution prediction unit 21 reads out the three types of super-resolution pictures C H, V, and D stored in the frame memory 13 as past super-resolution pictures C H, V, and D , and extracts the current local decoded picture. Enter K.

超解像予測部21は、現在の局部復号ピクチャKを基準ピクチャとし、過去の超解像ピクチャCH,V,Dを参照ピクチャとして、基準ピクチャ及び参照ピクチャに基づいて、所定領域毎に、例えばブロックマッチング法にて、予測画像CYH,V,D、動きベクトルCVH,V,D及び予測誤差CEH,V,Dとして求める。 The super-resolution prediction unit 21 uses the current locally decoded picture K as a reference picture, and the past super-resolution pictures CH, V, and D as reference pictures. For example, by the block matching method, they are obtained as a predicted image CYH,V,D , a motion vector CVH ,V,D , and a prediction error CEH,V,D .

超解像予測部21は、予測画像CYH,V,D、動きベクトルCVH,V,D及び予測誤差CEH,V,Dを選択部16に出力する。 The super-resolution prediction unit 21 outputs the predicted image CY H,V,D , the motion vector CV H,V,D and the prediction error CE H,V,D to the selection unit 16 .

ぼやけ予測部22は、フレームメモリ13に格納された3種類のぼやけピクチャBH,V,Dを、過去のぼやけピクチャBH,V,Dとして読み出し、現在の局部復号ピクチャKを入力する。 The blur predictor 22 reads out the three types of blurred pictures BH, V, D stored in the frame memory 13 as past blurred pictures BH, V, D, and inputs the current locally decoded picture K.

ぼやけ予測部22は、現在の局部復号ピクチャKを基準ピクチャとし、過去のぼやけピクチャBH,V,Dを参照ピクチャとして、基準ピクチャ及び参照ピクチャに基づいて、所定領域毎に、例えばブロックマッチング法にて、予測画像BYH,V,D、動きベクトルBVH,V,D及び予測誤差BEH,V,Dを求める。 The blur prediction unit 22 uses the current locally decoded picture K as a reference picture and the past blurred pictures BH, V, and D as reference pictures, and performs, for example, a block matching method for each predetermined region based on the reference picture and the reference picture. , the predicted image BYH ,V,D , the motion vector BVH ,V,D , and the prediction error BEH,V,D are obtained.

ぼやけ予測部22は、予測画像BYH,V,D、動きベクトルBVH,V,D及び予測誤差BEH,V,Dを選択部16に出力する。 The blur prediction unit 22 outputs the predicted image BY H,V,D , the motion vector BV H,V,D and the prediction error BE H,V,D to the selection unit 16 .

このように、画面間予測処理部14により、局部復号ピクチャの予測画像KY、動きベクトルKV及び予測誤差KEに加え、超解像ピクチャの予測画像CYH,V,D、動きベクトルCVH,V,D及び予測誤差CEH,V,D、並びにぼやけピクチャの予測画像BYH,V,D、動きベクトルBVH,V,D及び予測誤差BEH,V,Dが生成される。 In this way, the inter-picture prediction processing unit 14, in addition to the predicted image KY, motion vector KV and prediction error KE of the local decoded picture, predictive image CYH,V,D of the super-resolution picture, motion vector CVH ,V ,D and the prediction error CE H,V,D , as well as the prediction image BY H,V,D of the blurred picture, the motion vector BV H, V,D and the prediction error BE H,V,D are generated.

〔周波数解析部15〕
次に、図2に示した周波数解析部15について詳細に説明する。図7は、周波数解析部15の処理例を説明する図である。
[Frequency analysis unit 15]
Next, the frequency analysis section 15 shown in FIG. 2 will be described in detail. FIG. 7 is a diagram for explaining a processing example of the frequency analysis unit 15. As shown in FIG.

周波数解析部15は、フレームメモリ13に格納された局部復号ピクチャKを、過去の局部復号ピクチャKとして読み出し、現在の局部復号ピクチャKを入力する。 The frequency analysis unit 15 reads the local decoded picture K stored in the frame memory 13 as the past local decoded picture K, and inputs the current local decoded picture K. FIG.

周波数解析部15は、現在の局部復号ピクチャKについて、デシメーションを伴わない1階ウェーブレットパケット分解にて周波数解析を行い、現在の局部復号ピクチャKの解析結果を生成する(ステップS701)。これにより、現在の局部復号ピクチャKの空間低周波帯域信号、水平高周波帯域信号、垂直高周波帯域信号及び対角高周波帯域信号が生成される。 The frequency analysis unit 15 performs frequency analysis on the current locally decoded picture K by first-order wavelet packet decomposition without decimation, and generates an analysis result of the current locally decoded picture K (step S701). Thereby, the spatial low frequency band signal, horizontal high frequency band signal, vertical high frequency band signal and diagonal high frequency band signal of the current locally decoded picture K are generated.

また、周波数解析部15は、過去の局部復号ピクチャKについて、デシメーションを伴わない1階ウェーブレットパケット分解にて周波数解析を行い、過去の局部復号ピクチャKの解析結果を生成する(ステップS702)。これにより、過去の局部復号ピクチャKの空間低周波帯域信号、水平高周波帯域信号、垂直高周波帯域信号及び対角高周波帯域信号が生成される。 Further, the frequency analysis unit 15 performs frequency analysis on the past locally decoded picture K by first-order wavelet packet decomposition without decimation, and generates an analysis result of the past locally decoded picture K (step S702). Thereby, a spatial low frequency band signal, a horizontal high frequency band signal, a vertical high frequency band signal and a diagonal high frequency band signal of the past locally decoded picture K are generated.

周波数解析部15は、周波数帯域毎かつ位相位置毎に、現在の局部復号ピクチャKの解析結果から過去の局部復号ピクチャKの解析結果を減算し、周波数帯域毎かつ位相位置毎のパワー変動情報を求める(ステップS703)。 The frequency analysis unit 15 subtracts the analysis result of the past locally decoded picture K from the analysis result of the current locally decoded picture K for each frequency band and for each phase position, and obtains power fluctuation information for each frequency band and for each phase position. (step S703).

具体的には、周波数解析部15は、現在の局部復号ピクチャKの水平高周波帯域信号における位相位置(画素位置)の要素値(画素値)から、過去の局部復号ピクチャKの水平高周波帯域信号における対応する位相位置の要素値を減算する。そして、周波数解析部15は、減算結果を水平高周波数帯域のパワー変動情報とする。 Specifically, the frequency analysis unit 15 converts the element value (pixel value) of the phase position (pixel position) in the horizontal high-frequency band signal of the current locally decoded picture K to the horizontal high-frequency band signal of the previous locally decoded picture K. Subtract the element value of the corresponding phase position. Then, the frequency analysis unit 15 uses the subtraction result as power fluctuation information in the horizontal high frequency band.

また、周波数解析部15は、現在の局部復号ピクチャKの垂直高周波帯域信号における位相位置の要素値から、過去の局部復号ピクチャKの垂直高周波帯域信号における対応する位相位置の要素値を減算する。そして、周波数解析部15は、減算結果を垂直高周波数帯域のパワー変動情報とする。 Further, the frequency analysis unit 15 subtracts the element value of the corresponding phase position of the vertical high-frequency band signal of the past locally decoded picture K from the element value of the phase position of the vertical high-frequency band signal of the current locally decoded picture K. Then, the frequency analysis unit 15 uses the subtraction result as the power fluctuation information of the vertical high frequency band.

さらに、周波数解析部15は、現在の局部復号ピクチャKの対角高周波帯域信号における位相位置の要素値から、過去の局部復号ピクチャKの対角高周波帯域信号における対応する位相位置の要素値を減算する。そして、周波数解析部15は、減算結果を対角高周波数帯域のパワー変動情報とする。 Furthermore, the frequency analysis unit 15 subtracts the element value of the corresponding phase position in the diagonal high-frequency band signal of the past local decoded picture K from the element value of the phase position in the diagonal high-frequency band signal of the current locally decoded picture K. do. Then, the frequency analysis unit 15 uses the subtraction result as the power fluctuation information of the diagonal high frequency band.

周波数解析部15は、水平高周波数帯域の各位相位置のパワー変動情報、垂直高周波数帯域の各位相位置のパワー変動情報、及び対角高周波数帯域の各位相位置のパワー変動情報を、周波数帯域毎かつ位相位置毎のパワー変動情報として選択部16に出力する。 The frequency analysis unit 15 analyzes the power fluctuation information at each phase position in the horizontal high frequency band, the power fluctuation information at each phase position in the vertical high frequency band, and the power fluctuation information at each phase position in the diagonal high frequency band into frequency bands. and output to the selector 16 as power fluctuation information for each phase position.

このように、周波数解析部15により、周波数帯域毎かつ位相位置毎のパワー変動情報が生成される。 Thus, the frequency analysis unit 15 generates power fluctuation information for each frequency band and for each phase position.

パワー変動情報は、現在のピクチャが過去のピクチャに比べ、ぼやけているかまたは鮮鋭化しているかを示す指標として扱われる。パワー変動情報から得られた後述するパワー変動量が第1の閾値(正の値)よりも大きい場合、現在のピクチャのパワーが過去のピクチャよりも大きいため、現在のピクチャが過去のピクチャに比べ、鮮鋭化しているものと判断される。また、パワー変動量が第1の閾値(負の値)よりも小さい場合、現在のピクチャのパワーが過去のピクチャよりも小さいため、現在のピクチャが過去のピクチャに比べ、ぼやけているものと判断される。さらに、パワー変動量が第1の閾値と第2の閾値との間にある場合、現在のピクチャのパワーと過去のピクチャのパワーとがほぼ同じであるため、現在のピクチャ及び過去のピクチャにおけるぼやけの程度及び鮮鋭化の程度はさほど変わらないものと判断される。詳細については後述する。 Power variation information is treated as an indicator of whether the current picture is blurry or sharpened compared to previous pictures. If the power fluctuation amount obtained from the power fluctuation information, which will be described later, is larger than a first threshold (positive value), the power of the current picture is higher than that of the past picture. , is judged to be sharpened. If the amount of power variation is smaller than the first threshold (negative value), the power of the current picture is smaller than the power of the past picture, so it is determined that the current picture is more blurred than the past picture. be done. Furthermore, if the power variation is between the first threshold and the second threshold, the power of the current picture and the power of the past picture are approximately the same, so the blurring in the current picture and the past picture is reduced. It is judged that the degree of sharpening and the degree of sharpening do not change so much. Details will be described later.

〔選択部16〕
次に、図2に示した選択部16について詳細に説明する。図8は、選択部16の構成例を示すブロック図であり、図9は、選択部16の処理例を示すフローチャートである。
[Selection unit 16]
Next, the selection unit 16 shown in FIG. 2 will be described in detail. FIG. 8 is a block diagram showing a configuration example of the selection unit 16, and FIG. 9 is a flowchart showing a processing example of the selection unit 16. As shown in FIG.

この選択部16は、動き量算出部30、パワー変動量算出部31、重み算出部32及び予測画像選択部33を備えている。尚、図8には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。 The selector 16 includes a motion amount calculator 30 , a power variation calculator 31 , a weight calculator 32 and a predicted image selector 33 . Note that FIG. 8 shows only components directly related to the present invention, and components not directly related are omitted.

選択部16は、画面間予測処理部14から、所定領域毎の予測画像KY,CYH,V,D,BYH,V,D、動きベクトルKV,CVH,V,D,BVH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを入力する。また、選択部16は、周波数解析部15から周波数帯域毎かつ位相位置毎のパワー変動情報を入力する(ステップS901)。 The selection unit 16 selects predicted images KY, CYH ,V,D , BYH,V,D , motion vectors KV, CVH,V,D , BVH ,V for each predetermined region from the inter-screen prediction processing unit 14. , D and prediction errors KE, CE H,V,D and BE H,V,D . The selection unit 16 also receives power fluctuation information for each frequency band and for each phase position from the frequency analysis unit 15 (step S901).

(動き量算出部30)
動き量算出部30は、所定領域毎に、超解像ピクチャの動きベクトルCVH,V,Dから、水平方向、垂直方向及び対角方向の成分である動き量CVH,V,D-mH,V,Dを算出する。また、動き量算出部30は、所定領域毎に、ぼやけピクチャの動きベクトルBVH,V,Dから、水平方向、垂直方向及び対角方向の成分であるぼやけピクチャの動き量BVH,V,D-mH,V,Dを算出する(ステップS902)。そして、動き量算出部30は、所定領域毎の動き量CVH,V,D-mH,V,D,BVH,V,D-mH,V,Dを重み算出部32に出力する。
(Motion amount calculator 30)
The motion amount calculation unit 30 calculates, for each predetermined region, motion amounts CV H,V,D −m Calculate H, V, D. Further, the motion amount calculation unit 30 calculates motion amounts BV H, V, of the blurred picture, which are components in the horizontal direction, the vertical direction, and the diagonal direction, from the motion vectors BV H, V, D of the blurred picture for each predetermined region. D -m H,V,D are calculated (step S902). Then, the motion amount calculation unit 30 outputs the motion amounts CV H,V,D −m H,V,D and BV H,V,D −m H,V,D for each predetermined region to the weight calculation unit 32. .

超解像ピクチャの動き量CVH,V,D-mH,V,Dは、水平超解像ピクチャの水平動き量CVH-mH、垂直動き量CVH-mV及び対角動き量CVH-mDと、垂直超解像ピクチャの水平動き量CVV-mH、垂直動き量CVV-mV及び対角動き量CVV-mDと、対角超解像ピクチャの水平動き量CVD-mH、垂直動き量CVD-mV及び対角動き量CVD-mDとからなる。 The amount of motion CVH ,V,D - mH,V,D of the super-resolution picture is the amount of horizontal motion CVH-mH, the amount of vertical motion CVH - mV and the amount of diagonal motion of the horizontal super-resolution picture. CVH - mD , the horizontal motion amount CVV- mH of the vertical super-resolution picture, the vertical motion amount CVV- mV and the diagonal motion amount CVV - mD , and the horizontal motion amount of the diagonal super-resolution picture It consists of the amount of motion CV D -m H , the amount of vertical motion CV D -m V and the amount of diagonal motion CV D -m D .

ぼやけピクチャの動き量BVH,V,D-mH,V,Dは、水平ぼやけピクチャの水平動き量BVH-mH、垂直動き量BVH-mV及び対角動き量BVH-mDと、垂直ぼやけピクチャの水平動き量BVV-mH、垂直動き量BVV-mV及び対角動き量BVV-mDと、対角ぼやけピクチャの水平動き量BVD-mH、垂直動き量BVD-mV及び対角動き量BVD-mDとからなる。 The motion amount BVH,V,D - mH,V,D of the blurred picture is the horizontal motion amount BVH-mH, the vertical motion amount BVH - mV , and the diagonal motion amount BVH - m of the horizontal blurred picture. D , the horizontal motion amount BV V -m H of the vertically blurred picture, the vertical motion amount BV V -m V and the diagonal motion amount BV V -m D , the horizontal motion amount BV D -m H of the diagonal blurred picture, It consists of a vertical motion amount BV D -m V and a diagonal motion amount BV D -m D .

水平動き量は、動きベクトルを水平方向に射影したときの大きさを示し、垂直動き量は、動きベクトルを垂直方向に射影したときの大きさを示し、対角動き量は、動きベクトルを対角方向に射影したときの大きさを示す。 The horizontal motion amount indicates the magnitude when the motion vector is projected horizontally, the vertical motion amount indicates the magnitude when the motion vector is projected vertically, and the diagonal motion amount indicates the magnitude when the motion vector is projected in the vertical direction. Indicates the size when projected in the angular direction.

このように、動き量算出部30により、所定領域毎に、水平超解像ピクチャCHについて、水平動き量CVH-mH、垂直動き量CVH-mV及び対角動き量CVH-mDが算出される。また、垂直超解像ピクチャCVについて、水平動き量CVV-mH、垂直動き量CVV-mV及び対角動き量CVV-mDが算出され、対角超解像ピクチャCDについて、水平動き量CVD-mH、垂直動き量CVD-mV及び対角動き量CVD-mDが算出される。 In this way, the motion amount calculation unit 30 calculates the horizontal motion amount CV H -m H , the vertical motion amount CV H -m V , and the diagonal motion amount CV H - for the horizontal super-resolution picture C H for each predetermined region. m D is calculated. Further, for the vertical super-resolution picture C V , the horizontal motion amount CV V -m H , the vertical motion amount CV V -m V , and the diagonal motion amount CV V -m D are calculated, and the diagonal super-resolution picture C D is calculated. , a horizontal motion amount CV D -m H , a vertical motion amount CV D -m V , and a diagonal motion amount CV D -m D are calculated.

さらに、動き量算出部30により、所定領域毎に、水平ぼやけピクチャBHについて、水平動き量BVH-mH、垂直動き量BVH-mV及び対角動き量BVH-mDが算出される。また、垂直ぼやけピクチャBVについて、水平動き量BVV-mH、垂直動き量BVV-mV及び対角動き量BVV-mDが算出され、対角ぼやけピクチャBDについて、水平動き量BVD-mH、垂直動き量BVD-mV及び対角動き量BVD-mDが算出される。 Further, the motion amount calculator 30 calculates the horizontal motion amount BVH - mH , the vertical motion amount BVH - mV , and the diagonal motion amount BVH - mD for the horizontal blurred picture BH for each predetermined region. be done. Also, for the vertically blurred picture B V , the horizontal motion amount BV V -m H , the vertical motion amount BV V -m V , and the diagonal motion amount BV V -m D are calculated. A quantity BV D -m H , a vertical motion quantity BV D -m V and a diagonal motion quantity BV D -m D are calculated.

図10は、動き量算出部30により算出される水平超解像ピクチャの動き量CVH-mH,V,Dの例を説明する図である。フレームtの時刻のピクチャを基準ピクチャとし、フレームt-1の時刻におけるピクチャを参照ピクチャとする。α1は、水平超解像ピクチャの動きベクトルCVHにおける水平方向を示し、β1は、水平超解像ピクチャの動きベクトルCVHにおける垂直方向を示し、γ1は、水平超解像ピクチャの動きベクトルCVHにおける対角方向を示す。 FIG. 10 is a diagram illustrating an example of the motion amount CVH - mH,V,D of the horizontal super-resolution picture calculated by the motion amount calculation unit 30. In FIG. The picture at the time of the frame t is taken as the reference picture, and the picture at the time of the frame t-1 is taken as the reference picture. α1 indicates the horizontal direction of the motion vector CV H of the horizontal super-resolution picture, β1 indicates the vertical direction of the motion vector CV H of the horizontal super-resolution picture, and γ1 indicates the motion vector CV of the horizontal super-resolution picture. The diagonal direction in H is shown.

図10に示すように、動き量算出部30により、基準ピクチャを基準とした参照ピクチャに対する水平超解像ピクチャの動きベクトルCVHから、所定領域毎に、これを水平方向α1に射影したときの水平動き量CVH-mH、垂直方向β1に射影したときの垂直動き量CVH-mV、及び対角方向γ1に射影したときの対角動き量CVH-mDが算出される。 As shown in FIG. 10, the motion amount calculation unit 30 projects the motion vector CV H of the horizontal super-resolution picture with respect to the reference picture based on the base picture for each predetermined region in the horizontal direction α1. A horizontal motion amount CVH - mH , a vertical motion amount CVH - mV when projected in the vertical direction β1, and a diagonal motion amount CVH - mD when projected in the diagonal direction γ1 are calculated.

(パワー変動量算出部31)
図8及び図9に戻って、パワー変動量算出部31は、周波数帯域毎かつ位相位置毎のパワー変動情報から、所定領域毎に、水平高周波帯域、垂直高周波帯域及び対角高周波帯域の成分であるパワー変動量pH,V,Dを算出する(ステップS903)。そして、パワー変動量算出部31は、所定領域毎のパワー変動量pH,V,Dを重み算出部32に出力する。
(Power fluctuation amount calculator 31)
8 and 9, the power fluctuation amount calculation unit 31 calculates, for each predetermined region, the components of the horizontal high frequency band, the vertical high frequency band, and the diagonal high frequency band from the power fluctuation information for each frequency band and for each phase position. A power fluctuation amount p H,V,D is calculated (step S903). Then, the power fluctuation amount calculator 31 outputs the power fluctuation amounts p H , V, D for each predetermined region to the weight calculator 32 .

具体的には、パワー変動量算出部31は、所定領域毎に、周波数帯域毎かつ位相位置毎のパワー変動情報から当該領域のパワー変動情報を抽出する。そして、パワー変動量算出部31は、当該領域のパワー変動情報に含まれる水平高周波帯域の全ての位相位置における要素値を合計し、当該領域の水平パワー変動量pHを求める。 Specifically, the power variation calculation unit 31 extracts the power variation information for each predetermined region from the power variation information for each frequency band and each phase position. Then, the power fluctuation amount calculator 31 totals the element values at all phase positions in the horizontal high-frequency band included in the power fluctuation information of the area, and obtains the horizontal power fluctuation amount p H of the area.

また、パワー変動量算出部31は、当該領域のパワー変動情報に含まれる垂直高周波帯域の全ての位相位置における要素値を合計し、当該領域の垂直パワー変動量pVを求める。さらに、パワー変動量算出部31は、当該領域のパワー変動情報に含まれる対角高周波帯域の全ての位相位置の要素値を合計し、当該領域の対角パワー変動量pDを求める。 Also, the power fluctuation amount calculator 31 sums the element values at all phase positions in the vertical high-frequency band included in the power fluctuation information of the area, and obtains the vertical power fluctuation amount p V of the area. Further, the power fluctuation amount calculator 31 sums up the element values of all the phase positions of the diagonal high frequency band included in the power fluctuation information of the area, and obtains the diagonal power fluctuation amount p D of the area.

このように、パワー変動量算出部31により、所定領域毎に、水平高周波帯域の成分である水平パワー変動量pH、垂直高周波帯域の成分である垂直パワー変動量pV、及び対角高周波帯域の成分である対角パワー変動量pDが算出される。 In this way, the power fluctuation amount calculator 31 calculates, for each predetermined region, the horizontal power fluctuation amount p H that is the component of the horizontal high frequency band, the vertical power fluctuation amount p V that is the component of the vertical high frequency band, and the diagonal high frequency band. A diagonal power fluctuation amount p D that is a component of is calculated.

図11は、パワー変動量算出部31により算出されるパワー変動量pH,V,Dの例を説明する図である。α2はパワー変動情報における水平高周波帯域の方向を示し、β2は、パワー変動情報における垂直高周波帯域の方向を示し、γ2は、パワー変動情報における対角高周波帯域の方向を示す。 FIG. 11 is a diagram for explaining an example of the power fluctuation amounts p H , V, D calculated by the power fluctuation amount calculator 31 . α2 indicates the direction of the horizontal high frequency band in the power fluctuation information, β2 indicates the direction of the vertical high frequency band in the power fluctuation information, and γ2 indicates the direction of the diagonal high frequency band in the power fluctuation information.

図11に示すように、パワー変動量算出部31により、周波数帯域毎かつ位相位置毎のパワー変動情報から、所定領域毎に、水平高周波帯域の方向α2の成分である水平パワー変動量pH、垂直高周波帯域の方向β2の成分である垂直パワー変動量pV、及び対角高周波帯域の方向γ2の成分である対角パワー変動量pDが算出される。 As shown in FIG. 11, the power fluctuation amount calculation unit 31 calculates the horizontal power fluctuation amounts p H , A vertical power fluctuation amount p V that is a component in the direction β2 of the vertical high frequency band and a diagonal power fluctuation amount p D that is a component in the direction γ2 of the diagonal high frequency band are calculated.

(重み算出部32)
重み算出部32は、動き量算出部30から所定領域毎の動き量CVH,V,D-mH,V,D,BVH,V,D-mH,V,Dを入力すると共に、パワー変動量算出部31から所定領域毎のパワー変動量pH,V,Dを入力する。また、重み算出部32は、予め設定された超解像ピクチャの強度情報cpH,V,D及びぼやけピクチャの強度情報bpH,V,Dを入力する。
(Weight calculator 32)
The weight calculator 32 inputs the motion amounts CV H,V,D −m H,V,D and BV H,V,D −m H,V,D for each predetermined region from the motion amount calculator 30, and The power fluctuation amounts p H , V, and D for each predetermined region are input from the power fluctuation amount calculator 31 . The weight calculation unit 32 also receives intensity information cp H, V, D of the super-resolution picture and intensity information bp H, V, D of the blurred picture set in advance.

超解像ピクチャの強度情報cpH,V,Dは、図2に示した超解像処理部11による超解像ピクチャCH,V,Dの生成の際に用いた水平用強度情報cpH1,V1,D1、垂直用強度情報cpH2,V2,D2及び対角用強度情報cpH3,V3,D3に相当する。また、ぼやけピクチャの強度情報bpH,V,Dは、図2に示したぼやけ処理部12によるぼやけピクチャBH,V,Dの生成の際に用いた水平用強度情報bpH1,V1,D1、垂直用強度情報bpH2,V2,D2及び対角用強度情報bpH3,V3,D3に相当する。 The super-resolution picture intensity information cp H, V, D is the horizontal intensity information cp H1 used when the super-resolution processing unit 11 shown in FIG. 2 generates the super-resolution pictures C H, V, D. , V1, D1 , vertical intensity information cp H2, V2, D2 , and diagonal intensity information cp H3, V3, D3 . Further, the intensity information bp H, V, D of the blurred picture is the horizontal intensity information bp H1, V1, D1 used when the blurred picture B H, V, D is generated by the blur processing unit 12 shown in FIG. , vertical intensity information bp H2 , V2, D2 and diagonal intensity information bp H3, V3, D3 .

重み算出部32は、超解像ピクチャCH,V,Dについて、所定領域毎に、以下の式にて、超解像ピクチャの動き量CVH,V,D-mH,V,D及び超解像ピクチャの強度情報cpH,V,D(cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3)に基づいて、超解像ピクチャCH,V,Dのそれぞれについて重みtCH,V,Dを算出する(ステップS904)。
[数1]
tCH=d/{(a×cpH1×(CVH-mH)+b×cpV1×(CVH-mV)+c×cpD1×(CVH-mD)} ・・・(1)
[数2]
tCV=d/{(a×cpH2×(CVV-mH)+b×cpV2×(CVV-mV)+c×cpD2×(CVV-mD)} ・・・(2)
[数3]
tCD=d/{(a×cpH3×(CVD-mH)+b×cpV3×(CVD-mV)+c×cpD3×(CVD-mD)} ・・・(3)
The weight calculation unit 32 calculates the amount of motion CV H, V,D -m H,V,D and Based on the intensity information cpH,V,D ( cpH1,V1,D1 , cpH2,V2,D2 , cpH3,V3,D3 ) of the super-resolution pictures, Weights tC H,V,D are calculated for each (step S904).
[Number 1]
tCH =d/{(a* cpH1 *( CVH - mH )+b* cpV1 *(CVH - mV )+c* cpD1 *(CVH - mD )} (1)
[Number 2]
tCV =d/{(a* cpH2 *( CVV - mH )+b* cpV2 *(CVV - mV )+c* cpD2 *(CVV - mD )} (2)
[Number 3]
tC D =d/{(a×cp H3 ×(CV D −m H )+b×cp V3 ×(CV D −m V )+c×cp D3 ×(CV D −m D )} (3)

重みtCHは、水平超解像ピクチャCHの重みを示し、重みtCVは、垂直超解像ピクチャCVの重みを示し、重みtCDは、対角超解像ピクチャCDの重みを示す。パラメータa,b,c,dは、予め設定された定数を示す。 The weight tC H indicates the weight of the horizontal super-resolved picture C H , the weight tC V indicates the weight of the vertical super-resolved picture C V , and the weight tC D indicates the weight of the diagonal super-resolved picture C D . show. Parameters a, b, c, and d represent preset constants.

前記式(1)において、水平超解像ピクチャCHについて、前述したとおり、例えば水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 In the above equation (1), for the horizontal super-resolution picture C H , for example, horizontal intensity cp H1 =1.2, vertical intensity cp V1 =1.0, and diagonal intensity cp D1 =1.0 are used as described above.

前記式(2)において、垂直超解像ピクチャCVについて、前述したとおり、例えば水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 In the above equation (2), for the vertical super-resolution picture C V , for example, horizontal intensity cp H2 =1.0, vertical intensity cp V2 =1.2, and diagonal intensity cp D2 =1.0 are used as described above.

前記式(3)において、対角超解像ピクチャCDについて、前述したとおり、例えば水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 In the above equation (3), for the diagonal super-resolution picture C D , for example, horizontal intensity cp H3 =1.0, vertical intensity cp V3 =1.0 and diagonal intensity cp D3 =1.2 are used as described above.

このように、前記式(1)(2)(3)に示す重みtCH,V,Dは、超解像ピクチャの動き量CVH,V,D-mH,V,Dに基づいて算出され、動き量CVH,V,D-mH,V,Dが大きいほど、小さい値となり、動き量CVH,V,D-mH,V,Dが小さいほど、大きい値となる。この場合、動き量CVH,V,D-mH,V,Dが大きいほど、基準ピクチャよりも参照ピクチャがぼやけている可能性が高いため、参照ピクチャに対して基準ピクチャが鮮鋭化している可能性が高い。 Thus, the weights tC H,V,D shown in the formulas (1), (2), and (3) are calculated based on the motion amount CV H,V,D −m H,V,D of the super-resolution picture. The larger the motion amount CVH,V,D - mH,V,D, the smaller the value, and the smaller the motion amount CVH,V,D - mH,V,D , the larger the value. In this case, the larger the amount of motion CV H,V,D -m H,V,D, the higher the possibility that the reference picture is more blurred than the reference picture, so the reference picture is sharpened with respect to the reference picture. Probability is high.

そこで、動き量CVH,V,D-mH,V,Dが大きい方向(水平方向、垂直方向及び対角方向)ほど、重みtCH,V,Dを小さい値とすることで、後述するステップS907において、重み乗算後の予測誤差CEH,V,Dを小さい値とし、その方向に対応する超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。つまり、基準ピクチャから参照ピクチャへの動き量CVH,V,D-mH,V,Dが大きい方向ほど、ぼやけが大きいと仮定して、鮮鋭化の強い方向の超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。 Therefore, the weight tC H,V, D is set to a smaller value in the direction (horizontal direction, vertical direction and diagonal direction) in which the motion amount CV H,V,D -m H,V,D is larger. In step S907, the prediction error CEH ,V,D after weight multiplication is set to a small value, and the predicted image CYH ,V,D of the super-resolution picture corresponding to that direction is selected. That is, assuming that the blur is greater in the direction in which the amount of motion CV H,V,D −m H,V,D from the reference picture to the reference picture is larger, the predicted image of the super-resolution picture in the direction of strong sharpening CY H, V, D are selected.

尚、重み算出部32は、超解像ピクチャCH,V,Dにつき、ステップS904において、超解像ピクチャの動き量CVH,V,D-mH,V,Dの代わりにパワー変動量pH,V,Dを用いるようにしてもよい。すなわち、重み算出部32は、所定領域毎に、以下の式にて、パワー変動量pH,V,D及び超解像ピクチャの強度情報cpH,V,D(cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3)に基づいて、超解像ピクチャCH,V,Dのそれぞれについて重みtCH,V,Dを算出するようにしてもよい。
[数4]
tCH=h/(e×cpH1×pH+f×cpV1×pV+g×cpD1×pD) ・・・(4)
[数5]
tCV=h/(e×cpH2×pH+f×cpV2×pV+g×cpD2×pD) ・・・(5)
[数6]
tCD=h/(e×cpH3×pH+f×cpV3×pV+g×cpD3×pD) ・・・(6)
In step S904, the weight calculation unit 32 calculates the power fluctuation amount instead of the super-resolution picture motion amount CV H ,V,D −m H,V,D for the super-resolution picture C H,V,D. pH, V, and D may be used. That is, the weight calculator 32 calculates the power fluctuation amounts p H, V, D and the super-resolution picture intensity information cp H, V, D (cp H1, V1, D1 , cp H1, V1, D1 , cp H2,V2,D2 , cp H3,V3,D3 ), the weights tC H,V,D for each of the super-resolution pictures C H,V, D may be calculated.
[Number 4]
tCH =h/(e* cpH1 * pH +f* cpV1 * pV +g* cpD1 * pD ) (4)
[Number 5]
tCV =h/(e* cpH2 * pH +f* cpV2 * pV +g* cpD2 * pD ) (5)
[Number 6]
tC D =h/(e×cp H3 ×p H +f×cp V3 ×p V +g×cp D3 ×p D ) (6)

パラメータe,f,g,hは、予め設定された定数を示す。 Parameters e, f, g, and h represent preset constants.

前記式(4)において、前記式(1)と同様に、例えば水平超解像ピクチャCHについての水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 In the above equation (4), as in the above equation (1), for example, horizontal intensity cp H1 =1.2, vertical intensity cp V1 =1.0 and diagonal intensity cp D1 =1.0 for the horizontal super-resolution picture C H are used. .

前記式(5)において、前記式(2)と同様に、例えば垂直超解像ピクチャCVについての水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 In the above equation (5), similar to the above equation (2), for example, horizontal intensity cp H2 =1.0, vertical intensity cp V2 =1.2 and diagonal intensity cp D2 =1.0 for the vertical super-resolution picture C V are used. .

前記式(6)において、前記式(3)と同様に、対角超解像ピクチャCDについての水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 In the above equation (6), as in the above equation (3), horizontal intensity cp H3 =1.0, vertical intensity cp V3 =1.0 and diagonal intensity cp D3 =1.2 for the diagonal super-resolution picture C D are used. .

このように、前記式(4)(5)(6)に示す重みtCH,V,Dは、パワー変動量pH,V,Dに基づいて算出され、パワー変動量pH,V,Dが正方向に大きいほど、小さい値となり、パワー変動量pH,V,Dが正方向に小さいほど、大きい値となる。この場合、パワー変動量pH,V,Dが正方向に大きいほど、基準ピクチャよりも参照ピクチャがぼやけている可能性が高いため、参照ピクチャに対して基準ピクチャが鮮鋭化している可能性が高い。 Thus, the weights tC H,V,D shown in the above equations (4), (5), and (6) are calculated based on the power fluctuations pH,V,D , and the power fluctuations pH,V,D is larger in the positive direction, the value becomes smaller . In this case, the larger the power fluctuation amounts p H , V, and D in the positive direction, the higher the possibility that the reference picture is more blurred than the reference picture. expensive.

そこで、パワー変動量pH,V,Dが正方向に大きい方向(水平方向、垂直方向及び対角方向)ほど、重みtCH,V,Dを小さい値とすることで、後述するステップS907において、重み乗算後の予測誤差CEH,V,Dを小さい値とし、その方向に対応する超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。つまり、基準ピクチャから参照ピクチャへのパワー変動量pH,V,Dが正方向に大きい方向ほど、ぼやけが大きいと仮定して、鮮鋭化の強い方向の超解像ピクチャの予測画像CYH,V,Dが選択されるようにしている。 Therefore, by setting the weights tC H,V,D to smaller values in the positive direction (horizontal direction, vertical direction, and diagonal direction) in which the power fluctuation amounts p H,V,D are larger, in step S907 described later, , the prediction error CE H,V,D after weight multiplication is set to a small value, and the prediction image CYH ,V,D of the super-resolution picture corresponding to that direction is selected. That is, assuming that blurring is greater in the direction in which the power fluctuation amounts p H , V, and D from the reference picture to the reference picture are larger in the positive direction, the predicted image CY H, V and D are selected.

また、重み算出部32は、超解像ピクチャCH,V,Dにつき、ステップS904において、動き量CVH,V,D-mH,V,Dの代わりに、超解像ピクチャの動き量CVH,V,D-mH,V,D及びパワー変動量pH,V,Dを用いるようにしてもよい。すなわち、重み算出部32は、所定領域毎に、以下の式にて、超解像ピクチャの動き量CVH,V,D-mH,V,D、パワー変動量pH,V,D及び超解像ピクチャの強度情報cpH,V,D(cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3)に基づいて、超解像ピクチャCH,V,Dのそれぞれについて重みtCH,V,Dを算出するようにしてもよい。
[数7]
tCH=o/〔{(i×cpH1×(CVH-mH)+j×cpV1×(CVH-mV)+k×cpD1×(CVH-mD)}+(l×cpH1×pH+m×cpV1×pV+n×cpD1×pD)〕
・・・(7)
[数8]
tCV=o/〔{(i×cpH2×(CVV-mH)+j×cpV2×(CVV-mV)+k×cpD2×(CVV-mD)}+(l×cpH2×pH+m×cpV2×pV+n×cpD2×pD)〕
・・・(8)
[数9]
tCD=o/〔{(i×cpH3×(CVD-mH)+j×cpV3×(CVD-mV)+k×cpD3×(CVD-mD)}+(l×cpH3×pH+m×cpV3×pV+n×cpD3×pD)〕
・・・(9)
In step S904, the weight calculation unit 32 calculates the motion amount of the super-resolution picture instead of the motion amount CVH , V,D -mH ,V,D for the super-resolution picture CH,V,D. CV H,V,D −m H,V,D and power variation p H,V,D may be used. That is, the weight calculator 32 calculates the motion amount CV H,V,D −m H,V,D of the super-resolution picture, the power fluctuation amount p H,V,D , and the power fluctuation amount p H,V,D and Based on the intensity information cpH,V,D ( cpH1,V1,D1 , cpH2,V2,D2 , cpH3,V3,D3 ) of the super-resolution pictures, Weights tC H,V,D may be calculated for each.
[Number 7]
tC H =o/[{(i × cp H1 × (CV H -m H ) + j × cp V1 × (CV H -m V ) + k × cp D1 × (CV H -m D )} + (l × cp H1 × ρH + m × cp V1 × ρ V + n × cp D1 × ρ D )]
... (7)
[Number 8]
tCV = o/[{(i x cp H2 x (CV V - m H ) + j x cp V2 x (CV V - m V ) + k x cp D2 x (CV V - m D )} + (l x cp H2 × ρ H + m × cp V2 × ρ V + n × cp D2 × ρ D )]
... (8)
[Number 9]
tC D =o/[{(i×cp H3 ×(CV D -m H )+j×cp V3 ×(CV D -m V )+k×cp D3 ×(CV D -m D )}+(l×cp H3 × ρ H + m × cp V3 × ρ V + n × cp D3 × ρ D )]
... (9)

パラメータi,j,k,l,m,n,oは、予め設定された定数を示す。 Parameters i, j, k, l, m, n, and o indicate preset constants.

前記式(7)において、前記式(1)と同様に、例えば水平超解像ピクチャCHについての水平強度cpH1=1.2、垂直強度cpV1=1.0及び対角強度cpD1=1.0が用いられる。 In equation (7), similar to equation (1), horizontal intensity cp H1 =1.2, vertical intensity cp V1 =1.0 and diagonal intensity cp D1 =1.0 for horizontal super-resolution picture C H are used, for example. .

また、前記式(8)において、前記式(2)と同様に、例えば垂直超解像ピクチャCVについての水平強度cpH2=1.0、垂直強度cpV2=1.2及び対角強度cpD2=1.0が用いられる。 Further, in the above equation (8), as in the above equation (2), for example, the horizontal intensity cp H2 =1.0, the vertical intensity cp V2 =1.2, and the diagonal intensity cp D2 =1.0 for the vertical super-resolution picture C V are Used.

また、前記式(9)において、前記式(3)と同様に、対角超解像ピクチャCDについての水平強度cpH3=1.0、垂直強度cpV3=1.0及び対角強度cpD3=1.2が用いられる。 Further, in the above equation (9), as in the above equation (3), the horizontal intensity cp H3 =1.0, the vertical intensity cp V3 =1.0, and the diagonal intensity cp D3 =1.2 for the diagonal super-resolution picture C D are Used.

重み算出部32は、ステップS904から移行して、ぼやけピクチャBH,V,Dについて、所定領域毎に、以下の式にて、パワー変動量pH,V,D及びぼやけピクチャの強度情報bpH,V,D(bpH1,V1,D1,bpH2,V2,D2,bpH3,V3,D3)に基づいて、ぼやけピクチャBH,V,Dのそれぞれについて重みtBH,V,Dを算出する(ステップS905)。
[数10]
tBH=s/(p×bpH1×pH+q×bpV1×pV+r×bpD1×pD) ・・・(10)
[数11]
tBV=s/(p×bpH2×pH+q×bpV2×pV+r×bpD2×pD) ・・・(11)
[数12]
tBD=s/(p×bpH3×pH+q×bpV3×pV+r×bpD3×pD) ・・・(12)
The weight calculation unit 32 shifts from step S904 to calculate the power variation amounts p H, V, D and the intensity information bp Based on H,V,D (bpH1 ,V1,D1 , bpH2 ,V2,D2 , bpH3,V3,D3 ), weights tBH ,V, D for each of the blurred pictures BH,V, D are Calculate (step S905).
[Number 10]
tBH =s/(p* bpH1 * pH +q* bpV1 * pV +r* bpD1 * pD ) (10)
[Number 11]
tBV =s/(p* bpH2 * pH +q* bpV2 * pV +r* bpD2 * pD ) (11)
[number 12]
tB D =s/(p×bp H3 ×p H +q×bp V3 ×p V +r×bp D3 ×p D ) (12)

重みtBHは、水平ぼやけピクチャBHの重みを示し、重みtBVは、垂直ぼやけピクチャBVの重みを示し、重みtBDは、水平ぼやけピクチャBDの重みを示す。パラメータp,q,r,sは、予め設定された定数を示す。 Weight tB H indicates the weight of horizontal blurred picture B H , weight tB V indicates the weight of vertical blurred picture B V , and weight tB D indicates the weight of horizontal blurred picture BD . Parameters p, q, r, and s indicate preset constants.

前記式(10)において、水平ぼやけピクチャBHについて、前述したとおり、例えば水平強度bpH1=0.8、垂直強度bpV1=1.0及び対角強度bpD1=1.0が用いられる。 In equation (10) above, for the horizontally blurred picture B H , for example, horizontal intensity bp H1 =0.8, vertical intensity bp V1 =1.0, and diagonal intensity bp D1 =1.0 are used as described above.

前記式(11)において、垂直ぼやけピクチャBVについて、前述したとおり、例えば水平強度bpH2=1.0、垂直強度bpV2=0.8及び対角強度bpD2=1.0が用いられる。 In equation (11) above, for the vertically blurred picture B V , for example, horizontal intensity bp H2 =1.0, vertical intensity bp V2 =0.8, and diagonal intensity bp D2 =1.0 are used as described above.

前記式(12)において、対角ぼやけピクチャBDについて、前述したとおり、例えば水平強度bpH3=1.0、垂直強度bpV3=1.0及び対角強度bpD3=0.8が用いられる。 In equation (12) above, for the diagonally blurred picture B D , for example, horizontal intensity bp H3 =1.0, vertical intensity bp V3 =1.0, and diagonal intensity bp D3 =0.8 are used as described above.

このように、前記式(10)(11)(12)に示す重みtBH,V,Dは、パワー変動量pH,V,Dに基づいて算出され、パワー変動量pH,V,Dが負方向に大きいほど、絶対値が小さい値となり、パワー変動量pH,V,Dが負方向に小さいほど、絶対値が大きい値となる。この場合、パワー変動量pH,V,Dが負方向に大きいほど、基準ピクチャよりも参照ピクチャが鮮鋭化している可能性が高いため、参照ピクチャに対して基準ピクチャがぼやけている可能性が高い。 In this way, the weights tB H,V,D shown in the formulas (10), (11), and (12) are calculated based on the power fluctuations pH,V,D , and the power fluctuations pH,V,D The larger the negative direction, the smaller the absolute value, and the smaller the power fluctuation amount p H, V, D in the negative direction, the larger the absolute value. In this case, the larger the power fluctuation amounts p H , V, and D in the negative direction, the higher the possibility that the reference picture is sharper than the reference picture. expensive.

そこで、パワー変動量pH,V,Dが負方向に大きい値を有する方向(水平方向、垂直方向及び対角方向)ほど、重みtBH,V,Dの絶対値を小さい値とすることで、後述するステップS907において、重み乗算後の予測誤差BEH,V,Dを小さい値とし、その方向に対応するぼやけピクチャの予測画像BYH,V,Dが選択されるようにしている。つまり、基準ピクチャから参照ピクチャへのパワー変動量pH,V,Dが負の大きい値を有する方向ほど、鮮鋭化が大きいと仮定して、ぼやけの強い方向のぼやけピクチャの予測画像BYH,V,Dが選択されるようにしている。 Therefore, by setting the absolute values of the weights tB H, V, D to smaller values in the direction (horizontal direction, vertical direction, and diagonal direction) in which the power fluctuation amounts p H, V, D have larger values in the negative direction, In step S907, which will be described later, the prediction error BEH ,V,D after weight multiplication is set to a small value, and the predicted image BYH,V,D of the blurred picture corresponding to that direction is selected. That is, assuming that sharpening is greater in the direction in which the power fluctuation amounts p H , V, and D from the reference picture to the reference picture have larger negative values, the predicted image BY H, V and D are selected.

尚、重み算出部32は、ぼやけピクチャBH,V,Dにつき、ステップS905において、パワー変動量pH,V,Dの代わりにぼやけピクチャの動き量BVH,V,D-mH,V,D及びパワー変動量pH,V,Dを用いるようにしてもよい。すなわち、重み算出部32は、所定領域毎に、以下の式にて、ぼやけピクチャの動き量BVH,V,D-mH,V,D、パワー変動量pH,V,D及びぼやけピクチャの強度情報bpH,V,D(bpH1,V1,D1,bpH2,V2,D2,bpH3,V3,D3)に基づいて、ぼやけピクチャBH,V,Dのそれぞれについて重みtBH,V,Dを算出するようにしてもよい。
[数13]
tBH=z/〔{(t×bpH1×(BVH-mH)+u×bpV1×(BVH-mV)+v×bpD1×(BVH-mD)}+(w×bpH1×pH+x×bpV1×pV+y×bpD1×pD)〕
・・・(13)
[数14]
tBV=z/〔{(t×bpH2×(BVV-mH)+u×bpV2×(BVV-mV)+v×bpD2×(BVV-mD)}+(w×bpH2×pH+x×bpV2×pV+y×bpD2×pD)〕
・・・(14)
[数15]
tBD=z/〔{(t×bpH3×(BVD-mH)+u×bpV3×(BVD-mV)+v×bpD3×(BVD-mD)}+(w×bpH3×pH+x×bpV3×pV+y×bpD3×pD)〕
・・・(15)
For the blurred pictures BH,V,D, the weight calculator 32 calculates the amount of motion of the blurred picture BVH,V ,D- mH,V instead of the power fluctuation amount pH ,V, D in step S905. , D and the power variations p H,V,D may be used. That is, the weight calculator 32 calculates the motion amount BV H,V,D −m H,V,D of the blurred picture, the power fluctuation amount p H,V,D and the blurred picture Weights tBH , _ _ _ V and D may be calculated.
[Number 13]
tB H =z/[{(t×bp H1 ×(BV H -m H )+u×bp V1 ×(BV H -m V )+v×bp D1 ×(BV H -m D )}+(w×bp H1 ×p H +x×bp V1 ×p V +y×bp D1 ×p D )]
(13)
[Number 14]
tB V =z/[{(t x bp H2 x (BV V - m H ) + u x bp V2 x (BV V - m V ) + v x bp D2 x (BV V - m D )} + (w x bp H2 ×p H +x×bp V2 ×p V +y×bp D2 ×p D )]
(14)
[Number 15]
tB D =z/[{(t×bp H3 ×(BV D -m H )+u×bp V3 ×(BV D -m V )+v×bp D3 ×(BV D -m D )}+(w×bp H3 ×p H +x×bp V3 ×p V +y×bp D3 ×p D )]
(15)

パラメータt,u,v,w,x,y,zは、予め設定された定数を示す。 Parameters t, u, v, w, x, y, and z represent preset constants.

前記式(13)において、前記式(10)と同様に、例えば水平ぼやけピクチャBHについての水平強度bpH1=0.8、垂直強度bpV1=1.0及び対角強度bpD1=1.0が用いられる。 In equation (13), as in equation (10) above, for example, horizontal intensity bp H1 =0.8, vertical intensity bp V1 =1.0 and diagonal intensity bp D1 =1.0 for horizontally blurred picture B H are used.

また、前記式(14)において、前記式(11)と同様に、例えば垂直ぼやけピクチャBVについての水平強度bpH2=1.0、垂直強度bpV2=0.8及び対角強度bpD2=1.0が用いられる。 Also, in the above equation (14), as in the above equation (11), for example, horizontal intensity bp H2 =1.0, vertical intensity bp V2 =0.8, and diagonal intensity bp D2 =1.0 for the vertically blurred picture B V are used. .

また、前記式(15)において、前記式(12)と同様に、対角ぼやけピクチャBDについての水平強度bpH3=1.0、垂直強度bpV3=1.0及び対角強度bpD3=0.8が用いられる。 Also, in the equation (15), as in the equation (12), the horizontal intensity bp H3 =1.0, the vertical intensity bp V3 =1.0 and the diagonal intensity bp D3 =0.8 for the diagonal blurred picture B D are used. .

重み算出部32は、ステップS904にて算出した所定領域毎の超解像ピクチャの重みtCH,V,D、及びステップS905にて算出したぼやけピクチャの重みtBH,V,Dを予測画像選択部33に出力する。 The weight calculation unit 32 uses the weight tC H,V,D of the super-resolution picture for each predetermined region calculated in step S904 and the weight tBH ,V,D of the blurred picture calculated in step S905 to select a predicted image. Output to unit 33 .

(予測画像選択部33)
予測画像選択部33は、重み算出部32から、所定領域毎の超解像ピクチャの重みtCH,V,D及びぼやけピクチャの重みtBH,V,Dを入力する。また、予測画像選択部33は、画面間予測処理部14から、所定領域毎の予測画像KY,CYH,V,D,BYH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを入力する。
(Predicted image selection unit 33)
The predicted image selection unit 33 receives from the weight calculation unit 32 the super-resolution picture weights tCH ,V,D and the blurred picture weights tBH ,V,D for each predetermined region. In addition, the predicted image selection unit 33 selects predicted images KY, CYH ,V,D , BYH,V,D and prediction errors KE, CEH,V,D , and Enter BE H,V,D .

予測画像選択部33は、ステップS905から移行して、所定領域毎に、超解像ピクチャCH,V,Dにつき、超解像ピクチャの予測誤差CEH,V,Dに、対応する重みtCH,V,Dを乗算する。また、予測画像選択部33は、所定領域毎に、ぼやけピクチャBH,V,Dにつき、ぼやけピクチャの予測誤差BEH,V,Dに、対応する重みtBH,V,Dを乗算する(ステップS906)。 The prediction image selection unit 33 shifts from step S905, and for each predetermined region, for each super-resolution picture C H , V, D , the prediction error CE H, V, D of the super-resolution picture is assigned a corresponding weight tC Multiply H,V,D . Further, the predicted image selection unit 33 multiplies the prediction error BE H,V,D of the blurred picture by the corresponding weight tB H,V,D for each of the blurred pictures BH,V,D for each predetermined region ( step S906).

これにより、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dが得られる。 As a result, the prediction error CE H,V,D after weight multiplication of the super-resolution picture and the prediction error BE H,V,D after weight multiplication of the blurred picture are obtained.

予測画像選択部33は、所定領域毎に、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差を特定する。そして、予測画像選択部33は、最小の予測誤差に対応する予測画像を選択する(ステップS907)。これにより、7種類のピクチャの予測画像KY,CYH,V,D,BYH,V,Dのうち、いずれか一つの予測画像が選択される。 The prediction image selection unit 33 selects, for each predetermined region, the prediction error KE of the locally decoded picture, the weight-multiplied prediction error CE H,V,D of the super-resolution picture, and the weight-multiplied prediction error BE H of the blurred picture. , V, D to determine the minimum prediction error. Then, the predicted image selection unit 33 selects the predicted image corresponding to the minimum prediction error (step S907). As a result, one of the predicted images KY, CYH ,V,D , and BYH ,V,D of seven types of pictures is selected.

予測画像選択部33は、所定領域毎に、選択した予測画像を画面間予測結果としてスイッチ119に出力する(ステップS908)。 The predicted image selection unit 33 outputs the selected predicted image as an inter-screen prediction result to the switch 119 for each predetermined region (step S908).

例えば、ある領域について、水平超解像ピクチャの重み乗算後の予測誤差CEHが、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうちの最小値である場合を想定する。この場合、予測画像選択部33は、当該領域について、局部復号ピクチャの予測画像KY、超解像ピクチャの予測画像CYH,V,D、及びぼやけピクチャの予測画像BYH,V,Dのうち、水平超解像ピクチャの予測画像CYHを選択する。そして、予測画像選択部33は、当該領域について、水平超解像ピクチャの予測画像CYHを画面間予測結果としてスイッチ119に出力する。 For example, for a given region, the prediction error CE H after weight multiplication of the horizontal super-resolved picture is the prediction error KE of the locally decoded picture, the prediction error CE H,V,D after weight multiplication of the super-resolution picture, and the blur Suppose that it is the minimum value among the prediction errors BEH , V, D after multiplication of picture weights. In this case, the predicted image selection unit 33 selects the predicted image KY of the local decoded picture, the predicted image CYH,V,D of the super-resolution picture, and the predicted image BYH,V,D of the blurred picture for the region. , select the prediction image CY H of the horizontal super-resolution picture. Then, the predicted image selection unit 33 outputs the predicted image CY H of the horizontal super-resolution picture for the region to the switch 119 as the inter-frame prediction result.

以上のように、本発明の実施形態の動画像符号化装置1によれば、画面間予測部10の超解像処理部11は、局部復号ピクチャKに超解像処理を施し、3種類の超解像ピクチャCH,V,Dを生成し、フレームメモリ13に格納する。ぼやけ処理部12は、局部復号ピクチャKにぼやけ処理を施し、3種類のぼやけピクチャBH,V,Dを生成し、フレームメモリ13に格納する。 As described above, according to the video encoding device 1 of the embodiment of the present invention, the super-resolution processing unit 11 of the inter-picture prediction unit 10 performs super-resolution processing on the locally decoded picture K, Super-resolution pictures C H , V, D are generated and stored in the frame memory 13 . The blur processor 12 applies blur processing to the locally decoded picture K to generate three types of blurred pictures B H , V, and D , and stores them in the frame memory 13 .

画面間予測処理部14は、現在の局部復号ピクチャKである基準ピクチャと、フレームメモリ13から読み出した過去の局部復号ピクチャK、超解像ピクチャCH,V,D及びぼやけピクチャBH,V,Dである参照ピクチャとに基づいて、所定領域毎に、画面間予測を行って動きベクトルKV,CVH,V,D,BVH,V,D、予測画像KY,CYH,V,D,BYH,V,D及び予測誤差KE,CEH,V,D,BEH,V,Dを求める。 The inter-picture prediction processing unit 14 uses a reference picture that is the current locally decoded picture K, past locally decoded pictures K read from the frame memory 13, super-resolution pictures C H, V, D , and blurred pictures B H, V. , D , motion vectors KV, CVH ,V,D , BVH ,V, D and predicted images KY, CYH,V,D are obtained by performing inter-frame prediction for each predetermined region. , BYH ,V,D and prediction errors KE, CEH,V,D , BEH ,V,D .

周波数解析部15は、現在の局部復号ピクチャK及び過去の局部復号ピクチャKについて周波数解析を行い、現在の局部復号ピクチャKの解析結果から過去の局部復号ピクチャKの解析結果を減算し、周波数帯域毎かつ位相位置毎のパワー変動情報を求める。 The frequency analysis unit 15 performs frequency analysis on the current locally decoded picture K and the past locally decoded picture K, subtracts the analysis result of the past locally decoded picture K from the analysis result of the current locally decoded picture K, and determines the frequency band. Power fluctuation information for each phase position is obtained.

選択部16は、所定領域毎に、超解像ピクチャの動きベクトルCVH,V,D及び超解像ピクチャの強度情報cpH,V,Dに基づいて、超解像ピクチャの重みtCH,V,Dを算出する。また、選択部16は、所定領域毎に、パワー変動情報及びぼやけピクチャの強度情報bpH,V,Dに基づいて、ぼやけピクチャの重みtBH,V,Dを算出する。 The selection unit 16 selects weights tC H , Calculate V and D. The selection unit 16 also calculates the weights tB H,V,D of the blurred picture based on the power fluctuation information and the intensity information bp H,V,D of the blurred picture for each predetermined region.

選択部16は、所定領域毎に、超解像ピクチャの予測誤差CEH,V,Dに、対応する重みtCH,V,Dを乗算し、ぼやけピクチャの予測誤差BEH,V,Dに、対応する重みtBH,V,Dを乗算する。選択部16は、所定領域毎に、局部復号ピクチャの予測誤差KE、超解像ピクチャの重み乗算後の予測誤差CEH,V,D、及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 For each predetermined region, the selection unit 16 multiplies the prediction errors CE H,V,D of the super-resolution picture by the corresponding weights tC H,V,D to obtain the prediction errors BE H,V,D of the blurred picture. , by the corresponding weights tB H,V,D . The selection unit 16 selects the prediction error KE of the locally decoded picture, the weight-multiplied prediction error CE H,V,D of the super-resolution picture, and the weight-multiplied prediction error BE H,V of the blurred picture for each predetermined region. , D , select the predicted image corresponding to the smallest prediction error.

このように、画面間予測処理に用いる参照ピクチャとして、局部復号ピクチャKに加え、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dが生成される。そして、所定領域毎に、ピクチャのパワー変動量、動き量等が考慮され、ぼやけ及び鮮鋭化、並びにこれらの方向性を考慮した最適なピクチャが予測画像として選択される。 In this way, in addition to the local decoded picture K, three types of super-resolution pictures C H, V, D and three types of blurred pictures B H, V, D are generated as reference pictures used for inter prediction processing. . Then, for each predetermined region, the amount of power fluctuation, the amount of motion, etc. of the picture are taken into consideration, and the optimum picture is selected as the prediction image in consideration of blurring and sharpening, and their directionality.

これにより、過去のピクチャから現在のピクチャへ向けてオブジェクトのぼやけが起こる場合、予測画像としてぼやけピクチャBが選択され、オブジェクトの鮮鋭化が起こる場合、超解像ピクチャCが選択される。このため、入力動画像と予測画像との間の残差を小さくすることができる。 As a result, when the object is blurred from the past picture to the current picture, the blurred picture B is selected as the prediction image, and when the object is sharpened, the super-resolution picture C is selected. Therefore, it is possible to reduce the residual error between the input moving image and the predicted image.

従来技術では、局部復号ピクチャKのみを参照ピクチャとして画面間予測を行うことで、客観的に高画質な動画像を得ることができた。しかし、従来技術では、ぼやけまたは鮮鋭化が起こる動画像と、通常の動画像(ぼやけまたは鮮鋭化が起こらない動画像)とを区別した画面間予測を行うことができない。また、水平方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像と、垂直方向の動きに伴うぼやけまたは鮮鋭化が起こる動画像とを区別した画面間予測を行うことができない。 In the prior art, by performing inter-picture prediction using only the locally decoded picture K as a reference picture, it was possible to obtain an objectively high-quality video. However, with the conventional technology, it is not possible to perform inter-frame prediction that distinguishes between a moving image that is blurred or sharpened and a normal moving image (that is, a moving image that is not blurred or sharpened). In addition, it is not possible to perform inter-frame prediction by distinguishing between a moving image that blurs or sharpens due to horizontal movement and a moving image that blurs or sharpens due to vertical movement.

本発明の実施形態では、ぼやけ及び鮮鋭化、並びにこれらの方向性を考慮した画面間予測を行うようにした。したがって、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、画面間予測効率を向上させることができると共に、主観的に高画質な動画像を得ることが可能となる。 In the embodiment of the present invention, blurring and sharpening, and inter-frame prediction in consideration of their directionality are performed. Therefore, it is possible to improve the efficiency of inter-picture prediction and obtain subjectively high-quality moving images even when objects are blurred or sharpened in each area between pictures of moving images. becomes.

〔動画像復号装置〕
次に、本発明の実施形態による動画像復号装置について説明する。図12は、本発明の実施形態による動画像復号装置の構成例を示すブロック図である。この動画像復号装置2は、エントロピー復号部50、逆量子化部51、逆直交変換部52、加算部53、画面内予測部54、インループフィルタ55、画面間予測部56及びスイッチ57を備えている。尚、図12には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Video decoding device]
Next, a video decoding device according to an embodiment of the present invention will be described. FIG. 12 is a block diagram showing a configuration example of the video decoding device according to the embodiment of the present invention. The video decoding device 2 includes an entropy decoding unit 50, an inverse quantization unit 51, an inverse orthogonal transform unit 52, an addition unit 53, an intra-frame prediction unit 54, an in-loop filter 55, an inter-frame prediction unit 56, and a switch 57. ing. FIG. 12 shows only components directly related to the present invention, and components not directly related are omitted.

エントロピー復号部50は、図1に示した動画像符号化装置1から出力された符号化信号を入力し、図1に示したエントロピー符号化部120の逆の処理を行うことで、符号化信号に対しエントロピー復号を行い、量子化インデックス列及びパラメータを生成する。 The entropy decoding unit 50 receives the encoded signal output from the video encoding device 1 shown in FIG. 1 and performs the reverse processing of the entropy encoding unit 120 shown in FIG. is subjected to entropy decoding to generate a quantization index sequence and parameters.

エントロピー復号部50は、量子化インデックス列を逆量子化部51に出力し、所定領域毎に選択された予測画像の種類及び算出された動きベクトルを含むパラメータを画面間予測部56に出力すると共に、他のパラメータを逆量子化部51等に出力する。 The entropy decoding unit 50 outputs the quantization index sequence to the inverse quantization unit 51, and outputs parameters including the type of predicted image selected for each predetermined region and the calculated motion vector to the inter-screen prediction unit 56. , and other parameters to the inverse quantization unit 51 and the like.

逆量子化部51は、エントロピー復号部50から量子化インデックス列を入力し、図1に示した量子化部112の逆の処理を行うことで、量子化インデックス列を逆量子化し、変換係数列を生成する。そして、逆量子化部51は、変換係数列を逆直交変換部52に出力する。 The inverse quantization unit 51 receives the quantization index sequence from the entropy decoding unit 50 and performs the reverse processing of the quantization unit 112 shown in FIG. to generate The inverse quantization unit 51 then outputs the transform coefficient sequence to the inverse orthogonal transform unit 52 .

逆直交変換部52は、逆量子化部51から変換係数列を入力し、図1に示した直交変換部111の逆の処理を行うことで、変換係数列を逆直交変換し、復号残差画像を生成する。そして、逆直交変換部52は、復号残差画像を加算部53に出力する。 The inverse orthogonal transform unit 52 receives the transform coefficient sequence from the inverse quantization unit 51, performs the inverse process of the orthogonal transform unit 111 shown in FIG. Generate an image. The inverse orthogonal transform unit 52 then outputs the decoded residual image to the addition unit 53 .

加算部53は、逆直交変換部52から復号残差画像を入力すると共に、スイッチ57から予測画像を入力する。そして、加算部53は、予測画像に復号残差画像を加算し、加算後の画像を画面内予測部54及びインループフィルタ55に出力する。 The adder 53 receives the decoded residual image from the inverse orthogonal transform unit 52 and the predicted image from the switch 57 . Then, the addition unit 53 adds the decoded residual image to the predicted image, and outputs the image after the addition to the intra-frame prediction unit 54 and the in-loop filter 55 .

画面内予測部54は、加算部53から加算後の画像を入力し、図1に示した画面内予測部116と同様の処理を行うことで、所定領域毎に、加算後の画像に画面内予測処理を施し、所定領域毎の画面内予測結果をスイッチ57に出力する。また、画面内予測部54は、加算後の画像を復号画像として出力する。これにより、元の動画像が復元される。 The intra-screen prediction unit 54 receives the image after addition from the addition unit 53 and performs the same processing as the intra-screen prediction unit 116 shown in FIG. Prediction processing is performed, and an intra-screen prediction result for each predetermined area is output to the switch 57 . Further, the intra-screen prediction unit 54 outputs the image after addition as a decoded image. As a result, the original moving image is restored.

インループフィルタ55は、加算部53から加算後の画像を入力し、図1に示したインループフィルタ117と同様の処理を行うことで、加算後の画像にフィルタ処理を施し、復号ピクチャK’を生成する。そして、インループフィルタ55は、復号ピクチャK’を画面間予測部56に出力する。 The in-loop filter 55 receives the image after addition from the adding unit 53, performs the same processing as the in-loop filter 117 shown in FIG. to generate The in-loop filter 55 then outputs the decoded picture K′ to the inter-picture prediction unit 56 .

画面間予測部56は、インループフィルタ55から復号ピクチャK’を入力すると共に、エントロピー復号部50から、所定領域毎に選択された予測画像の種類及び算出された動きベクトルを含むパラメータを入力する。そして、画面間予測部56は、所定領域毎に、パラメータに基づいて所定の画面間予測処理を行うことで、局部復号ピクチャの予測画像KY’、3種類の超解像ピクチャの予測画像CYH,V,D’(水平超解像ピクチャの予測画像CYH’、垂直超解像ピクチャの予測画像CYV’及び対角超解像ピクチャの予測画像CYD’)、及び3種類のぼやけピクチャの予測画像BYH,V,D’(水平ぼやけピクチャの予測画像BYH’、垂直ぼやけピクチャの予測画像BYV’及び対角ぼやけピクチャの予測画像BYD’)のうちのいずれか一つの予測画像を生成し、これを所定領域毎の画面間予測結果としてスイッチ57に出力する。また、画面間予測部56は、復号ピクチャK’を復号画像として出力する。これにより、元の動画像が復元される。画面間予測部56の詳細については後述する。 The inter-screen prediction unit 56 receives the decoded picture K′ from the in-loop filter 55, and also receives parameters including the type of predicted image selected for each predetermined region and the calculated motion vector from the entropy decoding unit 50. . Then, the inter-picture prediction unit 56 performs a predetermined inter-picture prediction process based on a parameter for each predetermined region to obtain a prediction image KY′ of the local decoded picture, a prediction image CY′ of the three types of super-resolution pictures, and , V, D ' (horizontal super-resolution picture predicted image CY H ', vertical super-resolution picture predicted image CY V ' and diagonal super-resolution picture predicted image CY D '), and three types of blurred pictures any one of the predicted images BY H,V,D ' (horizontal blurred picture predicted image BY H ', vertical blurred picture predicted image BY V ', and diagonal blurred picture predicted image BY D ') An image is generated and output to the switch 57 as an inter-screen prediction result for each predetermined area. Also, the inter prediction unit 56 outputs the decoded picture K' as a decoded image. As a result, the original moving image is restored. Details of the inter-screen prediction unit 56 will be described later.

スイッチ57は、画面内予測部54から所定領域毎の画面内予測結果を入力すると共に、画面間予測部56から所定領域毎の画面間予測結果を入力し、いずれか一方を選択し、予測画像として加算部53に出力する。 The switch 57 receives the intra-prediction result for each predetermined region from the intra-prediction unit 54 and the inter-prediction result for each predetermined region from the inter-prediction unit 56, selects one of them, and selects the predicted image. , and output to the addition unit 53 .

〔画面間予測部56〕
次に、図12に示した画面間予測部56について詳細に説明する。図13は、動画像復号装置2に備えた画面間予測部56の構成例を示すブロック図である。この画面間予測部56は、超解像処理部60、ぼやけ処理部61、フレームメモリ62、画面間予測処理部63及びパラメータ処理部64を備えている。尚、図13には、本発明に直接関連する構成部のみを示しており、直接関連しない構成部は省略してある。
[Inter-screen prediction unit 56]
Next, the inter-screen prediction unit 56 shown in FIG. 12 will be described in detail. FIG. 13 is a block diagram showing a configuration example of the inter-frame prediction section 56 provided in the video decoding device 2. As shown in FIG. The inter-screen prediction unit 56 includes a super-resolution processing unit 60 , a blur processing unit 61 , a frame memory 62 , an inter-screen prediction processing unit 63 and a parameter processing unit 64 . Note that FIG. 13 shows only components directly related to the present invention, and components not directly related are omitted.

画面間予測部56は、インループフィルタ55から復号ピクチャK’を入力し、復号ピクチャK’をフレームメモリ62に格納する。また、画面間予測部56のパラメータ処理部64は、エントロピー復号部50から、所定領域毎に選択された予測画像の種類及び算出された動きベクトルを含むパラメータを入力し、パラメータを画面間予測処理部63に出力する。予測画像の種類は、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dのうちのいずれか一つ(7種類のピクチャのうちのいずれか一つ)を示している。 The inter prediction unit 56 receives the decoded picture K′ from the in-loop filter 55 and stores the decoded picture K′ in the frame memory 62 . Further, the parameter processing unit 64 of the inter-screen prediction unit 56 receives parameters including the type of predicted image selected for each predetermined region and the calculated motion vector from the entropy decoding unit 50, and applies the parameters to inter-screen prediction processing. Output to unit 63 . The type of prediction image is one of local decoded picture K, three types of super-resolution pictures C H, V, D , and three types of blurred pictures B H, V, D (out of seven types of pictures, ) is shown.

超解像処理部60は、復号ピクチャK’に対し、図2に示した超解像処理部11と同様の超解像処理を施し、3種類の超解像ピクチャCH,V,D’(水平超解像ピクチャCH’、垂直超解像ピクチャCV’及び対角超解像ピクチャCD’)を生成する。超解像処理部60は、3種類の超解像ピクチャCH,V,D’をフレームメモリ62に格納する。 The super-resolution processing unit 60 performs super-resolution processing similar to that of the super-resolution processing unit 11 shown in FIG . Generate (horizontal super-resolved picture C H ', vertical super-resolved picture C V ' and diagonal super-resolved picture C D '). The super-resolution processing unit 60 stores three types of super-resolution pictures CH,V,D ' in the frame memory 62. FIG.

ぼやけ処理部61は、復号ピクチャK’に対し、図2に示したぼやけ処理部12と同様のぼやけ処理を施し、ぼやけピクチャBH,V,D’(水平ぼやけピクチャBH’、垂直ぼやけピクチャBV’及び対角ぼやけピクチャBD’)を生成する。ぼやけ処理部61は、3種類のぼやけピクチャBH,V,D’をフレームメモリ62に格納する。 The blur processing unit 61 performs blur processing similar to that of the blur processing unit 12 shown in FIG. B V ' and diagonally blurred picture B D '). The blur processor 61 stores three types of blurred pictures B H , V, D ′ in the frame memory 62 .

フレームメモリ62には、復号ピクチャK’、3種類の超解像ピクチャCH,V,D’及び3種類のぼやけピクチャBH,V,D’がフレーム毎に格納される。 The frame memory 62 stores a decoded picture K', three kinds of super-resolution pictures CH,V,D ', and three kinds of blurred pictures BH ,V,D ' for each frame.

画面間予測処理部63は、パラメータ処理部64からパラメータを入力し、パラメータに含まれる予測画像の種類が局部復号ピクチャKを示している場合、フレームメモリ62に格納された復号ピクチャK’を過去の復号ピクチャK’として読み出す。 The inter prediction processing unit 63 receives a parameter from the parameter processing unit 64, and when the type of predicted image included in the parameter indicates the locally decoded picture K, the decoded picture K′ stored in the frame memory 62 is pasted. is read out as a decoded picture K'.

また、画面間予測処理部63は、パラメータに含まれる予測画像の種類が水平超解像ピクチャCH、垂直超解像ピクチャCV及び対角超解像ピクチャCDのいずれかを示している場合、フレームメモリ62に格納された対応する超解像ピクチャC’(予測画像の種類に対応する、水平超解像ピクチャCH’、垂直超解像ピクチャCV’及び対角超解像ピクチャCD’のうちのいずれか一つのピクチャ)を、過去の超解像ピクチャC’として読み出す。 Further, the inter prediction processing unit 63 indicates that the type of predicted image included in the parameter is one of the horizontal super-resolution picture C H , the vertical super-resolution picture C V , and the diagonal super-resolution picture C D . , the corresponding super-resolved picture C′ stored in the frame memory 62 (horizontal super-resolved picture C H ', vertical super-resolved picture C V ', and diagonal super-resolved picture corresponding to the type of predicted image C D ') is read as a past super-resolution picture C'.

また、画面間予測処理部63は、パラメータに含まれる予測画像の種類が水平ぼやけピクチャBH、垂直ぼやけピクチャBV及び対角ぼやけピクチャBDのいずれかを示している場合、フレームメモリ62に格納された対応するぼやけピクチャB’(予測画像の種類に対応する、水平ぼやけピクチャBH’、垂直ぼやけピクチャBV’及び対角ぼやけピクチャBD’のうちのいずれか一つのピクチャ)を、過去のぼやけピクチャB’として読み出す。 Further, when the type of predicted image included in the parameter indicates any one of horizontal blurred picture BH , vertical blurred picture BV , and diagonally blurred picture BD , inter-picture prediction processing unit 63 stores the stored corresponding blurred picture B' (any one of horizontal blurred picture BH', vertical blurred picture BV', and diagonal blurred picture BD ' corresponding to the predicted image type), It is read as a past blurred picture B'.

画面間予測処理部63は、過去の復号ピクチャK’、超解像ピクチャC’またはぼやけピクチャB’、及びパラメータに含まれる動きベクトルに基づいて、画面間予測を行い、所定領域毎に、予測画像を求める。所定領域は、図2と同様に、例えばslice(スライス)領域、CTU(Coding Tree Unit:コーディングツリーユニット)領域、CU(Coding Unit:コーディングユニット)領域である。 The inter-screen prediction processing unit 63 performs inter-screen prediction based on the past decoded picture K', the super-resolution picture C' or the blurred picture B', and the motion vector included in the parameter, and performs prediction for each predetermined region. Ask for images. The predetermined area is, for example, a slice area, a CTU (Coding Tree Unit) area, or a CU (Coding Unit) area, as in FIG.

画面間予測処理部63は、所定領域毎の予測画像を画面間予測結果としてスイッチ57に出力する。 The inter-screen prediction processing unit 63 outputs the predicted image for each predetermined area to the switch 57 as an inter-screen prediction result.

また、図示しない読み出し部は、フレームメモリ62から復号ピクチャK’を読み出し、これを復号画像Oとして出力する。 A reading unit (not shown) reads the decoded picture K' from the frame memory 62 and outputs it as the decoded picture O. FIG.

以上のように、本発明の実施形態の動画像復号装置2によれば、画面間予測部56の超解像処理部60は、復号ピクチャK’に基づいて3種類の超解像ピクチャCH,V,D’を生成し、フレームメモリ62に格納する。ぼやけ処理部61は、復号ピクチャK’に基づいて3種類のぼやけピクチャBH,V,D’を生成し、フレームメモリ62に格納する。 As described above, according to the video decoding device 2 of the embodiment of the present invention, the super-resolution processing unit 60 of the inter-picture prediction unit 56 generates three types of super-resolution pictures CH based on the decoded picture K ′. , V, D ′ are generated and stored in the frame memory 62 . The blur processor 61 generates three types of blurred pictures B H , V, D ′ based on the decoded picture K′ and stores them in the frame memory 62 .

画面間予測処理部63は、パラメータに含まれる予測画像の種類に従い、フレームメモリ62から復号ピクチャK’、超解像ピクチャC’(水平超解像ピクチャCH’、垂直超解像ピクチャCV’及び対角超解像ピクチャCD’のうちのいずれか一つのピクチャ)またはぼやけピクチャB’(水平ぼやけピクチャBH’、垂直ぼやけピクチャBV’及び対角ぼやけピクチャBD’のうちのいずれか一つのピクチャ)を読み出し、読み出したピクチャ、及びパラメータに含まれる動きベクトルに基づいて、所定領域毎に予測画像を求める。 The inter-screen prediction processing unit 63 extracts the decoded picture K′ and super-resolution picture C′ (horizontal super-resolution picture C H ', vertical super-resolution picture C V ) from the frame memory 62 according to the type of predicted image included in the parameter. ' and diagonal super-resolution picture C D ') or blurred picture B' (one of horizontal blurred picture B H ', vertical blurred picture B V ' and diagonal blurred picture B D ') Any one picture) is read, and a predicted image is obtained for each predetermined region based on the read picture and the motion vector included in the parameter.

このように、動画像符号化装置1において、画面間予測処理に用いる参照ピクチャとして、局部復号ピクチャK、3種類の超解像ピクチャCH,V,D及び3種類のぼやけピクチャBH,V,Dが生成され、領域単位で、ピクチャのパワー変動量、動き量等が考慮され、最適なピクチャが予測画像として選択された場合、動画像復号装置2では、動画像符号化装置1から入力したパラメータに含まれる予測画像の種類に従い、動画像符号化装置1にて選択された予測画像と同じ種類の予測画像が生成され、復号画像が生成される。 As described above, in the moving picture encoding device 1, as reference pictures used for inter-picture prediction processing, the locally decoded picture K, the three types of super-resolution pictures CH , V, D , and the three types of blurred pictures B H, V , D are generated, and the amount of power fluctuation, the amount of motion, etc. of the picture is considered for each region, and the optimum picture is selected as the predicted image. A predicted image of the same type as the predicted image selected by the moving image encoding device 1 is generated according to the type of predicted image included in the parameter, and a decoded image is generated.

これにより、過去のピクチャから現在のピクチャへ向けてオブジェクトのぼやけが起こる場合、ぼやけピクチャB’が選択され、オブジェクトの鮮鋭化が起こる場合、超解像ピクチャC’が選択され、予測画像が生成される。つまり、ぼやけ及び鮮鋭化、並びにこれらの方向性を考慮した予測画像が生成される。 As a result, when the object is blurred from the past picture to the current picture, the blurred picture B' is selected, and when the object is sharpened, the super-resolution picture C' is selected to generate the predicted image. be done. That is, a predicted image is generated that considers blurring and sharpening, and their directionality.

したがって、動画像のピクチャ間で領域毎にオブジェクトのぼやけまたは鮮鋭化が起こる場合であっても、画面間予測効率を向上させることができると共に、主観的に高画質な動画像を得ることが可能となる。 Therefore, it is possible to improve the efficiency of inter-picture prediction and obtain subjectively high-quality moving images even when objects are blurred or sharpened in each area between pictures of moving images. becomes.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments, and can be variously modified without departing from the technical idea thereof.

(超解像処理部11,60及びぼやけ処理部12,61のいずれか一方を備える例)
前記実施形態では、図2に示したとおり、動画像符号化装置1の画面間予測部10は、超解像処理部11及びぼやけ処理部12を備えるようにした。また、図13に示したとおり、動画像復号装置2の画面間予測部56は、超解像処理部60及びぼやけ処理部61を備えるようにした。
(Example provided with either one of the super-resolution processing units 11 and 60 and the blurring processing units 12 and 61)
In the above embodiment, as shown in FIG. 2, the inter-frame prediction unit 10 of the video encoding device 1 is provided with the super-resolution processing unit 11 and the blurring processing unit 12 . Further, as shown in FIG. 13 , the inter-screen prediction unit 56 of the video decoding device 2 is provided with a super-resolution processing unit 60 and a blurring processing unit 61 .

これに対し、画面間予測部10は、超解像処理部11及びぼやけ処理部12のうちのいずれか一方を備えるようにしてもよい。また、画面間予測部56は、画面間予測部10に対応して、超解像処理部60及びぼやけ処理部61のうちのいずれか一方を備えるようにしてもよい。 On the other hand, the inter-screen prediction unit 10 may include either one of the super-resolution processing unit 11 and the blurring processing unit 12 . Further, the inter-screen prediction unit 56 may include either one of the super-resolution processing unit 60 and the blurring processing unit 61 corresponding to the inter-screen prediction unit 10 .

動画像符号化装置1の画面間予測部10が超解像処理部11を備え、ぼやけ処理部12を備えていない場合、画面間予測部10の画面間予測処理部14は、基準ピクチャ、及び、過去の局部復号ピクチャK及び超解像ピクチャCH,V,Dである参照ピクチャに基づき、画面間予測を行い、所定領域毎に、動きベクトルKV,CVH,V,D、予測画像KY,CYH,V,D及び予測誤差KE,CEH,V,Dを求める。 When the inter-prediction unit 10 of the video encoding device 1 includes the super-resolution processing unit 11 and does not include the blurring processing unit 12, the inter-prediction processing unit 14 of the inter-prediction unit 10 generates a reference picture, and , past local decoded picture K and super-resolution pictures CH,V,D based on reference pictures, and for each predetermined region, motion vectors KV, CVH ,V,D and predicted image KY , CY H,V,D and prediction errors KE,CE H,V,D .

選択部16は、所定領域毎に、前述と同様の処理にて、局部復号ピクチャの予測誤差KE及び超解像ピクチャの重み乗算後の予測誤差CEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 For each predetermined region, the selection unit 16 performs the same processing as described above to determine the minimum prediction error among the prediction error KE of the locally decoded picture and the prediction error CE after weight multiplication of the super-resolution picture H,V,D. Select the predicted image corresponding to .

動画像復号装置2の画面間予測部56が超解像処理部60を備え、ぼやけ処理部61を備えていない場合、画面間予測部56の画面間予測処理部63は、パラメータに含まれる予測画像の種類に従い、フレームメモリ62から復号ピクチャK’及び超解像ピクチャC’のうちのいずれか一つのピクチャを読み出し、読み出したピクチャ、及びパラメータに含まれる動きベクトルに基づいて、所定領域毎に予測画像を求める。 When the inter-screen prediction unit 56 of the moving image decoding device 2 includes the super-resolution processing unit 60 and does not include the blurring processing unit 61, the inter-screen prediction processing unit 63 of the inter-screen prediction unit 56 performs prediction included in the parameters. One of the decoded picture K' and the super-resolution picture C' is read from the frame memory 62 according to the type of image, and based on the read picture and the motion vector included in the parameter, for each predetermined region Find the predicted image.

一方、動画像符号化装置1の画面間予測部10がぼやけ処理部12を備え、超解像処理部11を備えていない場合、画面間予測部10の画面間予測処理部14は、基準ピクチャ、及び、過去の局部復号ピクチャK及びぼやけピクチャBH,V,Dである参照ピクチャに基づき、画面間予測を行い、所定領域毎に、動きベクトルKV,BVH,V,Dを求め、予測画像KY,BYH,V,D及び予測誤差KE,BEH,V,Dを求める。 On the other hand, when the inter-prediction unit 10 of the video encoding device 1 includes the blur processing unit 12 and does not include the super-resolution processing unit 11, the inter-prediction processing unit 14 of the inter-prediction unit 10 uses the reference picture , and based on reference pictures, which are past locally decoded pictures K and blurred pictures B H, V, D , perform inter-picture prediction, obtain motion vectors KV, BV H, V, D for each predetermined region, and predict Obtain images KY, BY H,V,D and prediction errors KE,BE H,V,D .

選択部16は、所定領域毎に、前述と同様の処理にて、局部復号ピクチャの予測誤差KE及びぼやけピクチャの重み乗算後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 The selection unit 16 performs the same processing as described above for each predetermined region, and selects the smallest prediction error among the prediction error KE of the locally decoded picture and the prediction error BEH ,V,D after weight multiplication of the blurred picture. Select the predicted image to use.

動画像復号装置2の画面間予測部56がぼやけ処理部61を備え、超解像処理部60を備えていない場合、画面間予測部56の画面間予測処理部63は、パラメータに含まれる予測画像の種類に従い、フレームメモリ62から復号ピクチャK’及びぼやけピクチャB’のうちのいずれか一つのピクチャを読み出し、読み出したピクチャ、及びパラメータに含まれる動きベクトルに基づいて、所定領域毎に予測画像を求める。 When the inter-screen prediction unit 56 of the moving image decoding device 2 includes the blur processing unit 61 and does not include the super-resolution processing unit 60, the inter-screen prediction processing unit 63 of the inter-screen prediction unit 56 performs prediction included in the parameters. Either one of the decoded picture K' and the blurred picture B' is read from the frame memory 62 according to the type of picture, and a predicted picture is generated for each predetermined region based on the read picture and the motion vector included in the parameter. Ask for

(予測画像の他の選択処理)
また、前記実施形態では、動画像符号化装置1の画面間予測部10に備えた選択部16は、所定領域毎に、超解像ピクチャの重みtCH,V,D及びぼやけピクチャの重みtBH,V,Dを算出し、局部復号ピクチャの予測誤差KE、超解像ピクチャの重みtCH,V,Dを乗算した後の予測誤差CEH,V,D、及び、ぼやけピクチャの重みtBH,V,Dを乗算した後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択するようにした。
(Other selection processing of predicted image)
In the above-described embodiment, the selection unit 16 provided in the inter-picture prediction unit 10 of the video encoding device 1 selects weights tC H,V,D for super-resolution pictures and weights tB for blurred pictures for each predetermined region. H,V,D are calculated, prediction error CE after multiplication by local decoded picture prediction error KE, super-resolution picture weight tC H,V,D , and blurred picture weight tB Among the prediction errors BEH ,V,D multiplied by H,V,D , the prediction image corresponding to the minimum prediction error is selected.

これに対し、選択部16は、先に、選択されるべき予測画像の種類を判定し、当該種類の中で、予測画像を選択するようにしてもよい。予測画像の種類は、局部復号ピクチャK、超解像ピクチャC及びぼやけピクチャBのうちのいずれか一つ(3種類のうちのいずれか一つ)である。 On the other hand, the selection unit 16 may first determine the type of predicted image to be selected, and select a predicted image from among the types. The type of predicted image is any one of locally decoded picture K, super-resolution picture C, and blurred picture B (any one of three types).

具体的には、選択部16は、パワー変動情報から算出したパワー変動量pH,V,Dを用いて、所定領域毎に、その水平パワー変動量pH、垂直パワー変動量pV及び対角パワー変動量pDの合計または平均をパワー変動量として求め、パワー変動量の閾値処理を行う。 Specifically, using the power fluctuation amounts p H, V, and D calculated from the power fluctuation information, the selection unit 16 selects the horizontal power fluctuation amount p H , the vertical power fluctuation amount p V , and the corresponding power fluctuation amount p V for each predetermined region. The sum or average of the angular power fluctuation amounts p D is obtained as the power fluctuation amount, and the power fluctuation amount is subjected to threshold processing.

選択部16は、パワー変動量が第1の閾値(予め設定された正の値)よりも大きいと判定した場合、予測画像の種類として超解像ピクチャCを判定する。パワー変動量が第1の閾値よりも大きい場合は、現在のピクチャのパワーが過去の画像よりも大きいため、現在の画像が過去の画像に比べ、鮮鋭化していると判断できるからである。この場合、選択部16は、前述と同様の処理にて、超解像ピクチャの重みtCH,V,Dを乗算した後の予測誤差CEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 When the selection unit 16 determines that the power variation amount is larger than the first threshold value (preset positive value), the selection unit 16 determines super-resolution picture C as the type of predicted image. This is because when the power fluctuation amount is greater than the first threshold, the power of the current picture is greater than that of the past image, so it can be determined that the current image is sharper than the past image. In this case, the selection unit 16, in the same process as described above, selects the smallest prediction error among the prediction errors CE H,V,D after being multiplied by the weights tC H, V,D of the super-resolution picture. Select the predicted image to use.

また、選択部16は、パワー変動量が第1の閾値と第2の閾値(予め設定された負の値)との間にあると判定した場合、予測画像の種類として局部復号ピクチャKを判定する。パワー変動量が第1の閾値と第2の閾値との間にある場合は、現在のピクチャのパワーと過去のピクチャのパワーとがほぼ同じであるため、現在の画像が過去の画像に比べ、ぼやけておらず、かつ鮮鋭化していないと判断できるからである。この場合、選択部16は、局部復号ピクチャKを予測画像として選択する。 Further, when the selection unit 16 determines that the power fluctuation amount is between the first threshold value and the second threshold value (negative value set in advance), the selection unit 16 determines the locally decoded picture K as the predicted image type. do. When the power fluctuation amount is between the first threshold and the second threshold, the power of the current picture and the power of the past picture are almost the same, so the current picture is more powerful than the past picture. This is because it can be determined that the image is neither blurred nor sharpened. In this case, the selection unit 16 selects the locally decoded picture K as the prediction image.

また、選択部16はパワー変動量が第2の閾値よりも小さいと判定した場合、予測画像の種類としてぼやけピクチャBを判定する。パワー変動量が第2の閾値よりも小さい場合は、現在のピクチャのパワーが過去の画像よりも小さいため、現在の画像が過去の画像に比べ、ぼやけていると判断できるからである。この場合、選択部16は、前述と同様の処理にて、ぼやけピクチャの重みtBH,V,Dを乗算した後の予測誤差BEH,V,Dのうち、最小の予測誤差に対応する予測画像を選択する。 Further, when the selection unit 16 determines that the amount of power fluctuation is smaller than the second threshold, the selection unit 16 determines the blurred picture B as the type of predicted image. This is because when the power fluctuation amount is smaller than the second threshold, the power of the current picture is smaller than the power of the past image, so it can be determined that the current image is more blurred than the past image. In this case, the selection unit 16 performs the same process as described above to perform the prediction corresponding to the smallest prediction error among the prediction errors BEH ,V,D multiplied by the weights tBH,V,D of the blurred picture. Select an image.

また、本発明の実施形態は、例えば、ピクチャ間で被写界深度内外に移動するオブジェクトを含む場合、オブジェクトが静止状態から動作状態に変化し、またはその逆の状態に変化した場合に適用がある。例えばカメラが突然パンまたはチルトの動作をした場合、これらの動作が停止した場合、画面内でオブジェクトが奥から手前へ移動した場合、この逆に移動した場合等に適用がある。 Embodiments of the present invention are also applicable, for example, when including objects that move in and out of depth of field between pictures, when objects change from stationary to moving, or vice versa. be. For example, when the camera suddenly pans or tilts, when these operations stop, when an object moves from the back to the front in the screen, or vice versa.

尚、本発明の実施形態による動画像符号化装置1及び動画像復号装置2のハードウェア構成としては、通常のコンピュータを使用することができる。動画像符号化装置1及び動画像復号装置2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。 A normal computer can be used as the hardware configuration of the moving image encoding device 1 and the moving image decoding device 2 according to the embodiment of the present invention. The moving image encoding device 1 and the moving image decoding device 2 are configured by a computer having a CPU, a volatile storage medium such as a RAM, a nonvolatile storage medium such as a ROM, an interface, and the like.

動画像符号化装置1に備えた減算部110、直交変換部111、量子化部112、逆量子化部113、逆直交変換部114、加算部115、画面内予測部116、インループフィルタ117、画面間予測部10、スイッチ119及びエントロピー符号化部120の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Subtraction unit 110 provided in video encoding device 1, orthogonal transformation unit 111, quantization unit 112, inverse quantization unit 113, inverse orthogonal transformation unit 114, addition unit 115, intra-screen prediction unit 116, in-loop filter 117, Each function of the inter-screen prediction unit 10, the switch 119, and the entropy coding unit 120 is realized by causing the CPU to execute a program describing these functions.

また、動画像復号装置2に備えたエントロピー復号部50、逆量子化部51、逆直交変換部52、加算部53、画面内予測部54、インループフィルタ55、画面間予測部56及びスイッチ57も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Also, an entropy decoding unit 50, an inverse quantization unit 51, an inverse orthogonal transform unit 52, an addition unit 53, an intra-frame prediction unit 54, an in-loop filter 55, an inter-frame prediction unit 56, and a switch 57 provided in the video decoding device 2 are realized by causing the CPU to execute a program describing these functions.

これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium and are read and executed by the CPU. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and distributed via networks. You can also send and receive

1,100 動画像符号化装置
2 動画像復号装置
10,56,118, 画面間予測部
14,63,121 画面間予測処理部
11,60 超解像処理部
12,61 ぼやけ処理部
13,62,122 フレームメモリ
15 周波数解析部
16 選択部
17,64 パラメータ処理部
20 復号ピクチャ予測部
21 超解像予測部
22 ぼやけ予測部
30 動き量算出部
31 パワー変動量算出部
32 重み算出部
33 予測画像選択部
50 エントロピー復号部
51,113 逆量子化部
52,114 逆直交変換部
53,115 加算部
54,116 画面内予測部
55,117 インループフィルタ
57,119 スイッチ
110 減算部
111 直交変換部
112 量子化部
120 エントロピー符号化部
K 局部復号ピクチャ
K’ 復号ピクチャ
C,CH,V,D,C’,CH,V,D’ 超解像ピクチャ
H,CH’ 水平超解像ピクチャ
V,CV’ 垂直超解像ピクチャ
D,CD’ 対角超解像ピクチャ
B,BH,V,D,B’,BH,V,D’ ぼやけピクチャ
H,BH’ 水平ぼやけピクチャ
V,BV’ 垂直ぼやけピクチャ
D,BD’ 対角ぼやけピクチャ
KY,KY’ 局部復号ピクチャの予測画像
CYH,V,D,CYH,V,D’ 超解像ピクチャの予測画像
BYH,V,D,BYH,V,D’ ぼやけピクチャの予測画像
KV 局部復号ピクチャの動きベクトル
CVH,V,D 超解像ピクチャの動きベクトル
BVH,V,D ぼやけピクチャの動きベクトル
KE 局部復号ピクチャの予測誤差
CEH,V,D 超解像ピクチャの予測誤差
BEH,V,D ぼやけピクチャの予測誤差
CVH,V,D-mH,V,D 超解像ピクチャの動き量
BVH,V,D-mH,V,D ぼやけピクチャの動き量
H,V,D パワー変動量
cpH,V,D,cpH1,V1,D1,cpH2,V2,D2,cpH3,V3,D3 超解像ピクチャの強度情報
bpH,V,D,bpH1,V1,D1,bpH2,V2,D2,bpH3,V3,D3 ぼやけピクチャの強度情報
tCH,V,D,超解像ピクチャの重み
tBH,V,D,ぼやけピクチャの重み
1,100 video encoding device 2 video decoding devices 10, 56, 118, inter-prediction units 14, 63, 121 inter-prediction processing units 11, 60 super-resolution processing units 12, 61 blurring processing units 13, 62 , 122 frame memory 15 frequency analysis unit 16 selection unit 17, 64 parameter processing unit 20 decoded picture prediction unit 21 super-resolution prediction unit 22 blur prediction unit 30 motion amount calculation unit 31 power fluctuation amount calculation unit 32 weight calculation unit 33 predicted image selection unit 50 entropy decoding units 51, 113 inverse quantization units 52, 114 inverse orthogonal transformation units 53, 115 addition units 54, 116 intra-frame prediction units 55, 117 in-loop filters 57, 119 switch 110 subtraction unit 111 orthogonal transformation unit 112 Quantization unit 120 entropy coding unit K local decoded picture K′ decoded pictures C, CH,V,D ,C′,CH ,V,D ′ super-resolution pictures CH , CH′ horizontal super-resolution pictures CV , CV ' vertical super-resolution pictures CD , CD ' diagonal super-resolution pictures B, BH ,V,D, B ', BH ,V,D ' blurred pictures BH , BH ' Horizontal blurred pictures BV , BV ' Vertical blurred pictures BD , BD ' Diagonal blurred pictures KY, KY' Predicted images CYH ,V,D , CYH,V,D ' of local decoded pictures Super-resolution pictures Predicted image BY H,V,D , BY H,V,D ' Predicted image of blurred picture KV Motion vector of locally decoded picture CV H,V,D Motion vector of super-resolution picture BV H,V,D Blurry picture KE Prediction error of locally decoded picture CE H,V,D Prediction error of super-resolution picture BE H,V,D Prediction error of blurred picture CV H,V,D -m H,V,D super-resolution Picture motion amount BV H,V,D -m H,V,D Motion amount of blurred picture p H,V,D Power fluctuation amount cp H,V,D , cp H1,V1,D1 , cp H2,V2, D2 , cp H3, V3, D3 Intensity information bp H, V, D of super-resolution picture, bp H1, V1, D1 , bp H2, V2, D2 , bp H3, V3, D3 Intensity information t C H, of blurred picture V,D , super-resolved picture weight tB H,V,D , blurred picture weight

Claims (9)

入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、
前記局部復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、
前記画面間予測部は、
前記局部復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、
現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記超解像処理部により生成された過去の前記複数の超解像ピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数の超解像ピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、
現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、
前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数の超解像ピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数の超解像ピクチャの予測画像のうちのいずれか一つを選択する選択部と、
を備えたことを特徴とする動画像符号化装置。
Subtracting a predicted image from an input moving image to generate a residual image, performing orthogonal transformation, quantization, and entropy coding on the residual image, generating and outputting an encoded signal, and performing the quantization performing inverse quantization and inverse orthogonal transformation on the generated quantization index sequence to generate a decoded residual image, adding the predicted image to the decoded residual image to generate an after-addition image, and generating the after-addition image; A video encoding device that performs filtering processing to generate a locally decoded picture, performs inter-screen prediction using the locally decoded picture, and generates the predicted image,
Generate a plurality of super-resolution pictures based on the locally decoded picture, and generate a predicted image of the locally decoded picture and a predicted image of the plurality of super-resolution pictures for each predetermined region by the inter prediction, An inter-screen prediction unit that selects any one of these predicted images,
The inter-screen prediction unit
Super-resolution processing is performed on the locally decoded picture to produce a picture in which horizontal high-frequency band components are emphasized, a picture in which vertical high-frequency band components are emphasized, and a picture in which diagonal high-frequency band components are emphasized, a super-resolution processing unit that generates the plurality of super-resolution pictures;
The current locally decoded picture is used as a reference picture, and the past local decoded picture and each of the plurality of past super-resolution pictures generated by the super-resolution processing unit are used as reference pictures to perform the inter-picture prediction, an inter-frame prediction processing unit that generates predicted images and motion vectors of the locally decoded pictures for each of the predetermined regions, and generates predicted images and motion vectors of the plurality of super-resolution pictures;
a frequency analysis unit that performs frequency analysis on the current locally decoded picture and the past locally decoded picture to generate power variation information between the current locally decoded picture and the past locally decoded picture;
For each of the predetermined regions, the power fluctuation information generated by the frequency analysis unit, or the power fluctuation information and the motion vector of the locally decoded picture generated by the inter-prediction processing unit and the plurality of super-resolutions a selection unit that selects one of the predicted image of the locally decoded picture and the predicted images of the plurality of super-resolution pictures based on the motion vector of the picture;
A video encoding device characterized by comprising:
入力動画像から予測画像を減算して残差画像を生成し、当該残差画像に対し直交変換、量子化及びエントロピー符号化を行い、符号化信号を生成して出力すると共に、前記量子化により生成した量子化インデックス列に対し逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に前記予測画像を加算して加算後画像を生成し、当該加算後画像にフィルタ処理を施して局部復号ピクチャを生成し、当該局部復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像符号化装置において、
前記局部復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、
前記画面間予測部は、
前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、
現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトルを生成すると共に、前記複数のぼやけピクチャの予測画像及び動きベクトルを生成する画面間予測処理部と、
現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャの周波数解析を行い、現在の前記局部復号ピクチャと過去の前記局部復号ピクチャとの間のパワー変動情報を生成する周波数解析部と、
前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する選択部と、
を備えたことを特徴とする動画像符号化装置。
Subtracting a predicted image from an input moving image to generate a residual image, performing orthogonal transformation, quantization, and entropy coding on the residual image, generating and outputting an encoded signal, and performing the quantization performing inverse quantization and inverse orthogonal transformation on the generated quantization index sequence to generate a decoded residual image, adding the predicted image to the decoded residual image to generate an after-addition image, and generating the after-addition image; A video encoding device that performs filtering processing to generate a locally decoded picture, performs inter-screen prediction using the locally decoded picture, and generates the predicted image,
generating a plurality of blurred pictures based on the locally decoded picture; generating a predicted image of the locally decoded picture and a predicted image of the plurality of blurred pictures for each predetermined region by the inter prediction; An inter-screen prediction unit that selects one of the images,
The inter-screen prediction unit
Blurring processing is performed on the locally decoded picture, and a picture with horizontal high-frequency band components suppressed, a picture with vertical high-frequency band components suppressed, and a picture with diagonal high-frequency band components suppressed are selected from the plurality of pictures. a blur processor that generates a blurry picture of
The current locally decoded picture is used as a reference picture, and the past locally decoded picture and each of the plurality of past blurred pictures generated by the blur processing unit are used as reference pictures to perform the inter-picture prediction, and perform the inter prediction for each of the predetermined regions. an inter prediction processing unit that generates predicted images and motion vectors of the locally decoded pictures and generates predicted images and motion vectors of the plurality of blurred pictures;
a frequency analysis unit that performs frequency analysis on the current locally decoded picture and the past locally decoded picture to generate power variation information between the current locally decoded picture and the past locally decoded picture;
For each of the predetermined regions, the power fluctuation information generated by the frequency analysis unit, or the motion vector of the locally decoded picture and the motion vector of the plurality of blurred pictures generated by the power fluctuation information and the inter-prediction processing unit. a selection unit that selects one of the predicted image of the locally decoded picture and the predicted images of the plurality of blurred pictures based on a motion vector;
A video encoding device characterized by comprising:
請求項1に記載の動画像符号化装置において、
前記局部復号ピクチャに基づいて、前記複数の超解像ピクチャ及び複数のぼやけピクチャを生成し、前記画面間予測により、前記所定領域毎に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像を生成し、これらの前記予測画像のうちのいずれか一つを選択する画面間予測部を備え、
前記画面間予測部は、さらに、
前記局部復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、
前記画面間予測処理部は、
現在の前記局部復号ピクチャを基準ピクチャとし、過去の前記局部復号ピクチャ、前記超解像処理部により生成された過去の前記複数の超解像ピクチャ、及び前記ぼやけ処理部により生成された過去の前記複数のぼやけピクチャのそれぞれを参照ピクチャとして前記画面間予測を行い、前記所定領域毎に、前記局部復号ピクチャの予測画像及び動きベクトル、前記複数の超解像ピクチャの予測画像及び動きベクトル、並びに前記複数のぼやけピクチャの予測画像及び動きベクトルを生成し、
前記選択部は、
前記所定領域毎に、前記周波数解析部により生成された前記パワー変動情報、または、前記パワー変動情報並びに前記画面間予測処理部により生成された前記局部復号ピクチャの動きベクトル、前記複数の超解像ピクチャの動きベクトル及び前記複数のぼやけピクチャの動きベクトルに基づいて、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び前記複数のぼやけピクチャの予測画像のうちのいずれか一つを選択する、ことを特徴とする動画像符号化装置。
In the video encoding device according to claim 1,
generating the plurality of super-resolution pictures and a plurality of blurred pictures based on the locally decoded picture, and predicting the locally decoded picture and the plurality of super-resolution pictures for each of the predetermined regions by the inter prediction; an inter-screen prediction unit that generates a predicted image of a picture and predicted images of the plurality of blurred pictures, and selects one of the predicted images;
The inter-screen prediction unit further
Blurring processing is performed on the locally decoded picture, and a picture with horizontal high-frequency band components suppressed, a picture with vertical high-frequency band components suppressed, and a picture with diagonal high-frequency band components suppressed are selected from the plurality of pictures. It has a blur processing unit that generates a blurred picture of
The inter-screen prediction processing unit is
Using the current locally decoded picture as a reference picture, the past locally decoded picture, the plurality of past super-resolution pictures generated by the super-resolution processing unit, and the past generated by the blurring processing unit The inter prediction is performed using each of the plurality of blurred pictures as a reference picture, and for each of the predetermined regions, the predicted image and motion vector of the locally decoded picture, the predicted image and motion vector of the plurality of super-resolution pictures, and the generating predicted images and motion vectors for a plurality of blurred pictures;
The selection unit
For each of the predetermined regions, the power fluctuation information generated by the frequency analysis unit, or a motion vector of the locally decoded picture generated by the power fluctuation information and the inter-prediction processing unit, and the plurality of super-resolutions any one of a prediction image of the locally decoded picture, a prediction image of the plurality of super-resolution pictures, and a prediction image of the plurality of blurry pictures, based on the motion vector of the picture and the motion vectors of the plurality of blurry pictures. A video encoding device, characterized in that one is selected.
請求項1から3までのいずれか一項に記載の動画像符号化装置において、
前記周波数解析部は、
現在の前記局部復号ピクチャ及び過去の前記局部復号ピクチャについて、デシメーションを伴わない1階ウェーブレットパケット分解にて前記周波数解析を行い、現在の前記局部復号ピクチャの解析結果及び過去の前記局部復号ピクチャの解析結果に基づいて、周波数帯域毎かつ位相位置毎の前記パワー変動情報を生成する、ことを特徴とする動画像符号化装置。
In the video encoding device according to any one of claims 1 to 3,
The frequency analysis unit is
The frequency analysis is performed on the current locally decoded picture and the past locally decoded picture by first-order wavelet packet decomposition without decimation, and the analysis result of the current locally decoded picture and the analysis of the past locally decoded picture are performed. A moving picture encoding apparatus, which generates the power fluctuation information for each frequency band and for each phase position based on the result.
動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、
前記符号化信号に、局部復号ピクチャの予測画像及び複数の超解像ピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、
前記復号ピクチャに基づいて複数の超解像ピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数の超解像ピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、
前記画面間予測部は、
前記復号ピクチャに超解像処理を施し、水平方向の高周波帯域の成分を強調したピクチャ、垂直方向の高周波帯域の成分を強調したピクチャ及び対角方向の高周波帯域の成分を強調したピクチャを、前記複数の超解像ピクチャとして生成する超解像処理部と、
前記パラメータに従って、前記復号ピクチャ及び前記超解像処理部により生成された前記複数の超解像ピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、
を備えたことを特徴とする動画像復号装置。
Entropy decoding, inverse quantization, and inverse orthogonal transformation are performed on the encoded signal by inputting the coded signal of the video image, generating a decoded residual image, and adding the predicted image to the decoded residual image. generating a post-picture, performing filtering on the post-addition picture to generate a decoded picture, thereby restoring the original moving picture, performing inter-frame prediction using the decoded picture, and generating the predicted picture; In a video decoding device that
When the encoded signal contains a parameter indicating the type of one of the predicted images selected from the predicted image of a locally decoded picture and the predicted images of a plurality of super-resolution pictures,
generating a plurality of super-resolution pictures based on the decoded picture, and predicting any one of the decoded picture and the plurality of super-resolution pictures according to the parameter for each predetermined region by the inter-picture prediction; Equipped with an inter-screen prediction unit that generates
The inter-screen prediction unit
Super-resolution processing is performed on the decoded picture, and a picture with emphasized horizontal high-frequency band components, a picture with emphasized vertical high-frequency band components, and a picture with emphasized diagonal high-frequency band components are obtained as described above. a super-resolution processing unit that generates a plurality of super-resolution pictures;
According to the parameter, the inter-frame prediction is performed using the decoded picture and one of the plurality of super-resolution pictures generated by the super-resolution processing unit, and the prediction is performed for each of the predetermined regions. an inter-screen prediction processing unit that generates an image;
A video decoding device comprising:
動画像の符号化信号を入力し、当該符号化信号に対しエントロピー復号、逆量子化及び逆直交変換を行い、復号残差画像を生成し、当該復号残差画像に予測画像を加算して加算後画像を生成し、前記加算後画像にフィルタ処理を施して復号ピクチャを生成することで、元の前記動画像を復元し、前記復号ピクチャを用いて画面間予測を行い、前記予測画像を生成する動画像復号装置において、
前記符号化信号に、局部復号ピクチャの予測画像及び複数のぼやけピクチャの予測画像から選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、
前記復号ピクチャに基づいて複数のぼやけピクチャを生成し、前記画面間予測により、所定領域毎に、前記パラメータに従って前記復号ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、
前記画面間予測部は、
前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部と、
前記パラメータに従って、前記復号ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する画面間予測処理部と、
を備えたことを特徴とする動画像復号装置。
Entropy decoding, inverse quantization, and inverse orthogonal transformation are performed on the encoded signal by inputting the coded signal of the video image, generating a decoded residual image, and adding the predicted image to the decoded residual image. generating a post-picture, performing filtering on the post-addition picture to generate a decoded picture, thereby restoring the original moving picture, performing inter-frame prediction using the decoded picture, and generating the predicted picture; In a video decoding device that
When the coded signal includes a parameter indicating the type of one of the predicted images selected from the predicted image of a locally decoded picture and the predicted images of a plurality of blurred pictures,
A screen for generating a plurality of blurred pictures based on the decoded picture, and generating a predicted image of any one of the decoded picture and the plurality of blurred pictures according to the parameter for each predetermined region by the inter-frame prediction. with an inter-prediction unit,
The inter-screen prediction unit
Blurring processing is performed on the decoded picture, and a picture in which horizontal high-frequency band components are suppressed, a picture in which vertical high-frequency band components are suppressed, and a picture in which diagonal high-frequency band components are suppressed are divided into the plurality of pictures. a blur processor that generates a blurry picture;
performing the inter-frame prediction using the decoded picture and one of the plurality of blurred pictures generated by the blur processor according to the parameter to generate the predicted image for each of the predetermined regions; an inter-screen prediction processing unit;
A video decoding device comprising:
請求項5に記載の動画像復号装置において、
前記符号化信号に、前記局部復号ピクチャの予測画像、前記複数の超解像ピクチャの予測画像及び複数のぼやけピクチャから選択した一つの前記予測画像の種類を示すパラメータが含まれている場合に、
前記復号ピクチャに基づいて、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャを生成し、前記画面間予測により、前記所定領域毎に、前記パラメータに従って前記復号ピクチャ、前記複数の超解像ピクチャ及び前記複数のぼやけピクチャのうちのいずれか一つの予測画像を生成する画面間予測部を備え、
前記画面間予測部は、さらに、
前記復号ピクチャにぼやけ処理を施し、水平方向の高周波帯域の成分を抑制したピクチャ、垂直方向の高周波帯域の成分を抑制したピクチャ及び対角方向の高周波帯域の成分を抑制したピクチャを、前記複数のぼやけピクチャとして生成するぼやけ処理部を備え、
前記画面間予測処理部は、
前記パラメータに従って、前記復号ピクチャ、前記超解像処理部により生成された前記複数の超解像ピクチャ及び前記ぼやけ処理部により生成された前記複数のぼやけピクチャのうちのいずれか一つのピクチャを用いて前記画面間予測を行い、前記所定領域毎の前記予測画像を生成する、ことを特徴とする動画像復号装置。
In the video decoding device according to claim 5,
When the coded signal includes a parameter indicating the type of one of the predicted images selected from the predicted image of the locally decoded picture, the predicted image of the plurality of super-resolution pictures, and a plurality of blurred pictures,
generating the plurality of super-resolved pictures and the plurality of blurred pictures based on the decoded picture, and performing the inter-prediction, the decoded picture and the plurality of super-resolved pictures according to the parameters for each of the predetermined regions; and an inter-screen prediction unit that generates a predicted image of any one of the plurality of blurred pictures,
The inter-screen prediction unit further
Blurring processing is performed on the decoded picture, and a picture in which horizontal high-frequency band components are suppressed, a picture in which vertical high-frequency band components are suppressed, and a picture in which diagonal high-frequency band components are suppressed are divided into the plurality of pictures. Equipped with a blur processing unit that generates a blurred picture,
The inter-screen prediction processing unit is
using any one of the decoded picture, the plurality of super-resolution pictures generated by the super-resolution processing unit, and the plurality of blurry pictures generated by the blurring processing unit according to the parameter A moving image decoding device, wherein the inter-frame prediction is performed to generate the predicted image for each of the predetermined regions.
コンピュータを、請求項1から4までのいずれか一項に記載の動画像符号化装置として機能させるためのプログラム。 A program for causing a computer to function as the video encoding device according to any one of claims 1 to 4. コンピュータを、請求項5から7までのいずれか一項に記載の動画像復号装置として機能させるためのプログラム。 A program for causing a computer to function as the video decoding device according to any one of claims 5 to 7.
JP2019046520A 2019-03-13 2019-03-13 Video encoding device, video decoding device and program Active JP7252016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019046520A JP7252016B2 (en) 2019-03-13 2019-03-13 Video encoding device, video decoding device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046520A JP7252016B2 (en) 2019-03-13 2019-03-13 Video encoding device, video decoding device and program

Publications (2)

Publication Number Publication Date
JP2020150422A JP2020150422A (en) 2020-09-17
JP7252016B2 true JP7252016B2 (en) 2023-04-04

Family

ID=72432271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046520A Active JP7252016B2 (en) 2019-03-13 2019-03-13 Video encoding device, video decoding device and program

Country Status (1)

Country Link
JP (1) JP7252016B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7461165B2 (en) 2020-02-26 2024-04-03 日本放送協会 Video encoding device, video decoding device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266778A (en) 2003-03-04 2004-09-24 Matsushita Electric Ind Co Ltd Motion vector detecting apparatus
JP2016514378A (en) 2013-01-30 2016-05-19 インテル・コーポレーション Content-adaptive interactive or functional predictive multi-pass pictures for highly efficient next-generation video coding
US20180242011A1 (en) 2009-08-21 2018-08-23 Sk Telecom., Ltd Method and apparatus for encoding/decoding images using adaptive motion vector resolution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266778A (en) 2003-03-04 2004-09-24 Matsushita Electric Ind Co Ltd Motion vector detecting apparatus
US20180242011A1 (en) 2009-08-21 2018-08-23 Sk Telecom., Ltd Method and apparatus for encoding/decoding images using adaptive motion vector resolution
JP2016514378A (en) 2013-01-30 2016-05-19 インテル・コーポレーション Content-adaptive interactive or functional predictive multi-pass pictures for highly efficient next-generation video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LAI, Polin et al.,Adaptive Reference Filtering for MVC,JVT-W065,ITU,2007年04月23日,pp.1-11,[online],retrieved on 2023-02-17,Retrieved from the Internet: <URL: https://itu.int/wftp3/av-arch/jvt-site/2007_04_SanJose/JVT-W065.zip>
松尾康孝,ほか2名,超解像・ぼやけピクチャを用いた画面間予測による符号化効率改善の検討,Proc. PCSJ/IMPS2018,日本,2018年11月19日,P-1-02,pp.20, 21

Also Published As

Publication number Publication date
JP2020150422A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
KR102075061B1 (en) Apparatus and method for image coding and decoding
JP6902937B2 (en) Video decoding method and video decoding device
KR101901355B1 (en) Method and apparatus for performing graph-based prediction using optimazation function
JP7366901B2 (en) Video decoding method and device using inter prediction in video coding system
EP3629579A1 (en) Method for image processing and apparatus for implementing the same
US9641847B2 (en) Method and device for classifying samples of an image
KR102059842B1 (en) Method and apparatus for performing graph-based transformation using generalized graph parameters
JP7252016B2 (en) Video encoding device, video decoding device and program
US11202082B2 (en) Image processing apparatus and method
CN116113985A (en) Video encoding and decoding using deep learning based in-loop filters
KR20180017659A (en) Method and apparatus for encoding digital hologram data
KR20190109373A (en) Apparatus for image coding/decoding and the method thereof
JP7352364B2 (en) Video encoding device, video decoding device and program
EP4258667A1 (en) Video codec using block-based deep learning model
JP2019208090A (en) Video encoding device, video decoding device, and program
CN112154667B (en) Encoding and decoding of video
US20230300347A1 (en) Video codec using deep learning model based on block
Nguyen et al. Efficient edge-preserving interpolation and in-loop filters for depth map compression
WO2012177015A2 (en) Image decoding/decoding method and device
Deep Realization of state-of-the-art intra-prediction in High Efficiency Video Coding (HEVC)
KR20220125171A (en) Video Codec for Refining Prediction Signals of Intra Prediction
KR20220025689A (en) Video Encoding and Decoding Using Deep Learning Based Inloop Filter
TW202130173A (en) Matrix based intra prediction with mode-global settings
KR102038818B1 (en) Intra prediction method and apparatus using the method
KR20170106261A (en) Method and apparatus for video encoding considering adaptive loop filtering, and method and apparatus for video decoding considering adaptive loop filtering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7252016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150