JP2007158770A - Video decoding device, and video decoding program - Google Patents

Video decoding device, and video decoding program Download PDF

Info

Publication number
JP2007158770A
JP2007158770A JP2005351861A JP2005351861A JP2007158770A JP 2007158770 A JP2007158770 A JP 2007158770A JP 2005351861 A JP2005351861 A JP 2005351861A JP 2005351861 A JP2005351861 A JP 2005351861A JP 2007158770 A JP2007158770 A JP 2007158770A
Authority
JP
Japan
Prior art keywords
pixel block
processing target
target screen
block
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005351861A
Other languages
Japanese (ja)
Other versions
JP4528255B2 (en
Inventor
Naohiro Hara
直弘 原
Kazuhisa Iguchi
和久 井口
Shinichi Sakaida
慎一 境田
Seiichi Goshi
清一 合志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2005351861A priority Critical patent/JP4528255B2/en
Publication of JP2007158770A publication Critical patent/JP2007158770A/en
Application granted granted Critical
Publication of JP4528255B2 publication Critical patent/JP4528255B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video decoding device and video decoding program which can reduce coding distortion of a decoded moving image signal while maintaining high-definition, in consideration of the requirement for an image improvement method independent of coding systems. <P>SOLUTION: The video decoding device for reducing coding distortion has: a decoder 1 for decoding an encoded moving image signal and outputting a decoded moving image signal and motion vector information; a similarity calculating part 6 for receiving an output processing object picture and one reference picture or more that are temporally adjacent to the processing object picture, using the motion vector information to segment pixel blocks respectively from the processing object picture and the reference picture, and outputting the pixel blocks; an averaging part 8 for preparing an averaged pixel block by performing temporal averaging processing that uses the pixel block of the processing object picture and the pixel block of the reference picture and outputting the averaged pixel block; and a block replacing part 10 and 11 for replacing the pixel block of the processing object picture with the averaged pixel block. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、映像復号装置および映像復号プログラムに係り、特に符号化された動画像信号を復号し、その復号動画像信号から符号化歪みを低減する映像復号装置および映像復号プログラムに関する。   The present invention relates to a video decoding device and a video decoding program, and more particularly to a video decoding device and a video decoding program that decode an encoded moving image signal and reduce encoding distortion from the decoded moving image signal.

例えば動画像の非可逆符号化に伴い発生する符号化歪みの代表的なものとしてはブロック歪みとモスキートノイズとがある。ブロック歪みは画像を小ブロックに分割して各々独立に量子化処理を行うことにより、復号後の隣接ブロック間で信号の不連続が生じ、ブロック状のパターンが出現する歪みである。   For example, typical distortions that occur with lossy encoding of moving images include block distortion and mosquito noise. Block distortion is distortion in which signal discontinuity occurs between adjacent blocks after decoding by dividing an image into small blocks and independently performing quantization processing, and a block-like pattern appears.

モスキートノイズは画像高周波成分を重点的に削減する符号化処理により、復号画像において高周波成分が不足し、画像エッジ部などに蚊が飛んでいるかのようなリンギングパターンが出現する歪みである。   Mosquito noise is a distortion in which a ringing pattern appears as if a mosquito is flying at the edge of an image due to insufficient high frequency components in the decoded image due to encoding processing that reduces image high frequency components.

従来、これらの符号化歪みを改善する手法としては、符号化前の動画像信号に対してフィルタ処理を行う前置フィルタ処理と、復号後の動画像信号に対してフィルタ処理を行う後置フィルタ処理とがある。   Conventionally, as a technique for improving the coding distortion, a pre-filter process for performing a filter process on a moving image signal before encoding and a post-filter for performing a filter process on a decoded video signal are known. There is processing.

前置フィルタ処理は、符号化前の動画像に対して低域通過フィルタ処理を施すことにより、符号化歪み発生の原因となる画像高周波成分を予め取り除くものである(例えば非特許文献1参照)。   In the prefiltering process, high-frequency components that cause coding distortion are removed in advance by performing low-pass filter processing on a moving image before coding (see, for example, Non-Patent Document 1). .

後置フィルタ処理は、符号化歪みが発生した復号動画像信号に対して低域通過フィルタ処理を施すことにより符号化歪みを平滑化し、視覚的に目立たなくするものである(例えば非特許文献2参照)。   The post-filtering process smoothes the coding distortion by applying a low-pass filter process to the decoded moving image signal in which the coding distortion has occurred (for example, non-patent document 2). reference).

後置フィルタ処理は、AVC/H.264符号化方式においてもデブロッキングフィルタとして用いられている。このデブロッキングフィルタは、復号動画像のブロック境界において低域通過フィルタ処理を行うことによりブロック歪みを平滑化し、視覚的に目立たなくしている。
宮本剛,都竹愛一郎著、「動画像符号化の画質改善用プリフィルタに関する一検討」、1997年電子情報通信学会総合大会、D−11−1 茂木健著、「適応的平滑化によるDCT符号化歪みの低減」、2000年電子情報通信学会総合大会、D−11−28
Post-filtering is performed using AVC / H. It is also used as a deblocking filter in the H.264 encoding method. This deblocking filter smoothes block distortion by performing low-pass filter processing at the block boundary of the decoded moving image, making it visually inconspicuous.
Takeshi Miyamoto and Aiichiro Miyako, “A Study on Pre-Filter for Image Quality Improvement of Video Coding”, 1997 IEICE General Conference, D-11-1 Takeshi Mogi, “Reduction of DCT coding distortion by adaptive smoothing”, 2000 IEICE General Conference, D-11-28

上記した従来手法のうち、前置フィルタ処理による符号化歪み低減手法では入力画像の画像エッジ成分等に対しても一律に平滑化処理を施すために、復号後の符号化歪みが減る一方で、画像の高精細感も失われる結果となり、画質を落としてしまっていた。入力画像の静動判定や画面内の局所的性質に基づいてフィルタ係数を変えるといった適応処理も試みられているが、すべての画像に対して一律に効果が得られるような決定的な手法は無い。   Among the conventional methods described above, the encoding distortion reduction method by the prefiltering process uniformly applies smoothing processing to the image edge component of the input image, etc. As a result, the high definition of the image was lost, and the image quality was reduced. Although adaptive processing such as changing the filter coefficient based on the static characteristics of the input image and the local properties in the screen has been attempted, there is no definitive method that can achieve the same effect for all images. .

また、従来の後置フィルタ処理による符号化歪み低減手法では、ブロック歪みなどの符号化歪みによるエッジ成分のみならず、画像本来のエッジ成分も平滑化処理の対象としていたため、画像本来の輪郭までもぼやけさせてしまい、画質を落としてしまっていた。   In addition, in the conventional encoding distortion reduction method using post-filtering, not only the edge component due to the encoding distortion such as block distortion but also the original edge component of the image is subjected to the smoothing processing, so that the original contour of the image can be obtained. Was also blurred, and the image quality was reduced.

一方で、画像本来のエッジ成分を保持したまま、符号化歪みによるエッジ成分のみを平滑化しようとする試みも行われているが、一般に画像本来のエッジ成分と符号化歪みによるエッジ成分とを区別するための閾値設定は困難である。   On the other hand, while trying to smooth only the edge component due to coding distortion while retaining the original edge component of the image, in general, the original edge component of the image is distinguished from the edge component due to the coding distortion. It is difficult to set a threshold value for this purpose.

後置フィルタ処理に関しては、AVC/H.264符号化方式のようにデブロッキングフィルタが用いられる符号化方式もあるが、一方でMPEG−2符号化方式のようにデブロッキングフィルタが用いられない符号化方式もある。多数の動画像符号化方式が存在する中、符号化方式に依存しない画質改善手法の要望は高かった。   Regarding post-filtering, AVC / H. Some encoding methods use a deblocking filter such as the H.264 encoding method, while other encoding methods do not use a deblocking filter such as the MPEG-2 encoding method. In the presence of a large number of moving image encoding methods, there has been a high demand for an image quality improvement method that does not depend on the encoding method.

本発明は、上記の点に鑑みなされたもので、高精細度を保ったまま復号動画像信号から符号化歪みを低減できる映像復号装置および映像復号プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide a video decoding apparatus and a video decoding program capable of reducing encoding distortion from a decoded moving image signal while maintaining high definition.

上記課題を解決するため、本発明は、復号動画像信号から符号化歪みを低減する映像復号装置であって、符号化された動画像信号を復号して復号動画像信号及び動きベクトル情報を出力する復号器と、前記復号動画像信号から出力された処理対象画面及びその処理対象画面と時間的に隣接する1つ以上の参照画面が入力され、前記動きベクトル情報を用いて前記処理対象画面および参照画面から各々画素ブロックを切り出して出力する類似度演算部と、前記類似度演算部から出力された前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとを用いた時間平均化処理を行って平均化画素ブロックを作成し、その平均化画素ブロックを出力する平均部と、前記平均化画素ブロックを、前記処理対象画面の画素ブロックと置き換えるブロック置換部とを有することを特徴とする。   In order to solve the above-described problems, the present invention is a video decoding device that reduces coding distortion from a decoded video signal, and outputs the decoded video signal and motion vector information by decoding the encoded video signal. And a processing target screen output from the decoded moving image signal and one or more reference screens temporally adjacent to the processing target screen, and using the motion vector information, the processing target screen and Perform a time averaging process using the similarity calculation unit that cuts out and outputs each pixel block from the reference screen, and the pixel block of the processing target screen output from the similarity calculation unit and the pixel block of the reference screen An averaged pixel block that generates an averaged pixel block and outputs the averaged pixel block, and a block that replaces the averaged pixel block with a pixel block of the processing target screen. And having a click replacement unit.

また、本発明は、復号動画像信号から符号化歪みを低減する映像復号装置として機能するコンピュータに、符号化された動画像信号を復号して復号動画像信号及び動きベクトル情報を出力するステップと、前記復号動画像信号から出力された処理対象画面及びその処理対象画面と時間的に隣接する1つ以上の参照画面が入力され、前記動きベクトル情報を用いて前記処理対象画面および参照画面から各々画素ブロックを切り出して出力するステップと、出力された前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとを用いた時間平均化処理を行って平均化画素ブロックを作成し、その平均化画素ブロックを出力するステップと、前記平均化画素ブロックを、前記処理対象画面の画素ブロックと置き換えるステップとを実行させる為の映像復号プログラムであることを特徴とする。   The present invention also includes a step of decoding the encoded video signal and outputting the decoded video signal and motion vector information to a computer that functions as a video decoding device that reduces encoding distortion from the decoded video signal. , A processing target screen output from the decoded video signal and one or more reference screens temporally adjacent to the processing target screen are input, and each of the processing target screen and the reference screen is used using the motion vector information. A pixel block is cut out and output, and an averaged pixel block is generated by performing time averaging processing using the output pixel block of the processing target screen and the pixel block of the reference screen, and the averaged pixel Outputting a block; and replacing the averaged pixel block with a pixel block of the processing target screen. Characterized in that it is a video decoding program for.

本発明は符号化歪みの発生した復号動画像信号に適用され、処理対象画面を含む同一時間軸上の複数の参照画面を用い、複数の画素ブロックを平均化して、処理対象画面の画素ブロックと置き換えることで、符号化歪みを低減している。   The present invention is applied to a decoded moving image signal in which coding distortion has occurred, uses a plurality of reference screens on the same time axis including a processing target screen, averages a plurality of pixel blocks, and By replacing it, coding distortion is reduced.

上記の如く、本発明によれば、高精細度を保ったまま復号動画像信号から符号化歪みを低減できる映像復号装置および映像復号プログラムを提供可能である。   As described above, according to the present invention, it is possible to provide a video decoding apparatus and a video decoding program capable of reducing encoding distortion from a decoded moving image signal while maintaining high definition.

次に、本発明を実施するための最良の形態を、以下の実施例に基づき図面を参照しつつ説明していく。本発明は、符号化された動画像の画質改善に係り、復号された動きベクトル情報を用いて符号化歪みを低減する画像処理に関するものである。   Next, the best mode for carrying out the present invention will be described based on the following embodiments with reference to the drawings. The present invention relates to image quality improvement of an encoded moving image, and relates to image processing for reducing encoding distortion using decoded motion vector information.

本発明は、動画像の時間的な連続性もしくは類似性を利用し、復号動画像に対する時間方向の平滑化処理により、符号化歪みを低減する。本発明は被写体の空間位置や時間的類似性の度合いに応じて適応的に重み付けを行なうことで、画像の高精細度を保ったまま、符号化歪みを低減することができる。   The present invention uses the temporal continuity or similarity of moving images and reduces coding distortion by temporal smoothing processing on the decoded moving images. The present invention adaptively weights the subject according to the spatial position of the subject and the degree of temporal similarity, thereby reducing coding distortion while maintaining high definition of the image.

まず、本発明の理解を容易とする為、図1〜図5のイメージ図を参照しつつ本発明の概要について説明する。図1〜図5のイメージ図は参照画面が1つの例を表している。なお、以下の説明においてMで示される数値は、PピクチャとPピクチャとの間隔もしくはPピクチャとIピクチャとの間隔を示す。   First, in order to facilitate understanding of the present invention, an outline of the present invention will be described with reference to the image diagrams of FIGS. The image diagrams of FIGS. 1 to 5 show an example of a reference screen. In the following description, the numerical value indicated by M indicates the interval between the P picture and the P picture or the interval between the P picture and the I picture.

例えばM=1ならば、符号化ピクチャグループは図6に示すような構造で表される。また、M=3ならば符号化ピクチャグループは図7に示すような構造で表される。図6はM=1のGOP(Group Of Pictures)構成を示す一例のイメージ図である。図7はM=3のGOP構成を示す一例のイメージ図である。   For example, if M = 1, the coded picture group is represented by a structure as shown in FIG. If M = 3, the coded picture group is represented by a structure as shown in FIG. FIG. 6 is an image diagram of an example showing a GOP (Group Of Pictures) configuration with M = 1. FIG. 7 is an image diagram of an example showing a GOP configuration with M = 3.

図1は、M=1の場合のPピクチャの処理の概要を示す一例のイメージ図である。図1の上段は、入力された復号動画像信号を表している。図1の復号動画像信号は、画面100,101,102,103及び104の順番で入力されている。   FIG. 1 is an image diagram of an example showing an outline of processing of a P picture when M = 1. The upper part of FIG. 1 represents the input decoded video signal. The decoded video signal in FIG. 1 is input in the order of screens 100, 101, 102, 103 and 104.

本発明では、処理対象画面102の画素ブロックBの動きベクトルを用い、その動きベクトルを外挿することにより指し示される画面103の画素ブロックCを得る。そして、本発明では画素ブロックB及び画素ブロックCの類似度に基づいた重み付け平均化処理を行うことで、画素ブロックB′を作成し、処理対象画面102の画素ブロックBと置き換えている。この処理を処理対象画面102の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号を得ることができる。   In the present invention, the motion vector of the pixel block B on the processing target screen 102 is used, and the motion vector is extrapolated to obtain the pixel block C on the screen 103 indicated. In the present invention, a weighted averaging process based on the similarity between the pixel block B and the pixel block C is performed to create a pixel block B ′ and replace it with the pixel block B on the processing target screen 102. By performing this process for all the pixel blocks of the processing target screen 102, an improved moving image signal with improved image quality can be obtained in the present invention.

図1の下段は、符号化歪みを低減して画質が改善された改善動画像信号を表している。図1の改善動画像信号は、画面110,111,112,113及び114の順番で出力されている。画面112は、処理対象画面102の画素ブロックBが画素ブロックB′と置き換えられたものである。   The lower part of FIG. 1 represents an improved moving image signal in which image quality is improved by reducing coding distortion. The improved moving image signal of FIG. 1 is output in the order of screens 110, 111, 112, 113, and 114. The screen 112 is obtained by replacing the pixel block B of the processing target screen 102 with the pixel block B ′.

また、処理対象画面102と同様、本発明では処理対象画面103のブロックEの動きベクトルを用い、その動きベクトルを外挿することにより指し示される画面104の画素ブロックFを得る。本発明では、処理対象画面103の画素ブロックE及び画面104の画素ブロックFの類似度に基づいた重み付け平均化処理を行うことで、画素ブロックE′を作成し、処理対象画面103の画素ブロックEと置き換えている。   Similarly to the processing target screen 102, the present invention uses the motion vector of the block E of the processing target screen 103 and extrapolates the motion vector to obtain the pixel block F of the screen 104 indicated. In the present invention, a weighted averaging process based on the similarity between the pixel block E on the processing target screen 103 and the pixel block F on the screen 104 is performed to create a pixel block E ′, and the pixel block E on the processing target screen 103 Has been replaced.

図2は、M=1の場合のIピクチャの処理の概要を示す一例のイメージ図である。図2の上段は、入力された復号動画像信号を表している。図2の復号動画像信号は、画面120,121,122,123及び124の順番で入力されている。   FIG. 2 is an image diagram of an example showing an outline of processing of an I picture when M = 1. The upper part of FIG. 2 represents the input decoded video signal. The decoded video signal in FIG. 2 is input in the order of screens 120, 121, 122, 123, and 124.

本発明では、画面121の画素ブロックBの動きベクトルを外挿することで処理対象画面122の画素ブロックCを求める。そして、本発明では画素ブロックB及び画素ブロックCの類似度に基づいた重み付け平均化処理を行うことで、画素ブロックC′を作成し、処理対象画面122の画素ブロックCと置き換えている。この処理を処理対象画面122から見て1つ過去のPピクチャである画面121の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号を得ることができる。   In the present invention, the pixel block C of the processing target screen 122 is obtained by extrapolating the motion vector of the pixel block B of the screen 121. In the present invention, a weighted averaging process based on the similarity between the pixel block B and the pixel block C is performed to create a pixel block C ′ and replace it with the pixel block C on the processing target screen 122. By performing this process on all the pixel blocks of the screen 121 that is a P picture one past when viewed from the processing target screen 122, an improved moving image signal with improved image quality can be obtained in the present invention.

図2の下段は、符号化歪みを低減して画質が改善された改善動画像信号を表している。図2の改善動画像信号は、画面130,131,132,133及び134の順番で出力されている。画面132は、処理対象画面122の画素ブロックCが画素ブロックC′と置き換えられたものである。   The lower part of FIG. 2 represents an improved moving image signal in which the image quality is improved by reducing the coding distortion. The improved moving image signal of FIG. 2 is output in the order of the screens 130, 131, 132, 133 and 134. The screen 132 is obtained by replacing the pixel block C of the processing target screen 122 with the pixel block C ′.

なお、この場合、処理対象画面122となるIピクチャにおいて全ての画素が置換処理されるとは限らない。実際の映像では、動きベクトルが画面のある点に集中することは殆どない為、実用上の問題は無い。   In this case, not all pixels are necessarily replaced in the I picture that is the processing target screen 122. In an actual video, there is no practical problem because the motion vector hardly concentrates on a certain point on the screen.

図3は、M=3の場合のPピクチャの処理の概要を示す一例のイメージ図である。図3の上段は、入力された復号動画像信号を表している。図3の復号動画像信号は、画面140,141,142,143及び144の順番で入力されている。   FIG. 3 is an image diagram of an example showing an outline of P picture processing when M = 3. The upper part of FIG. 3 represents the input decoded video signal. The decoded video signal in FIG. 3 is input in the order of screens 140, 141, 142, 143, and 144.

本発明では、処理対象画面143の画素ブロックCの動きベクトルを用い、その動きベクトルが指し示す画面142の画素ブロックBを求める。そして、本発明では画素ブロックB及び画素ブロックCの類似度に基づいた重み付け平均化処理を行うことで、画素ブロックC′を作成し、処理対象画面143の画素ブロックCと置き換えている。この処理を処理対象画面143の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号を得ることができる。   In the present invention, the motion vector of the pixel block C on the processing target screen 143 is used, and the pixel block B on the screen 142 indicated by the motion vector is obtained. In the present invention, the weighted averaging process based on the similarity between the pixel block B and the pixel block C is performed to create the pixel block C ′ and replace it with the pixel block C on the processing target screen 143. By performing this process for all the pixel blocks on the processing target screen 143, an improved moving image signal with improved image quality can be obtained in the present invention.

図3の下段は、符号化歪みを低減して画質が改善された改善動画像信号を表している。図3の改善動画像信号は、画面150,151,152,153及び154の順番で出力されている。画面153は、処理対象画面143の画素ブロックCが画素ブロックC′と置き換えられたものである。   The lower part of FIG. 3 represents an improved moving image signal in which image quality is improved by reducing coding distortion. The improved moving image signal of FIG. 3 is output in the order of screens 150, 151, 152, 153, and 154. The screen 153 is obtained by replacing the pixel block C of the processing target screen 143 with the pixel block C ′.

なお、本発明では、なるべく直近のピクチャを使用する為、動きベクトルが指し示す画面141ではなく、画面142の画素ブロックBを求めている。このように直近のピクチャを使用すれば、シーンチェンジ等の対策となる。   In the present invention, in order to use the most recent picture as possible, the pixel block B of the screen 142 is obtained instead of the screen 141 indicated by the motion vector. If the latest picture is used in this way, it becomes a countermeasure against a scene change or the like.

図4は、M=3の場合のBピクチャの処理の概要を示す一例のイメージ図である。図4の上段は、入力された復号動画像信号を表している。図4の復号動画像信号は、画面160,161,162,163及び164の順番で入力されている。   FIG. 4 is an image diagram of an example showing an outline of processing of a B picture when M = 3. The upper part of FIG. 4 represents the input decoded video signal. The decoded moving image signal of FIG. 4 is input in the order of screens 160, 161, 162, 163 and 164.

M=3の場合、Bピクチャは連続して2つ存在する。ここでは、過去の方のBピクチャ(画面161)をB1ピクチャとし、未来の方のBピクチャ(画面162)をB2ピクチャとして区別することにする。   When M = 3, there are two B pictures in succession. Here, the past B picture (screen 161) is identified as a B1 picture, and the future B picture (screen 162) is identified as a B2 picture.

B1ピクチャを処理する場合、本発明では処理対象画面161の画素ブロックBの動きベクトルを用い、その動きベクトルが指し示す画面162の画素ブロックCを求める。そして、本発明では画素ブロックB及び画素ブロックCの類似度に基づいた重み付け平均化処理を行うことで、画素ブロックB′を作成し、処理対象画面161の画素ブロックBと置き換えている。   When processing a B1 picture, in the present invention, the motion vector of the pixel block B on the processing target screen 161 is used, and the pixel block C on the screen 162 indicated by the motion vector is obtained. In the present invention, a weighted averaging process based on the similarity between the pixel block B and the pixel block C is performed to create a pixel block B ′ and replace it with the pixel block B on the processing target screen 161.

B2ピクチャを処理する場合、本発明では処理対象画面162の画素ブロックGの動きベクトルを用い、その動きベクトルが指し示す画面161の画素ブロックFを求める。そして、本発明では画素ブロックF及び画素ブロックGの類似度に基づいた重み付け平均化処理を行うことで、画素ブロックG′を作成し、処理対象画面162の画素ブロックGと置き換えている。   When processing a B2 picture, in the present invention, the motion vector of the pixel block G on the processing target screen 162 is used, and the pixel block F on the screen 161 indicated by the motion vector is obtained. In the present invention, a weighted averaging process based on the similarity between the pixel block F and the pixel block G is performed to create a pixel block G ′ and replace it with the pixel block G on the processing target screen 162.

この処理を処理対象画面161又は162の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号を得ることができる。   By performing this process for all the pixel blocks of the processing target screen 161 or 162, an improved moving image signal with improved image quality can be obtained in the present invention.

図4の下段は、符号化歪みを低減して画質が改善された改善動画像信号を表している。図4の改善動画像信号は、画面170,171,172,173及び174の順番で出力されている。画面171は、処理対象画面161の画素ブロックBが画素ブロックB′と置き換えられたものである。また、画面172は処理対象画面162の画素ブロックGが画素ブロックG′と置き換えられたものである。   The lower part of FIG. 4 represents an improved moving image signal in which the encoding distortion is reduced and the image quality is improved. The improved moving image signal of FIG. 4 is output in the order of screens 170, 171, 172, 173, and 174. The screen 171 is obtained by replacing the pixel block B of the processing target screen 161 with the pixel block B ′. Further, the screen 172 is obtained by replacing the pixel block G of the processing target screen 162 with the pixel block G ′.

図5は、M=3の場合のIピクチャの処理の概要を示す一例のイメージ図である。図5の上段は、入力された復号動画像信号を表している。図5の復号動画像信号は、画面180,181,182,183及び184の順番で入力されている。   FIG. 5 is an image diagram of an example showing an outline of processing of an I picture when M = 3. The upper part of FIG. 5 represents the input decoded video signal. The decoded video signal in FIG. 5 is input in the order of screens 180, 181, 182, 183, and 184.

本発明では、画面181の画素ブロックBの動きベクトルを用い、その動きベクトルが指し示す画面182の画素ブロックC及び処理対象画面183の画素ブロックDを求める。そして、本発明では画素ブロックC及び画素ブロックDの類似度に基づいた重み付け平均化処理を行うことで、画素ブロックD′を作成し、処理対象画面183の画素ブロックDと置き換えている。   In the present invention, the motion vector of the pixel block B on the screen 181 is used, and the pixel block C on the screen 182 and the pixel block D on the processing target screen 183 indicated by the motion vector are obtained. In the present invention, the weighted averaging process based on the similarity between the pixel block C and the pixel block D is performed to create the pixel block D ′ and replace it with the pixel block D on the processing target screen 183.

この処理を処理対象画面183から見て2つ過去のBピクチャである画面181の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号を得ることができる。   By performing this process for all the pixel blocks of the screen 181 that are two B pictures in the past as viewed from the processing target screen 183, an improved moving image signal with improved image quality can be obtained in the present invention.

図5の下段は、符号化歪みを低減して画質が改善された改善動画像信号を表している。図5の改善動画像信号は、画面190,191,192,193及び194の順番で出力されている。画面193は、処理対象画面183の画素ブロックDが画素ブロックD′と置き換えられたものである。   The lower part of FIG. 5 represents an improved moving image signal in which the encoding distortion is reduced and the image quality is improved. The improved moving image signal in FIG. 5 is output in the order of screens 190, 191, 192, 193, and 194. The screen 193 is obtained by replacing the pixel block D of the processing target screen 183 with the pixel block D ′.

なお、この場合、処理対象画面183となるIピクチャにおいて全ての画素が置換処理されるとは限らない。実際の映像では、動きベクトルが画面のある点に集中することは殆どない為、実用上の問題は無い。   In this case, not all the pixels are replaced in the I picture that is the processing target screen 183. In an actual video, there is no practical problem because the motion vector hardly concentrates on a certain point on the screen.

また、PピクチャやBピクチャにおいて、画素ブロックによっては、稀に処理に用いる動きベクトルが存在しない場合もある。例えば画素ブロックがイントラブロック(動きベクトルを用いない画面内符号化ブロック)となっている場合には処理に用いる動きベクトルが存在しない場合もある。処理に用いる動きベクトルが存在しない場合、その画素ブロックにおいて上述したような演算処理は行わない。   In addition, in a P picture or a B picture, a motion vector that is rarely used for processing may not exist depending on a pixel block. For example, when a pixel block is an intra block (an intra-screen coding block that does not use a motion vector), there may be no motion vector used for processing. When there is no motion vector used for processing, the above-described calculation processing is not performed in the pixel block.

ただし、画素ブロックに動きベクトルが存在しなくても、動きベクトルを周辺の動きベクトルから予測して算出する符号化アルゴリズムの場合は(例えば左隣の画素ブロックの動きベクトルと同じ動きベクトルを使うなど)、その算出された動きベクトルを用いる。   However, even if there is no motion vector in the pixel block, in the case of an encoding algorithm that predicts and calculates a motion vector from surrounding motion vectors (for example, using the same motion vector as the motion vector of the left adjacent pixel block) ), Using the calculated motion vector.

また、符号化方式によっては動きベクトルがフレーム単位で算出されている場合、フィールド単位で算出されている場合、ブロックを分割したサブブロック単位で算出されている場合等があるが、これらの場合は、それぞれ対象となる画素ブロックサイズにおいて上述した方法と同じ処理を順次行えばよい。   Also, depending on the encoding method, the motion vector may be calculated in units of frames, may be calculated in units of fields, may be calculated in units of sub-blocks obtained by dividing a block, etc. The same processing as that described above may be sequentially performed for each target pixel block size.

本発明は、符号化歪みの発生した復号動画像信号に適用される。本発明は、復号された動きベクトル情報を用いて、処理対象画面(処理対象ピクチャ)を含む同一時間軸上の複数のピクチャにおける類似度の高い複数の画素ブロックを平均化し、処理対象ピクチャの画素ブロックと置き換えることで、符号化歪みを低減することができる。   The present invention is applied to a decoded video signal in which coding distortion has occurred. The present invention averages a plurality of pixel blocks having a high similarity in a plurality of pictures on the same time axis including a processing target screen (processing target picture) using the decoded motion vector information, and the pixels of the processing target picture By replacing it with a block, coding distortion can be reduced.

以下の実施例において、本発明の映像復号装置に入力される信号は、動きベクトルを用いて画面間圧縮が行われた符号化された動画像信号(以下、符号化ストリームと呼ぶ)であるとする。例えば動きベクトルを用いて画面間圧縮が行われた符号化ストリームは、MPEG−2やMPEG−4AVC(H.264)の符号化ストリームが相当する。   In the following embodiments, a signal input to the video decoding apparatus of the present invention is an encoded video signal (hereinafter referred to as an encoded stream) that has been inter-screen compressed using a motion vector. To do. For example, an encoded stream that has been inter-screen compressed using a motion vector corresponds to an MPEG-2 or MPEG-4 AVC (H.264) encoded stream.

図8は本発明による映像復号装置の第1実施例の構成図である。図8の映像復号装置は、復号器1,1フレーム遅延部2,1フレーム遅延部3,メモリ4,動きベクトル外挿部5,類似度演算部6,重み付け制御部7,加重平均部8,スイッチ9,ブロック置換部10,ブロック置換部11,1フレーム遅延部12及びスイッチ13を含むように構成されている。   FIG. 8 is a block diagram of the first embodiment of the video decoding apparatus according to the present invention. 8 includes a decoder 1, a 1-frame delay unit 2, a 1-frame delay unit 3, a memory 4, a motion vector extrapolation unit 5, a similarity calculation unit 6, a weighting control unit 7, a weighted average unit 8, A switch 9, a block replacement unit 10, a block replacement unit 11, a one-frame delay unit 12, and a switch 13 are included.

本発明による映像復号装置に入力される符号化ストリームは、非可逆圧縮符号化された動画像信号とする。符号化ストリームは復号器1に入力される。復号器1は入力された符号化ストリームを復号し、その復号動画像信号を1フレーム遅延部2,類似度演算部6,ブロック置換部10に出力する。また、復号器1は符号化ストリームに含まれるピクチャタイプ情報を1フレーム遅延部3及びスイッチ9に出力する。さらに、復号器1は符号化ストリームに含まれる動きベクトル情報をメモリ4に出力する。   The encoded stream input to the video decoding apparatus according to the present invention is a moving image signal that has been subjected to lossy compression encoding. The encoded stream is input to the decoder 1. The decoder 1 decodes the input encoded stream, and outputs the decoded moving image signal to the 1-frame delay unit 2, the similarity calculation unit 6, and the block replacement unit 10. The decoder 1 outputs the picture type information included in the encoded stream to the 1-frame delay unit 3 and the switch 9. Further, the decoder 1 outputs the motion vector information included in the encoded stream to the memory 4.

1フレーム遅延部2は、入力された復号動画像信号を1フレーム分遅延させたあと、類似度演算部6及びブロック置換部11に出力する。1フレーム遅延部3は入力されたピクチャタイプ情報を1フレーム分遅延させたあと、スイッチ13に出力する。   The 1-frame delay unit 2 delays the input decoded video signal by one frame, and then outputs it to the similarity calculation unit 6 and the block replacement unit 11. The 1-frame delay unit 3 delays the input picture type information by one frame and then outputs it to the switch 13.

メモリ4は、入力された動きベクトル情報を1フレーム分、順次格納する。なお、メモリ4は動きベクトル情報の入力があれば格納している動きベクトル情報を押し出す形で新たな動きベクトル情報を格納する。メモリ4から押し出された動きベクトル情報は動きベクトル外挿部5に入力される。動きベクトル外挿部5は入力された動きベクトル情報に含まれる動きベクトルを外挿し、外挿した動きベクトルを類似度演算部6に出力する。   The memory 4 sequentially stores the input motion vector information for one frame. The memory 4 stores new motion vector information by pushing out the stored motion vector information if motion vector information is input. The motion vector information pushed out from the memory 4 is input to the motion vector extrapolation unit 5. The motion vector extrapolation unit 5 extrapolates the motion vector included in the input motion vector information, and outputs the extrapolated motion vector to the similarity calculation unit 6.

類似度演算部6は復号器1から入力される復号動画像信号と、1フレーム遅延部2から入力される1フレーム分遅延された復号動画像信号と、動きベクトル外挿部5から入力される外挿した動きベクトルとを用いて、以下のように類似度を演算する。なお、類似度演算部6は図1に示すように、処理対象画面がPピクチャのとき、処理対象画面の画素ブロックの動きベクトルを用い、1つ未来のピクチャとの間で処理を行なう。また、類似度演算部6は図2に示すように、処理対象画面がIピクチャのとき、1つ過去のピクチャの画素ブロックの動きベクトルを用い、1つ過去のピクチャとの間で処理を行なう。   The similarity calculation unit 6 receives a decoded moving image signal input from the decoder 1, a decoded moving image signal delayed by one frame input from the 1 frame delay unit 2, and a motion vector extrapolation unit 5. Using the extrapolated motion vector, the similarity is calculated as follows. As shown in FIG. 1, when the processing target screen is a P picture, the similarity calculation unit 6 uses the motion vector of the pixel block of the processing target screen to perform processing with the one future picture. Further, as shown in FIG. 2, when the processing target screen is an I picture, the similarity calculation unit 6 uses a motion vector of a pixel block of one previous picture and performs processing with one previous picture. .

まず、図1に示すように、処理対象画面がPピクチャであるときの処理を説明する。類似度演算部6は処理対象画面102の画素ブロックBの動きベクトルを用い、その動きベクトルを外挿することにより指し示される参照画面103の画素ブロックCを得る。   First, as shown in FIG. 1, a process when the processing target screen is a P picture will be described. The similarity calculation unit 6 uses the motion vector of the pixel block B on the processing target screen 102, and obtains the pixel block C on the reference screen 103 indicated by extrapolating the motion vector.

類似度演算部6は、外挿した動きベクトルが指し示す処理対象画面102の画素ブロックB及び参照画面103の画素ブロックCの類似度を求める。例えば画素ブロック間の類似度SMLは以下の式(1),(2)を用いて算出される。   The similarity calculation unit 6 obtains the similarity between the pixel block B of the processing target screen 102 and the pixel block C of the reference screen 103 indicated by the extrapolated motion vector. For example, the similarity SML between pixel blocks is calculated using the following equations (1) and (2).

crti,jは処理対象画面の画素ブロックの画素値を表す。refi,jは参照画面の画素ブロックの画素値を表す。TDは、処理対象画面と参照画面との時間的な距離を表す。   crti, j represents the pixel value of the pixel block of the processing target screen. ref i, j represents the pixel value of the pixel block of the reference screen. TD represents a temporal distance between the processing target screen and the reference screen.

Figure 2007158770
式(2)は、処理対象画面の画素ブロックの画素値と参照画面の画素ブロックの画素値との差分を画素ブロック単位で加算し、処理対象画面と参照画面との時間的な距離に応じて補正してSADを算出している。
Figure 2007158770
Equation (2) adds the difference between the pixel value of the pixel block of the processing target screen and the pixel value of the pixel block of the reference screen in units of pixel blocks, and depends on the temporal distance between the processing target screen and the reference screen. The SAD is calculated after correction.

SADは、処理対象画面の画素ブロックの画素値と参照画面の画素ブロックの画素値との差分を画素ブロック単位で加算した値が小さいほど、処理対象画面と参照画面との時間的な距離が近いほど小さな値となる。また、SADは、処理対象画面の画素ブロックの画素値と参照画面の画素ブロックの画素値との差分を画素ブロック単位で加算した値が大きいほど、処理対象画面と参照画面との時間的な距離が遠いほど大きな値となる。   In SAD, the smaller the value obtained by adding the difference between the pixel value of the pixel block of the processing target screen and the pixel value of the pixel block of the reference screen in units of pixel blocks, the closer the temporal distance between the processing target screen and the reference screen is The smaller the value. In addition, the SAD is a temporal distance between the processing target screen and the reference screen as the value obtained by adding the difference between the pixel value of the pixel block of the processing target screen and the pixel value of the pixel block of the reference screen in units of pixel blocks is larger. The farther is, the larger the value.

式(1)は、SADの逆数である類似度SMLを算出している。類似度SMLは処理対象画面の画素ブロックの画素値と参照画面の画素ブロックの画素値との差分を画素ブロック単位で加算した値が小さいほど、処理対象画面と参照画面との時間的な距離が近いほど大きな値となる。また、類似度SMLは、処理対象画面の画素ブロックの画素値と参照画面の画素ブロックの画素値との差分を画素ブロック単位で加算した値が大きいほど、処理対象画面と参照画面との時間的な距離が遠いほど小さな値となる。   Equation (1) calculates a similarity SML that is the reciprocal of SAD. The similarity SML is such that the smaller the value obtained by adding the difference between the pixel value of the pixel block of the processing target screen and the pixel value of the pixel block of the reference screen in units of pixel blocks, the longer the temporal distance between the processing target screen and the reference screen. The closer it is, the larger the value. In addition, the similarity SML is larger in time between the processing target screen and the reference screen as the value obtained by adding the difference between the pixel value of the pixel block of the processing target screen and the pixel value of the pixel block of the reference screen in units of pixel blocks is larger. The smaller the distance, the smaller the value.

類似度演算部6は、外挿した動きベクトルが指し示す処理対象画面102の画素ブロックB及び参照画面103の画素ブロックCの画像データを加重平均部8に出力する。また、類似度演算部6は外挿した動きベクトルが指し示す処理対象画面102の画素ブロックB及び参照画面103の画素ブロックCのブロック位置と、その類似度の値とを検出信号として重み付け制御部7に出力する。   The similarity calculation unit 6 outputs the image data of the pixel block B of the processing target screen 102 and the pixel block C of the reference screen 103 indicated by the extrapolated motion vector to the weighted average unit 8. Further, the similarity calculation unit 6 uses the block positions of the pixel block B of the processing target screen 102 and the pixel block C of the reference screen 103 indicated by the extrapolated motion vector and the similarity values as detection signals, and the weighting control unit 7 Output to.

重み付け制御部7は類似度演算部6から入力される検出情報に基づき、加重平均部8で行なう平均化処理の重み付けを決定する。なお、検出情報には外挿した動きベクトルが指し示す処理対象画面102の画素ブロックB及び参照画面103の画素ブロックCのブロック位置と、その類似度の値とが含まれる。   The weight control unit 7 determines the weight of the averaging process performed by the weighted average unit 8 based on the detection information input from the similarity calculation unit 6. The detection information includes the block positions of the pixel block B on the processing target screen 102 and the pixel block C on the reference screen 103 indicated by the extrapolated motion vector, and the similarity value.

重み付け制御部7では、類似度が高い場合に加重平均の重み付けを処理対象画面102の画素ブロックBと参照画面103の画素ブロックCとで均等化し、類似度が低い場合に処理対象画面102の画素ブロックBに対する重み付けを増やす処理を行う。   The weighting control unit 7 equalizes the weighted average weighting between the pixel block B of the processing target screen 102 and the pixel block C of the reference screen 103 when the similarity is high, and the pixels of the processing target screen 102 when the similarity is low. A process of increasing the weight for block B is performed.

ただし、重み付け制御部7は参照画面103の画素ブロックCの空間位置が処理対象画面102の画素ブロックBの空間位置と同一である場合に、処理対象画面102の画素ブロックBに対する重み付けを100%(wcrt=1)として平均化処理を行わないようにする。   However, when the spatial position of the pixel block C on the reference screen 103 is the same as the spatial position of the pixel block B on the processing target screen 102, the weighting control unit 7 sets the weighting on the pixel block B on the processing target screen 102 to 100% ( The averaging process is not performed as wcrt = 1).

また、重み付け制御部7は参照画面103の画素ブロックCのブロック位置におけるブロック歪みの境界との空間位置関係が、処理対象画面102の画素ブロックBのブロック位置におけるブロック歪みの境界との空間位置関係と同一である場合に、処理対象画面102の画素ブロックBに対する重み付けを100%(wcrt=1)として平均化処理を行わないようにする。   In addition, the weighting control unit 7 determines that the spatial positional relationship with the block distortion boundary at the block position of the pixel block C on the reference screen 103 is the spatial positional relationship with the block distortion boundary at the block position of the pixel block B on the processing target screen 102. If the same, the weighting for the pixel block B on the processing target screen 102 is set to 100% (wcrt = 1) and the averaging process is not performed.

図9は重み付け制御部の処理を表したイメージ図である。ブロック歪みの出現位置は、符号化器の制御により一定に決まる。例えばMPEG−2では8×8サイズの画素ブロックのブロック境界がブロック歪みの出現位置に当たる。図9ではブロック歪みの境界を格子模様で示している。また、図9では右側に処理対象画面、左側に参照画面を示している。ここでは、外挿した動きベクトルが指し示す参照画面の画素ブロックを適合ブロックと呼ぶ。   FIG. 9 is an image diagram showing processing of the weighting control unit. The appearance position of block distortion is fixedly determined by the control of the encoder. For example, in MPEG-2, the block boundary of a pixel block of 8 × 8 size corresponds to the appearance position of block distortion. In FIG. 9, the boundary of block distortion is shown by a lattice pattern. In FIG. 9, a processing target screen is shown on the right side, and a reference screen is shown on the left side. Here, the pixel block of the reference screen indicated by the extrapolated motion vector is referred to as a matching block.

例えば適合ブロックが画素ブロックB1であったとすると、処理対象画面の画素ブロックA及び参照画面の画素ブロックB1の空間位置は同一であり、ブロック歪みの境界との空間位置関係も同一である。この場合、重み付け制御部7は処理対象画面の画素ブロックAに対する重み付けを100%とすることにより、結果として平均化処理を行わないようにする。   For example, if the matching block is the pixel block B1, the spatial position of the pixel block A on the processing target screen and the pixel block B1 on the reference screen are the same, and the spatial positional relationship with the boundary of the block distortion is also the same. In this case, the weighting control unit 7 sets the weighting for the pixel block A on the processing target screen to 100% so that the averaging process is not performed as a result.

同様に、適合ブロックが画素ブロックB2であったとすると、処理対象画面の画素ブロックA及び参照画面の画素ブロックB2の空間位置は異なるものの、ブロック歪みの境界との空間位置関係が同一である。この場合、重み付け制御部7は処理対象画面の画素ブロックAに対する重み付けを100%とすることで、結果として平均化処理を行わないようにする。   Similarly, if the matching block is the pixel block B2, the spatial positions of the pixel block A on the processing target screen and the pixel block B2 on the reference screen are different, but the spatial positional relationship with the block distortion boundary is the same. In this case, the weighting control unit 7 sets the weighting for the pixel block A on the processing target screen to 100% so that the averaging process is not performed as a result.

しかし、適合ブロックが画素ブロックB3であったとすると、処理対象画面の画素ブロックA及び参照画面の画素ブロックB3はブロック歪みの境界との空間位置関係が異なる。この場合、重み付け制御部7は処理対象画面の画素ブロックA及び参照画面の画素ブロックB3の類似度の値に基づいた重み付け(例えば処理対象画面の画素ブロックAに対する重み付けを50%、参照画面の画素ブロックB3に対する重み付けを50%)を決定することにより、平均化処理を行なうようにする。   However, if the matching block is the pixel block B3, the pixel block A on the processing target screen and the pixel block B3 on the reference screen are different in spatial positional relationship with the block distortion boundary. In this case, the weighting control unit 7 performs weighting based on the similarity value of the pixel block A of the processing target screen and the pixel block B3 of the reference screen (for example, the weighting of the pixel block A of the processing target screen is 50%, the pixel of the reference screen) An averaging process is performed by determining a weight of 50% for the block B3.

例えば類似度の値に基づいた重み付けの決定は、以下の式(3),(4)を用いて行われる。wcrtは処理対象画面の重み付け係数を表す。wrefは参照画面の重み付け係数を表す。A,Bは、定数を表す。Nrefは参照画面における適合ブロックの数である。本実施例では、Nref=1である。   For example, the determination of weighting based on the similarity value is performed using the following equations (3) and (4). wcrt represents the weighting coefficient of the processing target screen. wref represents the weighting coefficient of the reference screen. A and B represent constants. Nref is the number of matching blocks in the reference screen. In this embodiment, Nref = 1.

Figure 2007158770
式(4)は、類似度SMLに基づき、参照画面の重み付け係数wrefを算出している。参照画面の重み付け係数wrefは、類似度SMLが大きいほど、大きな値となる。式(3)は、参照画面の重み付け係数wrefに基づき、処理対象画面の重み付け係数wcrtを算出している。処理対象画面の重み付け係数wcrtは、類似度SMLが小さいほど、大きな値となる。
Figure 2007158770
Formula (4) calculates the weighting coefficient wref of the reference screen based on the similarity SML. The weighting coefficient wref of the reference screen is larger as the similarity SML is larger. Expression (3) calculates the weighting coefficient wcrt of the processing target screen based on the weighting coefficient wref of the reference screen. The weighting coefficient wcrt of the processing target screen becomes a larger value as the similarity SML is smaller.

図10は重み付け制御部の処理を表した一例のフローチャートである。類似度演算部6から適合ブロックのブロック位置と、その類似度の値とが含まれる検出情報が入力されると、重み付け制御部7はステップS1に進み、検出情報から適合ブロックのブロック位置を取得する。   FIG. 10 is a flowchart illustrating an example of processing of the weighting control unit. When detection information including the block position of the matching block and the value of the similarity is input from the similarity calculation unit 6, the weighting control unit 7 proceeds to step S1 and acquires the block position of the matching block from the detection information. To do.

ステップS2に進み、重み付け制御部7は適合ブロックの空間位置が処理対象画面の画素ブロックBの空間位置と同一であるか否かを判定する。即ち、重み付け制御部7は図9における参照画面の画素ブロックB1と処理対象画面の画素ブロックAとのように空間位置が同一であるか否かを判定する。   In step S2, the weight control unit 7 determines whether the spatial position of the matching block is the same as the spatial position of the pixel block B on the processing target screen. That is, the weighting control unit 7 determines whether or not the spatial positions are the same as the pixel block B1 of the reference screen and the pixel block A of the processing target screen in FIG.

適合ブロックの空間位置が処理対象画面の画素ブロックBの空間位置と同一であれば(S2においてYES)、重み付け制御部7はステップS5に進み、処理対象画面の画素ブロックBに対する重み付けを100%とするように重み付け係数を決定する。   If the spatial position of the matching block is the same as the spatial position of the pixel block B on the processing target screen (YES in S2), the weighting control unit 7 proceeds to step S5 and sets the weighting for the pixel block B on the processing target screen to 100%. The weighting coefficient is determined as follows.

適合ブロックの空間位置が処理対象画面の画素ブロックBの空間位置と同一でなければ(S2においてNO)、重み付け制御部7はステップS3に進み、適合ブロックのブロック位置におけるブロック歪みの境界との空間位置関係が、処理対象画面の画素ブロックBのブロック位置におけるブロック歪みの境界との空間位置関係と同一であるか否かを判定する。   If the spatial position of the matching block is not the same as the spatial position of the pixel block B on the processing target screen (NO in S2), the weighting control unit 7 proceeds to step S3, and the space from the block distortion boundary at the block position of the matching block It is determined whether the positional relationship is the same as the spatial positional relationship with the block distortion boundary at the block position of the pixel block B on the processing target screen.

即ち、重み付け制御部7は図9における参照画面の画素ブロックB2と処理対象画面の画素ブロックAとのようにブロック歪みの境界との空間位置関係が同一であるか否かを判定する。   That is, the weighting control unit 7 determines whether or not the spatial positional relationship between the block distortion boundaries is the same as in the pixel block B2 of the reference screen and the pixel block A of the processing target screen in FIG.

ブロック歪みの境界との空間位置関係が同一であると判定すれば(S3においてYES)、重み付け制御部7はステップS5に進み、処理対象画面の画素ブロックBに対する重み付けを100%とするように重み付け係数を決定する。   If it is determined that the spatial positional relationship with the boundary of the block distortion is the same (YES in S3), the weighting control unit 7 proceeds to step S5 and performs weighting so that the weighting for the pixel block B on the processing target screen is 100%. Determine the coefficient.

ブロック歪みの境界との空間位置関係が同一でないと判定すれば(S3においてNO)、重み付け制御部7はステップS4に進み、類似度の値に基づいた重み付け係数を決定する。図10に表した処理により、重み付け制御部7は重み付け係数を決定し、重み付け情報として加重平均部8へ出力する。   If it is determined that the spatial positional relationship with the boundary of the block distortion is not the same (NO in S3), the weight control unit 7 proceeds to step S4 and determines a weighting coefficient based on the similarity value. By the processing shown in FIG. 10, the weighting control unit 7 determines a weighting coefficient and outputs it to the weighted average unit 8 as weighting information.

加重平均部8は、重み付け制御部7から重み付け情報が入力される。加重平均部8は重み付け情報から重み付け係数を取得する。加重平均部8は取得した重み付け係数を用いて、類似度演算部6から入力された処理対象画面102の画素ブロックB及び参照画面103の画素ブロックCの画像データを重み付け平均化する。例えば重み付け平均化は以下の式(5)を用いて行われる。   The weighted average unit 8 receives weight information from the weight control unit 7. The weighted average unit 8 acquires a weighting coefficient from the weighting information. The weighted average unit 8 weights and averages the image data of the pixel block B of the processing target screen 102 and the pixel block C of the reference screen 103 input from the similarity calculation unit 6 using the acquired weighting coefficient. For example, weighted averaging is performed using the following equation (5).

Figure 2007158770
ここで、avei,jは平均化された画素ブロックの画素値を表す。加重平均部8は平均化された画素ブロックB′を平均化ブロック画像情報としてスイッチ9及びブロック置換部11に出力する。スイッチ9は、復号器1から入力されるピクチャタイプ情報に基づき、処理対象画面がIピクチャのときに閉じるように制御される。スイッチ9は、加重平均部8とブロック置換部10との間に設けられている。したがって、処理対象画面がPピクチャであるとき、平均化ブロック画像情報はブロック置換部10に入力されない。
Figure 2007158770
Here, ave i, j represents the pixel value of the averaged pixel block. The weighted average unit 8 outputs the averaged pixel block B ′ to the switch 9 and the block replacement unit 11 as averaged block image information. The switch 9 is controlled to close when the processing target screen is an I picture based on the picture type information input from the decoder 1. The switch 9 is provided between the weighted average unit 8 and the block replacement unit 10. Therefore, when the processing target screen is a P picture, the averaged block image information is not input to the block replacement unit 10.

ブロック置換部11は、入力された平均化ブロック画像情報から平均化された画素ブロックB′を取得する。ブロック置換部11は、平均化された画素ブロックB′を1フレーム遅延部2から入力された処理対象画面102の画素ブロックBと置き換える。以上の処理を処理対象画面102の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号をスイッチ13に出力する。   The block replacement unit 11 acquires an averaged pixel block B ′ from the input averaged block image information. The block replacement unit 11 replaces the averaged pixel block B ′ with the pixel block B of the processing target screen 102 input from the 1-frame delay unit 2. By performing the above processing for all the pixel blocks of the processing target screen 102, the present invention outputs an improved moving image signal with improved image quality to the switch 13.

スイッチ13は、復号器1から1フレーム遅延部3を介して入力されるピクチャタイプ情報に基づき、処理対象画面がPピクチャのときにブロック置換部11からの改善動画像信号を出力するように制御される。従って、処理対象画面がPピクチャであるとき、スイッチ13は画質が改善された改善動画像信号を出力できる。   The switch 13 is controlled based on the picture type information input from the decoder 1 through the 1-frame delay unit 3 so that the improved moving image signal from the block replacement unit 11 is output when the processing target screen is a P picture. Is done. Therefore, when the processing target screen is a P picture, the switch 13 can output an improved moving image signal with improved image quality.

次に、図2に示すように、処理対象画面がIピクチャであるときの処理を説明する。類似度演算部6は処理対象画面122の1つ過去のピクチャである画面121の画素ブロックBの動きベクトルを用い、その動きベクトルを外挿することにより指し示される処理対象画面122の画素ブロックCを得る。   Next, as shown in FIG. 2, a process when the processing target screen is an I picture will be described. The similarity calculation unit 6 uses the motion vector of the pixel block B of the screen 121, which is the previous picture of the processing target screen 122, and extrapolates the motion vector to indicate the pixel block C of the processing target screen 122. Get.

類似度演算部6は、外挿した動きベクトルが指し示す処理対象画面122の画素ブロックC及び参照画面121の画素ブロックBの類似度を求める。例えば画素ブロック間の類似度SMLは上記の式(1),(2)を用いて算出される。   The similarity calculation unit 6 obtains the similarity between the pixel block C on the processing target screen 122 and the pixel block B on the reference screen 121 indicated by the extrapolated motion vector. For example, the similarity SML between pixel blocks is calculated using the above equations (1) and (2).

類似度演算部6は、外挿した動きベクトルが指し示す処理対象画面122の画素ブロックC及び参照画面121の画素ブロックBの画像データを加重平均部8に出力する。また、類似度演算部6は外挿した動きベクトルが指し示す処理対象画面122の画素ブロックC及び参照画面121の画素ブロックBのブロック位置と、その類似度の値とを検出信号として重み付け制御部7に出力する。   The similarity calculation unit 6 outputs the image data of the pixel block C on the processing target screen 122 and the pixel block B on the reference screen 121 indicated by the extrapolated motion vector to the weighted average unit 8. In addition, the similarity calculation unit 6 uses the block positions of the pixel block C on the processing target screen 122 and the pixel block B on the reference screen 121 indicated by the extrapolated motion vector and the similarity value as detection signals, and the weighting control unit 7 Output to.

重み付け制御部7は類似度演算部6から入力される検出情報に基づき、上記したように加重平均部8で行なう平均化処理の重み付け係数を決定し、重み付け情報として加重平均部8へ出力する。   Based on the detection information input from the similarity calculation unit 6, the weighting control unit 7 determines the weighting coefficient of the averaging process performed by the weighted average unit 8 as described above, and outputs the weighting information to the weighted average unit 8 as weighting information.

加重平均部8は、入力された重み付け情報から重み付け係数を取得し、その重み付け係数を用いて、類似度演算部6から入力された処理対象画面122の画素ブロックC及び参照画面121の画素ブロックBの画像データを重み付け平均化する。例えば重み付け平均化は上記の式(5)を用いて行われる。   The weighted average unit 8 obtains a weighting coefficient from the input weighting information, and using the weighting coefficient, the pixel block C of the processing target screen 122 and the pixel block B of the reference screen 121 input from the similarity calculation unit 6. The image data is weighted and averaged. For example, weighted averaging is performed using the above equation (5).

加重平均部8は平均化された画素ブロックC′を平均化ブロック画像情報としてスイッチ9及びブロック置換部11に出力する。スイッチ9は、復号器1から入力されるピクチャタイプ情報に基づき、処理対象画面がIピクチャのときに閉じるように制御される。スイッチ9は、加重平均部8とブロック置換部10との間に設けられている。したがって、処理対象画面がIピクチャであるとき、平均化ブロック画像情報はブロック置換部10に入力される。   The weighted average unit 8 outputs the averaged pixel block C ′ to the switch 9 and the block replacement unit 11 as averaged block image information. The switch 9 is controlled to close when the processing target screen is an I picture based on the picture type information input from the decoder 1. The switch 9 is provided between the weighted average unit 8 and the block replacement unit 10. Therefore, when the processing target screen is an I picture, the averaged block image information is input to the block replacement unit 10.

ブロック置換部10は、入力された平均化ブロック画像情報から平均化された画素ブロックC′を取得する。ブロック置換部10は、復号器1から入力された処理対象画面122の画素ブロックCを処理対象画面122の平均化された画素ブロックC′に置き換える。以上の処理を処理対象画面122の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号を1フレーム遅延部12に出力する。   The block replacement unit 10 acquires an averaged pixel block C ′ from the input averaged block image information. The block replacement unit 10 replaces the pixel block C of the processing target screen 122 input from the decoder 1 with the averaged pixel block C ′ of the processing target screen 122. By performing the above processing for all the pixel blocks on the processing target screen 122, the present invention outputs an improved moving image signal with improved image quality to the one-frame delay unit 12.

1フレーム遅延部12は、入力された改善動画像信号を1フレーム分遅延させたあと、スイッチ13に出力する。スイッチ13は、復号器1から1フレーム遅延部3を介して入力されるピクチャタイプ情報に基づき、処理対象画面がIピクチャのときに1フレーム遅延部12からの改善動画像信号を出力するように制御される。従って、処理対象画面がIピクチャであるとき、スイッチ13は画質が改善された改善動画像信号を出力できる。   The 1-frame delay unit 12 delays the input improved moving image signal by one frame, and then outputs it to the switch 13. Based on the picture type information input from the decoder 1 through the 1-frame delay unit 3, the switch 13 outputs the improved moving image signal from the 1-frame delay unit 12 when the processing target screen is an I picture. Be controlled. Therefore, when the processing target screen is an I picture, the switch 13 can output an improved moving image signal with improved image quality.

なお、本発明による映像復号装置では、外挿した動きベクトルが指し示す処理対象画面の画素ブロックおよび参照画面の画素ブロックの類似度を改めて求めている。符号化時に使った動きベクトルではなく、外挿で作った動きベクトルで改めて類似度を求めている理由は、以下の通りである。   In the video decoding apparatus according to the present invention, the similarity between the pixel block of the processing target screen and the pixel block of the reference screen indicated by the extrapolated motion vector is obtained again. The reason why the similarity is calculated again with a motion vector generated by extrapolation instead of the motion vector used at the time of encoding is as follows.

動きベクトル(MV)を使って符号化したい画素ブロックをCBi,j、その動きベクトルで指定された画素ブロックをRBi,jとすると、符号化は式(6)に対して行われる。   If the pixel block to be encoded using the motion vector (MV) is CBi, j and the pixel block specified by the motion vector is RBi, j, the encoding is performed with respect to Equation (6).

CBi,j−RBi,j=DBi,j ・・・(6)
復号は、式(7)のように、すでに復号された画素ブロックdRBi,jに、復号された差分画像dDBi,jを加算することで行われる。
CBi, j-RBi, j = DBi, j (6)
Decoding is performed by adding the decoded difference image dDBi, j to the already decoded pixel block dRBi, j as shown in Equation (7).

dRBi,j−dDBi,j=dCBi,j ・・・(7)
即ち、符号化時の動きベクトルを用いて画素ブロック間の時間平均化処理を行うと、2で割る単純平均の場合、以下の式(8)となる。
dRBi, j-dDBi, j = dCBi, j (7)
That is, when the time averaging process between pixel blocks is performed using the motion vector at the time of encoding, the following equation (8) is obtained in the case of a simple average divided by two.

AVEi,j=(dRBi,j+dCBi,j)/2=(2dRBi,j+dDBi,j)/2=dRBi,j+dDBi,j/2 ・・・(8)
結局、参照画像の画素ブロックdRBi,jに対して高画質化成分である差分画像成分dDBi,jが半分のレベルでしか加算されない画像となってしまう。これはほぼ動きベクトルで画像を作ることを意味しており、差分画像があまり送られないことで画質が低下する。したがって、本発明では符号化時の動きベクトルではなく、その動きベクトルを外挿して新たに取得した動きベクトルで画質改善処理を行っている。
AVEi, j = (dRBi, j + dCBi, j) / 2 = (2dRBi, j + dDBi, j) / 2 = dRBi, j + dDBi, j / 2 (8)
Eventually, the difference image component dDBi, j, which is a high image quality component, is added to the reference image pixel block dRBi, j only at a half level. This means that an image is almost made up of motion vectors, and the image quality deteriorates because the difference image is not sent so much. Therefore, in the present invention, the image quality improvement processing is performed not by the motion vector at the time of encoding but by the motion vector newly obtained by extrapolating the motion vector.

図11は、画素ブロック切り出しの一例を示すイメージ図である。本発明では処理対象画面及び参照画面の画素ブロックの切り出しを各々符号化時のブロックサイズよりも大きく切り出すことで、より符号化歪みの低減効果が得られることを示す図である。なぜなら、ブロック歪みは直交変換に用いられる画素ブロックもしくは動き補償に用いられる画素ブロックが復号後に可視化されてしまう歪みだからである。   FIG. 11 is an image diagram illustrating an example of pixel block cutout. In this invention, it is a figure which shows that the reduction effect of an encoding distortion is acquired more by cutting out the pixel block of a process target screen and a reference screen larger than the block size at the time of an encoding, respectively. This is because the block distortion is a distortion in which a pixel block used for orthogonal transformation or a pixel block used for motion compensation is visualized after decoding.

例えば符号化時の動き補償ブロックサイズが16×16である場合、処理に用いるブロックサイズは例えば図11に示すように17×17を用いる。ブロック分割が符号化方式により予め決められているため、本発明による映像復号装置で行なうブロック切り出しは結果として画素ブロック同士がオーバーラップされたものになる。   For example, when the motion compensation block size at the time of encoding is 16 × 16, the block size used for the processing is, for example, 17 × 17 as shown in FIG. Since block division is determined in advance by the encoding method, block cutout performed by the video decoding apparatus according to the present invention results in overlapping pixel blocks.

このとき、画素ブロック境界沿いの1画素分は重複して時間平均化処理が行われることになるが、結果としてブロック歪みが発生するブロック境界に重点的に処理が行われることになり、補正がより有利に働く。   At this time, one pixel along the pixel block boundary is overlapped and the time averaging process is performed, but as a result, the process is focused on the block boundary where the block distortion occurs, and the correction is performed. Work more advantageously.

図11は一例であって、例えば水平方向のみオーバーラップさせることも可能である。実際上、水平方向のブロック境界は垂直方向のブロック境界よりも歪みが目出つ。これは、カメラや表示装置の特性もあるが、特に符号化において、垂直方向はフィールド切り出しのDCTも使用されているため、フィールドブロックをマージしてフレームブロックとした時の垂直方向のブロック境界が水平方向に比べてぼけやすいからである。   FIG. 11 is an example, and for example, it is possible to overlap only in the horizontal direction. In practice, horizontal block boundaries are more distorted than vertical block boundaries. This is due to the characteristics of the camera and the display device, but especially in encoding, field cut-out DCT is also used in the vertical direction. Therefore, when the field blocks are merged into frame blocks, the vertical block boundaries are This is because it is more blurred than in the horizontal direction.

実施例1によれば、M=1の場合のPピクチャ及びIピクチャについて、高精細度を保ったまま符号化歪みを低減し、画質が改善された改善動画像信号を得ることができる。   According to the first embodiment, with respect to the P picture and I picture when M = 1, it is possible to reduce the coding distortion while maintaining high definition and to obtain an improved moving image signal with improved image quality.

図12は本発明による映像復号装置の第2実施例の構成図である。図12の映像復号装置は、復号器21,1フレーム遅延部22,2フレーム遅延部23,1フレーム遅延部24,3フレーム遅延部25,1フレーム遅延部26,スイッチ27,スイッチ28,ピクチャ判別部29,動きベクトル外挿部30,類似度演算部31,重み付け制御部32,加重平均部33,ブロック置換部34を含むように構成されている。   FIG. 12 is a block diagram of a second embodiment of the video decoding apparatus according to the present invention. 12 includes a decoder 21, a 1-frame delay unit 22, a 2-frame delay unit 23, a 1-frame delay unit 24, a 3-frame delay unit 25, a 1-frame delay unit 26, a switch 27, a switch 28, and a picture discrimination. A unit 29, a motion vector extrapolation unit 30, a similarity calculation unit 31, a weighting control unit 32, a weighted average unit 33, and a block replacement unit 34.

符号化ストリームは復号器21に入力される。復号器21は入力された符号化ストリームを復号し、その復号動画像信号を1フレーム遅延部22,2フレーム遅延部23,スイッチ28に出力する。また、復号器21は符号化ストリームに含まれるピクチャタイプ情報を1フレーム遅延部24に出力する。さらに、復号器21は符号化ストリームに含まれる動きベクトル情報を3フレーム遅延部25及び1フレーム遅延部26に出力する。   The encoded stream is input to the decoder 21. The decoder 21 decodes the input encoded stream and outputs the decoded moving image signal to the 1-frame delay unit 22, the 2-frame delay unit 23, and the switch 28. Further, the decoder 21 outputs the picture type information included in the encoded stream to the 1-frame delay unit 24. Further, the decoder 21 outputs the motion vector information included in the encoded stream to the 3-frame delay unit 25 and the 1-frame delay unit 26.

1フレーム遅延部22は、入力された復号動画像信号を1フレーム分遅延させたあと、類似度演算部31及びブロック置換部34に出力する。2フレーム遅延部23は、入力された復号動画像信号を1フレーム分遅延させたあと、スイッチ28に出力する。   The 1-frame delay unit 22 delays the input decoded moving image signal by one frame, and then outputs it to the similarity calculation unit 31 and the block replacement unit 34. The 2-frame delay unit 23 delays the input decoded video signal by one frame, and then outputs the delayed signal to the switch 28.

1フレーム遅延部24は入力されたピクチャタイプ情報を1フレーム分遅延させたあと、スイッチ27,ピクチャ判別部29及びブロック置換部34に出力する。3フレーム遅延部25は入力された動きベクトル情報を3フレーム分遅延させたあと、スイッチ27に出力する。1フレーム遅延部26は入力された動きベクトル情報を1フレーム分遅延させたあと、スイッチ27に出力する。   The one-frame delay unit 24 delays the input picture type information by one frame, and then outputs it to the switch 27, the picture determination unit 29, and the block replacement unit 34. The 3-frame delay unit 25 delays the input motion vector information by 3 frames, and then outputs it to the switch 27. The 1-frame delay unit 26 delays the input motion vector information by one frame, and then outputs it to the switch 27.

スイッチ27は、1フレーム遅延部24から入力されるピクチャタイプ情報に基づき、処理対象画面がIピクチャのときに3フレーム遅延部25からの動きベクトル情報を動きベクトル外挿部30に出力するように制御され、処理対象画面がIピクチャ以外のときに1フレーム遅延部26からの動きベクトル情報を動きベクトル外挿部30に出力するように制御される。   Based on the picture type information input from the 1-frame delay unit 24, the switch 27 outputs the motion vector information from the 3-frame delay unit 25 to the motion vector extrapolation unit 30 when the processing target screen is an I picture. Control is performed so that the motion vector information from the 1-frame delay unit 26 is output to the motion vector extrapolation unit 30 when the processing target screen is other than the I picture.

ピクチャ判別部29は、1フレーム遅延部24から入力されるピクチャタイプ情報に基づき、2つ連続して存在するBピクチャのうち、過去の方のB1ピクチャであるか否かを判別する。ピクチャ判別部29は、例えばIピクチャ又はPピクチャの直ぐ後のBピクチャであったらB1ピクチャであると判別する。ピクチャ判別部29はB1ピクチャであるか否かを表す判別結果をスイッチ28に出力する。   Based on the picture type information input from the 1-frame delay unit 24, the picture determination unit 29 determines whether or not it is a past B1 picture among two consecutive B pictures. The picture discriminating unit 29 discriminates that the B picture is a B picture immediately after an I picture or a P picture, for example. The picture discrimination unit 29 outputs a discrimination result indicating whether or not it is a B1 picture to the switch 28.

スイッチ28は、ピクチャ判別部29から入力されるB1ピクチャであるか否かを表す判別結果に基づき、処理対象画面がB1ピクチャであるときに復号器21からの復号動画像信号を類似度演算部31に出力するように制御され、処理対象画面がB1ピクチャ以外であるときに2フレーム遅延部23からの復号動画像信号を類似度演算部31に出力するように制御される。   Based on the determination result indicating whether or not the B1 picture is input from the picture determination unit 29, the switch 28 receives the decoded moving image signal from the decoder 21 when the processing target screen is the B1 picture. The decoded moving image signal from the 2-frame delay unit 23 is controlled to be output to the similarity calculation unit 31 when the processing target screen is other than the B1 picture.

スイッチ27から出力された動きベクトル情報は動きベクトル外挿部30に入力される。動きベクトル外挿部30は入力された動きベクトル情報に含まれる動きベクトルを外挿し、外挿した動きベクトルを類似度演算部31に出力する。   The motion vector information output from the switch 27 is input to the motion vector extrapolation unit 30. The motion vector extrapolation unit 30 extrapolates the motion vector included in the input motion vector information, and outputs the extrapolated motion vector to the similarity calculation unit 31.

類似度演算部31は復号器21からスイッチ28経由で入力される復号動画像信号と、1フレーム遅延部22から入力される1フレーム分遅延された復号動画像信号と、2フレーム遅延部23からスイッチ28経由で入力される2フレーム分遅延された復号動画像信号と、動きベクトル外挿部30から入力される外挿した動きベクトルとを用いて、以下のように類似度を演算する。   The similarity calculation unit 31 receives the decoded moving image signal input from the decoder 21 via the switch 28, the decoded moving image signal delayed by one frame input from the one frame delay unit 22, and the two frame delay unit 23. Using the decoded video signal delayed by two frames input via the switch 28 and the extrapolated motion vector input from the motion vector extrapolation unit 30, the similarity is calculated as follows.

なお、類似度演算部31は図3に示すように、処理対象画面がPピクチャのとき、処理対象画面の画素ブロックの動きベクトルを用い、1つ過去のB1ピクチャとの間で処理を行なう。また、類似度演算部31は図4に示すように、処理対象画面がB1ピクチャのとき、処理対象画面の画素ブロックの未来方向の動きベクトルを用い、1つ未来のB2ピクチャとの間で処理を行なう。   As shown in FIG. 3, when the processing target screen is a P picture, the similarity calculation unit 31 uses the motion vector of the pixel block of the processing target screen to perform processing with the previous B1 picture. Also, as shown in FIG. 4, when the processing target screen is a B1 picture, the similarity calculation unit 31 uses a motion vector in the future direction of the pixel block of the processing target screen to perform processing between one future B2 picture. To do.

また、類似度演算部31は図4に示すように、処理対象画面がB2ピクチャのとき、処理対象画面の画素ブロックの過去方向の動きベクトルを用い、1つ過去のB1ピクチャとの間で処理を行なう。さらに、類似度演算部31は図5に示すように、処理対象画面がIピクチャのとき、2つ過去のB1ピクチャの画素ブロックの未来方向の動きベクトルを用い、1つ過去のB2ピクチャとの間で処理を行なう。   In addition, as shown in FIG. 4, when the processing target screen is a B2 picture, the similarity calculation unit 31 uses a motion vector in the past direction of the pixel block of the processing target screen to process between the previous B1 pictures. To do. Further, as shown in FIG. 5, when the processing target screen is an I picture, the similarity calculation unit 31 uses the motion vector in the future direction of the pixel block of the two past B1 pictures, and Process between.

まず、図3に示すように、処理対象画面がPピクチャであるときの処理を説明する。類似度演算部31は処理対象画面143の画素ブロックCの動きベクトルを用い、動きベクトルが差し示す参照画面142の画素ブロックBを得る。   First, as shown in FIG. 3, processing when the processing target screen is a P picture will be described. The similarity calculation unit 31 uses the motion vector of the pixel block C on the processing target screen 143 to obtain the pixel block B on the reference screen 142 indicated by the motion vector.

類似度演算部31は、外挿した動きベクトルが指し示す処理対象画面143の画素ブロックC及び参照画面142の画素ブロックBの類似度を実施例1と同様に求める。   The similarity calculation unit 31 obtains the similarity between the pixel block C on the processing target screen 143 and the pixel block B on the reference screen 142 indicated by the extrapolated motion vector, as in the first embodiment.

類似度演算部31は、外挿した動きベクトルが指し示す処理対象画面143の画素ブロックC及び参照画面142の画素ブロックBの画像データを加重平均部33に出力する。また、類似度演算部31は外挿した動きベクトルが指し示す処理対象画面143の画素ブロックCおよび参照画面142の画素ブロックBのブロック位置と、その類似度の値とを検出信号として重み付け制御部32に出力する。   The similarity calculation unit 31 outputs the image data of the pixel block C on the processing target screen 143 and the pixel block B on the reference screen 142 indicated by the extrapolated motion vector to the weighted average unit 33. Further, the similarity calculation unit 31 uses the block positions of the pixel block C on the processing target screen 143 and the pixel block B on the reference screen 142 indicated by the extrapolated motion vector and the similarity value as a detection signal, and the weighting control unit 32. Output to.

重み付け制御部32は類似度演算部31から入力される検出情報に基づき、上記したように加重平均部33で行なう平均化処理の重み付け係数を決定し、重み付け情報として加重平均部33へ出力する。   Based on the detection information input from the similarity calculation unit 31, the weighting control unit 32 determines the weighting coefficient for the averaging process performed by the weighted average unit 33 as described above, and outputs the weighting information to the weighted average unit 33 as weighting information.

加重平均部33は、入力された重み付け情報から重み付け係数を取得し、その重み付け係数を用いて、類似度演算部31から入力された処理対象画面143の画素ブロックC及び参照画面142の画素ブロックBの画像データを重み付け平均化する。例えば重み付け平均化は以下の式(5)を用いて行われる。   The weighted average unit 33 acquires a weighting coefficient from the input weighting information, and uses the weighting coefficient to input the pixel block C of the processing target screen 143 and the pixel block B of the reference screen 142 input from the similarity calculation unit 31. The image data is weighted and averaged. For example, weighted averaging is performed using the following equation (5).

加重平均部33は平均化された画素ブロックC′を平均化ブロック画像情報としてブロック置換部34に出力する。ブロック置換部34は、入力された平均化ブロック画像情報から平均化された画素ブロックC′を取得する。ブロック置換部34は、平均化された画素ブロックC′を1フレーム遅延部22から入力された処理対象画面143の画素ブロックCと置き換えて出力する。以上の処理を処理対象画面143の全画素ブロックについて行なうことにより、本発明では画質が改善された改善動画像信号を出力できる。   The weighted average unit 33 outputs the averaged pixel block C ′ to the block replacement unit 34 as averaged block image information. The block replacement unit 34 acquires the averaged pixel block C ′ from the input averaged block image information. The block replacement unit 34 replaces the averaged pixel block C ′ with the pixel block C of the processing target screen 143 input from the one-frame delay unit 22 and outputs the result. By performing the above processing for all the pixel blocks of the processing target screen 143, the present invention can output an improved moving image signal with improved image quality.

次に、図4に示すように、処理対象画面がB1ピクチャであるときの処理を説明する。類似度演算部31は処理対象画面161の画素ブロックBの未来方向の動きベクトルを用い、その動きベクトルにより指し示される1つ未来の参照画面162の画素ブロックCを得る。   Next, as shown in FIG. 4, processing when the processing target screen is a B1 picture will be described. The similarity calculation unit 31 uses the motion vector in the future direction of the pixel block B on the processing target screen 161 to obtain the pixel block C on the reference screen 162 of the one future pointed to by the motion vector.

類似度演算部31は、処理対象画面161の画素ブロックB及び参照画面162の画素ブロックCの類似度を求める。なお、類似度を求めた後の処理は処理対象画面がPピクチャであるときの処理と同様であるため、説明を省略する。   The similarity calculation unit 31 obtains the similarity between the pixel block B on the processing target screen 161 and the pixel block C on the reference screen 162. Note that the processing after obtaining the similarity is the same as the processing when the processing target screen is a P picture, and thus description thereof is omitted.

次に、図4に示すように、処理対象画面がB2ピクチャであるときの処理を説明する。類似度演算部31は処理対象画面162の画素ブロックGの過去方向の動きベクトルを用い、その動きベクトルにより指し示される1つ過去の参照画面161の画素ブロックFを得る。   Next, as shown in FIG. 4, a process when the processing target screen is a B2 picture will be described. The similarity calculation unit 31 uses the past direction motion vector of the pixel block G on the processing target screen 162 to obtain the pixel block F on the reference screen 161 of the past pointed to by the motion vector.

類似度演算部31は、処理対象画面162の画素ブロックG及び参照画面161の画素ブロックFの類似度を求める。なお、類似度を求めた後の処理は処理対象画面がPピクチャであるときの処理と同様であるため、説明を省略する。   The similarity calculation unit 31 obtains the similarity between the pixel block G on the processing target screen 162 and the pixel block F on the reference screen 161. Note that the processing after obtaining the similarity is the same as the processing when the processing target screen is a P picture, and thus description thereof is omitted.

次に、図5に示すように、処理対象画面がIピクチャであるときの処理を説明する。類似度演算部31は処理対象画面183の2つ過去のB1ピクチャである画面181の画素ブロックBの未来方向の動きベクトルを用い、その動きベクトルを外挿することにより指し示される1つ過去のB2ピクチャである画面182の画素ブロックCと処理対象画面183の画素ブロックDとを得る。   Next, as shown in FIG. 5, a process when the processing target screen is an I picture will be described. The similarity calculation unit 31 uses the motion vector in the future direction of the pixel block B of the screen 181 that is the two past B1 pictures of the processing target screen 183, and extrapolates the motion vector to indicate the past one A pixel block C on the screen 182 and a pixel block D on the processing target screen 183 that are B2 pictures are obtained.

類似度演算部31は、外挿した動きベクトルが指し示す画面182の画素ブロックC及び処理対象画面183の画素ブロックDの類似度を求める。なお、類似度を求めた後の処理は処理対象画面がPピクチャであるときの処理と同様であるため、説明を省略する。   The similarity calculation unit 31 obtains the similarity between the pixel block C on the screen 182 and the pixel block D on the processing target screen 183 indicated by the extrapolated motion vector. Note that the processing after obtaining the similarity is the same as the processing when the processing target screen is a P picture, and thus description thereof is omitted.

実施例2によれば、M=3の場合のPピクチャ,Bピクチャ及びIピクチャについて、高精細度を保ったまま符号化歪みを低減し、画質が改善された改善動画像信号を得ることができる。   According to the second embodiment, for a P picture, a B picture, and an I picture in the case of M = 3, it is possible to reduce coding distortion while maintaining high definition and obtain an improved moving image signal with improved image quality. it can.

図13は、本発明による映像復号装置の第3実施例の構成図である。図13の映像復号装置は、平均輝度計算部15が加わっている点と、重み付け制御部7及び類似度演算部14の処理とが、図8の符号化歪み低減装置と異なっている。   FIG. 13 is a block diagram of a third embodiment of the video decoding apparatus according to the present invention. The video decoding apparatus of FIG. 13 is different from the encoding distortion reduction apparatus of FIG. 8 in that an average luminance calculation unit 15 is added and the processing of the weighting control unit 7 and the similarity calculation unit 14.

類似度演算部14は、上記した処理の他、切り出した画素ブロックを平均輝度計算部15に出力する。平均輝度計算部15は、類似度演算部14から入力される処理対象画面の画素ブロック毎に平均輝度を計算し、画素ブロック毎に計算した平均輝度を輝度情報として重み付け制御部7に出力する。   The similarity calculation unit 14 outputs the extracted pixel block to the average luminance calculation unit 15 in addition to the processing described above. The average luminance calculation unit 15 calculates the average luminance for each pixel block of the processing target screen input from the similarity calculation unit 14, and outputs the average luminance calculated for each pixel block to the weighting control unit 7 as luminance information.

図8の映像復号装置では、重み付け制御部7において、処理対象画面及び参照画面の画素ブロックのブロック位置と、その類似度の値に基づき重み付け係数を決定している。図13の映像復号装置では、処理対象画面及び参照画面の画素ブロックのブロック位置と、その類似度の値の他に、処理対象画面の画素ブロック近傍の平均輝度も考慮することで、人間の視覚特性に応じた効果的な符号化歪み除去を行なうことができる。   In the video decoding apparatus of FIG. 8, the weighting control unit 7 determines the weighting coefficient based on the block positions of the pixel blocks on the processing target screen and the reference screen and the similarity value. In the video decoding apparatus of FIG. 13, in addition to the block position of the pixel block on the processing target screen and the reference screen and the similarity value, the average luminance in the vicinity of the pixel block on the processing target screen is also taken into consideration. Effective coding distortion removal according to the characteristics can be performed.

人間の輝度の弁別閾に関する特性としてウェーバーの法則がある。これは、ある輝度Yに対する識別可能な最小輝度差をΔYとすると、その比ΔY/Yが広範囲にわたって一定になるというものである。例えば文献としては、「2映像メディア機器の規格と課題 2−1放送規格と感覚 2−1−1放送規格と視覚」、金澤勝,大塚吉道著、映像情報メディア学会誌,Vol.57,No.11,2003年がある。   Weber's law is a characteristic related to the discrimination threshold of human brightness. This is a ratio ΔY / Y that is constant over a wide range, where ΔY is the minimum discriminable luminance difference with respect to a certain luminance Y. For example, literature includes “2 Video Media Equipment Standards and Issues 2-1 Broadcast Standards and Senses 2-1-1 Broadcast Standards and Vision”, Masaru Kanazawa, Yoshimichi Otsuka, Journal of the Video Information Media Society, Vol. 57, no. There are 11, 2003 years.

すなわち、例えば電気信号的に同じレベル差のブロック歪みの境界は、輝度の高い画像に出るブロック歪みよりも、輝度の低い画像に出るブロック歪みの方が視覚的に目立ちやすい。   That is, for example, at the boundary of block distortion having the same level difference in terms of electrical signals, block distortion appearing in an image with low luminance is more visually noticeable than block distortion appearing in an image with high luminance.

そこで、処理対象画面の画素ブロック近傍の平均輝度を求め、その平均輝度が高い場合は符号化歪みが発生していたとしても視覚的に目立たないため、参照画面の画素ブロックに対する重み付けを減らす処理を行う。このように処理を行うことで、図13の映像復号装置では、処理後の画像の不要なぼけを低減することができ、且つ人間の視覚特性上、符号化歪みが目立つ場合にのみ、符号化歪みの低減を行なうことができる。   Therefore, the average luminance in the vicinity of the pixel block on the processing target screen is obtained, and when the average luminance is high, even if coding distortion has occurred, it is not visually noticeable. Do. By performing the processing in this way, the video decoding apparatus in FIG. 13 can reduce unnecessary blurring of the processed image and performs encoding only when encoding distortion is conspicuous in human visual characteristics. Distortion can be reduced.

なお、平均輝度を求める画素ブロック近傍の範囲は、例えば処理対象画面の画素ブロックと同じ範囲である。そのときの参照画面の重み付け係数wref′は、以下に示す式(9),(10)を用いて算出する。Cは、定数である。   Note that the range in the vicinity of the pixel block for which the average luminance is obtained is the same range as the pixel block of the processing target screen, for example. The weighting coefficient wref ′ of the reference screen at that time is calculated using the following equations (9) and (10). C is a constant.

Figure 2007158770
式(9)は処理対象画面の画素ブロックの画素値の平均輝度AVEを算出している。式(10)は平均輝度AVEに基づき、参照画面の重み付け係数wref′を算出している。参照画面の重み付け係数wref′は、処理対象画面の画素ブロックの画素値の平均輝度AVEが大きいほど、小さな値となる。
Figure 2007158770
Equation (9) calculates the average luminance AVE of the pixel values of the pixel block of the processing target screen. Equation (10) calculates the weighting coefficient wref ′ of the reference screen based on the average luminance AVE. The weighting coefficient wref ′ of the reference screen becomes smaller as the average luminance AVE of the pixel values of the pixel block of the processing target screen is larger.

即ち、処理対象画面の画素ブロックの画素値の平均輝度AVEが大きい場合は符号化歪みが発生していたとしても視覚的に目立たないため、参照画面の重み付け係数wref′を小さくして、参照画面の画素ブロックに対する重み付けを減らしている。   That is, when the average luminance AVE of the pixel value of the pixel block of the processing target screen is large, it is not visually noticeable even if the encoding distortion occurs. Therefore, the weighting coefficient wref ′ of the reference screen is reduced to reduce the reference screen. The weighting for the pixel block is reduced.

図14は重み付け制御部の処理を表した他の例のフローチャートである。図14のステップS11〜S13,S17の処理は図10のステップS1〜S3,S5の処理と同様であるため、説明を省略する。   FIG. 14 is a flowchart of another example showing processing of the weighting control unit. The processes in steps S11 to S13 and S17 in FIG. 14 are the same as the processes in steps S1 to S3 and S5 in FIG.

ステップS14に進み、重み付け制御部7は例えば式(4)を利用し、類似度の値に基づいて参照画面の重み付け係数wrefを算出する。次に、ステップS15に進み、重み付け制御部4は式(10)を利用し、処理対象画面の画素ブロックの画素値の平均輝度AVEを算出する。   In step S14, the weighting control unit 7 calculates the weighting coefficient wref of the reference screen based on the similarity value using, for example, the equation (4). Next, proceeding to step S15, the weighting control unit 4 calculates the average luminance AVE of the pixel values of the pixel block of the processing target screen using the equation (10).

ステップS16に進み、重み付け制御部4は式(9)を利用し、平均輝度AVEに基づき、参照画面の重み付け係数wrefを係数wref′に修正している。重み付け制御部7は、例えば式(3)を利用し、参照画面の重み付け係数wref′に基づいて処理対象画面の重み付け係数wcrtを算出する。なお、実施例3では図8の映像復号装置と同様な箇所についての説明を省略した。   In step S16, the weighting control unit 4 modifies the weighting coefficient wref of the reference screen to the coefficient wref ′ based on the average luminance AVE using Expression (9). The weighting control unit 7 calculates the weighting coefficient wcrt of the processing target screen based on the weighting coefficient wref ′ of the reference screen using, for example, Expression (3). In the third embodiment, the description of the same parts as those of the video decoding device in FIG. 8 is omitted.

実施例3によれば、M=1の場合のPピクチャ及びIピクチャについて、高精細度を保ったまま符号化歪みを低減し、画質が改善された改善動画像信号を得ることができる。   According to the third embodiment, with respect to the P picture and I picture when M = 1, it is possible to reduce the coding distortion while maintaining high definition and obtain an improved moving image signal with improved image quality.

図15は、本発明による映像復号装置の第4実施例の構成図である。図15の映像復号装置は、図13の映像復号装置と同様、平均輝度計算部36が加わっている点と、重み付け制御部32及び類似度演算部35の処理とが、図12の映像復号装置と異なっている。   FIG. 15 is a block diagram of a fourth embodiment of the video decoding apparatus according to the present invention. The video decoding device in FIG. 15 is similar to the video decoding device in FIG. 13 in that an average luminance calculation unit 36 is added and the processing of the weighting control unit 32 and the similarity calculation unit 35 is similar to the video decoding device in FIG. Is different.

類似度演算部35は、上記した処理の他、切り出した画素ブロックを平均輝度計算部36に出力する。平均輝度計算部36は、類似度演算部35から入力される処理対象画面の画素ブロック毎に平均輝度を計算し、画素ブロック毎に計算した平均輝度を輝度情報として重み付け制御部32に出力する。   In addition to the above processing, the similarity calculation unit 35 outputs the extracted pixel block to the average luminance calculation unit 36. The average luminance calculation unit 36 calculates the average luminance for each pixel block of the processing target screen input from the similarity calculation unit 35, and outputs the average luminance calculated for each pixel block to the weighting control unit 32 as luminance information.

図15の映像復号装置では、処理対象画面及び参照画面の画素ブロックのブロック位置と、その類似度の値の他に、処理対象画面の画素ブロック近傍の平均輝度も考慮することで、人間の視覚特性に応じた効果的な符号化歪み除去を行なうことができる。なお、実施例4では図12及び図13の映像復号装置と同様な箇所についての説明を省略した。   In the video decoding device of FIG. 15, in addition to the block position of the pixel block on the processing target screen and the reference screen and the similarity value thereof, the average luminance in the vicinity of the pixel block on the processing target screen is also taken into consideration. Effective coding distortion removal according to the characteristics can be performed. In the fourth embodiment, the description of the same parts as those of the video decoding device in FIGS. 12 and 13 is omitted.

実施例4によれば、M=3の場合のPピクチャ,Bピクチャ及びIピクチャについて、高精細度を保ったまま符号化歪みを低減し、画質が改善された改善動画像信号を得ることができる。   According to the fourth embodiment, for a P picture, a B picture, and an I picture in the case of M = 3, it is possible to reduce coding distortion while maintaining high definition and obtain an improved moving image signal with improved image quality. it can.

図16は、本発明による映像復号装置の第5実施例の構成図である。映像復号装置は、それぞれバスBで相互に接続されている入力装置51,出力装置52,ドライブ装置53,補助記憶装置54,メモリ装置55,演算処理装置56およびインターフェース装置57で構成される。   FIG. 16 is a block diagram of a fifth embodiment of the video decoding apparatus according to the present invention. The video decoding device includes an input device 51, an output device 52, a drive device 53, an auxiliary storage device 54, a memory device 55, an arithmetic processing device 56, and an interface device 57 that are mutually connected by a bus B.

入力装置51はキーボードやマウスなどで構成され、各種信号を入力するために用いられる。出力装置52はディスプレイ装置などで構成され、各種ウインドウやデータ等を表示するために用いられる。インターフェース装置57は、モデム,LANカードなどで構成されており、所定のネットワークへ接続する為に用いられる。   The input device 51 includes a keyboard and a mouse, and is used for inputting various signals. The output device 52 includes a display device and is used to display various windows, data, and the like. The interface device 57 includes a modem, a LAN card, and the like, and is used for connecting to a predetermined network.

本発明の映像復号プログラムは、記録媒体58の配布やネットワークからのダウンロードなどによって提供される。映像復号プログラムを記録した記録媒体58は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   The video decoding program of the present invention is provided by distributing the recording medium 58, downloading from a network, or the like. The recording medium 58 on which the video decoding program is recorded is information such as a recording medium such as a CD-ROM, a flexible disk, a magneto-optical disk, etc., an optical, electrical, or magnetic recording medium, a ROM, a flash memory, etc. Various types of recording media, such as a semiconductor memory that electrically records data, can be used.

また、映像復号プログラムを記録した記録媒体58がドライブ装置53にセットされると、映像復号プログラムは記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。ネットワークからダウンロードされた映像復号プログラムは、インターフェース装置57を介して補助記憶装置54にインストールされる。   When the recording medium 58 on which the video decoding program is recorded is set in the drive device 53, the video decoding program is installed from the recording medium 58 to the auxiliary storage device 54 via the drive device 53. The video decoding program downloaded from the network is installed in the auxiliary storage device 54 via the interface device 57.

映像復号装置は、インストールされた映像復号プログラムを格納すると共に、必要なファイル,データ等を格納する。メモリ装置55は、コンピュータの起動時に補助記憶装置54から映像復号プログラムを読み出して格納する。演算処理装置56は、メモリ装置55に格納された映像復号プログラムに従って、前述した実施例1〜実施例4の各種処理を実現することができる。
(まとめ)
なお、本発明による映像復号装置はテレビジョン受像機に内蔵してもよいし、チューナやセットトップボックス(STB)等に内蔵してもよいし、映像復号機能を有するジグとしてもよいし、映像復号機能を有するチップとしてもよい。
The video decoding device stores the installed video decoding program and also stores necessary files, data, and the like. The memory device 55 reads and stores the video decoding program from the auxiliary storage device 54 when the computer is activated. The arithmetic processing unit 56 can realize the various processes of the first to fourth embodiments described above according to the video decoding program stored in the memory device 55.
(Summary)
The video decoding apparatus according to the present invention may be built in a television receiver, a tuner, a set top box (STB), or the like, or a jig having a video decoding function, or a video. A chip having a decoding function may be used.

以上、本発明による映像復号装置は、ブロック歪みなどの符号化歪みを符号化ストリームを復号して得られる動きベクトルを利用した画像の時間平均化処理を行うことで低減できる。さらに、本発明による映像復号装置では画素ブロックの類似度や適合ブロックの位置情報に基づき適応的な重み付け処理を行うことにより、映像の不要なぼけを防ぎ、符号化歪みを効果的に低減できる。   As described above, the video decoding apparatus according to the present invention can reduce encoding distortion such as block distortion by performing time averaging processing of an image using a motion vector obtained by decoding an encoded stream. Furthermore, in the video decoding apparatus according to the present invention, adaptive weighting processing is performed based on the similarity between the pixel blocks and the position information of the matching block, thereby preventing unnecessary blurring of the video and effectively reducing the coding distortion.

本発明による映像復号装置では、符号化ストリームに含まれる動きベクトルを利用しているため、処理の冗長を省き、処理負担を大幅に低減できる。   In the video decoding apparatus according to the present invention, since motion vectors included in the encoded stream are used, processing redundancy can be omitted and the processing load can be greatly reduced.

なお、前述した実施例では参照画像が1枚の場合について説明したが、参照画面が2枚以上の複数であっても同様に処理が可能である。また、前述した実施例では順次走査画像と飛び越し走査画像との区別を特に行っていないが、フレーム画像から画素ブロックを得るか、もしくはフィールド画像から画素ブロックを得るかの違いのみで、当然どちらの走査方式にも対応が可能である。   In the above-described embodiment, the case where there is one reference image has been described, but the same processing can be performed even when there are a plurality of reference screens. In the above-described embodiment, the sequential scanning image and the interlaced scanning image are not particularly distinguished. Of course, the only difference is whether the pixel block is obtained from the frame image or the pixel block is obtained from the field image. A scanning method can also be supported.

M=1の場合のPピクチャの処理の概要を示す一例のイメージ図である。It is an image figure of an example which shows the outline | summary of a process of P picture in case of M = 1. M=1の場合のIピクチャの処理の概要を示す一例のイメージ図である。It is an image figure of an example which shows the outline of processing of I picture in case of M = 1. M=3の場合のPピクチャの処理の概要を示す一例のイメージ図である。It is an image figure of an example which shows the outline of processing of P picture in the case of M = 3. M=3の場合のBピクチャの処理の概要を示す一例のイメージ図である。It is an example image figure which shows the outline | summary of a process of the B picture in case M = 3. M=3の場合のIピクチャの処理の概要を示す一例のイメージ図である。It is an image figure of an example which shows the outline | summary of a process of I picture in case M = 3. M=1のGOP(Group OfPictures)構成を示す一例のイメージ図である。It is an image figure of an example which shows the GOP (Group Of Pictures) structure of M = 1. M=3のGOP構成を示す一例のイメージ図である。It is an image figure of an example which shows the GOP structure of M = 3. 本発明による映像復号装置の第1実施例の構成図である。It is a block diagram of 1st Example of the video decoding apparatus by this invention. 重み付け制御部の処理を表したイメージ図である。It is an image figure showing the process of the weighting control part. 重み付け制御部の処理を表した一例のフローチャートである。It is a flowchart of an example showing the process of the weight control part. 画素ブロック切り出しの一例を示すイメージ図である。It is an image figure which shows an example of pixel block cutout. 本発明による映像復号装置の第2実施例の構成図である。It is a block diagram of 2nd Example of the video decoding apparatus by this invention. 本発明による映像復号装置の第3実施例の構成図である。It is a block diagram of 3rd Example of the video decoding apparatus by this invention. 重み付け制御部の処理を表した他の例のフローチャートである。It is a flowchart of the other example showing the process of the weight control part. 本発明による映像復号装置の第4実施例の構成図である。It is a block diagram of 4th Example of the video decoding apparatus by this invention. 本発明による映像復号装置の第5実施例の構成図である。It is a block diagram of 5th Example of the video decoding apparatus by this invention.

符号の説明Explanation of symbols

1,21 復号器
2,3,12,22,24,26 1フレーム遅延部
4 メモリ
5,30 動きベクトル外挿部
6,14,31,35 類似度演算部
7,32 重み付け制御部
8,33 加重平均部
9,13,27,28 スイッチ
10,11,34 ブロック置換部
15,36 平均輝度計算部
23 2フレーム遅延部
25 3フレーム遅延部
29 ピクチャ判別部
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 演算処理装置
57 インターフェース装置
58 記憶媒体
1,21 Decoder 2,3,12,22,24,26 1 frame delay unit 4 memory 5,30 motion vector extrapolation unit 6,14,31,35 similarity calculation unit 7,32 weighting control unit 8,33 Weighted average unit 9, 13, 27, 28 Switch 10, 11, 34 Block replacement unit 15, 36 Average luminance calculation unit 23 2 frame delay unit 25 3 frame delay unit 29 Picture discrimination unit 51 Input device 52 Output device 53 Drive device 54 Auxiliary storage device 55 Memory device 56 Arithmetic processing device 57 Interface device 58 Storage medium

Claims (6)

復号動画像信号から符号化歪みを低減する映像復号装置であって、
符号化された動画像信号を復号して復号動画像信号及び動きベクトル情報を出力する復号器と、
前記復号動画像信号から出力された処理対象画面及びその処理対象画面と時間的に隣接する1つ以上の参照画面が入力され、前記動きベクトル情報を用いて前記処理対象画面および参照画面から各々画素ブロックを切り出して出力する類似度演算部と、
前記類似度演算部から出力された前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとを用いた時間平均化処理を行って平均化画素ブロックを作成し、その平均化画素ブロックを出力する平均部と、
前記平均化画素ブロックを、前記処理対象画面の画素ブロックと置き換えるブロック置換部と
を有することを特徴とする映像復号装置。
A video decoding device that reduces coding distortion from a decoded video signal,
A decoder that decodes the encoded video signal and outputs the decoded video signal and motion vector information;
A processing target screen output from the decoded video signal and one or more reference screens temporally adjacent to the processing target screen are input, and pixels are respectively input from the processing target screen and the reference screen using the motion vector information. A similarity calculator that cuts out and outputs a block;
A time averaging process using the pixel block of the processing target screen output from the similarity calculation unit and the pixel block of the reference screen is performed to create an average pixel block, and the averaged pixel block is output Average part,
A video decoding apparatus comprising: a block replacement unit that replaces the averaged pixel block with a pixel block of the processing target screen.
前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとの類似度に基づいて重み付けを決定する重み付け制御部を更に有し、
前記類似度演算部は、前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとの類似度を演算して出力し、
前記平均部は、前記重み付け制御部が決定した重み付けに基づき、前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとを重み付けして平均化処理を行って前記平均化画素ブロックを作成することを特徴とする請求項1記載の映像復号装置。
A weighting control unit that determines weighting based on the similarity between the pixel block of the processing target screen and the pixel block of the reference screen;
The similarity calculation unit calculates and outputs the similarity between the pixel block of the processing target screen and the pixel block of the reference screen,
The averaging unit weights the pixel block of the processing target screen and the pixel block of the reference screen based on the weight determined by the weighting control unit, and performs the averaging process to create the averaged pixel block The video decoding device according to claim 1.
前記処理対象画面の画素ブロック毎に画素ブロック近傍の平均輝度を計算する平均輝度計算部を更に有し、
前記重み付け制御部は、前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとの類似度および前記処理対象画面の画素ブロック近傍の平均輝度に基づいて重み付けを決定することを特徴とする請求項2記載の映像復号装置。
An average luminance calculation unit for calculating an average luminance in the vicinity of the pixel block for each pixel block of the processing target screen;
The weighting control unit determines weighting based on a similarity between a pixel block of the processing target screen and a pixel block of the reference screen and an average luminance near the pixel block of the processing target screen. 2. The video decoding device according to 2.
前記重み付け制御部は、前記参照画面の画素ブロックの空間位置が、前記処理対象画面の画素ブロックの空間位置と一致し、又は前記参照画面の画素ブロックの空間位置と符号化歪みのブロックパターンの空間位置との位置関係が、前記処理対象画面の画素ブロックの空間位置と符号化歪みのブロックパターンの空間位置との位置関係と一致するときに、前記平均部で平均化処理を行わないように前記重み付けを決定することを特徴とする請求項2記載の映像復号装置。   In the weighting control unit, the spatial position of the pixel block on the reference screen matches the spatial position of the pixel block on the processing target screen, or the spatial position of the pixel block on the reference screen and the block pattern space of the coding distortion When the positional relationship with the position coincides with the positional relationship between the spatial position of the pixel block of the processing target screen and the spatial position of the block pattern of the coding distortion, the averaging unit does not perform the averaging process. 3. The video decoding apparatus according to claim 2, wherein weighting is determined. 前記類似度演算部は、前記動きベクトル情報を用いて前記処理対象画面および参照画面から各々画素ブロックを切り出すとき、前記画素ブロックの境界を超えて前記画素ブロック間で重複があるように切り出し、
前記ブロック置換部は、重複して切り出された前記画素ブロックの大きさのまま前記平均化画素ブロックを前記処理対象画面の画素ブロックと置き換えることを特徴とする請求項1記載の映像復号装置
When the similarity calculation unit cuts out each pixel block from the processing target screen and the reference screen using the motion vector information, it cuts out so that there is an overlap between the pixel blocks beyond the boundary of the pixel block,
The video decoding device according to claim 1, wherein the block replacement unit replaces the averaged pixel block with a pixel block of the processing target screen while maintaining the size of the pixel block cut out in duplicate.
復号動画像信号から符号化歪みを低減する映像復号装置として機能するコンピュータに、
符号化された動画像信号を復号して復号動画像信号及び動きベクトル情報を出力するステップと、
前記復号動画像信号から出力された処理対象画面及びその処理対象画面と時間的に隣接する1つ以上の参照画面が入力され、前記動きベクトル情報を用いて前記処理対象画面および参照画面から各々画素ブロックを切り出して出力するステップと、
出力された前記処理対象画面の画素ブロックと前記参照画面の画素ブロックとを用いた時間平均化処理を行って平均化画素ブロックを作成し、その平均化画素ブロックを出力するステップと、
前記平均化画素ブロックを、前記処理対象画面の画素ブロックと置き換えるステップと
を実行させる為の映像復号プログラム。
In a computer functioning as a video decoding device that reduces coding distortion from a decoded video signal,
Decoding the encoded video signal and outputting the decoded video signal and motion vector information;
A processing target screen output from the decoded video signal and one or more reference screens temporally adjacent to the processing target screen are input, and pixels are respectively input from the processing target screen and the reference screen using the motion vector information. Cutting out and outputting blocks; and
Performing a time averaging process using the output pixel block of the processing target screen and the pixel block of the reference screen to create an averaged pixel block, and outputting the averaged pixel block;
A video decoding program for executing the step of replacing the averaged pixel block with a pixel block of the processing target screen.
JP2005351861A 2005-12-06 2005-12-06 Video decoding apparatus and video decoding program Expired - Fee Related JP4528255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005351861A JP4528255B2 (en) 2005-12-06 2005-12-06 Video decoding apparatus and video decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005351861A JP4528255B2 (en) 2005-12-06 2005-12-06 Video decoding apparatus and video decoding program

Publications (2)

Publication Number Publication Date
JP2007158770A true JP2007158770A (en) 2007-06-21
JP4528255B2 JP4528255B2 (en) 2010-08-18

Family

ID=38242545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005351861A Expired - Fee Related JP4528255B2 (en) 2005-12-06 2005-12-06 Video decoding apparatus and video decoding program

Country Status (1)

Country Link
JP (1) JP4528255B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010517405A (en) * 2007-01-29 2010-05-20 サムスン エレクトロニクス カンパニー リミテッド Video encoding method and apparatus, video decoding method and apparatus
JP2014143702A (en) * 2007-11-12 2014-08-07 Qualcomm Incorporated Block-based image stabilization
JP2016504845A (en) * 2012-12-07 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Advanced residual prediction in scalable multi-view video coding

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05252055A (en) * 1992-03-06 1993-09-28 Mitsubishi Electric Corp Coder and decoder
JPH07203435A (en) * 1993-12-16 1995-08-04 At & T Corp Method and apparatus for enhancing distorted graphic information
JPH07231450A (en) * 1994-02-04 1995-08-29 At & T Corp Filter device and method for reducing artifact in moving video picture signal system
JPH09107549A (en) * 1995-08-09 1997-04-22 Sony Corp Dynamic image coding method and device and signal recording medium
JP2002238049A (en) * 2000-11-27 2002-08-23 Sony Internatl Europ Gmbh Method for coding artifact reduction
JP2007068036A (en) * 2005-09-01 2007-03-15 Nippon Hoso Kyokai <Nhk> Coding distortion reduction device and coding distortion reduction program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05252055A (en) * 1992-03-06 1993-09-28 Mitsubishi Electric Corp Coder and decoder
JPH07203435A (en) * 1993-12-16 1995-08-04 At & T Corp Method and apparatus for enhancing distorted graphic information
JPH07231450A (en) * 1994-02-04 1995-08-29 At & T Corp Filter device and method for reducing artifact in moving video picture signal system
JPH09107549A (en) * 1995-08-09 1997-04-22 Sony Corp Dynamic image coding method and device and signal recording medium
JP2002238049A (en) * 2000-11-27 2002-08-23 Sony Internatl Europ Gmbh Method for coding artifact reduction
JP2007068036A (en) * 2005-09-01 2007-03-15 Nippon Hoso Kyokai <Nhk> Coding distortion reduction device and coding distortion reduction program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010517405A (en) * 2007-01-29 2010-05-20 サムスン エレクトロニクス カンパニー リミテッド Video encoding method and apparatus, video decoding method and apparatus
JP2014143702A (en) * 2007-11-12 2014-08-07 Qualcomm Incorporated Block-based image stabilization
JP2016504845A (en) * 2012-12-07 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Advanced residual prediction in scalable multi-view video coding
US9948939B2 (en) 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US10334259B2 (en) 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding

Also Published As

Publication number Publication date
JP4528255B2 (en) 2010-08-18

Similar Documents

Publication Publication Date Title
JP4666411B2 (en) Image decoding method and image decoding apparatus
US20070140574A1 (en) Decoding apparatus and decoding method
JP5137687B2 (en) Decoding device, decoding method, and program
JP4528255B2 (en) Video decoding apparatus and video decoding program
TWI782853B (en) Image encoding device, image encoding method, image decoding device, image decoding method
JP4495653B2 (en) Coding distortion reduction apparatus and coding distortion reduction program
JP5180550B2 (en) Image processing apparatus and image processing method
JP4444161B2 (en) Image signal processing device
JP2009182768A (en) Moving image coding method, apparatus and program, and computer readable recording medium
JP2005197879A (en) Video signal coding apparatus
JP2006196970A (en) Method and apparatus for concealing moving picture error
JP6012307B2 (en) Moving picture coding apparatus, control method therefor, and program
JP2001145104A (en) Method and device for decoding image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140611

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees