JP2007143178A - Method for removing coding distortion - Google Patents

Method for removing coding distortion Download PDF

Info

Publication number
JP2007143178A
JP2007143178A JP2006351968A JP2006351968A JP2007143178A JP 2007143178 A JP2007143178 A JP 2007143178A JP 2006351968 A JP2006351968 A JP 2006351968A JP 2006351968 A JP2006351968 A JP 2006351968A JP 2007143178 A JP2007143178 A JP 2007143178A
Authority
JP
Japan
Prior art keywords
block
image
coding distortion
unit
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006351968A
Other languages
Japanese (ja)
Inventor
Shinya Sumino
眞也 角野
Mei Shen Shen
メイ・シェン シェン
Wii Fuu Tekku
ウィー・フー テック
Juu Lee Chaku
ジュー・リー チャク
Zhong Xue
ツォン・スー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006351968A priority Critical patent/JP2007143178A/en
Publication of JP2007143178A publication Critical patent/JP2007143178A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for removing coding distortions, wherein because mosaic-shaped block noise occurs when a compressed video signal is reproduced, this block noise is removed, but since removing block noise from each block by using a deblocking filter imposes a significant load on the deblocking filter, the method reduces the load. <P>SOLUTION: It is determined whether or not coding distortion removal process is necessary, and the deblocking filter is used only when the process is necessary. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像信号を符号化した際に発生する符号化歪を除去する符号化歪除去方法、および符号化歪除去方法を用いて圧縮率をより高めることができる符号化方法ならびに復号化方法と、それをソフトウェアで実施するためのプログラムが記録された記録媒体である。   The present invention relates to a coding distortion removing method for removing coding distortion generated when an image signal is coded, and a coding method and a decoding method capable of further increasing the compression rate using the coding distortion removing method. And a recording medium on which a program for implementing it by software is recorded.

近年、音声,画像,その他の画素値を統合的に扱うマルチメディア時代を迎え、従来からの情報メディア,つまり新聞,雑誌,テレビ,ラジオ,電話等の情報を人に伝達する手段がマルチメディアの対象として取り上げられるようになってきた。一般に、マルチメディアとは、文字だけでなく、図形、音声、特に画像等を同時に関連づけて表すことをいうが、上記従来の情報メディアをマルチメディアの対象とするには、その情報をディジタル形式にして表すことが必須条件となる。   In recent years, with the era of multimedia that handles sound, images, and other pixel values in an integrated manner, conventional information media, that is, means for transmitting information such as newspapers, magazines, televisions, radios, telephones, etc., to people have become multimedia. It has come to be taken up as a target. In general, multimedia refers to not only characters but also figures, sounds, especially images, etc. that are associated with each other at the same time. It is an essential condition.

ところが、上記各情報メディアの持つ情報量をディジタル情報量として見積もってみると、文字の場合1文字当たりの情報量は1〜2バイトであるのに対し、音声の場合1秒当たり64kbits(電話品質)、さらに動画については1秒当たり100Mbits(現行テレビ受信品質)以上の情報量が必要となり、上記情報メディアでその膨大な情報をディジタル形式でそのまま扱うことは現実的では無い。例えば、テレビ電話は、64kbps〜1.5Mbpsの伝送速度を持つサービス総合ディジタル網(ISDN:Integreted Services Digital Network)によってすでに実用化されているが、テレビ・カメラの映像をそのままISDNで送ることは不可能である。   However, when the information amount of each information medium is estimated as a digital information amount, the information amount per character is 1 to 2 bytes in the case of characters, whereas 64 kbits per second (phone quality) in the case of speech. In addition, for a moving image, an information amount of 100 Mbits (current television reception quality) or more per second is required, and it is not realistic to handle the enormous amount of information in the digital format as it is with the information medium. For example, a video phone has already been put into practical use by an integrated services digital network (ISDN) having a transmission rate of 64 kbps to 1.5 Mbps, but it is not possible to send a video of a TV camera as it is through an ISDN. Is possible.

そこで、必要となってくるのが情報の圧縮技術であり、例えば、テレビ電話の場合、ITU−T(国際電気通信連合 電気通信標準化部門)で国際標準化されたH.261やH.263規格の動画圧縮技術が用いられている。また、MPEG−1規格の情報圧縮技術によると、通常の音楽用CD(コンパクト・ディスク)に音声情報とともに画像情報を入れることも可能となる。   Therefore, what is required is information compression technology. For example, in the case of a videophone, H.264 has been internationally standardized by ITU-T (International Telecommunication Union Telecommunication Standardization Sector). 261 and H.264. H.263 standard video compression technology is used. In addition, according to the information compression technology of the MPEG-1 standard, it is possible to put image information together with audio information on a normal music CD (compact disc).

ここで、MPEG(Moving Picture Experts Group)とは、動画面信号のデジタル圧縮の国際規格であり、MPEG−1は、動画面信号を1.5Mbpsまで、つまりテレビ信号の情報を約100分の1にまで圧縮する規格である。また、MPEG−1規格を対象とする伝送速度が主として約1.5Mbpsに制限されていることから、さらなる高画質化の要求をみたすべく規格化されたMPEG−2では、動画像信号が2〜15Mbpsに圧縮される。   Here, MPEG (Moving Picture Experts Group) is an international standard for digital compression of moving image signals, and MPEG-1 has moving image signals up to 1.5 Mbps, that is, information of television signals is about 1/100. It is a standard that compresses up to. In addition, since the transmission speed for the MPEG-1 standard is mainly limited to about 1.5 Mbps, MPEG-2 standardized to meet the demand for higher image quality has 2 to 2 video signals. Compressed to 15 Mbps.

さらに現状では、MPEG−1,MPEG−2と標準化を進めてきた作業グループ(ISO/IEC JTC1/SC29/WG11)によって、より圧縮率が高いMPEG−4が規格化された。MPEG−4では、当初、低ビットレートで効率の高い符号化が可能になるだけでなく、伝送路誤りが発生しても主観的な画質劣化を小さくできる強力な誤り耐性技術も導入されている。また、ITU−Tでは次世代画面符号化方式として、H.26Lの標準化活動が進んでいる。   Furthermore, MPEG-4 having a higher compression rate has been standardized by a working group (ISO / IEC JTC1 / SC29 / WG11) that has been standardizing with MPEG-1 and MPEG-2. MPEG-4 initially introduced not only high-efficiency coding at a low bit rate, but also a powerful error resilience technology that can reduce subjective image quality degradation even if a transmission path error occurs. . In ITU-T, H.264 is used as a next-generation screen encoding method. 26L standardization activities are progressing.

H.26Lでは、従来の動画像符号化と異なり、符号化歪を除去するために複雑な処理を伴う符号化歪除去方法を採用している。動画像符号化でよく使用されるDCT等の直交変換を用いたブロック単位符号化方法では、ブロックの境界にブロック歪と呼ばれる格子状の歪が見られることが知られている。低周波数成分の画質劣化は高周波数成分の画質劣化よりも目立つため、ブロック単位符号化では、主として高周波数よりも低周波数成分を忠実に符号化する。また、カメラなどで撮影した自然画像では、高周波数成分よりも低周波数成分を多く含むことから、本質的にブロック内の周波数成分は低周波数成分が多くなる。その結果、ブロック内部では高周波数成分が殆ど無く、ブロック内部で隣接する画素ではほぼ同じ画素値をとる傾向がある。一方、ブロック単位で符号化するために、ブロック内では画素値がほぼ同じであっても、ブロック境界では必ずしも隣接ブロック間で画素値がほぼ同じ値、すなわち画素値が連続的に変化する保証が無い。その結果、図31の符号化歪除去方法の概念の説明図に示すように、図31(a)の原画像に対してブロック単位符号化を行うと、図31(b)に示すように、ブロック内部では画素値が滑らかに連続的に変化し、破線で示すブロック境界部のみで画素値が不連続となるブロック歪が発生する。そこで、図31(c)のようにブロック境界部で画素値が連続となるように補正することで符号化に起因する画質で大きな問題となるブロック歪を低減できる。このブロック歪を低減する処理を符号化歪除去方法(デブロック方法)と呼ぶ。   H. Unlike conventional video coding, 26L employs a coding distortion removal method that involves complicated processing in order to remove coding distortion. It is known that in a block unit encoding method using orthogonal transform such as DCT, which is often used in moving image encoding, a lattice-like distortion called block distortion is seen at a block boundary. Since the image quality degradation of the low frequency component is more conspicuous than the image quality degradation of the high frequency component, the block unit coding mainly encodes the low frequency component faithfully than the high frequency. In addition, since a natural image taken with a camera or the like includes more low-frequency components than high-frequency components, the frequency components in the block essentially have more low-frequency components. As a result, there is almost no high-frequency component inside the block, and adjacent pixels inside the block tend to have almost the same pixel value. On the other hand, since encoding is performed in units of blocks, even if the pixel values are almost the same in the block, the pixel values are not necessarily the same between adjacent blocks at the block boundary, that is, the pixel values are continuously changed. No. As a result, as shown in the explanatory diagram of the concept of the coding distortion removal method in FIG. 31, when block unit coding is performed on the original image in FIG. 31 (a), as shown in FIG. 31 (b), Within the block, the pixel value changes smoothly and continuously, and block distortion occurs in which the pixel value becomes discontinuous only at the block boundary indicated by a broken line. Therefore, by correcting the pixel values to be continuous at the block boundary as shown in FIG. 31C, block distortion that is a big problem in image quality due to encoding can be reduced. This process of reducing block distortion is called a coding distortion removal method (deblocking method).

符号化歪除去方法を動画像復号化に用いる場合は、図32の従来の復号化方法を用いた画像復号化装置のブロック図のような構成(ポストフィルタ)と、図33の従来の復号化方法を用いた画像復号化装置のブロック図のような構成(ループ内フィルタ)がある。以下、各ブロック図の構成を説明する。   When the coding distortion removal method is used for moving picture decoding, a configuration (post filter) as shown in the block diagram of the image decoding apparatus using the conventional decoding method in FIG. 32 and the conventional decoding in FIG. There is a configuration (in-loop filter) as shown in a block diagram of an image decoding apparatus using the method. Hereinafter, the configuration of each block diagram will be described.

図32の従来の復号化方法を用いた画像復号化装置のブロック図において、可変長復号化部52は符号化信号Strを可変長復号化し、周波数符号成分DCoefを出力する。逆ジグザグスキャン部54は周波数符号成分DCoefの周波数成分を2次元のブロックに並べ替えて、ブロック単位の周波数成分である周波数成分FCoefを出力する。逆コサイン変換部56は周波数成分FCoefを逆量子化および逆DCTを行い、差分画像DifCoefとして出力する。
一方、動き補償部60は、メモリ64に蓄積された参照画像Refから外部から入力される動きベクトルMVによって示される位置の画素を、動き補償画像MCpelとして出力する。加算部58は、差分画像DifCoefと動き補償画像Mcpelとを加算し、再生画像Coefとして出力する。デブロックフィルタ62は再生画像Coefに対して符号化歪除去を行い、復号画像信号Voutを出力する。再生画像Coefはメモリ64に格納されて、後続の画像復号化で参照画像Refとして使用される。
In the block diagram of the image decoding apparatus using the conventional decoding method of FIG. 32, a variable length decoding unit 52 performs variable length decoding on the encoded signal Str and outputs a frequency code component DCoef. The inverse zigzag scanning unit 54 rearranges the frequency components of the frequency code component DCoef into a two-dimensional block, and outputs a frequency component FCoef that is a frequency component in units of blocks. The inverse cosine transform unit 56 performs inverse quantization and inverse DCT on the frequency component FCoe and outputs it as a difference image DifCoef.
On the other hand, the motion compensation unit 60 outputs the pixel at the position indicated by the motion vector MV inputted from the outside from the reference image Ref stored in the memory 64 as the motion compensated image MCpel. The adder 58 adds the difference image DifCoef and the motion compensated image Mcpel and outputs the result as a reproduced image Coef. The deblocking filter 62 removes coding distortion from the reproduced image Coef and outputs a decoded image signal Vout. The reproduced image Coef is stored in the memory 64 and used as a reference image Ref in subsequent image decoding.

図33の従来の復号化方法を用いた画像復号化装置のブロック図は、図32の従来の復号化方法を用いた画像復号化装置のブロック図と殆ど同じ構成であるが、デブロックフィルタ62の位置が異なっている。即ち、図33の従来の復号化方法を用いた画像復号化装置のブロック図では、デブロックフィルタ62を行った復号画像信号Voutがメモリ64に格納される。   The block diagram of the image decoding apparatus using the conventional decoding method shown in FIG. 33 is almost the same as the block diagram of the image decoding apparatus using the conventional decoding method shown in FIG. The position of is different. That is, in the block diagram of the image decoding apparatus using the conventional decoding method of FIG. 33, the decoded image signal Vout subjected to the deblocking filter 62 is stored in the memory 64.

図32の従来の復号化方法を用いた画像復号化装置のブロック図は、MPEG−1、MPEG−2、MPEG−4およびH.263で採用された方法であり、図33の従来の復号化方法を用いた画像復号化装置のブロック図は、H.261で採用されており、H.26L TM8でも採用されている。   A block diagram of an image decoding apparatus using the conventional decoding method of FIG. 32 is MPEG-1, MPEG-2, MPEG-4, and H.264. A block diagram of an image decoding apparatus using the conventional decoding method of FIG. 261, and H.264. It is also used in 26L TM8.

図32の従来の復号化方法を用いた画像復号化装置のブロック図では、メモリ64に格納される再生画像Coefはデブロックフィルタ62の方法に依存しない。よってデブロックフィルタ62として複雑ではあるが高性能なものや、効果は大きくないが処理が簡単な物等の種々の方式から機器の能力やアプリケーションに応じて独自に開発・実装可能である。また、機器毎に適切なものを使用できる利点がある。
一方、図33の従来の復号化方法を用いた画像復号化装置のブロック図は、メモリ64に格納される復号画像信号Voutはデブロックフィルタ62の方法に依存する。よって機器の実装やアプリケーションに応じて適切なものに変更できないという課題はあるが、どのような機器であっても同じ符号化歪除去結果が得られることを保証できるという利点がある。
In the block diagram of the image decoding apparatus using the conventional decoding method of FIG. 32, the reproduced image Coef stored in the memory 64 does not depend on the method of the deblocking filter 62. Therefore, the deblocking filter 62 can be independently developed and mounted according to the capability and application of the device from various methods such as a complicated but high-performance filter or a filter that is not very effective but easy to process. Moreover, there exists an advantage which can use an appropriate thing for every apparatus.
On the other hand, in the block diagram of the image decoding apparatus using the conventional decoding method of FIG. 33, the decoded image signal Vout stored in the memory 64 depends on the method of the deblocking filter 62. Therefore, although there is a problem that it cannot be changed to an appropriate one according to the implementation and application of the device, there is an advantage that it can be assured that the same encoding distortion removal result can be obtained with any device.

図34は従来の符号化歪除去方法を用いた符号化歪除去部のブロック図である。これは、図32および図33のデブロックフィルタ62の構造を詳細に記したものである。符号化歪を含む画像信号から、符号化歪だけを効率よく除去するためには、画像信号に含まれる符号化歪の大きさや傾向を特定し、それにあった適切なフィルタ処理を行うことで、本来の画像信号を劣化させないことが重要である。符号化歪は高周波数成分を多く含むことから、画像信号の中で高周波数成分の含まれる割合を調査し、画像信号に本来高周波数成分が含まれていないと考えられる画素に高周波数成分があれば符号化歪と判断し(画像信号は隣接画素間の相関が高いため、高周波数成分を含む画素位置はエッジ等の部分に集中しており、離散的に発生する場合は符号化歪と考えられる)、高周波数成分抑圧フィルタを行う処理が、符号化歪除去方法の一般的な考え方である。このデブロックフィルタ62はH.26LのTML 8に記載されている内容をもとに、本願発明者が作成したものである。   FIG. 34 is a block diagram of a coding distortion removing unit using a conventional coding distortion removing method. This is a detailed description of the structure of the deblocking filter 62 shown in FIGS. In order to efficiently remove only the coding distortion from the image signal including the coding distortion, by specifying the magnitude and tendency of the coding distortion included in the image signal and performing an appropriate filter process corresponding thereto, It is important not to degrade the original image signal. Since coding distortion contains a lot of high-frequency components, the proportion of high-frequency components in the image signal is investigated, and high-frequency components are found in pixels that are considered not to contain high-frequency components in the image signal. If there is a coding distortion (the image signal has a high correlation between adjacent pixels, pixel positions including high-frequency components are concentrated on the edge or the like. The process of performing a high frequency component suppression filter is a general idea of the coding distortion removal method. This deblocking filter 62 is an H.264 filter. The inventor of the present application created it based on the contents described in TML 8 of 26L.

フィルタ対象画素数決定部84は再生画像Coefを用いて、符号化歪を含む画素位置を決定し、フィルタ対象画素数FtrPelを出力する。フィルタ係数決定部86はフィルタ対象画素数FtrPelと再生画像Coefを用いて、当該画素の符号化歪除去に適切なフィルタの係数(フィルタのタップ数も含む)を決定し、フィルタ係数FtrTapとして出力する。フィルタ処理部88は、フィルタ係数FtrTapで示すフィルタの係数で再生画像Coefに符号化歪を除去するフィルタ処理を行い、復号画像信号Voutを出力する。   The filter target pixel number determination unit 84 determines a pixel position including coding distortion using the reproduced image Coef, and outputs the filter target pixel number FtrPel. The filter coefficient determination unit 86 determines the filter coefficient (including the number of filter taps) appropriate for removing the coding distortion of the pixel using the filter target pixel number FtrPel and the reproduced image Coef, and outputs the filter coefficient FtrTap. . The filter processing unit 88 performs filter processing for removing the coding distortion on the reproduced image Coef using a filter coefficient indicated by the filter coefficient FtrTap, and outputs a decoded image signal Vout.

MPEG−4 P290−P292 F.3.1 Deblocking filterMPEG-4 P290-P292 F.M. 3.1 Deblocking filter

さて、このような従来の符号化歪除去方法は、符号化歪除去効果は大きいが処理が非常に複雑で実装が困難であるという課題があった。また、単位時間あたりの処理量が多いという課題があった。
また、如何に効果的な符号化歪除去方法を用いても、特別な付加情報無く画像信号と符号化歪を正確に区別することは不可能であるから、符号化歪除去を行うことで画像信号の画質を損なう可能性がある。これは、図33の従来の復号化方法を用いた画像復号化装置のブロック図のように、符号化歪除去を行った結果を参照画像とする場合は後続画面の符号化結果にも影響するため、特に問題は大きい。
本発明は、処理が簡単な符号化歪除去方法、符号化歪除去を行うことで従来よりも画像信号の画質を損なう可能性が少ない高性能な符号化歪除去を行うことで画像信号の画質を損なう可能性を低減可能な符号化歪除去方法、符号化方法および復号化方法を提供することを目的とする。
Now, such a conventional coding distortion removal method has a problem that the coding distortion removal effect is large, but the processing is very complicated and difficult to implement. In addition, there is a problem that the amount of processing per unit time is large.
Also, no matter how effective the coding distortion removal method is used, it is impossible to accurately distinguish the image signal and the coding distortion without any special additional information. The image quality of the signal may be impaired. As shown in the block diagram of the image decoding apparatus using the conventional decoding method in FIG. 33, this affects the encoding result of the subsequent screen when the result of encoding distortion removal is used as a reference image. Therefore, the problem is particularly great.
The present invention is a coding distortion removal method that is easy to process, and by performing high-performance coding distortion removal that reduces the possibility of image quality deterioration of the image signal by performing coding distortion removal. An object of the present invention is to provide an encoding distortion removal method, an encoding method, and a decoding method that can reduce the possibility of impairing the image quality.

そしてこの目的を達成するために、本発明は、画像から符号化歪を除去する符号化歪除去方法であって、動き補償単位が符号化単位よりも大きい場合に、動き補償単位の境界と符号化単位の境界とが一致する境界と動き補償単位の境界と符号化単位の境界とが異なる境界とで異なる方法で符号化歪を除去する。
これにより、動き補償単位の境界における符号化歪と、符号化単位の境界における符号化歪の性質が異なることから、各単位によって符号化歪の除去のフィルタを切替ることで、符号化歪を含む画像信号から効率よく符号化歪のみを除去できる。
また、さらに、前記動き補償単位の残差誤差が0のとき、前記動き補償単位の境界のみで符号化歪を除去する。
In order to achieve this object, the present invention provides a coding distortion removal method for removing coding distortion from an image, where a motion compensation unit boundary and a code are encoded when the motion compensation unit is larger than the coding unit. Encoding distortion is removed by a method that is different between a boundary that coincides with the boundary of the encoding unit, a boundary between the motion compensation unit, and a boundary that differs from the boundary of the encoding unit.
As a result, the encoding distortion at the boundary of the motion compensation unit and the encoding distortion at the boundary of the encoding unit are different from each other. Therefore, the encoding distortion can be reduced by switching the filter for removing the encoding distortion for each unit. Only the coding distortion can be efficiently removed from the included image signal.
Further, when the residual error of the motion compensation unit is 0, encoding distortion is removed only at the boundary of the motion compensation unit.

また本発明は、画像から符号化歪を除去する符号化歪除去方法であって、符号化歪を含む画像から画像パラメータを抽出するステップと、符号化歪を除去する画素を、前記画像パラメータを用いて特定する第1のステップと、符号化歪を除去する方法を、前記画像パラメータを用いて特定する第2のステップと、第1のステップで特定した画素に第2のステップで特定した方法で符号化歪を除去する第3のステップとを備える。
これにより、符号化歪を除去する画素を特定する第1のステップと、符号化歪を除去する方法を特定する第2のステップにおいて共通に利用できる画像パラメータを予め計算し、前記画像パラメータを用いることで第1のステップおよび第2のステップの処理を簡単化することで、画質を劣化せずに符号化歪除去方法の処理を削減することができる。
The present invention is also a coding distortion removal method for removing coding distortion from an image, the step of extracting image parameters from an image including coding distortion, and a pixel for removing coding distortion, wherein the image parameter is A first step that uses and specifies a method for removing encoding distortion, a second step that uses the image parameter to specify, and a method that uses the second step to specify the pixel that is specified in the first step. And a third step of removing coding distortion.
As a result, image parameters that can be commonly used in the first step of specifying pixels for removing coding distortion and the second step of specifying a method for removing coding distortion are calculated in advance, and the image parameters are used. Thus, by simplifying the processing of the first step and the second step, it is possible to reduce the processing of the coding distortion removal method without degrading the image quality.

また本発明は、画像から符号化歪を除去する符号化歪除去方法であって、ブロック単位で符号化歪を除去するか否かを判断し、前記判断によって除去すべきブロックについて更に画素毎に符号化歪を除去すべきか否かを判断して符号化歪除去処理を行う画素を決定する。
これにより、まずブロック単位で符号化歪の除去を行うかどうかを判定し、符号化歪除去が不要なブロックは画素単位の判定を省略することで、符号化歪除去方法の処理量を削減できる。画像符号化の情報を使用すれば、符号化歪除去の不要なブロック(例えば、静止しており参照画像と画素が完全に一致するブロック)であることを容易に判定できる場合も多い。
The present invention also relates to a coding distortion removal method for removing coding distortion from an image, wherein it is determined whether or not coding distortion is to be removed in units of blocks, and a block to be removed by the above determination is further determined for each pixel. It is determined whether or not the coding distortion should be removed, and a pixel to be subjected to the coding distortion removing process is determined.
This makes it possible to reduce the processing amount of the coding distortion removal method by first determining whether or not to remove the coding distortion in units of blocks and omitting the pixel-by-pixel judgment for blocks that do not require coding distortion removal. . If image coding information is used, it is often easy to determine that the block does not require coding distortion removal (for example, a block that is stationary and whose reference image and pixels completely match).

また本発明は、動画像を構成する、複数のブロックを有するピクチャにおいて、隣接する第一のブロックと第二のブロックとの境界線を挟んだ領域において符号化歪を除去する符号化歪除去方法であって、前記第一のブロックの画素における画素値と前記第二のブロックの画素における画素値との差分値と、前記第一のブロックにおける量子化パラメータと前記第二のブロックにおける量子化パラメータとの平均値に対応する符号化歪を除去する方法を決定するパラメータと、を比較する比較ステップと、前記比較ステップにおける比較の結果に基づいて符号化歪を除去する除去ステップとを有する。
これにより、量子化パラメータの異なるブロック境界における符号化歪除去処理において、隣接するブロックの量子化パラメータの平均値をブロック境界の両側のフィルタ処理に用いることができる。
The present invention also relates to a coding distortion removing method for removing coding distortion in an area sandwiching a boundary line between a first block and a second block adjacent to each other in a picture having a plurality of blocks constituting a moving image. The difference value between the pixel value in the pixel of the first block and the pixel value in the pixel of the second block, the quantization parameter in the first block, and the quantization parameter in the second block And a parameter for determining a method for removing the coding distortion corresponding to the average value. And a removing step for removing the coding distortion based on the result of the comparison in the comparison step.
Thereby, in the encoding distortion removal process in the block boundary from which a quantization parameter differs, the average value of the quantization parameter of an adjacent block can be used for the filter process of the both sides of a block boundary.

また本発明は、動画像を構成する、複数のブロックを有するピクチャにおいて、隣接する第一のブロックと第二のブロックとの境界線を挟んだ領域において符号化歪を除去する符号化歪除去方法であって、符号化歪を除去するときに閾値を決定するためのパラメータを復号する復号化ステップと、前記第一のブロックの画素における画素値と前記第二のブロックの画素における画素値との差分値と、前記復号されたパラメータに基づいた所定の閾値と、を比較する比較ステップと前記比較ステップにおける比較の結果に基づいて符号化歪の除去方法を切り換える除去ステップとを有する。   The present invention also relates to a coding distortion removing method for removing coding distortion in an area sandwiching a boundary line between a first block and a second block adjacent to each other in a picture having a plurality of blocks constituting a moving image. A decoding step of decoding a parameter for determining a threshold when removing coding distortion, and a pixel value in a pixel of the first block and a pixel value in a pixel of the second block A comparison step of comparing the difference value with a predetermined threshold value based on the decoded parameter, and a removal step of switching a coding distortion removal method based on a comparison result in the comparison step.

これにより、符号化歪除去を行う際に使用する閾値パラメータを予め個々の符号化信号に重畳しておき、符号化歪除去の際に各符号化信号に適切な閾値パラメータを利用した符号化歪除去を行うことで、符号化歪を含む画像信号から効率よく符号化歪を除去できる。閾値パラメータは画像信号に合った適切な符号化歪除去方法を示すものであり、個々の画素もしくは個々のブロック毎に符号化歪除去方法を明示的に切替るものでは無く、従って閾値パラメータを符号化信号に重畳するために必要なデータ量はわずかである。
また、前記動画像は複数のブロックから構成されるスライスを有し、前記パラメータは、前記動画像に対応する画像データを符号化して得られる符号列におけるスライスのヘッダ情報に含まれる。
As a result, a threshold parameter used when performing coding distortion removal is preliminarily superimposed on each coded signal, and coding distortion using an appropriate threshold parameter for each coded signal when coding distortion is removed. By performing the removal, the coding distortion can be efficiently removed from the image signal including the coding distortion. The threshold parameter indicates an appropriate coding distortion removal method suitable for the image signal, and does not explicitly switch the coding distortion removal method for each pixel or individual block. The amount of data required to be superimposed on the digitized signal is small.
The moving image has a slice composed of a plurality of blocks, and the parameter is included in header information of a slice in a code string obtained by encoding image data corresponding to the moving image.

また本発明は、複数の参照画像から少なくとも1つを参照して符号化する動画像符号化装置であって、複数の方法で符号化歪を除去して得られた複数の符号化画像を参照画像とする。
これにより、少なくとも2通りで符号化歪除去を行った複数の画面を参照画面とし、参照する際は適切な一方を逐次選択することで、符号化歪を含む画像信号から効率よく符号化歪を除去できたものを参照画像とすることができ、動画像符号化の圧縮率が向上する。
また、前記複数の方法のうち、第1の方法は前記符号化画像に対して符号化歪を除去しない方法であり、第2の方法は前記符号化画像に対して符号化歪を除去する方法である。
The present invention is also a moving image encoding apparatus that performs encoding by referring to at least one of a plurality of reference images, and refers to a plurality of encoded images obtained by removing encoding distortion by a plurality of methods. An image.
As a result, a plurality of screens from which coding distortion has been removed in at least two ways are used as reference screens, and when referring to one of them, an appropriate one is sequentially selected to efficiently encode coding distortion from an image signal including the coding distortion. The removed image can be used as a reference image, and the compression rate of moving image coding is improved.
Of the plurality of methods, the first method is a method that does not remove coding distortion from the coded image, and the second method is a method that removes coding distortion from the coded image. It is.

また本発明は、複数の参照画像から少なくとも1つを参照して復号化する動画像復号化装置であって、複数の方法で符号化歪を除去して得られた複数の復号化画像を参照画像とする。
これにより、少なくとも2通りで符号化歪除去を行った複数の画面を参照画面とし、参照する際は適切な一方を逐次選択することで、符号化歪を含む画像信号から効率よく符号化歪を除去できたものを参照画像とすることができ、符号化信号を正しく復号化できる。
また、前記複数の方法のうち第1の方法は前記復号化画像に対して符号化歪を除去しない方法であり、第2の方法は前記復号化画像に対して符号化歪を除去する方法である。
The present invention is also a video decoding device that performs decoding by referring to at least one of a plurality of reference images, and refers to a plurality of decoded images obtained by removing coding distortion by a plurality of methods. An image.
As a result, a plurality of screens from which coding distortion has been removed in at least two ways are used as reference screens, and when referring to one of them, an appropriate one is sequentially selected to efficiently encode coding distortion from an image signal including the coding distortion. What has been removed can be used as a reference image, and the encoded signal can be correctly decoded.
The first method of the plurality of methods is a method that does not remove coding distortion from the decoded image, and the second method is a method that removes coding distortion from the decoded image. is there.

また本発明は、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像の符号化歪を除去する符号化歪除去方法であって、所定数の前記奇数ラインの画素と所定数の前記偶数ラインの画素とを有するフレーム構造のブロックを有するピクチャか、所定数の前記奇数ラインの画素から構成される一方のフィールド構造のブロックを有するピクチャ若しくは所定数の前記偶数ラインの画素から構成される他方のフィールド構造のブロックを有するピクチャかを判断する判断ステップと、符号化歪を除去する対象のブロックが、全て前記フレーム構造のブロックを有するピクチャのブロックであるとき、隣接する前記フレーム構造のブロック間で符号化歪を除去し、符号化歪を除去する対象のブロックが、全て前記フィールド構造のブロックを有するピクチャのブロックであるとき、隣接する前記フィールド構造のブロック間で符号化歪を除去する除去ステップとを有する。   The present invention is also a coding distortion removal method for removing coding distortion of an interlaced image composed of pixels of odd lines and pixels of even lines, wherein a predetermined number of pixels of the odd lines and a predetermined number of pixels are used. A picture having a frame structure block having pixels of the even lines, a picture having a block of one field structure composed of a predetermined number of pixels of the odd lines, or a predetermined number of pixels of the even lines. A determination step for determining whether the picture has a block of the other field structure, and when the block whose coding distortion is to be removed is a block of a picture having all the blocks of the frame structure, The coding distortion is removed between the blocks, and all the blocks for which the coding distortion is removed are the field structure. When a block of a picture having a block, and a removal step of removing coding distortion between blocks of the field structure adjacent.

これにより、フレーム構造のブロックを有するピクチャかフィールド構造のブロックを有するピクチャかによって、符号化歪を除去する対象ブロックの処理を切り換えることができる。
また、さらに、符号化歪を除去する対象のブロックが、前記フレーム構造のブロックと前記フィールド構造のブロックとを有するピクチャのブロックであるとき、前記フィールド構造であるブロックを前記フレーム構造のブロックに変換する変換ステップと、前記フィールド構造であるブロックの画素における画素値と変換されたブロックの画素における画素値との差分値と、所定の閾値とを比較する比較ステップと、前記比較ステップにおける比較の結果に基づいて符号化歪を除去する除去ステップとを有する。
Accordingly, the processing of the target block from which the coding distortion is removed can be switched depending on whether the picture has a frame structure block or the field structure block.
Further, when the block whose coding distortion is to be removed is a picture block having the frame structure block and the field structure block, the field structure block is converted into the frame structure block. A conversion step, a comparison step for comparing a difference value between a pixel value in the pixel of the block having the field structure and a pixel value in the pixel of the converted block with a predetermined threshold, and a result of the comparison in the comparison step And a removing step for removing the coding distortion based on.

また本発明は、動画像を構成する、複数のブロックを有するピクチャにおいて、隣接する第一のブロックと第二のブロックとの境界線を挟んだ領域において符号化歪を除去する符号化歪除去方法であって、前記第一のブロックは、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における、所定数の前記奇数ラインの画素と所定数の前記偶数ラインの画素とを有するフレーム構造のブロックであり、前記第二のブロックは、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における所定数の前記奇数ラインの画素から構成される一方のフィールドと、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における所定数の前記偶数ラインの画素から構成される他方のフィールドと、を有するフィールド構造のブロックであり、前記フレーム構造である前記第一のブロックを前記フィールド構造のブロックに変換する変換ステップと、前記フィールド構造である前記第二のブロックの画素における画素値と変換されたブロックの画素における画素値との差分値と、所定の閾値とを比較する比較ステップと、前記比較ステップにおける比較の結果に基づいて符号化歪を除去する除去ステップとを有する。
これにより、 フレーム構造のブロックとフィールド構造のブロックが隣接するときに、適応的に符号化歪を除去する対象ブロックの処理を行うことができる。
The present invention also relates to a coding distortion removing method for removing coding distortion in an area sandwiching a boundary line between a first block and a second block adjacent to each other in a picture having a plurality of blocks constituting a moving image. The first block includes a predetermined number of pixels of the odd lines and a predetermined number of pixels of the even lines in an interlaced image including pixels of odd lines and pixels of even lines. A block having a frame structure, wherein the second block includes one field composed of a predetermined number of pixels of the odd lines in an interlaced image composed of pixels of odd lines and pixels of even lines; The other field composed of a predetermined number of pixels of the even line in an interlaced image composed of pixels of the line and pixels of the even line A conversion step of converting the first block having the frame structure into the block having the field structure, and a pixel value in the pixel of the second block having the field structure. And a comparison step for comparing the difference value between the pixel value in the pixel of the converted block and a predetermined threshold value, and a removal step for removing the coding distortion based on the comparison result in the comparison step.
As a result, when a block having a frame structure and a block having a field structure are adjacent to each other, it is possible to perform processing on a target block for adaptively removing coding distortion.

また、前記フレーム構造である前記第一のブロックから前記フィールド構造のブロックへの変換は、マクロブロック単位または上下に隣接する2つのマクロブロックをまとめた単位で切り換える。
また、前記フィールド構造である第二のブロックは、前記フレーム構造のブロックに変換しない。
Also, the conversion from the first block having the frame structure to the block having the field structure is switched in units of macro blocks or in units of two adjacent macro blocks in the vertical direction.
Also, the second block having the field structure is not converted into the block having the frame structure.

また本発明は、動画像を構成する、複数のブロックを有するピクチャにおいて、隣接する第一のブロックと第二のブロックとの境界線を挟んだ領域において符号化歪を除去する符号化歪除去方法であって、前記第一のブロックは、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における、所定数の前記奇数ラインの画素と所定数の前記偶数ラインの画素とを有するフレーム構造のブロックであり、前記第二のブロックは、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における所定数の前記奇数ラインの画素から構成される一方のフィールドと、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における所定数の前記偶数ラインの画素から構成される他方のフィールドと、を有するフィールド構造のブロックであり、符号化歪を除去する対象ブロックが、前記フレーム構造のブロックか前記フィールド構造のブロックかを判断する判断ステップと、前記対象ブロックがフィールド構造である前記第2のブロックであるとき、前記フレーム構造である前記第1のブロックを前記フィールド構造のブロックに変換し、前記対象ブロックがフレーム構造である前記第1のブロックであるとき、前記フィールド構造である前記第2のブロックを前記フレーム構造のブロックに変換する変換ステップと、前記対象ブロックの画素における画素値と、所定の閾値とを比較する比較ステップと、前記比較ステップにおける比較の結果に基づいて符号化歪を除去する除去ステップとを有する。
これにより、 フレーム構造のブロックとフィールド構造のブロックが隣接するときに、適応的に符号化歪を除去する対象ブロックの処理を行うことができる。
The present invention also relates to a coding distortion removing method for removing coding distortion in an area sandwiching a boundary line between a first block and a second block adjacent to each other in a picture having a plurality of blocks constituting a moving image. The first block includes a predetermined number of pixels of the odd lines and a predetermined number of pixels of the even lines in an interlaced image including pixels of odd lines and pixels of even lines. A block having a frame structure, wherein the second block includes one field composed of a predetermined number of pixels of the odd lines in an interlaced image composed of pixels of odd lines and pixels of even lines; The other field composed of a predetermined number of pixels of the even line in the interlaced image composed of pixels of the line and pixels of the even line. A determination step of determining whether a target block from which coding distortion is to be removed is the frame structure block or the field structure block, and the target block has a field structure When it is a second block, the first block having the frame structure is converted into a block having the field structure, and when the target block is the first block having a frame structure, the field structure is obtained. A conversion step for converting the second block into a block having the frame structure, a comparison step for comparing a pixel value in a pixel of the target block with a predetermined threshold, and a code based on a result of the comparison in the comparison step And a removing step for removing the distortion.
As a result, when a block having a frame structure and a block having a field structure are adjacent to each other, it is possible to perform processing on a target block that adaptively removes coding distortion.

また、前記変換ステップにおける前記フレーム構造のブロックから前記フィールド構造のブロックへの変換では、前記フレーム構造のブロックにおける奇数ラインの画素から変換後の一方のフィールドを生成し、前記フレーム構造のブロックにおける偶数ラインの画素から変換後の他方のフィールドを生成し、前記比較ステップにおける前記差分値と前記閾値との比較は、前記第二のブロックの一方のフィールドの画素における画素値と前記第一のブロックの前記変換後の一方のフィールドの画素における画素値とを比較、あるいは、前記第二のブロックの他方のフィールドの画素における画素値と前記第一のブロックの前記変換後の他方のフィールドの画素における画素値とを比較する。   Further, in the conversion from the frame structure block to the field structure block in the conversion step, one field after conversion is generated from the odd line pixels in the frame structure block, and the even number in the frame structure block is generated. The other field after conversion is generated from the pixels of the line, and the comparison between the difference value and the threshold value in the comparison step is performed by comparing the pixel value of the pixel in one field of the second block with the value of the first block. The pixel value in the pixel of one field after the conversion is compared, or the pixel value in the pixel of the other field of the second block and the pixel in the pixel of the other field after the conversion of the first block Compare the value.

また本発明は、動画像を構成する、複数のブロックを有するピクチャにおいて、隣接する第一のブロックと第二のブロックとの境界線を挟んだ領域において符号化歪を除去する符号化歪除去方法であって、前記第一のブロックは、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における、所定数の前記奇数ラインの画素と所定数の前記偶数ラインの画素とを有するフレーム構造のブロックであり、前記第二のブロックは、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における所定数の前記奇数ラインの画素から構成される一方のフィールドと、奇数ラインの画素と偶数ラインの画素とから構成されるインタレース画像における所定数の前記偶数ラインの画素から構成される他方のフィールドと、を有するフィールド構造のブロックであり、前記フィールド構造である前記第二のブロックを前記フレーム構造のブロックに変換する変換ステップと、前記フレーム構造である前記第一のブロックの画素における画素値と変換されたブロックの画素における画素値との差分値と、所定の閾値とを比較する比較ステップと、前記比較ステップにおける比較の結果に基づいて符号化歪を除去する除去ステップとを有する。
これにより、 フレーム構造のブロックとフィールド構造のブロックが隣接するときに、適応的に符号化歪を除去する対象ブロックの処理を行うことができる。
The present invention also relates to a coding distortion removing method for removing coding distortion in an area sandwiching a boundary line between a first block and a second block adjacent to each other in a picture having a plurality of blocks constituting a moving image. The first block includes a predetermined number of pixels of the odd lines and a predetermined number of pixels of the even lines in an interlaced image including pixels of odd lines and pixels of even lines. A block having a frame structure, wherein the second block includes one field composed of a predetermined number of pixels of the odd lines in an interlaced image composed of pixels of odd lines and pixels of even lines; The other field composed of a predetermined number of pixels of the even line in the interlaced image composed of pixels of the line and pixels of the even line. A conversion step of converting the second block having the field structure into a block having the frame structure, and a pixel value in the pixel of the first block having the frame structure. And a comparison step for comparing the difference value between the pixel value in the pixel of the converted block and a predetermined threshold value, and a removal step for removing the coding distortion based on the comparison result in the comparison step.
As a result, when a block having a frame structure and a block having a field structure are adjacent to each other, it is possible to perform processing on a target block that adaptively removes coding distortion.

また、前記フィールド構造である前記第二のブロックから前記フレーム構造のブロックへの変換は、マクロブロック単位または上下に隣接する2つのマクロブロックをまとめた単位で切り換える。
また、前記フィールド構造である第二のブロックは、前記フレーム構造のブロックに変換しない。
また、前記変換ステップにおける前記フィールド構造のブロックから前記フレーム構造のブロックへの変換では、前記一方のフィールドのブロックの画素と前記他方のフィールドのブロックの画素とから変換後のフレームを生成し、前記第一のブロックの奇数ラインの画素における画素と前記第二のブロックの前記変換後の奇数ラインの画素における画素値とを比較、あるいは前記第一のブロックの偶数ラインの画素における画素と前記第二のブロックの前記変換後の偶数ラインの画素における画素値とを比較する。
また、前記比較ステップにおいて、前記境界線に対して対象の位置にある、前記境界線と同方向に一列に並んだ複数の画素毎に、前記差分値と前記閾値との比較をする。
これにより、複数画素をまとめて符号化歪の除去をすることができる。
In addition, the conversion from the second block having the field structure to the block having the frame structure is performed in units of macroblocks or in units of two macroblocks adjacent in the vertical direction.
Also, the second block having the field structure is not converted into the block having the frame structure.
Further, in the conversion from the field structure block to the frame structure block in the conversion step, a converted frame is generated from the pixel of the one field block and the pixel of the other field block, and Compare the pixels in the odd-numbered pixels of the first block with the pixel values in the converted odd-numbered pixels of the second block, or compare the pixels in the even-numbered pixels of the first block with the second Are compared with the pixel values in the pixels of the even lines after the conversion in the block.
Further, in the comparison step, the difference value and the threshold value are compared for each of a plurality of pixels arranged in a line in the same direction as the boundary line at a target position with respect to the boundary line.
Thereby, a plurality of pixels can be collectively removed to remove coding distortion.

また本発明は、符号化差分画像を復号化し、差分画像を出力する復号化部と、参照画像から動き補償画像を出力する動き補償部と、前記差分画像と前記動き補償画像とを加算し合成画像を出力する加算部と、前記合成画像が有する符号化歪を除去し再生画像を出力する符号化歪除去部と、前記再生画像を前記参照画像として記憶する記憶部とを有する画像符号化装置であって、前記符号化歪除去部において、上記符号化歪除去方法のいずれかの方法によって符号化歪を除去する。   The present invention also includes a decoding unit that decodes an encoded difference image and outputs a difference image, a motion compensation unit that outputs a motion compensated image from a reference image, and adds and combines the difference image and the motion compensated image. An image coding apparatus comprising: an adding unit that outputs an image; an encoding distortion removing unit that removes coding distortion of the synthesized image and outputting a reproduced image; and a storage unit that stores the reproduced image as the reference image In the encoding distortion removing unit, the encoding distortion is removed by any one of the encoding distortion removing methods.

また本発明は、画像から符号化歪を除去するためのプログラムであって、上記符号化歪除去方法のいずれかの方法によって符号化歪を除去する。   The present invention is also a program for removing coding distortion from an image, and removes coding distortion by any one of the coding distortion removing methods.

また本発明は、符号化差分画像を復号化し、差分画像を出力する復号化部と、参照画像から動き補償画像を出力する動き補償部と、前記差分画像と前記動き補償画像とを加算し合成画像を出力する加算部と、前記合成画像が有する符号化歪を除去し再生画像を出力する符号化歪除去部と、前記再生画像を前記参照画像として記憶する記憶部とを用いた画像符号化のためのプログラムであって、前記符号化歪除去部において、上記符号化歪除去方法のいずれかの方法によって符号化歪を除去することをコンピュータに実行させる。   The present invention also includes a decoding unit that decodes an encoded difference image and outputs a difference image, a motion compensation unit that outputs a motion compensated image from a reference image, and adds and combines the difference image and the motion compensated image. Image coding using an adding unit that outputs an image, an encoding distortion removing unit that removes coding distortion of the composite image and outputs a reproduced image, and a storage unit that stores the reproduced image as the reference image The coding distortion removing unit causes the computer to remove coding distortion by any one of the coding distortion removing methods.

以上の様に、本発明にかかる符号化歪除去方法は、処理が簡単な符号化歪除去方法、符号化歪除去を行うことで画像信号の画質を損なう可能性が少ない符号化歪除去方法、符号化歪除去を行うことで画像信号の画質を損なう可能性を低減可能な符号化方法および復号化方法を提供することができ、その実用的価値は高い。   As described above, the coding distortion removal method according to the present invention includes a coding distortion removal method that is easy to process, a coding distortion removal method that is less likely to impair the image quality of an image signal by performing coding distortion removal, It is possible to provide an encoding method and a decoding method capable of reducing the possibility of impairing the image quality of the image signal by removing the encoding distortion, and its practical value is high.

以下、本発明の実施の形態について、説明する。
(実施の形態1)
図1の復号化方法を用いた画像復号化装置のブロック図において、可変長復号化部52は符号化信号Strを可変長復号化し、周波数符号成分DCoefを出力する。逆ジグザグスキャン部54は周波数符号成分DCoefの周波数成分を2次元のブロックに並べ替えて、ブロック単位の周波数成分である周波数成分FCoefを出力する。逆コサイン変換部56は周波数成分FCoefを逆量子化および逆DCTを行い、差分画像DifCoefとして出力する。
Hereinafter, embodiments of the present invention will be described.
(Embodiment 1)
In the block diagram of the image decoding apparatus using the decoding method of FIG. 1, a variable length decoding unit 52 performs variable length decoding on the encoded signal Str and outputs a frequency code component DCoef. The inverse zigzag scanning unit 54 rearranges the frequency components of the frequency code component DCoef into a two-dimensional block, and outputs a frequency component FCoef that is a frequency component in units of blocks. The inverse cosine transform unit 56 performs inverse quantization and inverse DCT on the frequency component FCoe and outputs it as a difference image DifCoef.

一方、動き補償部60は、外部から入力される動きベクトルMVによって示される位置の画素をメモリ64に蓄積された参照画像Refから動き補償画像MCpelとして出力すると共に、動き補償ブロックの大きさを示す動き補償ブロックサイズMcsizeを出力する。加算部58は、差分画像DifCoefと動き補償画像MCpelを加算し、再生画像Coefとして出力する。デブロックフィルタ62は再生画像Coef、動き補償ブロックサイズMCsize、差分画像DifCoefを受け、符号化歪除去を行い、復号画像信号Voutを出力する。再生画像Coefはメモリ64に格納されて、後続の画像復号化で参照画像Refとして使用される。   On the other hand, the motion compensation unit 60 outputs the pixel at the position indicated by the motion vector MV input from the outside as the motion compensation image MCpel from the reference image Ref stored in the memory 64, and indicates the size of the motion compensation block. The motion compensation block size Mcsize is output. The adder 58 adds the difference image DifCoef and the motion compensated image MCpel and outputs the result as a reproduced image Coef. The deblocking filter 62 receives the reproduced image Coef, the motion compensation block size MCsize, and the difference image DifCoef, performs coding distortion removal, and outputs a decoded image signal Vout. The reproduced image Coef is stored in the memory 64 and used as a reference image Ref in subsequent image decoding.

図2は本発明の符号化歪除去方法を用いたデブロックフィルタ(符号化歪除去部とも言う)62のブロック図である。このデブロックフィルタ62はITU−T H.26LのTML 8に記載されているデブロックフィルタの内容を参照して本願発明者が発明したものである。
フィルタ対象画素数決定部4は入力される再生画像Coef毎に、符号化歪を含む画素位置を決定し、フィルタ対象画素数FtrPelとして出力する。すなわち、フィルタ対象画素数FtrPelはフィルタ処理をすべきと判断した画素位置を示す。フィルタ係数決定部6はフィルタ対象画素数FtrPelと再生画像Coefの画素値を用いて、当該画素の符号化歪除去に適切なフィルタの係数(フィルタのタップ数も含む)を決定し、フィルタ係数FtrTapとして出力する。フィルタ処理部8は、フィルタ係数FtrTapで示すフィルタの係数で再生画像Coefに符号化歪を除去するフィルタ処理を行い、復号画像信号Voutを出力する。
FIG. 2 is a block diagram of a deblocking filter (also referred to as a coding distortion removing unit) 62 using the coding distortion removing method of the present invention. This deblocking filter 62 is ITU-T H.264. This inventor was invented by referring to the contents of the deblocking filter described in TML 8 of 26L.
The filter target pixel number determination unit 4 determines a pixel position including encoding distortion for each input reproduced image Coef, and outputs the determined pixel position as the filter target pixel number FtrPel. That is, the number of filter target pixels FtrPel indicates the pixel position at which it is determined that the filter process should be performed. The filter coefficient determination unit 6 uses the filter target pixel count FtrPel and the pixel value of the reproduced image Coef to determine a filter coefficient (including the number of filter taps) appropriate for removing the coding distortion of the pixel, and the filter coefficient FtrTap Output as. The filter processing unit 8 performs a filter process for removing the coding distortion on the reproduced image Coef using a filter coefficient indicated by a filter coefficient FtrTap, and outputs a decoded image signal Vout.

動き補償ブロック境界判定部2は差分画像DifCoefと動き補償ブロックサイズMCsizeを入力とし、当該処理対象ブロックの差分画像DifCoefが所定値以下であるか、例えば0であるかどうかを判定すると共に、動き補償ブロックの境界であるかどうかを判定し、動き補償ブロック境界フラグIsEdgeを出力する。   The motion compensation block boundary determination unit 2 receives the difference image DifCoef and the motion compensation block size MCsize, determines whether the difference image DifCoef of the processing target block is equal to or smaller than a predetermined value, for example, 0, and motion compensation It is determined whether it is a block boundary, and a motion compensation block boundary flag IsEdge is output.

図3はITU−T H.26L TML8に採用されている動き補償ブロックサイズの例を示す。同例では、動き補償ブロックサイズの最大値が16×16画素であり、マクロブロックと呼ばれるサイズと一致する。図3の(a)〜(g)はそれぞれ動き補償ブロックサイズが4×4、4×8、8×4、8×8、8×16、16×8、16×16に対応する。ITU−T H.26L TML8ではこの7通りの動き補償ブロックサイズからマクロブロック単位で適切なものを選択して符号化・復号化に使用する。なお、上下に隣接する2つのマクロブロックをまとめた単位で適切なものを選択して符号化・復号化することができ、このマクロブロックをまとめた単位をマクロブロックペアという。   FIG. 3 shows ITU-T H.264. The example of the motion compensation block size employ | adopted as 26L TML8 is shown. In this example, the maximum value of the motion compensation block size is 16 × 16 pixels, which matches a size called a macroblock. 3A to 3G correspond to motion compensation block sizes of 4 × 4, 4 × 8, 8 × 4, 8 × 8, 8 × 16, 16 × 8, and 16 × 16, respectively. ITU-TH. In 26L TML8, an appropriate one is selected for each macroblock from the seven motion compensation block sizes and used for encoding / decoding. It should be noted that an appropriate unit can be selected and encoded / decoded in a unit of two vertically adjacent macroblocks, and a unit of the macroblocks is called a macroblock pair.

一方、ITU−T H.26L TML8では、周波数変換および符号化の単位は4×4画素である。この4×4画素の単位を符号化単位という。符号化単位は、4×4画素以外のサイズであってもよい。図3(a)に示すようにA〜Pの16ブロックのそれぞれは、4×4画素で構成されている。このように、符号化の単位である4×4画素と動き補償ブロックサイズは図3(a)以外の場合は一致しない。符号化歪として特に視覚的に妨害となるブロック歪は符号化単位である最小4×4画素で発生するため、従来の符号化歪除去方法では常に4×4画素単位で処理を行っている。   On the other hand, ITU-T H.I. In 26L TML8, the unit of frequency conversion and encoding is 4 × 4 pixels. This unit of 4 × 4 pixels is called an encoding unit. The encoding unit may be a size other than 4 × 4 pixels. As shown in FIG. 3A, each of the 16 blocks A to P is composed of 4 × 4 pixels. As described above, the 4 × 4 pixels as the encoding unit and the motion compensation block size do not match in cases other than those shown in FIG. Since block distortion, which is visually disturbing as coding distortion, occurs at a minimum of 4 × 4 pixels, which is a coding unit, the conventional coding distortion removal method always performs processing in units of 4 × 4 pixels.

さて、動き補償符号化することで、画面間の相関が特に強い場合は、画面間の動き補償の残差誤差が0となる。この場合には、4×4画素単位で符号化・復号化すべき差分画像DifCoefも0であるから、動き補償のブロックの境界部以外には符号化・復号化の符号化歪に伴う画素値の不連続な値は発生しないと考えられる。そこで、例えば図3(b)のような動き補償ブロックの場合は、図3(a)のAC、BD、EG、FH、IK、JL、MO、NPの4×4画素境界(点線で示す境界線)で符号化歪除去処理は不要である。同様に、図3(c)のような動き補償ブロックの場合は、図3(a)のAB、CD、EF、GH、IJ、KL、MN、OPの4×4画素境界で符号化歪除去処理は不要である。そして、4×4画素単位で符号化・復号化すべき差分画像DifCoefも0の場合は、動き補償ブロックの境界のみで符号化歪除去処理を行い、動き補償ブロック内の4×4画素単位での境界においては符号化歪除去処理を行わない。これにより、全てのブロック境界で符号化歪除去処理を行う場合と比較し、符号化歪除去処理の演算回数を削減することができる。   By performing motion compensation encoding, when the correlation between screens is particularly strong, the residual error of motion compensation between screens becomes zero. In this case, since the difference image DifCoef to be encoded / decoded in units of 4 × 4 pixels is also 0, the pixel value associated with the encoding / decoding encoding distortion other than the boundary portion of the motion compensation block. Discontinuous values are not expected to occur. Therefore, for example, in the case of a motion compensation block as shown in FIG. 3B, a 4 × 4 pixel boundary (boundary boundary indicated by a dotted line) of AC, BD, EG, FH, IK, JL, MO, and NP in FIG. Line) does not require encoding distortion removal processing. Similarly, in the case of the motion compensation block as shown in FIG. 3C, the coding distortion is removed at the 4 × 4 pixel boundary of AB, CD, EF, GH, IJ, KL, MN, and OP in FIG. No processing is necessary. If the differential image DifCoef to be encoded / decoded in units of 4 × 4 pixels is also 0, encoding distortion removal processing is performed only on the boundary of the motion compensation block, and the unit of 4 × 4 pixels in the motion compensation block is used. Encoding distortion removal processing is not performed at the boundary. Thereby, compared with the case where the encoding distortion removal process is performed on all the block boundaries, the number of operations of the encoding distortion removal process can be reduced.

従って、動き補償ブロック境界判定部2は、当該処理対象ブロックの差分画像DifCoefが0であり且つ動き補償ブロックの境界でない場合は選択部10a、10bをOFF(実線で示す)とし、選択部10bから再生画像Coefを復号画像信号Voutとして出力する。この選択部の切り替えは、動き補償ブロック境界フラグIsEdgeで選択する。これによりフィルタ対象画素数決定部4、フィルタ係数決定部6、フィルタ処理部8の処理を省略することができる。なお、上記以外の場合は、選択部10a、10bをON(点線で示す)とし、選択部10bからフィルタ処理部8の出力を復号画像信号Voutとして出力する。この選択部の切り替えは動き補償ブロック境界フラグIsEdgeで選択する。   Therefore, the motion compensation block boundary determination unit 2 turns off the selection units 10a and 10b (indicated by solid lines) when the difference image DifCoef of the processing target block is 0 and is not a boundary of the motion compensation block, and the selection unit 10b The reproduced image Coef is output as a decoded image signal Vout. The selection unit is switched by the motion compensation block boundary flag IsEdge. Thereby, the process of the filter object pixel number determination part 4, the filter coefficient determination part 6, and the filter process part 8 can be abbreviate | omitted. In other cases, the selection units 10a and 10b are turned ON (indicated by dotted lines), and the output of the filter processing unit 8 is output from the selection unit 10b as a decoded image signal Vout. The selection unit is switched by the motion compensation block boundary flag IsEdge.

以上のように、本実施の形態によれば、動き補償ブロック境界フラグIsEdgeでフィルタ対象画素数決定部4、フィルタ係数決定部6、フィルタ処理部8の処理を省略する仕組みを導入することで、処理削減による高速化および処理に必要な電力削減効果が得られる。
なお、本実施の形態では、単純に符号化歪除去処理を行わない例を示したが、符号化歪除去処理を行わない代わりに簡単な処理の符号化歪除去処理を使用し、複雑な処理が必要な符号化歪除去処理と4×4画素単位で切り替えてもよい。
As described above, according to the present embodiment, by introducing a mechanism that omits the processing of the filter target pixel number determination unit 4, the filter coefficient determination unit 6, and the filter processing unit 8 with the motion compensation block boundary flag IsEdge. It is possible to increase the speed by reducing the processing and to reduce the power required for the processing.
In this embodiment, an example in which encoding distortion removal processing is simply not performed has been shown, but instead of not performing encoding distortion removal processing, simple processing encoding distortion removal processing is used, and complicated processing is performed. May be switched to encoding distortion removal processing requiring 4 × 4 pixels.

(実施の形態2)
本実施の形態では、符号化歪除去方法を簡単に実現する具体的な処理手順を説明する。まず、図4は符号化歪除去方法を示すフローチャートである。
ステップS18で対象ブロックが符号化歪除去対象ブロックか否かを判定する。符号化歪除去対象ブロックであればステップS19に進み、対象ブロックで無ければステップS24に進む。
ステップS19では適切な符号化歪除去フィルタ選択し、ステップS20では選択したフィルタで符号化歪除去処理を行って、ステップS21で対象画素を当該ブロックの未処理画素に変更する。ステップS22で当該ブロックに未処理画素が存在しない場合は、ステップS24に進み、未処理画素が存在すればステップ19以降を繰り返す。
(Embodiment 2)
In the present embodiment, a specific processing procedure for easily realizing the coding distortion removal method will be described. First, FIG. 4 is a flowchart showing a coding distortion removal method.
In step S18, it is determined whether or not the target block is a coding distortion removal target block. If it is an encoding distortion removal target block, the process proceeds to step S19, and if it is not a target block, the process proceeds to step S24.
In step S19, an appropriate coding distortion removal filter is selected, and in step S20, coding distortion removal processing is performed with the selected filter. In step S21, the target pixel is changed to an unprocessed pixel of the block. If no unprocessed pixel exists in the block in step S22, the process proceeds to step S24. If there is an unprocessed pixel, step 19 and subsequent steps are repeated.

ステップS24では当該画面に未処理ブロックが存在するか否かを判定する。未処理ブロックがあればステップS23に進み、当該画面に未処理ブロックが無ければ当該画面の符号化歪除去処理を終了する。
ステップS23では対象ブロックを未処理ブロックに変更して、ステップS18以下の処理を繰り返す。
In step S24, it is determined whether or not there is an unprocessed block on the screen. If there is an unprocessed block, the process proceeds to step S23, and if there is no unprocessed block on the screen, the coding distortion removal process on the screen is terminated.
In step S23, the target block is changed to an unprocessed block, and the process from step S18 is repeated.

図6は本発明の符号化歪除去方法におけるフィルタ対象画素数決定のフローチャートであり、図2に示すフィルタ対象画素数決定部4の動作の一例である。また図6は動き補償ブロックが図8(a)に示す場合を示す。また、符号化歪除去対象画素値を、図8(b)に示すように、
p3、p2、p1、p0、q0、q1、q2、q3
とし、符号化歪除去済画素値を
P3、P2、P1、P0、Q0、Q1、Q2、Q3
とする。ここで、各画素値は画素の位置の並びの順番に記号を付したものであり、p0〜p3とP0〜P3は同じブロックの対応する画素、q0〜q3とQ0〜Q3は同じブロックの対応する画素を示す。
FIG. 6 is a flowchart of determining the number of filter target pixels in the coding distortion removal method of the present invention, and is an example of the operation of the filter target pixel number determination unit 4 shown in FIG. FIG. 6 shows a case where the motion compensation block is shown in FIG. In addition, as shown in FIG.
p3, p2, p1, p0, q0, q1, q2, q3
And the encoded distortion-removed pixel values are P3, P2, P1, P0, Q0, Q1, Q2, Q3
And Here, each pixel value is obtained by adding a symbol to the order of arrangement of pixel positions, p0 to p3 and P0 to P3 are corresponding pixels in the same block, and q0 to q3 and Q0 to Q3 are correspondences of the same block. The pixel to perform is shown.

量子化パラメータQPが大きいほど量子化ステップが粗く符号化歪の大きさも大きくなる。そこで、量子化パラメータQPの大きさによってフィルタを切り替えることが有効である。図5に量子化パラメータQPと符号化歪除去の各パラメータ対応表を示す。また、フィルタの対象画素数を決定するパラメータnを決定するための、パラメータ符号化歪除去処理のパラメータπ、Ω、nの対応表を以下の表1に示す。なお、πは、例えば、画素値の差が大きい場合はエッジであるためフィルタをかけてはいけないので、差がπ未満の画素の間にはフィルタをかけないようにπを決めるとよい。また、Ωは、例えば、画素値の差が小さい場合はその差が非常に小さい(Ω未満)かやや小さい(2×Ω未満)かによって差が小さいほどエッジでは無く符号化誤差の影響が強いと考えられるので強力なフィルタ(nが大きい)をかけるようにΩを決めるとよい。   The larger the quantization parameter QP, the coarser the quantization step and the larger the coding distortion. Therefore, it is effective to switch the filter depending on the magnitude of the quantization parameter QP. FIG. 5 shows a parameter correspondence table for quantization parameter QP and coding distortion removal. Table 1 below shows a correspondence table of parameters π, Ω, and n for parameter coding distortion removal processing for determining a parameter n that determines the number of target pixels of the filter. Note that π is, for example, an edge when the difference between pixel values is large, so that it is not filtered. Therefore, π should be determined so that filtering is not performed between pixels having a difference of less than π. In addition, for example, when the difference in pixel values is small, Ω is more influenced by coding errors rather than edges as the difference is smaller depending on whether the difference is very small (less than Ω) or slightly smaller (less than 2 × Ω). Therefore, Ω should be determined so as to apply a powerful filter (n is large).

表1

Figure 2007143178
Table 1
Figure 2007143178

ここで、
dif1 = p0 q0
dif2 = p1 q1
dif1a = |dif1|
dif2a = |dif2|とする。即ち、図6の本発明の符号化歪除去方法におけるフィルタ対象画素数決定のフローチャートは、表1をもとにまとめたものである。
here,
dif1 = p0 q0
dif2 = p1 q1
dif1a = | dif1 |
Let dif2a = | dif2 |. That is, the flowchart of determining the number of filter target pixels in the coding distortion removal method of the present invention in FIG. 6 is summarized based on Table 1.

ステップS27は符号化歪除去処理で繰り返し計算されるパラメータである画素差分値DifPelを計算する。画素差分値DifPelはステップS27で計算されたdif1aとdif2aのことである。   In step S27, a pixel difference value DifPel, which is a parameter repeatedly calculated in the coding distortion removal process, is calculated. The pixel difference value DifPel is dif1a and dif2a calculated in step S27.

ステップS28ではdif1aとπを比較し、dif1aがπを超えていればステップS29でn=0(即ち符号化歪除去処理をしない)として処理を終了する。dif1aがπ以下であればステップS30に進む。   In step S28, dif1a is compared with π, and if dif1a exceeds π, in step S29, n = 0 (that is, no coding distortion removal processing is performed), and the process is terminated. If dif1a is less than or equal to π, the process proceeds to step S30.

ステップS30ではdif2aをΩと比較し、dif2aがΩ未満であればステップS31でn=2(即ち隣り合う各ブロックにおいてブロック境界から2つ目の画素までを符号化歪除去処理する)として処理を終了する。dif2aがΩ以上であればステップS32に進む。
ステップS32ではdif2aを2×Ωと比較し、dif2aが2×Ω未満であればステップS33でn=1(即ち隣り合う各ブロックにおいてブロック境界から1つ目の画素までを符号化歪除去処理する)として処理を終了する。dif2aが2×Ω以上であればステップS34でn=0(即ち符号化歪除去処理をしない)として処理を終了する。dif2は境界近傍の画素値の差分の絶対値であり、この差分値が小さいほど境界近傍で高周波数成分が少ないと考えられるため、dif2が小さいほど符号化歪除去処理を行う画素数を増加することで、効率よく境界部の符号化歪を除去できる。
In step S30, dif2a is compared with Ω, and if dif2a is less than Ω, processing is performed in step S31 as n = 2 (that is, encoding distortion removal processing is performed from the block boundary to the second pixel in each adjacent block). finish. If dif2a is greater than or equal to Ω, the process proceeds to step S32.
In step S32, dif2a is compared with 2 × Ω, and if dif2a is less than 2 × Ω, in step S33, n = 1 (that is, encoding distortion removal processing is performed from the block boundary to the first pixel in each adjacent block). ) To end the process. If dif2a is 2 × Ω or more, the process ends in step S34 with n = 0 (that is, no coding distortion removal process is performed). dif2 is the absolute value of the difference between the pixel values near the boundary, and it is considered that the smaller the difference value is, the less high frequency components are in the vicinity of the boundary. Therefore, the smaller the dif2, the greater the number of pixels to be subjected to the coding distortion removal process. Thus, the encoding distortion at the boundary can be efficiently removed.

図7は本発明の符号化歪除去方法におけるフィルタ係数決定のフローチャートであり、図2に示すフィルタ係数決定部6の動作の一例である。
ステップS37では、nとdif1a、dif2a、φを用いて3通りの条件の比較を行い、3通りの全ての条件が満たされた場合には、ステップS39で3タップフィルタ処理を行うように設定する。すなわち、φはフィルタのタップ数を決定する閾値であり、高周波数成分が少ないn=2の場合で且つ境界部で画素値の変化が少ない(|dif2a−dif1a|<φ)場合に3タップフィルタになる。通常、3タップフィルタは1タップフィルタよりも高周波数成分を強く抑圧するフィルタが使用される。なお、nの値により、フィルタ処理を切り換えることができるため、このように求められたnを用いて、フィルタをかける画素数を切り換えるのではなく、フィルタの種類を切り換えることも可能である。また、このように求められたnにより、フィルタをかける画素数と、フィルタの種類をともに切り換えてもよい。
FIG. 7 is a flowchart of filter coefficient determination in the coding distortion removal method of the present invention, and is an example of the operation of the filter coefficient determination unit 6 shown in FIG.
In step S37, three conditions are compared using n and dif1a, dif2a, and φ, and if all three conditions are satisfied, a setting is made to perform a 3-tap filter process in step S39. . That is, φ is a threshold value for determining the number of taps of the filter. When n = 2 with a small number of high frequency components and when the pixel value changes little at the boundary (| dif2a−dif1a | <φ), the 3-tap filter become. Usually, a filter that strongly suppresses high frequency components is used for the 3-tap filter than for the 1-tap filter. Note that since the filter process can be switched depending on the value of n, it is possible to switch the type of filter instead of switching the number of pixels to be filtered using n thus obtained. Further, both the number of pixels to be filtered and the type of filter may be switched according to n thus obtained.

ステップS37で3通りの条件が満足されない場合は、ステップS38でnが1以上であるかを判定し、nが1以上であればステップS40で1タップフィルタ処理を行うように設定する。一方、nが0あればステップS42でフィルタ処理を行わないように設定する。
なお、量子化パラメータQPはブロック毎に変更される可能性がある。しかしながら、量子化パラメータQPが異なるブロック境界では、符号化歪除去処理が複雑になってしまう。これを防ぐために、本発明では境界ブロックで量子化パラメータQPが変化する場合でも、境界においては、
* 隣接ブロックの量子化パラメータQPの平均値(なお、端数は例えば切捨てを行う)
* 隣接ブロックの量子化パラメータQPの最大値
* 隣接ブロックの量子化パラメータQPの最小値
* 左もしくは上隣接ブロックの量子化パラメータQP
のいずれかの方法で選択したQPをブロック境界の両側のフィルタ処理で使用する。なお、上記4通りの量子化パラメータQPの選択による差はわずかであり、予め選択した1通りのものを使用すれば良い。
以上のような方法により、符号化歪の除去を簡単に実施することができる。
If the three conditions are not satisfied in step S37, it is determined in step S38 whether n is 1 or more. If n is 1 or more, a setting is made to perform 1-tap filter processing in step S40. On the other hand, if n is 0, it sets so that a filter process may not be performed by step S42.
Note that the quantization parameter QP may be changed for each block. However, the coding distortion removal process becomes complicated at block boundaries with different quantization parameters QP. In order to prevent this, in the present invention, even when the quantization parameter QP changes in the boundary block, at the boundary,
* Average value of quantization parameter QP of adjacent blocks (Note that fractions are rounded down, for example)
* Maximum value of quantization parameter QP of adjacent block * Minimum value of quantization parameter QP of adjacent block * Quantization parameter QP of left or upper adjacent block
The QP selected by any one of the above methods is used for filtering on both sides of the block boundary. Note that the difference due to the selection of the four quantization parameters QP is slight, and a preselected one may be used.
The encoding distortion can be easily removed by the method as described above.

次に、図8(a)は図1に示す符号化歪除去部62の別例を示すブロック図である。また、図2に示す点線で囲まれた部分の別の例でもある。同図において、図34の従来の符号化歪除去方法を用いた符号化歪除去部のブロック図に記載されている機器と同じ動作をする機器は同じ番号を付し、説明を省略する。   Next, FIG. 8A is a block diagram showing another example of the coding distortion removing unit 62 shown in FIG. Moreover, it is another example of the part enclosed with the dotted line shown in FIG. In the figure, devices that operate in the same manner as the devices described in the block diagram of the coding distortion removing unit using the conventional coding distortion removing method of FIG. 34 are assigned the same numbers, and descriptions thereof are omitted.

画素差分計算部20は再生画像Coefからブロック境界の画素差分値を計算し、画素差分値DifPelを出力する。画素差分値DifPelはdif1aおよびdif2aに相当する信号を含んでいる。画素差分値DifPelは、例えば、図8(b)に示すように、符号化単位ブロックの境界線に対し、左右対称の位置、または上下対称の位置にある画素同士を比較し、その差(色差または輝度差)であるd1、d2、d3、d4から求まる。これらの差の平均値(例えば(d1+d2+d3+d4)/4)が一定値以下であれば、d4を求めた幅の範囲内には、画像の境界線が存在しないと考えられるので、デブロックフィルタを実行するように動作する。他方、平均値が一定値以上であれば、画像の境界線が存在すると考えられるので、デブロックフィルタを実行しない様に制御する。なお、比較を行うのはd1、d2、d3、d4の内のいずれか一つ、いずれか二つ、いずれか3つのどれかであってもよい。また、平均値ではなく、差の内で一番大きいものを一定値と比較するようにしてもよい。   The pixel difference calculation unit 20 calculates a pixel difference value at the block boundary from the reproduced image Coef, and outputs a pixel difference value DifPel. The pixel difference value DifPel includes signals corresponding to dif1a and dif2a. For example, as illustrated in FIG. 8B, the pixel difference value DifPel is obtained by comparing pixels at a position that is symmetrical with respect to the boundary line of the encoding unit block or a position that is symmetrical with respect to the top and bottom, and that difference (color difference). Or d1, d2, d3, and d4. If the average value of these differences (for example, (d1 + d2 + d3 + d4) / 4) is equal to or less than a certain value, it is considered that there is no image boundary line within the range of the width for which d4 is obtained. To work. On the other hand, if the average value is equal to or greater than a certain value, it is considered that there is an image boundary line, so control is performed so as not to execute the deblocking filter. Note that the comparison may be any one of d1, d2, d3, and d4, any two, or any one of the three. Further, instead of the average value, the largest difference may be compared with a constant value.

フィルタ対象画素数決定部4の動作の一例としては図6に示すフィルタ対象画素数決定のフローチャートがある。また、フィルタ係数決定部6の動作の一例としては図7に示すフィルタ係数数決定のフローチャートがある。そして、図8(b)に示すように画素差分値DifPelを参照することで、画素差分を計算する回数をフィルタ対象画素数決定部4およびフィルタ係数決定部6のそれぞれで削減できる。従って、フィルタ対象画素数決定部4およびフィルタ係数決定部6で再生画像Coefを参照せずにフィルタ対象画素数およびフィルタ係数を決定することができる。
以上のように、画素差分値DifPelとして計算した値を繰り返し使用することで、演算量を削減することができる。
As an example of the operation of the filter target pixel number determination unit 4, there is a flowchart for determining the number of filter target pixels shown in FIG. An example of the operation of the filter coefficient determination unit 6 is a flowchart for determining the number of filter coefficients shown in FIG. Then, by referring to the pixel difference value DifPel as shown in FIG. 8B, the number of times of calculating the pixel difference can be reduced by each of the filter target pixel number determination unit 4 and the filter coefficient determination unit 6. Therefore, the filter target pixel number determination unit 4 and the filter coefficient determination unit 6 can determine the filter target pixel number and the filter coefficient without referring to the reproduced image Coef.
As described above, the amount of calculation can be reduced by repeatedly using the value calculated as the pixel difference value DifPel.

(実施の形態3)
本実施の形態では、他の実施の形態で示した符号化歪除去方法を実現することができる符号化装置及び復号化装置について説明する。
図9は符号化装置を示すブロック図である。
(Embodiment 3)
In this embodiment, an encoding device and a decoding device that can realize the encoding distortion removal method described in the other embodiments will be described.
FIG. 9 is a block diagram showing an encoding apparatus.

動き検出部30は第1メモリ38および第2メモリ40から出力される参照画像Ref1と参照画像Ref2をそれぞれ画像信号Vinと比較し、参照画像に対する画像信号Vinの動き量である動きベクトルMVを検出する。なお、その際に参照画像Ref1と参照画像Ref2のいずれの画像を参照した方が予測誤差が少なくなるかの情報も動きベクトルMVに含めて動き補償部32に通知する。動き補償部32は動きベクトルMVで示される位置の画像を参照画像Ref1または参照画像Ref2から抽出し、動き補償画像MCpelとして出力する。   The motion detection unit 30 compares the reference image Ref1 and the reference image Ref2 output from the first memory 38 and the second memory 40 with the image signal Vin, and detects a motion vector MV that is the amount of motion of the image signal Vin with respect to the reference image. To do. At this time, information indicating which of the reference image Ref1 and the reference image Ref2 is referred to reduces the prediction error is included in the motion vector MV and notified to the motion compensation unit 32. The motion compensation unit 32 extracts the image at the position indicated by the motion vector MV from the reference image Ref1 or the reference image Ref2, and outputs it as a motion compensation image MCpel.

減算部42は画像信号Vinと動き補償画像MCpelの差分値を計算してコサイン変換部(DCT)46に出力する。コサイン変換部46は入力された差分値をDCT変換および量子化し、周波数成分FCoefを出力する。ジグザグスキャン部48は周波数成分FCoefの順番の並べ替えを行った周波数符号成分DCoefを出力し、可変長符号化部50は周波数符号成分DCoefを可変長符号化して符号化信号Strを出力する。
一方、DCT部(コサイン変換部)46の出力は逆DCT部(逆コサイン変換部)に入力される。そして、周波数成分Fcoefと動き補償部32からの出力である動き補償画像Mcpelとが合成部34で合成され、合成画像coefが出力される。出力された合成画像は、一方ではそのままメモリ38に出力され、他方では、デブロックフィルタ36で処理された後、符号化歪が除去された復号画像信号Voutがメモリ40に記憶される。
図10は復号化装置を示すブロック図であり、例えば図9に示す符号化装置のブロック図で符号化した符号化信号Strを正しく復号化することができる。図32又は図33に示す画像復号化装置のブロック図と同じ動作をする機器は同じ番号を付し、説明を省略する。逆DCT部(逆コサイン変換部)56は周波数成分FCoefを逆量子化および逆DCTを行って差分画像DifCoefを出力し、加算部58で差分画像DifCoefと動き補償画像MCpelを加算することで再生画像Coefを得る。再生画像Coefは第1メモリ64に記憶され、またデブロックフィルタ62で再生画像Coefから符号化歪が除去された復号画像信号Voutは第2メモリ66に記憶される。
The subtracting unit 42 calculates a difference value between the image signal Vin and the motion compensated image MCpel and outputs the difference value to the cosine transform unit (DCT) 46. The cosine transform unit 46 DCT transforms and quantizes the input difference value and outputs a frequency component FCoef. The zigzag scanning unit 48 outputs the frequency code component DCoef obtained by rearranging the order of the frequency components FCoef, and the variable length encoding unit 50 performs variable length encoding on the frequency code component DCoef and outputs the encoded signal Str.
On the other hand, the output of the DCT unit (cosine transform unit) 46 is input to the inverse DCT unit (inverse cosine transform unit). Then, the frequency component Fcoef and the motion compensated image Mcpel output from the motion compensation unit 32 are synthesized by the synthesis unit 34, and a synthesized image coef is output. On the one hand, the output composite image is output to the memory 38 as it is, and on the other hand, after being processed by the deblocking filter 36, the decoded image signal Vout from which the coding distortion has been removed is stored in the memory 40.
FIG. 10 is a block diagram showing the decoding apparatus. For example, the encoded signal Str encoded by the block diagram of the encoding apparatus shown in FIG. 9 can be correctly decoded. Devices that perform the same operations as those in the block diagram of the image decoding apparatus illustrated in FIG. 32 or 33 are denoted by the same reference numerals, and description thereof is omitted. An inverse DCT unit (inverse cosine transform unit) 56 performs inverse quantization and inverse DCT on the frequency component FCoe to output a difference image DifCoef, and an adder 58 adds the difference image DifCoef and the motion compensated image MCpel to reproduce a reproduced image. Get Coef. The reproduced image Coef is stored in the first memory 64, and the decoded image signal Vout obtained by removing the coding distortion from the reproduced image Coef by the deblocking filter 62 is stored in the second memory 66.

以上の動作によって、第1メモリ38及び第1メモリ64には符号化歪が除去されていない画像、第2メモリ40及び第2メモリ66には符号化歪が除去された画像が格納されることになる。符号化歪の除去処理は必ずしも符号化歪のみを除去できるわけでは無く、本来の画像信号の一部も失われる可能性がある。そこで、図9に示す符号化装置における、動き検出部30で第1メモリ38および第2メモリ40の両方から常に最適なものを選択できる仕組みを備えるようにする。
この構成により、本来の画像信号の一部を、符号化歪を除去することにより失った場合でも第1メモリ38を参照することで適切な参照画像を選ぶことができる。同様に図10に示す復号化装置においても適切な参照画像を選ぶことができる。
なお、本実施の形態では直交変換としてDCTを用いたが、アダマール変換やウェーブレット変換を用いても良い。
Through the above operation, the first memory 38 and the first memory 64 store the image from which the coding distortion has not been removed, and the second memory 40 and the second memory 66 store the image from which the coding distortion has been removed. become. The coding distortion removal process does not necessarily remove only the coding distortion, and a part of the original image signal may be lost. Therefore, in the encoding apparatus shown in FIG. 9, the motion detection unit 30 is provided with a mechanism that can always select an optimal one from both the first memory 38 and the second memory 40.
With this configuration, an appropriate reference image can be selected by referring to the first memory 38 even when a part of the original image signal is lost by removing the coding distortion. Similarly, an appropriate reference image can be selected also in the decoding apparatus shown in FIG.
In this embodiment, DCT is used as orthogonal transform, but Hadamard transform or wavelet transform may be used.

(実施の形態4)
図11は本実施の形態における符号化歪除去部を示すブロック図であり、例えば図1に示すデブロックフィルタ62に相当する。また、フィルタを決定するための閾値を決めることを特徴とする。同図において、図34に示す従来の符号化歪除去部のブロック図に記載されている機器と同じ動作をする機器は同じ番号を付し、説明を省略する。
(Embodiment 4)
FIG. 11 is a block diagram showing an encoding distortion removing unit in the present embodiment, and corresponds to, for example, the deblocking filter 62 shown in FIG. In addition, a threshold value for determining a filter is determined. In this figure, devices that perform the same operations as those described in the block diagram of the conventional coding distortion removing unit shown in FIG.

フィルタ決定パラメータ復号化部22はフィルタ決定パラメータ信号FtrStrを復号化し、フィルタパラメータFtrPrmを出力する。フィルタ決定パラメータ信号FtrStrは、閾値そのものではなく、閾値を決定するためのパラメータである。フィルタパラメータFtrPrmは、図5のπ、Ω、φに相当する。これらのパラメータπ、Ω、φを画像毎に最適化したデータをフィルタ決定パラメータ信号FtrStrから復号し取得することで、当該画像に適した符号化歪除去を行うことができる。   The filter determination parameter decoding unit 22 decodes the filter determination parameter signal FtrStr and outputs a filter parameter FtrPrm. The filter determination parameter signal FtrStr is not a threshold value itself but a parameter for determining the threshold value. The filter parameter FtrPrm corresponds to π, Ω, and φ in FIG. By decoding and obtaining the data obtained by optimizing these parameters π, Ω, and φ for each image from the filter determination parameter signal FtrStr, it is possible to perform coding distortion removal suitable for the image.

図12は本発明の符号化歪除去方法における符号化信号Strの構成図である。図12(a)は1画面に対応する符号化信号であり、1画面のデータであるピクチャデータPicDataと1画面の全データに共通のデータであるピクチャヘッダPicHdrで構成される。ピクチャヘッダPicHdrにはフィルタ決定パラメータ信号FtrStrが含まれている。   FIG. 12 is a configuration diagram of the encoded signal Str in the encoding distortion removal method of the present invention. FIG. 12A shows an encoded signal corresponding to one screen, which includes picture data PicData that is data of one screen and a picture header PicHdr that is data common to all data of one screen. The picture header PicHdr includes a filter determination parameter signal FtrStr.

図12(b)はピクチャデータPicDataの構造であり、ピクチャデータPicDataは複数のブロック単位の集合で構成されるスライスの符号化信号である、スライス信号SliceStrを含んでいる。
図12(c)はスライス信号SliceStrの構造であり、1スライスのデータであるスライスデータSliceDataと1スライスの全データに共通のデータであるスライスヘッダSliceHdrで構成される。スライスヘッダSliceHdrにフィルタ決定パラメータ信号FtrStrが含むことにより、スライスデータSliceData単位で受信した符号化信号を正しく復号化できる。
FIG. 12B shows the structure of the picture data PicData. The picture data PicData includes a slice signal SliceStr, which is an encoded signal of a slice composed of a set of a plurality of blocks.
FIG. 12C shows the structure of the slice signal SliceStr, which is composed of slice data SliceData which is data of one slice and a slice header SliceHdr which is data common to all data of one slice. By including the filter determination parameter signal FtrStr in the slice header SliceHdr, it is possible to correctly decode the encoded signal received in units of slice data SliceData.

なお、ピクチャデータPicDataに複数のスライス信号SliceStrが含まれている場合は、全てのスライスヘッダSliceHdrにフィルタ決定パラメータ信号FtrStrを含む代わりに、一部のスライスヘッダSliceHdrのみにフィルタ決定パラメータ信号FtrStrを含むようにしてもよい。フィルタ決定パラメータ信号FtrStrの内容が各スライスで共通であれば、図12(c)に示すようにスライスヘッダSliceHdrにフィルタ決定パラメータ信号FtrStrが無い場合は、他のスライスヘッダSliceHdr のフィルタ決定パラメータ信号FtrStrで代用することで、フィルタ決定パラメータ信号FtrStrの繰り返しによるビット数の増加を抑えることも可能である。   When the picture data PicData includes a plurality of slice signals SliceStr, instead of including the filter determination parameter signal FtrStr in all the slice headers SliceHdr, only some slice headers SliceHdr include the filter determination parameter signal FtrStr. You may make it. If the content of the filter determination parameter signal FtrStr is common to the slices, as shown in FIG. 12C, if the slice header SliceHdr does not have the filter determination parameter signal FtrStr, the filter determination parameter signal FtrStr of another slice header SliceHdr. It is also possible to suppress an increase in the number of bits due to repetition of the filter determination parameter signal FtrStr.

また、符号化信号Strが連続したビットストリームでなく、細切れのデータの単位であるパケット等で伝送する場合はヘッダ部とヘッダ以外のデータ部を分離して別に伝送してもよい。その場合は、図12のようにヘッダ部とデータ部が1つのビットストリームとなることはない。しかしながら、パケットの場合は、ヘッダ部とデータ部の伝送する順序が連続しなくても、対応するデータ部に対応するヘッダ部が別のパケットで伝送されるだけであり、1つのビットストリームとなっていなくても、概念は図12で説明したビットストリームの場合と同じである。
図13は、符号化装置のブロック図を示す。同図において、図9に示す符号化装置のブロック図の機器と同じ動作をする機器は同じ番号を付し、説明を省略する。
In addition, when the encoded signal Str is transmitted not in a continuous bit stream but in a packet or the like which is a unit of finely divided data, the header portion and the data portion other than the header may be separated and transmitted separately. In that case, the header part and the data part do not become one bit stream as shown in FIG. However, in the case of a packet, even if the transmission order of the header part and the data part is not continuous, only the header part corresponding to the corresponding data part is transmitted in another packet, and it becomes one bit stream. Even if not, the concept is the same as in the case of the bit stream described in FIG.
FIG. 13 shows a block diagram of an encoding apparatus. In the figure, devices that operate in the same manner as the devices in the block diagram of the encoding device shown in FIG.

メモリ217は、符号化対象の画像信号である入力画像信号Vinを記憶する。画質比較部216は、メモリ217から読み出した符号化対象の画像信号と復号化画像Voutを比較する。画質比較部216で比較した結果得られた誤差の大きさは、復号化画像に対応するデブロックフィルタの閾値とともに比較結果メモリ218に記憶される。選択部219は、比較結果メモリ218に記憶された誤差の中で誤差の大きさが最も小さい場合に対応するデブロックフィルタの閾値を最適閾値として選択する。選択した最適閾値は、閾値データ付加部220において、対応するピクチャのビットストリームに関連付けた付加ビットストリームとして多重化される。また、選択部219で出力した最適閾値を元に、閾値コントロール部215は次のピクチャのデブロックフィルタの閾値の候補を生成し、デブロックフィルタ36に通知して符号化歪の除去処理の閾値を変更するとともに、比較結果メモリ218に現在使用中の閾値を通知する。   The memory 217 stores an input image signal Vin that is an image signal to be encoded. The image quality comparison unit 216 compares the image signal to be encoded read from the memory 217 with the decoded image Vout. The magnitude of the error obtained as a result of the comparison by the image quality comparison unit 216 is stored in the comparison result memory 218 together with the threshold value of the deblocking filter corresponding to the decoded image. The selection unit 219 selects the deblocking filter threshold corresponding to the smallest error among the errors stored in the comparison result memory 218 as the optimum threshold. The selected optimum threshold value is multiplexed in the threshold data addition unit 220 as an additional bit stream associated with the bit stream of the corresponding picture. Further, based on the optimum threshold output from the selection unit 219, the threshold control unit 215 generates a deblocking filter threshold candidate for the next picture, and notifies the deblocking filter 36 to notify the coding distortion removal processing threshold. And the comparison result memory 218 is notified of the threshold value currently in use.

図14は、図13のブロック図をより概念的に示した符号化装置、例えば最適閾値選択器226は、図13のジグザグスキャン48、可変長符号化器50、閾値データ付加部220の3つを除く部分の動作、又は、メモリ217、画質比較部216、比較結果メモリ218、選択部219、閾値コントロール215の動作に相当する。また、ビデオ・エンコーダ227は、例えば図13のメモリ217、画質比較部216、比較結果メモリ218、選択部219、閾値コントロール215の5つを除く部分の動作に対応する。また、閾値228は上記最適閾値に相当する。
最適閾値選択器226は、最適閾値を選択する。ここで、最適閾値とは例えば図5に示す量子化パラメータQP毎に決定されたπ、Ω、φのセットが相当する。選択された最適閾値は、メモリ228に記憶され、フィルタ決定パラメータFtrStrとしてビデオエンコーダ227に加えられる。なお、エンコードされたFtrStrはデコーダにおいては、例えば図11に示すフィルタ決定パラメータ復号化部22で処理されることになる。
FIG. 14 shows an encoding apparatus that more conceptually shows the block diagram of FIG. 13, for example, the optimum threshold selector 226 includes three components, the zigzag scan 48, the variable length encoder 50, and the threshold data adding unit 220 of FIG. This corresponds to the operation of the part excluding, or the operation of the memory 217, the image quality comparison unit 216, the comparison result memory 218, the selection unit 219, and the threshold control 215. Further, the video encoder 227 corresponds to the operation of a part other than the memory 217, the image quality comparison unit 216, the comparison result memory 218, the selection unit 219, and the threshold control 215 in FIG. The threshold value 228 corresponds to the optimum threshold value.
The optimum threshold value selector 226 selects an optimum threshold value. Here, the optimum threshold corresponds to, for example, a set of π, Ω, and φ determined for each quantization parameter QP shown in FIG. The selected optimum threshold value is stored in the memory 228 and added to the video encoder 227 as a filter determination parameter FtrStr. The encoded FtrStr is processed in the decoder by, for example, the filter determination parameter decoding unit 22 shown in FIG.

なお、最適閾値は、図13に示す閾値コントロール215内のメモリに記憶され、閾値コントロール215により閾値データが、閾値データ付加部に220に送られるようにしても良い。
次に符号化歪を除去するときにフィルタ決定パラメータFtrStrを決定する動作を説明する。図15、図16、図17は、図13、図14で説明した符号化装置の動作を示すフローチャートである。
図15は、画質の測定をするための動作の一例を示すフローチャートである。
The optimum threshold value may be stored in a memory in the threshold control 215 shown in FIG. 13, and the threshold data may be sent to the threshold data adding unit 220 by the threshold control 215.
Next, the operation of determining the filter determination parameter FtrStr when removing the coding distortion will be described. FIGS. 15, 16, and 17 are flowcharts showing the operation of the encoding apparatus described in FIGS.
FIG. 15 is a flowchart illustrating an example of an operation for measuring image quality.

まず、目標フレームtarget_frameを設定し、最初のピクチャを出力する(ステップ229)。ここで目標フレームtarget_frameとは閾値を導出するときに使用するピクチャである。
次に閾値コントロール部215において、閾値の範囲を設定し(ステップ230)、ステップ230で設定した範囲の一方の端の値を、閾値の初期値として閾値コントロール215から出力する(ステップ231)。
First, the target frame target_frame is set, and the first picture is output (step 229). Here, the target frame target_frame is a picture used to derive a threshold value.
Next, in the threshold control unit 215, a threshold range is set (step 230), and a value at one end of the range set in step 230 is output from the threshold control 215 as an initial value of the threshold (step 231).

次に、設定した閾値の初期値を用いて符号化歪の除去をデブロックフィルタ36で行い、目標フレームtarget_frameの画像の符号化を開始し(ステップ232)、符号化された1枚目のピクチャと入力画像信号Vinの画質を画質比較器216で測定する(ステップ233)。
この測定結果はメモリ218に記録され(ステップ234)、現在のフレーム番号current_frameはインクリメントされる(ステップ235)。すなわち、最初のピクチャから次のピクチャに切り替え、次のピクチャを例えば図14に示す最適閾値選択器226およびビデオ・エンコーダ227あるいは図13に示すメモリ217、動き補償部30、減算部42に出力する。
Next, encoding distortion is removed by the deblocking filter 36 using the initial value of the set threshold, encoding of the image of the target frame target_frame is started (step 232), and the encoded first picture The image quality of the input image signal Vin is measured by the image quality comparator 216 (step 233).
The measurement result is recorded in the memory 218 (step 234), and the current frame number current_frame is incremented (step 235). That is, the first picture is switched to the next picture, and the next picture is output to, for example, the optimum threshold selector 226 and video encoder 227 shown in FIG. 14 or the memory 217, motion compensation unit 30, and subtraction unit 42 shown in FIG. .

ステップ236で、現在のフレーム番号が目標フレームtarget_frameに達したかどうかを判断する。達していなければ、ステップ233から235が繰り返される。そして入力されるピクチャに対する画質が画質比較部216で測定され、測定結果がメモリ218に記憶される。また、現在のフレーム番号が目標フレームtarget_frameに達していれば、ステップ237に進み、最初のピクチャである1枚目の画像に戻す。
ステップ238Aで、閾値コントロール215において、閾値をインクリメントする。すなわち閾値を次の値に設定する。ここで次の値とは、初期値から、所定の増加量を加算した値である。
In step 236, it is determined whether the current frame number has reached the target frame target_frame. If not, steps 233 to 235 are repeated. The image quality of the input picture is measured by the image quality comparison unit 216, and the measurement result is stored in the memory 218. If the current frame number has reached the target frame target_frame, the process proceeds to step 237 to return to the first picture that is the first picture.
In step 238A, the threshold is incremented in the threshold control 215. That is, the threshold value is set to the following value. Here, the next value is a value obtained by adding a predetermined increase amount from the initial value.

ステップ238Bで、閾値範囲における他方の端の値に至るまでの全ての閾値についてテストが行われたかどうかが判断される。全ての閾値についてテストが行われたのであれば最適閾値を選択するための処理を終了する。全ての閾値についてテストが行われていなければステップ232に戻り、再び目標フレームtarget_frameのピクチャを符号化する。
このように、ひとつの閾値について全ての目標フレームtarget_frameについて画質の測定を行った後、閾値を所定量加算して、再び全ての目標フレームtarget_frameについて画質の測定を行うことにより、画質の測定をすることができる。
次に、図16のフローチャートを用いて、ひとつのピクチャに対し、設定した閾値範囲内にある全ての閾値で画質の測定を行い、続いて次のピクチャに対し、設定した閾値範囲内にある全ての閾値で画質の測定を行う方法について説明する。
In step 238B, it is determined whether all threshold values have been tested up to the value at the other end of the threshold range. If the test has been performed for all the threshold values, the process for selecting the optimum threshold value is terminated. If all the threshold values have not been tested, the process returns to step 232, and the picture of the target frame target_frame is encoded again.
As described above, after the image quality is measured for all target frames target_frame with respect to one threshold, the threshold is added by a predetermined amount, and the image quality is measured again for all target frames target_frame, thereby measuring the image quality. be able to.
Next, using the flowchart of FIG. 16, image quality is measured for all the threshold values within the set threshold range for one picture, and then all the values within the set threshold range for the next picture are measured. A method of measuring the image quality with the threshold value will be described.

まず、目標フレームtarget_frameを設定し、最初のピクチャを出力する(ステップ239)。現在のフレーム番号current_frameをゼロに設定し(ステップ240)、最初のピクチャであることを設定する。次に、閾値コントロール部215において、閾値の範囲を設定し(ステップ241)、デブロックフィルタ36に対する閾値を設定する(ステップ242)。   First, the target frame target_frame is set, and the first picture is output (step 239). The current frame number current_frame is set to zero (step 240), and the first picture is set. Next, a threshold range is set in the threshold control unit 215 (step 241), and a threshold for the deblocking filter 36 is set (step 242).

最初のピクチャに対し閾値の初期値を用いて符号化(符号化歪除去処理)を行い、(ステップ243)符号化されたピクチャの画質を画質比較器216で測定する(ステップ244)。
この測定結果をメモリ218に記録し(ステップ245)、閾値コントロール215部において、閾値を次の値にインクリメントする(ステップ246A)。
そして、ステップ246Bで、全ての閾値がテストされたかどうかが判断される。全ての閾値がテストされていなければ、ステップ242に戻り、同じピクチャに対し、別の閾値で画質の測定をする。全ての閾値について画質の測定がされていればステップ247に進む。
Encoding (encoding distortion removal processing) is performed on the first picture using the initial value of the threshold (step 243), and the image quality of the encoded picture is measured by the image quality comparator 216 (step 244).
The measurement result is recorded in the memory 218 (step 245), and the threshold value control 215 unit increments the threshold value to the next value (step 246A).
Then, in step 246B, it is determined whether all thresholds have been tested. If all the threshold values have not been tested, the process returns to step 242 to measure the image quality of the same picture with different threshold values. If the image quality has been measured for all the threshold values, the process proceeds to step 247.

ステップ247で、現在のフレーム番号current_frameをインクリメントする。すなわち、最初のフレームである1枚目のピクチャから次のフレームである2枚目のピクチャに切り替え、次のピクチャを例えば図14に示す最適閾値選択器226およびビデオ・エンコーダ227あるいは図13に示すメモリ217、動き補償部30、減算部42に出力する。
ステップ248で、現在のフレーム番号が目標フレームtarget_frameに達したかどうかを判断する。現在のフレーム番号が目標フレームtarget_frameに達していなければ、ステップ241に戻る。また、達していれば、画像の測定の処理を終了する。
In step 247, the current frame number current_frame is incremented. That is, the first picture that is the first frame is switched to the second picture that is the next frame, and the next picture is shown in, for example, the optimum threshold selector 226 and the video encoder 227 shown in FIG. 14 or FIG. The data is output to the memory 217, the motion compensation unit 30, and the subtraction unit 42.
In step 248, it is determined whether the current frame number has reached the target frame target_frame. If the current frame number has not reached the target frame target_frame, the process returns to step 241. If it has reached, the image measurement process is terminated.

図17は、図15または図16において説明した閾値とその閾値に対する画質の測定結果とに基づき、最適な閾値を選択する方法について説明するフローチャートである。
図17のステップ249で、選択部219は、画質の測定結果のデータと、対応する閾値データとのペアを取得する。
ステップ250で、測定結果を所定の順番に配置する。
ステップ251で、所定の条件に基づき最適画質を有するピクチャを選択し、そのピクチャに対応する閾値を最適閾値として選択する。所定の条件は、例えばSN比が小さいこと、再生ピクチャ(当該閾値でデブロックフィルタ処理された画像)とオリジナル・ピクチャ(入力画像信号Vin)との間の差が最も低いこと、前記差の平均2乗がもっとも低いこと、等のいずれか、または組み合わせとすることができる。
FIG. 17 is a flowchart illustrating a method for selecting an optimum threshold based on the threshold described in FIG. 15 or FIG. 16 and the image quality measurement result for the threshold.
In step 249 of FIG. 17, the selection unit 219 acquires a pair of image quality measurement result data and corresponding threshold data.
In step 250, the measurement results are arranged in a predetermined order.
In step 251, a picture having an optimum image quality is selected based on a predetermined condition, and a threshold corresponding to the picture is selected as the optimum threshold. The predetermined condition is, for example, that the SN ratio is small, the difference between the reproduced picture (image that has been deblocked by the threshold value) and the original picture (input image signal Vin) is the lowest, and the average of the differences Any one or combination of the lowest squared, etc. can be used.

ステップ252で、選択された最適閾値をフィルタ決定パラメータFtrStrとして例えば図14に示すビデオ・エンコーダ227に出力する。
このように、図17で説明した方法を用いて、最適閾値を選択することができる。
なお、以上の実施の形態4においては、範囲の全ての閾値について画質の測定を行い、画質の測定結果を収集し、その中から最適な閾値を選出したが、閾値範囲の全ての閾値について順番に画質の測定を行い、最適な画質の測定結果が得られた時点で画質の測定を終了し、その画質の測定結果に対応する閾値を最適な閾値として選出してもよい。これにより、画質の測定回数を減らすことが可能となる。
また、あるブロックの符号化歪の除去処理は、そのブロックの画素値と隣接ブロックの画素値との比較が行われる。この場合、隣接ブロックは、符号化歪の除去処理が終了し、画素値の修正が終了したブロックを用いるようにする。
In step 252, the selected optimum threshold is output to the video encoder 227 shown in FIG. 14, for example, as the filter determination parameter FtrStr.
Thus, the optimum threshold can be selected using the method described in FIG.
In Embodiment 4 described above, the image quality is measured for all threshold values in the range, the image quality measurement results are collected, and the optimum threshold value is selected from the measurement results. Alternatively, the image quality may be measured, the measurement of the image quality may be terminated when the optimum image quality measurement result is obtained, and the threshold value corresponding to the image quality measurement result may be selected as the optimum threshold value. This makes it possible to reduce the number of image quality measurements.
Further, in the process of removing the coding distortion of a certain block, the pixel value of the block is compared with the pixel value of the adjacent block. In this case, for the adjacent block, the block for which the encoding distortion removal process is completed and the pixel value is corrected is used.

例えば、図18において、ブロックGの符号化歪の除去処理を行う場合、ブロックGに隣接する4つのブロックE,D,H,Mのそれぞれと符号化歪の除去を行うことができる。この場合、隣接ブロックの内、すでに符号化歪の除去処理が終了したブロックと行うようにすれば、より正確な符号化歪の除去を行うことが可能となる。
そこで、符号化歪の除去を線順次で、走査順次に行う。すなわち、画像の水平走査線の走査方向、走査線順に符号化歪の除去を行うとよい。
For example, in FIG. 18, when the encoding distortion removal processing of the block G is performed, the encoding distortion can be removed from each of the four blocks E, D, H, and M adjacent to the block G. In this case, it is possible to perform more accurate coding distortion removal by performing the processing with a block that has already been subjected to coding distortion removal processing among adjacent blocks.
Therefore, the coding distortion is removed in a line sequential manner and in a scanning sequential manner. That is, it is preferable to remove the coding distortion in the scanning direction of the horizontal scanning line of the image and in the scanning line order.

つまり図18において、1本目の走査線であるA,B,E,F,C,D,・・・の順番に符号化歪の除去処理を行い、各ブロックについて4本の境界線があるが、その内、上側の境界線と左側の境界線とに接している隣接ブロックについて符号化歪の除去処理を行うとよい。
この場合、ブロックAについては、上側の境界線と左側の境界線とに接している隣接ブロックは存在しないので、符号化歪の除去を行わない。
また、ブロックBについては、上側の境界線に接している隣接ブロックは存在しないので、左側の境界線に接している隣接ブロックAとの間で符号化歪の除去を行う。
That is, in FIG. 18, encoding distortion removal processing is performed in the order of A, B, E, F, C, D,... As the first scanning line, and there are four boundary lines for each block. Of these, it is preferable to perform a coding distortion removal process on adjacent blocks in contact with the upper boundary line and the left boundary line.
In this case, for the block A, since there is no adjacent block in contact with the upper boundary line and the left boundary line, the coding distortion is not removed.
For block B, since there is no adjacent block in contact with the upper boundary line, coding distortion is removed from adjacent block A in contact with the left boundary line.

また、ブロックGについては、上側の境界線と左側の境界線とに接している隣接ブロックはブロックE,Dであるので、ブロックGについては、ブロックE,Dに対しては符号化歪の除去を行ない、ブロックH,Mに対しては符号化歪の除去を行わない。
このように、新たなブロックに対し、符号化歪の除去が終了した隣接ブロックとの間について符号化歪の除去を行い、まだ符号化歪の除去が終了していない隣接ブロックとの間について符号化歪の除去を行わないようにすれば、より正確な符号化歪の除去処理を行うことができる。
For block G, the adjacent blocks in contact with the upper boundary line and the left boundary line are blocks E and D. Therefore, for block G, the coding distortion is removed for blocks E and D. The coding distortion is not removed for the blocks H and M.
In this way, for a new block, the coding distortion is removed with respect to the adjacent block for which the coding distortion has been removed, and the coding is performed with respect to the adjacent block for which the coding distortion has not yet been removed. If the distorted distortion is not removed, a more accurate coding distortion removal process can be performed.

(実施の形態5)
本実施の形態では、まず、図19に示すように複数の画素、例えば1列に並ぶ4画素を1グループとしてまとめ、グループのペアで演算し、符号化歪の除去処理をする例について説明する。ここで言う符号化歪の除去処理とは、ブロック間の境界線を挟んだ領域においてデブロックフィルタ処理を行うか否かの判断、およびデブロックフィルタ処理の両方、またはいずれかを言う。また、ブロックとは、符号化処理単位である4x4の16画素を含むブロックまたは図3で説明した動き補償を行うブロックのいずれかを言う。
(Embodiment 5)
In the present embodiment, as shown in FIG. 19, first, an example will be described in which a plurality of pixels, for example, four pixels arranged in a row, are grouped as one group, calculation is performed in pairs of groups, and coding distortion removal processing is performed. . The term “encoding distortion removal processing” as used herein refers to determination of whether or not to perform deblocking filter processing in a region sandwiching a boundary line between blocks and / or deblocking filter processing. The block refers to either a block including 4 × 4 16 pixels, which is an encoding processing unit, or a block that performs motion compensation described with reference to FIG.

図19に示すように1グループを構成する4画素は、ブロックの境界線と同方向に並んだブロック内の4画素である。図19には、4画素を含むグループr1、r2、r3、r4が示されている。グループr1、r2、r3、r4のデータは、それぞれ4個のレジスタ(例えばSIMDレジスタ)に保持することができる。グループr1、r2は、境界線に対し左右対称の位置にある。グループr3、r4も、境界線に対し左右対称の位置にある。グループr1にある画素値と、グループr2にある画素値が比較され、その差により符号化歪の除去処理を行う。   As shown in FIG. 19, the four pixels constituting one group are the four pixels in the block arranged in the same direction as the block boundary line. FIG. 19 shows groups r1, r2, r3, r4 including four pixels. Data of groups r1, r2, r3, r4 can be held in four registers (for example, SIMD registers). The groups r1 and r2 are in positions symmetrical with respect to the boundary line. The groups r3 and r4 are also symmetric with respect to the boundary line. The pixel values in the group r1 and the pixel values in the group r2 are compared, and the coding distortion is removed based on the difference.

これらの差を得るための演算は、グループr1の上端にある画素と、グループr2の上端にある画素との差1、グループr1の上端の次にある画素と、グループr2の上端の次にある画素との差2、グループr1の下端の上にある画素と、グループr2の下端の上にある画素との差3、グループr1の下端にある画素と、グループr2の下端にある画素との差4、を求め、これらの差1、差2、差3、差4の平均値、またはこれらの差1、差2、差3、差4の絶対値の和などを代表差として表し、代表差を所定の閾値と比較することにより行われる。他の演算方法も可能である。同じグループの4画素単位で演算を行うため、各画素単位で演算を行う場合に比べて並列演算が可能であり、並列化による高速な実装が容易になる。   The calculation for obtaining these differences is the difference 1 between the pixel at the top of the group r1 and the pixel at the top of the group r2, the pixel next to the top of the group r1, and the top of the group r2. Difference 2 from the pixel, difference 3 between the pixel above the lower end of the group r1 and pixel above the lower end of the group r2, difference between the pixel at the lower end of the group r1 and the pixel at the lower end of the group r2 4 is expressed as a representative difference such as the average value of these differences 1, 2, 2, 3 and 4 or the sum of the absolute values of these differences 1, 2, 2, 3 and 4 as representative differences. Is compared with a predetermined threshold. Other calculation methods are possible. Since the calculation is performed in units of four pixels in the same group, parallel calculation is possible compared to the case where calculations are performed in units of pixels, and high-speed mounting by parallelization is facilitated.

以上は、グループr1とグループr2とが比較される場合を説明したが、さらに、正確さが必要とされる場合は、グループr3にある画素の明るさと、グループr4にある画素の明るさが比較され、グループr1,r2で得られた比較結果の代表差と、今回の代表差の両方を加算、又は平均することにより符号化歪の除去処理を行うことも可能である。以上は、境界線が縦方向にある場合を説明したが、横方向も同様である。境界線が横方向にある場合は、横方向に並んだ4画素をグループとして捕らえられる。   In the above, the case where the group r1 and the group r2 are compared has been described. Further, when the accuracy is required, the brightness of the pixels in the group r3 is compared with the brightness of the pixels in the group r4. It is also possible to perform coding distortion removal processing by adding or averaging both the representative difference of the comparison results obtained in the groups r1 and r2 and the current representative difference. Although the case where the boundary line is in the vertical direction has been described above, the same applies to the horizontal direction. When the boundary line is in the horizontal direction, four pixels arranged in the horizontal direction are captured as a group.

ところで、図20(a)、(b)は、それぞれ画面上の走査線がインターレースで構成されている場合を示す。ここで、インタレース画像とは、1つのフレームが時刻の異なる2つのフィールドから構成される画像である。インタレース画像の符号化や復号化処理においては、1つのフレームをフレームのまま処理したり、2つのフィールドとして処理したり、フレーム内のブロック毎にフレーム構造またはフィールド構造として処理したりすることができる。図において、ねずみ色の小さな四角は奇数ラインの画素を示し、白色の小さな四角は偶数ラインの画素を示す。すなわち、奇数ラインで構成されるねずみ色の画素で1フィールドを構成し、偶数ラインで構成される白色の画素でフレームの他方のフィールドが構成されている。インタレース画像信号では、1つのフレームが時刻の異なる2つのフィールド(偶数フィールドと奇数フィールド)で構成される。静止画像の場合は時刻によって画素値が変化しないので、フレームの上下のラインの相関がフィールドの上下のラインの相関よりも強い。一方、動画像の場合は時刻によって画像が大きく変化するため、2つのフィールドの画素値が大きく異なり、フレームの上下のラインの相関よりもフィールドの上下のラインの相関の方が強くなる。従って、静止画像はフレーム、動画像はフィールドとして処理するのが効率が良い。   Incidentally, FIGS. 20A and 20B show a case where the scanning lines on the screen are composed of interlaces. Here, an interlaced image is an image in which one frame is composed of two fields having different times. In interlaced image encoding and decoding processing, one frame may be processed as a frame, processed as two fields, or processed as a frame structure or a field structure for each block in the frame. it can. In the drawing, a small square of a gray color indicates pixels of odd lines, and a small square of white indicates pixels of even lines. In other words, one field is composed of gray-colored pixels composed of odd lines, and the other field of the frame is composed of white pixels composed of even-numbered lines. In the interlaced image signal, one frame is composed of two fields (even field and odd field) having different times. In the case of a still image, since the pixel value does not change with time, the correlation between the upper and lower lines of the frame is stronger than the correlation between the upper and lower lines of the field. On the other hand, in the case of a moving image, the image changes greatly with time, so the pixel values of the two fields differ greatly, and the correlation between the upper and lower lines of the field is stronger than the correlation between the upper and lower lines of the frame. Therefore, it is efficient to process still images as frames and moving images as fields.

また、ピクチャがインタレース画像のとき、例えば、〈1〉ブロックが全てフレーム構造(フレーム構造については後述)のピクチャ、〈2〉ブロックが全てフィールド構造(フィールド構造については後述)のピクチャ、〈3〉ブロックがフレーム構造とフィールド構造のブロックとを有することができるピクチャ、が考えられる。
そして、例えば、ピクチャが〈1〉の場合(フレームの場合)には、全てフレーム構造単位でデブロック・フィルタ処理を行い、ピクチャが〈2〉の場合(フィールドの場合)には、全てフィールド構造単位でデブロック・フィルタ処理を行い、ピクチャが〈3〉の場合には、適応的にフィールド構造からフレーム構造あるいはフレーム構造からフィールド構造に変換をしてデブロック・フィルタ処理を行う。以下、それぞれについて具体的に説明する。
When the picture is an interlaced image, for example, <1> blocks are all pictures having a frame structure (the frame structure will be described later), <2> blocks are all pictures having a field structure (the field structure will be described later), <3 > Conceivable is a picture in which a block can have a frame structure and a field structure block.
For example, when the picture is <1> (in the case of a frame), the deblocking filter processing is performed in units of the frame structure, and when the picture is <2> (in the case of a field), all the field structure Deblocking / filtering processing is performed in units. When the picture is <3>, deblocking / filtering processing is performed by adaptively converting from the field structure to the frame structure or from the frame structure to the field structure. Each will be described in detail below.

静止もしくは動きの小さいインタレース画像は、図20(a)に示す様な奇数フィールドと偶数フィールドとからなる1フレーム単位で処理される(フレーム構造という)。フレーム構造においては、図20(a)の右側に示す様に、16画素で構成されるひとつのブロックに奇数ラインの画素と偶数ラインの画素が含まれる。符号化歪の除去処理は、フレーム構造を有するブロック間で行なわれる。すなわち、図8(b)で説明した様に、ブロックの境界において符号化歪の除去処理がなされる。   An interlaced image having a still or small motion is processed in units of one frame including an odd field and an even field as shown in FIG. 20A (referred to as a frame structure). In the frame structure, as shown on the right side of FIG. 20A, an odd line pixel and an even line pixel are included in one block of 16 pixels. The coding distortion removal process is performed between blocks having a frame structure. That is, as described with reference to FIG. 8B, coding distortion removal processing is performed at block boundaries.

大きな動きのインタレース画像は、図20(b)に示す様な奇数フィールドと偶数フィールドとに分けられた1フィールド単位で処理される(フィールド構造という)。フィールド構造は、図20(b)の右側に示す様に、奇数ラインで構成される奇数フィールドと、偶数ラインで構成される偶数フィールドに分けられ、奇数フィールドには奇数ラインで構成されるブロックが含まれ、偶数フィールドは偶数ラインで構成されるブロックが含まれる。符号化歪の除去処理は、フィールド構造を有する奇数ラインのブロック間のみまたは偶数ラインのブロック間のみで行なわれる。   A large motion interlaced image is processed in units of one field divided into an odd field and an even field as shown in FIG. 20B (referred to as a field structure). As shown on the right side of FIG. 20B, the field structure is divided into an odd field composed of odd lines and an even field composed of even lines. In the odd field, blocks composed of odd lines are divided. The even field includes a block composed of even lines. Coding distortion removal processing is performed only between odd-line blocks having a field structure or only between even-line blocks.

図21(a)は、インタレース画像の一部がフレーム構造で形成され、別の一部がフィールド構造で形成される例を示す。好ましくは、画像の中で、動画部分がフィールド構造で形成され、静止画部分がフレーム構造で形成される。フィールド構造またはフレーム構造で形成される最小単位はDCT等の直交変換もしくは動き補償が実行される最大単位であるマクロブロック(またばそれを複数個統合したスーパーマクロブロック)である。ここでは簡単に、図21(a)の自動車を含む四角部分がフィールド構造で形成され、残りの部分がフレーム構造で形成されているとする。   FIG. 21A shows an example in which a part of an interlaced image is formed with a frame structure and another part is formed with a field structure. Preferably, in the image, the moving image portion is formed with a field structure and the still image portion is formed with a frame structure. The minimum unit formed by the field structure or the frame structure is a macroblock (or a super macroblock obtained by integrating a plurality of them) that is the maximum unit for performing orthogonal transformation such as DCT or motion compensation. Here, it is assumed that the square part including the automobile in FIG. 21A is formed with a field structure and the remaining part is formed with a frame structure.

フィールド構造で形成されている部分と、フレーム構造で形成されている部分が隣接している部分での符号化歪の除去処理をどの様に行なうかを次に説明する。
図21(b)において、コラムC1,C2,C3,C4に含まれるブロックは自動車がある部分に属し、動きがあるためフィールド構造で形成されている一方、コラムC5,C6,C7,C8に含まれるブロックは、自動車のない部分に属し、静止画像で効率が良いフレーム構造で形成されている。なお、この例ではマクロブロックは水平・垂直とも16画素であり、ブロックは水平・垂直とも4画素である。図21(b)において、コラムC4とC5は間隔をあけて示されているが、画像上では隣接している。コラムC3とC4の間にある境界線、及びコラムC5とC6の間にある境界線に対しては、図8(b)で示した符号化歪の除去処理が行なわれる。コラムC4とコラムC5との間にある境界線に対しては、図21(c)に示す様に、まずコラムC5にあるフレーム構造のブロックがフィールド構造のブロックに変換される。この変換は、例えば図21(b)に示すコラムC5の奇数ラインの画素から図21(c)に示すコラムC5のねずみ色の画素からなるブロックに変換し、図21(b)に示すコラムC5の偶数ラインの画素から図21(c)に示す白色の画素からなるコラムC5のブロックに変換する。続いて、コラムC4とC5との間にある境界線に対して図8(b)で示した符号化歪の除去処理が行なわれる。
A description will now be given of how encoding distortion removal processing is performed in a portion formed by the field structure and a portion adjacent to the portion formed by the frame structure.
In FIG. 21 (b), the blocks included in columns C1, C2, C3, and C4 belong to a portion where an automobile is located and are formed in a field structure because of movement, while included in columns C5, C6, C7, and C8. The blocks that belong to the part without the automobile are formed with a frame structure that is efficient for still images. In this example, the macroblock has 16 pixels both horizontally and vertically, and the block has 4 pixels both horizontally and vertically. In FIG. 21 (b), columns C4 and C5 are shown spaced apart, but are adjacent on the image. For the boundary line between the columns C3 and C4 and the boundary line between the columns C5 and C6, the coding distortion removal process shown in FIG. 8B is performed. For the boundary line between the column C4 and the column C5, as shown in FIG. 21 (c), the frame structure block in the column C5 is first converted to the field structure block. This conversion is performed, for example, by converting the pixels on the odd-numbered lines in the column C5 shown in FIG. 21B into blocks composed of the gray-colored pixels in the column C5 shown in FIG. 21C, and the column C5 shown in FIG. The even-line pixels are converted into blocks of column C5 made up of white pixels as shown in FIG. Subsequently, the coding distortion removal processing shown in FIG. 8B is performed on the boundary line between the columns C4 and C5.

この様に、フレーム構造のブロックをフィールド構造のブロックに変換したのは、動きのある場合にフィールド構造のブロックをフレーム構造のブロックにすると垂直方向の画素の相関が失われ、垂直方向の符号化歪の除去処理を行うと不自然な劣化が発生するためである。一方、静止している場合にフレーム構造のブロックをフィールド構造にすると垂直方向の高周波数成分における符号化誤差の抑圧効果は小さくなるが、垂直方向の画素の相関は失われないため不自然な画質劣化が発生しにくい。   As described above, the frame structure block is converted to the field structure block. When the field structure block is changed to the frame structure block in the presence of motion, the vertical pixel correlation is lost and the vertical coding is performed. This is because unnatural degradation occurs when the distortion removal processing is performed. On the other hand, if the frame structure block is a field structure when it is stationary, the effect of suppressing the coding error in the high frequency component in the vertical direction will be reduced, but the correlation between the pixels in the vertical direction will not be lost. Deterioration is difficult to occur.

なお、処理量を減らす(フレームをフィールドに変換するのみ)ためにフレーム構造のブロックをフィールド構造のブロックに変換するとしたが、処理量を考慮せず、つまり、フレームはフィールドに変換し、更にフィールドをフレームに変換するため、先の場合と比べるとフィールドをフレームに変換する分の処理が新たに処理量が増加するが、符号化歪の除去処理の対象となっている(現在デブロックフィルタで画素値を変えようとしている)画素が、フレーム構造のブロック内にあるか、フィールド構造のブロック内にあるかどうかを判断し、符号化歪の除去処理の対象となっている画素が、フィールド構造のブロック内にあれば、フレーム構造のブロックをフィールド構造(符号化歪の除去処理の対象となっている画素を有するブロックの構造のタイプ)のブロックに変換し、符号化歪の除去処理の対象となっている画素が、フレーム構造のブロック内にあれば、フィールド構造のブロックをフレーム構造(符号化歪の除去処理の対象となっている画素を有するブロックの構造のタイプ)のブロックに変換してもよい。   Note that the frame structure block is converted to the field structure block in order to reduce the processing amount (only the frame is converted into the field). However, the processing amount is not considered, that is, the frame is converted into the field, and the field is further converted. Compared with the previous case, the amount of processing for converting the field into a frame is newly increased, but the processing amount is increased. It is determined whether the pixel whose pixel value is to be changed is within a frame structure block or a field structure block, and the pixel that is the target of the coding distortion removal process is the field structure If the block has a frame structure, the block having the frame structure has the field structure (the block having the pixel to be subjected to coding distortion removal processing) If the pixel subject to coding distortion removal processing is within the frame structure block, the field structure block is converted to the frame structure (coding distortion removal processing). May be converted into a block of a type of a block structure having a pixel to be processed.

以下、図22のフローチャートに基づいて、フレーム構造とフィールド構造が混在する場合の動作について説明する。   Hereinafter, the operation in the case where the frame structure and the field structure coexist will be described based on the flowchart of FIG.

インタレース・画像信号列のフレームは、異なる時刻(time instant)で走査される、二つのフィールドで構成される。すなわち、二つのフィールドを1つにまとめたフレーム符号化(フレーム構造の符号化)、または、フィールドを個別に扱うフィールド符号化(フィールド構造の符号化)が可能である。更に、これらの符号化方法は、下記の二つのカテゴリーにグループ分けできる。すなわち、画面全体をフレーム符号化か、フィールド符号化のいずれかできりかえて符号化する固定符号化と、画面を複数の区分に分割し、区分毎にフレーム符号化かフィールド符号化かのいずれかを切り替えて行なう適応符号化である。固定符号化には、フレーム構造に対応したフレーム固定符号化と、フィールド構造に対応したフィールド固定符号化がある。固定符号化では、インタレース・ビデオ・シーケンスは、コンテンツに係わりなくフレーム符号化またはフィールド符号化のいずれかで常に符号化される。他方、適応符号化では、コンテンツにより、または画面により、または画面内の区分単位でフレーム符号化またはフィールド符号化のいずれかの符号化の選択が可能である。画面内の区分は、マクロブロック・レベルまでの細かさで行うことができる。従って、適応符号化では、マクロブロックは、フレーム符号化またはフィールド符号化のいずれかで符号化できることとなる。以下の説明では、マクロブロックを単にブロックと略す。   The frame of the interlaced image signal sequence is composed of two fields that are scanned at different times (time instant). That is, it is possible to perform frame coding (frame structure coding) in which two fields are combined into one, or field coding (field structure coding) that handles fields individually. Furthermore, these encoding methods can be grouped into the following two categories. In other words, either fixed encoding that encodes the entire screen by either frame encoding or field encoding, and the screen is divided into a plurality of sections, and either frame encoding or field encoding is performed for each section. This is adaptive coding performed by switching between the two. The fixed coding includes frame fixed coding corresponding to the frame structure and field fixed coding corresponding to the field structure. In fixed coding, an interlaced video sequence is always coded with either frame coding or field coding regardless of content. On the other hand, in the adaptive coding, it is possible to select either one of frame coding or field coding depending on the content, the screen, or the division unit in the screen. Segmentation within the screen can be done at a granularity down to the macroblock level. Therefore, in adaptive encoding, a macroblock can be encoded by either frame encoding or field encoding. In the following description, a macro block is simply abbreviated as a block.

フレーム符号化されたブロック、すなわちフレーム構造を有するブロックでは、ノンインタレース・ビデオの符号化歪を除去する場合と同様にして符号化歪の除去が行なわれる。フィールド符号化されたブロック、すなわちフィールド構造を有するブロックでは、フィールドが偶数フィールドおよび奇数フィールドに分けられ、各フィールドは、個別の画面として扱われ、各フィールド毎に符号化歪の除去が行なわれる。   In a frame-coded block, that is, a block having a frame structure, the coding distortion is removed in the same manner as in the case of removing the coding distortion of non-interlaced video. In a field-coded block, that is, a block having a field structure, a field is divided into an even field and an odd field, each field is treated as an individual screen, and coding distortion is removed for each field.

ステップ63は、対象ブロックがフィールド符号化されているか、それともフレーム符号化されるかどうかを判断する。ブロックがフィールド符号化されている場合には、ステップ64〜69が実行される。ブロックがフレーム符号化されている場合には、ステップ70〜72が実行される。   Step 63 determines whether the target block is field-encoded or frame-encoded. If the block is field encoded, steps 64-69 are executed. If the block is frame encoded, steps 70-72 are executed.

ステップ64〜66では偶数フィールド構造のブロックが処理され、ステップ67〜69では奇数フィールド構造のブロックが処理される。ステップ64〜66での処理は、図21(b)のコラムC3とC4の間の境界における白色画素間の符号化歪の除去処理に相当する。また、ステップ67〜69での処理は、図21(b)のコラムC3とC4の間の境界におけるねずみ色画素間の符号化歪の除去処理に相当する。
ステップ64で画素間の明るさが比較され、符号化歪の除去が必要かどうかが判断される。ステップ65でフィルタリングすべき画素の数が決定される。ステップ66でフィールドモードで符号化歪の除去が行なわれる。
Steps 64 to 66 process even field structure blocks, and steps 67 to 69 process odd field structure blocks. The processing in steps 64 to 66 corresponds to the processing for removing the coding distortion between white pixels at the boundary between columns C3 and C4 in FIG. The processing in steps 67 to 69 corresponds to the processing for removing the coding distortion between the gray color pixels at the boundary between the columns C3 and C4 in FIG.
In step 64, the brightness between the pixels is compared to determine whether the coding distortion needs to be removed. In step 65, the number of pixels to be filtered is determined. In step 66, coding distortion is removed in the field mode.

ステップ67,68,69では、ステップ64,65,66と同様な処理が行なわれる。
ステップ70〜72ではフレーム構造のブロックが処理される。この処理は、図21(b)のコラムC5とC6の間の境界における符号化歪の除去処理に相当する。ステップ70で画素間の明るさが比較され、符号化歪の除去が必要かどうかが判断される。ステップ71でフィルタリングすべき画素の数が決定される。ステップ72でフレームモードで符号化歪の除去が行なわれる。
ステップ73で全てのブロックが処理されたかどうかが判断され、処理が終了する。
In steps 67, 68 and 69, the same processing as in steps 64, 65 and 66 is performed.
In steps 70 to 72, a block having a frame structure is processed. This processing corresponds to the coding distortion removal processing at the boundary between columns C5 and C6 in FIG. In step 70, the brightness between the pixels is compared to determine whether the coding distortion needs to be removed. In step 71, the number of pixels to be filtered is determined. In step 72, coding distortion is removed in the frame mode.
In step 73, it is determined whether or not all blocks have been processed, and the process ends.

図23は、図22のステップ64と67が一本化された場合を示す。すなわち、偶数フィールドのブロックと奇数フィールドのブロックの両方に対し符号化歪の除去が必要かどうかが判断され、この判断結果に基づき、偶数フィールド、奇数フィールドのブロックが共に符号化歪の除去が行なわれる。これにより、符号化歪の除去処理を簡略化することが可能となる。
図24は、図23のステップ65と68が一本化された場合を示す。すなわち、偶数フィールドのブロックと奇数フィールドのブロックの両方に対し符号化歪を除去すべき画素の数を決定する。この決定に基づき、偶数フィールド、奇数フィールドのブロックの符号化歪の除去が行なわれる。これにより、更に符号化歪の除去処理を簡略化することが可能となる。
FIG. 23 shows a case where steps 64 and 67 of FIG. 22 are unified. That is, it is determined whether the coding distortion needs to be removed from both the even field block and the odd field block. Based on the determination result, both the even field block and the odd field block remove the coding distortion. It is. Thereby, it is possible to simplify the process of removing the coding distortion.
FIG. 24 shows a case where steps 65 and 68 of FIG. 23 are unified. That is, the number of pixels from which coding distortion is to be removed is determined for both the even field block and the odd field block. Based on this determination, the coding distortion of the even field and odd field blocks is removed. Thereby, it is possible to further simplify the process of removing the coding distortion.

図25は、図21(a)に示した様に、ひとつの画面にフレーム符号化のブロックとフィールド符号化のブロックが混在している場合に、フレーム構造のブロックとフィールド構造のブロックが境界線を挟んだ両側にある場合の処理のフローチャートを示す。
ステップ95で、符号化歪の除去を行なうブロックによって挟まれる境界線が、特定の境界線、すなわち境界線の一方側にフレーム構造のブロックがあり、他方側にフィールド構造のブロックがある境界線かどうかが判断される。この判断は、図21(b)におけるコラムC4とC5の間の境界線であるかどうかの判断に相当する。特定の境界線であると判断された場合は、ステップ96に移る。
FIG. 25 shows a boundary line between a frame structure block and a field structure block when a frame coding block and a field coding block are mixed in one screen as shown in FIG. The flowchart of a process in case it exists in the both sides on both sides of is shown.
In step 95, whether the boundary line between the blocks for which coding distortion is removed is a specific boundary line, that is, a boundary line having a frame structure block on one side of the boundary line and a field structure block on the other side. Judgment is made. This determination corresponds to determination of whether or not the boundary line is between the columns C4 and C5 in FIG. If it is determined that the boundary line is a specific boundary line, the process proceeds to step 96.

ステップ96で、境界線の一方側にあるフレーム構造のブロックをフィールド構造のブロックに変換する。この変換は、図21(b)のコラムC5に示すブロックから、図21(c)のコラムC5に示すブロックへの変換に相当する。変換されたブロックを変換ブロックと言う。
ステップ97で、境界線の他方側にあるフィールド構造のブロックと、変換ブロックとの間で符号化歪の除去が必要かどうかが判断される。この判断は、図21(c)におけるコラムC4とC5の間の境界線での判断に相当する。必要と判断されればステップ98に進む。
In step 96, the frame structure block on one side of the boundary is converted to a field structure block. This conversion corresponds to the conversion from the block shown in column C5 in FIG. 21B to the block shown in column C5 in FIG. The converted block is called a conversion block.
In step 97, it is determined whether the coding distortion needs to be removed between the field structure block on the other side of the boundary line and the transform block. This determination corresponds to the determination at the boundary line between columns C4 and C5 in FIG. If it is determined that it is necessary, the routine proceeds to step 98.

ステップ98で、フィルタリングすべき画素の数を決定する。
ステップ99で、フィールドモードで符号化歪の除去が行なわれる。
なお、図25では、適応符号化でフレーム構造とフィールド構造のブロックが隣接する場合にフレーム構造をフィールド構造に変換し、フィールドで符号化歪を除去する例を示したが、逆にフィールド構造をフレーム構造に変換し、フレームで符号化歪を除去してもよい。図25のようにフィールドで符号化歪を除去すれば、動きの速い画像信号でも同じ時刻の画素のみを用いた符号化歪の除去が行われるため不自然な画質劣化がおきにくい利点がある。しかしながら、逆にフレームで符号化歪を除去すると、動きの小さな画像信号では垂直方向の画素相関がフィールドで行うよりも強いため、フールドでデブロックフィルタする場合よりも高周波数成分の劣化が少ないという利点がある。従って、それぞれに利点があり、機器を製造する際に一方を選択するか、もしくは使用者が一方を選択できるようにしてもよい。
In step 98, the number of pixels to be filtered is determined.
In step 99, encoding distortion is removed in the field mode.
FIG. 25 shows an example in which the frame structure is converted to the field structure when the frame structure and the field structure block are adjacent in adaptive coding, and the coding distortion is removed in the field. It may be converted into a frame structure and coding distortion may be removed by the frame. If the coding distortion is removed in the field as shown in FIG. 25, even if the image signal has a fast motion, the coding distortion is removed using only the pixels at the same time, so that there is an advantage that unnatural image quality degradation is unlikely to occur. However, if the coding distortion is removed in the frame, the pixel correlation in the vertical direction is stronger in the image signal with small motion than in the field, so that the high frequency component is less deteriorated than in the case of the deblocking filter in the field. There are advantages. Accordingly, each has advantages, and one may be selected when manufacturing the device, or the user may be able to select one.

更に、適応符号化の場合でも、ブロック単位でなく画面単位で(フレームかフィールドかで)符号化歪の除去処理を決定してもよい。画面単位でデブロックフィルタがフィールドモードもしくはフレームモードの1つとすることで、実装が簡単化できる。フィールドモードもしくはフレームモードのいずれであるかは一方に固定してもよいし、また画面毎に切替可能としてもよい。画面毎に切替可能とするとき、どちらのモードが適切であるかを符号化装置で判断し、復号化装置のデブロックフィルタがどちらのモードで符号化歪の処理をすべきかを示す識別信号を符号列のヘッダ部に含めて伝送してもよい。   Furthermore, even in the case of adaptive coding, coding distortion removal processing may be determined not on a block basis but on a screen basis (by frame or field). Implementation can be simplified by setting the deblock filter to one of the field mode or the frame mode for each screen. Either the field mode or the frame mode may be fixed to one, or may be switched for each screen. When switching is possible for each screen, the encoding device determines which mode is appropriate, and an identification signal indicating in which mode the deblocking filter of the decoding device should perform encoding distortion processing. It may be transmitted by being included in the header part of the code string.

また、ブロック単位でフィールド/フレーム切り換え可能な場合はフィールド単位で符号化歪を除去し、切替不可能(禁止)な場合、例えばピクチャに関する情報(ピクチャパラメータ)において当該ピクチャにおいて切り換え不可とされている場合は、フレーム単位で符号化歪の除去処理をするようにしてもよい。
なお、実施の形態1から実施の形態5で示したデブロックフィルタは図32で示したループ外フィルタとしても図33で示したループ内フィルタとしても使用することができる。
If field / frame switching is possible in block units, coding distortion is removed in field units. If switching is impossible (prohibited), for example, information relating to pictures (picture parameters) cannot be switched in the picture. In this case, encoding distortion removal processing may be performed in units of frames.
Note that the deblocking filters shown in the first to fifth embodiments can be used both as the out-of-loop filter shown in FIG. 32 and the in-loop filter shown in FIG.

ループ内フィルタでは、符号化歪の除去処理を行う前のデータをメモリ64に格納することで、ブロック歪が除去されていない画像が予測画像として参照されることになり、ブロック歪が除去された画像を予測画像として参照する場合よりも僅かに符号化画質が劣化する。一方、ループ外フィルタでは、符号化歪の除去処理の結果は参照画像とならないことから、デブロックフィルタ62として任意のものを実装しても、復号画像が大きく劣化することがない。たとえば、消費電力が優先される携帯機器ではデブロックフィルタ62として少演算量のフィルタを使用し、画質が最優先の娯楽用据え置き機器では高演算量の高精度高画質なフィルタをデブロックフィルタ62として使用することができる。   In the in-loop filter, data before the coding distortion removal processing is stored in the memory 64, so that an image from which block distortion has not been removed is referred to as a predicted image, and the block distortion has been removed. The encoded image quality is slightly deteriorated as compared with the case where an image is referred to as a predicted image. On the other hand, in the out-of-loop filter, the result of the coding distortion removal process is not a reference image, so that even if an arbitrary one is mounted as the deblocking filter 62, the decoded image does not deteriorate greatly. For example, a small-computation amount filter is used as a deblocking filter 62 in a portable device where power consumption is given priority, and a high-precision, high-accuracy, high-quality filter is used as a deblocking filter 62 in an entertainment stationary device where image quality is the highest priority Can be used as

(実施の形態6)
さらに、上記各実施の形態で示した符号化歪除去方法、符号化方法および復号化方法の構成を実現するためのプログラムを、フロッピーディスク等の記憶媒体に記録するようにすることにより、上記各実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。
(Embodiment 6)
Further, by recording a program for realizing the configuration of the encoding distortion removal method, the encoding method, and the decoding method shown in each of the above embodiments on a storage medium such as a floppy disk, The processing shown in the embodiment can be easily performed in an independent computer system.

図26は、上記実施の形態1から実施の形態5の符号化歪除去方法、符号化方法および復号化方法を格納したフロッピーディスクを用いて、コンピュータシステムにより実施する場合の説明図である。   FIG. 26 is an explanatory diagram in the case of implementing by a computer system using a floppy disk storing the encoding distortion removing method, encoding method, and decoding method of the first to fifth embodiments.

図26(b)は、フロッピーディスクの正面からみた外観、断面構造、及びフロッピーディスクを示し、図26(a)は、記録媒体本体であるフロッピーディスクの物理フォーマットの例を示している。フロッピーディスクFDはケースF内に内蔵され、該ディスクの表面には、同心円状に外周からは内周に向かって複数のトラックTrが形成され、各トラックは角度方向に16のセクタSeに分割されている。従って、上記プログラムを格納したフロッピーディスクでは、上記フロッピーディスクFD上に割り当てられた領域に、上記プログラムとしての符号化歪除去方法、符号化方法および復号化方法が記録されている。   FIG. 26B shows an external appearance, a cross-sectional structure, and a floppy disk when viewed from the front of the floppy disk, and FIG. 26A shows an example of a physical format of the floppy disk which is a recording medium body. The floppy disk FD is built in the case F, and on the surface of the disk, a plurality of tracks Tr are formed concentrically from the outer periphery toward the inner periphery, and each track is divided into 16 sectors Se in the angular direction. ing. Therefore, in the floppy disk storing the program, an encoding distortion removing method, an encoding method, and a decoding method as the program are recorded in an area allocated on the floppy disk FD.

また、図26(c)は、フロッピーディスクFDに上記プログラムの記録再生を行うための構成を示す。上記プログラムをフロッピーディスクFDに記録する場合は、コンピュータシステムCsから上記プログラムとしての符号化歪除去方法、符号化方法および復号化方法をフロッピーディスクドライブを介して書き込む。また、フロッピーディスク内のプログラムにより上記符号化歪除去方法、符号化方法および復号化方法をコンピュータシステム中に構築する場合は、フロッピーディスクドライブによりプログラムをフロッピーディスクから読み出し、コンピュータシステムに転送する。   FIG. 26C shows a configuration for recording and reproducing the program on the floppy disk FD. When recording the program on the floppy disk FD, the encoding distortion removing method, the encoding method, and the decoding method as the program are written from the computer system Cs via the floppy disk drive. When the above-described encoding distortion removal method, encoding method, and decoding method are constructed in a computer system by a program in a floppy disk, the program is read from the floppy disk by a floppy disk drive and transferred to the computer system.

なお、上記説明では、記録媒体としてフロッピーディスクを用いて説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、CD−ROM、メモリカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。
さらにここで、上記実施の形態で示した動画像符号化方法や動画像復号化方法の応用例とそれを用いたシステムを説明する。
図27は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示すブロック図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex107〜ex110が設置されている。
In the above description, a floppy disk is used as the recording medium, but the same can be done using an optical disk. Further, the recording medium is not limited to this, and any recording medium such as a CD-ROM, a memory card, and a ROM cassette that can record a program can be similarly implemented.
Furthermore, application examples of the moving picture coding method and the moving picture decoding method shown in the above embodiment and a system using the same will be described.
FIG. 27 is a block diagram showing an overall configuration of a content supply system ex100 that implements a content distribution service. The communication service providing area is divided into desired sizes, and base stations ex107 to ex110, which are fixed wireless stations, are installed in each cell.

このコンテンツ供給システムex100は、例えば、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および基地局ex107〜ex110を介して、コンピュータex111、PDA(personal digital assistant)ex112、カメラex113、携帯電話ex114、カメラ付きの携帯電話ex115などの各機器が接続される。
しかし、コンテンツ供給システムex100は図27のような組合せに限定されず、いずれかを組み合わせて接続するようにしてもよい。また、固定無線局である基地局ex107〜ex110を介さずに、各機器が電話網ex104に直接接続されてもよい。
The content supply system ex100 includes, for example, a computer ex111, a personal digital assistant (PDA) ex112, a camera ex113, a mobile phone ex114, a camera via the Internet ex101, the Internet service provider ex102, the telephone network ex104, and the base stations ex107 to ex110. Each device such as the attached mobile phone ex115 is connected.
However, the content supply system ex100 is not limited to the combination shown in FIG. 27, and any combination may be connected. Also, each device may be directly connected to the telephone network ex104 without going through the base stations ex107 to ex110 which are fixed wireless stations.

カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器である。また、携帯電話は、PDC(Personal Digital Communications)方式、CDMA(Code Division Multiple Access)方式、W−CDMA(Wideband−Code Division Multiple Access)方式、若しくはGSM(Global System for Mobile Communications)方式の携帯電話機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。   The camera ex113 is a device capable of shooting a moving image such as a digital video camera. In addition, the mobile phone is a PDC (Personal Digital Communications) system, a CDMA (Code Division Multiple Access) system, a W-CDMA (Wideband-Code Division Multiple Access) system, or a GSM (Global Mobile System). Alternatively, PHS (Personal Handyphone System) or the like may be used.

また、ストリーミングサーバex103は、カメラex113から基地局ex109、電話網ex104を通じて接続されており、カメラex113を用いてユーザが送信する符号化処理されたデータに基づいたライブ配信等が可能になる。撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするサーバ等で行ってもよい。また、カメラ116で撮影した動画データはコンピュータex111を介してストリーミングサーバex103に送信されてもよい。カメラex116はデジタルカメラ等の静止画、動画が撮影可能な機器である。この場合、動画データの符号化はカメラex116で行ってもコンピュータex111で行ってもどちらでもよい。また、符号化処理はコンピュータex111やカメラex116が有するLSIex117において処理することになる。なお、画像符号化・復号化用のソフトウェアをコンピュータex111等で読み取り可能な記録媒体である何らかの蓄積メディア(CD−ROM、フレキシブルディスク、ハードディスクなど)に組み込んでもよい。さらに、カメラ付きの携帯電話ex115で動画データを送信してもよい。このときの動画データは携帯電話ex115が有するLSIで符号化処理されたデータである。   In addition, the streaming server ex103 is connected from the camera ex113 through the base station ex109 and the telephone network ex104, and live distribution or the like based on the encoded data transmitted by the user using the camera ex113 becomes possible. The encoded processing of the captured data may be performed by the camera ex113, or may be performed by a server or the like that performs data transmission processing. The moving image data shot by the camera 116 may be transmitted to the streaming server ex103 via the computer ex111. The camera ex116 is a device such as a digital camera that can shoot still images and moving images. In this case, the moving image data may be encoded by the camera ex116 or the computer ex111. The encoding process is performed in the LSI ex117 included in the computer ex111 and the camera ex116. Note that image encoding / decoding software may be incorporated into any storage medium (CD-ROM, flexible disk, hard disk, or the like) that is a recording medium readable by the computer ex111 or the like. Furthermore, you may transmit moving image data with the mobile phone ex115 with a camera. The moving image data at this time is data encoded by the LSI included in the mobile phone ex115.

このコンテンツ供給システムex100では、ユーザがカメラex113、カメラex116等で撮影しているコンテンツ(例えば、音楽ライブを撮影した映像等)を上記実施の形態同様に符号化処理してストリーミングサーバex103に送信する一方で、ストリーミングサーバex103は要求のあったクライアントに対して上記コンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114等がある。このようにすることでコンテンツ供給システムex100は、符号化されたデータをクライアントにおいて受信して再生することができ、さらにクライアントにおいてリアルタイムで受信して復号化し、再生することにより、個人放送をも実現可能になるシステムである。   In this content supply system ex100, the content (for example, video shot of music live) taken by the user with the camera ex113, camera ex116, etc. is encoded and transmitted to the streaming server ex103 as in the above embodiment. On the other hand, the streaming server ex103 stream-distributes the content data to the requested client. Examples of the client include a computer ex111, a PDA ex112, a camera ex113, a mobile phone ex114, and the like that can decode the encoded data. In this way, the content supply system ex100 can receive and play back the encoded data at the client, and can also receive a private broadcast by receiving, decoding, and playing back at the client in real time. It is a system that becomes possible.

このシステムを構成する各機器の符号化、復号化には上記各実施の形態で示した動画像符号化装置あるいは動画像復号化装置を用いるようにすればよい。
その一例として携帯電話について説明する。
図28は、上記実施の形態で説明した動画像符号化方法と動画像復号化方法を用いた携帯電話ex115を示す図である。携帯電話ex115は、基地局ex110との間で電波を送受信するためのアンテナex201、CCDカメラ等の映像、静止画を撮ることが可能なカメラ部ex203、カメラ部ex203で撮影した映像、アンテナex201で受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部ex202、操作キーex204群から構成される本体部、音声出力をするためのスピーカ等の音声出力部ex208、音声入力をするためのマイク等の音声入力部ex205、撮影した動画もしくは静止画のデータ、受信したメールのデータ、動画のデータもしくは静止画のデータ等、符号化されたデータまたは復号化されたデータを保存するための記録メディアex207、携帯電話ex115に記録メディアex207を装着可能とするためのスロット部ex206を有している。記録メディアex207はSDカード等のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものである。
For the encoding and decoding of each device constituting this system, the moving image encoding device or the moving image decoding device described in the above embodiments may be used.
A mobile phone will be described as an example.
FIG. 28 is a diagram illustrating the mobile phone ex115 that uses the moving picture coding method and the moving picture decoding method described in the above embodiment. The mobile phone ex115 includes an antenna ex201 for transmitting and receiving radio waves to and from the base station ex110, a video from a CCD camera, a camera unit ex203 capable of taking a still image, a video shot by the camera unit ex203, and an antenna ex201. A display unit ex202 such as a liquid crystal display that displays data obtained by decoding received video and the like, a main body unit composed of a group of operation keys ex204, an audio output unit ex208 such as a speaker for audio output, and audio input To store encoded data or decoded data, such as a voice input unit ex205 such as a microphone, captured video or still image data, received mail data, video data or still image data, etc. Recording media ex207 and mobile phone ex115 with recording media ex207 And a slot portion ex206 to ability. The recording medium ex207 stores a flash memory element which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory) which is a non-volatile memory that can be electrically rewritten and erased in a plastic case such as an SD card.

さらに、携帯電話ex115について図29を用いて説明する。携帯電話ex115は表示部ex202及び操作キーex204を備えた本体部の各部を統括的に制御するようになされた主制御部ex311に対して、電源回路部ex310、操作入力制御部ex304、画像符号化部ex312、カメラインターフェース部ex303、LCD(Liquid Crystal Display)制御部ex302、画像復号化部ex309、多重分離部ex308、記録再生部ex307、変復調回路部ex306及び音声処理部ex305が同期バスex313を介して互いに接続されている。   Further, the cellular phone ex115 will be described with reference to FIG. The cellular phone ex115 controls the main control unit ex311 which is configured to control the respective units of the main body unit including the display unit ex202 and the operation key ex204. The power supply circuit unit ex310, the operation input control unit ex304, and the image encoding Unit ex312, camera interface unit ex303, LCD (Liquid Crystal Display) control unit ex302, image decoding unit ex309, demultiplexing unit ex308, recording / reproducing unit ex307, modulation / demodulation circuit unit ex306, and audio processing unit ex305 via a synchronization bus ex313 Are connected to each other.

電源回路部ex310は、ユーザの操作により終話及び電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付ディジタル携帯電話ex115を動作可能な状態に起動する。
携帯電話ex115は、CPU、ROM及びRAM等でなる主制御部ex311の制御に基づいて、音声通話モード時に音声入力部ex205で集音した音声信号を音声処理部ex305によってディジタル音声データに変換し、これを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex201を介して送信する。また携帯電話機ex115は、音声通話モード時にアンテナex201で受信した受信信号を増幅して周波数変換処理及びアナログディジタル変換処理を施し、変復調回路部ex306でスペクトラム逆拡散処理し、音声処理部ex305によってアナログ音声信号に変換した後、これを音声出力部ex208を介して出力する。
When the end of call and the power key are turned on by the user's operation, the power supply circuit unit ex310 starts up the camera-equipped digital cellular phone ex115 in an operable state by supplying power from the battery pack to each unit. .
The mobile phone ex115 converts the voice signal collected by the voice input unit ex205 in the voice call mode into digital voice data by the voice processing unit ex305 based on the control of the main control unit ex311 including a CPU, ROM, RAM, and the like. The modulation / demodulation circuit unit ex306 performs spectrum spread processing, and the transmission / reception circuit unit ex301 performs digital analog conversion processing and frequency conversion processing, and then transmits the result via the antenna ex201. In addition, the cellular phone ex115 amplifies the received signal received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despreading processing by the modulation / demodulation circuit unit ex306, and analog audio by the voice processing unit ex305 After conversion into a signal, this is output via the audio output unit ex208.

さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キーex204の操作によって入力された電子メールのテキストデータは操作入力制御部ex304を介して主制御部ex311に送出される。主制御部ex311は、テキストデータを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex201を介して基地局ex110へ送信する。   Further, when an e-mail is transmitted in the data communication mode, text data of the e-mail input by operating the operation key ex204 of the main body is sent to the main control unit ex311 via the operation input control unit ex304. The main control unit ex311 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex306, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex301, and then transmits the text data to the base station ex110 via the antenna ex201.

データ通信モード時に画像データを送信する場合、カメラ部ex203で撮像された画像データをカメラインターフェース部ex303を介して画像符号化部ex312に供給する。また、画像データを送信しない場合には、カメラ部ex203で撮像した画像データをカメラインターフェース部ex303及びLCD制御部ex302を介して表示部ex202に直接表示することも可能である。
画像符号化部ex312は、本願発明で説明した画像符号化装置を備えた構成であり、カメラ部ex203から供給された画像データを上記実施の形態で示した画像符号化装置に用いた符号化方法によって圧縮符号化することにより符号化画像データに変換し、これを多重分離部ex308に送出する。また、このとき同時に携帯電話機ex115は、カメラ部ex203で撮像中に音声入力部ex205で集音した音声を音声処理部ex305を介してディジタルの音声データとして多重分離部ex308に送出する。
When transmitting image data in the data communication mode, the image data captured by the camera unit ex203 is supplied to the image encoding unit ex312 via the camera interface unit ex303. When image data is not transmitted, the image data captured by the camera unit ex203 can be directly displayed on the display unit ex202 via the camera interface unit ex303 and the LCD control unit ex302.
The image encoding unit ex312 has a configuration including the image encoding device described in the present invention, and an encoding method using the image data supplied from the camera unit ex203 in the image encoding device described in the above embodiment. The image data is converted into encoded image data by compression encoding, and is sent to the demultiplexing unit ex308. At the same time, the cellular phone ex115 sends the voice collected by the voice input unit ex205 during imaging by the camera unit ex203 to the demultiplexing unit ex308 via the voice processing unit ex305 as digital voice data.

多重分離部ex308は、画像符号化部ex312から供給された符号化画像データと音声処理部ex305から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex201を介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナex201を介して基地局ex110から受信した受信信号を変復調回路部ex306でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部ex308に送出する。
The demultiplexing unit ex308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit ex305 by a predetermined method, and the multiplexed data obtained as a result is a modulation / demodulation circuit unit Spread spectrum processing is performed in ex306, digital analog conversion processing and frequency conversion processing are performed in the transmission / reception circuit unit ex301, and then transmitted through the antenna ex201.
When receiving data of a moving image file linked to a homepage or the like in the data communication mode, the received signal received from the base station ex110 via the antenna ex201 is subjected to spectrum despreading processing by the modulation / demodulation circuit unit ex306, and the resulting multiplexing is obtained. Data is sent to the demultiplexing unit ex308.

また、アンテナex201を介して受信された多重化データを復号化するには、多重分離部ex308は、多重化データを分離することにより画像データの符号化ビットストリームと音声データの符号化ビットストリームとに分け、同期バスex313を介して当該符号化画像データを画像復号化部ex309に供給すると共に当該音声データを音声処理部ex305に供給する。   In addition, in order to decode the multiplexed data received via the antenna ex201, the demultiplexing unit ex308 separates the multiplexed data to generate an encoded bitstream of image data and an encoded bitstream of audio data. The encoded image data is supplied to the image decoding unit ex309 via the synchronization bus ex313, and the audio data is supplied to the audio processing unit ex305.

次に、画像復号化部ex309は、本願発明で説明した画像復号化装置を備えた構成であり、画像データの符号化ビットストリームを上記実施の形態で示した符号化方法に対応した復号化方法で復号することにより再生動画像データを生成し、これをLCD制御部ex302を介して表示部ex202に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる動画データが表示される。このとき同時に音声処理部ex305は、音声データをアナログ音声信号に変換した後、これを音声出力部ex208に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まる音声データが再生される。   Next, the image decoding unit ex309 is configured to include the image decoding apparatus described in the present invention, and a decoding method corresponding to the encoding method described in the above embodiment for an encoded bit stream of image data. To generate playback moving image data, which is supplied to the display unit ex202 via the LCD control unit ex302, thereby displaying, for example, moving image data included in the moving image file linked to the homepage . At the same time, the audio processing unit ex305 converts the audio data into an analog audio signal, and then supplies the analog audio signal to the audio output unit ex208. Thus, for example, the audio data included in the moving image file linked to the home page is reproduced. The

なお、上記システムの例に限られず、最近は衛星、地上波によるディジタル放送が話題となっており、図30に示すようにディジタル放送用システムにも上記実施の形態の少なくとも画像符号化装置または画像復号化装置のいずれかを組み込むことができる。具体的には、放送局ex409では映像情報の符号化ビットストリームが電波を介して通信または放送衛星ex410に伝送される。これを受けた放送衛星ex410は、放送用の電波を発信し、この電波を衛星放送受信設備をもつ家庭のアンテナex406で受信し、テレビ(受信機)ex401またはセットトップボックス(STB)ex407などの装置により符号化ビットストリームを復号化してこれを再生する。また、記録媒体であるCDやDVD等の蓄積メディアex402に記録した符号化ビットストリームを読み取り、復号化する再生装置ex403にも上記実施の形態で示した画像復号化装置を実装することが可能である。この場合、再生された映像信号はモニタex404に表示される。また、ケーブルテレビ用のケーブルex405または衛星/地上波放送のアンテナex406に接続されたセットトップボックスex407内に画像復号化装置を実装し、これをテレビのモニタex408で再生する構成も考えられる。このときセットトップボックスではなく、テレビ内に画像復号化装置を組み込んでも良い。また、アンテナex411を有する車ex412で衛星ex410からまたは基地局ex107等から信号を受信し、車ex412が有するカーナビゲーションex413等の表示装置に動画を再生することも可能である。   It should be noted that the present invention is not limited to the above system, and recently, digital broadcasting using satellites and terrestrial waves has become a hot topic. As shown in FIG. Any of the decoding devices can be incorporated. Specifically, in the broadcasting station ex409, a coded bit stream of video information is transmitted to a communication or broadcasting satellite ex410 via radio waves. Receiving this, the broadcasting satellite ex410 transmits a radio wave for broadcasting, and receives the radio wave with a home antenna ex406 having a satellite broadcasting receiving facility, such as a television (receiver) ex401 or a set top box (STB) ex407. The device decodes the encoded bit stream and reproduces it. In addition, the image decoding apparatus described in the above embodiment can also be implemented in a playback apparatus ex403 that reads and decodes an encoded bitstream recorded on a storage medium ex402 such as a CD or DVD as a recording medium. is there. In this case, the reproduced video signal is displayed on the monitor ex404. Further, a configuration in which an image decoding apparatus is mounted in a set-top box ex407 connected to a cable ex405 for cable television or an antenna ex406 for satellite / terrestrial broadcasting, and this is reproduced on a monitor ex408 of the television is also conceivable. At this time, the image decoding apparatus may be incorporated in the television instead of the set top box. It is also possible to receive a signal from the satellite ex410 or the base station ex107 by the car ex412 having the antenna ex411 and reproduce the moving image on a display device such as the car navigation ex413 that the car ex412 has.

更に、画像信号を上記実施の形態で示した画像符号化装置で符号化し、記録媒体に記録することもできる。具体例としては、DVDディスクex421に画像信号を記録するDVDレコーダや、ハードディスクに記録するディスクレコーダなどのレコーダex420がある。更にSDカードex422に記録することもできる。レコーダex420が上記実施の形態で示した画像復号化装置を備えていれば、DVDディスクex421やSDカードex422に記録した画像信号を再生し、モニタex408で表示することができる。   Further, the image signal can be encoded by the image encoding device shown in the above embodiment and recorded on a recording medium. Specific examples include a recorder ex420 such as a DVD recorder that records image signals on a DVD disk ex421 and a disk recorder that records images on a hard disk. Further, it can be recorded on the SD card ex422. If the recorder ex420 includes the image decoding device described in the above embodiment, the image signal recorded on the DVD disc ex421 or the SD card ex422 can be reproduced and displayed on the monitor ex408.

なお、カーナビゲーションex413の構成は例えば図29に示す構成のうち、カメラ部ex203とカメラインターフェース部ex303、画像符号化部ex312を除いた構成が考えられ、同様なことがコンピュータex111やテレビ(受信機)ex401等でも考えられる。
また、上記携帯電話ex114等の端末は、符号化器・復号化器を両方持つ送受信型の端末の他に、符号化器のみの送信端末、復号化器のみの受信端末の3通りの実装形式が考えられる。
なお、上記実施の形態1から実施の形態6に示した符号化装置、復号化装置等の構成は、説明したものに限られない。
The configuration of the car navigation ex 413 is, for example, the configuration shown in FIG. 29 excluding the camera unit ex 203, the camera interface unit ex 303, and the image encoding unit ex 312, and the same applies to the computer ex 111 and the television (receiver). ) Ex401 can also be considered.
In addition to the transmission / reception type terminal having both the encoder and the decoder, the terminal such as the mobile phone ex114 has three mounting formats, that is, a transmitting terminal having only an encoder and a receiving terminal having only a decoder. Can be considered.
Note that the configurations of the encoding device, the decoding device, and the like described in Embodiments 1 to 6 are not limited to those described.

このように、上記実施の形態で示した動画像符号化方法あるいは動画像復号化方法を上述したいずれの機器・システムに用いることは可能であり、そうすることで、上記実施の形態で説明した効果を得ることができる。   As described above, the moving picture encoding method or the moving picture decoding method described in the above embodiment can be used in any of the above-described devices and systems, and as a result, the above-described embodiment has been described. An effect can be obtained.

本発明は、符号化歪除去方法、動画像符号化方法、動画像復号化方法、およびそれらを実現する装置、プログラムに利用可能である。   The present invention is applicable to a coding distortion removal method, a moving image coding method, a moving image decoding method, and an apparatus and a program for realizing them.

本発明による復号化方法を用いた画像復号化装置のブロック図Block diagram of an image decoding apparatus using a decoding method according to the present invention. 本発明の実施の形態1に係る符号化歪除去方法を用いた符号化歪除去部のブロック図The block diagram of the encoding distortion removal part using the encoding distortion removal method which concerns on Embodiment 1 of this invention. 動き補償ブロックサイズの例を示す図The figure which shows the example of the motion compensation block size 本発明の実施の形態2に係る符号化歪除去方法のフローチャートThe flowchart of the encoding distortion removal method which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る量子化パラメータQPと符号化歪除去の各パラメータ対応を示す図The figure which shows each parameter correspondence of quantization parameter QP and encoding distortion removal which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る符号化歪除去方法におけるフィルタ対象画素数決定のフローチャートFlowchart for determining the number of filter target pixels in the coding distortion removal method according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る符号化歪除去方法におけるフィルタ係数数決定のフローチャートFlowchart for determining the number of filter coefficients in the coding distortion removal method according to Embodiment 2 of the present invention 本発明の実施の形態2に係る符号化歪除去方法を用いた符号化歪除去部のブロック図、及びピクセルの並びを表す図The block diagram of the encoding distortion removal part using the encoding distortion removal method which concerns on Embodiment 2 of this invention, and the figure showing the arrangement | sequence of a pixel 本発明の実施の形態3に係る符号化方法を用いた符号化装置のブロック図The block diagram of the encoding apparatus using the encoding method which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る復号化方法を用いた復号化装置のブロック図Block diagram of a decoding apparatus using a decoding method according to Embodiment 3 of the present invention 本発明の実施の形態4に係る符号化歪除去方法を用いた符号化歪除去部のブロック図The block diagram of the encoding distortion removal part using the encoding distortion removal method which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る符号化歪除去方法における符号化信号Strの構成図Configuration diagram of encoded signal Str in the encoding distortion removing method according to Embodiment 4 of the present invention. ループ・フィルタによるビデオ・エンコーディング処理を示すブロック図Block diagram showing video encoding process with loop filter ビデオ・エンコーディング・ループにおける自動化閾値選択の配置を示すブロック図Block diagram showing the placement of automated threshold selection in a video encoding loop 最適な閾値を見出すためにデータを収集する方法を示したフローチャートA flowchart showing how to collect data to find the optimal threshold 最適な閾値を見出すためにデータを収集する別の方法を示したフローチャートFlow chart showing another way to collect data to find the optimal threshold 最適な閾値を選択する方法を示すフローチャートFlow chart illustrating a method for selecting an optimal threshold デブロック化処理をスキップすることができる同じ境界を共有するブロックの付近を示す図Diagram showing the vicinity of blocks that share the same boundary that can skip the deblocking process 複数画素を含むグループを示す説明図Explanatory drawing which shows the group containing multiple pixels (a)はフレーム構造、(b)はフィールド構造の説明図(A) is a frame structure, (b) is an explanatory diagram of a field structure. (a)は、ひとつのピクチャにフレーム構造とフィールド構造が混在している場合の説明図、(b)、(c)はフレーム構造とフィールド構造の境界部における符号化歪の除去処理のステップを示す説明図(A) is an explanatory diagram when a frame structure and a field structure are mixed in one picture, and (b) and (c) are steps for removing coding distortion at the boundary between the frame structure and the field structure. Illustration showing フレーム構造とフィールド構造が混在している場合の符号化歪の除去処理のフローチャートFlowchart of coding distortion removal processing when frame structure and field structure are mixed 図22においてステップ64と67が統合されたフローチャート22 is a flowchart in which steps 64 and 67 are integrated. 図23においてステップ65と68が統合されたフローチャート23 is a flowchart in which steps 65 and 68 are integrated. フレーム構造のブロックとフィールド構造のブロックが境界線を挟んだ両側にある場合の処理のフローチャートFlowchart of processing when a frame structure block and a field structure block are on both sides of a boundary line 本発明の実施の形態6に関し、実施の形態1から実施の形態2の可変長符号化方法および可変長復号化方法をコンピュータシステムにより実現するためのプログラムを格納するための記憶媒体についての説明図Explanatory drawing about the storage medium for storing the program for implement | achieving the variable length encoding method and variable length decoding method of Embodiment 1-Embodiment 2 by computer system regarding Embodiment 6 of this invention. コンテンツ供給システムの全体構成を示すブロック図Block diagram showing the overall configuration of the content supply system 動画像符号化方法、動画像復号化方法を用いた携帯電話の例Example of mobile phone using moving picture coding method and moving picture decoding method 携帯電話のブロック図Mobile phone block diagram ディジタル放送用システムの例Example of digital broadcasting system 符号化歪除去方法の概念を説明するため、ピクセルの信号レベルを示す図The figure which shows the signal level of a pixel in order to demonstrate the concept of an encoding distortion removal method. 従来の復号化方法を用いた画像復号化装置のブロック図Block diagram of an image decoding apparatus using a conventional decoding method 従来の復号化方法を用いた画像復号化装置のブロック図Block diagram of an image decoding apparatus using a conventional decoding method 従来の符号化歪除去方法を用いた符号化歪除去部のブロック図Block diagram of coding distortion removing unit using conventional coding distortion removing method

符号の説明Explanation of symbols

30 動き検出部
32、60 動き補償部
50 可変長符号化部
52 可変長復号化部
46 コサイン変換部
56 逆コサイン変換部
48 ジグザグスキャン部
54 逆ジグザグスキャン部
38、40、64 メモリ
62 デブロックフィルタ
34、58 加算部
42 減算部
20 画素差分計算部
4 フィルタ対象画素数決定部
6 フィルタ係数決定部
8 フィルタ処理部
22 フィルタ決定パラメータ復号化部
2 動き補償ブロック境界判定部
10a 選択部
10b 選択部
Cs コンピュータ・システム
FD フロッピディスク
FDD フロッピディスクドライブ
30 motion detection units 32, 60 motion compensation units 50 variable length coding unit 52 variable length decoding unit 46 cosine transform unit 56 inverse cosine transform unit 48 zigzag scan unit 54 inverse zigzag scan unit 38, 40, 64 memory 62 deblock filter 34, 58 Addition unit 42 Subtraction unit 20 Pixel difference calculation unit 4 Filter target pixel number determination unit 6 Filter coefficient determination unit 8 Filter processing unit 22 Filter determination parameter decoding unit 2 Motion compensation block boundary determination unit 10a Selection unit 10b Selection unit Cs Computer system FD floppy disk FDD floppy disk drive

Claims (3)

画像から符号化歪を除去する符号化歪除去方法であって、
符号化歪を含む画像から画像パラメータを抽出するステップと
符号化歪を除去する画素を、前記画像パラメータを用いて特定する第1のステップと、
符号化歪を除去する方法を、前記画像パラメータを用いて特定する第2のステップと、
第1のステップで特定した画素に第2のステップで特定した方法で符号化歪を除去する第3のステップと
を備えることを特徴とする符号化歪除去方法。
A coding distortion removing method for removing coding distortion from an image,
Extracting an image parameter from an image including coding distortion; and a first step of specifying a pixel from which coding distortion is removed using the image parameter;
A second step of identifying a method for removing coding distortion using the image parameter;
A coding distortion removing method comprising: a third step of removing coding distortion from the pixel identified in the first step by the method identified in the second step.
画像から符号化歪を除去する符号化歪除去方法であって、ブロック単位で符号化歪を除去するか否かを判断し、前記判断によって除去すべきブロックについて更に画素毎に符号化歪を除去すべきか否かを判断して符号化歪除去処理を行う画素を決定する符号化歪除去方法。   A coding distortion removal method for removing coding distortion from an image, which determines whether or not to remove coding distortion in units of blocks, and further removes coding distortion for each pixel in the block to be removed based on the above determination. An encoding distortion removal method for determining a pixel to be subjected to an encoding distortion removal process by determining whether or not to perform an encoding distortion. 複数のマクロブロックに分割された画像を符号化して符号化画像を生成し、該符号化画像を参照画像として復号化した復号化画像の符号化歪を除去する符号化歪除去方法であって、
動き補償ブロックの画素サイズが前記マクロブロックの画素サイズより小さく、かつ、前記動き補償ブロックの画素サイズが符号化単位の画素サイズよりも大きい場合であって、前記マクロブロックの内部に位置する隣接する2つの動き補償ブロックの差分画像が所定値以下あるいは0の場合には、
前記2つの動き補償ブロックの各々の内部のブロック境界では符号化歪を除去せず、
前記2つの動き補償ブロック間のブロック境界では符号化歪を除去する、
ことを特徴とする符号化歪除去方法。
An encoding distortion removal method for generating an encoded image by encoding an image divided into a plurality of macroblocks, and removing an encoding distortion of a decoded image obtained by decoding the encoded image as a reference image,
The pixel size of the motion compensation block is smaller than the pixel size of the macro block, and the pixel size of the motion compensation block is larger than the pixel size of the coding unit, and is adjacent to the macro block. When the difference image between the two motion compensation blocks is less than a predetermined value or 0,
The coding distortion is not removed at the block boundary inside each of the two motion compensation blocks,
Remove coding distortion at the block boundary between the two motion compensation blocks;
And a coding distortion removing method.
JP2006351968A 2001-11-29 2006-12-27 Method for removing coding distortion Pending JP2007143178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006351968A JP2007143178A (en) 2001-11-29 2006-12-27 Method for removing coding distortion

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US33376301P 2001-11-29 2001-11-29
US33376701P 2001-11-29 2001-11-29
JP2002008859 2002-01-17
JP2002110748 2002-04-12
JP2002127101 2002-04-26
US39431202P 2002-07-09 2002-07-09
JP2002291264 2002-10-03
JP2006351968A JP2007143178A (en) 2001-11-29 2006-12-27 Method for removing coding distortion

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005304495A Division JP4009650B2 (en) 2001-11-29 2005-10-19 Encoding distortion removal method, moving image encoding method, moving image decoding method, and apparatus and program for realizing the same

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2007255078A Division JP4105218B2 (en) 2001-11-29 2007-09-28 Receiver and transmitter
JP2008119555A Division JP4562785B6 (en) 2001-11-29 2008-05-01 Encoding distortion removal method

Publications (1)

Publication Number Publication Date
JP2007143178A true JP2007143178A (en) 2007-06-07

Family

ID=38205380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006351968A Pending JP2007143178A (en) 2001-11-29 2006-12-27 Method for removing coding distortion

Country Status (1)

Country Link
JP (1) JP2007143178A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009077240A (en) * 2007-09-21 2009-04-09 Hitachi Ltd Image processing apparatus and image processing method
JP2009081544A (en) * 2007-09-25 2009-04-16 Fujitsu Microelectronics Ltd Filter strength setting device and filter strength setting method
WO2011074357A1 (en) * 2009-12-18 2011-06-23 シャープ株式会社 Image filter, encoding device, decoding device, and data structure

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009077240A (en) * 2007-09-21 2009-04-09 Hitachi Ltd Image processing apparatus and image processing method
JP2009081544A (en) * 2007-09-25 2009-04-16 Fujitsu Microelectronics Ltd Filter strength setting device and filter strength setting method
WO2011074357A1 (en) * 2009-12-18 2011-06-23 シャープ株式会社 Image filter, encoding device, decoding device, and data structure
JPWO2011074357A1 (en) * 2009-12-18 2013-04-25 シャープ株式会社 Image filter, encoding device, decoding device, and data structure
US9514519B2 (en) 2009-12-18 2016-12-06 Sharp Kabushiki Kaisha Image filter
US9641865B2 (en) 2009-12-18 2017-05-02 Sharp Kabushiki Kaisha Method for decoding moving images

Similar Documents

Publication Publication Date Title
JP5469761B2 (en) Encoding distortion removal method
KR100958982B1 (en) Coding distortion removal method
KR100973909B1 (en) Semiconductor for removing coding distortion
JP2007143178A (en) Method for removing coding distortion
JP4009650B2 (en) Encoding distortion removal method, moving image encoding method, moving image decoding method, and apparatus and program for realizing the same
JP4562785B6 (en) Encoding distortion removal method
JP4105218B2 (en) Receiver and transmitter
JP3769534B6 (en) Decryption method
JP3769534B2 (en) Decryption method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070928

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080403