JP2004159311A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2004159311A JP2004159311A JP2003350076A JP2003350076A JP2004159311A JP 2004159311 A JP2004159311 A JP 2004159311A JP 2003350076 A JP2003350076 A JP 2003350076A JP 2003350076 A JP2003350076 A JP 2003350076A JP 2004159311 A JP2004159311 A JP 2004159311A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- distribution coefficient
- value
- filter
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
本発明は、復号画像に対してフィルタ処理を施すことによって、画像中のエッジおよびテクスチャをぼかすことなく、ブロック符号化によって生じたモスキートノイズを有効に除去した復元画像を生成するための画像処理装置および画像処理方法に関する。 The present invention provides an image processing apparatus for generating a restored image in which mosquito noise generated by block coding is effectively removed by applying a filtering process to a decoded image without blurring edges and textures in the image. And an image processing method.
近年、デジタルスチルカメラ(Digital Still Camera)が普及し、デジタルスチルカメラによって風景や人物などの画像(静止画)を撮影するのが一般化しつつある。ところが、デジタル化された画像のデータ量は非常に大きい。このようにデータ量が大きい画像をそのままICメモリなどの記憶媒体に保存したり、インターネットやLANなどの伝送媒体で伝送したりすると、記憶媒体にわずかな枚数しか保存できなくなったり、伝送媒体における伝送時間が長くなることになる。このため、画像を扱う上では、圧縮技術が必須となる。 2. Description of the Related Art In recent years, digital still cameras (Digital Still Cameras) have become widespread, and the use of digital still cameras to capture images (still images) of landscapes, people, and the like is becoming common. However, the data amount of a digitized image is very large. When an image having a large data amount is stored as it is in a storage medium such as an IC memory or transmitted through a transmission medium such as the Internet or a LAN, only a small number of images can be stored in the storage medium, Time will be longer. For this reason, a compression technique is essential for handling images.
画像データを高圧縮する必要がある場合、一般的に、原画像と復号画像が完全には一致しない非可逆画像圧縮方式が用いられる。非可逆画像圧縮方式の多くは、画像データをM×N画素単位のブロックに分割し、各ブロックにおいて直交変換を行った後、直交変換係数を量子化して符号化する方式を採用している。この代表的な方式の一つに、カラー静止画像圧縮方式として広く普及しているJPEGがある。 When image data needs to be highly compressed, an irreversible image compression method in which the original image and the decoded image do not completely match is generally used. Many irreversible image compression methods employ a method in which image data is divided into blocks of M × N pixels, and orthogonal transformation is performed in each block, and then orthogonal transformation coefficients are quantized and encoded. One of the typical methods is JPEG, which is widely used as a color still image compression method.
図15は、JPEGの符号化装置および復号化装置の機能構成を示すブロック図である。
符号化装置60は、原画像をJPEG圧縮データに圧縮するものであって、図15に示されるように、前処理部61と、DCT変換部62と、量子化部63と、量子化テーブル64と、エントロピー符号化部65とを備える。復号化装置70は、JPEG圧縮データを復号画像に伸張するものであって、図15に示されるように、エントロピー復号化部71と、逆量子化部72と、逆量子化テーブル73と、逆DCT変換部74と、後処理部75とを備える。
FIG. 15 is a block diagram illustrating a functional configuration of a JPEG encoding device and a JPEG decoding device.
The
符号化装置60においてJPEGの符号化処理を行う場合、まず、前処理部61は、Red(R)、Green(G)、Blue(B)の多値データで構成される原画像の各画素のデータを、輝度成分(Y)と、色差成分(Cr,Cb)とのデータに変換する。
次に、DCT変換部62は、YCbCrデータを8×8画素単位のブロック毎に離散コサイン変換(DCT)を行い、DCT係数を算出する。
When performing the JPEG encoding process in the
Next, the
次に、量子化部63は、DCT係数の量子化を行う。このとき、DCT係数の各成分は、量子化テーブル64にしたがって、それぞれ異なるステップ幅で量子化される。
最後に、エントロピー符号化部65は、量子化されたDCT係数の符号化を行い、JPEG圧縮データを生成する。JPEGの標準方式では、エントロピー符号化としてハフマン符号を用いている。
Next, the
Lastly, the
以上の処理が、画像データからJPEG圧縮データへの符号化処理の概要である。このようにして生成されたJPEG圧縮データは、記憶媒体(例えば、SDカード)や伝送媒体を介して復号化装置70に渡される。
次に、JPEG圧縮データから復号画像への復号化処理の手順について説明する。
復号化装置70においてJPEGの復号化処理を行う場合、まず、エントロピー復号化部71は、JPEG圧縮データに対してエントロピー復号化を行う。
The above processing is the outline of the encoding processing from image data to JPEG compressed data. The JPEG compressed data generated in this way is passed to the
Next, a procedure of a decoding process from JPEG compressed data to a decoded image will be described.
When the
次に、逆量子化部72は、逆量子化を行う。このとき、符号化時に使用した量子化テーブル64の情報をJPEG圧縮データから読み取り、逆量子化テーブル73として使用する。
次に、逆DCT変換部74は、逆離散コサイン変換(IDCT)を行い、DCT係数をYCbCrデータの復号画像に変換する。
最後に、後処理部75は、YCbCrデータからRGBデータへの変換処理を行うことによって、復号画像を得る。
Next, the
Next, the
Finally, the
以上が、JPEGに関する符号化処理および復号化処理の概要である。
上記のように、JPEGの符号化処理の過程にはDCT係数の量子化が含まれている。このため、量子化誤差によってデータの劣化が発生する。この結果、プリンタなどで復号画像をそのまま用紙上に再現すると、この劣化が復号画像のノイズとして現れる。ブロック符号化を行う動画圧縮の場合にもこれらのノイズは目障りになるが、静止画の場合は特にじっくり見ることが可能なので細部のノイズも目立つ。
The above is the outline of the encoding process and the decoding process regarding JPEG.
As described above, the process of JPEG encoding includes quantization of DCT coefficients. For this reason, data degradation occurs due to the quantization error. As a result, if the decoded image is directly reproduced on paper by a printer or the like, this deterioration appears as noise in the decoded image. Even in the case of moving image compression using block coding, these noises are annoying, but in the case of a still image, particularly detailed noise can be noticeable because it can be seen carefully.
復号画像に生じるノイズのうち、視覚的な悪影響を及ぼすものに、モスキートノイズと呼ばれるノイズがある。モスキートノイズとは、復号画像のエッジ周辺に発生する弱い階調の揺らぎのことをいう。これは、DCT係数の量子化によって高周波成分の多くが欠落したことにより、原画像に存在していた強いエッジが正確に再現されないことに起因している。 Among the noises that occur in the decoded image, those that have a visual adverse effect include noise called mosquito noise. The mosquito noise refers to fluctuation of a weak gradation that occurs around an edge of a decoded image. This is because strong edges that existed in the original image were not accurately reproduced due to the fact that many of the high-frequency components were lost due to the quantization of the DCT coefficients.
このようなノイズを除去するため、図16に示されるように、復号画像に対してフィルタ処理を行い、モスキートノイズを除去した復元画像を生成する画像処理装置100が、従来から考えられている。なお、フィルタ処理の手法として数多くのフィルタ処理が提案されているが、その1つとして、エッジのぼけを抑えてノイズを除去することが可能な新しいフィルタ処理として、式(1)で示されるSUSANフィルタがある(例えば、非特許文献1参照。)。なお、この技術を、以下「第1の従来技術」とも記す。
In order to remove such noise, as shown in FIG. 16, an
但し、
である。
However,
It is.
ここで、式(1)〜式(4)において、(x,y)は注目画素の位置を表しており、(i,j)は注目画素に対する各周辺画素の相対位置を表しており、f(x,y)は復号画像における注目画素の画素値を表しており、f(x+i,y+j)は復号画像における各周辺画素の画素値を表しており、g(x,y)はフィルタ処理後の注目画素の画素値を表している。また、αx,y(i,j)は、注目画素(x,y)に対する各周辺画素(i,j)のフィルタ係数を表しており、第1フィルタ係数α1x,y(i,j)と、第2フィルタ係数α2x,y(i,j)との積によって算出される。ここで、第1フィルタ係数α1x,y(i,j)は、注目画素との距離が近い周辺画素ほどフィルタ係数が大きくなるように設計されており、第2フィルタ係数α2x,y(i,j)は、注目画素の画素値に近い画素値を有する周辺画素ほどフィルタ係数が大きくなるように設計されている。 Here, in Expressions (1) to (4), (x, y) represents the position of the target pixel, (i, j) represents the relative position of each peripheral pixel with respect to the target pixel, and f (X, y) represents the pixel value of the pixel of interest in the decoded image, f (x + i, y + j) represents the pixel value of each peripheral pixel in the decoded image, and g (x, y) after filtering. Represents the pixel value of the pixel of interest. Α x, y (i, j) represents a filter coefficient of each peripheral pixel (i, j) with respect to the target pixel (x, y), and the first filter coefficient α1 x, y (i, j) And the second filter coefficient α2 x, y (i, j). Here, the first filter coefficient α1 x, y (i, j) is designed such that the filter coefficient becomes larger as the peripheral pixel is closer to the target pixel, and the second filter coefficient α2 x, y (i , J) are designed such that the filter coefficient increases as the peripheral pixel has a pixel value closer to the pixel value of the target pixel.
なお、σは注目画素から各周辺画素までの距離が第1フィルタ係数α1x,y(i,j)に与える影響を調節するパラメータであり、tは注目画素と周辺画素との画素値の差分値が第2フィルタ係数α2x,y(i,j)に与える影響を調節するパラメータである。
このフィルタの最大の特徴は、第2フィルタ係数α2x,y(i,j)の算出方法にある。
Here, σ is a parameter for adjusting the influence of the distance from the target pixel to each peripheral pixel on the first filter coefficient α1 x, y (i, j), and t is the difference between the pixel value of the target pixel and the peripheral pixel. This parameter adjusts the effect of the value on the second filter coefficient α2 x, y (i, j).
The greatest feature of this filter lies in the method of calculating the second filter coefficient α2 x, y (i, j).
ここで、注目画素の画素値と各周辺画素の画素値との差分値と、この差分値から算出される第2フィルタ係数α2x,y(i,j)の値との関係を図17に示す。
この図17からわかるように、周辺画素の画素値が注目画素の画素値に近い場合には、第2フィルタ係数α2x,y(i,j)に大きな値が設定され、逆に、周辺画素の画素値が注目画素の画素値と大きく異なる場合には、第2フィルタ係数α2x,y(i,j)に小さな値が設定される。
Here, FIG. 17 shows the relationship between the difference value between the pixel value of the target pixel and the pixel value of each peripheral pixel, and the value of the second filter coefficient α2 x, y (i, j) calculated from the difference value. Show.
As can be seen from FIG. 17, when the pixel value of the peripheral pixel is close to the pixel value of the target pixel, a large value is set to the second filter coefficient α2 x, y (i, j), and conversely, Is significantly different from the pixel value of the target pixel, a small value is set to the second filter coefficient α2 x, y (i, j).
ここで、パラメータtに大きな値を設定すると、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対しても大きいフィルタ係数が設定されるため、強く平滑化処理することに対応している。逆に、パラメータtに小さな値を設定すると、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されることから、弱く平滑化処理することに対応している。このため、SUSANフィルタを適用する場合には、予め処理の目的に応じてパラメータtを最適な一定の値に設定しておく必要がある。 Here, when a large value is set for the parameter t, a large filter coefficient is set for peripheral pixels having a pixel value relatively different from the pixel value of the target pixel, which corresponds to strong smoothing processing. ing. Conversely, when a small value is set for the parameter t, a small filter coefficient is set for peripheral pixels having a pixel value very close to the pixel value of the target pixel. I have. Therefore, when the SUSAN filter is applied, it is necessary to set the parameter t to an optimum constant value in advance according to the purpose of the processing.
このSUSANフィルタを用いて、モスキートノイズを除去する場合について考える。
前述したように、モスキートノイズは強いエッジの周辺に弱い階調の揺らぎとして発生する。
図18は、エッジとモスキートノイズの関係を模式的に表した図である。なお、SUSANフィルタのパラメータtの値は、エッジの階調変化に比べて十分小さく、なおかつ、モスキートノイズの階調変化に比べて十分大きく設定されているものとする。ここで、モスキートノイズ部分の画素に対してSUSANフィルタを適用すると、第2フィルタ係数α2x,y(i,j)の効果によって、注目画素の画素値と大きく異なる画素値を持つエッジ部分の画素には非常に小さなフィルタ係数が設定されるため、実質的にフィルタ処理にはほとんど影響を与えることがなく、注目画素の画素値に近い画素値を持つ注目画素近傍のモスキートノイズ部分の画素に対してのみ大きなフィルタ係数が設定されてフィルタ処理が行われる。このため、エッジをぼかすことなく、なおかつ、モスキートノイズを有効に除去することができる。
Consider a case in which mosquito noise is removed using this SUSAN filter.
As described above, mosquito noise occurs as a fluctuation of a weak gradation around a strong edge.
FIG. 18 is a diagram schematically illustrating a relationship between an edge and mosquito noise. It is assumed that the value of the parameter t of the SUSAN filter is set sufficiently smaller than the gradation change of the edge and sufficiently larger than the gradation change of the mosquito noise. Here, when the SUSAN filter is applied to the pixel in the mosquito noise portion, the pixel in the edge portion having a pixel value greatly different from the pixel value of the target pixel due to the effect of the second filter coefficient α2 x, y (i, j). , A very small filter coefficient is set, so that there is substantially no effect on the filtering process, and a pixel in the mosquito noise portion near the target pixel having a pixel value close to the pixel value of the target pixel is set. Only when a large filter coefficient is set, filter processing is performed. Therefore, mosquito noise can be effectively removed without blurring edges.
以上の考察から、エッジの鮮鋭度を保持してモスキートノイズを除去するには、注目画素の画素値と周辺画素の画素値との差分値に基づいてフィルタ係数を決定するフィルタ処理が非常に有効であると考えられる。 From the above considerations, in order to remove the mosquito noise while maintaining the sharpness of the edge, it is very effective to use the filter processing for determining the filter coefficient based on the difference between the pixel value of the target pixel and the pixel values of the peripheral pixels. It is considered to be.
また、複数のブロックに分割された画像データから、各ブロック毎にノイズを除去する画像処理装置であって、ブロック毎の画像データをもとに、ブロック毎に隣接画素間の差分値の頻度分布を求め、頻度分布に基づいてブロック毎にエッジが含まれるか否かを判別する判別部と、判別部により判別された結果をもとに、ノイズを除去するブロックを選択する選択部とを備える画像処理装置が、従来から考えられている(特許文献1参照。)。なお、この技術を、以下「第2の従来技術」とも記す。 An image processing apparatus for removing noise for each block from image data divided into a plurality of blocks, wherein a frequency distribution of a difference value between adjacent pixels for each block based on the image data for each block And a selection unit that selects a block from which noise is to be removed based on a result determined by the determination unit based on a frequency distribution. 2. Description of the Related Art An image processing apparatus has been conventionally considered (see Patent Document 1). Note that this technology is also referred to as “second conventional technology” below.
このような第2の従来技術によれば、図19に示されるようにエッジを含むブロックにおいてはフィルタ(εフィルタ)処理が施され、エッジを含まないブロックではフィルタ処理を施さないため、簡便な処理で、不要なモスキートを除去するとともに、テクスチャのぼけを防止することができる。
しかしながら、第1の従来技術によれば、モスキートノイズを除去するためにSUSANフィルタを使用すると、図20に示されるように、看板の領域に生じたモスキートノイズを除去してもエッジがぼけないという顕著な効果があるものの、木々の葉のようなテクスチャ領域において非常に大きなぼけが発生するという課題がある。これは、モスキートノイズを有効に除去するには、パラメータtの値を、モスキートノイズの階調変化の大きさに比べて十分大きな値に設定する必要があるが、このようなパラメータtを用いてテクスチャの領域をフィルタ処理すると、原画像から存在していたテクスチャの階調変化まで除去されてしまうことに起因していた。 However, according to the first conventional technique, when a SUSAN filter is used to remove mosquito noise, as shown in FIG. 20, the edge is not blurred even if mosquito noise generated in the signboard area is removed. Although there is a remarkable effect, there is a problem that a very large blur occurs in a texture region such as a leaf of a tree. This is because, in order to effectively remove mosquito noise, it is necessary to set the value of the parameter t to a value sufficiently larger than the magnitude of the gradation change of the mosquito noise. This is because when a texture region is filtered, even a gradation change of the existing texture from the original image is removed.
一方、第2の従来技術によれば、モスキートノイズの除去効果を損なうことなく、テクスチャのぼけを抑制できるものの、弱いエッジにおいてはフィルタ処理が施されないため、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりする新たな問題点が発生することになる。
そこで、本発明では、モスキートノイズの除去効果を損なうことなく、エッジとテクスチャの両方のぼけを抑え、しかも、弱いエッジにおいても、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりすることを防止した画像処理装置および画像処理方法を提供することを目的とする。
On the other hand, according to the second conventional technique, although blurring of the texture can be suppressed without impairing the mosquito noise removal effect, the mosquito noise remains because the filtering processing is not performed on the weak edge, or the mosquito noise remains. There is a new problem that the image quality changes drastically without it.
Therefore, in the present invention, blurring of both edges and textures is suppressed without impairing the mosquito noise removal effect, and even on weak edges, mosquito noise remains or the image quality becomes extremely poor without edges. It is an object of the present invention to provide an image processing apparatus and an image processing method that prevent the image processing from being changed.
上記問題点を解決するために、本発明に係る画像処理装置においては、多値画像をM×N画素単位のブロック毎に符号化して得られた圧縮データを復号化して得られた復号画像に、ノイズを除去するためのフィルタ処理を行って復元画像を生成する画像処理装置であって、前記復号画像を構成する各画素に対してそれぞれ設定されたフィルタ処理領域内における注目画素の画素値と、周辺画素の画素値との差分値を算出する差分値算出手段と、各前記画素における画素値の分布係数を算出する分布係数算出手段と、前記差分値算出手段によって算出された前記差分値と、前記分布係数算出手段によって算出された前記分布係数とに基づいて、前記周辺画素に対するフィルタ係数を算出するフィルタ係数算出手段と、前記フィルタ係数算出手段によって算出された前記フィルタ係数を用いて、前記復号画像における注目画素の画素値に対してフィルタ処理を行い、復元画像における注目画素の画素値を算出するフィルタ処理手段とを備えることを特徴とする。 In order to solve the above problems, in the image processing apparatus according to the present invention, a multi-valued image is decoded into a decoded image obtained by decoding compressed data obtained by encoding each block of M × N pixels. An image processing apparatus for generating a restored image by performing a filter process for removing noise, wherein a pixel value of a pixel of interest in a filter processing region set for each of the pixels constituting the decoded image. A difference value calculation unit that calculates a difference value between the pixel value of the peripheral pixel, a distribution coefficient calculation unit that calculates a distribution coefficient of a pixel value of each of the pixels, and the difference value calculated by the difference value calculation unit. Filter coefficient calculating means for calculating a filter coefficient for the peripheral pixel based on the distribution coefficient calculated by the distribution coefficient calculating means, and the filter coefficient calculating means Filter processing means for performing filter processing on the pixel value of the pixel of interest in the decoded image using the calculated filter coefficient, and calculating the pixel value of the pixel of interest in the restored image. .
ここでは、前記分布係数が大きいほどエッジに影響を及ぼさない範囲でフィルタ係数が大きくなるようにする。このようにすることにより、エッジを含むフィルタ処理領域では、分布係数の値が大きいため、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対しても大きいフィルタ係数が設定されて強い平滑化が行われ、エッジをぼかすことなく、なおかつ、モスキートノイズを有効に除去することができる。一方、前記分布係数が小さいほどフィルタ係数が小さくなるようにする。このようにすることにより、エッジを含まないテクスチャなどのフィルタ処理領域では、分布係数の値が小さいため、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されて弱い平滑化が行われ、ぼけの発生を抑制することができる。しかも、従来のようにフィルタ処理を行うブロックと行わないブロックとに分けるような処理でなく、全ての画素に対して適切なフィルタ処理が行われるので、モスキートノイズが残ってしまったり、エッジを含むブロックと含まないブロックとで画質が極端に変化してしまったりする事態を確実に防止することができる。 Here, the larger the distribution coefficient, the larger the filter coefficient within a range that does not affect the edge. By doing so, in the filter processing region including the edge, since the value of the distribution coefficient is large, a large filter coefficient is set for peripheral pixels having a pixel value relatively different from the pixel value of the target pixel. Strong smoothing is performed, and mosquito noise can be effectively removed without blurring edges. On the other hand, the smaller the distribution coefficient, the smaller the filter coefficient. In this way, in a filter processing area such as a texture that does not include an edge, since the value of the distribution coefficient is small, a small filter coefficient is set to a peripheral pixel having a pixel value very close to the pixel value of the target pixel. Then, weak smoothing is performed, and occurrence of blur can be suppressed. In addition, since appropriate filtering is performed on all pixels instead of processing that separates blocks into blocks that do not perform filtering and blocks that do not perform filtering as in the past, mosquito noise remains or includes edges. It is possible to reliably prevent a situation in which the image quality is extremely changed between the block and the block not included.
具体的には、本発明に係る画像処理装置においては、前記分布係数算出手段は、各前記画素における画素値の分布係数を前記ブロック毎に算出することを特徴とする構成としてもよい。
これにより、前記ブロック毎に画素値の分布係数を簡単に算出することができ、全ての画素に対して適切なフィルタ処理を行うことができる。
Specifically, the image processing apparatus according to the present invention may be configured such that the distribution coefficient calculation means calculates a distribution coefficient of a pixel value of each of the pixels for each of the blocks.
This makes it possible to easily calculate the distribution coefficient of the pixel value for each of the blocks, and to perform an appropriate filtering process on all the pixels.
また、本発明に係る画像処理装置においては、前記分布係数算出手段は、前記ブロック毎に画素値の分布係数を算出し、算出されたブロックにおける画素値の分布係数と、当該ブロックに隣接する周囲のブロックにおける画素値の分布係数とを補間して各画素における画素値の補間分布係数を算出し、算出した補間分布係数を各前記画素における画素値の分布係数として用いることを特徴とする構成とすることもできる。
これによって、ブロック境界においても分布係数が連続的に変化するので、平滑化の強さが連続的に変化するフィルタ処理を実現することができる。
Further, in the image processing device according to the present invention, the distribution coefficient calculating means calculates a distribution coefficient of a pixel value for each block, and calculates a distribution coefficient of a pixel value in the calculated block and a surrounding coefficient adjacent to the block. Calculating a pixel value interpolation distribution coefficient for each pixel by interpolating the pixel value distribution coefficient for each block, and using the calculated interpolation distribution coefficient as a pixel value distribution coefficient for each pixel. You can also.
As a result, since the distribution coefficient changes continuously even at the block boundary, it is possible to realize a filtering process in which the smoothing strength changes continuously.
さらに、本発明に係る画像処理装置においては、前記分布係数算出手段は、所定のエッジ影響度算出領域における前記周辺画素のエッジ強度を算出するエッジ強度算出手段と、前記エッジ強度算出手段が算出した前記周辺画素のエッジ強度と、前記注目画素と前記周辺画素との距離とに基づいて注目画素に対するエッジ影響度を算出し、算出したエッジ影響度の最大値を各前記画素の画素値の分布係数として算出する最大エッジ影響度算出手段とを備えることを特徴とする構成とすることもできる。 Further, in the image processing device according to the present invention, the distribution coefficient calculation unit calculates the edge strength of the peripheral pixels in a predetermined edge influence calculation area, and the edge strength calculation unit calculates the edge strength. Calculating an edge influence on the target pixel based on the edge strength of the peripheral pixel and the distance between the target pixel and the peripheral pixel, and calculating the maximum value of the calculated edge influence on the distribution coefficient of the pixel value of each pixel And a maximum edge influence degree calculating means that calculates the degree of influence.
これによって、ブロック境界がわからない場合であっても、周辺画素のエッジ強度と、注目画素と周辺画素との距離とに基づいて分布係数が連続的に変化するので、平滑化の強さが連続的に変化するフィルタ処理を実現することができる。
ここで、前記分布係数算出手段は、前記ブロック内における画素値の最大値から最小値を減算した差分値を、当該ブロックの画素値の分布係数として算出することを特徴としてもよい。
As a result, even when the block boundary is unknown, the distribution coefficient changes continuously based on the edge strength of the peripheral pixel and the distance between the pixel of interest and the peripheral pixel. Can be realized.
Here, the distribution coefficient calculation means may calculate a difference value obtained by subtracting a minimum value from a maximum value of pixel values in the block as a distribution coefficient of pixel values of the block.
これによって、分布係数を簡単に求めることができる。
また、前記分布係数算出手段は、前記ブロック内における平均画素値からの分散値を、当該ブロックの画素値の分布係数として算出することを特徴とすることもできる。
これによっても、分布係数を簡単に求めることができる。
Thus, the distribution coefficient can be easily obtained.
Further, the distribution coefficient calculating means may calculate a variance value from an average pixel value in the block as a distribution coefficient of a pixel value of the block.
This also allows the distribution coefficient to be easily obtained.
また、前記分布係数算出手段は、前記ブロック内における最大エッジ強度を、当該ブロックの画素値の分布係数として算出することを特徴とすることもできる。
これによっても、分布係数を簡単に求めることができる。
Further, the distribution coefficient calculation means may calculate a maximum edge intensity in the block as a distribution coefficient of a pixel value of the block.
This also allows the distribution coefficient to be easily obtained.
なお、本発明は、このような画像処理装置として実現することができるだけでなく、このような画像処理装置が備える特徴的な手段をステップとする画像処理方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのはいうまでもない。 Note that the present invention can be realized not only as such an image processing apparatus, but also as an image processing method in which the characteristic means of such an image processing apparatus are implemented as steps. As a program to be executed. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
以上の説明から明らかなように、本発明に係る画像処理装置によれば、エッジを含むフィルタ処理領域では、分布係数の値が大きいため、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対しても大きいフィルタ係数が設定されて強い平滑化が行われ、モスキートノイズを有効に除去することができる。一方、エッジを含まないテクスチャなどのフィルタ処理領域では、分布係数の値が小さいため、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されて弱い平滑化が行われ、ぼけの発生を抑制することができる。しかも、従来のようにフィルタ処理を行うブロックと行わないブロックとに分けるような処理でなく、全ての画素に対して適切なフィルタ処理が行われるので、モスキートノイズが残ってしまったり、エッジを含むブロックと含まないブロックとで画質が極端に変化してしまったりする事態を確実に防止することができる。 As is apparent from the above description, according to the image processing apparatus of the present invention, in the filter processing area including the edge, the distribution coefficient has a large value, and thus has a pixel value that is relatively significantly different from the pixel value of the target pixel. A large filter coefficient is set for peripheral pixels, and strong smoothing is performed, so that mosquito noise can be effectively removed. On the other hand, in a filter processing area such as a texture that does not include an edge, since the value of the distribution coefficient is small, a small filter coefficient is set to a peripheral pixel having a pixel value very close to the pixel value of the target pixel, and weak smoothing is performed. Is performed, and the occurrence of blur can be suppressed. In addition, since appropriate filtering is performed on all pixels instead of processing that separates blocks into blocks that do not perform filtering and blocks that do not perform filtering as in the past, mosquito noise remains or includes edges. It is possible to reliably prevent a situation in which the image quality is extremely changed between the block and the block not included.
よって、本発明により、高画質の復元画像を再現することが可能となり、デジタルカメラ等の他、高精細なプリンタやプロジェクタ等が普及してきた今日における本願発明の実用的価値は極めて高い。 Therefore, according to the present invention, it is possible to reproduce a high-quality restored image, and the practical value of the present invention is extremely high today, in addition to digital cameras and the like, as well as high-definition printers and projectors.
以下、図面を参照しながら本発明の実施例について説明する。
(実施の形態1)
図1は、デジタルカメラおよびプリンタの外観構成を示す図である。
デジタルカメラex100は、CCDやCMOSなどのカラーイメージセンサと、上記した画像符号化装置60(図15参照)などとから構成され、カラーイメージセンサによって取得された原画像を、符号化装置60によってブロック毎に符号化することにより、JPEG圧縮データを生成し、生成したJPEG圧縮データをSDカードex200に記録する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a diagram showing an external configuration of a digital camera and a printer.
The digital camera ex100 includes a color image sensor such as a CCD or a CMOS, and the above-described image encoding device 60 (see FIG. 15), and blocks the original image acquired by the color image sensor by the
プリンタex400は、いわゆるダイレクトプリント機能を有し、SDカードex200を装着するためのカードリーダex301や、上記した画像復号化装置70の他、画像処理装置と、前処理部と、プリンタエンジン等とから構成される。
プリンタex400は、ユーザから指示されたJPEG圧縮データをSDカードex200から読み出して復号化装置70のエントロピー復号化部71、逆量子化部72、逆量子化テーブル73および逆DCT変換部74によって復号化し、YCbCrデータの復号画像を生成する。なお、この復号画像には、エッジ近傍に発生したモスキートノイズが含まれている。
The printer ex400 has a so-called direct print function, and includes, in addition to the card reader ex301 for mounting the SD card ex200 and the above-described
The printer ex400 reads the JPEG compressed data specified by the user from the SD card ex200 and decodes the data by the
画像処理装置は、逆DCT変換部74から出力されたYCbCrデータの復号画像の内のY成分に対してフィルタ処理を施すことにより、モスキートノイズを除去し、エッジおよびテクスチャのぼけを抑え、しかも、弱いエッジにおいても、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりすることを防止した復元画像を生成する。
The image processing apparatus removes mosquito noise, suppresses edge and texture blur by performing a filtering process on the Y component in the decoded image of the YCbCr data output from the inverse
復号化装置70の後処理部75は、画像処理装置によってフィルタ処理が施されたY成分と元のCbCrデータとに基づいて、復元画像のRGBデータに変換する。
前処理部は、RGBカラーの復元画像をYMCKのカラー復元画像に変換する。
プリンタエンジンは、用紙上にYMCKのカラーの復元画像を再生する。ここで、画像処理装置によって生成される復元画像においては、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつ、モスキートノイズを除去している。したがって、用紙上に再現される復元画像においても、図1に示されるように、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつ、エッジ強度の高い低いの如何に拘わらずモスキートノイズを除去することができる。
The
The preprocessing unit converts the RGB color restored image into a YMCK color restored image.
The printer engine reproduces a YMCK color restored image on a sheet. Here, in the restored image generated by the image processing device, mosquito noise is removed while suppressing blurring of edges and textures and preventing the image quality from being extremely changed without an edge. I have. Therefore, even in the restored image reproduced on the paper, as shown in FIG. 1, while suppressing the blur of the edge and the texture, and preventing the image quality from extremely changing without the edge, Mosquito noise can be removed regardless of whether the edge strength is high or low.
図2は、図1に示されるプリンタex400に実装された画像処理装置の機能構成を示すブロック図である。
画像処理装置1は、復号画像のY成分に対してブロック毎にフィルタ処理を施すことにより、復元画像を生成するものであって、図2に示されるように、差分値算出部11と、分布係数算出部12と、フィルタ係数算出部13と、フィルタ処理部14とを備える。
FIG. 2 is a block diagram showing a functional configuration of the image processing apparatus mounted on the printer ex400 shown in FIG.
The
差分値算出部11は、注目画素の画素値と各周辺画素の画素値との差分値を算出する。
分布係数算出部12は、各ブロックにおける画素値の分布係数を算出する。
フィルタ係数算出部13は、差分値算出部11において算出された差分値と、分布係数算出部12において算出された分布係数とに基づいて、各周辺画素に対するフィルタ係数をそれぞれ算出する。
The difference
The distribution
The filter
フィルタ処理部14は、フィルタ係数算出部13において算出された各周辺画素に対するフィルタ係数を用いてフィルタ処理を行い、ノイズが除去された復元画像を生成する。
なお、上記画像処理装置1を構成する差分値算出部11、分布係数算出部12、フィルタ係数算出部13およびフィルタ処理部14は、CPUや、画像処理プログラムを予め格納したROM、画像処理プログラムを実行するためのワークエリア等を提供するRAM等によって構成される。
The
The difference
本画像処理装置1のフィルタ処理部14は、以下の式(5)によって表すことができる。
但し、
である。
However,
It is.
ここで、上式(5)〜(8)において、(x,y)は、注目画素の位置を表している。(i,j)は、注目画素に対する各周辺画素の相対位置を表している。f(x,y)は、復号画像における注目画素の画素値を表している。f(x+i,y+j)は、復号画像における各周辺画素の画素値を表している。g(x,y)は、フィルタ処理後の復元画像における注目画素の画素値を表している。また、(X,Y)は、注目画素(x,y)が含まれるブロックの位置を表している。βx,y(i,j)は、注目画素(x,y)に対する各周辺画素(i,j)のフィルタ係数を表している。νx,y(i,j)は、注目画素の画素値f(x,y)と各周辺画素の画素値f(x+i,y+j)との差分値を表している。U(X,Y)は、ブロック(X,Y)における画素値の最大値から最小値を減算した値(分布係数)を表している。また、Kは、予め設定された定数値を表している。 Here, in the above equations (5) to (8), (x, y) represents the position of the pixel of interest. (I, j) indicates the relative position of each peripheral pixel to the target pixel. f (x, y) represents the pixel value of the pixel of interest in the decoded image. f (x + i, y + j) represents the pixel value of each peripheral pixel in the decoded image. g (x, y) represents the pixel value of the target pixel in the restored image after the filter processing. (X, Y) represents the position of the block including the target pixel (x, y). β x, y (i, j) represents a filter coefficient of each peripheral pixel (i, j) with respect to the target pixel (x, y). ν x, y (i, j) represents a difference value between the pixel value f (x, y) of the target pixel and the pixel value f (x + i, y + j) of each peripheral pixel. U (X, Y) represents a value (distribution coefficient) obtained by subtracting the minimum value from the maximum value of the pixel values in the block (X, Y). K represents a constant value set in advance.
次いで、上記のように構成された画像処理装置1で復号画像から復元画像を生成するときの動作について説明する。
図3は、画像処理装置1における復号画像から復元画像を生成するときの動作を示すフローチャートである。なお、画像処理装置1は、復元画像を生成するに際して、JPEG圧縮データを復号する過程で、復号画像のどこにブロック境界線が存在するかの情報を予め取得している。
Next, an operation when the
FIG. 3 is a flowchart illustrating an operation of the
画像処理装置1は、各ブロックについて、以下の処理を繰り返し実行する(S11)。まず、分布係数算出部12は、M×N画素単位の各ブロック(図4に示されるブロック境界線で区切られた領域)毎に、画素値の最大値と最小値とを順次取得し(S12,S13)、そのブロックにおける最大画素値max{f(x,y)}から最小画素値min{f(x,y)}を減算し、減算した値を、そのブロックに適用する分布係数U(X,Y)として算出する(S14)。
The
各ブロックに適用する分布係数の算出が終わると(S15)、差分値算出部11は、復号画像の各画素について、以下の処理を繰り返し実行する(S16)。差分値算出部11は、ある注目画素の画素値f(x,y)とフィルタ処理領域内の各周辺画素(図4に示されるフィルタ処理領域に含まれる全ての周辺画素)の画素値f(x+i,y+j)との差分値νx,y(i,j)をそれぞれ算出する(S17)。
When the calculation of the distribution coefficient applied to each block is completed (S15), the difference
ここで、図4は、注目画素、フィルタ処理に使用する周辺画素の領域(フィルタ処理領域)と、ブロック境界線によってM×N画素単位に分割されたブロックとの位置関係を示している。なお、この図4では、フィルタのサイズとして5×5、ブロックのサイズとして8×8の場合を示しているが、本発明はこのサイズに限定されるものではない。また、フィルタ処理領域としては、矩形に限定されるものではない。 Here, FIG. 4 shows a positional relationship between an area of a pixel of interest, peripheral pixels used for filter processing (filter processing area), and a block divided into M × N pixels by a block boundary line. Although FIG. 4 shows a case where the filter size is 5 × 5 and the block size is 8 × 8, the present invention is not limited to this size. Further, the filter processing area is not limited to a rectangle.
全ての差分値νx,y(i,j)の算出が終わると(S18)、フィルタ係数算出部13は、フィルタ処理領域内の各周辺画素について、以下の処理を繰り返し実行する(S19)。フィルタ係数算出部13は、差分値算出部11において算出された差分値νx,y(i,j)と、分布係数算出部12において算出された分布係数U(X,Y)とから、各周辺画素に対するフィルタ係数βx,y(i,j)を算出する(S20)。具体的には、式(6)に示される算出式によってフィルタ係数βx,y(i,j)を求めることができる。ここで、分布係数U(X,Y)の値については、注目画素が含まれるブロックで算出された値を使用し、差分値νx,y(i,j)については、各周辺画素に対してそれぞれ算出された値を使用する。
When the calculation of all the difference values v x, y (i, j) is completed (S18), the filter
なお、式(6)における定数Kは、分布係数U(X,Y)がフィルタ係数βx,y(i,j)の算出に与える影響を調節するためのパラメータであり、予め適当な値を設定することができる。
全てのフィルタ係数βx,y(i,j)の算出が終わると(S21)、フィルタ処理部14は、各注目画素について、以下の処理を繰り返し実行する(S22)。フィルタ処理部14は、フィルタ係数算出部13において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する(S23)。このような処理(S23)を繰り返し実行し、全てのブロック内の各画素についてフィルタ処理後の画素値を算出し終わると(S24)、復元画像が生成され、復元画像生成処理を終了する。
The constant K in the equation (6) is a parameter for adjusting the influence of the distribution coefficient U (X, Y) on the calculation of the filter coefficient β x, y (i, j). Can be set.
When all the filter coefficients β x, y (i, j) have been calculated (S21), the
本実施の形態1の画像処理装置1を用いた場合、エッジを含むブロックでは、分布係数U(X,Y)の値が大きいため、注目画素の画素値から比較的大きく異なる画素値を持つ周辺画素に対してもエッジに影響を及ぼさない範囲で大きいフィルタ係数が設定されて強い平滑化が行われ、モスキートノイズを有効に除去することができる。一方、エッジを含まないテクスチャなどのブロックでは、分布係数U(X,Y)の値が小さいため、注目画素の画素値に非常に近い画素値を持つ周辺画素以外には小さなフィルタ係数が設定されて弱い平滑化が行われ、ぼけの発生を抑制することができる。しかも、従来のようにフィルタ処理を行うブロックと行わないブロックとに分けるような処理でなく、全てのブロックに対して適切なフィルタ処理が行われるので、モスキートノイズが残ってしまったり、エッジを含むブロックと含まないブロックとで画質が極端に変化してしまったりする事態を確実に防止することができる。
When the
(実施の形態2)
図5は、プリンタex400に実装された画像処理装置の他の機能構成を示すブロック図である。
画像処理装置2は、復号画像のY成分に対してブロック毎にフィルタ処理を施すことにより、復元画像を生成するものであって、図5に示されるように、差分値算出部11と、分布係数算出部12と、分布係数補間部22と、フィルタ係数算出部23と、フィルタ処理部24とから構成される。なお、画像処理装置1の構成と対応する部分に同じ番号を付し、その説明を省略する。
(Embodiment 2)
FIG. 5 is a block diagram illustrating another functional configuration of the image processing apparatus mounted on the printer ex400.
The
ここで、実施の形態1の画像処理装置1では、各ブロック内では同一の分布係数U(X,Y)(画一的な値)を用いてフィルタ係数を算出した。一般に、ブロック符号化ではブロック単位で独立に符号化処理が行われるため、モスキートノイズなどのノイズに関してもブロック単位で発生する。このため、上記の処理のようにブロック単位で平滑化の強さを調整することにより、テクスチャのぼけは抑制し、なおかつ、モスキートノイズは有効に除去することが可能となるが、画像によっては、ブロック境界部で平滑化の強さが不連続にならないようにフィルタ処理を行う方が好ましい場合も考えられる。
Here, in the
そこで、この画像処理装置2においては、処理対象のブロックの分布係数と周辺ブロックの分布係数との複数個の分布係数を用い、当該ブロックの分布係数と周辺ブロックの分布係数とを2次元方向に線形補間することにより、画素毎に連続的に変化する補間分布係数u(x,y)を算出するための分布係数補間部22をさらに備え、この値を用いてフィルタ係数を算出することにより、ブロック境界部においても平滑化の強さが連続的に変化するフィルタ処理を実現するように構成されている。
Therefore, in the
次いで、上記のように構成された画像処理装置2で復号画像から復元画像を生成するときの動作について説明する。
図6は、画像処理装置2における復号画像から復元画像を生成するときの動作を示すフローチャートである。なお、画像処理装置2は、画像処理装置1と同様に、復元画像を生成するに際して、JPEG圧縮データを復号する過程で、復号画像のどこにブロック境界線が存在するかの情報を予め取得している。
Next, an operation when the
FIG. 6 is a flowchart illustrating an operation of the
画像処理装置2は、各ブロックについて、以下の処理を繰り返し実行する(S11)。まず、分布係数算出部12は、M×N画素単位の各ブロック(図4に示されるブロック境界線で区切られた領域)毎に、画素値の最大値と最小値とを順次取得し(S12,S13)、そのブロックにおける最大画素値max{f(x,y)}から最小画素値min{f(x,y)}を減算し、減算した値を、そのブロックに適用する分布係数U(X,Y)として算出する(S14)。
The
各ブロックに適用する分布係数の算出が終わると(S15)、差分値算出部11は、復号画像の各画素について、以下の処理を繰り返し実行する(S16)。差分値算出部11は、ある注目画素の画素値f(x,y)とフィルタ処理領域内の各周辺画素(図4に示されるフィルタ処理領域に含まれる全ての周辺画素)の画素値f(x+i,y+j)との差分値νx,y(i,j)をそれぞれ算出する(S17)。
When the calculation of the distribution coefficient applied to each block is completed (S15), the difference
全ての差分値νx,y(i,j)の算出が終わると(S18)、分布係数補間部22は、各画素について、以下の処理を繰り返し実行する(S31)。分布係数補間部22は、図7に示される注目画素のブロックの分布係数U(X,Y)および周辺ブロックの分布係数U(X−1,Y−1),U(X,Y−1),U(X−1,Y)を用いて、各画素における画素値の補間分布係数u(x,y)を算出する(S32)。
When the calculation of all the difference values v x, y (i, j) is completed (S18), the distribution
この補間方法を、図7を参照しながら説明する。
まず、分布係数算出部12において算出された分布係数U(X,Y)を各ブロックの中心点における分布係数と仮定する。
This interpolation method will be described with reference to FIG.
First, it is assumed that the distribution coefficient U (X, Y) calculated by the distribution
次に、各ブロックの中心点とそれぞれ隣接する4つのブロックの中心点とを直線で結ぶと、復号画像の各画素は、4つのブロックの中心点で囲まれる矩形領域のいずれかに含まれる。ここで、ある注目画素(x,y)を取り囲む4つのブロックの中心点の分布係数が、それぞれU(X,Y),U(X−1,Y),U(X,Y−1),U(X−1,Y−1)であるとすると、注目画素(x,y)に対する補間分布係数u(x,y)は、これら4つの分布係数を、各中心点から注目画素(x,y)までの距離に応じて線形補間することにより算出することができる。 Next, when the center point of each block and the center points of four adjacent blocks are connected by a straight line, each pixel of the decoded image is included in any of the rectangular regions surrounded by the center points of the four blocks. Here, the distribution coefficients of the center points of four blocks surrounding a certain pixel of interest (x, y) are U (X, Y), U (X-1, Y), U (X, Y-1), If U (X-1, Y-1), the interpolation distribution coefficient u (x, y) for the pixel of interest (x, y) is obtained by dividing these four distribution coefficients from the center point to the pixel of interest (x, y). It can be calculated by performing linear interpolation according to the distance to y).
全ての補間分布係数u(x,y)の算出が終わると(S33)、フィルタ係数算出部23は、各周辺画素について、以下の処理を繰り返し実行する(S19)。フィルタ係数算出部23は、差分値算出部11において算出された差分値νx,y(i,j)と、分布係数補間部22において算出された補間分布係数u(x,y)とから、周辺画素に対するフィルタ係数βx,y(i,j)を算出する(S20)。具体的には、式(8)における分布係数U(X,Y)を、各注目画素の位置に対して算出された補間分布係数u(x,y)に置き換えた式を用いて、フィルタ係数βx,y(i,j)を算出する。
When the calculation of all the interpolation distribution coefficients u (x, y) is completed (S33), the filter
全てのフィルタ係数βx,y(i,j)の算出が終わると(S21)、フィルタ処理部24は、各注目画素について以下の処理を繰り返し実行する(S22)。フィルタ処理部24は、フィルタ係数算出部23において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する(S23)。このような処理(S23)を繰り返し実行し、全てのブロック内の各注目画素についてフィルタ処理後の画素値を算出し終わると(S24)、復元画像が生成され、復元画像生成処理を終了する。
When all the filter coefficients β x, y (i, j) have been calculated (S21), the
本実施の形態2の画像処理装置2を用いた場合、画像処理装置1と同様の効果を得ることができるだけでなく、分布係数U(X,Y)を補間して算出した画素毎に連続的な補間分布係数u(x,y)を用いてフィルタ係数を算出するため、ブロック境界部においても平滑化の強さが不連続になることはなく、平滑化の強さが連続的に変化するフィルタ処理が実現できる。
When the
(実施の形態3)
図8は、デジタルカメラ、パーソナルコンピュータ(以下、「PC」とも記す。)、倍率変換器およびプロジェクタの外観構成を示す図である。なお、デジタルカメラex100、SDカードex200については、図1の場合と同様であるので、その説明を省略する。
(Embodiment 3)
FIG. 8 is a diagram showing an external configuration of a digital camera, a personal computer (hereinafter, also referred to as “PC”), a magnification converter, and a projector. Note that the digital camera ex100 and the SD card ex200 are the same as those in FIG.
PCex300は、SDカードex200を装着するためのカードリーダex301や、上記した画像復号化装置70、表示器ex302などから構成され、ユーザから指示されたJPEG圧縮データをSDカードex200から読み出して復号化装置70によって復号化し、RGBカラーの復号画像を生成する。そして、PCex300は、生成した復号画像を表示器ex302に表示したり、倍率変換器ex500に出力したりする。なお、表示器ex302に表示される復号画像には、エッジ近傍に発生したモスキートノイズが含まれている。
The PCex300 includes a card reader ex301 for mounting the SD card ex200, the above-described
倍率変換器ex500は、PCex300から出力されたRGBカラーの復号画像に対してサイズ調整を行い、サイズ調整済みのRGBカラーの復号画像を出力する。なお、サイズを縮小したり、拡大したりする場合には、間引き処理や、補間処理が適宜行われる。
プロジェクタex600は、前処理部と、画像処理装置と、後処理部と、表示エンジン等とから構成される。
The magnification converter ex500 adjusts the size of the decoded RGB color image output from the PCex300, and outputs the decoded RGB color decoded image. When the size is reduced or enlarged, a thinning process or an interpolation process is appropriately performed.
The projector ex600 includes a pre-processing unit, an image processing device, a post-processing unit, a display engine, and the like.
前処理部は、倍率変換器ex400から出力されたサイズ調整済みのRGBカラーの復号画像をYCbCrデータの復号画像に変換する。
画像処理装置は、前処理部から出力されたYCbCrデータの復号画像の内のY成分に対してフィルタ処理を施すことにより、モスキートノイズを除去し、エッジおよびテクスチャのぼけを抑え、しかも、弱いエッジにおいても、モスキートノイズが残ってしまったり、エッジのあるなしで画質が極端に変化してしまったりすることを防止した復元画像を生成する。
The preprocessing unit converts the size-adjusted decoded image of RGB color output from the magnification converter ex400 into a decoded image of YCbCr data.
The image processing apparatus removes mosquito noise, suppresses blurring of edges and textures by applying a filtering process to the Y component of the decoded image of the YCbCr data output from the preprocessing unit, and furthermore, controls weak edges. Also, a restored image is generated in which mosquito noise is not left and the image quality is prevented from being extremely changed without an edge.
後処理部は、画像処理装置によってフィルタ処理が施されたY成分と元のCbCrデータとに基づいて、復元画像のRGBデータに変換する。
表示エンジンは、RGBカラーの復元画像をスクリーンex700上にピントを合わせてRGBカラーの復元画像を再現する。ここで、画像処理装置によって生成される復元画像においては、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつモスキートノイズを除去している。したがって、スクリーンex700上に再現される復元画像においても、図8に示されるように、エッジおよびテクスチャのぼけを抑え、エッジのあるなしで画質が極端に変化してしまったりすることを防止しつつ、エッジ強度の高い低いの如何に拘わらずモスキートノイズを除去することができる。
The post-processing unit converts the Y component filtered by the image processing device and the original CbCr data into RGB data of a restored image.
The display engine focuses the restored RGB color image on the screen ex700 and reproduces the restored RGB color image. Here, in the restored image generated by the image processing device, mosquito noise is removed while suppressing blurring of edges and textures and preventing image quality from extremely changing without an edge. . Therefore, even in the restored image reproduced on the screen ex700, as shown in FIG. 8, blur of edges and textures is suppressed, and the image quality is prevented from being extremely changed without an edge. The mosquito noise can be removed regardless of whether the edge strength is high or low.
次いで、プロジェクタex600に実装された画像処理装置について説明する。
図9は、図8に示されるプロジェクタex600に実装された画像処理装置の機能構成を示すブロック図である。
画像処理装置3は、復号画像を構成する各画素のY成分に対して所定のフィルタ処理領域毎にフィルタ処理を施すことにより、復元画像を生成するものであって、図9に示されるように、差分値算出部11と、エッジ強度算出部31と、最大エッジ影響度算出部32と、フィルタ係数算出部33と、フィルタ処理部34とを備える。なお、画像処理装置1,2の構成要素と対応する部分に同じ番号を付し、その説明を省略する。
Next, an image processing device mounted on the projector ex600 will be described.
FIG. 9 is a block diagram illustrating a functional configuration of an image processing device mounted on projector ex600 shown in FIG.
The
ところで、画像処理装置1では、各ブロック内では同一の分布係数U(X,Y)を用いてフィルタ係数を算出した。また、画像処理装置2では、ブロック毎に算出された分布係数U(X,Y)を補間して画素毎に連続的に変化する補間分布係数u(x,y)を算出し、この値を用いてフィルタ係数を算出することにより、ブロック境界部においても平滑化の強さが連続的に変化するフィルタ処理を実現している。しかしながら、上記したように復号画像が拡大されたり縮小されたりしている場合に、ブロック境界がどこに存在したのかわからないため、適切なフィルタ処理を行うことができない。そこで、この画像処理装置3は、ブロック境界がわからなくても、ブロック境界線に依存しない適切なフィルタ処理を行えるように構成されている。
By the way, the
画像処理装置3のエッジ強度算出部31は、例えばソーベルフィルタ(高木幹雄、下田陽久監修「画像解析ハンドブック」、550〜564頁、東京大学出版会、1991年)で構成され、注目画素を中心とするエッジ影響度算出領域(例えば、11×11画素)の各周辺画素についてエッジ強度を算出し、これによって各周辺画素のエッジ強度がどうなっているかを検出する。
The edge
最大エッジ影響度算出部32は、エッジ影響度算出領域における周辺画素のエッジ強度と、注目画素とその周辺画素との間の距離とに基づいて、各周辺画素についてのエッジ影響度を算出する。そして、最大エッジ影響度算出部32は、全ての周辺画素についてのエッジ影響度の中の最大値を、フィルタ処理領域で用いる分布係数として決定する。
フィルタ係数算出部33は、差分値算出部11で算出されたフィルタ処理領域内における周辺画素の画素値と注目画素の画素値との差分値と、最大エッジ影響度算出部32によって算出されたフィルタ処理領域で用いる分布係数とに基づいて、フィルタ処理領域内における周辺画素のフィルタ係数をそれぞれ算出する。
The maximum edge
The filter
フィルタ処理部34は、フィルタ係数算出部33において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する。これにより、フィルタ処理部34は、強いエッジに近いほどエッジに影響を及ぼさない範囲で強く平滑化し、エッジから遠いほど弱く平滑化する。すなわち、フィルタ処理部34は、周辺画素のエッジ強度と、距離とに依存してフィルタ係数を動的に変化させる。
The
なお、上記画像処理装置3を構成する差分値算出部11、エッジ強度算出部31、最大エッジ影響度算出部32、フィルタ係数算出部33、フィルタ処理部34は、画像処理装置1,2の場合と同様に、CPUや、画像処理プログラムを予め格納したROM、画像処理プログラムを実行するためのワークエリア等を提供するRAM等によって構成される。
次いで、上記のように構成された画像処理装置3で復号画像から復元画像を生成するときの動作について説明する。
The difference
Next, an operation when the
図10は、画像処理装置3における復号画像から復元画像を生成するときの動作を示すフローチャートである。
画像処理装置3は、図11に示される各エッジ影響度算出領域について、以下の処理を繰り返し実行する(S41)。
FIG. 10 is a flowchart illustrating an operation of the
The
図11は、ある画素(注目画素)に対して設定されるエッジ影響度算出領域の構成を示す図である。
ここで、この実施の形態3においては11×11画素で構成されているが、復号画像のサイズ変換倍率に応じて21×21画素など、種々のサイズのフィルタ処理領域を設定してもよい。
まず、エッジ強度算出部31は、ソーベルフィルタ等を用いて、各周辺画素のエッジ強度をそれぞれ算出する(S42)。
FIG. 11 is a diagram illustrating a configuration of an edge influence degree calculation area set for a certain pixel (target pixel).
Here, in the third embodiment, the filter processing area is composed of 11 × 11 pixels, but filter processing areas of various sizes such as 21 × 21 pixels may be set according to the size conversion magnification of the decoded image.
First, the edge
図12はソーベルフィルタの構成を示す図であり、特に、図12(a)は水平方向に適用されるソーベルフィルタの構成を示す図であり、図12(b)は垂直方向に適用されるソーベルフィルタの構成を示す図である。
ソーベルフィルタは、ある注目画素(ここでは、周辺画素)を中心とした上下左右の9つの画素値に対して、図12に示されるソーベルフィルタの係数をそれぞれ乗算し、乗算結果を合計する。水平方向の合計値をgHS、垂直方向の合計値をgVSとしたとき、注目画素のエッジ強度gは以下の式で求められる。
g=(gHS2+gVS2)1/2
このような処理を各周辺画素に対して行うことにより、各周辺画素のエッジ強度がどうなっているかを検出することができる。
FIG. 12 is a diagram showing a configuration of a Sobel filter. In particular, FIG. 12A is a diagram showing a configuration of a Sobel filter applied in a horizontal direction, and FIG. 12B is a diagram applied to a vertical direction. FIG. 2 is a diagram showing a configuration of a Sobel filter.
The Sobel filter multiplies the nine pixel values of the upper, lower, left, and right centered on a certain pixel of interest (here, peripheral pixels) by the coefficients of the Sobel filter shown in FIG. 12 and sums up the multiplication results. . Assuming that the total value in the horizontal direction is gHS and the total value in the vertical direction is gVS, the edge strength g of the pixel of interest is obtained by the following equation.
g = (gHS 2 + gVS 2 ) 1/2
By performing such processing on each peripheral pixel, it is possible to detect the edge strength of each peripheral pixel.
なお、この実施の形態3においては、エッジ強度算出部31としてソーベルフィルタを用いたが、Prewittフィルタ等の1次微分フィルタや、2次微分フィルタ等を用いてエッジ強度を求めるようにしてもよい。
In the third embodiment, the Sobel filter is used as the edge
周辺画素のエッジ強度の算出が終わると、最大エッジ影響度算出部32は、フィルタ処理領域に適用する分布係数を求めるための最大エッジ影響度算出処理を実行する(S43)。
図13は、最大エッジ影響度算出処理のサブルーチンを示すフローチャートである。
最大エッジ影響度算出部32は、エッジ影響度算出領域内の各周辺画素について、以下の処理を繰り返し実行する(S431)。
When the calculation of the edge strength of the peripheral pixels is completed, the maximum edge influence
FIG. 13 is a flowchart illustrating a subroutine of a maximum edge influence degree calculation process.
The maximum edge influence
まず、最大エッジ影響度算出部32は、エッジ影響度算出領域内の各周辺画素について注目画素からの距離を算出する(S432)。このようにして求められた距離が図11中の数字で示されている。なお、この実施の形態3では、周辺画素と注目画素との斜め方向の距離として、水平方向の距離と垂直方向の距離との加算値で簡略的に求めているが、水平方向距離の2乗と垂直方向距離の2乗との加算値の平方根で実際に求めるようにしてもよい。
First, the maximum edge influence
距離が求まると、最大エッジ影響度算出部32は、ステップS432で求めた注目画素からの距離と、エッジ強度算出部31が算出したその周辺画素のエッジ強度とに基づいて、エッジ影響度を算出する(S433)。ここで、エッジ影響度は、図14に示されるように、注目画素からの距離とエッジ強度に基づく関数F(距離,エッジ強度)で表され、注目画素に近く、エッジ強度が大きいほど、大きくなり、注目画素から遠く、エッジ強度が小さいほど、小さくなる。
When the distance is calculated, the maximum edge influence
このような処理を繰り返し実行することによりフィルタ処理領域内の各周辺画素についてのエッジ影響度が求まると(S434)、最大エッジ影響度算出部32は、フィルタ処理領域に適用する分布係数として、算出したエッジ影響度の最大値を採用し(S435)、図10に示されるメインルーチンにリターンする。
各フィルタ処理領域に適用する分布係数の算出が終わると(S44)、差分値算出部11は、復号画像の各画素について、以下の処理を繰り返し実行する(S16)。差分値算出部11は、ある注目画素の画素値f(x,y)とフィルタ処理領域内の各周辺画素(図4に示されるフィルタ処理領域に含まれる全ての周辺画素)の画素値f(x+i,y+j)との差分値νx,y(i,j)をそれぞれ算出する(S17)。
When the edge influence of each peripheral pixel in the filter processing area is obtained by repeatedly executing such processing (S434), the maximum edge
When the calculation of the distribution coefficient applied to each filter processing area is completed (S44), the difference
全ての差分値νx,y(i,j)の算出が終わると(S18)、フィルタ係数算出部33は、フィルタ処理領域内の各周辺画素について、以下の処理を繰り返し実行する(S19)。フィルタ係数算出部33は、差分値算出部11において算出された差分値νx,y(i,j)と、最大エッジ影響度算出部32において算出された分布係数U(X,Y)とから、各周辺画素に対するフィルタ係数βx,y(i,j)を算出する(S20)。具体的には、式(8)における分布係数U(X,Y)を最大エッジ影響度算出部32において算出された分布係数U(X,Y)に置き換えた式を用いてフィルタ係数βx,y(i,j)を算出する。
When the calculation of all the difference values v x, y (i, j) is completed (S18), the filter
全てのフィルタ係数βx,y(i,j)の算出が終わると(S21)、フィルタ処理部34は、各注目画素について、以下の処理を繰り返し実行する(S22)。フィルタ処理部34は、フィルタ係数算出部33において算出された各周辺画素に対するフィルタ係数βx,y(i,j)を用いて、注目画素に対するフィルタ処理を行い、フィルタ処理後の注目画素の画素値を算出する(S23)。このような処理(S23)を繰り返し実行し、全てのブロック内の各画素についてフィルタ処理後の画素値を算出し終わると(S24)、復元画像が生成され、復元画像生成処理を終了する。
When all the filter coefficients β x, y (i, j) have been calculated (S21), the
以上のように、本実施の形態3に係る画像処理装置3によれば、エッジ強度算出部31においてエッジ影響度算出領域内の周辺画素のエッジ強度を算出し、最大エッジ影響度算出部32においてエッジ画素からの距離とそのエッジ強度の大きさとに応じて、フィルタ処理領域に適用する分布係数(エッジ影響度の域最大値)を決定し、フィルタ係数算出部33において分布係数に応じたフィルタ係数を算出し、フィルタ処理部34において画素に対する平滑化の強さを変えるようにしている。
As described above, according to the
したがって、ブロック境界位置が不明な場合も、効果的に処理できる。しかも、自然画像と人工画像とが混在しているような場合であっても、従来のようなテクスチャのぼけが防止され、エッジ強度の高い低いの如何に拘わらず、エッジのぼけを抑制し、モスキートノイズを確実に除去することができる。また、ブロック境界に依存せずフィルタ処理が行われるので、従来のようにフィルタ処理されるブロックと、処理されないブロックとが極端に分かれ、画質が急激に変化するような事態を確実に防止することができる。 Therefore, even when the block boundary position is unknown, it can be effectively processed. Moreover, even when a natural image and an artificial image are mixed, blurring of the texture as in the past is prevented, and regardless of whether the edge strength is high or low, blurring of the edge is suppressed, Mosquito noise can be reliably removed. Also, since the filtering process is performed independently of the block boundaries, it is necessary to surely prevent a situation in which the filtered image and the unprocessed image are extremely separated from each other as in the related art, and the image quality suddenly changes. Can be.
なお、上記実施の形態1,2の画像処理装置1,2では、ブロックに適用する分布係数U(X,Y)として、ブロック内の最大画素値max{f(x,y)}から最小画素値min{f(x,y)}を減算した値としたが、これに限定されるものではなく、ブロック内における画素値の分布の大きさを示す値であればよい。つまり、例えば、ブロック内における平均画素値からの分散値を、分布係数U(X,Y)として用いることもできる。また、ソーベルフィルタを用いて画素毎にエッジ強度を算出し、各ブロック内において最大のエッジ強度を分布係数U(X,Y)として用いてもよい。
In the
また、差分値νx,y(i,j)と分布係数U(X,Y)(または補間分布係数u(x,y))に基づくフィルタ係数βx,y(i,j)の算出方法としては、式(6)のように連続的な関数に基づいて算出するのではなく、差分値νx,y(i,j)および分布係数U(X,Y)(または補間分布係数u(x,y))の値に関して予め複数のレベルを設定しておき、各レベルに応じて段階的に設定されるようにしてもよい。 A method of calculating a filter coefficient β x, y (i, j) based on the difference value ν x, y (i, j) and the distribution coefficient U (X, Y) (or the interpolation distribution coefficient u (x, y)) Is not calculated based on a continuous function as in Equation (6), but instead of the difference value ν x, y (i, j) and the distribution coefficient U (X, Y) (or the interpolation distribution coefficient u ( A plurality of levels may be set in advance for the values of (x, y)), and the values may be set stepwise according to each level.
また、カラー画像を処理する場合には、輝度成分(Y)からフィルタ係数βx,y(i,j)を算出し、このフィルタ係数βx,y(i,j)を用いて、R、G、B成分毎にそれぞれフィルタ処理を行うようにしてもよい。
また、本発明におけるフィルタ処理は、式(5)で表される処理に限定されるものではなく、同様の手段を備えていれば別の式で実現してもよい。
When a color image is processed, a filter coefficient β x, y (i, j) is calculated from the luminance component (Y), and R, R is calculated using the filter coefficient β x, y (i, j). Filter processing may be performed for each of the G and B components.
Further, the filter processing in the present invention is not limited to the processing represented by Expression (5), and may be realized by another expression as long as the same means is provided.
さらに、本発明はJPEGによって生じたノイズの除去処理に限定されるものではなく、他のブロック符号化方式によって生じたノイズの除去処理に用いることもできる。
また、静止画に限定されるわけではなく、MPEG圧縮データに対する処理のように動画に対しても適用でき、動画においても静止画の場合と同様の効果が得られる。
また、必ずしもプリンタやプロジェクタ内部で処理しなければならないわけではなく、PC上で処理してもよい。
Further, the present invention is not limited to the process of removing noise generated by JPEG, but can be used for the process of removing noise generated by another block coding method.
Further, the present invention is not limited to still images, and can be applied to moving images as in the case of processing on MPEG compressed data. The same effects as in the case of still images can be obtained in moving images.
Further, the processing need not necessarily be performed inside the printer or the projector, but may be performed on a PC.
また、上記実施の形態1,2では、プリンタでダイレクトプリントしたが、PCからプリントする場合でも、PC内部でRGBデータに復号してからプリンタに送るのではなく、JPEG圧縮データのままの状態でPCからプリンタに転送し、プリンタ内部で復号化処理以降の全ての処理を実行する方式、いわゆるプルプリントが最近になって検討されており、このような方式の場合においても適用できる。この場合においても、プリンタで、JPEG圧縮データの状態で受け取って、復号化処理から全ての処理を内部で行うため、自ずとブロック境界位置が分かる。 In the first and second embodiments, direct printing is performed by a printer. However, even when printing is performed from a PC, the data is not decoded into RGB data in the PC and then sent to the printer. A method of transferring all data from the PC to the printer and executing all the processing after the decryption processing inside the printer, that is, so-called pull printing, has recently been studied, and can be applied to such a method. Also in this case, since the printer receives the data in the form of JPEG compressed data and performs all the processing internally from the decoding processing, the block boundary position can be naturally known.
画像処理装置は、プリンタや、プロジェクタなど、多値画像をM×N画素単位のブロック毎に符号化して得られた圧縮データを復号化して得られた復号画像に、ノイズを除去するためのフィルタ処理を行って復元画像を生成するコンピュータ装置に適用できる。 The image processing apparatus includes a filter for removing noise from a decoded image obtained by decoding compressed data obtained by encoding a multi-valued image in units of M × N pixels, such as a printer or a projector. The present invention can be applied to a computer device that performs processing and generates a restored image.
1,2,3 画像処理装置
11 差分値算出部
12 分布係数算出部
13,23,33 フィルタ係数算出部
14,24,34 フィルタ処理部
22 分布係数補間部
31 エッジ強度算出部
32 最大エッジ影響度算出部
1, 2, 3
Claims (13)
前記復号画像を構成する各画素に対してそれぞれ設定されたフィルタ処理領域内における注目画素の画素値と、周辺画素の画素値との差分値を算出する差分値算出手段と、
各前記画素における画素値の分布係数を算出する分布係数算出手段と、
前記差分値算出手段によって算出された前記差分値と、前記分布係数算出手段によって算出された前記分布係数とに基づいて、前記周辺画素に対するフィルタ係数を算出するフィルタ係数算出手段と、
前記フィルタ係数算出手段によって算出された前記フィルタ係数を用いて、前記復号画像における注目画素の画素値に対してフィルタ処理を行い、復元画像における注目画素の画素値を算出するフィルタ処理手段と
を備えることを特徴とする画像処理装置。 Image processing for generating a restored image by performing filter processing for removing noise on a decoded image obtained by decoding compressed data obtained by encoding a multi-valued image for each block of M × N pixels A device,
A difference value calculation unit that calculates a difference value between a pixel value of a target pixel and a pixel value of a peripheral pixel in a filter processing region set for each pixel configuring the decoded image,
Distribution coefficient calculating means for calculating a distribution coefficient of a pixel value in each of the pixels;
A filter coefficient calculating unit that calculates a filter coefficient for the peripheral pixel based on the difference value calculated by the difference value calculating unit and the distribution coefficient calculated by the distribution coefficient calculating unit;
Filter processing means for performing filter processing on the pixel value of the pixel of interest in the decoded image using the filter coefficient calculated by the filter coefficient calculation means, and calculating the pixel value of the pixel of interest in the restored image. An image processing apparatus comprising:
ことを特徴とする請求項1記載の画像処理装置。 The image processing device according to claim 1, wherein the distribution coefficient calculation unit calculates a distribution coefficient of a pixel value of each of the pixels for each of the blocks.
ことを特徴とする請求項2記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the distribution coefficient calculation unit calculates a difference value obtained by subtracting a minimum value from a maximum value of pixel values in the block as a distribution coefficient of pixel values of the block. .
ことを特徴とする請求項2記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the distribution coefficient calculation unit calculates a variance value from an average pixel value in the block as a distribution coefficient of a pixel value of the block.
ことを特徴とする請求項2記載の画像処理装置。 The image processing device according to claim 2, wherein the distribution coefficient calculation unit calculates a maximum edge intensity in the block as a distribution coefficient of a pixel value of the block.
ことを特徴とする請求項1記載の画像処理装置。 The distribution coefficient calculation unit calculates a distribution coefficient of a pixel value for each block, and interpolates a distribution coefficient of a pixel value in the calculated block and a distribution coefficient of a pixel value in a neighboring block adjacent to the block. The image processing apparatus according to claim 1, wherein an interpolation distribution coefficient of a pixel value of each pixel is calculated using the calculated interpolation distribution coefficient, and the calculated interpolation distribution coefficient is used as a distribution coefficient of a pixel value of each pixel.
ことを特徴とする請求項6記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the distribution coefficient calculation unit calculates a difference value obtained by subtracting a minimum value from a maximum value of pixel values in the block as a distribution coefficient of pixel values of the block.
ことを特徴とする請求項6記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the distribution coefficient calculation unit calculates a variance value from an average pixel value in the block as a distribution coefficient of a pixel value of the block.
ことを特徴とする請求項6記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the distribution coefficient calculation unit calculates a maximum edge intensity in the block as a distribution coefficient of a pixel value of the block.
所定のエッジ影響度算出領域における前記周辺画素のエッジ強度を算出するエッジ強度算出手段と、
前記エッジ強度算出手段が算出した前記周辺画素のエッジ強度と、前記注目画素と前記周辺画素との距離とに基づいて注目画素に対するエッジ影響度を算出し、算出したエッジ影響度の最大値を各前記画素の画素値の分布係数として算出する最大エッジ影響度算出手段と
を備えることを特徴とする請求項1記載の画像処理装置。 The distribution coefficient calculating means,
Edge strength calculation means for calculating the edge strength of the peripheral pixel in a predetermined edge influence calculation area,
The edge intensity of the peripheral pixel calculated by the edge intensity calculation means, the edge influence degree for the pixel of interest is calculated based on the distance between the pixel of interest and the peripheral pixel, the maximum value of the calculated edge influence degree each The image processing apparatus according to claim 1, further comprising: a maximum edge influence degree calculating unit that calculates a distribution coefficient of a pixel value of the pixel.
前記復号画像を構成する各画素に対してそれぞれ設定されたフィルタ処理領域内における注目画素の画素値と周辺画素の画素値との差分値を算出する差分値算出ステップと、
各前記画素における画素値の分布係数を算出する分布係数算出ステップと、
前記差分値算出ステップによって算出された前記差分値と、前記分布係数算出ステップによって算出された前記分布係数とに基づいて、前記周辺画素に対するフィルタ係数を算出するフィルタ係数算出ステップと、
前記フィルタ係数算出ステップによって算出された前記フィルタ係数を用いて、前記復号画像における注目画素の画素値に対してフィルタ処理を行い、復元画像における注目画素の画素値を算出するフィルタ処理ステップと
を含むことを特徴とする画像処理方法。 Image processing for generating a restored image by performing filter processing for removing noise on a decoded image obtained by decoding compressed data obtained by encoding a multi-valued image for each block of M × N pixels An image processing method used for the device,
A difference value calculating step of calculating a difference value between a pixel value of a target pixel and a pixel value of a peripheral pixel in a filter processing region set for each of the pixels constituting the decoded image,
A distribution coefficient calculating step of calculating a distribution coefficient of a pixel value in each of the pixels;
A filter coefficient calculating step of calculating a filter coefficient for the peripheral pixel based on the difference value calculated by the difference value calculating step and the distribution coefficient calculated by the distribution coefficient calculating step;
Performing a filtering process on the pixel value of the target pixel in the decoded image using the filter coefficient calculated in the filter coefficient calculating step, and calculating a pixel value of the target pixel in the restored image. An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003350076A JP4097587B2 (en) | 2002-10-16 | 2003-10-08 | Image processing apparatus and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002301602 | 2002-10-16 | ||
JP2003350076A JP4097587B2 (en) | 2002-10-16 | 2003-10-08 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004159311A true JP2004159311A (en) | 2004-06-03 |
JP4097587B2 JP4097587B2 (en) | 2008-06-11 |
Family
ID=32827922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003350076A Expired - Fee Related JP4097587B2 (en) | 2002-10-16 | 2003-10-08 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4097587B2 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006140999A (en) * | 2004-10-14 | 2006-06-01 | Mitsubishi Electric Research Laboratories Inc | Method for filtering pixel in image |
JP2006270220A (en) * | 2005-03-22 | 2006-10-05 | Victor Co Of Japan Ltd | Video signal processing apparatus |
KR100711725B1 (en) | 2005-11-16 | 2007-04-25 | 엘지전자 주식회사 | Method for filtering of deblocking in video telephony mobile phone |
WO2007108164A1 (en) * | 2006-03-23 | 2007-09-27 | Niigata Seimitsu Co., Ltd. | Image processing device |
JP2007300454A (en) * | 2006-05-01 | 2007-11-15 | Fuji Xerox Co Ltd | Decoding device, inverse quantization method, and program |
JP2009049709A (en) * | 2007-08-20 | 2009-03-05 | Seiko Epson Corp | Device, method and program for image processing |
JP2009544223A (en) * | 2006-07-19 | 2009-12-10 | トライデント マイクロシステムズ インコーポレイテッド | Method and system for reducing mosquito noise in digital images |
JP2010154264A (en) * | 2008-12-25 | 2010-07-08 | Sharp Corp | Image decoding apparatus and image encoding apparatus |
JP2010178302A (en) * | 2009-02-02 | 2010-08-12 | Olympus Corp | Image processing apparatus and image processing method |
JP2010211552A (en) * | 2009-03-11 | 2010-09-24 | Rohm Co Ltd | Image processing method and computer program |
US7995839B2 (en) | 2006-04-14 | 2011-08-09 | Fujifilm Corporation | Image processing device and method with distance calculating on color space |
KR101119268B1 (en) * | 2010-03-10 | 2012-03-20 | 삼성전자주식회사 | Method and device for reduction image color noise |
JP2012068763A (en) * | 2010-09-21 | 2012-04-05 | Toshiba Corp | Image processing device |
JP2013038479A (en) * | 2011-08-04 | 2013-02-21 | Kyocera Document Solutions Inc | Image processing apparatus, image formation apparatus with the same, and image processing method |
KR20160049954A (en) * | 2014-10-28 | 2016-05-10 | 삼성디스플레이 주식회사 | Image processing apparatus, image processing method, and image processing program |
KR20160103902A (en) * | 2015-02-24 | 2016-09-02 | 삼성디스플레이 주식회사 | Image processing apparatus, image processing method, and image processing program |
CN117041511A (en) * | 2023-09-28 | 2023-11-10 | 青岛欧亚丰科技发展有限公司 | Video image processing method for visual interaction enhancement of exhibition hall |
US11825106B2 (en) | 2006-08-31 | 2023-11-21 | Ati Technologies Ulc | Texture decompression techniques |
-
2003
- 2003-10-08 JP JP2003350076A patent/JP4097587B2/en not_active Expired - Fee Related
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006140999A (en) * | 2004-10-14 | 2006-06-01 | Mitsubishi Electric Research Laboratories Inc | Method for filtering pixel in image |
JP2006270220A (en) * | 2005-03-22 | 2006-10-05 | Victor Co Of Japan Ltd | Video signal processing apparatus |
KR100711725B1 (en) | 2005-11-16 | 2007-04-25 | 엘지전자 주식회사 | Method for filtering of deblocking in video telephony mobile phone |
JP4641957B2 (en) * | 2006-03-23 | 2011-03-02 | 彰 吉田 | Image processing apparatus and image processing program |
WO2007108164A1 (en) * | 2006-03-23 | 2007-09-27 | Niigata Seimitsu Co., Ltd. | Image processing device |
JP2007257237A (en) * | 2006-03-23 | 2007-10-04 | Niigata Seimitsu Kk | Image processor |
US7995839B2 (en) | 2006-04-14 | 2011-08-09 | Fujifilm Corporation | Image processing device and method with distance calculating on color space |
US7957607B2 (en) | 2006-05-01 | 2011-06-07 | Fuji Xerox Co., Ltd. | Decoding apparatus, dequantization method, and computer readable medium storing program thereof |
JP2007300454A (en) * | 2006-05-01 | 2007-11-15 | Fuji Xerox Co Ltd | Decoding device, inverse quantization method, and program |
JP2009544223A (en) * | 2006-07-19 | 2009-12-10 | トライデント マイクロシステムズ インコーポレイテッド | Method and system for reducing mosquito noise in digital images |
US12047592B2 (en) | 2006-08-31 | 2024-07-23 | Ati Technologies Ulc | Texture decompression techniques |
US11843793B2 (en) | 2006-08-31 | 2023-12-12 | Ati Technologies Ulc | Texture decompression techniques |
US11825106B2 (en) | 2006-08-31 | 2023-11-21 | Ati Technologies Ulc | Texture decompression techniques |
JP2009049709A (en) * | 2007-08-20 | 2009-03-05 | Seiko Epson Corp | Device, method and program for image processing |
US8175383B2 (en) | 2007-08-20 | 2012-05-08 | Seiko Epson Corporation | Apparatus, method, and program product for image processing |
JP2010154264A (en) * | 2008-12-25 | 2010-07-08 | Sharp Corp | Image decoding apparatus and image encoding apparatus |
US8792738B2 (en) | 2008-12-25 | 2014-07-29 | Sharp Kabushiki Kaisha | Image decoding apparatus and image coding apparatus |
JP2010178302A (en) * | 2009-02-02 | 2010-08-12 | Olympus Corp | Image processing apparatus and image processing method |
JP2010211552A (en) * | 2009-03-11 | 2010-09-24 | Rohm Co Ltd | Image processing method and computer program |
KR101119268B1 (en) * | 2010-03-10 | 2012-03-20 | 삼성전자주식회사 | Method and device for reduction image color noise |
US8711251B2 (en) | 2010-03-10 | 2014-04-29 | Samsung Electronics Co., Ltd. | Method and device for reducing image color noise |
JP2012068763A (en) * | 2010-09-21 | 2012-04-05 | Toshiba Corp | Image processing device |
JP2013038479A (en) * | 2011-08-04 | 2013-02-21 | Kyocera Document Solutions Inc | Image processing apparatus, image formation apparatus with the same, and image processing method |
KR20160049954A (en) * | 2014-10-28 | 2016-05-10 | 삼성디스플레이 주식회사 | Image processing apparatus, image processing method, and image processing program |
KR102296510B1 (en) * | 2014-10-28 | 2021-09-03 | 삼성디스플레이 주식회사 | Image processing apparatus, image processing method, and image processing program |
KR20160103902A (en) * | 2015-02-24 | 2016-09-02 | 삼성디스플레이 주식회사 | Image processing apparatus, image processing method, and image processing program |
KR102355329B1 (en) * | 2015-02-24 | 2022-01-26 | 삼성디스플레이 주식회사 | Image processing apparatus, image processing method, and image processing program |
CN117041511A (en) * | 2023-09-28 | 2023-11-10 | 青岛欧亚丰科技发展有限公司 | Video image processing method for visual interaction enhancement of exhibition hall |
CN117041511B (en) * | 2023-09-28 | 2024-01-02 | 青岛欧亚丰科技发展有限公司 | Video image processing method for visual interaction enhancement of exhibition hall |
Also Published As
Publication number | Publication date |
---|---|
JP4097587B2 (en) | 2008-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7292733B2 (en) | Image processing apparatus and image processing method | |
JP4145665B2 (en) | Image processing apparatus and image processing method | |
JP4097587B2 (en) | Image processing apparatus and image processing method | |
JP4858610B2 (en) | Image processing method | |
JP4457346B2 (en) | Image noise removal method | |
JP5818404B2 (en) | System and method for reducing artifacts in images | |
JP2004166266A (en) | Method and system for eliminating artifact in compressed image | |
JP2004127064A (en) | Image processing method, image processor, image processing program and image recording device | |
JP2006081156A (en) | Image processing apparatus, method, and program | |
JP2001118062A (en) | Automatic dynamic range compressing method | |
JP2007336467A (en) | Image compression apparatus, image reader with the same, image processor with image compression apparatus, image forming apparatus with the same, method of image compression processing, computer program hereof, and recording medium | |
JP2005167399A (en) | Image noise eliminating method | |
JP2007011926A (en) | Image processing method and device, and program | |
JP4066367B2 (en) | Image noise removal method | |
JP4137015B2 (en) | Image processing apparatus and method | |
JP5157678B2 (en) | Photo image processing method, photo image processing program, and photo image processing apparatus | |
JP2006343863A (en) | Image processor and image processing method | |
JP4766702B2 (en) | Image processing apparatus and method | |
JP2008301336A (en) | Image processing device, image encoding device and image decoding device | |
JP2018019239A (en) | Imaging apparatus, control method therefor and program | |
US6665447B1 (en) | Method for enhancing image data by sharpening | |
US7580158B2 (en) | Image processing apparatus, method and program | |
JP4040528B2 (en) | Image processing apparatus, image processing method, image processing program, recording medium storing image processing program, and image forming apparatus including image processing apparatus | |
JP6024363B2 (en) | Image processing device | |
JP2005277503A (en) | Image processing method and apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080311 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110321 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110321 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120321 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130321 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130321 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140321 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |