WO2011086594A1 - 画像処理装置、及びその方法 - Google Patents

画像処理装置、及びその方法 Download PDF

Info

Publication number
WO2011086594A1
WO2011086594A1 PCT/JP2010/000126 JP2010000126W WO2011086594A1 WO 2011086594 A1 WO2011086594 A1 WO 2011086594A1 JP 2010000126 W JP2010000126 W JP 2010000126W WO 2011086594 A1 WO2011086594 A1 WO 2011086594A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector
pixel
basis
processing apparatus
image processing
Prior art date
Application number
PCT/JP2010/000126
Other languages
English (en)
French (fr)
Inventor
河田諭志
五十川賢造
松本信幸
金子敏充
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to JP2011549740A priority Critical patent/JP5431501B2/ja
Priority to CN2010800613551A priority patent/CN102713971A/zh
Priority to PCT/JP2010/000126 priority patent/WO2011086594A1/ja
Publication of WO2011086594A1 publication Critical patent/WO2011086594A1/ja
Priority to US13/548,709 priority patent/US8693804B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing

Definitions

  • the present invention relates to an image processing apparatus and method for reducing image noise.
  • NON-LOCAL MEANS An algorithm called NON-LOCAL MEANS has been proposed as an image processing technology that reduces random noise. Use a weight corresponding to the distance between vectors between a vector in which pixel values in a block centered on the pixel to be processed are arranged and a vector in which pixel values in a block centered on the peripheral pixel are arranged, and the neighboring pixels There is a technique of performing weighted averaging of the pixel values and replacing the pixel to be processed (for example, Non-Patent Document 1).
  • Patent Document 2 Project a vector in which pixel values in a block centered on a pixel to be processed are arranged and a vector in which pixel values in a block centered on surrounding pixels are arranged into a subspace composed of selected base vectors, The distance between vectors in the partial space is calculated.
  • the set of basis vectors to be selected is one combination for the image. Therefore, the distance between two vectors that originally have different image features may not increase. At this time, unevenness occurs by adding the signals of the texture portion in the flat portion, and sharpness is lost by adding the signals of different textures in the texture portion.
  • the set of basis vectors to be selected is one combination with respect to the image. Therefore, in the flat portion of the image, the pixel values of the pixels in the texture portion are added, resulting in unevenness. There is a problem that sharpness is lost in the texture portion.
  • the present invention has been made to solve the above-described problems of the prior art, and an object thereof is to provide an image processing apparatus capable of sufficiently suppressing noise without losing the sharpness of an image. .
  • an image processing apparatus includes a first vector having a pixel value of a pixel in a first region including a first pixel in an image as an element, and a plurality of bases
  • a first calculation unit for obtaining a magnitude of correlation with the vector
  • a selection unit for selecting a base vector from the plurality of base vectors according to the magnitude of the correlation
  • a second pixel in the image A second region is selected, and a first projection vector obtained by projecting the first vector onto a partial space constituted by the selected basis vector and a pixel value of a pixel in the region for each second region are arranged.
  • a second calculation unit that performs the distance A weighted average unit that gives a larger weight to the second pixel as it is smaller, performs a pixel value obtained by weighted averaging of the second pixel, and calculates an output pixel value of the first pixel according to the distance;
  • noise can be removed without losing sharpness in the texture portion, and smoothing can be performed while suppressing occurrence of unevenness in the flat portion.
  • FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to a first embodiment.
  • FIG. 1 is a block diagram illustrating an image processing apparatus 100 according to the first embodiment.
  • the image processing apparatus 100 includes an inner product calculation unit 101, a selection unit 102, a projection unit 103, a distance calculation unit 104, and a weighted average unit 105.
  • the inner product calculation unit 101 includes a first vector in which pixel values of pixels in a first region including pixels to be processed (hereinafter referred to as first pixels) in the input image are arranged as elements,
  • the inner product with a plurality of (for example, M) basis vectors stored in the inner product calculating unit 101 is calculated.
  • a plurality of contributions indicating the magnitude of correlation between each base vector and the first vector are calculated by the square of the calculated inner product.
  • an example is shown in which an inner product is used to evaluate the magnitude of the correlation between the first vector and the base vector.
  • the invention is not limited to the inner product as long as the magnitude of the correlation between the vectors can be evaluated. Is possible. The larger the square of the inner product, the higher the correlation between the two vectors.
  • FIG. 2 is a diagram illustrating a calculation example of basis vectors stored in advance.
  • a principal component analysis of vectors in which pixel values of pixels included in each partial image are arranged is performed, and the obtained principal component vectors 303 are used as basis vector groups.
  • Used as The image 301 may be an input image or a learning image other than that.
  • the inner product calculation unit 101 calculates basis vectors.
  • a basis vector group (1) an eigenvector obtained by canonical correlation analysis of an image extracted in advance from one or a plurality of images, (2) a basis of a two-dimensional discrete Fourier transform, ( 3) A base of a two-dimensional discrete wavelet transform or the like may be used.
  • the selection unit 102 selects a plurality of (for example, L, L ⁇ M) basis vectors to be sent to the projection unit 103 from a plurality of basis vectors according to the size of the inner product calculated by the inner product calculation unit 101. Details of the selection method will be described later.
  • the projection unit 103 obtains a first projection vector obtained by projecting the first vector into the partial space constituted by the basis vectors selected by the selection unit 102.
  • the pixels of the second region including the second pixel not to be processed (the pixel that is not the first pixel) in the input image in the partial space formed by the basis vectors selected by the selection unit 102
  • a second projection vector obtained by projecting a second vector in which values are arranged as elements is obtained.
  • One or more second regions are sequentially selected within the search range.
  • the distance calculation unit 104 calculates the inter-vector distance between the first projection vector and the second projection vector for each second region.
  • the weighted average unit 105 gives a large weight to the pixel value of the second pixel corresponding to the second projection vector in which the distance between vectors calculated by the distance calculation unit 104 is relatively small.
  • the weight of each second pixel selected by the projection unit 103 is obtained.
  • the pixel value calculated by the weighted average obtained by multiplying the second pixel value by the weight is set as the output pixel value of the first pixel.
  • An output image in which the pixel value of the first pixel is replaced with the output pixel value obtained by the weighted average unit 105 is output.
  • FIG. 3 is a flowchart showing the operation of the image processing apparatus 100.
  • the operation of the inner product calculation unit 101 will be described with reference to FIG.
  • FIG. 4A shows a region 401 including the first pixel i.
  • FIG. 4B shows a first vector 402 corresponding to the region 401.
  • FIG. 4C shows a base vector group 403 and each base vector 4031 excluding a vector having the maximum absolute value of the sum of elements among the base vectors obtained in advance (the first principal component vector in the example of FIG. 4).
  • FIG. FIG. 4D is a diagram illustrating an example of the contribution 404 calculated by the inner product calculation unit 101.
  • FIG. 4E is a diagram illustrating an example in which the contributions 404 are sorted in descending order.
  • the inner product calculation unit 101 calculates the square of the inner product of the first vector 402 in which the pixel values of the pixels in the region 401 including the first pixel i are arranged and each base vector 4031 of the base vector group 403 (S201). ).
  • the square of the calculated inner product indicates the contribution 404 of each base vector to the region 401 including the first pixel i.
  • the first vector and v i representing the k-th element of v i and (v i) k.
  • 2 ⁇ n ⁇ n obtained by removing the first principal component vector from the prepared N basis vectors.
  • N ⁇ the contribution pn of the nth basis vector is calculated by Equation (1).
  • the selection unit 102 rearranges the contributions 404 calculated by the inner product calculation unit 101 in descending order, and sets the contributions from the top until the sum of the contributions 404 reaches a threshold value indicating a predetermined ratio. to add.
  • a threshold value indicating a predetermined ratio. to add.
  • each base vector corresponding to each contribution added so far is selected (S202). For example, when the threshold value is 0.7, the threshold value pr is
  • the selection unit 102 selects d ⁇ 1 basis vectors ⁇ a n
  • each base vector reflects the high correlation with the image in the area.
  • a basis vector with a small inner product is likely to be affected by noise. Therefore, by selecting a base vector with a large inner product and calculating the inter-vector distance in the subsequent stage, it becomes possible to calculate the inter-vector distance reflecting the characteristics of the signal in the region, and the influence of noise in calculating the inter-vector distance can be reduced. it is conceivable that.
  • the average pixel value in the region has a great influence on the basis vector selection based on the contribution.
  • a vector having a large absolute value of the total sum of elements is relatively high compared to a dark area, so that a vector having a large absolute value of the total sum of elements is easily selected.
  • An inner product of vectors having a large absolute value of the sum of elements has a large correlation with an average pixel value of the region. This means that if the average brightness is equal in a bright region, the texture portion and the flat portion are not distinguished from each other, which causes unevenness in the bright flat portion and blurring in the bright texture portion.
  • the contribution is calculated using a basis vector obtained by removing a vector having the maximum absolute value of the sum of elements from the basis vector group.
  • FIG. 5 is a diagram showing the operation of the projection unit 103.
  • FIG. 5A is a diagram illustrating an example of regions 4011 to 4013 including the first pixel i, the second pixel j, and the second pixel.
  • FIG. 5B is a diagram illustrating a second vector 4021 corresponding to the region including the second pixel.
  • FIG. 5C is a diagram illustrating an example of the partial space A generated by the projecting unit 103.
  • the projection unit 103 uses the d-1 basis vectors selected from the basis vector group in S202 and the basis vector (the first principal component in the example of FIG. 5) having the maximum absolute value of the sum of elements as a subspace A. And a first vector is obtained by projecting the first vector onto the subspace A. Further, the second vector 4021 in which the pixel values of the pixels in the regions 4011 to 4013 including the second pixel in the input image are arranged is projected onto the partial space A to obtain a second projection vector (S203). When d ⁇ 1 basis vectors are selected in S202, the first projection vector v ′ i obtained by projecting the first vector v i onto the d-dimensional subspace A is
  • f i, n is the inner product of the first vector v i and n-th basis vector a n.
  • the second projection vector v 'j with a second vector v j and subspace A is
  • the distance calculation unit 104 calculates the inter-vector distance on the partial space A between the first projection vector and the second projection vector (S204). Assuming that the first projection vector obtained in S203 is v ′ i and the second projection vector is v ′ j , the distance D (i, j) between v ′ i and v ′ j vector is
  • the distance calculation unit 104 determines whether the second projection vector is calculated for the second pixel in the predetermined search range (S205).
  • the search range of the second pixel is various such as all pixels in the image including the first pixel, pixels in the vicinity of the second pixel, and in the image not including the first pixel. It may be in the range. For example, in the case of an input image acquired by a sensor, it is effective to select a pixel on the same line as the second pixel.
  • the weighted average unit 105 performs weighted average processing that gives a larger weight to the pixel value of the second pixel as the calculated inter-vector distance is smaller, and replaces the pixel value of the first pixel (S206).
  • the pixel value of the first pixel to be output ("character P with a hat symbol ⁇ " in the formula is expressed as "P ⁇ " in the text).
  • x i ⁇ is the pixel value x j of the second pixel, for example
  • ⁇ (i) is a range for searching for the second pixel
  • h is a parameter larger than 0.
  • the distance is calculated in the space reflecting the feature of the peripheral region of the pixel to be processed, the distance between the vectors of the two regions having different features is reduced. Can be prevented. For this reason, it is possible to prevent an increase in the weight of pixels in regions having different characteristics during weighted averaging. Accordingly, it is possible to reduce noise while maintaining a sharp feeling in the texture portion, and it is possible to reduce noise in the flat portion without causing unevenness.
  • the image processing apparatus 600 according to the present embodiment is different from the image processing apparatus 100 according to the first embodiment in that a noise calculation unit 601 that calculates a noise amount is further provided.
  • the operation of the selection unit 602 differs according to the amount of noise calculated by the noise calculation unit 601.
  • FIG. 6 is a diagram illustrating the image processing apparatus 600.
  • the noise amount calculation unit 601 calculates the amount of noise superimposed on the first pixel in the input image.
  • the selection unit 502 calculates an inner product of a first vector in which pixel values of pixels in the first region including the first pixel are arranged and a plurality of basis vectors, and calculates a basis vector having a large inner product as the calculated noise. The smaller the amount, the smaller the choice.
  • FIG. 7 is a flowchart showing the operation of the image processing apparatus 600.
  • the noise amount calculation unit 501 estimates the amount of noise superimposed on the first region including the first pixel to be processed of the input image (S701).
  • the amount of noise can be obtained, for example, as a value obtained by multiplying the square root of the average value of the pixel values in the first region by a parameter of 0 or more.
  • the standard deviation of the pixel values in the first area can be used as the noise amount.
  • the noise amount In addition to estimating and calculating the noise amount from the input image, for example, when the image processing apparatus is incorporated into a digital camera or the like, ISO sensitivity may be used as the noise amount.
  • ISO sensitivity When the image processing apparatus is incorporated in an X-ray fluoroscopic apparatus or the like, for example, a value having a negative correlation with the X-ray dose to be irradiated may be used as the noise amount. Further, when the amount of noise generated in these photographing apparatuses is known, the value can be used.
  • the selection unit 602 rearranges the contributions calculated in S201 in descending order, and uses the value of a predetermined ratio of the total contributions as a threshold, and adds the contribution from the top until the threshold is reached. Similar to S202, the calculation is performed except for the vector having the maximum absolute value of the sum of the elements. At this time, the threshold is lowered as the amount of noise calculated in S701 increases. When the threshold is reached, each base vector corresponding to each contribution added so far is selected (S703).
  • the image processing apparatus of the present embodiment when the amount of noise superimposed on the image is small, the number of basis vectors to be selected is automatically increased, and the signal change in the input image is left faithfully, thereby flattening the texture signal. It is possible to prevent addition to the part. Therefore, the unevenness of the flat portion can be further reduced as compared with the first embodiment.
  • the number of basis vectors to be selected is automatically reduced, so that the subspace is constituted only by basis vectors that particularly reflect the state of signal change. Therefore, the influence of noise in calculating the distance between vectors can be effectively reduced, and noise can be removed while maintaining the sharpness of the texture as compared with the case where the number of base vectors is large.
  • the basis vector is obtained by excluding the principal component vectors whose eigenvalues corresponding to the principal component vectors obtained in the principal component analysis are smaller than a predetermined threshold. Groups may be configured.
  • the contributions of the basis vectors excluding the vector having the maximum absolute value of the sum of the elements in the basis vector group without rearranging the contributions in the inner product calculation unit are used as the principal components.
  • the base vectors corresponding to the respective contributions added so far may be selected when the eigenvalues obtained by the analysis are added in order, and when the threshold value is reached.
  • the inner product calculation unit may be designed so as to calculate the contribution of a base vector in which the absolute value of the sum of the elements of the base vector group is smaller than a predetermined threshold.
  • the contribution of each base vector may be calculated after subtracting the average pixel value of the first region.
  • Equation 4 the absolute value of the inner product of the base vector and the first vector in which the pixel values of the pixels existing in the peripheral region including the first pixel are arranged as the contribution of the base vector. May be used. In this case, instead of Equation 1, Equation 9 is used as the contribution.
  • Equation 10 may be used instead of Equation 4 as the inter-vector distance between the first projection vector and the second projection vector.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
  • constituent elements over different embodiments may be appropriately combined.
  • This image processing apparatus can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, the inner product calculation unit, the projection unit, the distance calculation unit, and the weighted average unit can be realized by causing the processor mounted on the computer device to execute a program. At this time, the image processing apparatus may be realized by installing the above program in a computer device in advance, or may be stored in a storage medium such as a CD-ROM or distributed through the network. Thus, this program may be realized by appropriately installing it in a computer device.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 第1の算出部は画像内の第1の画素を含む領域の画素の画素値を要素とする第1のベクトルと、複数の基底ベクトルとの相関の大きさを求める。選択部は、前記複数の基底ベクトルから、前記相関の大きさに従って基底ベクトルを選択する。射影部は、前記選択された基底ベクトルによって構成される部分空間へ前記第1のベクトルを射影した第1の射影ベクトルと、前記部分空間へ前記画像内の第2の画素を含む領域の画素の画素値を並べた第2のベクトルとを射影する。前記第1の射影ベクトルと、前記第2の射影ベクトルとの距離を算出する第2の算出部と、前記距離が小さいほど前記第2の画素に大きな重みを与え、前記第2の画素を加重平均して求めた画素値を行い前記距離に応じて前記第1の画素の出力画素値を算出する加重平均部を備える。

Description

画像処理装置、及びその方法
 本発明は、画像のノイズを低減する画像処理装置及びその方法に関する。
 ランダムなノイズを低減する画像処理技術として、NON-LOCAL MEANSと呼ばれるアルゴリズムが提案されている。処理対象の画素を中心とするブロック内の画素値を並べたベクトルと、周辺画素を中心とするブロック内の画素値を並べたベクトルとの間のベクトル間距離に応じた重みを用い、周辺画素の画素値を加重平均し、処理対象の画素を置き換える技術がある(例えば、非特許文献1)。
 NON-LOCAL MEANSによる計算コストを削減するために、主成分分析によって求めた画像の基底ベクトルのうち、主成分分析時に寄与率の大きい基底ベクトル選択して用いる手法が提案されている(例えば、非特許文献2)。処理対象の画素を中心とするブロック内の画素値を並べたベクトルと、周辺画素を中心とするブロック内の画素値を並べたベクトルを選択された基底ベクトルで構成される部分空間に射影し、その部分空間でのベクトル間距離を算出する。
 上記従来技術では、選択される基底ベクトルの組が画像に対して1つの組合せであった。そのため、本来異なる画像特徴を持つ2つのベクトルの間の距離が大きくならない場合がある。このとき、平坦部ではテクスチャ部の信号を加算することでムラが生じ、テクスチャ部では異なるテクスチャの信号を加算することで鮮鋭感が失われてしまっていた。
A. Buadess, B. Coll, J.-M. Morel, "A Non-local Algorithm for Image Denoising," Computer Vision and Pattern Recognition 2005, IEEE Computer Society Conference on, vol.2, pp.60-65. T. Tasdizen, "Principal Components for Non-local Means Image Denoising," Image Processing 2008, 15th IEEE International Conference on, pp.1728-1731.
 上述したように従来技術では、選択される基底ベクトルの組が画像に対して1つの組合せであったため、画像の平坦部ではテクスチャ部の画素の画素値を加算することでムラが生じ、画像のテクスチャ部では鮮鋭感が失われるという問題があった。
 本発明は、上記従来技術の問題点を解決するためになされたものであって、画像の鮮鋭感を失うことなくノイズを十分に抑制することができる画像処理装置を提供することを目的とする。
上記目的を達成するために、本発明の一態様に係る画像処理装置は、 画像内の第1の画素を含む第1領域の画素の画素値を要素とする第1のベクトルと、複数の基底ベクトルとの相関の大きさを求める第1の算出部と、前記複数の基底ベクトルの中から、前記相関の大きさに従って基底ベクトルを選択する選択部と、前記画像内の第2の画素を含む第2領域を選択し、前記選択された基底ベクトルによって構成される部分空間へ前記第1のベクトルを射影した第1の射影ベクトルと、前記第2領域ごとに当該領域の画素の画素値を並べた第2のベクトルを前記部分空間へ射影した第2の射影ベクトルとを求める射影部と、前記第2領域ごとに、前記第1の射影ベクトルと、前記第2の射影ベクトルとの距離を算出する第2の算出部と、前記距離が小さいほど前記第2の画素に大きな重みを与え、前記第2の画素を加重平均して求めた画素値を行い前記距離に応じて前記第1の画素の出力画素値を算出する加重平均部と、を備えることを特徴とする画像処理装置。
 
を備える。
 ランダムノイズが多く含まれた画像に対して、テクスチャ部では鮮鋭感を損なうことなくノイズを除去することができ、平坦部ではムラの発生を抑えながら平滑化することができる。
第1の実施形態の画像処理装置の構成を示す図。 基底ベクトルの例を示す図。 第1の実施形態の動作を示すフローチャート。 内積算出部の動作を説明する図。 射影部の動作を説明する図。 第2の実施形態の画像処理装置の構成を示す図。 第2の実施形態の動作を示すフローチャート。
 以下、本発明の実施の形態について、詳細に説明する。なお、互いに同様の動作をする構成や処理には共通の符号を付して重複する説明は省略する。
 (第1の実施形態)
 図1は、第1の実施形態の画像処理装置100を示すブロック図である。 
 画像処理装置100は、内積算出部101、選択部102、射影部103、距離算出部104、加重平均部105を備える。
 内積算出部101は、入力画像内のうち処理対象となる画素(以下、第1の画素と記載)を含む第1の領域の画素の画素値を要素として並べた第1のベクトルと、予め内積算出部101内に記憶した複数(たとえばM個)の基底ベクトルとの内積を算出する。算出した内積の2乗により各基底ベクトルと第1のベクトルとの間の相関の大きさを示す複数の寄与度を計算する。本実施形態では、第1のベクトルと基底ベクトルの相関の大きさを評価するために内積を用いた例について示すが、ベクトル間の相関の大きさを評価できるものであれば内積に限らず利用することが可能である。内積の2乗の大きさが大きいほど2つのベクトル間の相関が高いことを示す。
 図2は、予め記憶してある基底ベクトルの算出例を示す図である。予め一枚もしくは複数枚の画像301から抽出した部分画像302について、それぞれの部分画像に含まれる画素の画素値を並べたベクトルの主成分分析を行い、得られた主成分ベクトル303を基底ベクトル群として用いる。画像301は、入力画像であっても良いし、それ以外の学習用画像であっても構わない。順次主成分分析を用いる場合には内積算出部101が基底ベクトルの算出を行う。
 なお、上記した手法以外に、基底ベクトル群として、(1)予め一枚もしくは複数枚の画像から抽出した画像の正準相関分析によって得られる固有ベクトル、(2)2次元離散フーリエ変換の基底、(3)2次元離散ウェーブレット変換の基底等を用いてもよい。
 選択部102は、内積算出部101が算出した内積の大きさに従って、複数の基底ベクトルの中から、射影部103に送る複数(例えばL個、L≦M)の基底ベクトルを選択する。選択方法の詳細については後述する。
 射影部103は、選択部102が選択した基底ベクトルによって構成される部分空間へ、第1のベクトルを射影した第1の射影ベクトルを求める。また、選択部102が選択した基底ベクトルによって構成される部分空間へ、入力画像内の、処理対象としない第2の画素(第1の画素ではない画素)を含む第2の領域の画素の画素値を要素として並べた第2のベクトルを射影した第2の射影ベクトルを求める。第2の領域は、探索範囲内で1以上順次選択される。
 距離算出部104は、第1の射影ベクトルと第2の射影ベクトルの間のベクトル間距離を第2の領域毎に算出する。
 加重平均部105は、距離算出部104が算出したベクトル間距離が相対的に小さい第2の射影ベクトルに対応する第2の画素の画素値に対しては大きな重みを与える。射影部103が選択した第2の画素それぞれの重みを求める。第2の画素値に対して重みを乗算した和による加重平均によって算出された画素値を第1の画素の出力画素値とする。第1の画素の画素値を、加重平均部105が求めた出力画素値に置き換えた出力画像を出力する。
 次に、画像処理装置100の動作について説明する。 
 図3は、画像処理装置100の動作を示すフローチャートである。内積算出部101の動作を示す図4を参照しながら説明する。図4(a)は、第1画素iを含む領域401を示す図である。図4(b)は、領域401に対応する第1のベクトル402を示す図である。図4(c)は、あらかじめ得ていた基底ベクトルのうち要素の総和の絶対値が最大のベクトル(図4の例では第1主成分ベクトル)を除いた基底ベクトル群403及び各基底ベクトル4031を示す図である。図4(d)は、内積算出部101が算出した寄与度404の例を示す図である。図4(e)は、寄与度404の高いものから順に並び替えた例を示す図である。
 内積算出部101は、第1画素iを含む領域401の画素の画素値を並べた第1のベクトル402と、基底ベクトル群403の各基底ベクトル4031との内積の2乗を算出する(S201)。算出された内積の2乗は、第1画素iを含む領域401に対する各基底ベクトルの寄与度404を示す。
 第1のベクトルをvとし、vのk番目の要素を(vと表す。要素の総和の絶対値が最大のベクトルが第一主成分ベクトルだとすると、用意されたN個の基底ベクトルから第1主成分ベクトルを除いたN-1個の基底ベクトル{a|2≦n≦N}のうちn番目の基底ベクトルの寄与度pは数1で計算される。 
Figure JPOXMLDOC01-appb-M000001
 算出された各基底ベクトルの寄与度404の例を図4(e)に示す。
 次に、選択部102は、内積算出部101が算出した寄与度404を降順に並べ替えた上で、寄与度404の総和が、所定の割合を示す閾値に到達するまで寄与度を先頭から加算する。閾値に到達したとき、それまでに加算した各寄与度に対応するそれぞれの基底ベクトルを選択する(S202)。例えば閾値を0.7としたとき、閾値p
Figure JPOXMLDOC01-appb-M000002
と計算される。 
Figure JPOXMLDOC01-appb-M000003
を満たす最大のdを求めたとき、選択部102はd-1個の基底ベクトル{a|2≦n≦d}を選択する。
 画像内のある領域の画素の画素値を並べたベクトルと各基底ベクトルとの内積は、当該領域の画像との相関の高さを反映していると考えられる。内積の小さな基底ベクトルはノイズの影響を受けている可能性が高い。そのため、内積の大きな基底ベクトルを選択して後段のベクトル間距離算出を行うことで、当該領域の信号の特徴を反映したベクトル間距離算出が可能となり、ベクトル間距離算出におけるノイズの影響を低減できると考えられる。
 しかし、基底ベクトル群の全ての基底ベクトル(第1主成分を含めた)を用いて寄与度を計算する、すなわち
Figure JPOXMLDOC01-appb-M000004
とすると、当該領域の平均的な画素値が、寄与度に基づいた基底ベクトル選択に大きな影響を与えるようになる。例えば、明るい領域では暗い領域と比べて要素の総和の絶対値が大きいベクトルの寄与度が相対的に高いため、要素の総和の絶対値が大きなベクトルが選択されやすくなる。要素の総和の絶対値が大きなベクトルの内積は、当該領域の平均的な画素値と大きな相関を持つ。これは、明るい領域では明るさの平均が同等であればテクスチャ部と平坦部とを区別しないことになり、明るい平坦部のムラや明るいテクスチャ部のボケの原因となる。この問題を解決するため、基底ベクトル群のうちから要素の総和の絶対値が最大のベクトルを除いた基底ベクトルを用いて寄与度を計算する構成とした。それにより明るい領域において、要素の総和の絶対値が小さく、当該領域の信号の変化の様子をよく表す基底ベクトルが選択される。従って明るい領域においても、平坦部のムラやテクスチャ部のボケが生じにくくなる。
 図5は、射影部103の動作を示す図である。図5(a)は、第1の画素iと、第2の画素j及び第2の画素を含む領域4011~4013の例を示す図である。図5(b)は、第2の画素を含む領域に対応する第2のベクトル4021を示す図である。図5(c)は、射影部103が生成する部分空間Aの例を示す図である。
 射影部103は、S202で基底ベクトル群から選択されたd-1個の基底ベクトルと、要素の総和の絶対値が最大の基底ベクトル(図5の例では第1主成分)とにより部分空間Aを構成し、第1のベクトルを部分空間Aに射影して第1の射影ベクトルを求める。また、入力画像内の第2の画素を含む領域4011~4013の画素の画素値を並べた第2のベクトル4021を、それぞれ部分空間Aへ射影して第2の射影ベクトルを求める(S203)。S202でd-1個の基底ベクトルが選択されたとき、第1のベクトルvをd次元の部分空間Aへ射影した第1の射影ベクトルv’iは、
Figure JPOXMLDOC01-appb-M000005
と表される。ここで、fi,nは第1のベクトルvとn番目の基底ベクトルaとの内積である。同様に、第2のベクトルvを部分空間Aした第2の射影ベクトルv’
Figure JPOXMLDOC01-appb-M000006
と表される。
 距離算出部104は、第1の射影ベクトルと第2の射影ベクトルの、部分空間A上でのベクトル間距離を算出する(S204)。S203で得られた第1の射影ベクトルをv’i、第2の射影ベクトルをv’とすると、v’iとv’ベクトル間距離D(i,j)は、 
Figure JPOXMLDOC01-appb-M000007
と計算される。
 距離算出部104は、所定の探索範囲内の第2の画素について第2の射影ベクトルを算出したか判定する(S205)。第2の画素の探索範囲は、第1の画素の含まれている画像内全画素や、第2の画素の近傍の範囲内の画素や、第1の画素の含まれていない画像内等種々の範囲であって構わない。なお、例えばセンサが取得した入力画像の場合には同じライン上の画素を第2の画素として選択することが有効である。探索範囲の全第2の画素について第2の射影ベクトルを算出した場合には(S205,Yes)、
 加重平均部105は算出されたベクトル間距離が小さいほど第2の画素の画素値に大きな重みを与える加重平均処理を行い、第1の画素の画素値を置き換える(S206)。出力される第1の画素の画素値(数式中の「ハット記号^の付された文字P」を、本文中では「P^」と表記する)。xi^は第2の画素の画素値xを用いて例えば
Figure JPOXMLDOC01-appb-M000008
で計算される。ここでΩ(i)は第2の画素を探索する範囲であり、hは0より大きいパラメータである。
 このように、本実施形態の画像処理装置によれば、処理対象となる画素の周辺領域の特徴を反映した空間で距離を算出するため、特徴の異なる2つの領域のベクトル間距離が小さくなることを防ぐことができる。そのため、加重平均の際に特徴の異なる領域の画素の重みが大きくなることを防ぐことができる。従って、テクスチャ部では鮮鋭感を保ちながらノイズを低減することが可能となり、平坦部ではムラを生じることなくノイズを低減することが可能となる。
 (第2の実施形態) 
 本実施形態の画像処理装置600は、第1の実施形態の画像処理装置100と比べて、さらにノイズ量を算出するノイズ算出部601を設けた点が異なる。ノイズ算出部601が算出したノイズ量に従って選択部602の動作が異なる。
 図6は、画像処理装置600を示す図である。 
 ノイズ量算出部601は、入力画像内の第1の画素に重畳されたノイズ量を算出する。 
 選択部502は、第1の画素を含む第1の領域の画素の画素値を並べた第1のベクトルと複数の基底ベクトルとの内積を計算し、内積の大きい基底ベクトルを、算出されたノイズ量が大きいほど少なく選択する。
 図7は、画像処理装置600の動作を示すフローチャートである。本実施形態においては、予め一枚もしくは複数枚の画像から抽出した部分画像の主成分分析を行い、得られた主成分ベクトルを基底ベクトル群として用いる例について述べる。 
 ノイズ量算出部501が、入力画像の処理対象となる第1の画素を含む第1の領域に重畳されたノイズ量を推定する(S701)。ノイズ量は、例えば前記第1の領域の画素値の平均値の平方根に対して0以上のパラメータを乗算した値として得ることができる。または、前記第1の領域の画素値の標準偏差をノイズ量として用いることもできる。なおノイズ量を入力画像から推定して算出するだけでなく、画像処理装置をデジタルカメラ等に組み込む場合は、ノイズ量として例えばISO感度を用いてもよい。画像処理装置をX線透視装置等に組み込む場合は、ノイズ量として例えば照射するX線量と負の相関を持つ値を用いてもよい。また、これらの撮影装置において発生するノイズ量が既知の場合は、その値を用いることができる。
 選択部602は、S201で計算された寄与度を降順に並べ替えた上で、寄与度の総和のうち所定の割合の値を閾値として、閾値に到達するまで寄与度を先頭から加算する。S202と同様に要素の総和の絶対値が最大のベクトルは除いて算出する。このとき、S701で算出されたノイズ量が多いほど閾値が低くなるようにする。閾値に到達したとき、それまでに加算した各寄与度に対応するそれぞれの基底ベクトルを選択する(S703)。
 本実施形態の画像処理装置によれば、画像に重畳されたノイズ量が少ないときには選択する基底ベクトルの数を自動的に増やし入力画像の信号変化を忠実に残すことで、テクスチャ部の信号を平坦部に加算することを防ぐことができる。そのため、第1の実施形態よりも更に平坦部のムラを低減することができる。ノイズ量が多いときには選択する基底ベクトルの数を自動的に減らすことで、信号の変化の様子を特に反映した基底ベクトルのみにより部分空間が構成される。そのためベクトル間距離算出におけるノイズの影響を効果的に低減し、基底ベクトルの数が多い場合と比べてテクスチャの鮮鋭感を保ちながらノイズを除去することができる。
(変形例1) 
 第1および第2の実施形態においては、主成分ベクトルのうち、主成分分析の際に得られたそれぞれの主成分ベクトルに対応する固有値が所定の閾値よりも小さいものを除いたベクトルにより基底ベクトル群を構成してもよい。
(変形例2) 
 第1および第2の実施形態においては、内積算出部において寄与度を並べ替えることなく、基底ベクトル群のうち要素の総和の絶対値が最大のベクトルを除く基底ベクトルの寄与度を、主成分分析によって得られた固有値の順に加算していき、閾値に到達したときにそれまでに加算した各寄与度に対応するそれぞれの基底ベクトルを選択してもよい。
(変形例3) 
 第1および第2の実施形態においては内積算出部において、基底ベクトル群のうち要素の総和の絶対値が所定の閾値よりも小さな基底ベクトルの寄与度を計算するように設計してもよい。また、第1の領域の平均的な画素値を差し引いた上で各基底ベクトルの寄与度を計算してもよい。
(変形例4) 
 第1および第2の実施形態においては、基底ベクトルの寄与度として、第1の画素を含む周辺領域に存在する画素の画素値を並べた第1のベクトルと、基底ベクトルとの内積の絶対値を用いてもよい。この場合、数1に代わり寄与度として数9が用いられる。 
Figure JPOXMLDOC01-appb-M000009
ここで、|・|は絶対値を表す記号である。
(変形例5) 
 第1、2の実施形態においては、第1の射影ベクトルと第2の射影ベクトルのベクトル間距離として、数4に代わり数10を用いてもよい。 
Figure JPOXMLDOC01-appb-M000010
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 なお、この画像処理装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。すなわち、内積算出部、射影部、距離算出部および加重平均部は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、画像処理装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD-ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。
100、600・・・画像処理装置、
101・・・内積算出部、
102、602・・・選択部
103・・・射影部
104・・・距離算出部
105・・・加重平均部
601・・・ノイズ量算出部

Claims (10)

  1.  画像内の第1の画素を含む第1領域の画素の画素値を要素とする第1のベクトルと、複数の基底ベクトルとの相関の大きさを求める第1の算出部と、
     前記複数の基底ベクトルの中から、前記相関の大きさに従って基底ベクトルを選択する選択部と、
     前記画像内の第2の画素を含む第2領域を選択し、前記選択された基底ベクトルによって構成される部分空間へ前記第1のベクトルを射影した第1の射影ベクトルと、前記第2領域ごとに当該領域の画素の画素値を並べた第2のベクトルを前記部分空間へ射影した第2の射影ベクトルとを求める射影部と、
     前記第2領域ごとに、前記第1の射影ベクトルと、前記第2の射影ベクトルとの距離を算出する第2の算出部と、
     前記距離が小さいほど前記第2の画素に大きな重みを与え、前記第2の画素を加重平均して求めた画素値を行い前記距離に応じて前記第1の画素の出力画素値を算出する加重平均部と、
    を備えることを特徴とする画像処理装置。
  2.  前記射影部は、前記第2の画素を含む第2の領域を複数選択することを特徴とする請求項1記載の画像処理装置。
  3.  前記第1の算出部は、前記第1のベクトルと、前記複数の基底ベクトルとの内積によって前記相関の大きさを求めることを特徴とする請求項1記載の画像処理装置。
  4.  前記内積算出部は、前記内積の2乗によって計算される寄与度を計算し、
     前記選択部は、前記寄与度の合計が所定の閾値に到達するまで前記寄与度が大きい基底ベクトルから寄与度を加算していき、前記閾値に到達するまでに前記寄与度を加算した前記基底ベクトルを選択することを特徴とする請求項2記載の画像処理装置。
  5.  前記内積算出部は、前記内積の絶対値によって計算される寄与度を計算し、
     前記選択部は、前記寄与度の合計が所定の閾値に到達するまで前記寄与度が大きい基底ベクトルから寄与度を加算していき、前記閾値に到達するまでに前記寄与度を加算した前記基底ベクトルを選択することを特徴とする請求項2記載の画像処理装置。
  6.  前記選択部は、要素の総和の絶対が所定の基準より大きい基底ベクトルを除いた前記複数の基底ベクトルの中から前記相関の大きさに従って前記基底ベクトルを選択し、
     前記射影部は、要素の総和の絶対が所定の基準より大きい基底ベクトルと、前記選択された基底ベクトルによって前記部分空間を構成することを特徴とする請求項2記載の画像処理装置。
  7.  前記第1の画素を含む領域のノイズ量を算出するノイズ量算出部を更に備え、
     前記選択部は、前記ノイズ量が多いほど選択する基底ベクトルの数を少なくすることを特徴とする請求項1記載の画像処理装置。
  8.  前記内積算出部は、事前に一以上の画像から抽出した複数のブロックの主成分分析により基底ベクトルを求めることを特徴とする請求項2に記載の画像処理装置。
  9.  前記内積算出部は、前記基底ベクトルとして2次元離散ウェーブレット変換の基底を用いることを特徴とする請求項2に記載の画像処理装置。
  10. 画像内の第1の画素を含む第1領域の画素の画素値を要素とする第1のベクトルと、複数の基底ベクトルとの相関の大きさを求め、
     前記複数の基底ベクトルの中から、前記相関の大きさに従って基底ベクトルを選択する、
     前記画像内の第2の画素を含む第2領域を選択し、前記選択された基底ベクトルによって構成される部分空間へ前記第1のベクトルを射影した第1の射影ベクトルと、前記第2領域ごとに当該領域の画素の画素値を並べた第2のベクトルを前記部分空間へ射影した第2の射影ベクトルとを求める、
     前記第2領域ごとに、前記第1の射影ベクトルと、前記第2の射影ベクトルとの距離を算出する、
     前記距離が小さいほど前記第2の画素に大きな重みを与え、前記第2の画素を加重平均して求めた画素値を行い前記距離に応じて前記第1の画素の出力画素値を算出する、
    ことを特徴とする画像処理装置。
PCT/JP2010/000126 2010-01-13 2010-01-13 画像処理装置、及びその方法 WO2011086594A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011549740A JP5431501B2 (ja) 2010-01-13 2010-01-13 画像処理装置、及びその方法
CN2010800613551A CN102713971A (zh) 2010-01-13 2010-01-13 图像处理设备以及方法
PCT/JP2010/000126 WO2011086594A1 (ja) 2010-01-13 2010-01-13 画像処理装置、及びその方法
US13/548,709 US8693804B2 (en) 2010-01-13 2012-07-13 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/000126 WO2011086594A1 (ja) 2010-01-13 2010-01-13 画像処理装置、及びその方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/548,709 Continuation-In-Part US8693804B2 (en) 2010-01-13 2012-07-13 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
WO2011086594A1 true WO2011086594A1 (ja) 2011-07-21

Family

ID=44303903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000126 WO2011086594A1 (ja) 2010-01-13 2010-01-13 画像処理装置、及びその方法

Country Status (4)

Country Link
US (1) US8693804B2 (ja)
JP (1) JP5431501B2 (ja)
CN (1) CN102713971A (ja)
WO (1) WO2011086594A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013041398A (ja) * 2011-08-15 2013-02-28 Toshiba Corp 画像処理装置、方法及びプログラム
JP2014130512A (ja) * 2012-12-28 2014-07-10 Toshiba Corp 画像処理装置および画像処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017087544A1 (en) * 2015-11-16 2017-05-26 Silicon Graphics International Corp. Method and system for shared direct access storage
KR20200080926A (ko) * 2018-12-27 2020-07-07 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163569A (ja) * 1998-11-30 2000-06-16 Mitsubishi Electric Corp 画質改善方法及び画質改善装置
JP2001034756A (ja) * 1999-07-21 2001-02-09 Nippon Hoso Kyokai <Nhk> 被写体認識装置および記録媒体
JP2001251645A (ja) * 2000-03-06 2001-09-14 Fuji Photo Film Co Ltd マルチスペクトル画像の画像圧縮方法および画像圧縮装置
JP2002157595A (ja) * 2000-11-20 2002-05-31 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP2002318818A (ja) * 2001-04-20 2002-10-31 Canon Inc データ処理装置及びその方法、及びそのプログラム
JP2006269651A (ja) * 2005-03-23 2006-10-05 Canon Inc 画像抽出装置および方法、並びにそれらを有する露光装置および方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110435B1 (en) * 1999-03-15 2006-09-19 Parkervision, Inc. Spread spectrum applications of universal frequency translation
WO2002064151A1 (en) * 2001-02-09 2002-08-22 Physician's Choice Of Arizona, Inc. Acrochordon alleviation
US7171048B2 (en) * 2002-04-10 2007-01-30 National Instruments Corporation Pattern matching system utilizing discrete curve matching with a mapping operator
US7327887B2 (en) * 2002-04-10 2008-02-05 National Instruments Corporation Increasing accuracy of discrete curve transform estimates for curve matching
CN101232572B (zh) * 2007-01-23 2010-05-26 展讯通信(上海)有限公司 一种数字图像降噪方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163569A (ja) * 1998-11-30 2000-06-16 Mitsubishi Electric Corp 画質改善方法及び画質改善装置
JP2001034756A (ja) * 1999-07-21 2001-02-09 Nippon Hoso Kyokai <Nhk> 被写体認識装置および記録媒体
JP2001251645A (ja) * 2000-03-06 2001-09-14 Fuji Photo Film Co Ltd マルチスペクトル画像の画像圧縮方法および画像圧縮装置
JP2002157595A (ja) * 2000-11-20 2002-05-31 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP2002318818A (ja) * 2001-04-20 2002-10-31 Canon Inc データ処理装置及びその方法、及びそのプログラム
JP2006269651A (ja) * 2005-03-23 2006-10-05 Canon Inc 画像抽出装置および方法、並びにそれらを有する露光装置および方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANTONI BUADES ET AL.: "A non-local algorithm for image denoising", COMPUTER VISION AND PATTERN RECOGNITION 2005 IEEE COMPUTER SOCIETY CONFERENCE ON, vol. 2, 2005, pages 60 - 65 *
TOLGA TASDIZEN: "PRINCIPAL COMPONENTS FOR NON- LOCAL MEANS IMAGE DENOISING", IMAGE PROCESSING 2008 15TH IEEE INTERNATIONAL CONFERENCE ON, 2008, pages 1728 - 1731, XP031374355 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013041398A (ja) * 2011-08-15 2013-02-28 Toshiba Corp 画像処理装置、方法及びプログラム
JP2014130512A (ja) * 2012-12-28 2014-07-10 Toshiba Corp 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JPWO2011086594A1 (ja) 2013-05-16
JP5431501B2 (ja) 2014-03-05
CN102713971A (zh) 2012-10-03
US20130011077A1 (en) 2013-01-10
US8693804B2 (en) 2014-04-08

Similar Documents

Publication Publication Date Title
CN111047516B (zh) 图像处理方法、装置、计算机设备和存储介质
US20170365046A1 (en) Algorithm and device for image processing
JP4999680B2 (ja) 画像ノイズを低減することによる画像データ処理方法および該方法を実行するカメラ組み込み手段
JP5928753B2 (ja) 空間シフトを用いて視覚品質メトリックのロバスト性を向上させる方法およびシステム
US9159121B2 (en) Method for image denoising
JP6324155B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20150254814A1 (en) Globally dominant point spread function estimation
JP2017010092A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2019101686A (ja) 画像処理装置、画像処理方法およびプログラム
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
JP2012208553A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5765893B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5431501B2 (ja) 画像処理装置、及びその方法
JP2018133110A (ja) 画像処理装置及び画像処理プログラム
JP7114431B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP6541454B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP7301589B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110689486A (zh) 图像的处理方法、装置、设备及计算机可存储介质
JP2010181951A (ja) 画像処理装置および画像処理プログラム
US20180018759A1 (en) Image artifact detection and correction in scenes obtained from multiple visual images
WO2016051716A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラムを記憶する記録媒体
JP5558431B2 (ja) 画像処理装置、方法及びプログラム
JP6938282B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5784472B2 (ja) 画像処理装置、方法及びプログラム
JP2017098933A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080061355.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10842956

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011549740

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10842956

Country of ref document: EP

Kind code of ref document: A1