JP2008506176A - Method and apparatus for image processing - Google Patents

Method and apparatus for image processing Download PDF

Info

Publication number
JP2008506176A
JP2008506176A JP2007519920A JP2007519920A JP2008506176A JP 2008506176 A JP2008506176 A JP 2008506176A JP 2007519920 A JP2007519920 A JP 2007519920A JP 2007519920 A JP2007519920 A JP 2007519920A JP 2008506176 A JP2008506176 A JP 2008506176A
Authority
JP
Japan
Prior art keywords
image
pixels
filter
weighting factor
sad
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007519920A
Other languages
Japanese (ja)
Other versions
JP4681608B2 (en
Inventor
正 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Aloka Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aloka Co Ltd filed Critical Aloka Co Ltd
Publication of JP2008506176A publication Critical patent/JP2008506176A/en
Application granted granted Critical
Publication of JP4681608B2 publication Critical patent/JP4681608B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Abstract

イメージ処理のための方法が、それぞれが輝度を有する複数のピクセルを包含するイメージを処理し、複数のピクセルを包含するイメージ処理後のイメージを生成するステップ、イメージに対して保存フィルタを適用し、イメージの複数のピクセルの少なくとも1つに対応する少なくとも1つの保存値を生成するステップ、少なくとも1つの保存値のそれぞれについて重み付け係数aを計算するステップ、および少なくとも1つの重み付け係数のそれぞれを使用してイメージとイメージ処理後のイメージを混合し、複数のピクセルを包含する出力イメージを生成するステップを包含する。  A method for image processing, processing an image including a plurality of pixels each having a luminance and generating an image-processed image including the plurality of pixels, applying a storage filter to the image; Using at least one stored value corresponding to at least one of the plurality of pixels of the image, calculating a weighting factor a for each of the at least one stored value, and using each of the at least one weighting factor Mixing the image and the image processed image to produce an output image that includes a plurality of pixels.

Description

関連出願に対するクロス・リファレンス
本件出願は、2004年7月9日に出願された米国特許仮出願第60/586,550号の恩典を主張する。
CROSS REFERENCE TO RELATED APPLICATION This application claims the benefit of US Provisional Application No. 60 / 586,550, filed July 9, 2004.

本発明は、イメージ品質の向上および超音波イメージにおけるノイズの低減のためのイメージ処理の方法および装置に関する。   The present invention relates to an image processing method and apparatus for improving image quality and reducing noise in ultrasound images.

イメージ処理は、通常、スムージング、シャープニング、および全体的なイメージのコントラストの改善によってイメージ品質を向上させる。たとえばスムージングは、ノイズを低減し、コントラストを改善することができる。しかしながら、医療イメージングの場合においては、スムージングがいくつかの臨床的に重要な特徴の損失を招くことがある。その種の重要なイメージの特徴は、一般に不連続検出フィルタによって不連続として検出される。不連続の検出は、エッジ、ライン、またはポイントのレベルにおいて実行が可能である。図1を参照すると、従来技術のエッジ検出フィルタ11が例示されている。図2を参照すると、従来技術のライン検出フィルタ21が例示されている。図3を参照すると、従来技術のポイント検出フィルタ31が例示されている。残念ながら、従来技術のフィルタ11、21および31は、すべて、イメージのノイズまたは信号対ノイズ比に対して敏感である。したがって、重要なイメージの特徴の検出および保存両方のためのフィルタが必要とされている。   Image processing typically improves image quality by smoothing, sharpening, and improving overall image contrast. For example, smoothing can reduce noise and improve contrast. However, in the case of medical imaging, smoothing can result in the loss of some clinically important features. Such important image features are generally detected as discontinuities by a discontinuity detection filter. Discontinuity detection can be performed at the edge, line, or point level. Referring to FIG. 1, a prior art edge detection filter 11 is illustrated. Referring to FIG. 2, a prior art line detection filter 21 is illustrated. Referring to FIG. 3, a conventional point detection filter 31 is illustrated. Unfortunately, the prior art filters 11, 21, and 31 are all sensitive to image noise or signal-to-noise ratio. Therefore, there is a need for a filter for both detection and storage of important image features.

したがって本発明は、イメージ品質を向上させ、超音波イメージ内のノイズを低減するイメージ処理の方法および装置を提供することをその目的とする。   Accordingly, it is an object of the present invention to provide an image processing method and apparatus that improves image quality and reduces noise in an ultrasound image.

本発明によれば、イメージ処理のための方法が、それぞれが輝度を有する複数のピクセルを包含するイメージを処理し、複数のピクセルを包含するイメージ処理後のイメージを生成するステップ、イメージに対して保存フィルタを適用し、イメージの複数のピクセルの少なくとも1つに対応する少なくとも1つの保存値を生成するステップ、少なくとも1つの保存値のそれぞれについて重み付け係数αを計算するステップ、および少なくとも1つの重み付け係数のそれぞれを使用してイメージとイメージ処理後のイメージを混合し、複数のピクセルを包含する出力イメージを生成するステップを包含する。   According to the present invention, a method for image processing processes an image including a plurality of pixels each having a luminance, and generates an image-processed image including a plurality of pixels. Applying a conservative filter to generate at least one conserved value corresponding to at least one of the plurality of pixels of the image, calculating a weighting factor α for each of the at least one conserved value, and at least one weighting factor Are used to mix the image with the imaged image to produce an output image that includes a plurality of pixels.

本発明によれば、イメージ処理のための装置が、それぞれが輝度を有する複数のピクセルを包含するイメージを処理し、複数のピクセルを包含するイメージ処理後のイメージを生成するための装置、イメージに対して保存フィルタを適用し、イメージの複数のピクセルの少なくとも1つに対応する少なくとも1つの保存値を生成ための装置、少なくとも1つの保存値のそれぞれについて重み付け係数αを計算ための装置、および少なくとも1つの重み付け係数のそれぞれを使用してイメージとイメージ処理後のイメージを混合し、複数のピクセルを包含する出力イメージを生成するための装置を包含する。   According to the present invention, an apparatus for image processing processes an image including a plurality of pixels each having a luminance, and generates an image after image processing including a plurality of pixels. An apparatus for applying a conservative filter to generate at least one conserved value corresponding to at least one of the plurality of pixels of the image, an apparatus for calculating a weighting factor α for each of the at least one conserved value, and at least An apparatus for mixing an image with an image-processed image using each of one weighting factor to produce an output image that includes a plurality of pixels is included.

したがって本発明の教示は、イメージに対して任意形式のイメージ処理、特に、根底にある実際の構造を示すどのような小さい特徴でも保存しつつ、スプリアス・ノイズおよび望ましくないアーティファクトを低減するスムージングおよびエッジ強調を実行するための方法を提供することである。これは、任意の与えられたピクセルが、イメージ内のノイズまたはエラーの結果としてではなく構造的相違およびそのピクセルに対応する領域の組成に関する理由のためにその近傍のピクセルと異なるとする統計的尤度を決定するように保存フィルタをイメージに適用することによって達成される。この保存フィルタが、与えられたピクセルが実際の構造の結果である確率に対応する保存値を計算するように適用された後は、その保存値が使用されて、そのピクセルに対して実行されるイメージ処理、すなわちスムージングまたはそのほかそのピクセルの影響の減少に資することのできる処理の量が調整される。一言で言えば、与えられたピクセルが実際の構造であることを保存値が示している場合には、そのイメージに対するその種のピクセルのスムージングに資することのできるイメージ処理の効果が減少される。その逆に保存値が、吟味中のピクセルが実際の構造を表す見込みが薄く、むしろスプリアス・ノイズまたはイメージ内に注入されたそのほかのエラーであることを示している場合には、スムージングまたはそのほかその種のピクセルの値の変更に貢献するイメージ処理がより大きな程度で効果を及ぼすことが許される。   The teachings of the present invention therefore provide for any form of image processing on the image, particularly smoothing and edges that reduce spurious noise and undesirable artifacts while preserving any small features that represent the underlying actual structure. It is to provide a way to perform the emphasis. This is the statistical likelihood that any given pixel differs from its neighboring pixels for reasons related to structural differences and the composition of the region corresponding to that pixel, and not as a result of noise or error in the image. This is accomplished by applying a preservation filter to the image to determine the degree. After this conserved filter is applied to calculate a conserved value corresponding to the probability that a given pixel is the result of an actual structure, that conserved value is used and executed on that pixel. The amount of image processing, i.e., smoothing or other processing that can contribute to reducing the impact of the pixels is adjusted. In short, if the stored value indicates that a given pixel is an actual structure, the effect of image processing that can contribute to smoothing that kind of pixel on that image is reduced. . Conversely, if the stored value indicates that the pixel under examination is unlikely to represent the actual structure, but rather spurious noise or other errors injected into the image, smoothing or other Image processing that contributes to changing the value of the seed pixel is allowed to have a greater effect.

前述したとおり、イメージ処理は多くの形式をとり、限定の意図ではないが、それにはエッジ強調、コントラスト、およびスペックル等のノイズの低減が含まれる。   As noted above, image processing takes many forms and is not intended to be limiting, but includes noise enhancement such as edge enhancement, contrast, and speckle.

図5を参照すると、この分野で周知のとおりのイメージ・フィルタ53およびイメージ51が例示されている。イメージ・フィルタ53は、通常、イメージ・フィルタ53の中央に中心ピクセル55が存在するように奇数行×奇数列の形で構成される。イメージ・フィルタ53の各行と列の交点には、フィルタ係数(図示せず)が供給される。イメージ51も同様に、行および列に配列された複数のピクセルからなる。イメージ・フィルタ53がイメージ51の部分の上に置かれたとき、下にあるイメージ51の、イメージ・フィルタ53の各ピクセルに対応する各ピクセル値に、通常はイメージ・フィルタ係数が乗じられる。その乗算が済むと、結果の加算、減算、乗算、または統計的操作が行われてイメージ処理ピクセル値がもたらされる。このイメージ処理ピクセル値は、一般にイメージ・フィルタ53の中心ピクセル55に対応するイメージ51のピクセルに割り当てられる。イメージ・フィルタ53は、通常、イメージ51を構成するピクセルの上に中心ピクセル55を含むイメージ・フィルタ53を配置することによってイメージ51に適用される。そのように行うことによってイメージ51に対応する処理後のイメージ(図示せず)が作成され、それによって処理後のイメージ内の各ピクセルのピクセル値が、イメージ51のピクセルに対してイメージ・フィルタ53によって実行される計算の結果となる。   Referring to FIG. 5, an image filter 53 and an image 51 as illustrated in the art are illustrated. The image filter 53 is normally configured in an odd row × odd column form so that the center pixel 55 exists in the center of the image filter 53. A filter coefficient (not shown) is supplied to the intersection of each row and column of the image filter 53. Similarly, the image 51 includes a plurality of pixels arranged in rows and columns. When the image filter 53 is placed over the portion of the image 51, each pixel value of the underlying image 51 corresponding to each pixel of the image filter 53 is usually multiplied by an image filter coefficient. Once the multiplication is done, the result is added, subtracted, multiplied, or statistically manipulated to provide the image processing pixel value. This image processing pixel value is generally assigned to the pixel of the image 51 corresponding to the central pixel 55 of the image filter 53. The image filter 53 is typically applied to the image 51 by placing an image filter 53 that includes a central pixel 55 over the pixels that make up the image 51. By doing so, a processed image (not shown) corresponding to the image 51 is created, whereby the pixel value of each pixel in the processed image is compared to the image filter 53 for the pixels of the image 51. Result of the calculation performed by.

本発明の好ましい実施態様においては、イメージ処理を任意の型、適応型または非適応型とすることが可能であり、たとえば図5に示されているとおりの2次元イメージ・フィルタ53もしくはロー−パス・フィルタの多次元フィルタ、ハイ−パス・フィルタもしくはバンド−パス・フィルタもしくはメディアン・フィルタ、またはスペックル低減フィルタまたはこのほかの任意の型のフィルタリングを含むことができる。図5の5×5のイメージ・フィルタ53は、例示目的だけのためのものであり、ほかのサイズの空間ドメインのフィルタまたは周波数ドメインのフィルタとすることも可能である。   In a preferred embodiment of the present invention, the image processing can be any type, adaptive or non-adaptive, for example a two-dimensional image filter 53 or low-pass as shown in FIG. It may include a multi-dimensional filter, a high-pass filter or band-pass filter or median filter, or a speckle reduction filter or any other type of filtering. The 5 × 5 image filter 53 of FIG. 5 is for illustrative purposes only, and may be a spatial domain filter or a frequency domain filter of other sizes.

前述したとおり、イメージ処理は、ノイズの多いイメージから真のイメージを引き出す強力なツールである。しかしながらイメージ処理は、ときとして真のイメージの損失をもたらすことがある。したがって本発明は、オリジナルのイメージ内の強い特徴を検出し、保存するための方法を教示する。図6を参照すると、本発明の方法が例示されている。より完全には後述するが、イメージがイメージ処理されてイメージ処理後のイメージZipが作られる。特徴検出フィルタ41が、特徴検出フィルタ41のサイズに対応する小領域内においてオリジナルのイメージ51に適用され、移動されて別の小領域に適用され、その結果、そのイメージの少なくとも1ピクセルについて保存値が計算される。したがって保存値は、1ピクセルずつをベースとして1つの領域と別の領域でおそらくは異なることになる。最後に保存値が使用されて、オリジナルのイメージに混合される処理後のイメージの量が調整され、1ピクセルずつをベースとして出力イメージが生成される。 As described above, image processing is a powerful tool for extracting a true image from a noisy image. However, image processing can sometimes result in real image loss. The present invention thus teaches a method for detecting and storing strong features in the original image. Referring to FIG. 6, the method of the present invention is illustrated. As will be described more fully later, the image is processed to produce an image Z ip after image processing. A feature detection filter 41 is applied to the original image 51 within a small region corresponding to the size of the feature detection filter 41, moved and applied to another small region, so that a stored value for at least one pixel of the image is obtained. Is calculated. Thus, the stored value will probably be different from one region to another based on one pixel at a time. Finally, the stored value is used to adjust the amount of processed image that is blended into the original image to produce an output image on a pixel-by-pixel basis.

引き続き図6を参照するが、ステップ1において、オリジナルのイメージがイメージ処理されてイメージ処理後のイメージZipが作られる。その種のイメージ処理は、この分野で周知の任意のタイプおよび(または)前述のものとすることができる。 Still referring to FIG. 6, in step 1, the original image is image processed to produce an image processed image Z ip . Such image processing can be of any type well known in the art and / or as described above.

ステップ2を参照すると、特徴検出フィルタがオリジナルのイメージに適用され、その結果、そのイメージの少なくとも1ピクセルについて保存値が計算される。図4を参照すると(2P+1)×(2Q+1)ピクセルのサイズを有する特徴検出フィルタ41が例示されている。1つの実施態様においては、特徴検出フィルタ41が、処理されるべきイメージ51(Zij)に適用されたときに、次の式(1)によって定義されるとおりのターゲット・ピクセル57の近隣のピクセル値における絶対差分の和(SAD)とする保存値の計算を伴う。 Referring to step 2, a feature detection filter is applied to the original image so that a stored value is calculated for at least one pixel of the image. Referring to FIG. 4, a feature detection filter 41 having a size of (2P + 1) × (2Q + 1) pixels is illustrated. In one embodiment, when the feature detection filter 41 is applied to the image 51 (Z ij ) to be processed, the neighboring pixels of the target pixel 57 as defined by equation (1) With the calculation of the stored value as the sum of absolute differences (SAD) in the value.

Figure 2008506176
Figure 2008506176

これにおいてターゲット・ピクセル57は、特徴検出フィルタ41の座標(0,0)に対応する。中心または(0,0)におけるターゲット・ピクセルからの絶対差分が、図4に例示されている特徴検出フィルタ内の各ピクセルまたは(i,j)における各ポジションについて計算される。ここでは例示目的のために5×5のSADフィルタ(P=2,Q=2)が例示されているが、特徴検出フィルタのサイズは、それより小さく(たとえば3×3)またはそれより大きく(たとえば7×7、9×9等)とすることも可能である。各ピクセルにおける絶対差分は、式(1)に表されているとおりに合計される。SADは、さらに、次の式(2)に表されているとおり、特徴検出フィルタ内のピクセル数マイナス1(ターゲット・ピクセル57に対応する)によって正規化することができる。   In this case, the target pixel 57 corresponds to the coordinates (0, 0) of the feature detection filter 41. The absolute difference from the target pixel at the center or (0,0) is calculated for each pixel or each position at (i, j) in the feature detection filter illustrated in FIG. Although a 5 × 5 SAD filter (P = 2, Q = 2) is illustrated here for illustrative purposes, the size of the feature detection filter is smaller (eg, 3 × 3) or larger ( For example, it may be 7 × 7, 9 × 9, or the like. The absolute difference at each pixel is summed as expressed in equation (1). The SAD can be further normalized by the number of pixels in the feature detection filter minus 1 (corresponding to the target pixel 57) as expressed in equation (2) below.

Figure 2008506176
Figure 2008506176

また、次のとおりに定義される平方差分の和(SSD)を使用することも可能である。   It is also possible to use a sum of square differences (SSD) defined as follows.

Figure 2008506176
Figure 2008506176

SSDもまた、次のとおり、さらに正規化することができる。   The SSD can also be further normalized as follows.

Figure 2008506176
Figure 2008506176

高速化のために絶対差分の和が使用されるが、そのほかの統計の形式(たとえば分散)を明るいスポットまたはポイント等の強いイメージ特徴の検出に使用することも可能である。この特徴検出フィルタは、イメージ・ピクセル値も使用する。絶対差分の和が非常に高く、ピクセル値が非常に高い場合、または明るい場合には、非常に強い特徴が見つかったと見なされ、スムージング・フィルタまたはスペックル・ノイズ低減フィルタまたはその他を適用せずに保存される。   Although the sum of absolute differences is used for speeding up, other statistical forms (eg, variance) can be used to detect strong image features such as bright spots or points. This feature detection filter also uses image pixel values. If the sum of absolute differences is very high and the pixel value is very high or bright, it is considered that a very strong feature has been found, without applying a smoothing or speckle noise reduction filter or others Saved.

SAD、NSAD、SSD、またはNSSD値およびターゲット・ピクセルの輝度に応じて、オリジナルのイメージZorigとフィルタリング後の(イメージ処理後の)イメージZipが、式5および図6のステップ3に示されているとおり、1ピクセルずつをベースとして混合される。たとえば、SADおよびターゲット・ピクセルの輝度が高い場合には、処理後のイメージとオリジナルのイメージを混合して出力イメージを計算するとき、より多くのオリジナルのイメージが使用され、かつより少ない処理後のイメージが使用される。イメージを処理後のイメージと合成して最終イメージ出力を作るときに各イメージに含められる程度は、次の式により定義されるとおり、重み付け係数αによってコントロールされる。
out=α・Zip+(1−α)Zorig (5)
これにおいてZout:最終イメージ・ピクセル出力;
α:ターゲット・ピクセルに対応する重み付け係数;
ip:イメージ処理後のピクセル・データ;
orig:イメージ51のオリジナルのイメージのピクセル・データ。
Depending on the SAD, NSAD, SSD, or NSSD value and the brightness of the target pixel, the original image Z orig and the filtered image Z ip are shown in Equation 5 and step 3 of FIG. As shown, they are mixed on a pixel-by-pixel basis. For example, if the brightness of the SAD and target pixel is high, then when the output image is calculated by mixing the processed image with the original image, more original images are used and less processed An image is used. The degree to which each image is included in each image when it is combined with the processed image to produce the final image output is controlled by a weighting factor α, as defined by the following equation:
Z out = α · Z ip + (1−α) Z orig (5)
Where Z out : final image pixel output;
α: weighting factor corresponding to the target pixel;
Z ip : pixel data after image processing;
Z orig : Pixel data of the original image of the image 51.

αは、次に述べるとおり、オリジナルのイメージの振幅(または輝度)IおよびSAD値に依存する。   α depends on the amplitude (or luminance) I and SAD values of the original image, as described below.

好ましい実施態様においては(8ビット(または最大値255)のグレイスケール・イメージについて)I>80の場合に、
1680>SAD>720、かつI>80であれば
α=1−(SAD−720)/960 (6)
SAD>=1680、かつI>80であれば
α=0
SAD<=720、かつI>80であれば
α=1.0
となり、I<80の場合には、255の最大輝度(または0〜255の範囲)を伴う8ビット・グレイスケール・イメージのための5×5フィルタについて、SADによらずα=1.0となる。好ましい実施態様においては、αが、より時間を要する式(6)の実際の計算ではなく、SADおよびIのルックアップ・テーブル(LUT)を使用して迅速に獲得される。上記の式および表現は、SAD、I、およびαの間の関係を単に例示しているに過ぎない。
In a preferred embodiment (for an 8-bit (or maximum 255) grayscale image) if I> 80,
If 1680>SAD> 720 and I> 80, α = 1− (SAD−720) / 960 (6)
If SAD> = 1680 and I> 80, α = 0
If SAD <= 720 and I> 80, α = 1.0
For I <80, for a 5 × 5 filter for an 8-bit grayscale image with a maximum luminance of 255 (or a range of 0-255), α = 1.0 regardless of SAD. Become. In the preferred embodiment, α is quickly obtained using the SAD and I look-up table (LUT) rather than the actual computation of equation (6), which takes more time. The above formulas and expressions merely illustrate the relationship between SAD, I, and α.

グレイスケール・イメージの輝度値および対応するSAD/NSAD/SSD/NSSD値を参照して説明されているが、これらは保存統計測定量とも呼ばれ、IおよびSAD/NSAD/SSD/NSSD値両方についての範囲は、輝度およびSAD/NSAD/SSD/NSSD値の絶対範囲として示されている。たとえば『I>80』の値は、8ビット・グレイスケール・イメージの場合の最大可能輝度の255における80より大きい輝度である。同様に、ゼロから最大輝度までの範囲にわたる各ピクセルについて輝度の範囲を有するイメージの場合には、SAD/NSAD/SSD/NSSD値がゼロから最大値までの範囲にわたる。したがって『1680>SAD>720』は、絶対スケールにおける720と1680の間のSAD値を言う。   Although described with reference to grayscale image luminance values and corresponding SAD / NSAD / SSD / NSSD values, these are also referred to as conservative statistics measures, for both I and SAD / NSAD / SSD / NSSD values. Is shown as the absolute range of luminance and SAD / NSAD / SSD / NSSD values. For example, a value of “I> 80” is a brightness greater than 80 at 255, the maximum possible brightness for an 8-bit grayscale image. Similarly, for an image having a luminance range for each pixel ranging from zero to maximum luminance, the SAD / NSAD / SSD / NSSD values range from zero to the maximum value. Thus, “1680> SAD> 720” refers to the SAD value between 720 and 1680 on the absolute scale.

イメージが8ビットと異なる輝度分解能を有することが可能であるため、上記の関係は、より一般的に、それぞれの最大値によって正規化されたSADおよびIによって表すことができる。これらの値をSAD%およびI%と呼ぶ。αは、次の式によって表すことができる。
27.5%>SAD%>11.8%、かつI%>31.4%であれば、
α=1−(SAD%−11.8%)/15.7% (7)
SAD%>=27.5%、かつI%>31.4%であれば、
α=0
SAD%<=11.8%、かつI%>31.4%であれば、
α=1.0
となり、I%<31.4%であれば、すべてのSAD%についてα=1.0となる。
Since the image can have a luminance resolution different from 8 bits, the above relationship can be more generally represented by SAD and I normalized by their respective maximum values. These values are called SAD% and I%. α can be expressed by the following equation.
If 27.5%>SAD%> 11.8% and I%> 31.4%,
α = 1− (SAD% −11.8%) / 15.7% (7)
If SAD%> = 27.5% and I%> 31.4%,
α = 0
If SAD% <= 11.8% and I%> 31.4%,
α = 1.0
If I% <31.4%, then α = 1.0 for all SAD%.

グレイスケール・イメージの輝度値および対応するSAD/NSAD/SSD/NSSD値を参照して説明されているが、これらは保存統計測定量とも呼ばれ、IおよびSAD/NSAD/SSD/NSSD値両方についての範囲は、輝度およびSAD/NSAD/SSD/NSSD値の正規化された範囲、たとえばゼロから100までの範囲のパーセンテージとして示すことが可能である。たとえば『I%>31.4%』は、どのように定義されたピクセルの輝度であってもその最大可能輝度の31.4パーセントより輝度が大きい。同様に、ゼロから最大輝度までの範囲にわたる各ピクセルについて輝度の範囲を有するイメージの場合には、SAD/NSAD/SSD/NSSD値がゼロから最大値までの範囲にわたる。したがって『27.5%>SAD%>11.8%』は、最大のSAD/NSAD/SSD/NSSD値の11.8%と27.5%の間のSAD%値を言う。   Although described with reference to grayscale image luminance values and corresponding SAD / NSAD / SSD / NSSD values, these are also referred to as conservative statistics measures, for both I and SAD / NSAD / SSD / NSSD values. Can be shown as a normalized range of luminance and SAD / NSAD / SSD / NSSD values, for example as a percentage of the range from zero to 100. For example, “I%> 31.4%” has a luminance greater than 31.4% of the maximum possible luminance regardless of the luminance of the pixel defined. Similarly, for an image having a luminance range for each pixel ranging from zero to maximum luminance, the SAD / NSAD / SSD / NSSD values range from zero to the maximum value. Therefore, “27.5%> SAD%> 11.8%” refers to a SAD% value between 11.8% and 27.5% of the maximum SAD / NSAD / SSD / NSSD value.

上記の実施態様は、SAD/NSAD/SSD/NSSD値および輝度値の両方について例示的な境界値を使用しているが、その種の境界値は例示であり、イメージ作成の状況に応じて変更されることがある。その種の境界値は、好ましくはイメージ内の小さい関心構造が保存される一方、ノイズまたはそのほかのデータの悪影響の実質的な排除を可能にするに充分であるように選択される。   Although the above embodiment uses exemplary boundary values for both SAD / NSAD / SSD / NSSD values and luminance values, such boundary values are exemplary and vary depending on the image creation situation. May be. Such boundary values are preferably selected so that small structures of interest in the image are preserved while sufficient to allow substantial elimination of the adverse effects of noise or other data.

選択される境界値によらず、αは以下の方法に従って割り当てられる。輝度が境界値(たとえば80)より小さい場合には、αが、SAD/NSAD/SSD/NSSD値または保存統計測定量の値とは無関係に最大のα値(好ましくは〜1.0)に等しくなる。輝度が境界値を超える場合には、SAD/NSAD/SSD/NSSD値が低い領域内(たとえば、SAD<=720、またはSAD%<=11.8%)であればαが最大α値に等しくなり、SAD/NSAD/SSD/NSSD値が上側の領域内(たとえば、SAD>=1680、またはSAD%>=27.5%)であればαが最小α値(好ましくは〜0.0)に等しくなり、中間の領域内(たとえば、1680>SAD>720、または27.5%>SAD%>11.8%)においてはαがSAD/NSAD/SSD/NSSD値に線形相関される。   Regardless of the boundary value selected, α is assigned according to the following method. If the brightness is less than the boundary value (eg 80), then α is equal to the maximum α value (preferably ˜1.0) regardless of the SAD / NSAD / SSD / NSSD value or the value of the stored statistical measure. Become. If the luminance exceeds the boundary value, α is equal to the maximum α value if the SAD / NSAD / SSD / NSSD value is within a low region (eg, SAD <= 720 or SAD% <= 11.8%). If the SAD / NSAD / SSD / NSSD value is in the upper region (for example, SAD> = 1680, or SAD%> = 27.5%), α becomes the minimum α value (preferably to 0.0). In the middle region (eg, 1680> SAD> 720, or 27.5%> SAD%> 11.8%), α is linearly correlated to the SAD / NSAD / SSD / NSSD value.

結果として、上記の例の場合には、イメージ輝度Iが80の輝度スレッショルドより上であれば(またはI%が31.4%より上であれば)中間の領域内(または、SADが720と1680の間またはSAD%が11.8%と27.5%の間)においてαがSAD/NSAD/SSD/NSSD値に線形比例する。前述したとおり、この種の値は、ここで例示的な態様において説明されたものであり、イメージの型に依存し、1つの応用(たとえば肝臓)と別の応用(たとえば胎児)では異なる。この場合においては、80のイメージ輝度がスレッショルドとして使用されたが、これは方法の例示の簡明のために過ぎない。別の実施態様においては、80のスレッショルドをSADに応じて変更することが可能である。また別の実施態様においては、αを、SADに伴って上記の線形関数より速やかに減少させることが可能である。αを、SADおよびIの別の関数とすることも可能である。I、SAD、およびαの間の関係によらず、αは、SADとIの2次元テーブルまたはルックアップ・テーブル(LUT)によって決定される。上記のαの式は例示目的のために限られ、これら2つのパラメータ(SAD/NSAD/SSD/NSSDおよびI)を使用する任意の形式をとることができる。別の実施態様においては、SAD/NSAD/SSD/NSSDおよびIに加えて平均および分散(標準偏差)等、またはそのほかの統計量を使用することが可能である。   As a result, in the case of the above example, if the image brightness I is above the 80 brightness threshold (or if I% is above 31.4%), then in the middle region (or SAD is 720) Α is linearly proportional to the SAD / NSAD / SSD / NSSD value between 1680 and between 11.8% and 27.5%). As described above, this type of value is described herein in an exemplary manner and depends on the type of image and is different in one application (eg, liver) and another (eg, fetus). In this case, 80 image intensities were used as thresholds, but this is only for illustrative simplicity of the method. In another embodiment, the 80 thresholds can be changed depending on the SAD. In another embodiment, α can be decreased more rapidly than the linear function with SAD. It is also possible for α to be another function of SAD and I. Regardless of the relationship between I, SAD, and α, α is determined by a SAD and I two-dimensional table or look-up table (LUT). The above equation for α is for illustrative purposes only and can take any form using these two parameters (SAD / NSAD / SSD / NSSD and I). In another embodiment, SAD / NSAD / SSD / NSSD and I can be used in addition to mean and variance (standard deviation), or other statistics.

図7を参照すると、本発明の方法の実行に使用される装置の好ましい実施態様が例示されている。プロセッサ71は、オリジナルのイメージZorigを受信し、出力イメージZoutを出力する。プロセッサ71は、好ましくはディジタル信号プロセッサとする。いずれの場合においてもプロセッサ71は、入力イメージZorigを表すようにフォーマットされたディジタル情報を受信する。プロセッサ71は、その入力イメージZorigに作用して保存フィルタを適用し、オリジナルの入力イメージを処理してイメージ処理後のイメージZipを作り出し、少なくとも1つの計算された保存値のそれぞれについて重み付け係数αを計算し、オリジナルのイメージとイメージ処理後のイメージを混合して出力イメージZoutを生成する。 Referring to FIG. 7, a preferred embodiment of the apparatus used to perform the method of the present invention is illustrated. The processor 71 receives the original image Z orig and outputs an output image Z out . The processor 71 is preferably a digital signal processor. In any case, the processor 71 receives digital information formatted to represent the input image Z orig . The processor 71 operates on the input image Z orig and applies a storage filter, processes the original input image to produce an image processed image Z ip, and weights each of the at least one calculated storage value α is calculated, and the original image and the image processed image are mixed to generate an output image Z out .

別の実施態様においては、SSDを、保存フィルタに対応するイメージ内のピクセルの平均、分散、標準偏差といった別の統計的な値、またはそのほかの任意の統計的測定量とともに使用することが可能である。αもまた、1ピクセルずつをベースとして決定され、したがってイメージ内の1つのポイントと別のポイントでは異なる。   In another embodiment, the SSD can be used with another statistical value such as the mean, variance, standard deviation of the pixels in the image corresponding to the storage filter, or any other statistical measure. is there. α is also determined on a pixel-by-pixel basis and is therefore different from one point to another in the image.

以上、本発明の1ないしは複数の実施態様を説明してきた。しかしながら本発明の精神および範囲から逸脱することなく、種々の修正を行うことができることが理解されるであろう。したがって、このほかの実施態様は、特許請求の範囲内となる。   In the foregoing, one or more embodiments of the present invention have been described. However, it will be understood that various modifications may be made without departing from the spirit and scope of the invention. Accordingly, other embodiments are within the scope of the claims.

エッジ検出フィルタ(従来技術)を示した説明図である。It is explanatory drawing which showed the edge detection filter (prior art). エッジ検出フィルタ(従来技術)を示した説明図である。It is explanatory drawing which showed the edge detection filter (prior art). エッジ検出フィルタ(従来技術)を示した説明図である。It is explanatory drawing which showed the edge detection filter (prior art). イメージ特徴保存フィルタを示した説明図である。It is explanatory drawing which showed the image feature preservation | save filter. 本発明のイメージ・フィルタを示した説明図である。It is explanatory drawing which showed the image filter of this invention. 本発明のイメージ・フィルタを示した説明図である。It is explanatory drawing which showed the image filter of this invention. 本発明の方法のフローチャートである。3 is a flowchart of the method of the present invention. 本発明の装置の概略図である。1 is a schematic view of an apparatus of the present invention.

Claims (9)

それぞれが輝度を有する複数のピクセルを含むイメージを処理し、複数のピクセルを含むイメージ処理後のイメージを生成するステップと、
前記イメージに対して保存フィルタを適用し、前記イメージの前記複数のピクセルの少なくとも1つに対応する少なくとも1つの保存値を生成するステップと、
前記少なくとも1つの保存値のそれぞれについて重み付け係数αを計算するステップと、
前記少なくとも1つの重み付け係数のそれぞれを使用して前記イメージと前記イメージ処理後のイメージを混合し、複数のピクセルを含む出力イメージを生成するステップと、
を含むことを特徴とするイメージ処理のための方法。
Processing an image including a plurality of pixels, each having a luminance, and generating an image processed image including the plurality of pixels;
Applying a storage filter to the image to generate at least one stored value corresponding to at least one of the plurality of pixels of the image;
Calculating a weighting factor α for each of the at least one stored value;
Mixing the image and the image processed image using each of the at least one weighting factor to produce an output image comprising a plurality of pixels;
A method for image processing comprising:
前記イメージを処理することは、スムージング、エッジ強調、ロー−パス・フィルタリング、ハイ−パス・フィルタリング、バンド−パス・フィルタリング、メディアン・フィルタリング、スペックル低減フィルタ、ノイズ低減、およびコントラスト向上からなるグループから選択されるイメージ処理の実行を含む、
ことを特徴とする請求項1に記載の方法。
Processing the image is from the group consisting of smoothing, edge enhancement, low-pass filtering, high-pass filtering, band-pass filtering, median filtering, speckle reduction filter, noise reduction, and contrast enhancement. Including performing selected image processing,
The method according to claim 1.
前記保存フィルタの前記適用は、
前記保存フィルタを前記イメージに適用して、それぞれが前記イメージの単一のピクセルに対応する少なくとも1つの保存の統計的測定量を計算することを含む、
ことを特徴とする請求項1に記載の方法。
The application of the preservation filter is
Applying the storage filter to the image to calculate at least one storage statistical measure each corresponding to a single pixel of the image;
The method according to claim 1.
前記保存フィルタの前記適用は、絶対差分の和(SAD)、正規化された絶対差分の和(NSAD)、平方差分の和(SSD)、正規化された平方差分の和(NSSD)、平均、分散、および標準偏差からなるグループから選択された前記少なくとも1つの保存の統計的測定量を計算することを含む、
ことを特徴とする請求項3に記載の方法。
The application of the preservation filter includes sum of absolute differences (SAD), normalized sum of absolute differences (NSAD), sum of square differences (SSD), normalized sum of square differences (NSSD), average, Calculating a statistical measure of the at least one stored selected from the group consisting of variance and standard deviation;
The method according to claim 3.
前記重み付け係数の前記計算は、前記保存フィルタに対応する前記イメージの前記複数のピクセルの前記輝度および前記少なくとも1つの保存値から前記重み付け係数を計算することを含む、
ことを特徴とする請求項1に記載の方法。
The calculation of the weighting factor includes calculating the weighting factor from the luminance of the plurality of pixels of the image corresponding to the storage filter and the at least one stored value.
The method according to claim 1.
前記重み付け係数の前記計算は、ルックアップ・テーブル(LUT)を使用することを含む、
ことを特徴とする請求項5に記載の方法。
The calculation of the weighting factor comprises using a look-up table (LUT);
6. The method of claim 5, wherein:
前記重み付け係数であるαの前記計算は、
ターゲット・ピクセルの輝度が境界値より小さいか又はそれに等しいときにαを最大値にセットするステップと、
前記ターゲット・ピクセルの輝度が前記境界値より大きく且つ前記ターゲット・ピクセルに対応する前記保存値が低い領域内にあるときにαを最大値にセットするステップと、
前記ターゲット・ピクセルの輝度が前記境界値より大きく且つ前記ターゲット・ピクセルに対応する前記保存値が上側の領域内にあるときにαを最小値にセットするステップと、
前記ターゲット・ピクセルの輝度が前記境界値より大きく且つ前記ターゲット・ピクセルに対応する前記保存値が中間の領域内にあるときにαを保存の統計的測定量に比例してセットするステップと、
を含むことを特徴とする請求項5に記載の方法。
The calculation of the weighting factor α is
Setting α to a maximum value when the brightness of the target pixel is less than or equal to the boundary value;
Setting α to a maximum value when the brightness of the target pixel is greater than the boundary value and the stored value corresponding to the target pixel is in a low region;
Setting α to a minimum value when the brightness of the target pixel is greater than the boundary value and the stored value corresponding to the target pixel is in the upper region;
Setting α in proportion to a stored statistical measure when the brightness of the target pixel is greater than the boundary value and the stored value corresponding to the target pixel is in an intermediate region;
The method of claim 5 comprising:
前記出力イメージの生成は、Zoutを前記出力イメージのピクセル、Zipを処理後のイメージ内の前記イメージ・ピクセル、およびZorigを前記イメージ内の対応するピクセルとするとき、式Zout=α・Zip+(1−α)Zorigに従って、前記出力イメージの前記複数のピクセルのそれぞれを計算することを含む、
ことを特徴とする請求項7に記載の方法。
Generation of the output image, when the corresponding pixel of the image pixels, and a Z orig in the image in the image after processing the pixels of the Z out the output image, the Z ip, wherein Z out = alpha Calculating each of the plurality of pixels of the output image according to Z ip + (1−α) Z orig ;
The method according to claim 7.
それぞれが輝度を有する複数のピクセルを含むイメージを処理し、複数のピクセルを含むイメージ処理後のイメージを生成するための手段と、
前記イメージに対して保存フィルタを適用し、前記イメージの前記複数のピクセルの少なくとも1つに対応する少なくとも1つの保存値を生成するための手段と、
前記少なくとも1つの保存値のそれぞれについて重み付け係数αを計算するための手段と、
前記少なくとも1つの重み付け係数のそれぞれを使用して前記イメージと前記イメージ処理後のイメージを混合し、複数のピクセルを含む出力イメージを生成するための手段と、
を有することを特徴とするイメージ処理のための装置。
Means for processing an image including a plurality of pixels, each having a luminance, and generating an image processed image including the plurality of pixels;
Means for applying a storage filter to the image to generate at least one stored value corresponding to at least one of the plurality of pixels of the image;
Means for calculating a weighting factor α for each of the at least one stored value;
Means for mixing the image and the imaged image using each of the at least one weighting factor to produce an output image comprising a plurality of pixels;
An apparatus for image processing, comprising:
JP2007519920A 2004-07-09 2005-06-29 Method and apparatus for image processing Expired - Fee Related JP4681608B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US58655004P 2004-07-09 2004-07-09
US10/903,158 US7386183B2 (en) 2004-07-09 2004-07-30 Method and apparatus for image processing
PCT/IB2005/003046 WO2006006083A2 (en) 2004-07-09 2005-06-29 Method and apparatus for image processing

Publications (2)

Publication Number Publication Date
JP2008506176A true JP2008506176A (en) 2008-02-28
JP4681608B2 JP4681608B2 (en) 2011-05-11

Family

ID=35599498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007519920A Expired - Fee Related JP4681608B2 (en) 2004-07-09 2005-06-29 Method and apparatus for image processing

Country Status (4)

Country Link
US (1) US7386183B2 (en)
EP (1) EP1766574B1 (en)
JP (1) JP4681608B2 (en)
WO (1) WO2006006083A2 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7664326B2 (en) 2004-07-09 2010-02-16 Aloka Co., Ltd Method and apparatus of image processing to detect and enhance edges
US7412106B1 (en) * 2005-06-25 2008-08-12 Cognex Technology And Investment Corporation Methods for locating and decoding distorted two-dimensional matrix symbols
KR100926760B1 (en) * 2007-12-17 2009-11-16 삼성전자주식회사 Location recognition and mapping method of mobile robot
US8265424B1 (en) 2008-07-31 2012-09-11 Adobe Systems Incorporated Variable seam replication in images with energy-weighted priority
US8160398B1 (en) 2008-07-31 2012-04-17 Adobe Systems Incorporated Independent resizing of multiple image regions
US8280187B1 (en) 2008-07-31 2012-10-02 Adobe Systems Incorporated Seam carving and expansion of images with color frequency priority
US8218900B1 (en) 2008-07-31 2012-07-10 Adobe Systems Incorporated Non-linear image scaling with seam energy
US8290300B2 (en) * 2008-07-31 2012-10-16 Adobe Systems Incorporated Seam-based reduction and expansion of images with color-weighted priority
US8270765B1 (en) 2008-07-31 2012-09-18 Adobe Systems Incorporated Hybrid seam carving and scaling of images with configurable energy threshold
US8280186B1 (en) 2008-07-31 2012-10-02 Adobe Systems Incorporated Seam-based reduction and expansion of images with table-based priority
US8280191B1 (en) 2008-07-31 2012-10-02 Abode Systems Incorporated Banded seam carving of images with pyramidal retargeting
US8270766B1 (en) 2008-07-31 2012-09-18 Adobe Systems Incorporated Hybrid seam carving and scaling of images with configurable carving tolerance
US8625932B2 (en) 2008-08-28 2014-01-07 Adobe Systems Incorporated Seam carving using seam energy re-computation in seam neighborhood
US8180177B1 (en) 2008-10-13 2012-05-15 Adobe Systems Incorporated Seam-based reduction and expansion of images using parallel processing of retargeting matrix strips
US8581937B2 (en) 2008-10-14 2013-11-12 Adobe Systems Incorporated Seam-based reduction and expansion of images using partial solution matrix dependent on dynamic programming access pattern
JP5405836B2 (en) * 2009-01-06 2014-02-05 ローム株式会社 Image processing method and computer program
US8963960B2 (en) 2009-05-20 2015-02-24 Adobe Systems Incorporated System and method for content aware hybrid cropping and seam carving of images
US8358876B1 (en) 2009-05-20 2013-01-22 Adobe Systems Incorporated System and method for content aware in place translations in images
US8611584B2 (en) * 2009-08-17 2013-12-17 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for performing optical navigation using portions of captured frames of image data
US8659622B2 (en) 2009-08-31 2014-02-25 Adobe Systems Incorporated Systems and methods for creating and editing seam carving masks
US20140056536A1 (en) * 2012-08-27 2014-02-27 Toshiba Medical Systems Corporation Method and system for substantially removing dot noise
CN103067661B (en) * 2013-01-07 2017-12-05 华为终端有限公司 Image processing method, device and camera terminal
US9280806B2 (en) * 2013-01-10 2016-03-08 Broadcom Corporation Edge smoothing block filtering and blending
US11448503B2 (en) * 2019-06-12 2022-09-20 Microsoft Technology Licensing, Llc Correction for pixel-to-pixel signal diffusion

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132201A (en) * 1997-07-09 1999-02-02 Matsushita Electric Ind Co Ltd Image processing unit
JP2000148987A (en) * 1998-11-17 2000-05-30 Olympus Optical Co Ltd Image processor
JP2002158857A (en) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd Method and unit for processing multiband image and medium recording program for executing image processing method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4720871A (en) 1986-06-13 1988-01-19 Hughes Aircraft Company Digital image convolution processor method and apparatus
FR2638871B1 (en) 1988-11-09 1994-06-03 Jutand Francis IMAGE REPRESENTATION SIGNAL FILTERING METHOD AND CIRCUIT
US5575286A (en) * 1995-03-31 1996-11-19 Siemens Medical Systems, Inc. Method and apparatus for generating large compound ultrasound image
JPH11504490A (en) * 1996-02-19 1999-04-20 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ Video signal encoding method and apparatus
US6389441B1 (en) 1999-05-28 2002-05-14 Eastman Kodak Company Two dimensional moving average filter
US6423003B1 (en) * 1999-10-29 2002-07-23 Acuson Corporation Ultrasonic imaging system and method with SNR adaptive processing
US6778692B1 (en) * 2000-08-11 2004-08-17 General Electric Company Image processing method and apparatus including image improving circuit
US7391933B2 (en) * 2003-10-30 2008-06-24 Samsung Electronics Co., Ltd. Method and apparatus for image interpolation based on adaptive polyphase filters

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132201A (en) * 1997-07-09 1999-02-02 Matsushita Electric Ind Co Ltd Image processing unit
JP2000148987A (en) * 1998-11-17 2000-05-30 Olympus Optical Co Ltd Image processor
JP2002158857A (en) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd Method and unit for processing multiband image and medium recording program for executing image processing method

Also Published As

Publication number Publication date
JP4681608B2 (en) 2011-05-11
US20060013501A1 (en) 2006-01-19
EP1766574A4 (en) 2011-07-20
EP1766574B1 (en) 2013-10-09
US7386183B2 (en) 2008-06-10
WO2006006083A3 (en) 2006-06-22
WO2006006083A2 (en) 2006-01-19
EP1766574A2 (en) 2007-03-28

Similar Documents

Publication Publication Date Title
JP4681608B2 (en) Method and apparatus for image processing
JP4727720B2 (en) Image processing method and image processing apparatus
JP2004040235A (en) Image processing apparatus and image processing method
WO2016031189A1 (en) Image processing apparatus, image processing method, recording medium, and program
JP2005354685A (en) Smoothing device of an image signal by pattern adaptive filtering, and its smoothing method
JP2019016117A (en) Image adjusting device, local contrast quantity calculating device, method, and program
US8559716B2 (en) Methods for suppressing structured noise in a digital image
JP5918198B2 (en) Ultrasonic diagnostic equipment
WO2014133010A1 (en) Image processing method and image processing device
JP6249173B2 (en) Image processing method and image processing apparatus
CN108022220B (en) Ultrasonic image speckle noise removing method
JP6256703B2 (en) Image processing method and image processing apparatus
JP6161847B1 (en) Image processing apparatus and image processing method
Anjana et al. Color image enhancement using edge based histogram equalization
JP6256704B2 (en) Image processing method and image processing apparatus
US20100061656A1 (en) Noise reduction of an image signal
Sawant et al. Hybrid filtering techniques for medical image denoising
Storozhilova et al. 2.5 D extension of neighborhood filters for noise reduction in 3D medical CT images
JP6041957B1 (en) Ultrasonic diagnostic equipment
JPH0816773A (en) Image processing method
EP2309448A1 (en) Local image contrast enhancement
JP4913246B1 (en) Edge enhancement method or edge enhancement calculation method
Arunachalam et al. Performance analysis of various spatial filters on noisy images-a quantitative approach
JP2007060464A (en) Method and system for estimating halftone image
JP4992438B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110204

R150 Certificate of patent or registration of utility model

Ref document number: 4681608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees