JP2007268308A - Device and method for image processing - Google Patents

Device and method for image processing Download PDF

Info

Publication number
JP2007268308A
JP2007268308A JP2007177629A JP2007177629A JP2007268308A JP 2007268308 A JP2007268308 A JP 2007268308A JP 2007177629 A JP2007177629 A JP 2007177629A JP 2007177629 A JP2007177629 A JP 2007177629A JP 2007268308 A JP2007268308 A JP 2007268308A
Authority
JP
Japan
Prior art keywords
image
pixel value
smoothed
fus
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007177629A
Other languages
Japanese (ja)
Other versions
JP4818212B2 (en
Inventor
Hiroyuki Arahata
弘之 新畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007177629A priority Critical patent/JP4818212B2/en
Publication of JP2007268308A publication Critical patent/JP2007268308A/en
Application granted granted Critical
Publication of JP4818212B2 publication Critical patent/JP4818212B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P20/00Technologies relating to chemical industry
    • Y02P20/50Improvements relating to the production of bulk chemicals
    • Y02P20/52Improvements relating to the production of bulk chemicals using catalysts, e.g. selective catalysts

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To freely adjust the width of a concentration distribution of an image while maintaining an amplitude of the high-frequency component of an input image. <P>SOLUTION: Using a pixel value fd(x, y) of a processed image, a pixel value fuso(x, y) of the smoothing image of a first image (conversion image which undergoes gradient conversion of the input image) f0(x, y), a pixel value f1(x, y) of a second image (input image), a pixel value fus(x, y) of the smoothing (low-frequency) image of the second image, a function F() for controlling a processing effect, and coordinates x, y on the image, image processing by respective means 101-106 is carried out so as to be expressed by an arithmetic expression: fd(x, y)=fuso(x, y)+F(f1(x, y))×(f1(x, y)-fus(x, y)). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、X線画像等の画像の高周波成分を保持した状態で階調変換を行う画像処理装置及び方法に関するものである。   The present invention relates to an image processing apparatus and method for performing gradation conversion in a state where a high-frequency component of an image such as an X-ray image is held.

例えば、X線胸部画像は、X線が透過しやすい肺野の画像、及びX線が非常に透過しにくい縦隔部の画像より構成されるため、画素値の存在するレンジが非常に広い。このため、肺野及び縦隔部の両方を同時に観察することが可能なX線胸部画像を得ることは困難であるとされてきた。   For example, an X-ray chest image is composed of a lung field image through which X-rays are easily transmitted and a mediastinal image through which X-rays are very difficult to transmit. For this reason, it has been considered difficult to obtain an X-ray chest image capable of simultaneously observing both the lung field and the mediastinum.

そこで、この問題を回避する方法として、従来より次のような種々の方法が提案されている。
まず、非特許文献1に記載される方法がある。この方法は処理後の画素値SD 、オリジナル画素値(入力画素値)SORG、オリジナル画像(入力画像)の低周波画像の画素値SUS、定数A,B,C(例えばA=3、B=0.7)をもって、
D=A〔SORG−SUS+B(SUS)〕+C・・・(1)
なる式(1)で表わされるものである。
In order to avoid this problem, the following various methods have been conventionally proposed.
First, there is a method described in Non-Patent Document 1. In this method, the processed pixel value S D , the original pixel value (input pixel value) S ORG , the pixel value S US of the low-frequency image of the original image (input image), constants A, B, C (for example, A = 3, B = 0.7)
S D = A [S ORG −S US + B (S US )] + C (1)
It is represented by the following formula (1).

この方法は、高周波成分(第1項)、低周波成分(第2項)の重み付けを変えることが可能で、例えばA=3、B=0.7では高周波成分を強調し、かつ全体のダイナミックレンジを圧縮する効果が得られるものである。この方法は、処理無し画像と比較して診断に有効であるという評価が5人の放射線医により得られている。   This method can change the weighting of the high-frequency component (first term) and the low-frequency component (second term). For example, when A = 3 and B = 0.7, the high-frequency component is emphasized and the entire dynamic component is dynamic. The effect of compressing the range is obtained. This method has been evaluated by five radiologists as being effective for diagnosis compared to unprocessed images.

また、特許文献1には、処理後の画素値SDオリジナル画素値(入力画素値)SORG、オリジナル画像(入力画像)のY方向プロファイルの平均プロファイルPyとX方向プロファイルの平均プロファイルPxをもって、
D=SORG+F[G(Px,Py)・・・(2)
なる式(2)で表される方法が記載されている。
In Patent Document 1, with an average profile Px average profile Py and X-direction profiles of the Y-direction profile of the pixel value S D original pixel value after processing (input pixel value) S ORG, the original image (input image),
S D = S ORG + F [G (Px, Py) (2)
A method represented by the following formula (2) is described.

ここで、関数f(x)が有する特性について説明する。まず、「x>Dth」ではf(0)が「0」となり、「0≦x≦Dth」ではf(x)が切片を「E」、傾き「E/Dth」として単調減少するものであり、(3)式で表されるものである。
F〔x〕=E−(E/th)X ・・・(3)
Py=(ΣPyi)/n・・・(4)
Px=(ΣPxi)/n・・・(5)
但し、(i=1〜n)、Pyi、Pxiはプロファイル。そして例えば
G=(Px,Py)=max(px,py)・・・(6)
で表されるものである。この方法は、低周波画像の画素値Dth以下の濃度レンジが圧縮されるものである。
Here, the characteristics of the function f (x) will be described. First, when “x> Dth”, f (0) becomes “0”, and when “0 ≦ x ≦ Dth”, f (x) monotonously decreases with an intercept “E” and a slope “E / Dth”. , (3).
F [x] = E− (E / th) X (3)
Py = (ΣPyi) / n (4)
Px = (ΣPxi) / n (5)
However, (i = 1 to n), Pyi, and Pxi are profiles. And, for example, G = (Px, Py) = max (px, py) (6)
It is represented by In this method, a density range equal to or lower than the pixel value Dth of the low frequency image is compressed.

また、上記公報と同様な方法として、「自己補償デジタルフィルタ」と呼ばれる方法がある(非特許文献2)。この方法は、補償後(処理後)の画素値SD、オリジナル画素値(入力画素値)SORG、オリジナル画像(入力画像)をマスクサイズM×M画素で移動平均をとった時の平均画素値SUS、図16の単調減少関数f(X)を用い、
D=SORG+f(SUS)・・・(7)
US=ΣSORG/M2・・・(8)
なる式(7)、(8)で表わされるものである。
Further, as a method similar to the above publication, there is a method called “self-compensating digital filter” (Non-Patent Document 2). This method uses a pixel value S D after compensation (after processing), an original pixel value (input pixel value) S ORG , and an average pixel when a moving average of the original image (input image) is taken with a mask size of M × M pixels. Using the value S US , the monotonically decreasing function f (X) of FIG.
S D = S ORG + f (S US ) (7)
S US = ΣS ORG / M 2 (8)
This is expressed by the following equations (7) and (8).

ここで、関数f(SUS)が有する特性について説明すると、まず、図16に示す特性は、「SUS>BASE」ではf(SUS)が「0」となり、「0≦SUS≦BASE」ではf(SUS)が切片を「しきい値BASE」、傾き「SLOPE」として単調減少するものである。従って、オリジナルの画素値SORGを濃度相当量として、上記(7)式を実行した際には、画像の平均濃度の低いところで濃度を持ち上げる、という画像に対する効果が得られる。 Here, the characteristics of the function f (S US ) will be described. First, in the characteristics shown in FIG. 16, when “S US > BASE”, f (S US ) becomes “0”, and “0 ≦ S US ≦ BASE”. ”F (S US ) monotonously decreases with the intercept being“ threshold BASE ”and the slope“ SLOPE ”. Therefore, when the above equation (7) is executed with the original pixel value S ORG as the amount corresponding to the density, there is an effect on the image that the density is raised when the average density of the image is low.

この方法は、上記(2)式と低周波画像の作成方法が異なり、(2)式では1次元データで低周波画像を作成していたのに対して、2次元データで低周波画像を作成するものである。この方法も低周波画像の画素値でDth以下の濃度値を圧縮するものである。   This method differs from the above formula (2) in creating a low-frequency image. In formula (2), a low-frequency image is created with one-dimensional data, whereas a low-frequency image is created with two-dimensional data. To do. This method also compresses a density value equal to or lower than Dth in the pixel value of the low-frequency image.

また、特許文献2には、単調増加関数f1(X)をもって、
D=SORG+f1(SUS)・・・(9)
US=ΣSORG/M2・・・(10)
で表される方法が記載されている。
Further, Patent Document 2 has a monotonically increasing function f1 (X),
S D = S ORG + f1 (S US ) (9)
S US = ΣS ORG / M 2 (10)
The method represented by is described.

ここで、関数f1(x)が有する特性について説明する。まず、「x<Dth」ではf1(x)が「0」となり、「Dth≦x」ではf1(x)が切片を「E」、傾き「E/Dth」として単調減少するものであり、(11)式で表されるものである。
f1〔x〕=E−(E/th)X・・・(11)
Here, characteristics of the function f1 (x) will be described. First, when “x <Dth”, f1 (x) becomes “0”, and when “Dth ≦ x”, f1 (x) monotonously decreases with an intercept “E” and a slope “E / Dth”. 11) It is represented by the formula.
f1 [x] = E− (E / th) X (11)

また、特許文献3には、一定濃度値以上の画像の高周波成分を強調する鮮鋭化方法が示されている。この方法は、超低周波数成分を強調すると共に、雑音の占める割合が大きい高周波成分を相対的に低減し、視覚的に見やすい画像が得られるようにすること及び偽画像を防止し、また雑音の増大を防止して診断性能を向上させることを目的とするものである。   Patent Document 3 discloses a sharpening method for enhancing high-frequency components of an image having a certain density value or more. This method emphasizes ultra-low frequency components, relatively reduces high-frequency components, which account for a large proportion of noise, and makes it possible to obtain a visually pleasing image, prevent false images, and eliminate noise. The purpose is to prevent the increase and improve the diagnostic performance.

定数BをSORG又はSUSの値の増大に応じて単調増加する変数とし、
D=SORG+B(SORG−SUS)・・・(12)
US=ΣSORG/M2・・・(13)
なる式(12)(13)で表わされるものがある。上記(12)式を実行した際には、画像の高周波成分を強調できるという効果がある。
The constant B is a variable that monotonously increases as the value of S ORG or S US increases.
S D = S ORG + B (S ORG −S US ) (12)
S US = ΣS ORG / M 2 (13)
There are some which are expressed by the following formulas (12) and (13). When the equation (12) is executed, there is an effect that the high-frequency component of the image can be enhanced.

特許第2509503号公報Japanese Patent No. 2509503 特許第2663189号公報Japanese Patent No. 2663189 特許第1530832号公報Japanese Patent No. 1530832 SPIEVol.626.MedicineXIV/PACSIV(1986)SPIEVol. 626. MedicineXIV / PACSIV (1986) 「自己補償デジタルフィルタ」(国立がんセンター、阿南氏他、日本放射線技術学会誌 第45巻第8号1989年8月 1030頁)"Self-compensating digital filter" (National Cancer Center, Mr. Anan, et al., Journal of Japanese Society of Radiological Technology, Vol. 45, No. 8, August 1989, page 1030)

しかしながら、上述したSPIEVo1.626.MedicineXIV/PACSIV(1986)に記載される方法では、一定濃度範囲のダイナミックレンジを圧縮する思想がないので、画像全体のダイナミックレンジを均等に圧縮する。そのため、一定濃度範囲だけを圧縮することができず、そのため、例えば肺正面画像に本手法を用いた場合、縦隔部のみならず診断に有効な肺部の濃度レンジをも圧縮してしまうという問題があり、縦隔部のみを圧縮した場合よりも診断能が下がるという問題があった。   However, the SPIEVo 1.626. In the method described in Medicine XIV / PACSIV (1986), there is no idea of compressing the dynamic range of a certain density range, so the dynamic range of the entire image is compressed uniformly. For this reason, it is impossible to compress only a certain concentration range. For this reason, for example, when this method is used for a lung front image, not only the mediastinum but also the lung concentration range effective for diagnosis is compressed. There was a problem, and there was a problem that the diagnostic ability was lower than when only the mediastinum part was compressed.

また、上記「自己補償デジタルフィルタ」による方法では、上記関数f(SUS)の形状を、例えばBASEまでを一定比率で減少する(線形である必要がある)ようにしないと、高周波成分に不自然な歪みが起きる問題がある。従って、高周波成分の振幅の大きさをオリジナル画像(入力画像)の高周波成分の振幅に保ったまま、階調の圧縮を非線形に自在に行えないという問題があった。 Also, in the method using the “self-compensating digital filter”, the shape of the function f (S US ) must be reduced at a constant rate up to, for example, BASE (need to be linear). There is a problem that natural distortion occurs. Therefore, there has been a problem that gradation compression cannot be performed freely in a non-linear manner while maintaining the amplitude of the high frequency component at the amplitude of the high frequency component of the original image (input image).

また、一般にダイナミックレンジ圧縮された画像は、CRT表示、フィルム出力する場合に、再度階調変換する。上記「自己補償デジタルフィルタ」による方法等では、階調変換後の画像の高周波成分の振幅を調整する思想が無いため、ダイナミックレンジ圧縮した画像は、フィルム出力、画像表示する場合にさらに非線形な階調変換が行われる。そのため、階調変換曲線の傾きに依存し、高周波成分の振幅の大きさが変動する。従って、階調変換後の振幅が非線形に歪む問題や、高周波成分の振幅の大きさを保ってダイナミックレンジ圧縮を行っても、階調変換曲線の傾きが低いところでは高周波成分の振幅が小さくなり、有益情報が消失するという問題があった。また、エッジ部分でオーバーシュートやアンダーシュートがおきるという問題があった。   In general, the dynamic range compressed image is subjected to gradation conversion again when CRT display or film output is performed. In the method using the “self-compensating digital filter” and the like, since there is no idea of adjusting the amplitude of the high-frequency component of the image after gradation conversion, the dynamic range-compressed image is more non-linear when the film is output or displayed. Key conversion is performed. Therefore, depending on the gradient of the gradation conversion curve, the amplitude of the high frequency component varies. Therefore, the problem of non-linear distortion of the amplitude after tone conversion, and even if dynamic range compression is performed while maintaining the amplitude of the high-frequency component, the amplitude of the high-frequency component is reduced when the gradient conversion curve has a low slope. There was a problem that useful information disappeared. There is also a problem that overshoot and undershoot occur at the edge.

また、上記従来の高周波成分を強調する鮮鋭化方法では、高周波成分の足し込みの強さを自由に調整できるが、ダイナミックレンジを圧縮する思想がなく、濃度分布の広い画像を一枚のフィルムなどで表示できないという問題があった。   In addition, the conventional sharpening method for emphasizing the high-frequency component can freely adjust the strength of the addition of the high-frequency component, but there is no idea of compressing the dynamic range, and an image with a wide density distribution can be formed on a single film, etc. There was a problem that could not be displayed.

本発明は上記のような問題を解決するためになされたもので、画像の濃度分布の幅と高周波成分の振幅を自在に調節できるようにすることを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to make it possible to freely adjust the width of the density distribution of an image and the amplitude of a high-frequency component.

本発明による画像処理装置の一つは、原画像を階調変換し変換画像を得る階調変換手段と、上記変換画像を平滑して平滑化画像を得る平滑手段と、上記原画像の高周波成分を得る手段と、上記平滑化画像と上記原画像の高周波成分とに基づき処理後画像を得る手段と、を備えることを特徴とする。
本発明による画像処理装置の一つは、原画像を平滑して平滑化画像を得る平滑手段と、上記平滑化画像を階調変換し変換画像を得る階調変換手段と、上記原画像の高周波成分を得る手段と、上記変換画像と上記原画像の高周波成分とに基づき処理後画像を得る手段と、を備えることを特徴とする。
本発明による画像処理装置の一つは、原画像の階調を変換して変換画像を得る階調変換手段と、上記階調変換手段で用いる階調変換曲線の微係数を記憶する記憶手段と、上記変換画像を平滑して平滑化画像を得る平滑手段と、上記変換画像の高周波成分を得る手段と、上記計高周波成分を上記記憶された微係数に基づいて変換する手段と、上記平滑化手段で得られた平滑化画像と、上記に微係数に基づいて変換された高周波成分に基づいて処理後画像を得る手段と、を備えることを特徴とする。
本発明による画像処理方法の一つは、第1の画像の平滑化画像(低周波画像)の画素値に、第2の画像の高周波成分を任意の割合で加算もしくは減算することを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x、y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(x,y)×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(fus(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(fuso(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x,y)、第1の画像の画素値fo(x,y)、第2の画像の画素値f1(x,y)(f0(x,y)≠f1(x,y))、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=f0(x,y)+F(x,y)×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x,y)、第1の画像の画素値f0(x,y)、第2の画像の画素値f1(x,y)(f0(x,y)≠f1(x,y))、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=f0(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理方法の一つは、処理済み画像の画素値fd(x,y)、第1の画像の画素値f0(x,y)、第2の画像の画素値f1(x,y)(f0(x,y)≠f1(x,y))、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=f0(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされることを特徴とする。
本発明による画像処理装置の一つは、画像データの画素値を階調変換曲線に基づいて変換する階調変換手段と、原画像データの高周波成分を生成する第一の生成手段と、上記第一の生成手段で生成された高周波成分を、上記諧調変換曲線の傾きを示す微分値に基づいて変換し、第二の高周波成分を得る手段と、上記第二の高周波成分に基づいて処理後画像を得る処理手段と、を備えることを特徴とする。
本発明による画像処理方法の一つは、画像データの画素値を階調変換曲線に基づいて変換する階調変換工程と、原画像データの高周波成分を生成する第一の生成工程と、上記第一の生成工程で生成された高周波成分を、上記諧調変換曲線の傾きを示す微分値に基づいて変換し、第二の高周波成分を得る工程と、上記第二の高周波成分に基づいて処理後画像を得る処理工程と、を有することを特徴とする。
One of the image processing apparatuses according to the present invention includes a gradation converting means for converting a gradation of an original image to obtain a converted image, a smoothing means for smoothing the converted image to obtain a smoothed image, and a high-frequency component of the original image. And means for obtaining a post-processing image based on the smoothed image and the high-frequency component of the original image.
One of the image processing apparatuses according to the present invention includes a smoothing unit that smoothes an original image to obtain a smoothed image, a tone conversion unit that performs tone conversion of the smoothed image to obtain a converted image, and a high frequency of the original image. Means for obtaining a component, and means for obtaining a processed image based on the converted image and the high-frequency component of the original image.
One of the image processing apparatuses according to the present invention is a gradation conversion means for converting a gradation of an original image to obtain a converted image, and a storage means for storing a differential coefficient of a gradation conversion curve used in the gradation conversion means. Smoothing means for smoothing the converted image to obtain a smoothed image; means for obtaining a high-frequency component of the converted image; means for converting the total high-frequency component based on the stored differential coefficient; and the smoothing A smoothed image obtained by the means, and a means for obtaining a processed image based on the high-frequency component converted based on the differential coefficient as described above.
One of the image processing methods according to the present invention is characterized by adding or subtracting the high-frequency component of the second image at an arbitrary ratio to the pixel value of the smoothed image (low-frequency image) of the first image. .
One of the image processing methods according to the present invention includes a pixel value fd (x, y) of the processed image, a pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and a second value. Pixel value f1 (x, y) of the second image, pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, coordinates x, y is used,
fd (x, y) = fuso (x, y) + F (x, y) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention includes a pixel value fd (x, y) of the processed image, a pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and a second value. Pixel value f1 (x, y) of the second image, pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, coordinates x, y is used,
fd (x, y) = fuso (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention includes a pixel value fd (x, y) of the processed image, a pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and a second value. Pixel value f1 (x, y) of the second image, pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, coordinates x, y is used,
fd (x, y) = fuso (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention includes a pixel value fd (x, y) of the processed image, a pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and a second value. Pixel value f1 (x, y) of the second image, pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, coordinates x, y is used,
fd (x, y) = fuso (x, y) + F (fus (x, y)) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention includes a pixel value fd (x, y) of the processed image, a pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and a second value. Pixel value f1 (x, y) of the second image, pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, coordinates x, y is used,
fd (x, y) = fuso (x, y) + F (fuso (x, y)) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention includes a processed image pixel value fd (x, y), a first image pixel value fo (x, y), and a second image pixel value f1 (x, y). ) (F0 (x, y) ≠ f1 (x, y)), pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, image Using the coordinates x and y above,
fd (x, y) = f0 (x, y) + F (x, y) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention includes a processed image pixel value fd (x, y), a first image pixel value f0 (x, y), and a second image pixel value f1 (x, y). ) (F0 (x, y) ≠ f1 (x, y)), pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, image Using the coordinates x and y above,
fd (x, y) = f0 (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention includes a processed image pixel value fd (x, y), a first image pixel value f0 (x, y), and a second image pixel value f1 (x, y). ) (F0 (x, y) ≠ f1 (x, y)), pixel value fus (x, y) of the smoothed (low frequency) image of the second image, function F () for controlling the processing effect, image Using the coordinates x and y above,
fd (x, y) = f0 (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing apparatuses according to the present invention includes a gradation conversion unit that converts a pixel value of image data based on a gradation conversion curve, a first generation unit that generates a high-frequency component of original image data, and the first Means for converting the high-frequency component generated by one generation means based on a differential value indicating the gradient of the gradation conversion curve, and obtaining a second high-frequency component; and a processed image based on the second high-frequency component And a processing means for obtaining the above.
One of the image processing methods according to the present invention includes a gradation conversion step of converting pixel values of image data based on a gradation conversion curve, a first generation step of generating high-frequency components of original image data, and the first A high-frequency component generated in one generation step is converted based on a differential value indicating the gradient of the gradation conversion curve to obtain a second high-frequency component, and a post-processing image based on the second high-frequency component And a processing step for obtaining

本発明の請求項1、2記載の画像処理装置によれば、処理済み画像の高周波成分を自在に調整することができる効果がある。
また、請求項3記載の画像処理装置によれば、入力画像の任意の階調領域の濃度分布を圧縮、伸長することができ、かつ階調変換後の高周波成分の振幅を保持することができる効果がある。
また、本発明による画像処理方法において、請求項6記載の発明によれば、第1の画像の平滑化画像に第2の画像の高周波成分を任意の割合で付与することができる。従って、低周波画像のコントラストは第1の画像のコントラストを保持し、第2の画像の高周波成分を自在に付与することができる効果がある。
請求項7記載の発明によれば、第1の画像の平滑化画像に第2の画像の高周波成分を画像の位置情報に応じて任意の割合で付与することができる。従って、高周波成分の付与の強弱を画像位置に応じて調整できる効果がある。
請求項8記載の発明によれば、処理理効果を制御する関数F()を第2の画像の濃度値f1(x,y)に依存するようにするため、高周波成分の振幅を第2の画像の濃度値に応じて変更できる効果がある。
請求項9記載の発明によれば、処理効果を制御する関数F()を第1の画像の濃度値f0(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第1の画像の濃度値に応じて変更できる効果がある。
請求項10記載の発明によれば、処理効果を制御する関数F()を第2の画像の平滑化(低周波)画像の濃度値fus(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第2の画像の平滑化(低周波)画像の濃度値に応じて変更できる効果がある。さらに、平滑化した画像の濃度に依存して高周波成分の振幅を調整するため、第2の画像の高周波成分の振幅に影響を受けない効果がある。
請求項11記載の発明によれば、処理効果を制御する関数F()を第1の画像の平滑化(低周波)画像の濃度値fuso(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第1の画像の平滑化(低周波)画像の濃度値に応じて変更できる効果がある。さらに、平滑化した画像の濃度に依存して高周波成分の振幅を調整するため、第1の画像の高周波成分の振幅に影響を受けない効果がある。
請求項12記載の発明によれば、第1の画像の平滑化画像に第2の画像の高周波成分を画像の位置情報に応じて任意の割合で付与することができる。従って、高周波成分の付与の強弱を画像位置に応じて調整できる効果がある。
請求項13記載の発明によれば、処理理効果を制御する関数f0を第2の画像の濃度値f1(x,y)に依存するようにするため、高周波成分の振幅を第2の画像の濃度値に応じて変更できる効果がある。
請求項14記載の発明によれば、処理効果を制御する関数F()を第1の画像の濃度値f0(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第1の画像の濃度値に応じて変更できる効果がある。
請求項15,16記載の発明によれば、画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を階調変換前の画像の高周波成分の振幅に保持できる効果がある。また、オーバーシュートやアンダーシュートが起きない効果がある。
請求項4記載の発明によれば、平滑化画像をモルフォロジカルフィルタで作成するため、元画像のエッジ構造を保存することができ、アンダーシュートやオーバーシュートがおきない効果がある。
According to the image processing apparatus of the first and second aspects of the present invention, there is an effect that the high frequency component of the processed image can be freely adjusted.
According to the image processing apparatus of claim 3, the density distribution of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion can be maintained. effective.
In the image processing method according to the present invention, the high frequency component of the second image can be given to the smoothed image of the first image at an arbitrary ratio. Therefore, the contrast of the low-frequency image has the effect of maintaining the contrast of the first image and freely adding the high-frequency component of the second image.
According to the seventh aspect of the present invention, the high-frequency component of the second image can be given to the smoothed image of the first image at an arbitrary ratio according to the position information of the image. Therefore, there is an effect that the intensity of the application of the high frequency component can be adjusted according to the image position.
According to the eighth aspect of the invention, in order to make the function F () for controlling the processing effect dependent on the density value f1 (x, y) of the second image, the amplitude of the high frequency component is set to the second value. There is an effect that can be changed according to the density value of the image.
According to the ninth aspect of the present invention, the function F () for controlling the processing effect depends on the density value f 0 (x, y) of the first image, so that the amplitude of the high frequency component of the converted image is There is an effect that it can be changed according to the density value of one image.
According to the tenth aspect of the present invention, the function F () for controlling the processing effect depends on the density value fus (x, y) of the smoothed (low frequency) image of the second image. There is an effect that the amplitude of the high frequency component of the image can be changed according to the density value of the smoothed (low frequency) image of the second image. Furthermore, since the amplitude of the high frequency component is adjusted depending on the density of the smoothed image, there is an effect that the amplitude of the high frequency component of the second image is not affected.
According to the eleventh aspect of the invention, the function F () for controlling the processing effect depends on the density value fuso (x, y) of the smoothed (low frequency) image of the first image. There is an effect that the amplitude of the high frequency component of the image can be changed according to the density value of the smoothed (low frequency) image of the first image. Furthermore, since the amplitude of the high frequency component is adjusted depending on the density of the smoothed image, there is an effect that the amplitude of the high frequency component of the first image is not affected.
According to the twelfth aspect of the present invention, the high-frequency component of the second image can be given to the smoothed image of the first image at an arbitrary ratio according to the position information of the image. Therefore, there is an effect that the intensity of the application of the high frequency component can be adjusted according to the image position.
According to the thirteenth aspect of the invention, in order to make the function f0 for controlling the processing effect dependent on the density value f1 (x, y) of the second image, the amplitude of the high frequency component is set to the value of the second image. There is an effect that can be changed according to the density value.
According to the fourteenth aspect of the present invention, the function F () for controlling the processing effect depends on the density value f 0 (x, y) of the first image, so that the amplitude of the high frequency component of the converted image is There is an effect that it can be changed according to the density value of one image.
According to the fifteenth and sixteenth aspects of the present invention, the density distribution width of an arbitrary gradation region of an image can be compressed and expanded, and the amplitude of a high-frequency component after gradation conversion can be reduced in the image before gradation conversion. There is an effect that the amplitude of the high frequency component can be maintained. In addition, there is an effect that no overshoot or undershoot occurs.
According to the fourth aspect of the invention, since the smoothed image is created by the morphological filter, the edge structure of the original image can be preserved, and there is an effect that no undershoot or overshoot occurs.

以下、本発明の実施の形態を図面と共に説明する。
まず、第1の実施の形態を説明する。
図2は、第1の実施の形態で用いる階調変換関数F1()を示す。ここで、f1(x,y)を2次元の入力原画像の濃度値とし、f0(x,y)を2次元の階調変換後の出力画像(変換画像)の濃度値とし、x,yを2次元上の座標とする。また、横軸を入力画像の濃度値f1(x,y)、縦軸を出力画像(変換画像)の濃度値f0(x,y)とする。この階調変換曲線では、入力濃度値2500以下の傾き(SLOPE)が0.2、入力濃度値2500より上の傾きが1となっている。
Embodiments of the present invention will be described below with reference to the drawings.
First, a first embodiment will be described.
FIG. 2 shows the gradation conversion function F1 () used in the first embodiment. Here, f1 (x, y) is a density value of a two-dimensional input original image, f0 (x, y) is a density value of an output image (converted image) after two-dimensional gradation conversion, and x, y Is a two-dimensional coordinate. Also, the horizontal axis is the density value f1 (x, y) of the input image, and the vertical axis is the density value f0 (x, y) of the output image (converted image). In this gradation conversion curve, the slope (SLOPE) below the input density value 2500 is 0.2, and the slope above the input density value 2500 is 1.

図3において、実線が入力画像のプロファイル、f1(X)、点線が入力画像の平滑化(低周波)画像fus(x,y)のプロファイルfus(X)を示す。図4において、実線が入力画像を図2で示す階調変換曲線で階調変換した画像のプロファイルf0(X)、点線が階調変換された画像の平滑化(低周波)画像のプロファイルfuso(X)を示す。ここでXは定数とする。
図5は、本実施の形態による画像処理方法の結果を示し、実線が入力画像のプロファイルf1(X)、点線が本実施の形態により処理された処理済み画像のプロファイルfd(X)を示す。
In FIG. 3, the solid line indicates the profile of the input image, f1 (X), and the dotted line indicates the smoothed (low frequency) image fus (x, y) profile fus (X) of the input image. In FIG. 4, the solid line is the profile f0 (X) of the image obtained by gradation-converting the input image with the gradation conversion curve shown in FIG. 2, and the smoothed (low frequency) image profile fuseo (the dotted line is gradation-converted image). X). Here, X is a constant.
FIG. 5 shows the result of the image processing method according to the present embodiment, where the solid line indicates the profile f1 (X) of the input image, and the dotted line indicates the profile fd (X) of the processed image processed according to the present embodiment.

次に動作について説明する。
まず、入力画像f1(x,y)を図2で示す階調変換関数F1()で(14)式に示すように階調変換を行い、出力画像f0(x,y)を得る。
f0(x,y)=F1(f1(x,y))・・・(14)
Next, the operation will be described.
First, the input image f1 (x, y) is subjected to gradation conversion as shown in the equation (14) by the gradation conversion function F1 () shown in FIG. 2, and an output image f0 (x, y) is obtained.
f0 (x, y) = F1 (f1 (x, y)) (14)

処理済み画像の画素値fd(x,y)を(5)式に従い得る。ここでF(x,y)は座標に依存した処理効果を表わす関数で、本実施の形態ではF(x,y)=1とする。
fd(x,y)=fuso(x,y)+F(x,y)×(f1(x,y)−fus(x,y))・・・(15)
The pixel value fd (x, y) of the processed image can be obtained according to equation (5). Here, F (x, y) is a function representing a processing effect depending on coordinates, and F (x, y) = 1 in this embodiment.
fd (x, y) = fuso (x, y) + F (x, y) × (f1 (x, y) −fus (x, y)) (15)

ここで、fuso(x,y)は出力画像(変換画像)f0(x,y)の平滑化(低周波)画像、fus(x,y)は入力画像f1(x,y)の平滑化(低周波)画像であり、例えば後述する(16)〜(20)式で求められる。平滑化には平均濃度を用いても、Erosion、Dai1ation、0pening,Closinng等のモルフォロジカルフィルタを用いてもよい。   Here, fuso (x, y) is a smoothed (low frequency) image of the output image (converted image) f0 (x, y), and fus (x, y) is a smoothed ( (Low frequency) image, which is obtained by, for example, equations (16) to (20) described later. For smoothing, an average density may be used, or a morphological filter such as Erosion, Dai1ation, 0pening, Closing, or the like may be used.

本実施の形態で用いた階調変換曲線F1()(図2)では、出力画像f0(x,y)の濃度値2500以下の高周波成分の振幅は20%に圧縮され、濃度値2500より高ければ、高周波成分の振幅は入力画像の振幅が保存される(図4実線)。   In the gradation conversion curve F1 () (FIG. 2) used in this embodiment, the amplitude of the high frequency component of the output image f0 (x, y) having a density value of 2500 or less is compressed to 20% and higher than the density value 2500. For example, the amplitude of the input image is stored as the amplitude of the high frequency component (solid line in FIG. 4).

上記fus(x,y)の計算方法を(16)〜(20)式とする。f1(x,y)を2次元の入力原画像とすると、
f2(x,y)=min{f1(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1}・・・(16)
f3(x,y)=max{f2(x+x1,y+y1)+D(x1,y1)|x1×x1+y1×y1≦r1×r1}・・・(17)
f4(x,y)=max{f3(x+x1,y+y1)+D(x1,y1)|x1×x1+y1×y1≦r1×r1}・・・(18)
fus(x,y)=min{f4(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1}・・・(19)
で示される。
The calculation method of fus (x, y) is represented by equations (16) to (20). If f1 (x, y) is a two-dimensional input original image,
f2 (x, y) = min {f1 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (16)
f3 (x, y) = max {f2 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (17)
f4 (x, y) = max {f3 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (18)
fus (x, y) = min {f4 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (19)
Indicated by

ここで、D(x,y)を円盤状フィルタ、r1を任意の定数とし、入力画像に応じて選択される。
D(x,y)=0、x×x+y×y≦r1×r1
=一∞、その他・・・(20)
Here, D (x, y) is a disc filter, and r1 is an arbitrary constant, and is selected according to the input image.
D (x, y) = 0, x × x + y × y ≦ r1 × r1
= 1 ∞, others ... (20)

ここで得られたfus(x,y)のプロファイルfus(X)(図3点線)はエッジ構造を保存しているものであり、従来のダイナミックレンジ圧縮の欠点であるオーバーシュート、アンダーシュートが起きないものである。   The profile fus (X) (dotted line in FIG. 3) of fus (x, y) obtained here preserves the edge structure, and overshoot and undershoot, which are disadvantages of conventional dynamic range compression, occur. There is nothing.

同様に、fuso(x,y)の計算方法を(21)〜(24)式とする。ある。f0(x,y)を階調変換後の画像とする。
f5(x,y)=min{f0(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1}・・・(21)
f6(x,y)=max{f5(x+x1,y+y1)+D(x1,y1)|x1×x1+y1×y1≦r1×r1}・・・(22)
f7(x,y)=max{f6(x+x1,y+y1)+D(x1,y1)|x1×x1+yl×y1≦r1×r1}・・・(23)
fuso(x,y)=min{f8(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1}・・・(24)
Similarly, the calculation method of fuso (x, y) is represented by equations (21) to (24). is there. Let f0 (x, y) be an image after gradation conversion.
f5 (x, y) = min {f0 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (21)
f6 (x, y) = max {f5 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (22)
f7 (x, y) = max {f6 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + yl × y1 ≦ r1 × r1} (23)
fuso (x, y) = min {f8 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (24)

ここで得られたfuso(x,y)のプロファイルfuso(X)(図4点線)はエッジ構造を保存しているものであり、f0(X)との交点位置が、fus(X)とf1(X)との交点位置と同一点となるものである。   The profile fuso (X) (dotted line in FIG. 4) of fuso (x, y) obtained here preserves the edge structure, and the intersection position with f0 (X) is fus (X) and f1. It is the same point as the intersection point with (X).

そして、図5の点線が得られた処理済み画像fd(x,y)のプロファイルfd(X)である。濃度値2500以下の濃度分布幅は入力画像の20%に圧縮され、かつ高周波成分の振幅は入力画像の振幅を保持している。   The profile fd (X) of the processed image fd (x, y) from which the dotted line in FIG. 5 is obtained. The density distribution width with a density value of 2500 or less is compressed to 20% of the input image, and the amplitude of the high frequency component holds the amplitude of the input image.

図1は本実施の形態による画像処理装置の構成を示すブロック図であり、前記(15)式を実現するものである。
図1において、入力画像f1は階調変換手段101で図2の関数に基づいて階調変換され、変換画像f0が得られる。この変換画像f0は次に平滑手段102で平滑されて平滑化画像fusoが得られ、加算手段103に送られる。
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the present embodiment, which realizes the expression (15).
In FIG. 1, an input image f1 is tone-converted by the tone converting means 101 based on the function of FIG. 2, and a converted image f0 is obtained. The converted image f0 is then smoothed by the smoothing means 102 to obtain a smoothed image fuso and sent to the adding means 103.

一方、上記入力画像f1は他の平滑手段104で平滑されて平滑化画像fusとなる。次に減算手段105において、入力画像f1から上記平滑化画像fusが減算されることにより、高周波成分画像が得られる。この高周波成分画像は乗算手段106で定数が乗算された後、加算手段103において上記平滑化画像fusoと加算されることにより、処理済み画像fdが得られる。   On the other hand, the input image f1 is smoothed by other smoothing means 104 to become a smoothed image fus. Next, a subtracting means 105 subtracts the smoothed image fus from the input image f1, thereby obtaining a high frequency component image. The high frequency component image is multiplied by a constant by the multiplying unit 106 and then added to the smoothed image fuso by the adding unit 103, whereby a processed image fd is obtained.

以上のように、第1の実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を自在に調整できる効果がある。   As described above, according to the first embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion can be freely adjusted. There is an effect that can be done.

次に、第2の実施の形態を説明する。
図6は、第2の実施の形態による画像処理方法で用いる階調変換関数F1()を示す。ここで、f1(x,y)を2次元の入力原画像の濃度値とし、入力画像の平滑化(低周波)画像をfus(x,y)とし、階調変換後の出力画像(変換画像)をfus0(x,y)とする。
Next, a second embodiment will be described.
FIG. 6 shows a gradation conversion function F1 () used in the image processing method according to the second embodiment. Here, f1 (x, y) is the density value of the two-dimensional input original image, the smoothed (low frequency) image of the input image is fus (x, y), and the output image after the tone conversion (converted image) ) Is fus0 (x, y).

次に動作について説明する。
まず、入力画像f1(x,y)の平滑画像fus(x,y)を例えば式(16)〜(20)で作成し、図6で示す階調変換関数F1()で(25)式で示すように階調変換を行い、出力画像fus0(x,y)を得る。
fus0(x,y)=F1(fus(x,y))・・・(25)
Next, the operation will be described.
First, a smooth image fus (x, y) of the input image f1 (x, y) is created by, for example, equations (16) to (20), and the gradation conversion function F1 () shown in FIG. As shown, gradation conversion is performed to obtain an output image fus0 (x, y).
fus0 (x, y) = F1 (fus (x, y)) (25)

処理済み画像の画素値fd(x,y)を(26)式に従い得る。ここでF(x,y)は座標に依存した処理効果を表わす関数とする。
fd(x,y)=fus0(x,y)+F(x,y)×(f1(x,y)−fus(x,y))・・・(26)
The pixel value fd (x, y) of the processed image can be obtained according to the equation (26). Here, F (x, y) is a function representing a processing effect depending on coordinates.
fd (x, y) = fus0 (x, y) + F (x, y) × (f1 (x, y) −fus (x, y)) (26)

図7は本実施の形態による画像処理装置の構成を示すもので、上記(26)式を実現するものである。
図7において、入力画像f1は平滑手段201で平滑されて平滑化画像fusとなり、この平滑化画像fusは減算手段204に送られると共に、階調変換手段202で図6の関数に基づいて階調変換され、変換画像fus0となり、加算手段203に送られる。
FIG. 7 shows the configuration of the image processing apparatus according to the present embodiment, which realizes the above equation (26).
In FIG. 7, an input image f1 is smoothed by a smoothing unit 201 to become a smoothed image fus. This smoothed image fus is sent to a subtracting unit 204, and a gradation converting unit 202 performs gradation based on the function of FIG. The converted image is converted to fus0 and sent to the adding means 203.

一方、入力画像f1は減算手段204で上記平滑化画像fusが減算されて、高周波成分画像が得られる。この高周波成分画像は乗算手段205で定数が乗算された後、加算手段203で上記出力画像fus0と加算されることにより、処理済み画像fdが得られる。   On the other hand, the smoothed image fus is subtracted from the input image f1 by the subtracting means 204 to obtain a high frequency component image. The high-frequency component image is multiplied by a constant by the multiplying unit 205 and then added to the output image fus0 by the adding unit 203, whereby a processed image fd is obtained.

以上のように、第2の実施の形態によれば、階調変換後に平滑化画像を作成する時間を省略でき、第1の実施の形態に比べて計算時間が早くなる効果がある。また、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を自在に調整できる効果がある。   As described above, according to the second embodiment, the time for creating a smoothed image after gradation conversion can be omitted, and the calculation time is faster than that of the first embodiment. In addition, the density distribution width of an arbitrary gradation region of the input image can be compressed and expanded, and the amplitude of the high frequency component after gradation conversion can be freely adjusted.

次に、第3の実施の形態を説明する。
図8は、第3の実施の形態による画像処理方法で用いる階調変換関数F1()を示す。ここで、f1(x,y)を2次元の入力原画像の濃度値とし、f0(x,y)を2次元の階調変換後の出力画像の濃度値とし、x,yを2次元上の座標とする。また、横軸が入力画像の濃度値f1(x,y)、縦軸が出力画像の濃度値f0(x,y)を示す。
Next, a third embodiment will be described.
FIG. 8 shows the gradation conversion function F1 () used in the image processing method according to the third embodiment. Here, f1 (x, y) is the density value of the two-dimensional input original image, f0 (x, y) is the density value of the output image after the two-dimensional gradation conversion, and x, y is two-dimensionally higher The coordinates of The horizontal axis represents the density value f1 (x, y) of the input image, and the vertical axis represents the density value f0 (x, y) of the output image.

図9において、実線が入力画像のプロファイルf1(X)、点線が入力画像の平滑化(低周波)画像fus(x,y)のプロファイルfus(X)、一点鎖線が処理画像のプロファイルfd(X)である。   In FIG. 9, the solid line is the profile f1 (X) of the input image, the dotted line is the smoothed (low frequency) image fus (x, y) of the input image, the profile fus (X), and the alternate long and short dash line is the profile fd (X ).

次に動作について説明する。
まず、入力画像f1(x,y)を図8で示す階調変換関数F1()で(27)式で示すように階調変換を行い、出力画像(変換画像)f0(x,y)を得る。
f0(x,y)=F1(f1(x,y))・・・(27)
Next, the operation will be described.
First, the input image f1 (x, y) is subjected to gradation conversion as shown by the equation (27) with the gradation conversion function F1 () shown in FIG. 8, and the output image (converted image) f0 (x, y) is obtained. obtain.
f0 (x, y) = F1 (f1 (x, y)) (27)

処理済み画像の画素値fd(x,y)を(28)、(29)式に従い得る。ここでc(x,y)は階調変換率で(28)式で定義される。
c(x,y)=∂F1(f1(x,y))/∂f1(x,y)・・・(28)
fd(x,y)=f0(x,y)+(1−c(x,y))×(f1(x,y)−fus(x,y))・・・(29)
The pixel value fd (x, y) of the processed image can be obtained according to equations (28) and (29). Here, c (x, y) is a gradation conversion rate and is defined by equation (28).
c (x, y) = ∂F1 (f1 (x, y)) / ∂f1 (x, y) (28)
fd (x, y) = f0 (x, y) + (1−c (x, y)) × (f1 (x, y) −fus (x, y)) (29)

ここで、fus(x,y)を入力画像f1(x,y)の平滑化(低周波)画像であり、例えば式(30)で示される。   Here, fus (x, y) is a smoothed (low frequency) image of the input image f1 (x, y), and is represented by, for example, Expression (30).

Figure 2007268308
Figure 2007268308

尚、上記平滑化にはどのような手法を用いてもよく、例えばErosion、Dai1ation、0pening,Closinng等のモルフォロジカルフィルタを用いてもよい。   Note that any method may be used for the smoothing, and a morphological filter such as Erosion, Dai1ation, 0penning, Closing, etc. may be used.

図10は本実施の形態による画像処理装置の構成示すもので、上記(29)式を実現するものである。
図10において、入力画像f1は階調変換手段301で図8の階調変換曲線に基づいて階調変換されて変換画像f0が得られ、加算手段302に送られる。一方、上記入力画像f1は平滑手段303で平滑されて平滑化画像fusとなる。減算手段304は入力画像f1から平滑化画像fusを減算して高周波画像が得られる。この高周波画像は加算手段302で上記変換画像f0と加算されることにより、処理済み画像fdが得られる。
FIG. 10 shows the configuration of the image processing apparatus according to the present embodiment, which realizes the above equation (29).
In FIG. 10, the input image f <b> 1 is subjected to gradation conversion based on the gradation conversion curve of FIG. 8 by the gradation conversion unit 301 to obtain a converted image f <b> 0 and sent to the addition unit 302. On the other hand, the input image f1 is smoothed by the smoothing means 303 to become a smoothed image fus. The subtracting means 304 subtracts the smoothed image fus from the input image f1 to obtain a high frequency image. This high-frequency image is added to the converted image f0 by the adding means 302, whereby a processed image fd is obtained.

以上のように、第3の実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を入力画像の高周波成分の振幅と同一にできる効果がある。また、平滑化処理を一回しか行う必要がなく、計算時間が短縮できる効果がある。さらに、平均濃度を用いる平滑化方法はモルフォロジカルフィルタ処理を計算時間が短縮できる効果がある。   As described above, according to the third embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion can be reduced. There is an effect that the amplitude of the high frequency component can be made the same. In addition, the smoothing process needs to be performed only once, and the calculation time can be shortened. Furthermore, the smoothing method using the average density has an effect of shortening the calculation time of the morphological filter processing.

次に、第4の実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像(階調変換後の出力画像)f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像(入力画像)の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y))・・・(31)
fd(x,y)=f0(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y))・・・(32)
なる式(21)もしくは式(32)なる演算式で表わすものである。
Next, a fourth embodiment will be described.
In this embodiment, the pixel value fd (x, y) of the processed image and the pixel value fuso (x, y) of the smoothed image of the first image (output image after gradation conversion) f0 (x, y) are used. ), The pixel value f1 (x, y) of the second image (input image), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, and the function F ( ), Using the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y)) (31)
fd (x, y) = f0 (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y)) (32)
This is expressed by the following equation (21) or equation (32).

以上のように、第4の実施の形態によれば、処理効果を制御する関数F()を第2の画像の濃度値f1(x,y)に依存するようにするため、高周波成分の振幅を第2の画像の濃度値に応じて変更できる効果がある。   As described above, according to the fourth embodiment, since the function F () for controlling the processing effect depends on the density value f1 (x, y) of the second image, the amplitude of the high frequency component Can be changed according to the density value of the second image.

次に第5の実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y))・・・(33)
fd(x,y)=f0(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y))・・・(34)
なる式(33)もしくは式(34)なる演算式で表わすものである。
Next, a fifth embodiment will be described.
In the present embodiment, the pixel value fd (x, y) of the processed image, the pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and the pixel value of the second image Using f1 (x, y), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y)) (33)
fd (x, y) = f0 (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y)) (34)
This is expressed by the following equation (33) or equation (34).

以上のように、第5の実施の形態によれば、処理効果を制御する関数F()を第1の画像の濃度値f0(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第1の画像の濃度値に応じて変更できる効果がある。   As described above, according to the fifth embodiment, since the function F () for controlling the processing effect depends on the density value f 0 (x, y) of the first image, the high frequency of the converted image is obtained. There is an effect that the amplitude of the component can be changed according to the density value of the first image.

次に、第6の実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(fus(x,y))×(f1(x,y)−fus(x,y))・・・(35)
fd(x,y)=f0(x,y)+F(fus(x,y))×(f1(x,y)−fus(x,y))・・・(36)
なる式(35)もしくは式(36)なる演算式で表わすものである。
Next, a sixth embodiment will be described.
In the present embodiment, the pixel value fd (x, y) of the processed image, the pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and the pixel value of the second image Using f1 (x, y), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (fus (x, y)) × (f1 (x, y) −fus (x, y)) (35)
fd (x, y) = f0 (x, y) + F (fus (x, y)) × (f1 (x, y) −fus (x, y)) (36)
This is expressed by the following equation (35) or equation (36).

以上のように、第6の実施の形態によれば、処理効果を制御する関数()を第2の画像の平滑化(低周波)画像の濃度値fus(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第2の画像の平滑化(低周波)画像の濃度値に応じて変更できる効果がある。さらに、平滑化した画像の濃度に依存して高周波成分の振幅を調整するため、第2の画像の高周波成分の振幅に影響を受けない効果がある。   As described above, according to the sixth embodiment, the function () for controlling the processing effect is made to depend on the density value fus (x, y) of the smoothed (low frequency) image of the second image. Therefore, there is an effect that the amplitude of the high frequency component of the converted image can be changed according to the density value of the smoothed (low frequency) image of the second image. Furthermore, since the amplitude of the high frequency component is adjusted depending on the density of the smoothed image, there is an effect that the amplitude of the high frequency component of the second image is not affected.

次に、第7の実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(fuso(x,y))×(f1(x,y)−fus(x,y))・・・(37)
fd(x,y)=f0(x,y)+F(fuso(x,y))×(f1(x,y)−fus(x,y))・・・(38)
なる式(37)もしくは式(38)なる演算式で表わすものである。
Next, a seventh embodiment will be described.
In the present embodiment, the pixel value fd (x, y) of the processed image, the pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and the pixel value of the second image Using f1 (x, y), the pixel fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (fuso (x, y)) × (f1 (x, y) −fus (x, y)) (37)
fd (x, y) = f0 (x, y) + F (fuso (x, y)) × (f1 (x, y) −fus (x, y)) (38)
This is expressed by the following equation (37) or equation (38).

以上のように、第7の実施の形態によれば、処理効果を制御する関数F()を第1の画像の平滑化(低周波)画像の濃度値fuso(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第1の画像の平滑化(低周波)画像の濃度値に応じて変更できる効果がある。さらに、平滑化した画像の濃度に依存して高周波成分の振幅を調整するため、第1の画像の高周波成分の振幅に影響を受けない効果がある。   As described above, according to the seventh embodiment, the function F () for controlling the processing effect depends on the density value fuso (x, y) of the smoothed (low frequency) image of the first image. Therefore, there is an effect that the amplitude of the high frequency component of the converted image can be changed according to the density value of the smoothed (low frequency) image of the first image. Furthermore, since the amplitude of the high frequency component is adjusted depending on the density of the smoothed image, there is an effect that the amplitude of the high frequency component of the first image is not affected.

次に、第8の実施の形態を説明する。本実施の形態では、第1の実施の形態で用いた図2、図4、図5を用いる。
図2においては、第1の実施の形態と同様に、f1(x,y)を2次元の入力原画像の濃度値、f0(x,y)を2次元の階調変換後の出力画像の濃度値とし、x,yは2次元上の座標を示す。また、横軸が入力画像の濃度値f1(x,y)、縦軸が出力画像の濃度値f0(x,y)を示す。入力濃度値2500以下の傾きが0.2、入力濃度値2500より上の傾きが1となっている。
Next, an eighth embodiment will be described. In this embodiment, FIGS. 2, 4, and 5 used in the first embodiment are used.
In FIG. 2, as in the first embodiment, f1 (x, y) is the density value of the two-dimensional input original image, and f0 (x, y) is the output image after the two-dimensional gradation conversion. The density value is set, and x and y indicate two-dimensional coordinates. The horizontal axis represents the density value f1 (x, y) of the input image, and the vertical axis represents the density value f0 (x, y) of the output image. The slope below the input density value 2500 is 0.2, and the slope above the input density value 2500 is 1.

また、図4の実線が階調変換後の出力画像のプロファイルf0(X9)、点線が出力画像の平滑化(低周波)画像のプロファイルfuso(X)を示す。
また、図5の実線が入力画像のプロファイルf1(X)、点線が本実施の形態による画像処理方法の結果である処理済み画像のプロファイルfd(X)を示す。
Also, the solid line in FIG. 4 indicates the profile f0 (X9) of the output image after gradation conversion, and the dotted line indicates the smoothed (low frequency) image profile fuso (X) of the output image.
Also, the solid line in FIG. 5 represents the profile f1 (X) of the input image, and the dotted line represents the profile fd (X) of the processed image that is the result of the image processing method according to the present embodiment.

次に動作について説明する。
まず、入力画像f1(x,y)を図2で示す階調変換関数F1()で前記(4)式で示すように階調変換を行い、出力画像f0(x,y)を得る。
次に処理済み画像の画素値fd(x,y)を(39)式に従い得る。ここでc(x,y)は階調変換曲線の傾きを表わす関数で、前記(28)式で示される。
Next, the operation will be described.
First, the input image f1 (x, y) is subjected to gradation conversion as shown by the above equation (4) with the gradation conversion function F1 () shown in FIG. 2 to obtain an output image f0 (x, y).
Next, the pixel value fd (x, y) of the processed image can be obtained according to the equation (39). Here, c (x, y) is a function representing the gradient of the gradation conversion curve, and is represented by the equation (28).

fd(x,y)=fuso(x,y)+a×(1/c(x,y))×(f0(x,y)−fuso(x,y))・・・(39)
ここで、aは定数、fuso(x,y)は出力画像f0(x,y)の平滑化(低周波)画像の画素値であり、例えば前記(16)〜(20)式で示される。
fd (x, y) = fuso (x, y) + a × (1 / c (x, y)) × (f0 (x, y) −fuso (x, y)) (39)
Here, a is a constant, and fuso (x, y) is a pixel value of a smoothed (low frequency) image of the output image f0 (x, y), and is represented by, for example, the equations (16) to (20).

本実施の形態で用いた階調変換曲線F1()(図2)では、出力画像(変換画像)f0(x,y)の濃度値2500以下の高周波成分の振幅は20%に圧縮され、濃度値2500より高ければ、高周波成分の振幅は入力画像の振幅が保存される(図4実線)。
尚、第1の実施の形態と同様に、平滑化画像は例えば前記(30)式による平均濃度を用いてもよく、上記モルフォロジカルフィルタを用いてもよい。
In the gradation conversion curve F1 () (FIG. 2) used in the present embodiment, the amplitude of the high frequency component of the output image (converted image) f0 (x, y) having a density value of 2500 or less is compressed to 20%. If the value is higher than 2500, the amplitude of the input image is stored as the amplitude of the high frequency component (solid line in FIG. 4).
Note that, as in the first embodiment, the smoothed image may use, for example, the average density according to the equation (30) or the morphological filter.

そして得られた処理画像fd(x,y)のプロファイルが図5の点線である。濃度値2500以下の濃度分布幅は入力画像の20%に圧縮され、かつ高周波成分の振幅は入力画像の振幅を保持している。   The profile of the processed image fd (x, y) obtained is a dotted line in FIG. The density distribution width with a density value of 2500 or less is compressed to 20% of the input image, and the amplitude of the high frequency component holds the amplitude of the input image.

図11は本実施の形態による画像処理装置の構成を示すもので、上記式(39)式を実現するものである。
図11において、入力画像f1は階調変換手段801で階調変換されて変換画像f0が得られ、減算手段805に送られると共に、平滑手段802で平滑されて平滑化画像fusoが得られる。この平滑化画像fusoは加算手段803に送られる。
FIG. 11 shows the configuration of the image processing apparatus according to the present embodiment, and realizes the above equation (39).
In FIG. 11, the input image f1 is subjected to gradation conversion by the gradation converting means 801 to obtain a converted image f0, which is sent to the subtracting means 805 and smoothed by the smoothing means 802 to obtain a smoothed image fuso. The smoothed image fuso is sent to the adding means 803.

一方、減算手段805は上記変換画像f0から平滑化画像fusoを減算することにより、高周波成分が得られる。この高周波成分は乗算手段806で定数が乗算された後、加算手段803で上記平滑化画像fusoと加算されることにより、処理済み画像fdが得られる。   On the other hand, the subtracting means 805 obtains a high frequency component by subtracting the smoothed image fuso from the converted image f0. The high frequency component is multiplied by a constant by a multiplying unit 806 and then added to the smoothed image fuso by an adding unit 803, thereby obtaining a processed image fd.

以上のように、第8の実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を階調変換前の画像の高周波成分の振幅に保持できる効果がある。さらに、オーバーシュートやアンダーシュートが起きない効果がある。また、平滑化画像に濃度平均を用いた場合は計算時間を短縮できる効果がある。   As described above, according to the eighth embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion is converted to gradation. There is an effect that the amplitude of the high frequency component of the previous image can be maintained. Furthermore, there is an effect that no overshoot or undershoot occurs. Further, when the density average is used for the smoothed image, there is an effect that the calculation time can be shortened.

図12は第9の実施の形態による画像処理装置の構成を示す。
図12において、900は原画像としての入力画像を示し、901は原画像900の階調を変換する階調変換手段、902は階調変換した変換画像、903は階調変換手段901で用いる階調変換曲線の微係数を記憶する微係数記憶手段、904は上記変換画像902の平滑化画像(低周波画像)905を作成する平滑化画像作成手段、906は変換画像902と平滑化画像905との差分を計算する高周波成分作成手段、907は高周波成分作成手段106で作成された高周波成分を、微係数記憶手段903に記憶した階調変換曲線の微係数に基づいて変換画像902に足し込む高周波成分足し込み手段である。
FIG. 12 shows the configuration of an image processing apparatus according to the ninth embodiment.
In FIG. 12, 900 represents an input image as an original image, 901 is a gradation conversion unit for converting the gradation of the original image 900, 902 is a converted image after gradation conversion, and 903 is a floor used by the gradation conversion unit 901. Derivative coefficient storage means for storing the derivative coefficient of the tone conversion curve, 904 is a smoothed image creating means for creating a smoothed image (low frequency image) 905 of the converted image 902, and 906 is a converted image 902 and a smoothed image 905. 907 is a high frequency component creation means for calculating the difference between the high frequency component created by the high frequency component creation means 106 and added to the converted image 902 based on the differential coefficient of the gradation conversion curve stored in the differential coefficient storage means 903. Ingredient addition means.

図13は本実施の形態の処理の流れを示すフローチャートである。図14、図15は、階調変換手段901で用いる階調変換曲線を示し、横軸が入力画像の画素値、縦軸が出力画像の画素値を示す。図14はS字型の階調変換曲線、図15は入力濃度値B以下の傾きがA/B、入力濃度値Bより上の傾きが1となっている。   FIG. 13 is a flowchart showing the flow of processing of the present embodiment. 14 and 15 show tone conversion curves used by the tone conversion means 901, the horizontal axis indicates the pixel value of the input image, and the vertical axis indicates the pixel value of the output image. FIG. 14 shows an S-shaped gradation conversion curve, and FIG. 15 shows that the slope below the input density value B is A / B and the slope above the input density value B is 1.

次に動作について図13の処理の流れに従い説明する。
階調変換手段901は原画像900を例えば図14又は図15に示す階調変換曲線に基づき(40)式で示すように階調を変換する(ステップS201)。ここで、f1(x,y)を2次元の入力原画像900の濃度値とし、f0(x,y)を2次元の階調変換後の変換画像902の濃度値とし、F1()を階調変換曲線とする。x,yは2次元上の座標を示す。
f0(x,y)=F1(f1(x,y))・・・(40)
Next, the operation will be described according to the processing flow of FIG.
The gradation converting means 901 converts the gradation of the original image 900 as shown by the equation (40) based on the gradation conversion curve shown in FIG. 14 or FIG. 15 (step S201). Here, f1 (x, y) is the density value of the two-dimensional input original image 900, f0 (x, y) is the density value of the converted image 902 after the two-dimensional gradation conversion, and F1 () is the floor. A key conversion curve is used. x and y indicate two-dimensional coordinates.
f0 (x, y) = F1 (f1 (x, y)) (40)

そして微係数記憶手段903は(41)式で示される、階調変換曲線の微係数を計算し、濃度値をテーブルc(x)として記憶する(S202)。
c(F1(x))=1−〔∂F1(x)/∂x〕・・・(41)
The differential coefficient storage unit 903 calculates the differential coefficient of the gradation conversion curve represented by the equation (41), and stores the density value as a table c (x) (S202).
c (F1 (x)) = 1- [∂F1 (x) / ∂x] (41)

次に、平滑化画像作成手段904では、前記(30)式により画像902から平滑化画像905を計算する(S203)。
次に、高周波成分作成手段906は(42)式で示すように、階調変換後画像902と平滑化画像905から高周波画像を計算する(S204)。ここでfh(x,y)を高周波画像の画素値とする。
fh(x,y)=f0(x,y)−fus(x,y)・・・(42)
Next, the smoothed image creating means 904 calculates a smoothed image 905 from the image 902 by the above equation (30) (S203).
Next, the high-frequency component creation unit 906 calculates a high-frequency image from the gradation-converted image 902 and the smoothed image 905 as shown by the equation (42) (S204). Here, fh (x, y) is a pixel value of the high-frequency image.
fh (x, y) = f0 (x, y) −fus (x, y) (42)

そして高周波成分足し込み手段907は、(43)式で示すように階調変換後の変換画像902に、高周波成分作成手段906で計算された高周波成分を、微係数記憶手段103に記憶された微係数に基づき足し込んで、処理後画像fd(x,y)を得る(S205)。
fd(x,y)=f0(x,y)十a×c(f0(x,y))×fh(x,y)・・・(43)
ここで、aは定数である。
The high frequency component adding means 907 then adds the high frequency component calculated by the high frequency component creating means 906 to the converted image 902 after the gradation conversion as shown in the equation (43). A post-processing image fd (x, y) is obtained based on the coefficients (S205).
fd (x, y) = f0 (x, y) + a * c (f0 (x, y)) * fh (x, y) (43)
Here, a is a constant.

尚、平滑化画像905を前記(16)〜(20)式により、モルフォジ演算を用いて計算してもよい。
ここで得られたfus(x,y)のプロファイルはエッジ構造を保存しているものであり、従来ダイナミックレンジ圧縮の欠点であるオーバーシュート、アンダーシュートが起きないものである。
Note that the smoothed image 905 may be calculated using the morphological operation according to the above equations (16) to (20).
The profile of fus (x, y) obtained here preserves the edge structure and does not cause overshoot and undershoot, which are disadvantages of conventional dynamic range compression.

本実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を階調変換前の画像の高周波成分の振幅に保持できる効果がある。また、オーバーシュートやアンダーシュートが起きない効果がある。さらに、平滑化画像に濃度平均を用いた場合は計算時間を短縮できる効果がある。   According to the present embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion is set to the high-frequency component of the image before gradation conversion. There is an effect that the amplitude can be maintained. In addition, there is an effect that no overshoot or undershoot occurs. Furthermore, when the density average is used for the smoothed image, there is an effect that the calculation time can be shortened.

次に本発明による記憶媒体について説明する。
図1、図7、図10、図11、図12等を含む各実施の形態によるシステムは、ハード的に構成してもよく、また、CPUやメモリ等からなるコンピュータシステムに構成してもよい。コンピュータシステムに構成する場合、上記メモリは本発明による記憶媒体を構成する。この記憶媒体媒体には、図13を含む前述した各実施の形態の処理を実行するためのプログラムが記憶される。
Next, the storage medium according to the present invention will be described.
The system according to each embodiment including FIG. 1, FIG. 7, FIG. 10, FIG. 11, FIG. 12, etc. may be configured in hardware, or may be configured as a computer system including a CPU, a memory, and the like. . When configured in a computer system, the memory constitutes a storage medium according to the present invention. This storage medium medium stores a program for executing the processes of the above-described embodiments including FIG.

また、この記憶媒体としては、ROM、RAM等の半導体メモリ、光ディスク、光磁気ディスク、磁気記憶媒体等を用いてよく、これらをCD−ROM、FD、磁気カード、磁気テープ、不揮発性メモリカード等に構成して用いてよい。   Further, as this storage medium, a semiconductor memory such as ROM and RAM, an optical disk, a magneto-optical disk, a magnetic storage medium, etc. may be used, and these are a CD-ROM, FD, magnetic card, magnetic tape, nonvolatile memory card, etc. It may be configured and used.

従って、この記憶媒体を上記各図を含む各実施の形態によるシステム以外の他のシステムあるいは装置で用い、そのシステムあるいはコンピュータがこの記憶媒体に格納されたプログラムコードを読み出し、実行することによっても、前述した各実施の形態と同等の機能を実現できると共に、同等の効果を得ることができ、本発明の目的を達成することができる。   Therefore, when this storage medium is used in another system or apparatus other than the system according to each embodiment including the above drawings, the system or computer reads out and executes the program code stored in this storage medium, The same functions as those of the above-described embodiments can be realized, the same effects can be obtained, and the object of the present invention can be achieved.

また、コンピュータ上で稼働しているOS等が処理の一部又は全部を行う場合、あるいは記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された拡張機能ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づいて、上記拡張機能ボードや拡張機能ユニットに備わるCPU等が処理の一部又は全部を行う場合にも、各実施の形態と同等の機能を実現できると共に、同等の効果を得ることができ、本発明の目的を達成することができる。   Further, when an OS or the like running on the computer performs part or all of the processing, or an extended function board in which a program code read from a storage medium is inserted into the computer or an extended function connected to the computer Even when the CPU or the like provided in the extension function board or the extension function unit performs part or all of the processing based on the instruction of the program code after being written in the memory provided in the unit, it is equivalent to each embodiment. In addition to realizing the above functions, the same effect can be obtained and the object of the present invention can be achieved.

本発明の第1の実施の形態による画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention. 第1、第8の実施の形態による階調変換関数F1()を示す特性図である。It is a characteristic view which shows the gradation conversion function F1 () by 1st, 8th embodiment. 第1の実施の形による入力画像とモルフォロジカルフィルタによる平滑化画像のプロファイルを示す特性図である。It is a characteristic view which shows the profile of the smoothed image by the input image by a 1st form, and a morphological filter. 第1、第8の実施の形態による階調変換画像とモルフォロジカルフィルタによる平滑化画像のプロファイルを示す特性図である。It is a characteristic view which shows the profile of the smoothing image by the gradation conversion image by 1st, 8th Embodiment and a morphological filter. 第1、第8の実施の形態による入力画像と処理画像のプロファイルを示す特性図である。It is a characteristic view which shows the profile of the input image and processed image by 1st, 8th embodiment. 第2の実施の形態による階調変換関数F1()を示す特性図である。FIG. 10 is a characteristic diagram showing a gradation conversion function F1 () according to a second embodiment. 第2の実施の形態による画像処理装置のブロック図である。It is a block diagram of the image processing apparatus by 2nd Embodiment. 第3の実施の形態による階調変換関数F1()を示す特性図である。It is a characteristic view which shows the gradation conversion function F1 () by 3rd Embodiment. 第3の実施の形態による入力画像と入力画像の平滑化画像と処理画像のプロファイルを示す特性図である。It is a characteristic view which shows the profile of the input image by the 3rd Embodiment, the smoothed image of an input image, and a process image. 第3の実施の形態による画像処理装置のブロック図である。It is a block diagram of the image processing apparatus by 3rd Embodiment. 第8の実施の形態による画像処理装置のブロック図である。It is a block diagram of the image processing apparatus by 8th Embodiment. 第9の実施の形態による画像処理装置のブロック図である。It is a block diagram of the image processing apparatus by 9th Embodiment. 第9の実施の形態による処理を示すフローチャートである。It is a flowchart which shows the process by 9th Embodiment. 第9の実施の形態による階調変換関数F1()を示す特性図である。It is a characteristic view which shows the gradation conversion function F1 () by 9th Embodiment. 第9の実施の形態による他の階調変換関数F1()を示す特性図である。It is a characteristic view which shows the other gradation conversion function F1 () by 9th Embodiment. 従来のダイナミックレンジ圧縮に用いる単調減少関数を示す特性図である。It is a characteristic view which shows the monotone decreasing function used for the conventional dynamic range compression.

符号の説明Explanation of symbols

101、202、301、801、901 階調変換手段
102、104、201、303、802、904 平滑手段
103、203、302、803 加算手段
105、204、304、805 減算手段
106、205、305、806 乗算手段
900、f1 入力画像
902、f0、fus0 出力画像(変換画像)
905、fus、fuso 平滑化画像
906 高周波成分作成手段
907 高周波成分足し込み手段
fd 処理済み画像
101, 202, 301, 801, 901 Tone conversion means 102, 104, 201, 303, 802, 904 Smoothing means 103, 203, 302, 803 Addition means 105, 204, 304, 805 Subtraction means 106, 205, 305, 806 Multiplying means 900, f1 input image 902, f0, fus0 output image (converted image)
905, fus, fuso Smoothed image 906 High frequency component creation means 907 High frequency component addition means fd Processed image

Claims (16)

原画像を階調変換し変換画像を得る階調変換手段と、
上記変換画像を平滑して平滑化画像を得る平滑手段と、
上記原画像の高周波成分を得る手段と、
上記平滑化画像と上記原画像の高周波成分とに基づき処理後画像を得る手段と、を備えることを特徴とする画像処理装置。
Gradation conversion means for converting the gradation of the original image to obtain a converted image;
Smoothing means for smoothing the converted image to obtain a smoothed image;
Means for obtaining a high-frequency component of the original image;
An image processing apparatus comprising: means for obtaining a processed image based on the smoothed image and the high-frequency component of the original image.
原画像を平滑して平滑化画像を得る平滑手段と、
上記平滑化画像を階調変換し変換画像を得る階調変換手段と、
上記原画像の高周波成分を得る手段と、
上記変換画像と上記原画像の高周波成分とに基づき処理後画像を得る手段と、を備えることを特徴とする画像処理装置。
Smoothing means for smoothing the original image to obtain a smoothed image;
Gradation conversion means for gradation-converting the smoothed image to obtain a converted image;
Means for obtaining a high-frequency component of the original image;
An image processing apparatus comprising: means for obtaining a processed image based on the converted image and the high-frequency component of the original image.
原画像の階調を変換して変換画像を得る階調変換手段と、
上記階調変換手段で用いる階調変換曲線の微係数を記憶する記憶手段と、
上記変換画像を平滑して平滑化画像を得る平滑手段と、
上記変換画像の高周波成分を得る手段と、
上記計高周波成分を上記記憶された微係数に基づいて変換する手段と、
上記平滑化手段で得られた平滑化画像と、上記に微係数に基づいて変換された高周波成分に基づいて処理後画像を得る手段と、を備えることを特徴とする画像処理装置。
Gradation conversion means for converting the gradation of the original image to obtain a converted image;
Storage means for storing a differential coefficient of a gradation conversion curve used in the gradation conversion means;
Smoothing means for smoothing the converted image to obtain a smoothed image;
Means for obtaining a high-frequency component of the converted image;
Means for converting the total high frequency component based on the stored derivative;
An image processing apparatus comprising: a smoothed image obtained by the smoothing means; and means for obtaining a processed image based on the high-frequency component converted based on the differential coefficient.
上記平滑手段は、モルフォロジカルフィルタを用いることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the smoothing unit uses a morphological filter. 上記平滑手段は、移動平均値により平滑することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the smoothing unit smoothes the moving average value. 第1の画像の平滑化画像(低周波画像)の画素値に、第2の画像の高周波成分を任意の割合で加算もしくは減算することを特徴とする画像処理方法。   An image processing method comprising adding or subtracting a high frequency component of a second image at an arbitrary ratio to a pixel value of a smoothed image (low frequency image) of the first image. 処理済み画像の画素値fd(x、y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(x,y)×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of processed image, pixel value fuso (x, y) of smoothed image of first image f0 (x, y), pixel value f1 (x, y) of second image , Using the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (x, y) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of the processed image, pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), pixel value f1 (x, y) of the second image , Using the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of the processed image, pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), pixel value f1 (x, y) of the second image , Using the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(fus(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of the processed image, pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), pixel value f1 (x, y) of the second image , Using the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (fus (x, y)) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=fuso(x,y)+F(fuso(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of the processed image, pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), pixel value f1 (x, y) of the second image , Using the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = fuso (x, y) + F (fuso (x, y)) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
処理済み画像の画素値fd(x,y)、第1の画像の画素値fo(x,y)、第2の画像の画素値f1(x,y)(f0(x,y)≠f1(x,y))、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=f0(x,y)+F(x,y)×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of the processed image, pixel value fo (x, y) of the first image, pixel value f1 (x, y) of the second image (f0 (x, y) ≠ f1 ( x, y)), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = f0 (x, y) + F (x, y) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
処理済み画像の画素値fd(x,y)、第1の画像の画素値f0(x,y)、第2の画像の画素値f1(x,y)(f0(x,y)≠f1(x,y))、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=f0(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of the processed image, pixel value f0 (x, y) of the first image, pixel value f1 (x, y) of the second image (f0 (x, y) ≠ f1 ( x, y)), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = f0 (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
処理済み画像の画素値fd(x,y)、第1の画像の画素値f0(x,y)、第2の画像の画素値f1(x,y)(f0(x,y)≠f1(x,y))、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
fd(x,y)=f0(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表わされる画像処理方法。
Pixel value fd (x, y) of the processed image, pixel value f0 (x, y) of the first image, pixel value f1 (x, y) of the second image (f0 (x, y) ≠ f1 ( x, y)), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
fd (x, y) = f0 (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y))
An image processing method represented by the following arithmetic expression.
画像データの画素値を階調変換曲線に基づいて変換する階調変換手段と、
原画像データの高周波成分を生成する第一の生成手段と、
上記第一の生成手段で生成された高周波成分を、上記諧調変換曲線の傾きを示す微分値に基づいて変換し、第二の高周波成分を得る手段と、
上記第二の高周波成分に基づいて処理後画像を得る処理手段と、を備えることを特徴とする画像処理装置。
Gradation conversion means for converting pixel values of image data based on a gradation conversion curve;
First generation means for generating high-frequency components of the original image data;
Means for converting the high frequency component generated by the first generation means based on a differential value indicating the slope of the gradation conversion curve, and obtaining a second high frequency component;
An image processing apparatus comprising: processing means for obtaining a processed image based on the second high-frequency component.
画像データの画素値を階調変換曲線に基づいて変換する階調変換工程と、
原画像データの高周波成分を生成する第一の生成工程と、
上記第一の生成工程で生成された高周波成分を、上記諧調変換曲線の傾きを示す微分値に基づいて変換し、第二の高周波成分を得る工程と、
上記第二の高周波成分に基づいて処理後画像を得る処理工程と、を有することを特徴とする画像処理方法。
A gradation conversion step of converting the pixel value of the image data based on a gradation conversion curve;
A first generation step for generating high-frequency components of the original image data;
Converting the high-frequency component generated in the first generation step based on a differential value indicating the gradient of the gradation conversion curve to obtain a second high-frequency component;
And a processing step of obtaining a processed image based on the second high-frequency component.
JP2007177629A 2007-07-05 2007-07-05 Image processing apparatus and method Expired - Fee Related JP4818212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007177629A JP4818212B2 (en) 2007-07-05 2007-07-05 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007177629A JP4818212B2 (en) 2007-07-05 2007-07-05 Image processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005246816A Division JP4035546B2 (en) 2005-08-26 2005-08-26 Image processing method and computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2007268308A true JP2007268308A (en) 2007-10-18
JP4818212B2 JP4818212B2 (en) 2011-11-16

Family

ID=38671662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007177629A Expired - Fee Related JP4818212B2 (en) 2007-07-05 2007-07-05 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4818212B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128213A1 (en) * 2008-04-14 2009-10-22 株式会社日立メディコ Medical diagnostic device and method of improving image quality of medical diagnostic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320157A (en) * 1991-04-19 1992-11-10 Fuji Photo Film Co Ltd Picture data processor
JPH10232927A (en) * 1996-12-18 1998-09-02 Fujitsu Ltd Image gradation transforming device, image gradation varying method, medium where program for implementing the same method is recorded, and infrared-ray camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320157A (en) * 1991-04-19 1992-11-10 Fuji Photo Film Co Ltd Picture data processor
JPH10232927A (en) * 1996-12-18 1998-09-02 Fujitsu Ltd Image gradation transforming device, image gradation varying method, medium where program for implementing the same method is recorded, and infrared-ray camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128213A1 (en) * 2008-04-14 2009-10-22 株式会社日立メディコ Medical diagnostic device and method of improving image quality of medical diagnostic device
JP5331797B2 (en) * 2008-04-14 2013-10-30 株式会社日立メディコ Medical diagnostic device and method for improving image quality of medical diagnostic device
US9245323B2 (en) 2008-04-14 2016-01-26 Hitachi Medical Corporation Medical diagnostic device and method of improving image quality of medical diagnostic device

Also Published As

Publication number Publication date
JP4818212B2 (en) 2011-11-16

Similar Documents

Publication Publication Date Title
JP3833177B2 (en) Image processing apparatus, image processing method, storage medium, and program
US7447376B2 (en) Image processing apparatus, image processing method, storage medium, and program
TWI405147B (en) Hierarchical motion deblurring method for single image
US6813335B2 (en) Image processing apparatus, image processing system, image processing method, program, and storage medium
JP3700804B2 (en) Image processing method and apparatus
WO2015080006A1 (en) Ultrasonic diagnostic device
US6985615B2 (en) Image processing apparatus, method and memory medium
JP7141862B2 (en) Method for tone-adapting an image to the target peak luminance of a target display device
JPH1075364A (en) Dynamic range compression processing method and device for image
JP3814421B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP3814491B2 (en) Image processing apparatus, image processing method, storage medium, and program
JP4035546B2 (en) Image processing method and computer-readable storage medium
JP4818212B2 (en) Image processing apparatus and method
JP4146958B2 (en) Image processing method, image processing apparatus, and storage medium
JP4323708B2 (en) Image processing method, image processing apparatus, and recording medium
JP3937616B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP2005130167A (en) Image processing device, image processing method, program, and computer-readable medium
JP2003337942A (en) Image processor
JP5349204B2 (en) Image processing apparatus and method, and image display apparatus and method
JP2002374418A (en) Device, system, and method for image processing, storage medium, and program
JP2005353102A (en) Image processing device and image processing method
JP3780179B2 (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
JP2011045015A (en) Device and method for processing image, and image display device
JP2002358517A (en) Device, system and method for processing image, storage medium and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees