JP3814421B2 - Image processing apparatus, method, and computer-readable storage medium - Google Patents

Image processing apparatus, method, and computer-readable storage medium Download PDF

Info

Publication number
JP3814421B2
JP3814421B2 JP27228398A JP27228398A JP3814421B2 JP 3814421 B2 JP3814421 B2 JP 3814421B2 JP 27228398 A JP27228398 A JP 27228398A JP 27228398 A JP27228398 A JP 27228398A JP 3814421 B2 JP3814421 B2 JP 3814421B2
Authority
JP
Japan
Prior art keywords
image data
image
frequency component
gradation conversion
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27228398A
Other languages
Japanese (ja)
Other versions
JP2000101841A (en
JP2000101841A5 (en
Inventor
弘之 新畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP27228398A priority Critical patent/JP3814421B2/en
Priority to US09/396,740 priority patent/US7050648B1/en
Publication of JP2000101841A publication Critical patent/JP2000101841A/en
Priority to US10/912,129 priority patent/US7564582B2/en
Priority to US11/146,054 priority patent/US7636495B2/en
Publication of JP2000101841A5 publication Critical patent/JP2000101841A5/ja
Application granted granted Critical
Publication of JP3814421B2 publication Critical patent/JP3814421B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、X線画像等の画像の高周波成分を保持した状態で階調変換を行う画像処理装置、方法及びこれらに用いられるコンピュータ読み取り可能な記憶媒体に関するものである。
【0002】
【従来の技術】
例えば、X線胸部画像は、X線が透過しやすい肺野の画像、及びX線が非常に透過しにくい縦隔部の画像より構成されるため、画素値の存在するレンジが非常に広い。このため、肺野及び縦隔部の両方を同時に観察することが可能なX線胸部画像を得ることは困難であるとされてきた。
【0003】
そこで、この問題を回避する方法として、従来より次のような種々の方法が提案されている。
まず、SPIEVol.626.MedicineXIV/PACSIV(1986)に記載される方法がある。この方法は処理後の画素値SD 、オリジナル画素値(入力画素値)SORG 、オリジナル画像(入力画像)の低周波画像の画素値SUS、定数A,B,C(例えばA=3、B=0.7)をもって、
D =A〔SORG −SUS+B(SUS)〕+C ───(1)
なる式(1)で表わされるものである。
【0004】
この方法は、高周波成分(第1項)、低周波成分(第2項)の重み付けを変えることが可能で、例えばA=3、B=0.7では高周波成分を強調し、かつ全体のダイナミックレンジを圧縮する効果が得られるものである。この方法は、処理無し画像と比較して診断に有効であるという評価が5人の放射線医により得られている。
【0005】
また、第2509503特許公報には、処理後の画素値SD オリジナル画素値(入力画素値)SORG 、オリジナル画像(入力画像)のY方向プロファイルの平均プロファイルPyとX方向プロファイルの平均プロファイルPxをもって、
D =SORG +F[G(Px,Py) ───(2)
なる式(2)で表される方法が記載されている。
【0006】
ここで、関数f(x)が有する特性について説明する。まず、「x>Dth」ではf(0)が「0」となり、「0≦x≦Dth」ではf(x)が切片を「E 」、傾き「E/Dth」として単調減少するものであり、(3)式で表されるものである。
F〔x〕=E−(E/th)X ──(3)
Py=(ΣPyi)/n ─────(4)
Px=(ΣPxi)/n ─────(5)
但し、(i=1〜n)、Pyi、Pxiはプロファイル。そして例えば
G=(Px,Py)=max(px,py) ───(6)
で表されるものである。この方法は、低周波画像の画素値Dth以下の濃度レンジが圧縮されるものである。
【0007】
また、上記公報と同様な方法として、「自己補償ディジタルフィルタ」(国立がんセンター、阿南氏他、日本放射線技術学会誌 第45巻第8号1989年8月 1030頁)と呼ばれる方法がある。この方法は、補償後(処理後)の画素値SD 、オリジナル画素値(入力画素値)SORG 、オリジナル画像(入力画像)をマスクサイズM×M画素で移動平均をとった時の平均画素値SUS、図16の単調減少関数f(X)を用い、
D =SORG +f(SUS) ───(7)
US=ΣSORG /M2 ───(8)
なる式(7)、(8)で表わされるものである。
【0008】
ここで、関数f(SUS)が有する特性について説明すると、まず、図16に示す特性は、「SUS>BASE」ではf(SUS)が「0」となり、「0≦SUS≦BASE」ではf(SUS)が切片を「しきい値BASE」、傾き「SLOPE」として単調減少するものである。従って、オリジナルの画素値SORG を濃度相当量として、上記(7)式を実行した際には、画像の平均濃度の低いところで濃度を持ち上げる、という画像に対する効果が得られる。
【0009】
この方法は、上記(2)式と低周波画像の作成方法が異なり、(2)式では1次元データで低周波画像を作成していたのに対して、2次元データで低周波画像を作成するものである。この方法も低周波画像の画素値でDth 以下の濃度値を圧縮するものである。
【0010】
また、第2663189号特許公報には、単調増加関数f1(X)をもって、
D =SORG +f1(SUS) ───(9)
US=ΣSORG /M2 ────(10)
で表される方法が記載されている。
【0011】
ここで、関数f1(x)が有する特性について説明する。まず、「x<Dth」ではf1(x)が「0」となり、「Dth≦x」ではf1(x)が切片を「E」、傾き「E/Dth」として単調減少するものであり、(11)式で表されるものである。
f1〔x〕=E−(E/th)X ──(11)
【0012】
また、特許第1530832号公報には、一定濃度値以上の画像の高周波成分を強調する鮮鋭化方法が示されている。この方法は、超低周波数成分を強調すると共に、雑音の占める割合が大きい高周波成分を相対的に低減し、視覚的に見やすい画像が得られるようにすること及び偽画像を防止し、また雑音の増大を防止して診断性能を向上させることを目的とするものである。
【0013】
定数BをSOR又はSUSの値の増大に応じて単調増加する変数とし、
D =SORG +B(SORG −SUS) ───(12)
US=ΣSORG /M2 ───(13)
なる式(12)(13)で表わされるものがある。上記(12)式を実行した際には、画像の高周波成分を強調できるという効果がある。
【0014】
【発明が解決しようとする課題】
しかしながら、上述したSPIEVo1.626.MedicineXIV/PACSIV(1986)に記載される方法では、一定濃度範囲のダイナミックレンジを圧縮する思想がないので、画像全体のダイナミックレンジを均等に圧縮する。そのため、一定濃度範囲だけを圧縮することができず、そのため、例えば肺正面画像に本手法を用いた場合、縦隔部のみならず診断に有効な肺部の濃度レンジをも圧縮してしまうという問題があり、縦隔部のみを圧縮した場合よりも診断能が下がるという問題があった。
【0015】
また、上記「自己補償デジタルフィルタ」による方法では、上記関数f(SUS)の形状を、例えばBASEまでを一定比率で減少する(線形である必要がある)ようにしないと、高周波成分に不自然な歪みが起きる問題がある。従って、高周波成分の振幅の大きさをオリジナル画像(入力画像)の高周波成分の振幅に保ったまま、階調の圧縮を非線形に自在に行えないという問題があった。
【0016】
また、一般にダイナミックレンジ圧縮された画像は、CRT表示、フィルム出力する場合に、再度階調変換する。上記「自己補償デジタルフィルタ」による方法等では、階調変換後の画像の高周波成分の振幅を調整する思想が無いため、ダイナミックレンジ圧縮した画像は、フィルム出力、画像表示する場合にさらに非線形な階調変換が行われる。そのため、階調変換曲線の傾きに依存し、高周波成分の振幅の大きさが変動する。従って、階調変換後の振幅が非線形に歪む問題や、高周波成分の振幅の大きさを保ってダイナミックレンジ圧縮を行っても、階調変換曲線の傾きが低いところでは高周波成分の振幅が小さくなり、有益情報が消失するという問題があった。また、エッジ部分でオーバーシュートやアンダーシュートがおきるという問題があった。
【0017】
また、上記従来の高周波成分を強調する鮮鋭化方法では、高周波成分の足し込みの強さを自由に調整できるが、ダイナミックレンジを圧縮する思想がなく、濃度分布の広い画像を一枚のフィルムなどで表示できないという問題があった。
【0018】
本発明は上記のような問題を解決するためになされたもので、画像の濃度分布の幅と高周波成分の振幅を自在に調節できるようにすることを目的とする。
【0019】
【課題を解決するための手段】
本発明による画像処理装置の一つは、原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の手段と、前記原画像データから該原画像データの平滑化画像データを減算して高周波成分を生成する第二の手段と、前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の手段と、前記第一の画像データに前記第一の高周波成分を加算する第四の手段とを有することを特徴とする。
本発明による画像処理装置の一つは、原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の手段と、前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第二の手段と、前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の手段と、前記第一の画像データに前記第一の高周波成分を加算する第四の手段とを有することを特徴とする。
本発明による画像処理方法の一つは、原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の工程と、前記原画像データから該原画像データの平滑化画像データを減算して高周波成分を生成する第二の工程と、前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の工程と、前記第一の画像データに前記第一の高周波成分を加算する第四の工程とを有することを特徴とする。
本発明による画像処理装置の一つは、原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の工程と、前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第二の工程と、前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の工程と、前記第一の画像データに前記第一の高周波成分を加算する第四の工程とを有することを特徴とする。
本発明による画像処理装置の一つは、原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の手段と、前記第一の画像データを平滑化した画像データを生成する第二の手段と、前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第三の手段と、前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第四の手段と、前記平滑化した画像データに前記第一の高周波成分を加算する第五の手段とを有することを特徴とする。
本発明による画像処理方法の一つは、原画像データのダイナミックレンジを変更する画像処理方法であって、前記原画像データの画素値をf1(x,y)、f1(x、y)の平滑化画像をfus(x,y)、階調変換関数をF1()、階調変換率をc(x,y)、階調変換後の画像データの画素値をf0(x,y)、画像データ上の座標x,yを用い、
f0(x,y)=F1(f1(x,y))
c(x,y)=∂F1(f1(x,y))/∂f1(x,y)
なる関係を有し、
fd(x,y)=f0(x,y)+(1−c(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表されることを特徴とする。
本発明による画像処理方法の一つは、原画像データのダイナミックレンジを変更する画像処理方法であって、前記原画像データの画素値をf1(x,y)、階調変換関数をF1()、階調変換関数F1()の微係数から計算されるテーブルをc2()、階調変換後の画像データの画素値をf0(x,y)、f0(x,y)の平滑化画像をfus(x,y)、定数a、画像データ上の座標x,yを用い、
f0(x,y)=F1(f1(x,y))
c2(f0(x,y))=1−∂F1(f0(x,y))/∂f0(x,y)
なる関係を有し、
fd(x,y)=f0(x,y)+a×c2(f0(x,y))×(f0(x,y)−fus(x,y))
なる演算式で表されることを特徴とする。
本発明によるコンピュータ読み取り可能な記憶媒体の一つは、原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の処理と、前記原画像データから該原画像データの平滑化画像データを減算して高周波成分を生成する第二の処理と、前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の処理と、前記第一の画像データに前記第一の高周波成分を加算する第四の処理とをコンピュータに実行させるコンピュータプログラムを格納したことを特徴とする。
本発明によるコンピュータ読み取り可能な記憶媒体の一つは、原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の処理と、前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第二の処理と、前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の処理と、前記第一の画像データに前記第一の高周波成分を加算する第四の処理とをコンピュータに実行させるコンピュータプログラムを格納したことを特徴とする。
【0032】
【発明の実施の形態】
以下、本発明の実施の形態を図面と共に説明する。
まず、第1の実施の形態を説明する。
図2は、第1の実施の形態で用いる階調変換関数F1()を示す。ここで、f1(x,y)を2次元の入力原画像の濃度値とし、f0(x,y)を2次元の階調変換後の出力画像(変換画像)の濃度値とし、x,yを2次元上の座標とする。また、横軸を入力画像の濃度値f1(x,y)、縦軸を出力画像(変換画像)の濃度値f0(x,y)とする。この階調変換曲線では、入力濃度値2500以下の傾き(SLOPE)が0.2、入力濃度値2500より上の傾きが1となっている。
【0033】
図3において、実線が入力画像のプロファイル、f1(X)、点線が入力画像の平滑化(低周波)画像fus(x,y)のプロファイルfus(X)を示す。図4において、実線が入力画像を図2で示す階調変換曲線で階調変換した画像のプロファイルf0(X)、点線が階調変換された画像の平滑化(低周波)画像のプロファイルfuso(X)を示す。ここでXは定数とする。
図5は、本実施の形態による画像処理方法の結果を示し、実線が入力画像のプロファイルf1(X)、点線が本実施の形態により処理された処理済み画像のプロファイルfd(X)を示す。
【0034】
次に動作について説明する。
まず、入力画像f1(x,y)を図2で示す階調変換関数F1()で(14)式に示すように階調変換を行い、出力画像f0(x,y)を得る。
f0(x,y)=F1(f1(x,y)) ───(14)
【0035】
処理済み画像の画素値fd(x,y)を(5)式に従い得る。ここでF(x,y)は座標に依存した処理効果を表わす関数で、本実施の形態ではF(x,y)=1とする。
fd(x,y)=fuso(x,y)+F(x,y)×(f1(x,y)−fus(x,y))───(15)
【0036】
ここで、fuso(x,y)は出力画像(変換画像)f0(x,y)の平滑化(低周波)画像、fus(x,y)は入力画像f1(x,y)の平滑化(低周波)画像であり、例えば後述する(16)〜(20)式で求められる。平滑化には平均濃度を用いても、Erosion、Dai1ation、0pening,Closinng等のモルフォロジカルフィルタを用いてもよい。
【0037】
本実施の形態で用いた階調変換曲線F1()(図2)では、出力画像f0(x,y)の濃度値2500以下の高周波成分の振幅は20%に圧縮され、濃度値2500より高ければ、高周波成分の振幅は入力画像の振幅が保存される(図4実線)。
【0038】
上記fus(x,y)の計算方法を(16)〜(20)式とする。f1(x,y)を2次元の入力原画像とすると、
f2(x,y)=min{f1(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1} ───(16)
f3(x,y)=max{f2(x+x1,y+y1)+D(x1,y1)|x1×x1+y1×y1≦r1×r1} ───(17)
f4(x,y)=max{f3(x+x1,y+y1)+D(x1,y1)|x1×x1+y1×y1≦r1×r1} ───(18)
fus(x,y)=min{f4(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1} ───(19)
で示される。
【0039】
ここで、D(x,y)を円盤状フィルタ、r1を任意の定数とし、入力画像に応じて選択される。
D(x,y)=0、x×x+y×y≦r1×r1
=一∞、 その他 ───(20)
【0040】
ここで得られたfus(x,y)のプロファイルfus(X)(図3点線)はエッジ構造を保存しているものであり、従来のダイナミックレンジ圧縮の欠点であるオーバーシュート、アンダーシュートが起きないものである。
【0041】
同様に、fuso(x,y)の計算方法を(21)〜(24)式とする。
ある。f0(x,y)を階調変換後の画像とする。
f5(x,y)=min{f0(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1} ───(21)
f6(x,y)=max{f5(x+x1,y+y1)+D(x1,y1)|x1×x1+y1×y1≦r1×r1} ───(22)
f7(x,y)=max{f6(x+x1,y+y1)+D(x1,y1)|x1×x1+yl×y1≦r1×r1} ───(23)
fuso(x,y)=min{f8(x+x1,y+y1)−D(x1,y1)|x1×x1+y1×y1≦r1×r1} ───(24)
【0042】
ここで得られたfuso(x,y)のプロファイルfuso(X)(図4点線)はエッジ構造を保存しているものであり、f0(X)との交点位置が、fus(X)とf1(X)との交点位置と同一点となるものである。
【0043】
そして、図5の点線が得られた処理済み画像fd(x,y)のプロファイルfd(X)である。濃度値2500以下の濃度分布幅は入力画像の20%に圧縮され、かつ高周波成分の振幅は入力画像の振幅を保持している。
【0044】
図1は本実施の形態による画像処理装置の構成を示すブロック図であり、前記(15)式を実現するものである。
図1において、入力画像f1は階調変換手段101で図2の関数に基づいて階調変換され、変換画像f0が得られる。この変換画像f0は次に平滑手段102で平滑されて平滑化画像fusoが得られ、加算手段103に送られる。
【0045】
一方、上記入力画像f1は他の平滑手段104で平滑されて平滑化画像fusとなる。次に減算手段105において、入力画像f1から上記平滑化画像fusが減算されることにより、高周波成分画像が得られる。この高周波成分画像は乗算手段106で定数が乗算された後、加算手段103において上記平滑化画像fusoと加算されることにより、処理済み画像fdが得られる。
【0046】
以上のように、第1の実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を自在に調整できる効果がある。
【0047】
次に、第2の実施の形態を説明する。
図6は、第2の実施の形態による画像処理方法で用いる階調変換関数F1()を示す。ここで、f1(x,y)を2次元の入力原画像の濃度値とし、入力画像の平滑化(低周波)画像をfus(x,y)とし、階調変換後の出力画像(変換画像)をfus0(x,y)とする。
【0048】
次に動作について説明する。
まず、入力画像f1(x,y)の平滑画像fus(x,y)を例えば式(16)〜(20)で作成し、図6で示す階調変換関数F1()で(25)式で示すように階調変換を行い、出力画像fus0(x,y)を得る。
fus0(x,y)=F1(fus(x,y)) ───(25)
【0049】
処理済み画像の画素値fd(x,y)を(26)式に従い得る。ここでF(x,y)は座標に依存した処理効果を表わす関数とする。
fd(x,y)=fus0(x,y)+F(x,y)×(f1(x,y)−fus(x,y)) ───(26)
【0050】
図7は本実施の形態による画像処理装置の構成を示すもので、上記(26)式を実現するものである。
図7において、入力画像f1は平滑手段201で平滑されて平滑化画像fusとなり、この平滑化画像fusは減算手段204に送られると共に、階調変換手段202で図6の関数に基づいて階調変換され、変換画像fus0となり、加算手段203に送られる。
【0051】
一方、入力画像f1は減算手段204で上記平滑化画像fusが減算されて、高周波成分画像が得られる。この高周波成分画像は乗算手段205で定数が乗算された後、加算手段203で上記出力画像fus0と加算されることにより、処理済み画像fdが得られる。
【0052】
以上のように、第2の実施の形態によれば、階調変換後に平滑化画像を作成する時間を省略でき、第1の実施の形態に比べて計算時間が早くなる効果がある。また、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を自在に調整できる効果がある。
【0053】
次に、第3の実施の形態を説明する。
図8は、第3の実施の形態による画像処理方法で用いる階調変換関数F1()を示す。ここで、f1(x,y)を2次元の入力原画像の濃度値とし、f0(x,y)を2次元の階調変換後の出力画像の濃度値とし、x,yを2次元上の座標とする。また、横軸が入力画像の濃度値f1(x,y)、縦軸が出力画像の濃度値f0(x,y)を示す。
【0054】
図9において、実線が入力画像のプロファイルf1(X)、点線が入力画像の平滑化(低周波)画像fus(x,y)のプロファイルfus(X)、一点鎖線が処理画像のプロファイルfd(X)である。
【0055】
次に動作について説明する。
まず、入力画像f1(x,y)を図8で示す階調変換関数F1()で(27)式で示すように階調変換を行い、出力画像(変換画像)f0(x,y)を得る。
f0(x,y)=F1(f1(x,y)) ───(27)
【0056】
処理済み画像の画素値fd(x,y)を(28)、(29)式に従い得る。ここでc(x,y)は階調変換率で(28)式で定義される。
c(x,y)=∂F1(f1(x,y))/∂f1(x,y)───(28)
fd(x,y)=f0(x,y)+(1−c(x,y))×(f1(x,y)−fus(x,y)) ───(29)
【0057】
ここで、fus(x,y)を入力画像f1(x,y)の平滑化(低周波)画像であり、例えば式(30)で示される。
【0058】
【数1】

Figure 0003814421
【0059】
尚、上記平滑化にはどのような手法を用いてもよく、例えばErosion、Dai1ation、0pening,Closinng等のモルフォロジカルフィルタを用いてもよい。
【0060】
図10は本実施の形態による画像処理装置の構成示すもので、上記(29)式を実現するものである。
図10において、入力画像f1は階調変換手段301で図8の階調変換曲線に基づいて階調変換されて変換画像f0が得られ、加算手段302に送られる。一方、上記入力画像f1は平滑手段303で平滑されて平滑化画像fusとなる。減算手段304は入力画像f1から平滑化画像fusを減算して高周波画像が得られる。この高周波画像は加算手段302で上記変換画像f0と加算されることにより、処理済み画像fdが得られる。
【0061】
以上のように、第3の実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を入力画像の高周波成分の振幅と同一にできる効果がある。また、平滑化処理を一回しか行う必要がなく、計算時間が短縮できる効果がある。さらに、平均濃度を用いる平滑化方法はモルフォロジカルフィルタ処理を計算時間が短縮できる効果がある。
【0062】
次に、第4の実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像(階調変換後の出力画像)f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像(入力画像)の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
【0063】
fd(x,y)=fuso(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y)) ───(31)
fd(x,y)=f0(x,y)+F(f1(x,y))×(f1(x,y)−fus(x,y)) ───(32)
なる式(21)もしくは式(32)なる演算式で表わすものである。
【0064】
以上のように、第4の実施の形態によれば、処理効果を制御する関数F()を第2の画像の濃度値f1(x,y)に依存するようにするため、高周波成分の振幅を第2の画像の濃度値に応じて変更できる効果がある。
【0065】
次に第5の実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
【0066】
fd(x,y)=fuso(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y)) ───(33)
fd(x,y)=f0(x,y)+F(f0(x,y))×(f1(x,y)−fus(x,y)) ───(34)
なる式(33)もしくは式(34)なる演算式で表わすものである。
【0067】
以上のように、第5の実施の形態によれば、処理効果を制御する関数F()を第1の画像の濃度値f0(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第1の画像の濃度値に応じて変更できる効果がある。
【0068】
次に、第6実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素値fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
【0069】
fd(x,y)=fuso(x,y)+F(fus(x,y))×(f1(x,y)−fus(x,y)) ───(35)
fd(x,y)=f0(x,y)+F(fus(x,y))×(f1(x,y)−fus(x,y)) ───(36)
なる式(35)もしくは式(36)なる演算式で表わすものである。
【0070】
以上のように、第6の実施の形態によれば、処理効果を制御する関数()を第2の画像の平滑化(低周波)画像の濃度値fus(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第2の画像の平滑化(低周波)画像の濃度値に応じて変更できる効果がある。さらに、平滑化した画像の濃度に依存して高周波成分の振幅を調整するため、第2の画像の高周波成分の振幅に影響を受けない効果がある。
【0071】
次に、第7の実施の形態を説明する。
本実施の形態は、処理済み画像の画素値fd(x,y)、第1の画像f0(x,y)の平滑化画像の画素値fuso(x,y)、第2の画像の画素値f1(x,y)、第2の画像の平滑化(低周波)画像の画素fus(x,y)、処理効果を制御する関数F()、画像上の座標x,yを用い、
【0072】
fd(x,y)=fuso(x,y)+F(fuso(x,y))×(f1(x,y)−fus(x,y)) ───(37)
fd(x,y)=f0(x,y)+F(fuso(x,y))×(f1(x,y)−fus(x,y)) ───(38)
なる式(37)もしくは式(38)なる演算式で表わすものである。
【0073】
以上のように、第7の実施の形態によれば、処理効果を制御する関数F()を第1の画像の平滑化(低周波)画像の濃度値fuso(x,y)に依存するようにするため、変換画像の高周波成分の振幅を第1の画像の平滑化(低周波)画像の濃度値に応じて変更できる効果がある。さらに、平滑化した画像の濃度に依存して高周波成分の振幅を調整するため、第1の画像の高周波成分の振幅に影響を受けない効果がある。
【0074】
次に、第8の実施の形態を説明する。本実施の形態では、第1の実施の形態で用いた図2、図4、図5を用いる。
図2においては、第1の実施の形態と同様に、f1(x,y)を2次元の入力原画像の濃度値、f0(x,y)を2次元の階調変換後の出力画像の濃度値とし、x,yは2次元上の座標を示す。また、横軸が入力画像の濃度値f1(x,y)、縦軸が出力画像の濃度値f0(x,y)を示す。入力濃度値2500以下の傾きが0.2、入力濃度値2500より上の傾きが1となっている。
【0075】
また、図4の実線が階調変換後の出力画像のプロファイルf0(X9)、点線が出力画像の平滑化(低周波)画像のプロファイルfuso(X)を示す。
また、図5の実線が入力画像のプロファイルf1(X)、点線が本実施の形態による画像処理方法の結果である処理済み画像のプロファイルfd(X)を示す。
【0076】
次に動作について説明する。
まず、入力画像f1(x,y)を図2で示す階調変換関数F1()で前記(4)式で示すように階調変換を行い、出力画像f0(x,y)を得る。
次に処理済み画像の画素値fd(x,y)を(39)式に従い得る。ここでc(x,y)は階調変換曲線の傾きを表わす関数(階調変換率)で、前記(28)式で示される。
【0077】
fd(x,y)=fuso(x,y)+a×(1/c(x,y))×(f0(x,y)−fuso(x,y)) ───(39)
ここで、aは定数、fuso(x,y)は出力画像f0(x,y)の平滑化(低周波)画像の画素値であり、例えば前記(16)〜(20)式で示される。
【0078】
本実施の形態で用いた階調変換曲線F1()(図2)では、出力画像(変換画像)f0(x,y)の濃度値2500以下の高周波成分の振幅は20%に圧縮され、濃度値2500より高ければ、高周波成分の振幅は入力画像の振幅が保存される(図4実線)。
尚、第1の実施の形態と同様に、平滑化画像は例えば前記(30)式による平均濃度を用いてもよく、上記モルフォロジカルフィルタを用いてもよい。
【0079】
そして得られた処理画像fd(x,y)のプロファイルが図5の点線である。濃度値2500以下の濃度分布幅は入力画像の20%に圧縮され、かつ高周波成分の振幅は入力画像の振幅を保持している。
【0080】
図11は本実施の形態による画像処理装置の構成を示すもので、上記式(39)式を実現するものである。
図11において、入力画像f1は階調変換手段801で階調変換されて変換画像f0が得られ、減算手段805に送られると共に、平滑手段802で平滑されて平滑化画像fusoが得られる。この平滑化画像fusoは加算手段803にに送られる。
【0081】
一方、減算手段805は上記変換画像f0から平滑化画像fusoを減算することにより、高周波成分が得られる。この高周波成分は乗算手段806で定数が乗算された後、加算手段803で上記平滑化画像fusoと加算されることにより、処理済み画像fdが得られる。
【0082】
以上のように、第8の実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を階調変換前の画像の高周波成分の振幅に保持できる効果がある。さらに、オーバーシュートやアンダーシュートが起きない効果がある。また、平滑化画像に濃度平均を用いた場合は計算時間を短縮できる効果がある。
【0083】
図12は第9の実施の形態による画像処理装置の構成を示す。
図12において、900は原画像としての入力画像を示し、901は原画像900の階調を変換する階調変換手段、902は階調変換した変換画像、903は階調変換手段901で用いる階調変換曲線の微係数を記憶する微係数記憶手段、904は上記変換画像902の平滑化画像(低周波画像)905を作成する平滑化画像作成手段、906は変換画像902と平滑化画像905との差分を計算する高周波成分作成手段、907は高周波成分作成手段106で作成された高周波成分を、微係数記憶手段903に記憶した階調変換曲線の微係数に基づいて変換画像902に足し込む高周波成分足し込み手段である。
【0084】
図13は本実施の形態の処理の流れを示すフローチャートである。図14、図15は、階調変換手段901で用いる階調変換曲線を示し、横軸が入力画像の画素値、縦軸が出力画像の画素値を示す。図14はS字型の階調変換曲線、図15は入力濃度値B以下の傾きがA/B、入力濃度値Bより上の傾きが1となっている。
【0085】
次に動作について図13の処理の流れに従い説明する。
階調変換手段901は原画像900を例えば図14又は図15に示す階調変換曲線に基づき(40)式で示すように階調を変換する(ステップS201)。ここで、f1(x,y)を2次元の入力原画像900の濃度値とし、f0(x,y)を2次元の階調変換後の変換画像902の濃度値とし、F1()を階調変換曲線とする。x,yは2次元上の座標を示す。
f0(x,y)=F1(f1(x,y))──────(40)
【0086】
そして微係数記憶手段903は(41)式で示される、階調変換曲線の微係数を計算し、濃度値をテーブルc2(x)として記憶する(S202)。
c2(F1(x))=1−〔∂F1(x)/∂x〕・・・(41)
【0087】
次に、平滑化画像作成手段904では、前記(30)式により画像902から平滑化画像905を計算する(S203)。
次に、高周波成分作成手段906は(42)式で示すように、階調変換後画像902と平滑化画像905から高周波画像を計算する(S204)。ここでfh(x,y)を高周波画像の画素値とする。
fh(x,y)=f0(x,y)−fus(x,y) …(42)
【0088】
そして高周波成分足し込み手段907は、(43)式で示すように階調変換後の変換画像902に、高周波成分作成手段906で計算された高周波成分を、微係数記憶手段103に記憶された微係数に基づき足し込んで、処理後画像fd(x,y)を得る(S205)。
fd(x,y)=f0(x,y)十a×c2(f0(x,y))×fh(x,y)・・・(43)
ここで、aは定数である。
【0089】
尚、平滑化画像905を前記(16)〜(20)式により、モルフォジ演算を用いて計算してもよい。
ここで得られたfus(x,y)のプロファイルはエッジ構造を保存しているものであり、従来ダイナミックレンジ圧縮の欠点であるオーバーシュート、アンダーシュートが起きないものである。
【0090】
本実施の形態によれば、入力画像の任意の階調領域の濃度分布幅を圧縮、伸張することができ、かつ階調変換後の高周波成分の振幅を階調変換前の画像の高周波成分の振幅に保持できる効果がある。また、オーバーシュートやアンダーシュートが起きない効果がある。さらに、平滑化画像に濃度平均を用いた場合は計算時間を短縮できる効果がある。
【0091】
次に本発明による記憶媒体について説明する。
図1、図7、図10、図11、図12等を含む各実施の形態によるシステムは、ハード的に構成してもよく、また、CPUやメモリ等からなるコンピュータシステムに構成してもよい。コンピュータシステムに構成する場合、上記メモリは本発明による記憶媒体を構成する。この記憶媒体媒体には、図13を含む前述した各実施の形態の処理を実行するためのプログラムが記憶される。
【0092】
また、この記憶媒体としては、ROM、RAM等の半導体メモリ、光ディスク、光磁気ディスク、磁気記憶媒体等を用いてよく、これらをCD−ROM、FD、磁気カード、磁気テープ、不揮発性メモリカード等に構成して用いてよい。
【0093】
従って、この記憶媒体を上記各図を含む各実施の形態によるシステム以外の他のシステムあるいは装置で用い、そのシステムあるいはコンピュータがこの記憶媒体に格納されたプログラムコードを読み出し、実行することによっても、前述した各実施の形態と同等の機能を実現できると共に、同等の効果を得ることができ、本発明の目的を達成することができる。
【0094】
また、コンピュータ上で稼働しているOS等が処理の一部又は全部を行う場合、あるいは記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された拡張機能ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づいて、上記拡張機能ボードや拡張機能ユニットに備わるCPU等が処理の一部又は全部を行う場合にも、各実施の形態と同等の機能を実現できると共に、同等の効果を得ることができ、本発明の目的を達成することができる。
【0095】
【発明の効果】
以上説明したように、本発明によれば、原画像データに対してどのような階調変換処理を行なっても、階調変換処理においても高周波成分の値を一定に保つことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態による画像処理装置のブロック図である。
【図2】第1、第8の実施の形態による階調変換関数F1()を示す特性図である。
【図3】第1の実施の形による入力画像とモルフォロジカルフィルタによる平滑化画像のプロファイルを示す特性図である。
【図4】第1、第8の実施の形態による階調変換画像とモルフォロジカルフィルタによる平滑化画像のプロファイルを示す特性図である。
【図5】第1、第8の実施の形態による入力画像と処理画像のプロファイルを示す特性図である。
【図6】第2の実施の形態による階調変換関数F1()を示す特性図である。
【図7】第2の実施の形態による画像処理装置のブロック図である。
【図8】第3の実施の形態による階調変換関数F1()を示す特性図である。
【図9】第3の実施の形態による入力画像と入力画像の平滑化画像と処理画像のプロファイルを示す特性図である。
【図10】第3の実施の形態による画像処理装置のブロック図である。
【図11】第8の実施の形態による画像処理装置のブロック図である。
【図12】第9の実施の形態による画像処理装置のブロック図である。
【図13】第9の実施の形態による処理を示すフローチャートである。
【図14】第9の実施の形態による階調変換関数F1()を示す特性図である。
【図15】第9の実施の形態による他の階調変換関数F1()を示す特性図である。
【図16】従来のダイナミックレンジ圧縮に用いる単調減少関数を示す特性図である。
【符号の説明】
101、202、301、801、901 階調変換手段
102、104、201、303、802、904 平滑手段
103、203、302、803 加算手段
105、204、304、805 減算手段
106、205、305、806 乗算手段
900、f1 入力画像
902、f0、fus0 出力画像(変換画像)
905、fus、fuso 平滑化画像
906 高周波成分作成手段
907 高周波成分足し込み手段
fd 処理済み画像[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method for performing gradation conversion in a state where a high-frequency component of an image such as an X-ray image is held, and a computer-readable storage medium used therefor.
[0002]
[Prior art]
For example, an X-ray chest image is composed of a lung field image through which X-rays are easily transmitted and a mediastinal image through which X-rays are very difficult to transmit. For this reason, it has been considered difficult to obtain an X-ray chest image capable of simultaneously observing both the lung field and the mediastinum.
[0003]
In order to avoid this problem, the following various methods have been conventionally proposed.
First, SPIEVol. 626. There are methods described in Medicine XIV / PACSIV (1986). In this method, the processed pixel value S D , the original pixel value (input pixel value) S ORG , the pixel value S US of the low-frequency image of the original image (input image), constants A, B, C (for example, A = 3, B = 0.7)
S D = A [S ORG −S US + B (S US )] + C (1)
It is represented by the following formula (1).
[0004]
In this method, the weighting of the high frequency component (first term) and the low frequency component (second term) can be changed. For example, when A = 3 and B = 0.7, the high frequency component is emphasized and the entire dynamic component is dynamic. The effect of compressing the range is obtained. This method has been evaluated by five radiologists as being effective for diagnosis compared to unprocessed images.
[0005]
In addition, in the 2509503 patent publication, the processed pixel value S D original pixel value (input pixel value) S ORG , the average profile Py of the Y direction profile of the original image (input image) and the average profile Px of the X direction profile are included. ,
S D = S ORG + F [G (Px, Py) ─── (2)
A method represented by the following formula (2) is described.
[0006]
Here, the characteristics of the function f (x) will be described. First, when “x> Dth”, f (0) becomes “0”, and when “0 ≦ x ≦ Dth”, f (x) monotonously decreases with an intercept “E” and a slope “E / Dth”. , (3).
F [x] = E- (E / th) X (3)
Py = (ΣPyi) / n ───── (4)
Px = (ΣPxi) / n ───── (5)
However, (i = 1 to n), Pyi, and Pxi are profiles. And, for example, G = (Px, Py) = max (px, py) (6)
It is represented by In this method, a density range equal to or lower than the pixel value Dth of the low frequency image is compressed.
[0007]
As a method similar to the above publication, there is a method called “self-compensating digital filter” (National Cancer Center, Mr. Anan et al., Journal of Japanese Society of Radiological Technology, Vol. 45, No. 8, Aug. 1989, page 1030). This method uses a pixel value S D after compensation (after processing), an original pixel value (input pixel value) S ORG , and an average pixel when a moving average of the original image (input image) is taken with a mask size of M × M pixels. Using the value S US , the monotonically decreasing function f (X) of FIG.
S D = S ORG + f (S US ) (7)
S US = ΣS ORG / M 2 (8)
This is expressed by the following equations (7) and (8).
[0008]
Here, the characteristics of the function f (S US ) will be described. First, in the characteristics shown in FIG. 16, when “S US > BASE”, f (S US ) becomes “0”, and “0 ≦ S US ≦ BASE”. ”F (S US ) monotonously decreases with the intercept being“ threshold BASE ”and the slope“ SLOPE ”. Therefore, when the above equation (7) is executed with the original pixel value S ORG as the amount corresponding to the density, there is an effect on the image that the density is raised when the average density of the image is low.
[0009]
This method differs from the above formula (2) in creating a low-frequency image. In formula (2), a low-frequency image is created with one-dimensional data, whereas a low-frequency image is created with two-dimensional data. To do. This method also compresses a density value equal to or lower than Dth in the pixel value of the low-frequency image.
[0010]
In addition, Japanese Patent No. 2663189 has a monotonically increasing function f1 (X),
S D = S ORG + f1 (S US ) (9)
S US = ΣS ORG / M 2 (10)
The method represented by is described.
[0011]
Here, characteristics of the function f1 (x) will be described. First, when “x <Dth”, f1 (x) becomes “0”, and when “Dth ≦ x”, f1 (x) monotonously decreases with an intercept “E” and a slope “E / Dth”. 11) It is represented by the formula.
f1 [x] = E- (E / th) X (11)
[0012]
Japanese Patent No. 1530832 discloses a sharpening method for enhancing high frequency components of an image having a certain density value or more. This method emphasizes ultra-low frequency components, relatively reduces high-frequency components, which account for a large proportion of noise, and makes it possible to obtain a visually pleasing image, prevent false images, and eliminate noise. The purpose is to prevent the increase and improve the diagnostic performance.
[0013]
The constant B is a variable that monotonously increases as the value of S OR or S US increases.
S D = S ORG + B (S ORG -S US ) ─── (12)
S US = ΣS ORG / M 2 (13)
There are some which are expressed by the following formulas (12) and (13). When the equation (12) is executed, there is an effect that the high-frequency component of the image can be enhanced.
[0014]
[Problems to be solved by the invention]
However, the SPIEVo 1.626. In the method described in Medicine XIV / PACSIV (1986), there is no idea of compressing the dynamic range of a certain density range, so the dynamic range of the entire image is compressed uniformly. For this reason, it is impossible to compress only a certain concentration range. For this reason, for example, when this method is used for a lung front image, not only the mediastinum but also the lung concentration range effective for diagnosis is compressed. There was a problem, and there was a problem that the diagnostic ability was lower than when only the mediastinum part was compressed.
[0015]
Also, in the method using the “self-compensating digital filter”, the shape of the function f (S US ) must be reduced at a constant rate up to, for example, BASE (need to be linear). There is a problem that natural distortion occurs. Therefore, there has been a problem that gradation compression cannot be performed freely in a non-linear manner while maintaining the amplitude of the high frequency component at the amplitude of the high frequency component of the original image (input image).
[0016]
In general, the dynamic range compressed image is subjected to gradation conversion again when CRT display or film output is performed. In the method using the “self-compensating digital filter” and the like, since there is no idea of adjusting the amplitude of the high-frequency component of the image after gradation conversion, the dynamic range-compressed image is more non-linear when the film is output or displayed. Key conversion is performed. Therefore, depending on the gradient of the gradation conversion curve, the amplitude of the high frequency component varies. Therefore, the amplitude of the high-frequency component becomes small when the gradient of the gradation conversion curve is low, even if dynamic range compression is performed while maintaining the amplitude of the high-frequency component while maintaining the magnitude of the amplitude of the high-frequency component. There was a problem that useful information disappeared. There is also a problem that overshoot and undershoot occur at the edge.
[0017]
In addition, the conventional sharpening method for emphasizing the high-frequency component can freely adjust the strength of the addition of the high-frequency component, but there is no idea of compressing the dynamic range, and an image with a wide density distribution can be formed on a single film, etc. There was a problem that could not be displayed.
[0018]
The present invention has been made to solve the above-described problems, and an object thereof is to make it possible to freely adjust the width of the density distribution of an image and the amplitude of a high-frequency component.
[0019]
[Means for Solving the Problems]
One of the image processing apparatuses according to the present invention includes first means for generating first image data in which pixel values of original image data are changed based on a gradation conversion curve, and the original image data from the original image data. A second means for generating a high-frequency component by subtracting the smoothed image data; a third means for generating a first high-frequency component obtained by changing the high-frequency component based on a gradient of the gradation conversion curve; And a fourth means for adding the first high-frequency component to the first image data.
One of the image processing apparatuses according to the present invention includes first means for generating first image data in which pixel values of original image data are changed based on a gradation conversion curve, and the first image data from the first image data. A second means for generating a high-frequency component by subtracting smoothed image data of one image data; and a third means for generating a first high-frequency component in which the high-frequency component is changed based on a gradient of the gradation conversion curve. And a fourth means for adding the first high-frequency component to the first image data.
One of the image processing methods according to the present invention includes a first step of generating first image data in which pixel values of original image data are changed based on a gradation conversion curve, and the original image data from the original image data. A second step of generating a high-frequency component by subtracting the smoothed image data, a third step of generating a first high-frequency component obtained by changing the high-frequency component based on the gradient of the gradation conversion curve, And a fourth step of adding the first high-frequency component to the first image data.
One of the image processing apparatuses according to the present invention includes a first step of generating first image data in which a pixel value of original image data is changed based on a gradation conversion curve, and the first image data from the first image data. A second step of generating a high-frequency component by subtracting the smoothed image data of the one image data, and a third step of generating a first high-frequency component in which the high-frequency component is changed based on a gradient of the gradation conversion curve And a fourth step of adding the first high-frequency component to the first image data.
One of the image processing apparatuses according to the present invention is the first means for generating the first image data in which the pixel value of the original image data is changed based on the gradation conversion curve, and the first image data is smoothed Second means for generating the image data, third means for subtracting the smoothed image data of the first image data from the first image data to generate a high-frequency component, and A fourth means for generating the first high-frequency component changed based on the gradient transformation curve, and a fifth means for adding the first high-frequency component to the smoothed image data. And
One of the image processing methods according to the present invention is an image processing method for changing the dynamic range of original image data, and the pixel values of the original image data are smoothed by f1 (x, y) and f1 (x, y). The converted image is fus (x, y), the gradation conversion function is F1 (), the gradation conversion rate is c (x, y), the pixel value of the image data after gradation conversion is f0 (x, y), and the image Using coordinates x and y on the data,
f0 (x, y) = F1 (f1 (x, y))
c (x, y) = ∂F1 (f1 (x, y)) / ∂f1 (x, y)
Have the relationship
fd (x, y) = f0 (x, y) + (1−c (x, y)) × (f1 (x, y) −fus (x, y))
It is represented by the following arithmetic expression.
One of the image processing methods according to the present invention is an image processing method for changing the dynamic range of original image data, wherein the pixel value of the original image data is f1 (x, y), and the gradation conversion function is F1 (). C2 (), a table calculated from the differential coefficient of the gradation conversion function F1 (), and a smoothed image of pixel values f0 (x, y) and f0 (x, y) of the image data after gradation conversion. Using fus (x, y), constant a, and coordinates x, y on the image data,
f0 (x, y) = F1 (f1 (x, y))
c2 (f0 (x, y)) = 1−∂F1 (f0 (x, y)) / ∂f0 (x, y)
Have the relationship
fd (x, y) = f0 (x, y) + a * c2 (f0 (x, y)) * (f0 (x, y) -fus (x, y))
It is represented by the following arithmetic expression.
One of the computer-readable storage media according to the present invention includes a first process for generating first image data in which pixel values of original image data are changed based on a gradation conversion curve, and the original image data from the original image data. A second process for generating a high-frequency component by subtracting the smoothed image data of the original image data; and a third process for generating a first high-frequency component in which the high-frequency component is changed based on the gradient of the gradation conversion curve. And a computer program for causing the computer to execute a fourth process for adding the first high-frequency component to the first image data.
One of the computer-readable storage media according to the present invention includes a first process for generating first image data in which pixel values of original image data are changed based on a gradation conversion curve, and the first image data Generating a high frequency component by subtracting the smoothed image data of the first image data from the first image data, and generating a first high frequency component obtained by changing the high frequency component based on the gradient of the gradation conversion curve A computer program for causing a computer to execute a third process and a fourth process for adding the first high-frequency component to the first image data is stored.
[0032]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
First, a first embodiment will be described.
FIG. 2 shows the gradation conversion function F1 () used in the first embodiment. Here, f1 (x, y) is a density value of a two-dimensional input original image, f0 (x, y) is a density value of an output image (converted image) after two-dimensional gradation conversion, and x, y Is a two-dimensional coordinate. Also, the horizontal axis is the density value f1 (x, y) of the input image, and the vertical axis is the density value f0 (x, y) of the output image (converted image). In this gradation conversion curve, the slope (SLOPE) below the input density value 2500 is 0.2, and the slope above the input density value 2500 is 1.
[0033]
In FIG. 3, the solid line indicates the profile of the input image, f1 (X), and the dotted line indicates the smoothed (low frequency) image fus (x, y) profile fus (X) of the input image. In FIG. 4, the solid line is the profile f0 (X) of the image obtained by gradation-converting the input image with the gradation conversion curve shown in FIG. 2, and the smoothed (low frequency) image profile fuseo (the dotted line is gradation-converted image). X). Here, X is a constant.
FIG. 5 shows the result of the image processing method according to the present embodiment, where the solid line indicates the profile f1 (X) of the input image, and the dotted line indicates the profile fd (X) of the processed image processed according to the present embodiment.
[0034]
Next, the operation will be described.
First, the input image f1 (x, y) is subjected to gradation conversion as shown in the equation (14) by the gradation conversion function F1 () shown in FIG. 2, and an output image f0 (x, y) is obtained.
f0 (x, y) = F1 (f1 (x, y)) (14)
[0035]
The pixel value fd (x, y) of the processed image can be obtained according to equation (5). Here, F (x, y) is a function representing a processing effect depending on coordinates, and F (x, y) = 1 in this embodiment.
fd (x, y) = fuso (x, y) + F (x, y) × (f1 (x, y) −fus (x, y)) (15)
[0036]
Here, fuso (x, y) is a smoothed (low frequency) image of the output image (converted image) f0 (x, y), and fus (x, y) is a smoothed ( (Low frequency) image, which is obtained by, for example, equations (16) to (20) described later. For smoothing, an average density may be used, or a morphological filter such as Erosion, Dai1ation, 0pening, Closing, or the like may be used.
[0037]
In the gradation conversion curve F1 () (FIG. 2) used in this embodiment, the amplitude of the high frequency component of the output image f0 (x, y) having a density value of 2500 or less is compressed to 20% and higher than the density value 2500. For example, the amplitude of the input image is stored as the amplitude of the high frequency component (solid line in FIG. 4).
[0038]
The calculation method of fus (x, y) is represented by equations (16) to (20). If f1 (x, y) is a two-dimensional input original image,
f2 (x, y) = min {f1 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (16)
f3 (x, y) = max {f2 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (17)
f4 (x, y) = max {f3 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (18)
fus (x, y) = min {f4 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (19)
Indicated by
[0039]
Here, D (x, y) is a disc filter, and r1 is an arbitrary constant, and is selected according to the input image.
D (x, y) = 0, x × x + y × y ≦ r1 × r1
= One ∞, Other ─── (20)
[0040]
The profile fus (X) (dotted line in FIG. 3) of fus (x, y) obtained here preserves the edge structure, and overshoot and undershoot, which are disadvantages of conventional dynamic range compression, occur. There is nothing.
[0041]
Similarly, the calculation method of fuso (x, y) is represented by equations (21) to (24).
is there. Let f0 (x, y) be an image after gradation conversion.
f5 (x, y) = min {f0 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (21)
f6 (x, y) = max {f5 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (22)
f7 (x, y) = max {f6 (x + x1, y + y1) + D (x1, y1) | x1 × x1 + yl × y1 ≦ r1 × r1} (23)
fuso (x, y) = min {f8 (x + x1, y + y1) −D (x1, y1) | x1 × x1 + y1 × y1 ≦ r1 × r1} (24)
[0042]
The profile fuso (X) (dotted line in FIG. 4) of fuso (x, y) obtained here preserves the edge structure, and the intersection position with f0 (X) is fus (X) and f1. It is the same point as the intersection point with (X).
[0043]
The profile fd (X) of the processed image fd (x, y) from which the dotted line in FIG. 5 is obtained. The density distribution width with a density value of 2500 or less is compressed to 20% of the input image, and the amplitude of the high frequency component holds the amplitude of the input image.
[0044]
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the present embodiment, which realizes the expression (15).
In FIG. 1, an input image f1 is tone-converted by the tone converting means 101 based on the function of FIG. 2, and a converted image f0 is obtained. The converted image f0 is then smoothed by the smoothing means 102 to obtain a smoothed image fuso and sent to the adding means 103.
[0045]
On the other hand, the input image f1 is smoothed by other smoothing means 104 to become a smoothed image fus. Next, a subtracting means 105 subtracts the smoothed image fus from the input image f1, thereby obtaining a high frequency component image. The high frequency component image is multiplied by a constant by the multiplying unit 106 and then added to the smoothed image fuso by the adding unit 103, whereby a processed image fd is obtained.
[0046]
As described above, according to the first embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion can be freely adjusted. There is an effect that can be done.
[0047]
Next, a second embodiment will be described.
FIG. 6 shows a gradation conversion function F1 () used in the image processing method according to the second embodiment. Here, f1 (x, y) is the density value of the two-dimensional input original image, the smoothed (low frequency) image of the input image is fus (x, y), and the output image after the tone conversion (converted image) ) Is fus0 (x, y).
[0048]
Next, the operation will be described.
First, a smooth image fus (x, y) of the input image f1 (x, y) is created by, for example, equations (16) to (20), and the gradation conversion function F1 () shown in FIG. As shown, gradation conversion is performed to obtain an output image fus0 (x, y).
fus0 (x, y) = F1 (fus (x, y)) (25)
[0049]
The pixel value fd (x, y) of the processed image can be obtained according to the equation (26). Here, F (x, y) is a function representing a processing effect depending on coordinates.
fd (x, y) = fus0 (x, y) + F (x, y) × (f1 (x, y) −fus (x, y)) (26)
[0050]
FIG. 7 shows the configuration of the image processing apparatus according to the present embodiment, which realizes the above equation (26).
In FIG. 7, an input image f1 is smoothed by a smoothing unit 201 to become a smoothed image fus. This smoothed image fus is sent to a subtracting unit 204, and a gradation converting unit 202 performs gradation based on the function of FIG. The converted image is converted to fus0 and sent to the adding means 203.
[0051]
On the other hand, the smoothed image fus is subtracted from the input image f1 by the subtracting means 204 to obtain a high frequency component image. The high-frequency component image is multiplied by a constant by the multiplying unit 205 and then added to the output image fus0 by the adding unit 203, whereby a processed image fd is obtained.
[0052]
As described above, according to the second embodiment, the time for creating a smoothed image after gradation conversion can be omitted, and the calculation time is faster than that of the first embodiment. In addition, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high frequency component after gradation conversion can be freely adjusted.
[0053]
Next, a third embodiment will be described.
FIG. 8 shows the gradation conversion function F1 () used in the image processing method according to the third embodiment. Here, f1 (x, y) is the density value of the two-dimensional input original image, f0 (x, y) is the density value of the output image after the two-dimensional gradation conversion, and x, y is two-dimensionally higher The coordinates of The horizontal axis represents the density value f1 (x, y) of the input image, and the vertical axis represents the density value f0 (x, y) of the output image.
[0054]
In FIG. 9, the solid line is the profile f1 (X) of the input image, the dotted line is the smoothed (low frequency) image fus (x, y) of the input image, the profile fus (X), and the alternate long and short dash line is the profile fd (X ).
[0055]
Next, the operation will be described.
First, the input image f1 (x, y) is subjected to gradation conversion as shown by the equation (27) with the gradation conversion function F1 () shown in FIG. 8, and the output image (converted image) f0 (x, y) is obtained. obtain.
f0 (x, y) = F1 (f1 (x, y)) (27)
[0056]
The pixel value fd (x, y) of the processed image can be obtained according to equations (28) and (29). Here, c (x, y) is a gradation conversion rate and is defined by equation (28).
c (x, y) = ∂F1 (f1 (x, y)) / ∂f1 (x, y) (28)
fd (x, y) = f0 (x, y) + (1−c (x, y)) × (f1 (x, y) −fus (x, y)) (29)
[0057]
Here, fus (x, y) is a smoothed (low frequency) image of the input image f1 (x, y), and is represented by, for example, Expression (30).
[0058]
[Expression 1]
Figure 0003814421
[0059]
Note that any method may be used for the smoothing, and a morphological filter such as Erosion, Dai1ation, 0penning, Closing, etc. may be used.
[0060]
FIG. 10 shows the configuration of the image processing apparatus according to the present embodiment, which realizes the above equation (29).
In FIG. 10, the input image f <b> 1 is subjected to gradation conversion based on the gradation conversion curve of FIG. On the other hand, the input image f1 is smoothed by the smoothing means 303 to become a smoothed image fus. The subtracting means 304 subtracts the smoothed image fus from the input image f1 to obtain a high frequency image. This high-frequency image is added to the converted image f0 by the adding means 302, whereby a processed image fd is obtained.
[0061]
As described above, according to the third embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion can be reduced. There is an effect that the amplitude of the high frequency component can be made the same. In addition, the smoothing process needs to be performed only once, and the calculation time can be shortened. Further, the smoothing method using the average density has an effect of shortening the calculation time of the morphological filter processing.
[0062]
Next, a fourth embodiment will be described.
In this embodiment, the pixel value fd (x, y) of the processed image and the pixel value fuso (x, y) of the smoothed image of the first image (output image after gradation conversion) f0 (x, y) are used. ), The pixel value f1 (x, y) of the second image (input image), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, and the function F ( ), Using the coordinates x, y on the image,
[0063]
fd (x, y) = fuso (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y)) (31)
fd (x, y) = f0 (x, y) + F (f1 (x, y)) × (f1 (x, y) −fus (x, y)) (32)
This is expressed by the following equation (21) or equation (32).
[0064]
As described above, according to the fourth embodiment, since the function F () for controlling the processing effect depends on the density value f1 (x, y) of the second image, the amplitude of the high frequency component Can be changed according to the density value of the second image.
[0065]
Next, a fifth embodiment will be described.
In the present embodiment, the pixel value fd (x, y) of the processed image, the pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and the pixel value of the second image Using f1 (x, y), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
[0066]
fd (x, y) = fuso (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y)) (33)
fd (x, y) = f0 (x, y) + F (f0 (x, y)) × (f1 (x, y) −fus (x, y)) (34)
This is expressed by the following equation (33) or equation (34).
[0067]
As described above, according to the fifth embodiment, since the function F () for controlling the processing effect depends on the density value f 0 (x, y) of the first image, the high frequency of the converted image is obtained. There is an effect that the amplitude of the component can be changed according to the density value of the first image.
[0068]
Next, a sixth embodiment will be described.
In the present embodiment, the pixel value fd (x, y) of the processed image, the pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and the pixel value of the second image Using f1 (x, y), the pixel value fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
[0069]
fd (x, y) = fuso (x, y) + F (fus (x, y)) × (f1 (x, y) −fus (x, y)) (35)
fd (x, y) = f0 (x, y) + F (fus (x, y)) × (f1 (x, y) −fus (x, y)) (36)
This is expressed by the following equation (35) or equation (36).
[0070]
As described above, according to the sixth embodiment, the function () for controlling the processing effect is made to depend on the density value fus (x, y) of the smoothed (low frequency) image of the second image. Therefore, there is an effect that the amplitude of the high frequency component of the converted image can be changed according to the density value of the smoothed (low frequency) image of the second image. Furthermore, since the amplitude of the high frequency component is adjusted depending on the density of the smoothed image, there is an effect that the amplitude of the high frequency component of the second image is not affected.
[0071]
Next, a seventh embodiment will be described.
In the present embodiment, the pixel value fd (x, y) of the processed image, the pixel value fuso (x, y) of the smoothed image of the first image f0 (x, y), and the pixel value of the second image Using f1 (x, y), the pixel fus (x, y) of the smoothed (low frequency) image of the second image, the function F () for controlling the processing effect, and the coordinates x, y on the image,
[0072]
fd (x, y) = fuso (x, y) + F (fuso (x, y)) × (f1 (x, y) −fus (x, y)) (37)
fd (x, y) = f0 (x, y) + F (fuso (x, y)) × (f1 (x, y) −fus (x, y)) (38)
This is expressed by the following equation (37) or equation (38).
[0073]
As described above, according to the seventh embodiment, the function F () for controlling the processing effect depends on the density value fuso (x, y) of the smoothed (low frequency) image of the first image. Therefore, there is an effect that the amplitude of the high frequency component of the converted image can be changed according to the density value of the smoothed (low frequency) image of the first image. Furthermore, since the amplitude of the high frequency component is adjusted depending on the density of the smoothed image, there is an effect that the amplitude of the high frequency component of the first image is not affected.
[0074]
Next, an eighth embodiment will be described. In this embodiment, FIGS. 2, 4, and 5 used in the first embodiment are used.
In FIG. 2, as in the first embodiment, f1 (x, y) is the density value of the two-dimensional input original image, and f0 (x, y) is the output image after the two-dimensional gradation conversion. The density value is set, and x and y indicate two-dimensional coordinates. The horizontal axis represents the density value f1 (x, y) of the input image, and the vertical axis represents the density value f0 (x, y) of the output image. The slope below the input density value 2500 is 0.2, and the slope above the input density value 2500 is 1.
[0075]
Also, the solid line in FIG. 4 indicates the profile f0 (X9) of the output image after gradation conversion, and the dotted line indicates the smoothed (low frequency) image profile fuso (X) of the output image.
Also, the solid line in FIG. 5 represents the profile f1 (X) of the input image, and the dotted line represents the profile fd (X) of the processed image that is the result of the image processing method according to the present embodiment.
[0076]
Next, the operation will be described.
First, the input image f1 (x, y) is subjected to gradation conversion as shown by the above equation (4) with the gradation conversion function F1 () shown in FIG. 2 to obtain an output image f0 (x, y).
Next, the pixel value fd (x, y) of the processed image can be obtained according to the equation (39). Here, c (x, y) is a function (gradation conversion rate) representing the gradient of the gradation conversion curve, and is expressed by the equation (28).
[0077]
fd (x, y) = fuso (x, y) + a × (1 / c (x, y)) × (f0 (x, y) −fuso (x, y)) (39)
Here, a is a constant, and fuso (x, y) is a pixel value of a smoothed (low frequency) image of the output image f0 (x, y), and is represented by, for example, the equations (16) to (20).
[0078]
In the gradation conversion curve F1 () (FIG. 2) used in the present embodiment, the amplitude of the high frequency component of the output image (converted image) f0 (x, y) having a density value of 2500 or less is compressed to 20%. If the value is higher than 2500, the amplitude of the input image is stored as the amplitude of the high frequency component (solid line in FIG. 4).
Note that, as in the first embodiment, the smoothed image may use, for example, the average density according to the equation (30) or the morphological filter.
[0079]
The profile of the processed image fd (x, y) obtained is a dotted line in FIG. The density distribution width with a density value of 2500 or less is compressed to 20% of the input image, and the amplitude of the high frequency component holds the amplitude of the input image.
[0080]
FIG. 11 shows the configuration of the image processing apparatus according to the present embodiment, and realizes the above equation (39).
In FIG. 11, the input image f1 is subjected to gradation conversion by the gradation converting means 801 to obtain a converted image f0, which is sent to the subtracting means 805 and smoothed by the smoothing means 802 to obtain a smoothed image fuso. This smoothed image fuso is sent to the adding means 803.
[0081]
On the other hand, the subtracting means 805 obtains a high frequency component by subtracting the smoothed image fuso from the converted image f0. The high frequency component is multiplied by a constant by a multiplying unit 806 and then added to the smoothed image fuso by an adding unit 803, thereby obtaining a processed image fd.
[0082]
As described above, according to the eighth embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion is converted to gradation. There is an effect that the amplitude of the high frequency component of the previous image can be maintained. Furthermore, there is an effect that no overshoot or undershoot occurs. Further, when the density average is used for the smoothed image, there is an effect that the calculation time can be shortened.
[0083]
FIG. 12 shows the configuration of an image processing apparatus according to the ninth embodiment.
In FIG. 12, 900 represents an input image as an original image, 901 is a gradation conversion unit for converting the gradation of the original image 900, 902 is a converted image after gradation conversion, and 903 is a floor used by the gradation conversion unit 901. Derivative coefficient storage means for storing the derivative coefficient of the tone conversion curve, 904 is a smoothed image creating means for creating a smoothed image (low frequency image) 905 of the converted image 902, and 906 is a converted image 902 and a smoothed image 905. 907 is a high frequency component creation means for calculating the difference between the high frequency component created by the high frequency component creation means 106 and added to the converted image 902 based on the differential coefficient of the gradation conversion curve stored in the differential coefficient storage means 903. Ingredient addition means.
[0084]
FIG. 13 is a flowchart showing the flow of processing of the present embodiment. 14 and 15 show tone conversion curves used by the tone conversion means 901, the horizontal axis indicates the pixel value of the input image, and the vertical axis indicates the pixel value of the output image. FIG. 14 shows an S-shaped gradation conversion curve, and FIG. 15 shows that the slope below the input density value B is A / B and the slope above the input density value B is 1.
[0085]
Next, the operation will be described according to the processing flow of FIG.
The gradation converting means 901 converts the gradation of the original image 900 as shown by the equation (40) based on the gradation conversion curve shown in FIG. 14 or FIG. 15 (step S201). Here, f1 (x, y) is the density value of the two-dimensional input original image 900, f0 (x, y) is the density value of the converted image 902 after the two-dimensional gradation conversion, and F1 () is the floor. A key conversion curve is used. x and y indicate two-dimensional coordinates.
f0 (x, y) = F1 (f1 (x, y)) -------------- (40)
[0086]
The differential coefficient storage unit 903 calculates the differential coefficient of the gradation conversion curve shown by the equation (41), and stores the density value as a table c2 (x) (S202).
c2 (F1 (x)) = 1- [∂F1 (x) / ∂x] (41)
[0087]
Next, the smoothed image creating means 904 calculates a smoothed image 905 from the image 902 by the above equation (30) (S203).
Next, the high-frequency component creation unit 906 calculates a high-frequency image from the gradation-converted image 902 and the smoothed image 905 as shown by the equation (42) (S204). Here, fh (x, y) is a pixel value of the high-frequency image.
fh (x, y) = f0 (x, y) −fus (x, y) (42)
[0088]
The high frequency component adding means 907 then adds the high frequency component calculated by the high frequency component creating means 906 to the converted image 902 after the gradation conversion as shown in the equation (43). A post-processing image fd (x, y) is obtained based on the coefficients (S205).
fd (x, y) = f0 (x, y) + a * c2 (f0 (x, y)) * fh (x, y) (43)
Here, a is a constant.
[0089]
Note that the smoothed image 905 may be calculated using the morphological operation according to the above equations (16) to (20).
The profile of fus (x, y) obtained here preserves the edge structure and does not cause overshoot and undershoot, which are disadvantages of conventional dynamic range compression.
[0090]
According to the present embodiment, the density distribution width of an arbitrary gradation area of the input image can be compressed and expanded, and the amplitude of the high-frequency component after gradation conversion is set to the high-frequency component of the image before gradation conversion. There is an effect that the amplitude can be maintained. In addition, there is an effect that no overshoot or undershoot occurs. Furthermore, when the density average is used for the smoothed image, there is an effect that the calculation time can be shortened.
[0091]
Next, the storage medium according to the present invention will be described.
The system according to each embodiment including FIG. 1, FIG. 7, FIG. 10, FIG. 11, FIG. 12, etc. may be configured in hardware, or may be configured as a computer system including a CPU, a memory, and the like. . When configured in a computer system, the memory constitutes a storage medium according to the present invention. This storage medium medium stores a program for executing the processes of the above-described embodiments including FIG.
[0092]
Further, as this storage medium, a semiconductor memory such as ROM and RAM, an optical disk, a magneto-optical disk, a magnetic storage medium, etc. may be used, and these are a CD-ROM, FD, magnetic card, magnetic tape, nonvolatile memory card, etc. It may be configured and used.
[0093]
Therefore, when this storage medium is used in another system or apparatus other than the system according to each embodiment including the above drawings, the system or computer reads out and executes the program code stored in this storage medium, The same functions as those of the above-described embodiments can be realized, the same effects can be obtained, and the object of the present invention can be achieved.
[0094]
Further, when an OS or the like running on the computer performs part or all of the processing, or an extended function board in which a program code read from a storage medium is inserted into the computer or an extended function connected to the computer Even when a CPU or the like provided in the extended function board or the extended function unit performs part or all of the processing based on the instruction of the program code after being written in the memory provided in the unit, it is equivalent to each embodiment. The above-described functions can be realized and equivalent effects can be obtained, and the object of the present invention can be achieved.
[0095]
【The invention's effect】
As described above, according to the present invention, no matter what gradation conversion process is performed on the original image data, the value of the high frequency component can be kept constant in the gradation conversion process.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a characteristic diagram showing a gradation conversion function F1 () according to the first and eighth embodiments.
FIG. 3 is a characteristic diagram showing a profile of an input image according to the first embodiment and a smoothed image obtained by a morphological filter.
FIG. 4 is a characteristic diagram showing a profile of a gradation-converted image and a smoothed image by a morphological filter according to the first and eighth embodiments.
FIG. 5 is a characteristic diagram showing profiles of an input image and a processed image according to the first and eighth embodiments.
FIG. 6 is a characteristic diagram showing a gradation conversion function F1 () according to the second embodiment.
FIG. 7 is a block diagram of an image processing apparatus according to a second embodiment.
FIG. 8 is a characteristic diagram showing a gradation conversion function F1 () according to the third embodiment.
FIG. 9 is a characteristic diagram showing profiles of an input image, a smoothed image of the input image, and a processed image according to the third embodiment.
FIG. 10 is a block diagram of an image processing apparatus according to a third embodiment.
FIG. 11 is a block diagram of an image processing apparatus according to an eighth embodiment.
FIG. 12 is a block diagram of an image processing apparatus according to a ninth embodiment.
FIG. 13 is a flowchart showing processing according to the ninth embodiment.
FIG. 14 is a characteristic diagram showing a gradation conversion function F1 () according to the ninth embodiment.
FIG. 15 is a characteristic diagram showing another gradation conversion function F1 () according to the ninth embodiment.
FIG. 16 is a characteristic diagram showing a monotonically decreasing function used for conventional dynamic range compression.
[Explanation of symbols]
101, 202, 301, 801, 901 Tone conversion means 102, 104, 201, 303, 802, 904 Smoothing means 103, 203, 302, 803 Addition means 105, 204, 304, 805 Subtraction means 106, 205, 305, 806 Multiplying means 900, f1 input image 902, f0, fus0 output image (converted image)
905, fus, fuso smoothed image 906 high frequency component creation means 907 high frequency component addition means fd processed image

Claims (11)

原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の手段と、
前記原画像データから該原画像データの平滑化画像データを減算して高周波成分を生成する第二の手段と、
前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の手段と、
前記第一の画像データに前記第一の高周波成分を加算する第四の手段とを有することを特徴とする画像処理装置。
First means for generating first image data in which the pixel value of the original image data is changed based on a gradation conversion curve;
A second means for generating a high frequency component by subtracting the smoothed image data of the original image data from the original image data;
A third means for generating a first high frequency component in which the high frequency component is changed based on a gradient of the gradation conversion curve;
An image processing apparatus comprising: a fourth means for adding the first high-frequency component to the first image data.
原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の手段と、
前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第二の手段と、
前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の手段と、
前記第一の画像データに前記第一の高周波成分を加算する第四の手段とを有することを特徴とする画像処理装置。
First means for generating first image data in which the pixel value of the original image data is changed based on a gradation conversion curve;
Second means for generating a high-frequency component by subtracting the smoothed image data of the first image data from the first image data;
A third means for generating a first high frequency component in which the high frequency component is changed based on a gradient of the gradation conversion curve;
An image processing apparatus comprising: a fourth means for adding the first high-frequency component to the first image data.
前記高周波成分の値を、前記階調変換曲線の微分値に基づいて変更することを特徴とする請求項1又は2に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the value of the high frequency component is changed based on a differential value of the gradation conversion curve. 前記平滑化画像データをモフォロジカルフィルタを用いて生成することを特徴とする請求項1又は2に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the smoothed image data is generated using a morphological filter. 原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の工程と、
前記原画像データから該原画像データの平滑化画像データを減算して高周波成分を生成する第二の工程と、
前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の工程と、
前記第一の画像データに前記第一の高周波成分を加算する第四の工程とを有することを特徴とする画像処理方法。
A first step of generating first image data in which the pixel value of the original image data is changed based on a gradation conversion curve;
A second step of subtracting the smoothed image data of the original image data from the original image data to generate a high frequency component;
A third step of generating a first high-frequency component in which the high-frequency component is changed based on a gradient of the gradation conversion curve;
And a fourth step of adding the first high-frequency component to the first image data.
原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の工程と、
前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第二の工程と、
前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の工程と、
前記第一の画像データに前記第一の高周波成分を加算する第四の工程とを有することを特徴とする画像処理方法。
A first step of generating first image data in which the pixel value of the original image data is changed based on a gradation conversion curve;
A second step of subtracting the smoothed image data of the first image data from the first image data to generate a high frequency component;
A third step of generating a first high-frequency component in which the high-frequency component is changed based on a gradient of the gradation conversion curve;
And a fourth step of adding the first high-frequency component to the first image data.
原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の手段と、
前記第一の画像データを平滑化した画像データを生成する第二の手段と、
前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第三の手段と、
前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第四の手段と、
前記平滑化した画像データに前記第一の高周波成分を加算する第五の手段とを有することを特徴とする画像処理装置。
First means for generating first image data in which the pixel value of the original image data is changed based on a gradation conversion curve;
Second means for generating image data obtained by smoothing the first image data;
Third means for generating a high frequency component by subtracting the smoothed image data of the first image data from the first image data;
A fourth means for generating a first high-frequency component in which the high-frequency component is changed based on a gradient of the gradation conversion curve;
An image processing apparatus comprising: fifth means for adding the first high frequency component to the smoothed image data.
原画像データのダイナミックレンジを変更する画像処理方法であって、
前記原画像データの画素値をf1(x,y)、f1(x、y)の平滑化画像をfus(x,y)、階調変換関数をF1()、階調変換率をc(x,y)、階調変換後の画像データの画素値をf0(x,y)、画像データ上の座標x,yを用い、
f0(x,y)=F1(f1(x,y))
c(x,y)=∂F1(f1(x,y))/∂f1(x,y)
なる関係を有し、
fd(x,y)=f0(x,y)+(1−c(x,y))×(f1(x,y)−fus(x,y))
なる演算式で表されることを特徴とする画像処理方法。
An image processing method for changing the dynamic range of original image data,
The pixel value of the original image data is f1 (x, y), the smoothed image of f1 (x, y) is fus (x, y), the gradation conversion function is F1 (), and the gradation conversion rate is c (x , Y), the pixel value of the image data after gradation conversion is f0 (x, y), and the coordinates x, y on the image data are used,
f0 (x, y) = F1 (f1 (x, y))
c (x, y) = ∂F1 (f1 (x, y)) / ∂f1 (x, y)
Have the relationship
fd (x, y) = f0 (x, y) + (1−c (x, y)) × (f1 (x, y) −fus (x, y))
An image processing method characterized by being expressed by an arithmetic expression:
原画像データのダイナミックレンジを変更する画像処理方法であって、
前記原画像データの画素値をf1(x,y)、階調変換関数をF1()、階調変換関数F1()の微係数から計算されるテーブルをc2()、階調変換後の画像データの画素値をf0(x,y)、f0(x,y)の平滑化画像をfus(x,y)、定数a、画像データ上の座標x,yを用い、
f0(x,y)=F1(f1(x,y))
c2(f0(x,y))=1−∂F1(f0(x,y))/∂f0(x,y)
なる関係を有し、
fd(x,y)=f0(x,y)+a×c2(f0(x,y))×(f0(x,y)−fus(x,y))
なる演算式で表されることを特徴とする画像処理方法。
An image processing method for changing the dynamic range of original image data,
The pixel value of the original image data is f1 (x, y), the gradation conversion function is F1 (), the table calculated from the derivative of the gradation conversion function F1 () is c2 (), and the image after gradation conversion The smoothed image of f0 (x, y) as the pixel value of data, fus (x, y) as the smoothed image of f0 (x, y), constant a, and coordinates x, y on the image data,
f0 (x, y) = F1 (f1 (x, y))
c2 (f0 (x, y)) = 1−∂F1 (f0 (x, y)) / ∂f0 (x, y)
Have the relationship
fd (x, y) = f0 (x, y) + a * c2 (f0 (x, y)) * (f0 (x, y) -fus (x, y))
An image processing method characterized by being expressed by an arithmetic expression:
原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の処理と、
前記原画像データから該原画像データの平滑化画像データを減算して高周波成分を生成する第二の処理と、
前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の処理と、
前記第一の画像データに前記第一の高周波成分を加算する第四の処理とをコンピュータに実行させるコンピュータプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
A first process for generating first image data in which the pixel value of the original image data is changed based on a gradation conversion curve;
A second process for generating a high-frequency component by subtracting the smoothed image data of the original image data from the original image data;
A third process for generating a first high-frequency component in which the high-frequency component is changed based on the gradient of the gradation conversion curve;
A computer-readable storage medium storing a computer program that causes a computer to execute a fourth process of adding the first high-frequency component to the first image data.
原画像データの画素値を階調変換曲線に基づいて変更した第一の画像データを生成する第一の処理と、
前記第一の画像データから該第一の画像データの平滑化画像データを減算して高周波成分を生成する第二の処理と、
前記高周波成分を前記諧調変換曲線の傾きに基づいて変更した第一の高周波成分を生成する第三の処理と、
前記第一の画像データに前記第一の高周波成分を加算する第四の処理とをコンピュータに実行させるコンピュータプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
A first process for generating first image data in which the pixel value of the original image data is changed based on a gradation conversion curve;
A second process for generating a high-frequency component by subtracting the smoothed image data of the first image data from the first image data;
A third process for generating a first high-frequency component in which the high-frequency component is changed based on the gradient of the gradation conversion curve;
A computer-readable storage medium storing a computer program that causes a computer to execute a fourth process of adding the first high-frequency component to the first image data.
JP27228398A 1998-09-18 1998-09-25 Image processing apparatus, method, and computer-readable storage medium Expired - Fee Related JP3814421B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP27228398A JP3814421B2 (en) 1998-09-25 1998-09-25 Image processing apparatus, method, and computer-readable storage medium
US09/396,740 US7050648B1 (en) 1998-09-18 1999-09-15 Image processing apparatus, image processing method, and recording medium
US10/912,129 US7564582B2 (en) 1998-09-18 2004-08-06 Image processing apparatus, image processing method, and recording medium
US11/146,054 US7636495B2 (en) 1998-09-18 2005-06-07 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27228398A JP3814421B2 (en) 1998-09-25 1998-09-25 Image processing apparatus, method, and computer-readable storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005246816A Division JP4035546B2 (en) 2005-08-26 2005-08-26 Image processing method and computer-readable storage medium

Publications (3)

Publication Number Publication Date
JP2000101841A JP2000101841A (en) 2000-04-07
JP2000101841A5 JP2000101841A5 (en) 2005-07-28
JP3814421B2 true JP3814421B2 (en) 2006-08-30

Family

ID=17511707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27228398A Expired - Fee Related JP3814421B2 (en) 1998-09-18 1998-09-25 Image processing apparatus, method, and computer-readable storage medium

Country Status (1)

Country Link
JP (1) JP3814421B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3814491B2 (en) 2001-04-03 2006-08-30 キヤノン株式会社 Image processing apparatus, image processing method, storage medium, and program
JP3754933B2 (en) 2001-06-19 2006-03-15 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, program, and storage medium
JP2004030596A (en) * 2002-05-10 2004-01-29 Canon Inc Image gradation conversion method, image gradation conversion apparatus, system, program, and storage medium
WO2008099443A1 (en) 2007-01-30 2008-08-21 Fujitsu Limited Image generation program, image generation device, and image generation method
JP5331797B2 (en) * 2008-04-14 2013-10-30 株式会社日立メディコ Medical diagnostic device and method for improving image quality of medical diagnostic device
JP4777456B2 (en) * 2009-12-17 2011-09-21 株式会社東芝 X-ray diagnostic equipment
JP5539438B2 (en) * 2012-04-27 2014-07-02 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2013215593A (en) * 2013-06-10 2013-10-24 Canon Inc Image processor, image processing system, image processing method, and memory medium

Also Published As

Publication number Publication date
JP2000101841A (en) 2000-04-07

Similar Documents

Publication Publication Date Title
US7447376B2 (en) Image processing apparatus, image processing method, storage medium, and program
US7561750B2 (en) Image processing apparatus, image processing method, storage medium, and program
JP3700804B2 (en) Image processing method and apparatus
JPH1075395A (en) Image processing method and device
JP3738788B2 (en) Image dynamic range compression processing method and apparatus
US6985615B2 (en) Image processing apparatus, method and memory medium
JP3814421B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP3814491B2 (en) Image processing apparatus, image processing method, storage medium, and program
JP4035546B2 (en) Image processing method and computer-readable storage medium
WO2021094471A1 (en) Method and apparatus for contrast enhancement
JPH1063837A (en) Method for processing picture and device therefor
JP4818212B2 (en) Image processing apparatus and method
JP3783116B2 (en) Radiation image enhancement processing method and apparatus
JPH0998293A (en) Image processing method and device
JP4146958B2 (en) Image processing method, image processing apparatus, and storage medium
JP2002074356A (en) Method and device for processing picture and recording medium
JP3937660B2 (en) Image processing method and computer-readable storage medium
JP3937616B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP4323708B2 (en) Image processing method, image processing apparatus, and recording medium
JP2003337942A (en) Image processor
JP2009070407A (en) Method and device for image processing, and recording medium
JP2005353102A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041221

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20041221

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20050126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060605

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090609

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100609

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130609

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees