JP3793137B2 - Image processing apparatus, image processing method, program, and storage medium - Google Patents

Image processing apparatus, image processing method, program, and storage medium Download PDF

Info

Publication number
JP3793137B2
JP3793137B2 JP2002309841A JP2002309841A JP3793137B2 JP 3793137 B2 JP3793137 B2 JP 3793137B2 JP 2002309841 A JP2002309841 A JP 2002309841A JP 2002309841 A JP2002309841 A JP 2002309841A JP 3793137 B2 JP3793137 B2 JP 3793137B2
Authority
JP
Japan
Prior art keywords
image
image processing
shadow
difference
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002309841A
Other languages
Japanese (ja)
Other versions
JP2004147084A (en
Inventor
眞 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002309841A priority Critical patent/JP3793137B2/en
Priority to US10/677,377 priority patent/US7403646B2/en
Priority to CNB2003101018998A priority patent/CN1259890C/en
Publication of JP2004147084A publication Critical patent/JP2004147084A/en
Application granted granted Critical
Publication of JP3793137B2 publication Critical patent/JP3793137B2/en
Priority to US11/623,565 priority patent/US7447346B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像処理方法、プログラム、および記憶媒体に関する。
【0002】
【従来の技術】
近年、医用画像のデジタル化に関する国際規格DICOM(digital information and communication in medicine)に呼応して、我が国では日本放射線機器工業会(JIRA)によりMIPS(medical image processing system)規格が制定され、医用画像のデジタル化が進行している。
【0003】
医用画像分野では、医用X線画像、CTスキャン画像、MRI画像等をコンピュータにより解析するCAD(Computer Aided Diagonosis)の利用が進んでおり、その中でも特に同一部位を撮影した画像の経時的差分をとる経時差分方式のCADが注目されている。
【0004】
経時差分CADは、例えば時間的に異なる時点で撮影された一組の胸部単純X線画像のフイルムをスキャナで入力してデジタル画像を生成し、画像解析を行ってそれぞれの画像において解剖学的に同一となる位置を求め、現在又は過去のいずれか一方の画像を変形し、画素毎の差分処理を行う。本明細書では、時間的に異なる時点で撮影された画像のうち、時間的により以前に撮影された画像を過去画像、時間的により最近撮影されたものを現在画像と、便宜的に呼ぶこととする。
【0005】
差分画像の濃度値は現在および過去の画像間の画像信号の変化に対応する。
すなわち、過去画像と現在画像間で変化がない場合、その差分値は0となるが、何らかの変化が生じた場合はその変化に対応した輝度レベルの変化が現れる。
【0006】
図11は、過去および現在画像の信号とそれにより得られる差分画像の信号を一次元で表示したものである。同図(a)の過去画像ではほぼ平坦なプロファイルであった部分に、同図(b)のAで示すように陰影を表す信号が出現した場合、過去画像から現在画像の差分を取って差分画像を生成すると同図(c)に示すようなプロファイルが得られる。
【0007】
【発明が解決しようとする課題】
放射線画像では大きい画素値が表示上、高輝度に対応するか低輝度に対応するかは画像生成装置により異なる場合がある。例えば、近年実用化が進んでいるFPD(Flat Panel Detector)のように、被検体を透過したX線を直接あるいは間接的に電気信号に変換してデジタル画像を生成する装置では大きい画素値が表示上高輝度に対応するポジ画像として画像データが生成される。このため、例えば胸部X線画像では肺野に対応する画素の値は大きくなる。
【0008】
一方、通常放射線画像はネガ画像で観察されるため、フィルムスキャナ等でX線フィルムをデジタル化した画像データは肺野に対応する画素の値は小さくなる。
【0009】
したがって、ネガ画像とポジ画像とを混在させて差分処理を行うと、差分画像における陰影の現れ方が統一されず、極めて判別しにくいものとなっている。
【0010】
本発明は、このように画像のポジ/ネガが統一されていない画像間から生成される差分画像しても一貫性のある差分画像を生成する方法・装置を提供し、特に差分画像上の陰影の表示形態に一貫性のある差分画像を出力可能な方法および装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明は、第1の画像と第2の画像から差分画像を生成する画像処理装置において、第1の画像および第2の画像の画像属性を取得する画像属性取得手段と、前記第1の画像および/または前記第2の画像に対して所定の画像処理を行う画像処理手段と、差分画像における陰影の変化をどのように表現するかを定義する陰影定義手段と、前記画像属性取得手段によって取得された第1の画像および第2の画像の画像属性と前記陰影定義手段によって定義された陰影定義に応じて、前記画像処理手段が前記第1の画像および/または前記第2の画像に対して行う画像処理を変更する制御手段と、前記画像処理手段により処理された前記第1の画像および前記第2の画像から差分画像を演算する演算手段とを有する。これによって、画像のポジ/ネガが統一されていない画像間から生成される差分画像ついて一貫性のある差分画像を生成でき、差分画像上の陰影の表示形態に一貫性のある差分画像を出力可能である。
【0012】
あるいは、本発明は、第1の画像と第2の画像から差分画像を生成する画像処理装置において、前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得手段と、前記差分画像における陰影の変化をどのように表現するかを定義する陰影定義手段と、前記第1の画像に対して階調反転処理を行う第1の階調反転手段と、前記第2の画像に対して階調反転処理を行う第2の階調反転手段と、前記第1の階調反転手段の出力と前記第2の階調反転手段の出力から差分画像を演算する演算手段と、前記画像属性取得手段によって取得された前記第1の画像および前記第2の画像の前記画像属性と前記陰影定義手段にて定義された前記陰影定義に応じて、前記第1の階調反転手段および/または前記第2の階調反転手段にて階調反転処理を行うか否かを制御する制御手段とを有する。
【0013】
あるいは、本発明は、第1の画像と第2の画像から差分画像を生成する画像処理装置において、前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得手段と、前記差分画像における陰影の変化をどのように表現するかを定義する陰影定義手段と、前記第1の画像に対して階調反転処理を行う第1の階調反転手段と、前記第2の画像に対して階調反転処理を行う第2の階調反転手段と、前記第1の階調反転手段の出力と前記第2の階調反転手段の出力から差分画像を演算する演算手段と、前記差分画像に画像属性情報を付加する画像属性情報付加手段と、前記画像属性取得手段によって取得された前記画像属性と前記陰影定義手段にて定義された前記陰影定義に応じて、前記第1の画像および前記第2の画像に対する画像処理を変更するとともに、前記画像属性情報付加手段にて付加される情報を決定する制御手段とを有する。
【0014】
本発明は、第1の画像と第2の画像から差分画像を生成する画像処理方法において、前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得ステップと、前記第1の画像および/または前記第2の画像に対して所定の画像処理を行う画像処理ステップと、前記差分画像における陰影の変化をどのように表現するかを定義する陰影定義ステップと、前記画像属性取得ステップによって取得された前記第1の画像および前記第2の画像の前記画像属性と、前記陰影定義ステップによって定義された前記陰影定義に応じて、前記画像処理ステップで、前記第1の画像および/または前記第2の画像に対して行う画像処理を変更する制御ステップと、前記画像処理ステップによって処理された前記第1の画像および前記第2の画像から差分画像を演算する演算ステップとを備える。これによって、画像のポジ/ネガが統一されていない画像間から生成される差分画像ついて一貫性のある差分画像を生成でき、差分画像上の陰影の表示形態に一貫性のある差分画像を出力可能である。
【0015】
本発明に係る画像処理方法において、前記差分画像に画像属性情報を付加する画像属性情報付加ステップをさらに設けてもよい。
【0016】
本発明に係る画像処理方法において、前記画像処理ステップは前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行い、前記制御ステップは前記画像処理ステップによって前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行うか否かを制御するものであってもよい。
【0017】
本発明に係る画像処理方法において、前記画像処理ステップは前記第1の画像または前記第2の画像に対して符号反転の画像処理を行い、前記制御ステップは前記画像処理ステップによって前記第1の画像または前記第2の画像に対して符号反転の画像処理を行うか否かを制御するものであってもよい。
【0018】
本発明に係る画像処理方法において、前記画像処理ステップは前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行うとともに、前記第1の画像または前記第2の画像に対して符号反転を行い、前記制御ステップは前記画像処理ステップによって前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行うか否かを制御するとともに、前記第1の画像または前記第2の画像に対して符号反転を行うか否かを制御するものであってもよい。
【0019】
本発明に係る画像処理方法において、前記第1の画像および前記第2の画像は、例えば人体の同一部位を異なる時期に撮影した画像である。
【0020】
本発明に係る画像処理方法において、前記陰影定義ステップは、例えば、前記差分画像における陰影の増大または減少を高輝度な領域として表現するか、低輝度な領域として表現するかを定義する。
【0021】
本発明に係る画像処理方法において、前記画像属性情報付加ステップは、例えば、差分画像の階調を表す画像属性情報を付加する。
【0022】
本発明は、第1の画像と第2の画像から差分画像を生成する画像処理のためのコンピュータが実行可能なプログラムにおいて、前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得ステップと、前記第1の画像および/または前記第2の画像に対して所定の画像処理を行う画像処理ステップと、差分画像における陰影の変化をどのように表現するかを定義する陰影定義ステップと、前記画像属性取得ステップによって取得された第1の画像および第2の画像の画像属性と、前記陰影定義ステップによって定義された陰影定義に応じて、前記画像処理ステップで、前記第1の画像および/または前記第2の画像に対して行う画像処理を変更する制御ステップと、前記画像処理ステップによって処理された前記第1の画像および前記第2の画像から差分画像を演算する演算ステップと、をコンピュータに実行させるためのプログラムコードを有する。
【0023】
本発明に係る記憶媒体は、前記プログラムが格納され、かつコンピュータ読取可能である。
【0024】
【発明の実施の形態】
[第1の実施形態]
図1において、本発明に係る第1の実施形態である医用画像処理装置110はローカルエリアネットワーク(LAN)100を介して、医用画像生成装置130、140、150および医用データサーバ160に接続されている。医用画像生成装置130、140は例えばCTスキャン装置、MRI装置であり、医用画像生成装置150は例えばX線撮影装置である。
【0025】
医用画像生成装置130、140、150で生成された医用画像は直接医用画像処理装置110に伝送され、あるいは一旦医用データサーバ160に保存された後、医用画像処理装置110に伝送される。直接医用画像処理装置110に伝送された医用画像は医用画像処理装置110の記憶媒体に保存される。
【0026】
医用画像処理装置110は医用画像用高精細モニタ120を備え、医用画像を高精細で表示し得る。なお、より安価なPC用モニタ170を備えた医用画像処理装置180も使用可能である。
【0027】
図2において、医用画像処理装置110はバス200にCPU210、RAM220、ROM230、通信インターフェース240、入力手段260を接続してなり、医用画像用高精細モニタ120や、プリンタ250等の出力装置が適当なインターフェースを介してバス200に接続されている。入力手段にはキーボード、ポインティングデバイス等が含まれる。
【0028】
CPU210は医用画像処理装置110全体、および出力装置の制御に使用され、その制御プログラムはROM230に格納されている。通信インターフェース240はLAN100による通信を制御し、適宜医用画像生成装置130、140、150や医療データサーバ160との間で医用画像その他のデータを送受信する。
【0029】
図3は、医用画像処理装置の機能構成を説明するブロック図であり、図4は、図3の医用画像処理装置に使用されるルックアップテーブルの特性を示すグラフである。図5は、図3の医用画像処理装置に使用されるルックアップテーブルの組合せを示す表である。
【0030】
図3において、画像入力部1には医用データサーバ160からローカルエリアネットワーク100を介して、人体の同一部位を異なる時期に撮影した一組の画像である現在画像および過去画像のファイルを入力される。ここで、各画像ファイルは放射線画像データと付帯情報を保持するタグ情報から構成されており、この付帯情報には画像データがポジ画像かネガ画像かを示す情報が含まれている。
【0031】
画像データがポジ画像かネガ画像かを示す情報は、例えば医用画像ファイルの標準であるDICOMフォーマットのファイルでは“Photometric Interpretation“と呼ばれる属性値が”MONOCHROME I“の時はネガ画像を、”MONOCHROME II“の時はポジ画像を示すことが定義づけられている。
【0032】
画像入力部1は画像データを差分処理部2に出力するとともに、差分処理部2に出力した過去画像および現在画像がネガ画像なのか、ポジ画像かを示す情報を抽出して、制御部3に判定信号S0を入力する。
【0033】
一方、陰影定義入力部4からは差分画像上の陰影と診断上の判断基準の対応付けを不図示の外部入力、例えばコンピュータの外部記憶装置あるいはユーザからの直接指示を受けて入力する。陰影定義は、画像診断上病変部の増悪あるいは軽快に対して、それが差分画像上で高濃度(高輝度レベル)あるいは低濃度(低輝度レベル)のいずれかに対応するのかを規定する。
【0034】
図6は陰影定義の例を示す図であり、同図においてタイプAは差分画像上で陰影の増大を低濃度な(黒い)領域として、陰影の減少を高濃度な(白い)領域として表現すると定義している。一方、タイプBは差分画像上で陰影の増大を高濃度な(白い)領域として、陰影の減少を低濃度な(黒い)領域として表現すると定義している。ここで、低濃度あるいは高濃度は差分画像上で変化の生じない部分の輝度レベルを基準とした時に、この基準レベルに対して低い値か高い値かを表している。
【0035】
差分処理部2は、画像入力部1から過去および現在の画像がそれぞれ入力されるルックアップテーブルLUT1、LUT2を有し、これらルックアップテーブルLUT1、LUT2において必要な変換処理が為される。ルックアップテーブルLUT1、LUT2の出力はレベル補正部203に入力され、過去または現在の画像のヒストグラム中心を、他方の画像のヒストグラム中心に一致するように一方の画像の濃度をシフトする。このように、レベル補正された画像を用いて位置合せを実行すれば、位置合せの精度を向上し得る。
【0036】
レベル補正部203の出力は位置合せ部20に入力され、対応画素の座標が一致するように座標変換される。
【0037】
位置合せ部20では、現在および過去の画像に対し、解剖学的な対応点が一致するよう位置合せを行うために、図7のフローチャートに示す以下のステップが実行される。
【0038】
ステップS201:現在および過去の画像における被検体の位置を検出し、ステップS202に移行する。
【0039】
ステップS202:現在および過去の画像の、略対応する位置に、複数の関心領域ROIを設定し、ステップS203に移行する。
【0040】
ステップS203:ROI毎に現在および過去の画像のマッチング処理を行う。マッチング処理においては、例えば相互相関係数を算出し、最もマッチ度の高い位置をシフトベクトルとして求める。
【0041】
ステップS204:ステップS203で求めたシフトベクトルを2次元補間し、両画像の対応座標を一致させる座標変換のためのパラメータを算出する。
【0042】
ステップS205:ステップS204で求めたパラメータに基づき現在または過去の画像を座標変換する。
【0043】
ステップS206:座標変換されなかった画像、および座標変換された画像を出力する。
【0044】
次に位置合せ部20の過去画像、現在画像に対応する出力は、ルックアップテーブルLUT3、ルックアップテーブルLUT4にそれぞれ入力され、必要な変換が為される。
【0045】
ルックアップテーブルLUT3、ルックアップテーブルLU4の出力は加算部202に入力され、差分のための加算が実行される。
【0046】
ルックアップテーブルLUT1ないしルックアップテーブルLUT4には制御部3が接続され、制御部3には、画像入力部1および陰影定義入力部4が接続されている。制御部3には、画像入力部1から過去および現在の画像がネガ画像なのか、ポジ画像かを示す判定信号S0が入力され、陰影定義入力部4から判定方法がタイプAなのか、タイプBなのかを示す情報が入力される。
【0047】
ルックアップテーブルLUT1、ルックアップテーブルLUT2は両画像をネガまたはポジに統一し、ルックアップテーブルLUT3、ルックアップテーブルLUT4は加算部202における加算によって差分が実行されるようにどちらか一方の画像を符号反転する。
【0048】
加算部202は差分画像を生成し、画像出力部5に入力する。
【0049】
ルックアップテーブルLUT1〜ルックアップテーブルLUT4は、図4の(a)、(b)、(c)に示すように3種の特性を自由に選択し得る。図4(a)は入力をそのまま出力する、無変換のルックアップテーブル(TypeI)であり、図4(b)は入力を階調反転(ネガ/ポジ変換)するルックアップテーブル(TypeII)であり、図4(c)は入力を符号反転するルックアップテーブル(TypeIII)である。
【0050】
図5の表Aにおいて、判定方法がタイプAに設定されている場合であって、過去画像がネガ画像、現在画像がポジ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeI、TypeII、TypeI、TypeIIIがセットされる。
【0051】
過去および現在画像の画像データがどのように変化するかについて、図8により説明する。図8(a)に示すように、この例においてはポジ画像である現在画像において、ネガ画像の過去画像に存在しなかった病巣陰影が存在する。判定方法がタイプAの場合、ルックアップテーブルLUT2にはTypeIIがセットされているため、現在画像は階調反転され、平均値の補正が行われて図8(b)のようになる。
【0052】
さらに位置合わせを経て加算が行われる際、現在画像に対してLUT4において符号反転が行われるため、現在画像のデータプロファイルは図8(c)に示すようになり、加算により差分が計算されることになる。
【0053】
すなわち、ポジ画像からネガ画像に階調反転された現在画像を、ネガ画像の過去画像から引き算するので、差分画像上では陰影が増大した場合には低濃度な(黒い)領域として現れ、陰影が減少した場合には高濃度な(白い)領域として現れることになる。
【0054】
判定方法がタイプAに設定されている場合であって、過去画像および現在画像がネガ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeI、TypeI、TypeI、TypeIIIがセットされる。したがって、ルックアップテーブルLUT1、ルックアップテーブルLUT2では、現在画像、過去画像ともに階調反転されることなく、ルックアップテーブルLUT3、ルックアップテーブルLUT4では現在画像に対して画像信号の符号反転が行われるので、加算部202では実質的にネガの過去画像からネガの現在画像が引き算され、その結果、陰影が増大した場合には差分画像上で低濃度な(黒い)領域として現れ、陰影が減少した場合には差分画像上で高濃度な(白い)領域として現れる。
【0055】
判定方法がタイプAに設定されている場合であって、過去画像がポジ画像、現在画像がネガ画像である場合は、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeII、TypeI、TypeI、TypeIIIがセットされる。よって、過去画像がポジ画像からネガ画像に階調反転された後、現在画像が引き算される。したがって、差分画像上では陰影が増大した場合には低濃度な(黒い)領域として現れ、陰影が減少した場合には高濃度な(白い)領域として現れる。
【0056】
判定方法がタイプAに設定されている場合であって、過去画像および現在画像がポジ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeI、TypeI、TypeIII、TypeIがセットされる。したがって、ポジ画像の現在画像からポジ画像の過去画像を引き算するので、差分画像上では陰影が増大した場合には低濃度な(黒い)領域として現れ、陰影が減少した場合には高濃度な(白い)領域として現れる。
【0057】
過去画像および現在画像がともにネガ画像である場合には過去画像から現在画像を引き算することで差分画像を形成し、過去画像および現在画像がともにポジ画像である場合には現在画像から過去画像を引き算することで、差分画像を形成するので、どちらの場合にも差分画像上では陰影が増大した場合には低濃度な(黒い)領域として現れ、陰影が減少した場合には高濃度な(白い)領域として現れる。
【0058】
図5の表Bにおいて、判定方法がタイプBに設定されている場合であって、過去画像および現在画像がネガ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeI、TypeI、TypeIII、TypeIがセットされる。したがって、ネガ画像の現在画像からネガ画像の過去画像が引き算され、差分画像上では陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0059】
判定方法がタイプBに設定されている場合であって、過去画像がポジ画像、現在画像がネガ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeI、TypeII、TypeI、TypeIIIがセットされる。よって、ポジ画像の過去画像からネガ画像からポジ画像に階調反転された現在画像を引き算するため、差分画像上では陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0060】
判定方法がタイプBに設定されている場合であって、過去画像がネガ画像、現在画像がポジ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeII、TypeI、TypeI、TypeIIIがセットされる。これにより、ネガ画像からポジ画像に階調反転された過去画像からポジ画像の現在画像を引き算することになり、差分画像上では陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0061】
判定方法がタイプBに設定されている場合であって、過去画像および現在画像がポジ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2、ルックアップテーブルLUT3、ルックアップテーブルLUT4にはそれぞれTypeI、TypeI、TypeI、TypeIIIがセットされる。したがって、ポジ画像の過去画像からポジ画像の現在画像を引き算することになり、差分画像上では陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0062】
過去画像および現在画像がともにネガ画像である場合には現在画像から過去画像を引き算することで差分画像を形成し、過去画像および現在画像がともにポジ画像である場合には過去画像から現在画像を引き算することで、差分画像上では陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0063】
以上説明したように、本実施の形態によれば、現在及び過去画像の属性がどのような組み合わせであっても、陰影の増加と減少があらかじめ決めた1つの形態で表現することができる。
【0064】
[第2の実施形態]
DICOMフォーマットの画像を表示可能な表示装置では、Photometric Interpretationの値が“MONOCHROME I”の画像データについては階調反転を表示し、Photometric Interpretationの値が“MONOCHROME II”の画像データについては階調反転せずにそのまま表示することになっている。
【0065】
第1の実施形態に示した医用画像処理装置では、過去画像および現在画像が同じ画像特性をもつ場合は、画像信号の符号反転を行う画像を変えることにより減算の順番を変更したが、本実施形態では減算の順序を固定して、差分画像に対して与えられるPhotometric Interpretationの値を変更することで同様の結果を得るものである。
【0066】
図9は本発明に係る第2の実施形態である医用画像処理装置の機能構成を説明するブロック図である。医用画像処理装置の構成は図1および図2に示したものと同様あるので、その説明を省略する。
【0067】
図7において、第1の実施形態と同様の部分については、同一符号をつけ、説明を省略する。差分処理部2に含まれるルックアップテーブルLUT3、ルックアップテーブルLUT4は制御部3によって特性が変化することはなく、不変のものが設定されている。タグ生成部8は差分処理部2から出力される差分画像データに付ける付帯情報を生成する。この付帯情報には差分処理部2から出力された差分画像データがポジ画像かネガ画像かを示すタグ情報が含まれている。
【0068】
タグ生成部8では画像入力部1から入力される過去画像データの付帯情報および現在画像データの付帯情報、そして陰影定義入力部4に入力される陰影の定義との組み合わせに応じて、差分処理部2から出力される差分画像データに付ける付帯情報を生成している。したがって、差分処理部2から出力される差分画像は、タグ生成部8により生成される付帯情報が付加された画像ファイルとして画像出力部5に出力される。
【0069】
第2の実施形態において、ルックアップテーブルLUT3がType Iに、ルックアップテーブルLUT4がType IIIに固定される場合を例に説明する。
【0070】
判定方法がタイプAに設定されている場合であって、過去画像および現在画像がネガ画像である場合には、制御部3によりルックアップテーブルLUT1、ルックアップテーブルLUT2にはともにTypeIがセットされる。したがって、ルックアップテーブルLUT1、ルックアップテーブルLUT2では、現在画像、過去画像ともに階調反転されることはない。TypeIに固定されるルックアップテーブルLUT3と、TypeIIIに固定されるルックアップテーブルLUT4とによって、現在画像に対して画像信号の符号反転が行われるので、加算部202では実質的にネガの過去画像からネガの現在画像が引き算される。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME II”を与えるように、タグ生成部8を制御する。
【0071】
したがって、DICOMフォーマットの画像を表示し得る表示装置においてこの差分画像を表示すると、陰影が増大した場合には差分画像上で低濃度な(黒い)領域として現れ、陰影が減少した場合には差分画像上で高濃度な(白い)領域として現れる。
【0072】
判定方法がタイプAに設定されている場合であって、過去画像がネガ画像、現在画像がポジ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2にはそれぞれTypeI、TypeIIがセットされる。
ルックアップテーブルLUT2にはTypeIIがセットされているため、現在画像は階調反転される。TypeIに固定されるルックアップテーブルLUT3と、TypeIIIに固定されるルックアップテーブルLUT4とによって、現在画像に対して画像信号の符号反転が行われるので、加算部202では実質的にネガの過去画像からネガの現在画像が引き算される。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME II”を与えるように、タグ生成部8を制御する。
【0073】
したがって、DICOMフォーマットの画像を表示し得る表示装置においてこの差分画像を表示すると、陰影が増大した場合には差分画像上で低濃度な(黒い)領域として現れ、陰影が減少した場合には差分画像上で高濃度な(白い)領域として現れる。
【0074】
判定方法がタイプAに設定されている場合であって、過去画像がポジ画像、現在画像がネガ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2にはそれぞれTypeII、TypeIがセットされる。
ルックアップテーブルLUT1にはTypeIIがセットされているため、過去画像は階調反転される。TypeIに固定されるルックアップテーブルLUT3と、TypeIIIに固定されるルックアップテーブルLUT4とによって現在画像に対して画像信号の符号反転が行われるので、加算部202では実質的にネガの過去画像からネガの現在画像が引き算される。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME II”を与えるように、タグ生成部8を制御する。
【0075】
したがって、DICOMフォーマットの画像を表示可能な表示装置でこの差分画像を表示すると、陰影が増大した場合には差分画像上で低濃度な(黒い)領域として現れ、陰影が減少した場合には差分画像上で高濃度な(白い)領域として現れる。
【0076】
一方、判定方法がタイプBに設定されている場合であって、過去画像がポジ画像、現在画像がネガ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2にはそれぞれTypeI、TypeIIがセットされる。ルックアップテーブルLUT2にはTypeIIがセットされているため、現在画像は階調反転される。TypeIに固定されるルックアップテーブルLUT3と、TypeIIIに固定されるルックアップテーブルLUT4とによって現在画像に対して画像信号の符号反転が行われるので、加算部202では実質的にポジの過去画像からポジの現在画像が引き算される。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME II”を与えるように、タグ生成部8を制御する。
【0077】
したがって、DICOMフォーマットの画像を表示し得る表示装置においてこの差分画像を表示すると、陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0078】
判定方法がタイプBに設定されている場合であって、過去画像がネガ画像、現在画像がポジ画像である場合には、ルックアップテーブルLUT1、ルックアップテーブルLUT2にはそれぞれTypeII、TypeIがセットされる。
TypeIに固定されるルックアップテーブルLUT3とTypeIIIに固定されるルックアップテーブルLUT4にて現在画像に対して画像信号の符号反転が行われるので、ネガ画像からポジ画像に階調反転された過去画像からポジ画像の現在画像を引き算することになる。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME II”を与えるように、タグ生成部8を制御する。
【0079】
したがって、DICOMフォーマットの画像を表示し得る表示装置においてこの差分画像を表示すると、陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0080】
同様に、判定方法がタイプBに設定されている場合、過去画像および現在画像がポジ画像であるときには、ルックアップテーブルLUT1、ルックアップテーブルLUT2にはともにTypeIがセットされる。TypeIに固定されるルックアップテーブルLUT3とTypeIIIに固定されるルックアップテーブルLUT4にて現在画像に対して画像信号の符号反転が行われるので、ポジ画像の過去画像からポジ画像の現在画像を引き算することになる。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME II”を与えるように、タグ生成部8を制御する。
【0081】
したがって、DICOMフォーマットの画像を表示し得る表示装置においてこの差分画像を表示すると、陰影が増大した場合には高濃度な(白い)領域として現れ、陰影が減少した場合には低濃度な(黒い)領域として現れる。
【0082】
判定方法がタイプAに設定されている場合、過去画像および現在画像がポジ画像であるときには、ルックアップテーブルLUT1、ルックアップテーブルLUT2ともにTypeIをセットされる。TypeIに固定されるルックアップテーブルLUT3とTypeIIIに固定されるルックアップテーブルLUT4にて現在画像に対して画像信号の符号反転が行われるので、加算部202では実質的にポジの過去画像からポジの現在画像が引き算される。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME I”を与えるように、タグ生成部8を制御する。
【0083】
Photometric Interpretationの値に“MONOCHROME I”が与えられることで、DICOMフォーマットの画像を表示可能な表示装置では階調反転された差分画像が表示される。
【0084】
したがって、DICOMフォーマットの画像を表示し得る表示装置においてこの差分画像を表示すると、陰影が増大した場合には差分画像上で低濃度な(黒い)領域として現れ、陰影が減少した場合には差分画像上で高濃度な(白い)領域として現れる。
【0085】
判定方法がタイプBに設定されている場合、過去画像および現在画像がネガ画像であるときには、ルックアップテーブルLUT1、ルックアップテーブルLUT2にはともにTypeIがセットされるので、ネガ画像の過去画像からネガ画像の現在画像が引き算される。制御部3はこの差分画像に対してPhotometric Interpretationの値に“MONOCHROME I”を与えるように、タグ生成部8を制御する。
【0086】
したがって、DICOMフォーマットの画像を表示し得る表示装置においてこの差分画像を表示すると、陰影が増大した場合には差分画像上で低濃度な(黒い)領域として現れ、陰影が減少した場合には差分画像上で高濃度な(白い)領域として現れる。
【0087】
本実施形態では、位置合わせ部201の出力を、固定のルックアップテーブルLUT3、LUT4で符号変換し、変換結果を加算部202にて加算する方法を説明したが、図10に示すように、位置合わせ部201の出力に対して過去画像から現在画像を減算処理する減算部205を設けても同様である。
【0088】
このように、本実施例は減算の順序を固定して、陰影定義入力部4から入力される陰影定義と過去画像および現在画像のポジ/ネガ情報に基づいて、差分画像に対して与えられるDICOMフォーマットのPhotometric Interpretationの値を変更することで、ポジ画像やネガ画像が混在する画像間の差分画像においても陰影の意味付けを統一することができる。
【0089】
尚、本発明は、以上の実施形態の画像処理装置以外の装置に適用可能であり、例えば複数の機器から構成されるシステム、あるいは1つの機器からなる装置に適用してもよい。
【0090】
また前記の実施形態の機能を任意の装置、システムによって実現する方法は本発明を構成し、このような方法を汎用コンピュータに実行させるソフトウエアのプログラムは本発明を構成する。
【0091】
さらに本発明は前記ソフトウエアのプログラムコードを記憶した記憶媒体をシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
【0092】
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0093】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
【0094】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0095】
更に、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0096】
【発明の効果】
本発明によれば、画像のポジ/ネガが統一されていない画像間から生成される差分画像ついて一貫性のある差分画像を生成でき、差分画像上の陰影の表示形態に一貫性のある差分画像を出力可能である。
【0097】
【図面の簡単な説明】
【図1】 第1の実施形態としての医用画像処理装置の構成を説明するブロック図である。
【図2】 第1の実施形態としての医用画像処理装置の内部構成を示すブロック図である。
【図3】第1の実施形態としての医用画像処理装置の機能構成を説明するブロック図である。
【図4】 ルックアップテーブルの特性を説明する図である。
【図5】 ルックアップテーブルの組み合わせを説明する図である。
【図6】 差分画像における陰影定義を説明する図である。
【図7】 位置合わせ部の動作を説明するフローチャートである。
【図8】 画像信号のプロファイル変化の説明図である。
【図9】 第2の実施形態としての医用画像処理装置の機能構成を説明するブロック図である。
【図10】 第2実施形態の変形例の機能構成を説明するブロック図である。
【図11】 差分画像を作成する際の画像信号のプロファイル変化を説明する図である。
【符号の説明】
1 画像入力部
2 差分処理部
3 制御部
4 陰影定義入力部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing device, an image processing method, a program, and a storage medium.
[0002]
[Prior art]
In recent years, in response to the international standard DICOM (digital information and communication in medicine) related to the digitization of medical images, the Japan Radiation Equipment Industry Association (JIRA) has established the MIPS (medical image processing system) standard in Japan. Digitization is in progress.
[0003]
In the field of medical images, the use of CAD (Computer Aided Diagnosis) that analyzes medical X-ray images, CT scan images, MRI images, etc. with a computer is progressing. A time-difference type CAD is attracting attention.
[0004]
For example, the time-difference CAD is obtained by inputting a film of a set of chest X-ray images taken at different points in time with a scanner to generate a digital image, performing image analysis, and analyzing each image anatomically. The same position is obtained, one of the current image and the past image is deformed, and the difference processing is performed for each pixel. In this specification, among images taken at different points in time, an image taken earlier in time is referred to as a past image, and an image taken more recently in time is referred to as a current image for convenience. To do.
[0005]
The density value of the difference image corresponds to the change in the image signal between the current and past images.
That is, when there is no change between the past image and the current image, the difference value is 0, but when any change occurs, a change in the luminance level corresponding to the change appears.
[0006]
FIG. 11 is a one-dimensional display of the past and present image signals and the difference image signals obtained thereby. If a signal representing a shadow appears in the portion of the past image shown in FIG. 6A that is a substantially flat profile, as shown by A in FIG. 4B, the difference between the current image and the past image is obtained. When an image is generated, a profile as shown in FIG.
[0007]
[Problems to be solved by the invention]
In a radiographic image, whether a large pixel value corresponds to high luminance or low luminance on display may differ depending on the image generation apparatus. For example, an apparatus that generates a digital image by directly or indirectly converting an X-ray transmitted through a subject into an electric signal, such as an FPD (Flat Panel Detector), which has been practically used in recent years, displays a large pixel value. Image data is generated as a positive image corresponding to high brightness. For this reason, for example, in the chest X-ray image, the value of the pixel corresponding to the lung field becomes large.
[0008]
On the other hand, since a normal radiographic image is observed as a negative image, the image data obtained by digitizing an X-ray film with a film scanner or the like has a smaller pixel value corresponding to the lung field.
[0009]
Therefore, when the difference process is performed by mixing the negative image and the positive image, the appearance of the shadow in the difference image is not unified, and it is extremely difficult to discriminate.
[0010]
The present invention provides a method and apparatus for generating a differential image that is consistent even when differential images are generated from images that are not unified in the positive / negative of the image. It is an object of the present invention to provide a method and an apparatus capable of outputting a difference image that is consistent in the display form.
[0011]
[Means for Solving the Problems]
According to the present invention, in an image processing apparatus that generates a difference image from a first image and a second image, an image attribute acquisition unit that acquires image attributes of the first image and the second image, and the first image And / or image processing means for performing predetermined image processing on the second image, shadow definition means for defining how to express a change in shadow in the difference image, and acquisition by the image attribute acquisition means The image processing means applies the first image and / or the second image to the first image and / or the second image according to the image attributes of the first image and the second image and the shadow definition defined by the shadow definition means. Control means for changing image processing to be performed, and calculation means for calculating a difference image from the first image and the second image processed by the image processing means. This makes it possible to generate a consistent differential image for differential images generated from images whose image positive / negative is not unified, and output a consistent differential image in the display form of the shadow on the differential image It is.
[0012]
Alternatively, the present invention provides an image attribute acquisition unit that acquires an image attribute of the first image and the second image in an image processing device that generates a difference image from the first image and the second image; A shadow defining means for defining how to express a change in shadow in the difference image, a first gradation inversion means for performing gradation inversion processing on the first image, and a second image A second gradation inversion unit for performing gradation inversion processing on the output, an arithmetic unit for calculating a difference image from the output of the first gradation inversion unit and the output of the second gradation inversion unit, and the image According to the image attribute of the first image and the second image acquired by the attribute acquisition means and the shadow definition defined by the shadow definition means, the first gradation inversion means and / or Gradation inversion processing by the second gradation inversion means Control means for controlling whether or not to perform.
[0013]
Alternatively, the present invention provides an image attribute acquisition unit that acquires an image attribute of the first image and the second image in an image processing device that generates a difference image from the first image and the second image; A shadow defining means for defining how to express a change in shadow in the difference image, a first gradation inversion means for performing gradation inversion processing on the first image, and a second image Second gradation inversion means for performing gradation inversion processing on the output, computing means for computing a difference image from the output of the first gradation inversion means and the output of the second gradation inversion means, and the difference In accordance with the image attribute information adding means for adding image attribute information to the image, the image attribute acquired by the image attribute acquisition means and the shadow definition defined by the shadow definition means, the first image and Image processing for the second image As well as change, and a control means for determining information to be added by the image attribute information adding unit.
[0014]
The present invention provides an image processing method for generating a difference image from a first image and a second image, an image attribute acquisition step of acquiring image attributes of the first image and the second image, and the first An image processing step for performing predetermined image processing on the image and / or the second image, a shadow definition step for defining how to express a change in shadow in the difference image, and the image attribute acquisition According to the image attributes of the first image and the second image acquired by the step and the shadow definition defined by the shadow definition step, the first image and / or Or a control step for changing image processing performed on the second image, and the first image and the second image processed by the image processing step. And a calculation step of calculating an amount image. This makes it possible to generate a consistent differential image for differential images generated from images whose image positive / negative is not unified, and output a consistent differential image in the display form of the shadow on the differential image It is.
[0015]
The image processing method according to the present invention may further include an image attribute information adding step for adding image attribute information to the difference image.
[0016]
In the image processing method according to the present invention, in the image processing step, gradation inversion image processing is performed on the first image and / or the second image, and the control step is performed by the image processing step. It may be configured to control whether or not to perform gradation inversion image processing on one image and / or the second image.
[0017]
In the image processing method according to the present invention, the image processing step performs sign-inversion image processing on the first image or the second image, and the control step performs the first image by the image processing step. Alternatively, it may be controlled whether or not to perform image inversion on the second image.
[0018]
In the image processing method according to the present invention, in the image processing step, gradation inversion image processing is performed on the first image and / or the second image, and the first image or the second image is processed. The image is subjected to sign inversion, and the control step controls whether the image processing step performs gradation inversion image processing on the first image and / or the second image, and Control may be made as to whether or not sign inversion is performed on the first image or the second image.
[0019]
In the image processing method according to the present invention, the first image and the second image are, for example, images obtained by photographing the same part of the human body at different times.
[0020]
In the image processing method according to the present invention, the shading definition step defines, for example, whether to express an increase or decrease in shading in the difference image as a high brightness area or a low brightness area.
[0021]
In the image processing method according to the present invention, the image attribute information adding step adds, for example, image attribute information representing the gradation of the difference image.
[0022]
The present invention relates to an image for acquiring image attributes of the first image and the second image in a computer-executable program for image processing for generating a difference image from the first image and the second image. An attribute acquisition step, an image processing step for performing predetermined image processing on the first image and / or the second image, and a shadow definition that defines how to express a change in shadow in the difference image In the image processing step according to the step, the image attributes of the first image and the second image acquired in the image attribute acquisition step, and the shadow definition defined in the shadow definition step. A control step of changing an image process performed on the image and / or the second image, the first image processed by the image processing step, and Having a program code for performing the serial second image and computing step of computing a difference image, to the computer.
[0023]
The storage medium according to the present invention stores the program and is readable by a computer.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
[First Embodiment]
In FIG. 1, a medical image processing apparatus 110 according to the first embodiment of the present invention is connected to medical image generation apparatuses 130, 140, 150 and a medical data server 160 via a local area network (LAN) 100. Yes. The medical image generation apparatuses 130 and 140 are, for example, CT scan apparatuses and MRI apparatuses, and the medical image generation apparatus 150 is, for example, an X-ray imaging apparatus.
[0025]
The medical images generated by the medical image generation apparatuses 130, 140, and 150 are directly transmitted to the medical image processing apparatus 110, or once stored in the medical data server 160 and then transmitted to the medical image processing apparatus 110. The medical image directly transmitted to the medical image processing apparatus 110 is stored in a storage medium of the medical image processing apparatus 110.
[0026]
The medical image processing apparatus 110 includes a high-definition monitor 120 for medical images, and can display medical images with high definition. In addition, a medical image processing apparatus 1800 provided with a cheaper PC monitor 170 can also be used.
[0027]
In FIG. 2, a medical image processing apparatus 110 is formed by connecting a CPU 210, a RAM 220, a ROM 230, a communication interface 240, and an input means 260 to a bus 200, and an output device such as a medical image high-definition monitor 120 or a printer 250 is suitable. It is connected to the bus 200 via an interface. The input means includes a keyboard, a pointing device, and the like.
[0028]
The CPU 210 is used to control the entire medical image processing apparatus 110 and the output apparatus, and the control program is stored in the ROM 230. The communication interface 240 controls communication via the LAN 100, and appropriately transmits and receives medical images and other data to and from the medical image generation apparatuses 130, 140, and 150 and the medical data server 160.
[0029]
FIG. 3 is a block diagram illustrating a functional configuration of the medical image processing apparatus, and FIG. 4 is a graph illustrating characteristics of a lookup table used in the medical image processing apparatus of FIG. FIG. 5 is a table showing combinations of lookup tables used in the medical image processing apparatus of FIG.
[0030]
In FIG. 3, a current image file and a past image file, which are a set of images obtained by photographing the same part of the human body at different times, are input to the image input unit 1 from the medical data server 160 via the local area network 100. . Here, each image file is composed of radiation image data and tag information for holding incidental information, and the incidental information includes information indicating whether the image data is a positive image or a negative image.
[0031]
Information indicating whether the image data is a positive image or a negative image is, for example, a DICOM format file, which is a standard medical image file. It is defined to indicate a positive image when “is.
[0032]
The image input unit 1 outputs the image data to the difference processing unit 2, extracts information indicating whether the past image and the current image output to the difference processing unit 2 are negative images or positive images, and sends them to the control unit 3. The determination signal S0 is input.
[0033]
On the other hand, the shadow definition input unit 4 inputs the correspondence between the shadow on the difference image and the determination criterion for diagnosis in response to an external input (not shown), for example, a direct instruction from a computer external storage device or user. The shadow definition specifies whether the lesion corresponds to a high density (high luminance level) or a low density (low luminance level) on the difference image with respect to the exacerbation or lightness of the lesion in image diagnosis.
[0034]
FIG. 6 is a diagram showing an example of shadow definition. In FIG. 6, type A expresses an increase in shadow as a low density (black) area and a decrease in shadow as a high density (white) area on the difference image. Defined. On the other hand, type B is defined to express an increase in shadow as a high density (white) area and a decrease in shadow as a low density (black) area on the difference image. Here, the low density or the high density represents a low value or a high value with respect to the reference level when the luminance level of a portion where no change occurs on the difference image is used as a reference.
[0035]
The difference processing unit 2 has lookup tables LUT1 and LUT2 into which past and current images are input from the image input unit 1, and necessary conversion processing is performed in these lookup tables LUT1 and LUT2. The outputs of the lookup tables LUT1 and LUT2 are input to the level correction unit 203, and the density of one image is shifted so that the histogram center of the previous or current image matches the histogram center of the other image. Thus, if alignment is performed using the level-corrected image, the alignment accuracy can be improved.
[0036]
The output of the level correction unit 203 is input to the alignment unit 20, and coordinate conversion is performed so that the coordinates of the corresponding pixels match.
[0037]
In the alignment unit 20, the following steps shown in the flowchart of FIG. 7 are executed in order to perform alignment so that the anatomical corresponding points coincide with the current and past images.
[0038]
Step S201: The position of the subject in the current and past images is detected, and the process proceeds to step S202.
[0039]
Step S202: A plurality of regions of interest ROI are set at substantially corresponding positions in the current and past images, and the process proceeds to step S203.
[0040]
Step S203: Perform matching processing of current and past images for each ROI. In the matching process, for example, a cross-correlation coefficient is calculated, and a position with the highest degree of matching is obtained as a shift vector.
[0041]
Step S204: The shift vector obtained in step S203 is two-dimensionally interpolated to calculate parameters for coordinate conversion for matching the corresponding coordinates of both images.
[0042]
Step S205: Coordinate-transform the current or past image based on the parameter obtained in step S204.
[0043]
Step S206: An image that has not undergone coordinate transformation and an image that has undergone coordinate transformation are output.
[0044]
Next, outputs corresponding to the past image and the current image of the alignment unit 20 are input to the lookup table LUT3 and the lookup table LUT4, respectively, and necessary conversion is performed.
[0045]
The outputs of the look-up table LUT3 and the look-up table LU4 are input to the adder 202, and addition for the difference is executed.
[0046]
A control unit 3 is connected to the lookup tables LUT1 to LUT4, and an image input unit 1 and a shadow definition input unit 4 are connected to the control unit 3. The control unit 3 receives a determination signal S0 indicating whether the past and current images are negative images or positive images from the image input unit 1, and whether the determination method is type A or type B from the shadow definition input unit 4. The information indicating whether or not it is input.
[0047]
The look-up table LUT1 and the look-up table LUT2 unify both images as negative or positive, and the look-up table LUT3 and the look-up table LUT4 code either one of the images so that the difference is executed by addition in the adder 202. Invert.
[0048]
The adding unit 202 generates a difference image and inputs it to the image output unit 5.
[0049]
The lookup table LUT1 to lookup table LUT4 can freely select three types of characteristics as shown in (a), (b), and (c) of FIG. 4A is a non-conversion lookup table (Type I) that outputs the input as it is, and FIG. 4B is a lookup table (Type II) that inverts the input (negative / positive conversion). FIG. 4C is a look-up table (Type III) for inverting the sign of the input.
[0050]
In Table A of FIG. 5, when the determination method is set to type A and the past image is a negative image and the current image is a positive image, look-up table LUT1, look-up table LUT2, look-up table Type I, Type II, Type I, and Type III are set in the up table LUT3 and the lookup table LUT4, respectively.
[0051]
How the image data of the past and current images changes will be described with reference to FIG. As shown in FIG. 8A, in this example, in the current image that is a positive image, there is a lesion shadow that did not exist in the past image of the negative image. When the determination method is type A, since Type II is set in the lookup table LUT2, the gradation of the current image is inverted, and the average value is corrected as shown in FIG. 8B.
[0052]
Further, when addition is performed after alignment, since the sign inversion is performed on the current image in the LUT 4, the data profile of the current image is as shown in FIG. 8C, and the difference is calculated by the addition. become.
[0053]
That is, the current image that has been tone-reversed from a positive image to a negative image is subtracted from the past image of the negative image, so that when the shadow increases on the difference image, it appears as a low density (black) region, and the shadow is When it decreases, it appears as a high density (white) area.
[0054]
When the determination method is set to type A and the past image and the current image are negative images, the lookup table LUT1, the lookup table LUT2, the lookup table LUT3, and the lookup table LUT4 Type I, Type I, Type I, and Type III are set, respectively. Therefore, in the look-up table LUT1 and the look-up table LUT2, the gradation of the current image and the past image is not reversed, and in the look-up table LUT3 and the look-up table LUT4, the sign of the image signal is reversed with respect to the current image. Therefore, the adding unit 202 substantially subtracts the current negative image from the negative past image, and as a result, when the shadow increases, it appears as a low density (black) area on the difference image, and the shadow decreases. In some cases, it appears as a high density (white) region on the difference image.
[0055]
When the determination method is set to type A and the past image is a positive image and the current image is a negative image, the lookup table LUT1, the lookup table LUT2, the lookup table LUT3, and the lookup table LUT4 Type II, Type I, Type I, and Type III are respectively set in. Therefore, after the gradation of the past image is inverted from the positive image to the negative image, the current image is subtracted. Therefore, on the difference image, when the shadow increases, it appears as a low density (black) area, and when the shadow decreases, it appears as a high density (white) area.
[0056]
When the determination method is set to type A and the past image and the current image are positive images, the lookup table LUT1, the lookup table LUT2, the lookup table LUT3, and the lookup table LUT4 Type I, Type I, Type III, and Type I are set, respectively. Therefore, since the past image of the positive image is subtracted from the current image of the positive image, when the shadow increases on the difference image, it appears as a low density (black) region, and when the shadow decreases, the high density ( Appears as white) area.
[0057]
When the past image and the current image are both negative images, a difference image is formed by subtracting the current image from the past image. When both the past image and the current image are positive images, the past image is obtained from the current image. By subtracting, a difference image is formed. In both cases, when the shadow increases on the difference image, it appears as a low density (black) area, and when the shadow decreases, the density is high (white ) Appears as a region.
[0058]
In Table B of FIG. 5, when the determination method is set to type B and the past image and the current image are negative images, look-up table LUT1, look-up table LUT2, look-up table LUT3 In the lookup table LUT4, TypeI, TypeI, TypeIII, and TypeI are set, respectively. Therefore, the past image of the negative image is subtracted from the current image of the negative image, and when the shadow increases on the difference image, it appears as a high density (white) region, and when the shadow decreases, the low density (black) ) Appears as a region.
[0059]
When the determination method is set to type B and the past image is a positive image and the current image is a negative image, the lookup table LUT1, the lookup table LUT2, the lookup table LUT3, and the lookup table Type I, Type II, Type I, and Type III are set in LUT4, respectively. Therefore, to subtract the current image that is tone-reversed from the negative image to the positive image from the past image of the positive image, if the shadow increases on the difference image, it appears as a high density (white) area and the shadow decreases In this case, it appears as a low density (black) area.
[0060]
When the determination method is set to type B and the past image is a negative image and the current image is a positive image, the lookup table LUT1, the lookup table LUT2, the lookup table LUT3, and the lookup table Type II, Type I, Type I, and Type III are set in LUT4, respectively. As a result, the current image of the positive image is subtracted from the past image that has been tone-reversed from the negative image to the positive image, and when the shadow increases on the difference image, it appears as a high density (white) region, When shading decreases, it appears as a low density (black) area.
[0061]
When the determination method is set to type B and the past image and the current image are positive images, the lookup table LUT1, the lookup table LUT2, the lookup table LUT3, and the lookup table LUT4 include Type I, Type I, Type I, and Type III are set, respectively. Therefore, the current image of the positive image is subtracted from the past image of the positive image.When the shadow increases on the difference image, it appears as a high density (white) area, and when the shadow decreases, the low density Appears as a black area.
[0062]
When the past image and the current image are both negative images, a difference image is formed by subtracting the past image from the current image. When both the past image and the current image are positive images, the current image is obtained from the past image. By subtracting, when the shadow increases on the difference image, it appears as a high density (white) area, and when the shadow decreases, it appears as a low density (black) area.
[0063]
As described above, according to the present embodiment, an increase and a decrease in shadow can be expressed in a predetermined form regardless of the combination of the attributes of the current and past images.
[0064]
[Second Embodiment]
In a display device capable of displaying a DICOM format image, gradation inversion is displayed for image data having a Photometric Interpretation value of “MONOCHROME I”, and gradation inversion is displayed for image data having a Photometric Interpretation value of “MONOCHROME II”. It is supposed to be displayed as it is without.
[0065]
In the medical image processing apparatus shown in the first embodiment, when the past image and the current image have the same image characteristics, the order of subtraction is changed by changing the image to be subjected to the sign inversion of the image signal. In the embodiment, a similar result is obtained by fixing the order of subtraction and changing the value of Photometric Interpretation given to the difference image.
[0066]
FIG. 9 is a block diagram illustrating a functional configuration of a medical image processing apparatus according to the second embodiment of the present invention. Since the configuration of the medical image processing apparatus is the same as that shown in FIGS. 1 and 2, the description thereof is omitted.
[0067]
In FIG. 7, the same parts as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted. The look-up table LUT3 and the look-up table LUT4 included in the difference processing unit 2 are not changed in characteristic by the control unit 3, and are set invariable. The tag generation unit 8 generates incidental information attached to the difference image data output from the difference processing unit 2. The accompanying information includes tag information indicating whether the difference image data output from the difference processing unit 2 is a positive image or a negative image.
[0068]
In the tag generation unit 8, a difference processing unit according to a combination of the incidental information of the past image data and the incidental information of the current image data input from the image input unit 1 and the shadow definition input to the shadow definition input unit 4. Attached information attached to the difference image data output from 2 is generated. Therefore, the difference image output from the difference processing unit 2 is output to the image output unit 5 as an image file to which additional information generated by the tag generation unit 8 is added.
[0069]
In the second embodiment, a case where the lookup table LUT3 is fixed to Type I and the lookup table LUT4 is fixed to Type III will be described as an example.
[0070]
When the determination method is set to type A and the past image and the current image are negative images, Type I is set in the lookup table LUT1 and the lookup table LUT2 by the control unit 3. . Therefore, in the look-up table LUT1 and the look-up table LUT2, neither the current image nor the past image is inverted in gradation. The sign of the image signal is inverted with respect to the current image by the look-up table LUT3 fixed to Type I and the look-up table LUT4 fixed to Type III. The current image of the negative is subtracted. The control unit 3 controls the tag generation unit 8 to give “MONOCHROME II” to the value of Photometric Interpretation for this difference image.
[0071]
Therefore, when this difference image is displayed on a display device capable of displaying an image in the DICOM format, when the shadow increases, it appears as a low density (black) region on the difference image, and when the shadow decreases, the difference image Appears as a high density (white) area above.
[0072]
When the determination method is set to type A and the past image is a negative image and the current image is a positive image, Type I and Type II are set in the lookup table LUT1 and the lookup table LUT2, respectively. The
Since Type II is set in the lookup table LUT2, the gradation of the current image is inverted. The sign of the image signal is inverted with respect to the current image by the look-up table LUT3 fixed to Type I and the look-up table LUT4 fixed to Type III. The current image of the negative is subtracted. The control unit 3 controls the tag generation unit 8 to give “MONOCHROME II” to the value of Photometric Interpretation for this difference image.
[0073]
Therefore, when this difference image is displayed on a display device capable of displaying an image in the DICOM format, when the shadow increases, it appears as a low density (black) region on the difference image, and when the shadow decreases, the difference image Appears as a high density (white) area above.
[0074]
When the determination method is set to type A and the past image is a positive image and the current image is a negative image, Type II and Type I are set in the lookup table LUT1 and the lookup table LUT2, respectively. The
Since Type II is set in the lookup table LUT1, the gradation of the past image is inverted. The sign of the image signal is inverted with respect to the current image by the look-up table LUT3 fixed to Type I and the look-up table LUT4 fixed to Type III. The current image of is subtracted. The control unit 3 controls the tag generation unit 8 to give “MONOCHROME II” to the value of Photometric Interpretation for this difference image.
[0075]
Therefore, when this difference image is displayed on a display device capable of displaying an image in DICOM format, when the shadow increases, it appears as a low density (black) region on the difference image, and when the shadow decreases, the difference image Appears as a high density (white) area above.
[0076]
On the other hand, when the determination method is set to type B and the past image is a positive image and the current image is a negative image, Type I and Type II are stored in the lookup table LUT1 and the lookup table LUT2, respectively. Set. Since Type II is set in the lookup table LUT2, the gradation of the current image is inverted. Since the sign of the image signal is inverted with respect to the current image by the look-up table LUT3 fixed to Type I and the look-up table LUT4 fixed to Type III, the adder 202 converts the positive image from the positive past image. The current image of is subtracted. The control unit 3 controls the tag generation unit 8 to give “MONOCHROME II” to the value of Photometric Interpretation for this difference image.
[0077]
Therefore, when this difference image is displayed on a display device capable of displaying an image in DICOM format, it appears as a high density (white) area when the shadow increases, and when the shadow decreases, the density is low (black). Appears as an area.
[0078]
When the determination method is set to type B and the past image is a negative image and the current image is a positive image, Type II and Type I are set in the lookup table LUT1 and the lookup table LUT2, respectively. The
Since the sign inversion of the image signal is performed on the current image in the look-up table LUT3 fixed to Type I and the look-up table LUT4 fixed to Type III, from the past image in which the tone is inverted from the negative image to the positive image The current image of the positive image is subtracted. The control unit 3 controls the tag generation unit 8 to give “MONOCHROME II” to the value of Photometric Interpretation for this difference image.
[0079]
Therefore, when this difference image is displayed on a display device capable of displaying an image in DICOM format, it appears as a high density (white) area when the shadow increases, and when the shadow decreases, the density is low (black). Appears as an area.
[0080]
Similarly, when the determination method is set to type B, when the past image and the current image are positive images, Type I is set in both the lookup table LUT1 and the lookup table LUT2. The sign of the image signal is inverted with respect to the current image in the lookup table LUT3 fixed to Type I and the lookup table LUT4 fixed to Type III, so the current image of the positive image is subtracted from the past image of the positive image. It will be. The control unit 3 controls the tag generation unit 8 to give “MONOCHROME II” to the value of Photometric Interpretation for this difference image.
[0081]
Therefore, when this difference image is displayed on a display device capable of displaying an image in DICOM format, it appears as a high density (white) area when the shadow increases, and when the shadow decreases, the density is low (black). Appears as an area.
[0082]
When the determination method is set to type A, when the past image and the current image are positive images, Type I is set for both lookup table LUT1 and lookup table LUT2. Since the sign inversion of the image signal is performed on the current image in the lookup table LUT3 fixed to Type I and the lookup table LUT4 fixed to Type III, the adder 202 substantially changes the positive image from the positive past image. The current image is subtracted. The control unit 3 controls the tag generation unit 8 so as to give “MONOCHROME I” to the value of Photometric Interpretation for this difference image.
[0083]
By giving “MONOCHROME I” to the value of Photometric Interpretation, a display device capable of displaying an image in DICOM format displays a difference image with gradation reversed.
[0084]
Therefore, when this difference image is displayed on a display device capable of displaying an image in the DICOM format, when the shadow increases, it appears as a low density (black) region on the difference image, and when the shadow decreases, the difference image Appears as a high density (white) area above.
[0085]
When the determination method is set to type B and Type I is set in both the look-up table LUT1 and the look-up table LUT2 when the past image and the current image are negative images, the negative image is changed from the past image of the negative image. The current image of the image is subtracted. The control unit 3 controls the tag generation unit 8 so as to give “MONOCHROME I” to the value of Photometric Interpretation for this difference image.
[0086]
Therefore, when this difference image is displayed on a display device capable of displaying an image in the DICOM format, when the shadow increases, it appears as a low density (black) region on the difference image, and when the shadow decreases, the difference image Appears as a high density (white) area above.
[0087]
In the present embodiment, a method has been described in which the output of the alignment unit 201 is subjected to code conversion using the fixed lookup tables LUT3 and LUT4, and the conversion result is added by the addition unit 202. However, as illustrated in FIG. The same applies to a subtracting unit 205 that subtracts the current image from the past image with respect to the output of the combining unit 201.
[0088]
As described above, in this embodiment, the subtraction order is fixed, and DICOM given to the difference image based on the shadow definition input from the shadow definition input unit 4 and the positive / negative information of the past image and the current image. By changing the value of Photometric Interpretation in the format, it is possible to unify the meaning of shadows even in a difference image between images in which a positive image and a negative image are mixed.
[0089]
The present invention can be applied to apparatuses other than the image processing apparatus of the above-described embodiment, and may be applied to, for example, a system composed of a plurality of devices or an apparatus composed of one device.
[0090]
A method for realizing the functions of the above-described embodiments by an arbitrary apparatus or system constitutes the present invention, and a software program that causes a general-purpose computer to execute such a method constitutes the present invention.
[0091]
Furthermore, the present invention supplies a storage medium storing the program code of the software to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. But it goes without saying that this is achieved.
[0092]
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
[0093]
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0094]
Further, by executing the program code read out by the computer, not only the functions of the above-described embodiments are realized, but also the OS operating on the computer based on the instruction of the program code performs the actual processing. Needless to say, a case where the function of the above-described embodiment is realized by performing part or all of the processing is also included.
[0095]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0096]
【The invention's effect】
According to the present invention, it is possible to generate a consistent difference image for a difference image generated from images whose image positive / negative is not unified, and a difference image having a consistent shade display form on the difference image. Can be output.
[0097]
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a medical image processing apparatus as a first embodiment.
FIG. 2 is a block diagram showing an internal configuration of the medical image processing apparatus as the first embodiment.
FIG. 3 is a block diagram illustrating a functional configuration of the medical image processing apparatus according to the first embodiment.
FIG. 4 is a diagram illustrating characteristics of a lookup table.
FIG. 5 is a diagram illustrating combinations of lookup tables.
FIG. 6 is a diagram illustrating shadow definition in a difference image.
FIG. 7 is a flowchart illustrating the operation of the alignment unit.
FIG. 8 is an explanatory diagram of a profile change of an image signal.
FIG. 9 is a block diagram illustrating a functional configuration of a medical image processing apparatus as a second embodiment.
FIG. 10 is a block diagram illustrating a functional configuration of a modified example of the second embodiment.
FIG. 11 is a diagram for explaining a profile change of an image signal when a difference image is created.
[Explanation of symbols]
1 Image input section
2 Difference processing part
3 Control unit
4 Shadow definition input part

Claims (13)

第1の画像と第2の画像から差分画像を生成する画像処理装置において、
第1の画像および第2の画像の画像属性を取得する画像属性取得手段と、
前記第1の画像および/または前記第2の画像に対して所定の画像処理を行う画像処理手段と、
差分画像における陰影の変化をどのように表現するかを定義する陰影定義手段と、
前記画像属性取得手段によって取得された第1の画像および第2の画像の画像属性と前記陰影定義手段によって定義された陰影定義に応じて、前記画像処理手段が前記第1の画像および/または前記第2の画像に対して行う画像処理を変更する制御手段と、
前記画像処理手段により処理された前記第1の画像および前記第2の画像から差分画像を演算する演算手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus that generates a difference image from a first image and a second image,
Image attribute acquisition means for acquiring image attributes of the first image and the second image;
Image processing means for performing predetermined image processing on the first image and / or the second image;
A shadow definition means for defining how to express a change in shadow in the difference image;
In accordance with the image attributes of the first image and the second image acquired by the image attribute acquisition unit and the shadow definition defined by the shadow definition unit, the image processing unit performs the first image and / or the Control means for changing image processing performed on the second image;
Computing means for computing a difference image from the first image and the second image processed by the image processing means;
An image processing apparatus comprising:
第1の画像と第2の画像から差分画像を生成する画像処理装置において、
前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得手段と、
前記差分画像における陰影の変化をどのように表現するかを定義する陰影定義手段と、
前記第1の画像に対して階調反転処理を行う第1の階調反転手段と、
前記第2の画像に対して階調反転処理を行う第2の階調反転手段と、
前記第1の階調反転手段の出力と前記第2の階調反転手段の出力から差分画像を演算する演算手段と、
前記画像属性取得手段によって取得された前記第1の画像および前記第2の画像の前記画像属性と前記陰影定義手段にて定義された前記陰影定義に応じて、
前記第1の階調反転手段および/または前記第2の階調反転手段にて階調反転処理を行うか否かを制御する制御手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus that generates a difference image from a first image and a second image,
Image attribute acquisition means for acquiring image attributes of the first image and the second image;
A shadow defining means for defining how to represent a change in shadow in the difference image;
First gradation inversion means for performing gradation inversion processing on the first image;
Second gradation inversion means for performing gradation inversion processing on the second image;
Computing means for computing a difference image from the output of the first gradation inversion means and the output of the second gradation inversion means;
According to the image attributes of the first image and the second image acquired by the image attribute acquisition means and the shadow definition defined by the shadow definition means,
Control means for controlling whether or not gradation inversion processing is performed in the first gradation inversion means and / or the second gradation inversion means;
An image processing apparatus comprising:
第1の画像と第2の画像から差分画像を生成する画像処理装置において、
前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得手段と、
前記差分画像における陰影の変化をどのように表現するかを定義する陰影定義手段と、
前記第1の画像に対して階調反転処理を行う第1の階調反転手段と、
前記第2の画像に対して階調反転処理を行う第2の階調反転手段と、
前記第1の階調反転手段の出力と前記第2の階調反転手段の出力から差分画像を演算する演算手段と、
前記差分画像に画像属性情報を付加する画像属性情報付加手段と
前記画像属性取得手段によって取得された前記画像属性と前記陰影定義手段にて定義された前記陰影定義に応じて、前記第1の画像および前記第2の画像に対する画像処理を変更するとともに、前記画像属性情報付加手段にて付加される情報を決定する制御手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus that generates a difference image from a first image and a second image,
Image attribute acquisition means for acquiring image attributes of the first image and the second image;
A shadow defining means for defining how to represent a change in shadow in the difference image;
First gradation inversion means for performing gradation inversion processing on the first image;
Second gradation inversion means for performing gradation inversion processing on the second image;
Computing means for computing a difference image from the output of the first gradation inversion means and the output of the second gradation inversion means;
According to the image attribute information adding means for adding image attribute information to the difference image and the image attribute acquired by the image attribute acquisition means and the shadow definition defined by the shadow definition means, the first image And control means for changing the image processing for the second image and determining information added by the image attribute information adding means,
An image processing apparatus comprising:
第1の画像と第2の画像から差分画像を生成する画像処理方法において、
前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得ステップと、
前記第1の画像および/または前記第2の画像に対して所定の画像処理を行う画像処理ステップと、
前記差分画像における陰影の変化をどのように表現するかを定義する陰影定義ステップと、
前記画像属性取得ステップによって取得された前記第1の画像および前記第2の画像の前記画像属性と、前記陰影定義ステップによって定義された前記陰影定義に応じて、前記画像処理ステップで、前記第1の画像および/または前記第2の画像に対して行う画像処理を変更する制御ステップと、
前記画像処理ステップによって処理された前記第1の画像および前記第2の画像から差分画像を演算する演算ステップと、
を有する画像処理方法。
In an image processing method for generating a difference image from a first image and a second image,
An image attribute acquisition step of acquiring image attributes of the first image and the second image;
An image processing step for performing predetermined image processing on the first image and / or the second image;
A shadow definition step for defining how to express a change in shadow in the difference image;
According to the image attributes of the first image and the second image acquired by the image attribute acquisition step and the shadow definition defined by the shadow definition step, the image processing step includes the first image processing step. A control step of changing image processing performed on the image and / or the second image;
A calculation step of calculating a difference image from the first image and the second image processed by the image processing step;
An image processing method.
前記差分画像に画像属性情報を付加する画像属性情報付加ステップをさらに有することを特徴とする請求項4記載の画像処理方法。The image processing method according to claim 4, further comprising an image attribute information adding step of adding image attribute information to the difference image. 前記画像処理ステップは前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行い、前記制御ステップは前記画像処理ステップによって前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行うか否かを制御することを特徴とする請求項4または5に記載の画像処理方法。In the image processing step, gradation inversion image processing is performed on the first image and / or the second image, and the control step includes the first image and / or the second image by the image processing step. 6. The image processing method according to claim 4, further comprising: controlling whether or not to perform tone reversal image processing on the image. 前記画像処理ステップは前記第1の画像または前記第2の画像に対して符号反転の画像処理を行い、前記制御ステップは前記画像処理ステップによって前記第1の画像または前記第2の画像に対して符号反転の画像処理を行うか否かを制御することを特徴とする請求項4または5に記載の画像処理方法。In the image processing step, sign inversion image processing is performed on the first image or the second image, and the control step is performed on the first image or the second image by the image processing step. 6. The image processing method according to claim 4, wherein whether or not to perform image processing for sign inversion is controlled. 前記画像処理ステップは前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行うとともに、前記第1の画像または前記第2の画像に対して符号反転を行い、前記制御ステップは前記画像処理ステップによって前記第1の画像および/または前記第2の画像に対して階調反転の画像処理を行うか否かを制御するとともに、前記第1の画像または前記第2の画像に対して符号反転を行うか否かを制御することを特徴とする請求項4または5に記載の画像処理方法。The image processing step performs gradation inversion image processing on the first image and / or the second image, and performs sign inversion on the first image or the second image, The control step controls whether or not gradation-inversion image processing is performed on the first image and / or the second image by the image processing step, and the first image or the second image is processed. 6. The image processing method according to claim 4 or 5, wherein whether or not the sign inversion is performed is controlled. 前記第1の画像および前記第2の画像は人体の同一部位を異なる時期に撮影した画像であることを特徴とする請求項4ないし8のいずれか1に記載の画像処理方法。9. The image processing method according to claim 4, wherein the first image and the second image are images obtained by photographing the same part of the human body at different times. 前記陰影定義ステップは前記差分画像における陰影の増大または減少を高輝度な領域として表現するか、低輝度な領域として表現するかを定義することを特徴とする請求項4ないし9のいずれか1に記載の画像処理方法。10. The method according to claim 4, wherein the shading definition step defines whether to express an increase or decrease in shading in the difference image as a high brightness area or a low brightness area. The image processing method as described. 前記画像属性情報付加ステップは差分画像の階調を表す画像属性情報を付加することを特徴とする請求項4ないし8のいずれか1に記載の画像処理方法。9. The image processing method according to claim 4, wherein the image attribute information adding step adds image attribute information representing a gradation of a difference image. 第1の画像と第2の画像から差分画像を生成する画像処理のためのコンピュータが実行可能なプログラムにおいて、
前記第1の画像および前記第2の画像の画像属性を取得する画像属性取得ステップと、
前記第1の画像および/または前記第2の画像に対して所定の画像処理を行う画像処理ステップと、
差分画像における陰影の変化をどのように表現するかを定義する陰影定義ステップと、
前記画像属性取得ステップによって取得された第1の画像および第2の画像の画像属性と、前記陰影定義ステップによって定義された陰影定義に応じて、前記画像処理ステップで、前記第1の画像および/または前記第2の画像に対して行う画像処理を変更する制御ステップと、
前記画像処理ステップによって処理された前記第1の画像および前記第2の画像から差分画像を演算する演算ステップと、
をコンピュータに実行させるためのプログラムコードを有する、コンピュータが実行可能なプログラム。
In a computer-executable program for image processing for generating a difference image from a first image and a second image,
An image attribute acquisition step of acquiring image attributes of the first image and the second image;
An image processing step for performing predetermined image processing on the first image and / or the second image;
A shadow definition step for defining how to express a change in shadow in the difference image;
According to the image attributes of the first image and the second image acquired by the image attribute acquisition step and the shadow definition defined by the shadow definition step, the first image and / or the image processing step Or a control step for changing image processing to be performed on the second image;
A calculation step of calculating a difference image from the first image and the second image processed by the image processing step;
A computer-executable program having program code for causing a computer to execute the program.
請求項12に記載のプログラムが格納されたコンピュータ読取可能な記憶媒体。A computer-readable storage medium in which the program according to claim 12 is stored.
JP2002309841A 2002-10-24 2002-10-24 Image processing apparatus, image processing method, program, and storage medium Expired - Lifetime JP3793137B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002309841A JP3793137B2 (en) 2002-10-24 2002-10-24 Image processing apparatus, image processing method, program, and storage medium
US10/677,377 US7403646B2 (en) 2002-10-24 2003-10-03 Image processing apparatus, image processing method, program, and recording medium for generating a difference image from a first radiographic image and second radiographic image
CNB2003101018998A CN1259890C (en) 2002-10-24 2003-10-23 Image processing device, image processing method, program and recording medium
US11/623,565 US7447346B2 (en) 2002-10-24 2007-01-16 Image processing apparatus and image processing method capable of displaying a difference image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002309841A JP3793137B2 (en) 2002-10-24 2002-10-24 Image processing apparatus, image processing method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2004147084A JP2004147084A (en) 2004-05-20
JP3793137B2 true JP3793137B2 (en) 2006-07-05

Family

ID=32455534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002309841A Expired - Lifetime JP3793137B2 (en) 2002-10-24 2002-10-24 Image processing apparatus, image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP3793137B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7912268B2 (en) * 2004-06-14 2011-03-22 Canon Kabushiki Kaisha Image processing device and method
JP2006026396A (en) * 2004-06-14 2006-02-02 Canon Inc Image processing system and method, control program, and storage medium
KR20070032992A (en) * 2004-07-13 2007-03-23 코닌클리케 필립스 일렉트로닉스 엔.브이. Standardized digital image viewing with ambient light control
EP1844711B1 (en) * 2005-01-31 2012-05-02 Konica Minolta Medical & Graphic, Inc. Radiation image detecting device and radiation image capturing system
US7652262B2 (en) 2005-01-31 2010-01-26 Konica Minolta Medical & Graphic, Inc. Radiographic image detecting apparatus and radiographic imaging system
DE102006014625B3 (en) * 2006-03-29 2007-10-25 Siemens Ag Method for reducing step artifacts in a cardiac CT display and associated storage medium
JP2014146187A (en) * 2013-01-29 2014-08-14 Canon Inc Image processor, print processor and image processing method
JP2019088577A (en) * 2017-11-15 2019-06-13 キヤノン株式会社 Information processing device, information processing system, information processing method, and program
JP6962165B2 (en) * 2017-12-11 2021-11-05 株式会社島津製作所 X-ray fluoroscopy equipment
JPWO2021060358A1 (en) * 2019-09-26 2021-04-01

Also Published As

Publication number Publication date
JP2004147084A (en) 2004-05-20

Similar Documents

Publication Publication Date Title
US7403646B2 (en) Image processing apparatus, image processing method, program, and recording medium for generating a difference image from a first radiographic image and second radiographic image
JP3880553B2 (en) Image processing method and apparatus
US9189715B2 (en) Image forming apparatus that prints out multi-gradation monochrome image maintaining gradation reproducibility, and image forming method
JP3793137B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5870598B2 (en) Image white balance processing method and apparatus
US11406340B2 (en) Method for converting tone of chest X-ray image, storage medium, image tone conversion apparatus, server apparatus, and conversion method
JP2002010139A (en) Method for automatically deciding tone scale parameter of digital picture
JP2005109790A (en) Medical image processing apparatus
JP2008072604A (en) Image processing system, apparatus, medium, and program
JP2004362443A (en) Parameter determination system
JP5826980B1 (en) Image processing apparatus and image processing method
JP2018524071A (en) Selection of transfer function for displaying medical images
JP4447850B2 (en) Image processing apparatus, image processing method, and computer program
JP7119974B2 (en) Medical image display device and medical image display system
JP2009231879A (en) Image processing unit and image processing method
JP2005176304A (en) Image processing method and apparatus
JP2004080100A (en) Method and apparatus for creating color conversion table, method and apparatus for converting colors, and imaging apparatus
JP2005027168A (en) Image processor and image processing method
US11363245B2 (en) Image processing device, image processing method, and image processing program
JP2003198940A (en) Medical picture processing device, picture processing method, program, and storage medium
JP2007158446A (en) Image processor, image processing method and program, recording medium
JP2020088709A (en) Image processing apparatus, image processing method and program
JP3066919B2 (en) Image processing method and system using the same
JP7329964B2 (en) Image processing device, image processing method and program
JP2006167187A (en) Medical image display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060406

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3793137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120414

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140414

Year of fee payment: 8

EXPY Cancellation because of completion of term