JP4408863B2 - Medical image processing apparatus and method - Google Patents

Medical image processing apparatus and method Download PDF

Info

Publication number
JP4408863B2
JP4408863B2 JP2005512118A JP2005512118A JP4408863B2 JP 4408863 B2 JP4408863 B2 JP 4408863B2 JP 2005512118 A JP2005512118 A JP 2005512118A JP 2005512118 A JP2005512118 A JP 2005512118A JP 4408863 B2 JP4408863 B2 JP 4408863B2
Authority
JP
Japan
Prior art keywords
image
value
density
local
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005512118A
Other languages
Japanese (ja)
Other versions
JPWO2005009242A1 (en
Inventor
良洋 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Publication of JPWO2005009242A1 publication Critical patent/JPWO2005009242A1/en
Application granted granted Critical
Publication of JP4408863B2 publication Critical patent/JP4408863B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Description

本発明は、医用画像処理装置及び方法に係り、特に医用画像から陰影強調画像や差分画像を作成する医用画像処理装置及び方法に関する。   The present invention relates to a medical image processing apparatus and method, and more particularly to a medical image processing apparatus and method for creating a shadow enhanced image and a difference image from a medical image.

近年、医用画像撮影装置で得られた医用画像が多量になり、多量な医用画像に対し読影の効率化が求められている。そこで、医用画像の中からがん陰影等の患部を見つけやすくするために、画像間の差分処理により陰影を強調することが行われている。具体的には、過去に撮影された画像(以下、過去画像という)にがん陰影がなく、その後撮影された画像(以下、当日画像という)にがん陰影がある場合、例えば、特開平9−6870号に開示された異常陰影自動検出装置では、被検体の同位置に対応する当日画像と過去画像の画素同士での引き算を行った差分画像より真の異常陰影を抽出している。   In recent years, a large amount of medical images are obtained by a medical image photographing apparatus, and there is a demand for efficient interpretation of a large amount of medical images. Therefore, in order to make it easier to find an affected area such as a cancer shadow from a medical image, the shadow is enhanced by a difference process between images. Specifically, when there is no cancer shadow in an image captured in the past (hereinafter referred to as a past image) and there is a cancer shadow in an image captured thereafter (hereinafter referred to as an image on the day), for example, In the abnormal shadow automatic detection device disclosed in Japanese Patent No. 6870, a true abnormal shadow is extracted from a difference image obtained by subtracting pixels of a current image and a past image corresponding to the same position of the subject.

ところが、上述のような異常陰影自動検出装置では、当日画像と過去画像の対応する画素同士で引き算をしているため、位置合わせが十分でない場合は引き算の結果に偽陽性陰影(本物の陰影でない部分;擬似陰影)が生じることになる。   However, in the above-described abnormal shadow automatic detection device, since subtraction is performed between corresponding pixels of the current day image and the past image, if the alignment is not sufficient, a false positive shadow (not a real shadow) is included in the subtraction result. (Part; pseudo-shade) will occur.

しかし、このような場合の対応について上述の異常陰影自動検出装置では一切言及していない。   However, the above-described abnormal shadow automatic detection device makes no mention of such a case.

本発明の医用画像処理装置は、医用画像診断装置によって撮影された被検者の所定部位を第一の医用画像として記憶する第一の記憶手段と、前記第一の記憶手段に記憶された第一の画像が撮影された日時と異なる前記同一被検者でかつ同一部位の第二の医用画像を記憶する第二の記憶手段と、前記第一の記憶手段によって記憶された第一の医用画像に少なくとも一つの画素を要素とする複数の第一の局所領域を設定する第一の設定手段と、前記第一の設定手段によって設定された複数の第一の局所領域のそれぞれに対応し、それらの第一の局所領域以上の広さを有する複数の第二の局所領域を前記第二の記憶手段に記憶された第二の画像に設定する第二の設定手段と、前記第二の設定手段によって設定された複数の第二の局所領域毎に濃度値の基準値を算出する基準値算出手段と、前記基準値算出手段によって算出された基準値と、前記第一の設定手段によって設定された複数の第一の局所領域の各画素の濃度値とに基づいて前記第一の局所領域毎に強調画像を作成する画像作成手段と、前記画像作成手段によって作成された強調画像を表示する表示手段と、を備え、前記基準値算出手段によって算出される基準値は、前記第二の設定手段によって設定された第二の局所領域毎の局所最大値、局所平均値、局所メジアンの少なくとも一つ又はそれらの定数倍であり、前記基準値算出手段は、前記第二の設定手段によって設定された第二の局所領域の濃度勾配最大方向を算出する方向算出手段を更に備え、前記基準値算出手段は、前記方向算出手段によって算出された濃度勾配最大方向に沿った画素値から濃度値の最大値、その最大値を定数倍した値、前記最大値に濃度値の関数を乗じた値、前記最大値に濃度分布の近似関数を乗じた値、前記最大値を定数倍に前記第一の画像の濃度勾配最大方向と前記第二の画像の濃度勾配最大方向との成す角度の関数を乗じた値、濃度値が最大値となる画素近傍での濃度値の平均値のうちの何れか一つの値を用いて前記局所最大値を算出することを特徴とする。 The medical image processing apparatus of the present invention includes a first storage means for storing a predetermined part of a subject imaged by the medical image diagnostic apparatus as a first medical image, and a first storage means stored in the first storage means. Second storage means for storing a second medical image of the same subject and different from the date and time when one image was taken, and a first medical image stored by the first storage means A first setting means for setting a plurality of first local regions having at least one pixel as an element, and a plurality of first local regions set by the first setting means, Second setting means for setting a plurality of second local areas having a width equal to or larger than the first local area in the second image stored in the second storage means, and the second setting means Concentration value for each of a plurality of second local areas set by Based on a reference value calculating means for calculating a reference value, a reference value calculated by the reference value calculating means, and a density value of each pixel in a plurality of first local areas set by the first setting means A reference value calculated by the reference value calculation means, and an image creation means for creating an emphasized image for each of the first local regions; Is at least one of a local maximum value, a local average value, and a local median for each second local region set by the second setting means, or a constant multiple thereof, and the reference value calculating means Direction calculating means for calculating the maximum concentration gradient direction of the second local region set by the second setting means, wherein the reference value calculating means calculates the maximum concentration gradient calculated by the direction calculating means. The maximum value of the density value from the pixel value along the line, a value obtained by multiplying the maximum value by a constant, a value obtained by multiplying the maximum value by a function of the density value, a value obtained by multiplying the maximum value by an approximation function of the density distribution, and the maximum A value obtained by multiplying the value by a constant and a function of an angle formed by the density gradient maximum direction of the first image and the density gradient maximum direction of the second image, and a density value in the vicinity of the pixel where the density value is the maximum value The local maximum value is calculated using any one of the average values.

ここでいう基準値とは、局所最大値、局所平均値、局所メジアン、前記局所最大値又は局所平均値の定数倍、濃度勾配を求めてその濃度勾配に関する値などを医用画像の特質に応じて採用可能である。例えば、最大値の採用は最も簡易で実効のある値であり、平均値又はメジアンの採用は画像のノイズ成分を最大値よりも抑制し、濃度勾配を用いれば隣接画素や近隣画素の値が急激に変化する場合に対応できる。   The reference value here refers to a local maximum value, a local average value, a local median, a constant multiple of the local maximum value or the local average value, a value related to the concentration gradient, and a value related to the concentration gradient according to the characteristics of the medical image. It can be adopted. For example, the adoption of the maximum value is the simplest and most effective value, and the adoption of the average value or median suppresses the noise component of the image from the maximum value, and if the density gradient is used, the values of adjacent pixels and neighboring pixels are rapidly increased. It can cope with the case of changing to.

また、前記強調画像は、前記基準値と前記第一の局所領域の各画素の濃度値との差分値を計算し、該計算された差分値に基づいて前記画像作成手段によって作成されることが最も望ましいが、がん陰影だけを強調する機能を発揮できれば、加算、乗算、除算、などあらゆる計算で行うことも含まれる。   Further, the enhanced image may be created by the image creating means based on the difference value between the reference value and the density value of each pixel in the first local region. Although most desirable, it can be performed by any calculation such as addition, multiplication, division, etc. as long as it can function to emphasize only the cancer shadow.

本発明に係る医用画像処理装置によれば、当日画像と過去画像とに位置ずれが生じたとしても、画像の陰影が強調され、がん等の異常陰影を容易に見つけることができる。   According to the medical image processing apparatus of the present invention, even if a positional deviation occurs between the current day image and the past image, the shadow of the image is emphasized, and an abnormal shadow such as cancer can be easily found.

また、本発明の望ましい一実施形態によれば、前記画像作成手段は、第一又は第二の医用画像の輪郭画像を生成する輪郭画像生成手段と、この輪郭画像と前記強調画像とを重畳する画像重畳手段とを備え、前記表示手段は、前記画像重畳手段によって重畳された重畳画像を表示する。   Further, according to a preferred embodiment of the present invention, the image creating means superimposes the contour image generating means for generating a contour image of the first or second medical image, and the contour image and the emphasized image. Image superimposing means, and the display means displays the superimposed image superimposed by the image superimposing means.

これにより、陰影強調画像と輪郭を重ね合せることで、陰影強調画像では陰影が体の中のどの位置にあるのかがわかりにくい場合でも、がん等の異常陰影を強調しつつ、その異常陰影の位置を容易に把握することができる。   As a result, by superimposing the shadow-enhanced image and the contour, even if it is difficult to determine where in the body the shadow is located in the shadow-enhanced image, while highlighting the abnormal shadow such as cancer, The position can be easily grasped.

また、本発明の望ましい一実施形態によれば、前記第一の医用画像と前記第二の医用画像との位置合わせを行う位置合わせ手段を更に備える。   According to a preferred embodiment of the present invention, the image forming apparatus further includes alignment means for aligning the first medical image and the second medical image.

これにより、いわゆる当日画像と過去画像との位置合わせが組み合わされれば、がん等の異常陰影の計算精度が向上し、その異常陰影の位置を更に容易に見つけることができる。   Thereby, if the so-called image of the day and the past image are combined, the calculation accuracy of abnormal shadows such as cancer is improved, and the position of the abnormal shadows can be found more easily.

更にまた、本発明の望ましい一実施形態によれば、前記画像作成手段によって作成された強調画像と比べて前記位置合わせ手段による位置合わせの不完全性により生じた擬似陰影を低濃度化して擬似陰影削減画像を作成する低濃度化手段とを更に備え、前記表示手段は、前記低濃度化手段によって作成された擬似陰影削減画像を表示する。   Furthermore, according to a preferred embodiment of the present invention, the pseudo shadow generated by the imperfection of the alignment by the alignment unit is reduced in density compared with the enhanced image generated by the image generation unit, thereby reducing the pseudo shadow. And a density reducing means for creating a reduced image, and the display means displays the pseudo-shadow-reduced image created by the density reducing means.

これにより、前記位置合わせが不完全であってもそれによって生じた擬似陰影が低濃度化されるので、がん等の異常陰影を更に容易に見つけることができる。   As a result, even if the alignment is incomplete, the pseudo-shadow generated thereby is reduced in density, so that an abnormal shadow such as cancer can be found more easily.

以下、添付図面に従って、本発明に係る医用画像処理装置及び方法の好ましい実施の形態について詳説する。   Hereinafter, preferred embodiments of a medical image processing apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings.

図1に、本発明の実施の形態に係る医用画像処理装置10の構成を示す。医用画像処理装置10は、中央処理装置(以下、CPUという)11、主メモリ12、磁気ディスク13、表示メモリ14、CRT15、コントローラ16、マウス17、キーボード18を備えており、これらは共通バス19を介して接続されている。また、医用画像撮影装置30が、例えばLAN32を介して医用画像処理装置10に接続されている。   FIG. 1 shows a configuration of a medical image processing apparatus 10 according to an embodiment of the present invention. The medical image processing apparatus 10 includes a central processing unit (hereinafter referred to as a CPU) 11, a main memory 12, a magnetic disk 13, a display memory 14, a CRT 15, a controller 16, a mouse 17, and a keyboard 18. Connected through. Further, the medical image photographing apparatus 30 is connected to the medical image processing apparatus 10 via, for example, the LAN 32.

医用画像撮影装置30は、X線CT(Computed Tomography)装置、PET(Positron Emission Tomography)装置、MRI(Magnetic Resonance Imaging)装置、DR(Digital Radiography)装置、超音波撮影装置、眼底カメラなどであって良いが、これらに限定されず、医用画像を撮影する装置であればどのようなものでも良い。また、医用画像処理装置10が処理の対象とする医用画像は、上記の様々な医用画像撮影装置により得られた医用画像を含む。   The medical imaging apparatus 30 is an X-ray CT (Computed Tomography) apparatus, a PET (Positron Emission Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, a DR (Digital Radiography) apparatus, an ultrasonic imaging apparatus, a fundus camera, or the like. Although it is good, it is not limited to these, What kind of thing may be sufficient if it is an apparatus which image | photographs a medical image. The medical image to be processed by the medical image processing apparatus 10 includes medical images obtained by the various medical image photographing apparatuses described above.

主メモリ12は画像やデータの一時記憶、処理用の領域として用いられ、処理結果は表示メモリ14を介してCRT15に表示されるとともに磁気ディクス13に格納され、再表示や結果参照に利用される。磁気ディスク13には、医用画像撮影装置30により撮影された医用画像が格納されている。   The main memory 12 is used as an area for temporary storage and processing of images and data, and processing results are displayed on the CRT 15 via the display memory 14 and stored in the magnetic disk 13 for redisplay and result reference. . The magnetic disk 13 stores medical images captured by the medical image capturing device 30.

次に、医用画像処理装置10が行う画像処理について図1、図2を用いて説明する。   Next, image processing performed by the medical image processing apparatus 10 will be described with reference to FIGS.

第一の医用画像(ここでは、所定の検査日時に撮影するので、「当日画像」ともいう)は、医用画像撮影装置30によって被検者、患者の所定部位が撮影されて得られる。   The first medical image (here, also referred to as “image of the day” because the image is taken at a predetermined examination date and time) is obtained by imaging a predetermined part of the subject and patient by the medical image photographing apparatus 30.

この患者及び撮影部位の情報は、ネットワーク(LAN)32を介し、共通バス19を経由し、磁気ディスク13に伝達される。   Information on the patient and the imaging region is transmitted to the magnetic disk 13 via the common bus 19 via the network (LAN) 32.

第二の医用画像(ここでは、当日画像を撮影した日時とは異なる日時に撮影するものであるがそれより以前に撮影したものが多いので、「過去画像」ともいう)は、磁気ディスク13に記憶された状態から前記伝達された患者及び撮影部位情報に基づいて主メモリ12に読み出される。   The second medical image (here, it is taken at a date and time different from the date and time when the image was taken on the day, but is often taken before that, also referred to as a “past image”) is stored on the magnetic disk 13. From the stored state, it is read out to the main memory 12 based on the transmitted patient and imaging part information.

当日画像は、ネットワーク(LAN)32を介し、共通バス19を経由し、表示メモリ14に伝達され、CRT15に表示される。   The current day image is transmitted to the display memory 14 via the network (LAN) 32, the common bus 19, and displayed on the CRT 15.

医用画像処理装置10のCRT15に示される操作画面を図3に示す。当日画像と過去画像を単純差分法により求めた単純差分画像47、本実施の形態で説明する「異方性差分処理」と称する処理による陰影強調画像48、丸などで陰影を囲って明示するためのマーカ表示画像49などが選択できる。   An operation screen displayed on the CRT 15 of the medical image processing apparatus 10 is shown in FIG. A simple difference image 47 obtained by the simple difference method for the current day image and the past image, a shadow-enhanced image 48 by a process called “anisotropic difference process” described in the present embodiment, and a circle or the like to clearly indicate the shadow. The marker display image 49 can be selected.

CRT15に表示された当日画像には、マウス17によってその当日画像の表示領域の一部に第一の局所領域aが設定される。ここでは、1箇所の第一の局所領域が設定される例を説明するが、第一の局所領域は複数設定されてもよい。   The first local area a is set to a part of the display area of the current day image by the mouse 17 on the current day image displayed on the CRT 15. Here, an example in which one first local region is set will be described, but a plurality of first local regions may be set.

主メモリ12に読み出された過去画像には、CPU11によって前記第一の局所領域aを設定した局所領域と同等以上の面積の第二の局所領域Aが設定される。   In the past image read out to the main memory 12, the CPU 11 sets a second local area A having an area equal to or larger than the local area where the first local area a is set.

前記第二の局所領域Aの局所基準値は、CPU11の局所基準値算出部111によって算出される。ここでいう局所基準値は、前記第二の局所領域A内の最大値、平均値、メジアンなどの代表値をそのまま使う場合と、それら代表値を組み合わせたり、それら代表値を定数倍するなど重みを乗じてもよい。   The local reference value of the second local area A is calculated by the local reference value calculation unit 111 of the CPU 11. The local reference value here is a weight such as a case where representative values such as the maximum value, average value, and median in the second local region A are used as they are, a combination of these representative values, or a multiplication of these representative values by a constant. May be multiplied.

陰影強調画像は、前記第一の局所領域aの濃度値から前記第二の局所領域Aの局所基準値の差分がCPU11の画像作成部112によって行われることで作成される。また、前記陰影強調画像は、前記基準値と前記第一の局所領域の各画素の濃度値との差分値を計算し、該計算された差分値に基づいて画像作成部112によって作成されることが最も望ましいが、がん陰影だけを強調する機能を発揮できれば、加算、乗算、除算、などあらゆる計算で行ってもよい。   The shadow-enhanced image is created by the image creation unit 112 of the CPU 11 performing a difference between the density value of the first local region a and the local reference value of the second local region A. In addition, the shadow-enhanced image is created by the image creation unit 112 based on the calculated difference value by calculating a difference value between the reference value and the density value of each pixel in the first local region. Although it is most desirable, it may be performed by any calculation such as addition, multiplication, and division as long as the function of enhancing only the cancer shadow can be exhibited.

陰影強調画像は、画像作成部112から表示メモリ14へ伝達され、CRT15に表示される。   The shadow enhanced image is transmitted from the image creating unit 112 to the display memory 14 and displayed on the CRT 15.

ここで、医用画像の画像濃度とは、医用画像を構成する各画素の濃度値で表される。濃度値は、例えばCT値、画素値などを含むが、それらに限定されず、画像の濃度、透明度、不透明度、明度、暗度、信号強度などを表す値の全てを含む。濃度値は、その医用画像を撮影した医用画像撮影装置の種類、濃度値の計算方法や表し方、画像がネガティブ画像であるかポジティブ画像であるか、などの条件により正負や大小が反転する。本明細書では、ある医用画像において生体組織が写っている部分Aと空気や水が写っている部分Bとを比較するとき、濃度値の数値としての大小に関わらず、部分Aの濃度値は部分Bの濃度値より大きいものと定義する。この定義によれば、例えば、図4に示す画像においては、白く表示されている部分の濃度値は黒く表示されている部分の濃度値より大きい。   Here, the image density of the medical image is represented by the density value of each pixel constituting the medical image. The density value includes, for example, a CT value, a pixel value, and the like, but is not limited thereto, and includes all values representing image density, transparency, opacity, lightness, darkness, signal intensity, and the like. The density value is inverted between positive and negative and magnitude depending on conditions such as the type of medical image capturing apparatus that captured the medical image, the calculation method and representation method of the density value, and whether the image is a negative image or a positive image. In this specification, when comparing a portion A in which a living tissue is captured and a portion B in which air or water is captured in a certain medical image, the density value of the portion A is not limited regardless of the magnitude of the density value. It is defined as being larger than the density value of part B. According to this definition, for example, in the image shown in FIG. 4, the density value of the portion displayed in white is larger than the density value of the portion displayed in black.

図4は、本発明の原理を従来技術と比較して説明するもので、被検体の肺野のCT断層像に対して、単純差分及び異方性差分の方法のそれぞれによって画像処理を行った例を示す。過去画像2にがん陰影がない状態で、当日画像1にがん陰影(画面右下の過去画像と比較して白く反転した領域b)がある場合、当日画像1から過去画像2を引き算することにより、がん陰影部分の濃度が大きくそれ以外の部分の濃度が小さい差分画像が得られる。すなわち、がん陰影が強調され見つけやすくなる。従来の単純差分処理では、当日画像と過去画像の対応する画素同士で引き算をするため、位置合わせが十分でない場合は差分画像3に偽陽性陰影(本物の陰影でない部分;擬似陰影)が生じてしまい、本物の陰影を見つけにくい。後述する本実施の形態の方法による異方的局所最大値差分処理によれば、差分画像4に偽陽性陰影が生じにくく、本物の陰影を見つけやすい。   FIG. 4 explains the principle of the present invention in comparison with the prior art, and image processing was performed on the CT tomogram of the subject's lung field using the simple difference method and the anisotropic difference method, respectively. An example is shown. When there is no cancer shadow in the past image 2 and there is a cancer shadow on the current day image 1 (region b reversed in white compared to the previous image on the lower right of the screen), the past image 2 is subtracted from the current day image 1. Thus, a difference image in which the density of the cancer shadow part is large and the density of the other part is small is obtained. That is, the cancer shadow is emphasized and it is easy to find. In the conventional simple difference processing, since the corresponding pixels of the current day image and the past image are subtracted, if the alignment is not sufficient, a false positive shadow (a part that is not a real shadow; a pseudo shadow) occurs in the difference image 3 It's hard to find real shadows. According to the anisotropic local maximum value difference process according to the method of the present embodiment, which will be described later, a false positive shadow is unlikely to occur in the difference image 4, and a real shadow can be easily found.

単純差分処理の他の例を図5及び図6によって説明する。淡い微小な肺がんに対応させて偽陽性陰影を当日画像に埋め込んだ画像(図5)と過去画像(図示省略)とを、画像の各部分の相関が最も高くなるように位置合わせをする。位置合わせ後に当日画像から過去画像を引き算した結果を図6に示す。図6では、がん陰影は見つけにくい。   Another example of the simple difference process will be described with reference to FIGS. The image (FIG. 5) in which a false positive shadow is embedded in the current day image corresponding to a light minute lung cancer and the past image (not shown) are aligned so that the correlation of each part of the image is the highest. FIG. 6 shows the result of subtracting the past image from the current day image after alignment. In FIG. 6, cancer shadows are difficult to find.

次に、本実施の形態による医用画像処理装置10での引き算方法について、図7を用いて説明する。このフローチャートは、画像中のある1画素だけを代表して行うものとする。差分画像を記憶する例えば主メモリ12には、差分した結果が負にならない程度の十分大きな値を記録しておく。   Next, a subtraction method in the medical image processing apparatus 10 according to the present embodiment will be described with reference to FIG. This flowchart is performed on behalf of only one pixel in the image. For example, in the main memory 12 that stores the difference image, a sufficiently large value is recorded so that the difference result does not become negative.

(ステップ90)
過去画像中の画素点(X,Y)において、濃度勾配が最大の方向を求める。図8の画像51の一部領域52を拡大して53とする。この中で当日画像の画素より広い領域の例えば3×3の画像マトリクスの小領域54を取り、小領域54の中心点を通る縦、横、斜め方向のうち濃度勾配が最大の方向を求める。ここでは、小領域54としてA22点を中心とする縦3画素、横3画素の領域を考え、abs(A11-A33)、abs(A21-A23)、abs(A31-A13)、abs(A12-A32)の各絶対値のうちの最大値から、A22点での濃度勾配最大方向を求める。なお、abs(A11-A22)、abs(A21-A22)、abs(A12-A22)、abs(A31-A22)の各絶対値のうちの最大値を用いてもよい。
(Step 90)
A direction having the maximum density gradient is obtained at the pixel point (X, Y) in the past image. A partial region 52 of the image 51 in FIG. Among these, a small area 54 of, for example, a 3 × 3 image matrix wider than the pixels of the image of the day is taken, and a direction having the maximum density gradient is obtained among the vertical, horizontal, and diagonal directions passing through the center point of the small area 54. Here, as the small region 54, a region of three vertical pixels and three horizontal pixels centering on the point A22 is considered, and abs (A11-A33), abs (A21-A23), abs (A31-A13), abs (A12- From the maximum value among the absolute values of A32), the maximum concentration gradient direction at point A22 is obtained. The maximum value among the absolute values of abs (A11-A22), abs (A21-A22), abs (A12-A22), and abs (A31-A22) may be used.

図9には、A11,A33方向の濃度勾配が最も大きい場合を示している。   FIG. 9 shows a case where the concentration gradient in the A11 and A33 directions is the largest.

上記小領域54のうち、この濃度勾配最大方向に沿った領域を「特定方向領域(i,j)(又は異方的領域(i,j))」と称する。ここでは、A11,A22,A33がそれであるが、同じ方向のB11,B44などを含めてもよい。なお、Bijは、濃度勾配を求める領域と引き算対象領域が必ずしも同一である必要の無いことを示すものであって、濃度勾配を求める領域と引き算対象領域が同一である場合にはAijに含まれる。したがって、B44の外側にもB55(不図示)などがありえる。   Of the small regions 54, a region along the maximum concentration gradient direction is referred to as a “specific direction region (i, j) (or anisotropic region (i, j))”. Here, A11, A22, and A33 are those, but B11, B44, and the like in the same direction may be included. Bij indicates that the area for obtaining the concentration gradient and the subtraction target area do not necessarily have to be the same, and is included in Aij when the area for obtaining the concentration gradient and the subtraction target area are the same. . Therefore, B55 (not shown) can be provided outside B44.

要するに、図9では、当日画像901、過去画像902及び差分画像903の最大濃度勾配をそれぞれ算出し、それぞれの濃度勾配最大方向が一致するか、否かの判定の原理を示している。その手順は、次のとおりである。   In short, FIG. 9 shows the principle of determining whether or not the maximum density gradients of the current day image 901, the past image 902, and the difference image 903 are the same, and the respective density gradient maximum directions match. The procedure is as follows.

(ステップ91)
次に、図10(b)の例に示すように、図9に示す過去画像902の特定方向領域(i,j)内の濃度値の最大値max(局所最大値)を求める。
(Step 91)
Next, as shown in the example of FIG. 10B, the maximum value max (local maximum value) of the density values in the specific direction area (i, j) of the past image 902 shown in FIG. 9 is obtained.

(ステップ92)
図9に示す当日画像901の特定方向領域内(i,j)の各画素(i,j)について C×maxを引き算する。結果をsa1とする。Cは1.0を含む定数であり、画像に応じて設定してよい。すなわち、過去画像902のA11,A22,A33,B11,B44の最大値maxを求めたあと、例えば当日画像901の画素A11からそれぞれmax×定数を引き算し、sa1とする。なお、単純差分処理では、図10(a)の例に示すように、被検体の同位置に対応する当日画像901と過去画像902の画素同士での引き算を行い、(当日画像のデータ引く過去画像のデータ)=b−aとして、差分画像903を求める。
(Step 92)
C × max is subtracted for each pixel (i, j) in the specific direction area (i, j) of the day image 901 shown in FIG. The result is sa1. C is a constant including 1.0 and may be set according to the image. That is, after the maximum values max of A11, A22, A33, B11, and B44 of the past image 902 are obtained, for example, max × constant is subtracted from the pixel A11 of the image 901 on the day to obtain sa1. In the simple difference process, as shown in the example of FIG. 10A, subtraction is performed between the pixels of the current-day image 901 and the past image 902 corresponding to the same position of the subject, The difference image 903 is obtained as (image data) = ba.

(ステップ93)
「差分画像903の画素(i,j)値>sa1」か否かを判定する。すなわち、引き算結果sa1を現在のそれぞれのメモリSUB(A11と同座標)と比較する。
(Step 93)
It is determined whether or not “pixel (i, j) value of difference image 903> sa1”. That is, the subtraction result sa1 is compared with each current memory SUB (same coordinates as A11).

(ステップ94)
上記ステップ93での引き算の結果、「差分画像SUBの画素(i,j)値>sa1」のときは、差分画像の画素(i,j)=sa1とする。すなわち、小さい方の値sa1をSUB(A11と同座標)に格納する。引き算結果が負の場合は、特定値、例えばゼロに置き換えるようにしてもよい。
(Step 94)
As a result of the subtraction in step 93, when “pixel (i, j) value of difference image SUB> sa1”, pixel (i, j) of the difference image = sa1. That is, the smaller value sa1 is stored in SUB (same coordinates as A11). If the subtraction result is negative, it may be replaced with a specific value, for example, zero.

特定方向領域(i,j)内の他の画素A22,A33,B11,B44についても同様の処理をする。   The same processing is performed for the other pixels A22, A33, B11, and B44 in the specific direction area (i, j).

上述のステップ90〜ステップ94の処理を画像全画素について実行する。この際、小領域54は少しずつ重なるようにしながら移動していくことが好ましい。このように移動していくと、一つの画素についての引き算が複数回行われ、最も小さな差分の結果が格納されるようになる。   The processes in steps 90 to 94 described above are executed for all pixels in the image. At this time, it is preferable that the small areas 54 move while overlapping each other little by little. When moving in this way, subtraction for one pixel is performed a plurality of times, and the result of the smallest difference is stored.

結果を図11に示す。陰影が強調され、図6に示された単純差分の結果よりも異常陰影を見つけやすくなっている。図11の高濃度部分を検出して、原CT画像(図5)にマーカをつけると図12に図示されるようになる。   The results are shown in FIG. The shadow is emphasized, and it is easier to find the abnormal shadow than the result of the simple difference shown in FIG. When the high density portion of FIG. 11 is detected and a marker is attached to the original CT image (FIG. 5), the result is shown in FIG.

図13は、本物のがん陰影を含む当日画像である。これから、過去画像を本発明の望ましい実施形態の手順に従って引き算すると、図14に図示されるようになる。   FIG. 13 is an image on the day containing a real cancer shadow. From this, the past images are subtracted according to the procedure of the preferred embodiment of the present invention as shown in FIG.

なお、引き算処理により強調されたがん陰影の位置が分かりにくいときには、図15の例に示すように、輪郭画像を別に抽出しておいて前記差分画像と合成すると、図16のように異常陰影個所の位置関係がより分かりやすくなる。差分画像と輪郭画像の一画素ごとの合成手順を図17に示す。   When the position of the cancer shadow enhanced by the subtraction process is difficult to understand, as shown in the example of FIG. 15, if an outline image is separately extracted and combined with the difference image, an abnormal shadow is obtained as shown in FIG. The positional relationship between the locations becomes easier to understand. FIG. 17 shows a synthesis procedure for each pixel of the difference image and the contour image.

(ステップ20)
輪郭画像と強調画像とが重畳可能であるかをしきい値判定する。そして、その判定の結果、しきい値の範囲内であればステップ21へ進み、しきい値の範囲外であればステップ23へ進み、対象外で処理を終了する。
(Step 20)
A threshold value is determined as to whether the contour image and the emphasized image can be superimposed. If the result of the determination is that the value is within the threshold value range, the process proceeds to step 21;

(ステップ21)
異方性差分処理を実行する。
(Step 21)
Anisotropic difference processing is executed.

(ステップ22)
差分結果をメモリに記憶し、処理を終了する。
(Step 22)
The difference result is stored in the memory, and the process is terminated.

(ステップ23)
輪郭濃度をメモリに記憶し、処理を終了する。
(Step 23)
The contour density is stored in the memory, and the process is terminated.

上記小領域において、A21,A23方向の濃度勾配が最も大きい場合を図18に示す。当日画像901の画素A21から過去画像902のA21,A22,A23,21,B24の最大値×定数を引き算し、引き算結果を現在のSUB(A21と同座標)と比較し、小さい方の値をSUB(A21と同座標)に格納する。A22,A23,B21,B24も同様である。   FIG. 18 shows the case where the concentration gradient in the A21 and A23 directions is the largest in the small region. Subtract the maximum value x constant of A21, A22, A23, 21, B24 of the past image 902 from the pixel A21 of the image 901 on the day, compare the subtraction result with the current SUB (same coordinates as A21), and calculate the smaller value Store in SUB (same coordinates as A21). The same applies to A22, A23, B21, and B24.

なお、以上の説明では、当日画像901から過去画像902を引き算したが、過去画像902から当日画像901を引き算して、最後に符号を反転しても結果は同じである。   In the above description, the past image 902 is subtracted from the current day image 901. However, the result is the same even if the current day image 901 is subtracted from the past image 902 and the sign is inverted at the end.

また、引き算の方法は上述の例に限定されるものではなく、この他
(1) 局所最大値(定数倍を含む)を引く
(2)(各画素値に対応するCT値の関数)×局所最大値 を引く
(3)(特定方向領域(i,j)内の濃度分布の統計値の関数)×局所最大値を引く
(4) 局所最大値付近の平均値(定数倍を含む)を引く
(5)(勾配最大方向のなす角の関数)×局所最大値を引く
などが可能である。
In addition, the subtraction method is not limited to the above example. In addition, (1) subtract the local maximum value (including a constant multiple) (2) (function of CT value corresponding to each pixel value) × local Subtract maximum value (3) (statistical function of concentration distribution in specific direction area (i, j)) x subtract local maximum value (4) subtract average value (including constant multiple) near local maximum value (5) (A function of the angle formed by the gradient maximum direction) × local maximum value can be subtracted.

ここで、「勾配最大方向のなす角の関数」とは、過去画像濃度勾配の最大方向と当日画像濃度勾配の最大方向との成す角度θの関数であり、cosθと同様に変化する。ただし、厳密なcosθである必要はなく、
θ=0度のとき:1.0
θ=45度のとき:0.8
θ=90度のとき:0.5
などの値としてもよい。
Here, the “function of the angle formed by the maximum gradient direction” is a function of the angle θ formed by the maximum direction of the past image density gradient and the maximum direction of the image density gradient of the day, and changes in the same manner as cos θ. However, it is not necessary to be exact cos θ,
When θ = 0 degree: 1.0
When θ = 45 degrees: 0.8
When θ = 90 degrees: 0.5
It is good also as values, such as.

上述のように、引き算の方法は図7に示す手順だけではなく、図19のような処理も可能である。すなわち、
(ステップ100)
小領域54の中心画素の過去画像の特定方向領域(i,j)内の濃度値の最大値maxを求める。
As described above, the subtraction method is not limited to the procedure shown in FIG. That is,
(Step 100)
The maximum value max of the density value in the specific direction area (i, j) of the past image of the central pixel of the small area 54 is obtained.

(ステップ101)
当日画像901の特定方向領域内(i,j)の各画素(i,j)について C×maxを引き算する。結果をsa1とする。
(Step 101)
C × max is subtracted for each pixel (i, j) in the specific direction area (i, j) of the image 901 on the day. The result is sa1.

(ステップ102)
「差分画像903の画素(i,j)値>sa1」か否かを判定する。
(Step 102)
It is determined whether or not “pixel (i, j) value of difference image 903> sa1”.

(ステップ103)
「差分画像903の画素(i,j)値>sa1」のときは、「差分画像903の画素(i,j)=sa1」とする。
(Step 103)
When “pixel (i, j) value of difference image 903> sa1”, “pixel (i, j) of difference image 903 = sa1”.

なお、最大濃度勾配方向の求め方は図8だけとは限らず、図20のように、円Cを通る二点間の画素の濃度差を順次比較して、その比較の結果から最大濃度勾配方向を求めることも可能である。   Note that the method of obtaining the maximum density gradient direction is not limited to FIG. 8, and as shown in FIG. 20, pixel density differences between two points passing through a circle C are sequentially compared, and the maximum density gradient is determined from the comparison result. It is also possible to determine the direction.

また、上述の説明では、小領域54は縦3画素×横3画素であったが、小領域54は縦4画素×横4画素、縦5画素×横5画素等、異なる大きさとしてもよい。また、CT画像、DR画像等、画像の種類によって小領域54の大きさを変えるようにしてもよい。   Further, in the above description, the small area 54 is 3 vertical pixels × 3 horizontal pixels, but the small area 54 may have different sizes such as 4 vertical pixels × 4 horizontal pixels and 5 vertical pixels × 5 horizontal pixels. . Further, the size of the small region 54 may be changed depending on the type of image such as a CT image or a DR image.

引き算に際しては、このような小領域54の大きさに応じて、濃度値の局所最大値ではなく2番目、3番目に大きな値を用いてもよいし、平均値の定数倍を用いてもよい。このような場合でも陰影強調の効果を得ることができる。また、平均値に関するデータを用いれば、局所最大値と比べてノイズの少ない陰影強調画像を得ることができる。   In the subtraction, the second and third largest values may be used instead of the local maximum value of the density value, or a constant multiple of the average value may be used according to the size of the small region 54. . Even in such a case, the effect of shadow enhancement can be obtained. Moreover, if data regarding the average value is used, a shadow-enhanced image with less noise than the local maximum value can be obtained.

また、上述の説明では、特定方向領域は濃度勾配最大方向の領域(3画素)であったが、図21に示すように、特定方向領域は微小な矩形領域としてもよいし、微小な円形領域としてもよい。また、過去画像902と当日画像901とで、特定方向領域の形や大きさが異なっていてもよい。更にまた、過去画像902と当日画像901との一方において、特定方向領域を縦1画素×横1画素の大きさ、即ち1画素としてもよい。この場合、その1画素の濃度値がそのまま濃度局所最大値となる。   In the above description, the specific direction area is an area (3 pixels) in the maximum density gradient direction. However, as shown in FIG. 21, the specific direction area may be a small rectangular area or a small circular area. It is good. Further, the shape and size of the specific direction area may be different between the past image 902 and the current day image 901. Furthermore, in one of the past image 902 and the current day image 901, the specific direction area may have a size of 1 vertical pixel × 1 horizontal pixel, that is, 1 pixel. In this case, the density value of that one pixel becomes the density local maximum value as it is.

以上の説明ではCT画像、MRI画像などの断層像を用いていたが、図22のようにDR画像に対しても適用できる。図22に示すDR画像においては、黒く表示されている部分の濃度値は白く表示されている部分の濃度値より大きい。この場合、当日画像180と過去画像181の間で、本発明の望ましい実施形態による引き算をすると図22の183になり、別に輪郭抽出処理した輪郭画像182と合成すると184になる。   In the above description, tomographic images such as CT images and MRI images are used. However, the present invention can also be applied to DR images as shown in FIG. In the DR image shown in FIG. 22, the density value of the part displayed in black is larger than the density value of the part displayed in white. In this case, subtraction according to a preferred embodiment of the present invention between the current day image 180 and the past image 181 results in 183 in FIG. 22, and 184 when combined with the contour image 182 that has been subjected to contour extraction processing.

以上は当日画像と過去画像の位置合わせを行わなくてもよい場合について説明した。
しかし、当日画像と過去画像の位置合わせを組み合わせれば、更に鮮明な陰影画像を得ることができる。この位置合わせ処理の組み合わせは、最終的に位置合わせの効果があればどの時点で行ってもよいが、最も望ましいのは画像間差分処理前に行った方がよい。次に、画像間差分処理前の画像間位置合わせ処理を組み合わせた場合の工夫について、図23乃至27で説明する。位置合わせにおいては、画像の分割、拡大、縮小、移動、回転等が行われる(図23及び図24参照)。画像を分割せずに全体で位置合わせを行ってもよい。
In the above, the case where it is not necessary to align the image of the day and the past image has been described.
However, if the registration of the current day image and the past image is combined, a clearer shadow image can be obtained. This combination of alignment processing may be performed at any time as long as the effect of alignment is finally obtained, but is most preferably performed before the inter-image difference processing. Next, an idea when the inter-image registration process before the inter-image difference process is combined will be described with reference to FIGS. In alignment, image division, enlargement, reduction, movement, rotation, and the like are performed (see FIGS. 23 and 24). You may align as a whole, without dividing | segmenting an image.

また、画像を分割するごとに変位ベクトルを算出して分割した画像を変形し、これを所定の分割数に達するまで繰り返して最終的な変位ベクトルを求める。位置合わせにおいては、元の画像(分割、変形前の画像)を最終的な変位ベクトルで変形した画像を用いる。   Further, every time an image is divided, a displacement vector is calculated, the divided image is deformed, and this is repeated until a predetermined number of divisions is reached to obtain a final displacement vector. In the alignment, an image obtained by deforming an original image (an image before division or deformation) with a final displacement vector is used.

図25の当日画像aと過去画像bを位置合わせするが、まず大まかに位置合わせをする。a、bそれぞれを縮小(縮小率r)してa1,b1とし、a1,b1間の相関1(引き算をして差が最小になるかどうかを判定する)を取りb1を平行移動して画像b2を得る。次にa1とb2の回転後の画像間相関を取り、画像b3を得る。   The current day image “a” and the past image “b” in FIG. 25 are aligned. Each of a and b is reduced (reduction ratio r) to a1 and b1, and correlation 1 between a1 and b1 (subtraction is performed to determine whether the difference is minimized) is taken to translate b1 b2 is obtained. Next, correlation between images after rotation of a1 and b2 is taken to obtain an image b3.

この情報をもとに、図26に示すように、画像bをdx/縮小率r、dy/縮小率rだけ平行移動し、更に角度ang だけ回転した画像、b4を得る。画像aと画像b4から、位置合わせのための変位ベクトルを求める。最初にaを4分割してA4とし、b4を分割してB4とする。分割画像aij,bijの相関を取り、変位ベクトル4を得る。変位ベクトル4で画像B4を変形する。   Based on this information, as shown in FIG. 26, the image b is translated by dx / reduction ratio r and dy / reduction ratio r, and further an image b4 rotated by an angle ang is obtained. A displacement vector for alignment is obtained from the images a and b4. First, a is divided into four to be A4, and b4 is divided into B4. The correlation between the divided images aij and bij is obtained, and the displacement vector 4 is obtained. The image B4 is deformed with the displacement vector 4.

その後、更に16分割し、分割後のaij,bij間で相関を取り、変位ベクトル16を求める。このような分割を繰り返し、精度の良くなった、例えば32×32分割の変位ベクトルをスプライン補間して1ピクセルごとの変位ベクトルN(図27)を求める。   Thereafter, further 16 divisions are performed, and correlation between aij and bij after division is obtained to obtain a displacement vector 16. Such division is repeated, and a displacement vector N (FIG. 27) for each pixel is obtained by spline interpolation of a displacement vector of 32 × 32 divisions having improved accuracy.

最後に、図27に示すように、変位ベクトルNを用いて画像b4(分割、変形前の元画像)を変形し、位置合わせ後の画像を求める。   Finally, as shown in FIG. 27, the image b4 (original image before division and deformation) is deformed using the displacement vector N, and an image after alignment is obtained.

このように、画像の分割を徐々に細かくしていくことで正確な位置合わせを行うことができ、位置合わせの不完全性による偽陽性陰影(擬似陰影)を生じにくくすることができる。   In this way, accurate image alignment can be performed by gradually finely dividing the image, and false positive shadows (pseudo shadows) due to imperfect alignment can be made difficult to occur.

なお、画像の分割数は32×32分割に限定されるものではなく、画像に応じて異なる値を設定してもよい。   Note that the number of image divisions is not limited to 32 × 32 divisions, and different values may be set according to the images.

次に、図28及び図29で、画面操作の流れを示す。   Next, FIG. 28 and FIG. 29 show the flow of screen operations.

(ステップ51)
当日画像41と過去画像42を表示する。
(Step 51)
The current day image 41 and the past image 42 are displayed.

(ステップ52)
「次のスライス表示ボタン 押下?」の判定をする。Yesならステップ57に跳ぶ。NOならステップ53に進む。
(Step 52)
Judgment is “Next slice display button pressed?”. If yes, jump to step 57. If NO, go to step 53.

(ステップ53)
「前のスライス表示ボタン 押下?」の判定をする。Yesならステップ58に跳ぶ。NOならステップ54に進む。
(Step 53)
Judge “Push the previous slice display button?”. If yes, jump to step 58. If NO, go to step 54.

(ステップ54)
「位置合わせ&差分ボタン 押下?」の判定をする。Yesならステップ59に跳ぶ。NOならステップ55に進む。
(Step 54)
Judgment of “Positioning & difference button pressed?” If yes, jump to step 59. If NO, go to step 55.

(ステップ55)
「差分FP削除ボタン 押下?」の判定をする。Yesならステップ60に跳ぶ。NOならステップ56に進む。
(Step 55)
Judge whether "Difference FP delete button is pressed?" If yes, jump to step 60. If NO, go to step 56.

(ステップ56)
「終了ボタン 押下?」の判定をする。Yesなら終了する。NOならステップ52に戻る。
(Step 56)
Judge whether "Is the end button pressed?" If yes, exit. If NO, return to step 52.

(ステップ57)
次のスライスを表示してステップ52に跳ぶ。
(Step 57)
Display the next slice and jump to step 52.

(ステップ58)
前のスライスを表示してステップ52に跳ぶ。
(Step 58)
Display the previous slice and jump to step 52.

(ステップ59)
位置合わせ&差分処理してステップ52に跳ぶ。
(Step 59)
Alignment & difference processing and jump to step 52.

(ステップ60)
差分後の偽陽性陰影(擬似陰影)を低濃度化してステップ52に跳ぶ。低濃度化の方法としては、
陰影特徴量を用いた低濃度化方法、エッジ領域を用いた低濃度化方法、及び二点間置換処理による低濃度化方法がある。
(Step 60)
The false positive shadow after the difference (pseudo shadow) is reduced in density and jumped to step 52. As a method of reducing the concentration,
There are a density reduction method using a shadow feature value, a density reduction method using an edge region, and a density reduction method using a two-point replacement process.

まず、陰影特徴量を用いた低濃度化方法を、図30を用いて説明する。   First, the density reduction method using the shadow feature amount will be described with reference to FIG.

(ステップ61)
差分処理をする。
(Step 61)
Perform difference processing.

(ステップ62)
差分画像強調&二値化処理をする。
(Step 62)
Perform differential image enhancement & binarization.

(ステップ63)
二値化処理後は領域が複数個連結している場合があるので、二値化領域の細くくびれた部分の切断処理をして、孤立領域にする。
(Step 63)
Since there are cases where a plurality of regions are connected after the binarization processing, the narrowed portion of the binarized region is cut to make an isolated region.

(ステップ64)
「それぞれの孤立領域の縦横長の比は 計算値>所定値1」か否かを判定する。Yesならステップ69に跳び、偽陽性として低濃度化する。
(Step 64)
It is determined whether or not “the ratio of the length and width of each isolated region is calculated value> predetermined value 1”. If Yes, jump to Step 69 and reduce the concentration as a false positive.

(ステップ65)
「それぞれの孤立領域の円形度は 計算値>所定値2」か否かを判定する。Yesならステップ69に跳び、偽陽性として低濃度化する。
(Step 65)
It is determined whether or not “the circularity of each isolated region is calculated value> predetermined value 2”. If Yes, jump to Step 69 and reduce the concentration as a false positive.

(ステップ66)
その他の判定処理をする。Yesならステップ69に跳び、偽陽性として低濃度化する。
(Step 66)
Other determination processing is performed. If Yes, jump to Step 69 and reduce the concentration as a false positive.

(ステップ67)
差分画像の高濃度個所にがん陰影候補として丸印をつける。
(Step 67)
A circle is marked as a cancer shadow candidate at a high density portion of the difference image.

(ステップ68)
全ての陰影を判定したか否かを判定する。Yesなら終了。NOならステップ64に跳ぶ。
(Step 68)
It is determined whether all shadows have been determined. If yes, end. If NO, jump to step 64.

(ステップ69)
偽陽性陰影を低濃度化する。
(Step 69)
Reduce the concentration of false positive shadows.

次に、エッジ領域を用いた低濃度化方法を、図31乃至33を用いて説明する。図31の例では、当日画像1と過去画像2との差分処理をすると画像3のようになる。過去画像にがん陰影が無く当日画像にがん陰影があれば、差分画像には、がん陰影と画像全体の位置ずれによる部分とが主に表示される。ここで、がん陰影以外は表示しないようにしたほうががん陰影を見つけやすくなる。   Next, a method for reducing the density using the edge region will be described with reference to FIGS. In the example of FIG. 31, when the difference process between the current day image 1 and the past image 2 is performed, an image 3 is obtained. If there is no cancer shadow in the past image and there is a cancer shadow in the image on the day, the difference image mainly displays the cancer shadow and the portion due to the positional deviation of the entire image. Here, it is easier to find cancer shadows if only the cancer shadows are displayed.

図32は、当日画像及び過去画像のCT画像のエッジを強調したあとで二値化したものであり、これらの画像の相関を取ると画像20になる。画像20を使い、図31の3中でエッジ画像20の値が1の領域を低濃度化する。これにより、差分後の偽陽性を低濃度化した擬似陰影削減画像21が得られる。   FIG. 32 is a binarized image after emphasizing the edges of the CT images of the current day image and the past image, and when these images are correlated, an image 20 is obtained. Using the image 20, the density of the region where the value of the edge image 20 is 1 in 3 of FIG. Thereby, the pseudo-shadow-reduced image 21 in which the false positive after the difference is reduced in density is obtained.

なお、予め二値化せずに、しきい値より大きな濃度の領域の相関をとっても画像20は得られる。   Note that the image 20 can be obtained by correlating regions having a density greater than the threshold value without binarization in advance.

図33は、本処理をDR画像に適用した場合である。   FIG. 33 shows a case where this process is applied to a DR image.

偽陽性を低濃度化した画像には、がんの疑いがある陰影が含まれている可能性がある。引き算をしないで、それぞれの画像だけで異常陰影候補を検出した結果と合成して表示し、医師の判断を仰ぐことも可能である。   Images with reduced false positives may contain shadows that are suspected of being cancerous. Without subtraction, it is also possible to ask for the judgment of the doctor by combining and displaying the result of detecting an abnormal shadow candidate only with each image.

次に、二点間置換処理による低濃度化処理について図34を用いて説明する。   Next, the density reduction process by the two-point replacement process will be described with reference to FIG.

画素p1とp5の値が所定値より小さい場合、p1〜p5を、p1〜p5の最小値で置き換える。この場合、p2〜p4を、p2〜p4の最小値で置き換えても低濃度化の効果は得られる。   When the values of the pixels p1 and p5 are smaller than the predetermined value, p1 to p5 are replaced with the minimum value of p1 to p5. In this case, the effect of reducing the concentration can be obtained even if p2 to p4 are replaced with the minimum values of p2 to p4.

また、画素p1とp5の値が所定値より大きい場合、p1〜p5を、p1〜p5の最大値で置き換える場合もある。この場合、p2〜p4を、p2〜p4の最大値で置き換えても低濃度化の効果は得られる。   Also, when the values of the pixels p1 and p5 are larger than a predetermined value, p1 to p5 may be replaced with the maximum value of p1 to p5. In this case, the effect of reducing the concentration can be obtained even if p2 to p4 are replaced with the maximum values of p2 to p4.

このように、医用画像処理装置10では、当日画像と過去画像との正確な位置合わせを行うことにより偽陽性陰影(擬似陰影)を生じにくくし、生じた偽陽性陰影を低濃度化するので、がん等の異常陰影を容易に見つけることができる。   In this way, the medical image processing apparatus 10 makes it difficult to generate false positive shadows (pseudo shadows) by accurately aligning the current day image and the past image, and lowers the density of the generated false positive shadows. Abnormal shadows such as cancer can be easily found.

次に、医用画像処理装置10の操作画面の他の例を図35及び図36に示す。単純差分法によるCT画像21、異方性差分法による陰影強調画像22をCRT15に表示している。そして、CRT15には、マウス17のカーソルがCT画像21及び陰影強調画像22にそれぞれ表示され、これらは、マウス17を移動させればそれぞれのカーソルも連動するようになっており、対応する位置を把握しやすくしている。   Next, another example of the operation screen of the medical image processing apparatus 10 is shown in FIGS. A CT image 21 by the simple difference method and a shadow enhanced image 22 by the anisotropic difference method are displayed on the CRT 15. On the CRT 15, the cursor of the mouse 17 is displayed on the CT image 21 and the shadow-enhanced image 22, and these cursors are also interlocked when the mouse 17 is moved, and the corresponding positions are displayed. It is easy to grasp.

また、図36に示すように位置合わせ後の当日画像31、過去画像32、及び差分画像33の3つの画像を表示して、マウス17のカーソルを連動させるようにしてもよい。   In addition, as shown in FIG. 36, three images of the current day image 31, the past image 32, and the difference image 33 after alignment may be displayed and the cursor of the mouse 17 may be linked.

一般に、探索領域内の最大値を見つける手法は、当日画像N枚目の画像と最も相関の高い過去画像M枚目の画像の同一アドレスを点(順次走査点)でそれぞれ走査する。その走査の際に、図8、9又は図18に示すような濃度勾配最大方向に平行な二次元画像を想定する。   In general, in the method of finding the maximum value in the search area, the same address of the Mth image of the past image having the highest correlation with the Nth image of the current day is scanned with dots (sequential scanning points). In the scanning, a two-dimensional image parallel to the maximum density gradient direction as shown in FIG. 8, 9 or 18 is assumed.

しかしながら、二次元画像だけでは、血管の位置関係が当日画像と過去画像とで微妙に異なっていた場合、それに対応することが困難である。例えば、被検体の体型は、過去画像を撮影した時と当日画像を撮影する時とで太ったり痩せたりして変わってしまっていることがあるからである。そこで、二次元画像に加えて、その連続する複数枚の二次元画像を積み上げて形成する三次元画像の考え方を導入する。   However, if only the two-dimensional image has a slightly different blood vessel positional relationship between the current day image and the past image, it is difficult to cope with it. For example, the body shape of the subject may change due to fatness or thinness between when the past image is captured and when the current day image is captured. Therefore, in addition to the two-dimensional image, a concept of a three-dimensional image formed by stacking a plurality of continuous two-dimensional images is introduced.

例えば、図37に示す当日画像N枚目の画像の前後(又は上下)のN+1枚目及びN−1枚目の画像や、図38に示す過去画像M枚目の画像の前後(又は上下)のM+1枚目及びM−1枚目の画像を利用して、三次元的に処理を行う。   For example, the (N + 1) th and (N-1) th images before and after (or above and below) the Nth image of the current day image shown in FIG. 37, and the (before and after) (or above and below) images of the Mth past image shown in FIG. The three-dimensional processing is performed using the M + 1 and M−1 images.

具体的には、図39に示すように、N枚目の画像の座標X,Yを(N,X,Y)と表すと、例えば、(N,X1,Y1)点の引き算値は、当日画像(N,X1,Y1)点の濃度値V1から過去画像(M,x1,y1)の濃度値v1を引いた値となり、(N,X2,Y2)点の引き算値は、当日画像(N,X2,Y2)点の濃度値V2から過去画像(M−1,x2,y2)の濃度値v2を引いた値となる。ここで、探索領域(平面)は、M枚目画像の順次走査点の濃度勾配最大方向に平行である。引き算値が負の場合は、引き算値をゼロや引き算値の絶対値と置き換えてもよい。引き算は、逆に過去画像から当日画像を引いてもよい。   Specifically, as shown in FIG. 39, when the coordinates X, Y of the Nth image are represented as (N, X, Y), for example, the subtraction value of (N, X1, Y1) points is The density value V1 of the past image (M, x1, y1) is subtracted from the density value V1 of the image (N, X1, Y1) point, and the subtraction value of the (N, X2, Y2) point is the current day image (N , X2, Y2) is a value obtained by subtracting the density value v2 of the past image (M-1, x2, y2) from the density value V2 of the point. Here, the search area (plane) is parallel to the maximum density gradient direction of the sequential scanning points of the Mth image. If the subtraction value is negative, the subtraction value may be replaced with zero or the absolute value of the subtraction value. In the subtraction, the current day image may be subtracted from the past image.

図40に示すように、最大値を見つけるための探索領域は走査点を含む立方体であってもよい。図41に示すように、探索領域の境界は補間画像上であってもよい。図42に示すように、断層像のスライス厚が薄い場合、探索領域の境界は原画像の複数枚にまたがってもよい。その際に、図43に示すように、三次元的な濃度勾配最大方向を考慮して局所最大値を求めることが好ましい。   As shown in FIG. 40, the search area for finding the maximum value may be a cube including scanning points. As shown in FIG. 41, the boundary of the search area may be on an interpolated image. As shown in FIG. 42, when the slice thickness of the tomographic image is thin, the boundary of the search area may extend over a plurality of original images. At this time, as shown in FIG. 43, it is preferable to obtain the local maximum value in consideration of the three-dimensional concentration gradient maximum direction.

図44に、MIP(Maximum Intensity Projection)画像を、現在画像に対応するスライス位置の過去画像を含む少なくとも2枚の複数画像から作成する場合を示す。   FIG. 44 shows a case where a MIP (Maximum Intensity Projection) image is created from at least two multiple images including past images at slice positions corresponding to the current image.

被検体の動きなどの影響で、一方の画像にしか写っていない血管などがあり、この血管などの陰影が画像間差分処理後に残ってしまうことがある。これは、血管が写っていない画像と隣接する画像に血管が写っていることを意味するので、過去画像に対して両隣の画像と例えば3枚(枚数はスライスの厚さに依存し、スライスが薄ければ枚数は多くなる)でMIP画像を作れば、欠けた部分を補うことができる。   Due to the influence of the movement of the subject, there is a blood vessel or the like that appears in only one image, and the shadow of this blood vessel or the like may remain after the inter-image difference processing. This means that blood vessels are shown in an image adjacent to an image in which no blood vessels are shown. Therefore, for example, 3 images (the number of sheets depends on the thickness of the slice depending on the slice thickness). If it is thin, the number of images increases.) If the MIP image is made, the missing portion can be compensated.

撮影後、血管などの位置が合っていないので位置合わせ演算を行うが、その位置合わせ演算によって完全に位置を合わせることが困難であるという問題を解決するために、本実施の形態による方法では、当日画像aの小領域中心座標(x,y)画素値から過去画像bの(x,y)付近の画素値の最大値を引く。原理は図7で説明した場合と同様である。   After imaging, the position of the blood vessel or the like is not aligned, so the alignment calculation is performed.To solve the problem that it is difficult to align the position completely by the alignment calculation, in the method according to the present embodiment, The maximum value of the pixel values in the vicinity of (x, y) of the past image b is subtracted from the pixel coordinates (x, y) of the small area of the image a on the current day. The principle is the same as that described with reference to FIG.

上記両者を考慮して、本実施の形態による方法では、当日画像aの(x,y)画素値から過去画像bを含むMIP画像の(x,y)付近の画素値の最大値を引く。   Considering both of the above, in the method according to the present embodiment, the maximum value of the pixel values in the vicinity of (x, y) of the MIP image including the past image b is subtracted from the (x, y) pixel value of the image a on the day.

MIP画像B1は、画像a1に対応する画像b3を含む少なくとも2枚の複数画像から作成する。MIP画像B1は、計測データから厚さの厚いスライス画像を再構成することにより作成してもよい。MIP画像Bnも同様に作成する。   The MIP image B1 is created from at least two images including the image b3 corresponding to the image a1. The MIP image B1 may be created by reconstructing a thick slice image from the measurement data. The MIP image Bn is created similarly.

差分画像1は画像a1とMIP画像B1との差分であり、差分画像2は画像a2とMIP画像B2との差分である。以下同様に、差分画像nは画像anとMIP画像Bnとの差分である。   The difference image 1 is a difference between the image a1 and the MIP image B1, and the difference image 2 is a difference between the image a2 and the MIP image B2. Similarly, the difference image n is a difference between the image an and the MIP image Bn.

また、図45に、補間画像作成の変形例として、MIP画像Bnを画像a4に対応する画像b6を上下非対称に含む4枚の画像から作成する場合を示す。   FIG. 45 shows a case where the MIP image Bn is created from four images including an image b6 corresponding to the image a4 in a vertically asymmetric manner as a modified example of the interpolation image creation.

次に、医用画像処理装置10での主要な処理である引き算方法について、図46を用いて説明する。   Next, a subtraction method which is a main process in the medical image processing apparatus 10 will be described with reference to FIG.

(ステップ161)
撮影日付の違う画像群間で相関の最も高い対画像(aは時間的に当日画像、bは過去画像)を求める。
(Step 161)
A pair of images having the highest correlation between image groups with different shooting dates (a is the current day image and b is the past image) is obtained.

(ステップ162)
次に、日付が先の画像bを含む複数画像から対象部位を抽出する。部位が頭部である場合などでは、このステップを省略してもよい。
(Step 162)
Next, the target part is extracted from a plurality of images including the image b whose date is earlier. This step may be omitted when the region is the head.

(ステップ163)
抽出画像を用いてMIP画像cを作成する。抽出ステップが省略されている場合は、そのままMIP画像cを作成する。更に、MIP画像を作成する際に、最大値を見つける範囲、即ち隣接するスライス画像から最大値を見つける範囲をCT値のCT1〜CT2の範囲とする場合もある。また、このMIP画像cの代わりにスライス厚の厚い断層像を再構成して用いてもよい。
(Step 163)
An MIP image c is created using the extracted image. If the extraction step is omitted, the MIP image c is created as it is. Furthermore, when creating a MIP image, the range in which the maximum value is found, that is, the range in which the maximum value is found from adjacent slice images may be set as the CT values CT1 to CT2. Further, a tomographic image having a thick slice thickness may be reconstructed and used instead of the MIP image c.

(ステップ164)
画像aと画像cとの位置合わせをする。この位置合わせの際、必要に応じて、平均濃度や濃度ヒストグラムも一致させると位置合わせ処理がしやすくなる。
(Step 164)
Image a and image c are aligned. At the time of this alignment, if necessary, the alignment process is facilitated by matching the average density and the density histogram.

(ステップ165)
x、yに初期値を代入する。この場合の初期値とは、画像の読み出しアドレスの開始アドレスを意味する。
(Step 165)
Substitute initial values for x and y. The initial value in this case means the start address of the image read address.

(ステップ166)
画像aの(x,y)点の画素値から画像cの(x,y)を含む小領域内の最大画素値(引き算値に一定値を掛けた値も含む)を引き算する。
(Step 166)
The maximum pixel value (including a value obtained by multiplying the subtraction value by a constant value) is subtracted from the pixel value at the point (x, y) of the image a in the small area including (x, y) of the image c.

(ステップ167)
引き算値を用いて表示に適した値に変換し、表示メモリに格納する。
(Step 167)
Using the subtracted value, it is converted to a value suitable for display and stored in the display memory.

(ステップ168)
xに1を加える。つまり、画像の読み出しアドレスxを更新する。
(Step 168)
Add 1 to x. That is, the image readout address x is updated.

(ステップ169)
画像の読み出しアドレスxが最大値であるか否かを判定する。最大値でなければステップ166へ、最大値であればステップ16Aへ進む。
(Step 169)
It is determined whether or not the image read address x is the maximum value. If it is not the maximum value, the process proceeds to step 166, and if it is the maximum value, the process proceeds to step 16A.

(ステップ16A)
yに1を加える。つまり、画像の読み出しアドレスyを更新する。
(Step 16A)
Add 1 to y. That is, the image read address y is updated.

(ステップ16B)
画像の読み出しアドレスyが最大値であるか否かを判定する。最大値でなければステップ16Cへ進み、最大値であれば処理を終了する。
(Step 16B)
It is determined whether the image read address y is the maximum value. If it is not the maximum value, the process proceeds to step 16C, and if it is the maximum value, the process is terminated.

(ステップ16C)
xに初期値を代入する。つまり、画像の読み出しアドレスyを更新したアドレスでxが初期値のアドレスに設定されることになる。
(Step 16C)
Substitute an initial value for x. That is, x is set to an initial address by updating the image read address y.

次に、図47にしたがって、原画像を用いた検出処理の結果と差分画像を用いた検出処理の結果とを組み合わせる方法を説明する。   Next, a method of combining the result of the detection process using the original image and the result of the detection process using the difference image will be described with reference to FIG.

(ステップ171)
原画像を用いた検出処理(A)を行う。
(Step 171)
A detection process (A) using the original image is performed.

(ステップ172)
差分画像を用いた検出処理(B)を行う。
(Step 172)
A detection process (B) using the difference image is performed.

(ステップ173)
操作者が検出率を優先に選択したか否かを判定する。検出率優先を選択した場合ステップ174へ、選択しなかった場合ステップ175へ進む。
(Step 173)
It is determined whether the operator has selected the detection rate with priority. If detection priority is selected, the process proceeds to step 174. If not selected, the process proceeds to step 175.

(ステップ174)
A,B両者の検出箇所のOR処理を行い、その後処理を終了する。
(Step 174)
An OR process is performed on the detected portions of both A and B, and then the process ends.

(ステップ175)
操作者が偽陽性削減を優先に選択したか否かを判定する。偽陽性削減優先を選択した場合ステップ176へ、選択しなかった場合処理を終了する。
(Step 175)
It is determined whether or not the operator preferentially selects false positive reduction. If false positive reduction priority is selected, the process proceeds to step 176. If not selected, the process is terminated.

(ステップ176)
A,B両者の検出箇所のAND処理を行い、その後処理を終了する。
(Step 176)
An AND process is performed on the detected portions of both A and B, and then the process ends.

更に、差分処理は当日画像及び過去画像の全ての画像間でするのではなく、原当日画像を用いた異常陰影検出処理で異常個所が検出された画像に対応する過去画像のみを自動的にデータベースから読み出して、当日画像との差分処理をしてもよい。   Furthermore, the difference processing is not performed between all images of the current day image and the past image, but only the past image corresponding to the image where the abnormal part is detected by the abnormal shadow detection processing using the original day image is automatically databased. May be read out from the image and the difference process with the image of the day may be performed.

以上説明した処理において、過去画像と当日画像とを入れ替えて処理を行ってもよく、同様の結果を得ることができる。   In the processing described above, the past image and the current day image may be exchanged, and the same result can be obtained.

以上説明したように本発明によれば、画像の陰影が強調され、がん等の異常陰影を容易に見つけることができる。   As described above, according to the present invention, the shadow of an image is enhanced, and an abnormal shadow such as cancer can be easily found.

図1は、本発明の実施の形態に係る医用画像処理装置の構成を示す図であり;FIG. 1 is a diagram showing a configuration of a medical image processing apparatus according to an embodiment of the present invention; 図2は、図1の機能ブロック図であり、FIG. 2 is a functional block diagram of FIG. 図3は、医用画像処理装置の操作画面を示す図であり;FIG. 3 is a diagram showing an operation screen of the medical image processing apparatus; 図4は、差分処理の概要を示す図であり;FIG. 4 is a diagram showing an outline of the difference processing; 図5は、当日画像の例を示す図であり;FIG. 5 is a diagram showing an example of the day image; 図6は、単純差分画像の例を示す図であり;FIG. 6 is a diagram showing an example of a simple difference image; 図7は、差分処理の手順の例を示す図であり;FIG. 7 is a diagram showing an example of the procedure of difference processing; 図8は、濃度勾配最大方向を求める例を示す図であり;FIG. 8 is a diagram showing an example of obtaining the maximum concentration gradient direction; 図9は、濃度勾配最大方向を求める他の例を示す図であり;FIG. 9 is a diagram showing another example of obtaining the maximum concentration gradient direction; 図10(a)及び10(b)は、単純差分処理と異方性差分処理との比較を示す図であり;10 (a) and 10 (b) are diagrams showing a comparison between simple difference processing and anisotropic difference processing; 図11は、異方性差分処理による画像の例を示す図であり;FIG. 11 is a diagram showing an example of an image by anisotropic difference processing; 図12は、異常陰影に丸印をつけた画像を示す図であり;FIG. 12 is a diagram showing an image with an abnormal shadow circled; 図13は、当日画像の他の例を示す図であり;FIG. 13 is a diagram showing another example of the day image; 図14は、本実施形態に係る差分処理による画像の他の例を示す図であり;FIG. 14 is a diagram showing another example of an image by difference processing according to the present embodiment; 図15は、別々に処理した差分画像と輪郭画像との合成を示す図であり;FIG. 15 is a diagram illustrating the synthesis of separately processed difference images and contour images; 図16は、差分処理画像と輪郭画像との合成画像の例を示す図であり;FIG. 16 is a diagram illustrating an example of a composite image of a difference processed image and a contour image; 図17は、差分画像と輪郭画像との一画素ごとの合成手順を示す図であり;FIG. 17 is a diagram showing a synthesis procedure for each pixel of the difference image and the contour image; 図18は、濃度勾配最大方向が図9と異なる場合の例を示す図であり;18 is a diagram showing an example in which the maximum concentration gradient direction is different from FIG. 9; 図19は、差分処理の手順の他の例を示す図であり;FIG. 19 is a diagram showing another example of the difference processing procedure; 図20は、濃度勾配最大方向を求める他の例を示す図であり;FIG. 20 is a diagram showing another example of obtaining the maximum concentration gradient direction; 図21は、特定方向領域の他の例を示す図であり;FIG. 21 is a diagram showing another example of the specific direction area; 図22は、DR画像での差分処理の例を示す図であり;FIG. 22 is a diagram showing an example of difference processing in a DR image; 図23は、単純差分法による当日画像と過去画像との概略位置合わせを示す図であり;FIG. 23 is a diagram showing a schematic alignment between the current day image and the past image by the simple difference method; 図24は、単純差分法による当日画像と過去画像との詳細位置合わせを示す図であり;FIG. 24 is a diagram showing the detailed alignment of the current day image and the past image by the simple difference method; 図25は、本実施形態に係る画像の概略位置合わせを示す図であり;FIG. 25 is a diagram showing schematic alignment of images according to the present embodiment; 図26は、本実施形態に係る画像の詳細位置合わせを示す図であり;FIG. 26 is a diagram showing detailed registration of an image according to the present embodiment; 図27は、本実施形態に係る画像の詳細位置合わせの他の例を示す図であり;FIG. 27 is a diagram showing another example of detailed image alignment according to the present embodiment; 図28は、医用画像処理装置の画面例を示す図であり;FIG. 28 is a diagram showing a screen example of the medical image processing apparatus; 図29は、医用画像処理装置の画面操作の流れを示す図であり;FIG. 29 is a diagram showing a flow of screen operations of the medical image processing apparatus; 図30は、特徴量を用いた低濃度化処理を示す図であり;FIG. 30 is a diagram showing a density reduction process using feature amounts; 図31は、エッジ画像間の相関画像を用いた偽陽性低濃度化処理を示す図であり;FIG. 31 is a diagram showing a false positive concentration reduction process using a correlation image between edge images; 図32は、エッジ画像間の相関画像を用いた偽陽性の低濃度化処理の他の例を示す図であり;FIG. 32 is a diagram showing another example of false positive density reduction processing using correlation images between edge images; 図33は、DR画像のエッジを強調したエッジ画像間の相関を用いた低濃度化処理を示す図であり;FIG. 33 is a diagram showing a density reduction process using a correlation between edge images in which edges of a DR image are emphasized; 図34は、二点間置換処理による低濃度化処理を示す図であり;FIG. 34 is a diagram showing a concentration reduction process by a two-point replacement process; 図35は、表示画面上のカーソル連動表示の例を示す図であり;FIG. 35 is a diagram showing an example of cursor-linked display on the display screen; 図36は、表示画面上のカーソル連動表示の他の例を示す図であり;FIG. 36 is a diagram showing another example of cursor-linked display on the display screen; 図37は、複数枚の当日画像における血管の写り方の例を示す図であり;FIG. 37 is a diagram showing an example of how blood vessels are captured in a plurality of images on the day; 図38は、複数枚の過去画像における血管の写り方の例を示す図であり;FIG. 38 is a diagram showing an example of how blood vessels are captured in a plurality of past images; 図39は、図37及び38の当日画像及び過去画像の差分処理を説明する図であり;FIG. 39 is a diagram for explaining the difference processing between the current day image and the past image in FIGS. 37 and 38; 図40は、局所領域の異なる取り方の例を示す図であり;FIG. 40 is a diagram showing an example of how to take different local regions; 図41は、局所領域の異なる取り方の他の例を示す図であり;FIG. 41 is a diagram showing another example of how to take different local regions; 図42は、局所領域の異なる取り方の他の例を示す図であり;FIG. 42 is a diagram showing another example of how to take different local regions; 図43は、局所領域の異なる取り方の他の例を示す図であり;FIG. 43 is a diagram showing another example of how to take different local regions; 図44は、局所領域の異なる取り方の他の例を示す図であり;FIG. 44 is a diagram showing another example of how to take different local regions; 図45は、局所領域の異なる取り方の他の例を示す図であり;FIG. 45 is a diagram showing another example of how to take different local regions; 図46は、陰影強調の他の処理例を示す図であり;FIG. 46 is a diagram showing another processing example of shadow enhancement; 図47は、図46のステップ162の処理で用いるサブルーチンを示す図である。FIG. 47 is a diagram showing a subroutine used in the processing of step 162 in FIG.

Claims (9)

医用画像診断装置によって撮影された被検者の所定部位を第一の医用画像として記憶する第一の記憶手段と、First storage means for storing a predetermined portion of the subject imaged by the medical image diagnostic apparatus as a first medical image;
前記第一の記憶手段に記憶された第一の画像が撮影された日時と異なる前記同一被検者でかつ同一部位の第二の医用画像を記憶する第二の記憶手段と、Second storage means for storing a second medical image of the same subject that is different from the date and time when the first image stored in the first storage means was taken;
前記第一の記憶手段によって記憶された第一の医用画像に少なくとも一つの画素を要素とする複数の第一の局所領域を設定する第一の設定手段と、First setting means for setting a plurality of first local regions having at least one pixel as an element in the first medical image stored by the first storage means;
前記第一の設定手段によって設定された複数の第一の局所領域のそれぞれに対応し、それらの第一の局所領域以上の広さを有する複数の第二の局所領域を前記第二の記憶手段に記憶された第二の画像に設定する第二の設定手段と、A plurality of second local areas corresponding to each of the plurality of first local areas set by the first setting means and having a width larger than those of the first local areas are stored in the second storage means. Second setting means for setting the second image stored in
前記第二の設定手段によって設定された複数の第二の局所領域毎に濃度値の基準値を算出する基準値算出手段と、Reference value calculating means for calculating a reference value of density value for each of the plurality of second local regions set by the second setting means;
前記基準値算出手段によって算出された基準値と、前記第一の設定手段によって設定された複数の第一の局所領域の各画素の濃度値とに基づいて前記第一の局所領域毎に強調画像を作成する画像作成手段と、An enhanced image for each first local region based on the reference value calculated by the reference value calculating unit and the density value of each pixel of the plurality of first local regions set by the first setting unit Image creation means for creating
前記画像作成手段によって作成された強調画像を表示する表示手段と、を備え、Display means for displaying the emphasized image created by the image creating means,
前記基準値算出手段によって算出される基準値は、前記第二の設定手段によって設定された第二の局所領域毎の局所最大値、局所平均値、局所メジアンの少なくとも一つ又はそれらの定数倍であり、The reference value calculated by the reference value calculating means is at least one of a local maximum value, a local average value, a local median for each second local region set by the second setting means, or a constant multiple thereof. Yes,
前記基準値算出手段は、前記第二の設定手段によって設定された第二の局所領域の濃度勾配最大方向を算出する方向算出手段を更に備え、前記基準値算出手段は、前記方向算出手段によって算出された濃度勾配最大方向に沿った画素値から濃度値の最大値、その最大値を定数倍した値、前記最大値に濃度値の関数を乗じた値、前記最大値に濃度分布の近似関数を乗じた値、前記最大値を定数倍に前記第一の画像の濃度勾配最大方向と前記第二の画像の濃度勾配最大方向との成す角度の関数を乗じた値、濃度値が最大値となる画素近傍での濃度値の平均値のうちの何れか一つの値を用いて前記局所最大値を算出することを特徴とする、医用画像処理装置。The reference value calculating means further includes a direction calculating means for calculating the maximum concentration gradient direction of the second local region set by the second setting means, and the reference value calculating means is calculated by the direction calculating means. The maximum value of the density value from the pixel value along the density gradient maximum direction, a value obtained by multiplying the maximum value by a constant, a value obtained by multiplying the maximum value by a function of the density value, and an approximation function of the density distribution to the maximum value. A value obtained by multiplying the multiplied value, the maximum value by a constant, and a function of an angle formed by the density gradient maximum direction of the first image and the density gradient maximum direction of the second image becomes the maximum value. A medical image processing apparatus, wherein the local maximum value is calculated using any one of average values of density values in the vicinity of a pixel.
前記画像作成手段は、前記基準値算出手段によって算出された基準値と、前記第一の設定手段によって設定された複数の第一の局所領域の各画素の濃度値との差分値を計算し、該計算された差分値に基づいて前記第一の局所領域毎に強調画像を作成することを特徴とする請求項1に記載の医用画像処理装置。The image creating means calculates a difference value between the reference value calculated by the reference value calculating means and the density value of each pixel of the plurality of first local regions set by the first setting means, The medical image processing apparatus according to claim 1, wherein an emphasized image is created for each of the first local regions based on the calculated difference value. 前記画像作成手段は、第一又は第二の医用画像の輪郭画像を生成する輪郭画像生成手段と、前記輪郭画像と前記強調画像とを重畳する画像重畳手段とを備え、The image creating means includes a contour image generating means for generating a contour image of the first or second medical image, and an image superimposing means for superimposing the contour image and the emphasized image,
前記表示手段は、前記画像重畳手段によって重畳された重畳画像を表示することを特徴とする請求項1に記載の医用画像処理装置。The medical image processing apparatus according to claim 1, wherein the display unit displays the superimposed image superimposed by the image superimposing unit.
前記第一の医用画像と前記第二の医用画像との位置合わせを行う位置合わせ手段を更に備えることを特徴とする請求項1に記載の医用画像処理装置。The medical image processing apparatus according to claim 1, further comprising an alignment unit configured to align the first medical image and the second medical image. 前記画像作成手段によって作成された強調画像において前記位置合わせ手段による位置合わせの不完全性により生じた擬似陰影を低濃度化して擬似陰影削減画像を作成する低濃度化手段を更に備え、Further comprising a density reducing means for creating a pseudo-shadow-reduced image by reducing the density of the pseudo-shadow generated by the incomplete alignment of the positioning means in the enhanced image created by the image creating means,
前記表示手段は、前記低濃度化手段によって作成された擬似陰影削減画像を表示することを特徴とする請求項4に記載の医用画像処理装置。The medical image processing apparatus according to claim 4, wherein the display unit displays a pseudo-shadow-reduced image created by the density reduction unit.
前記表示手段に表示されるカーソルを操作するポインティングデバイスを更に備え、A pointing device for operating a cursor displayed on the display means;
前記表示手段は、前記第一の医用画像、前記第二の医用画像、前記画像作成手段によって作成された強調画像のうち少なくとも二つの画像を並列表示し、並列表示されたそれぞれの画像に前記ポインティングデバイスによって操作されるカーソルを表示し、The display means displays in parallel at least two images among the first medical image, the second medical image, and the emphasized image created by the image creation means, and the pointing is displayed on each of the images displayed in parallel. Displays the cursor operated by the device,
前記カーソルは、前記並列表示されたそれぞれの画像上において前記ポインティングデバイスの操作により連動することを特徴とする請求項1に記載の医用画像処理装置。The medical image processing apparatus according to claim 1, wherein the cursor is interlocked by an operation of the pointing device on each of the images displayed in parallel.
前記基準値算出手段は、前記第二の設定手段によって設定された複数の第二の局所領域について、スライス方向に隣接する複数の前記第二の医用画像によって形成されるMIP画像を含む三次元情報により前記基準値を算出することを特徴とする請求項1に記載の医用画像処理装置。The reference value calculation means includes three-dimensional information including MIP images formed by the plurality of second medical images adjacent to each other in the slice direction for the plurality of second local regions set by the second setting means. The medical image processing apparatus according to claim 1, wherein the reference value is calculated by: 前記表示手段に表示される強調画像の表示条件について異常陰影の検出率を優先するか、偽陽性削減を優先するかを設定する表示条件設定手段を更に備えることを特徴とする請求項1に記載の医用画像処理装置。2. The display condition setting means for setting whether to give priority to an abnormal shadow detection rate or false positive reduction as a display condition of an emphasized image displayed on the display means. Medical image processing apparatus. 医用画像診断装置によって撮影された被検者の所定部位を第一の医用画像として記憶する第一の記憶工程と、A first storage step of storing a predetermined portion of the subject imaged by the medical image diagnostic apparatus as a first medical image;
前記第一の記憶工程に記憶された第一の画像が撮影された日時と異なる前記同一被検者でかつ同一部位の第二の医用画像を記憶する第二の記憶工程と、A second storage step of storing a second medical image of the same subject that is different from the date and time when the first image stored in the first storage step was taken;
前記第一の記憶工程によって記憶された第一の医用画像に少なくとも一つの画素を要素とする複数の第一の局所領域を設定する第一の設定工程と、A first setting step of setting a plurality of first local regions having at least one pixel as an element in the first medical image stored in the first storage step;
前記第一の設定工程によって設定された複数の第一の局所領域のそれぞれに対応し、それらの第一の局所領域以上の広さを有する複数の第二の局所領域を前記第二の記憶工程に記憶された第二の画像に設定する第二の設定工程と、A plurality of second local regions corresponding to each of the plurality of first local regions set by the first setting step and having a width equal to or larger than those first local regions are stored in the second storage step. A second setting step for setting the second image stored in
前記第二の設定工程によって設定された複数の第二の局所領域毎に濃度値の基準値を算出する基準値算出工程と、A reference value calculating step for calculating a reference value of the density value for each of the plurality of second local regions set by the second setting step;
前記基準値算出工程によって算出された基準値と、前記第一の設定工程によって設定された複数の第一の局所領域の各画素の濃度値とに基づいて前記第一の局所領域毎に強調画像を作成する画像作成工程と、The enhanced image for each first local region based on the reference value calculated by the reference value calculating step and the density value of each pixel of the plurality of first local regions set by the first setting step Image creation process to create
前記画像作成工程によって作成された強調画像を表示する表示工程と、A display step for displaying the emphasized image created by the image creation step;
を備え、With
前記基準値算出工程によって算出される基準値は、前記第二の設定工程によって設定された第二の局所領域毎の局所最大値、局所平均値、局所メジアンの少なくとも一つ又はそれらの定数倍であり、The reference value calculated by the reference value calculating step is at least one of a local maximum value, a local average value, a local median for each second local region set by the second setting step, or a constant multiple thereof. Yes,
前記基準値算出工程は、前記第二の設定工程によって設定された第二の局所領域の濃度勾配最大方向を算出する方向算出工程を更に備え、前記基準値算出工程は、前記方向算出工程によって算出された濃度勾配最大方向に沿った画素値から濃度値の最大値、その最大値を定数倍した値、前記最大値に濃度値の関数を乗じた値、前記最大値に濃度分布の近似関数を乗じた値、前記最大値を定数倍に前記第一の画像の濃度勾配最大方向と前記第二の画像の濃度勾配最大方向との成す角度の関数を乗じた値、濃度値が最大値となる画素近傍での濃度値の平均値のうちの何れか一つの値を用いて前記局所最大値を算出することを特徴とする、医用画像処理方法。The reference value calculating step further includes a direction calculating step of calculating a concentration gradient maximum direction of the second local region set by the second setting step, and the reference value calculating step is calculated by the direction calculating step. The maximum value of the density value from the pixel value along the density gradient maximum direction, a value obtained by multiplying the maximum value by a constant, a value obtained by multiplying the maximum value by a function of the density value, and an approximation function of the density distribution to the maximum value. A value obtained by multiplying the multiplied value, the maximum value by a constant, and a function of an angle formed by the density gradient maximum direction of the first image and the density gradient maximum direction of the second image becomes the maximum value. A medical image processing method, wherein the local maximum value is calculated using any one of average values of density values in the vicinity of a pixel.
JP2005512118A 2003-07-28 2004-07-28 Medical image processing apparatus and method Expired - Fee Related JP4408863B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2003280987 2003-07-28
JP2003280987 2003-07-28
JP2004097873 2004-03-30
JP2004097873 2004-03-30
PCT/JP2004/011111 WO2005009242A1 (en) 2003-07-28 2004-07-28 Medical image processing device and method

Publications (2)

Publication Number Publication Date
JPWO2005009242A1 JPWO2005009242A1 (en) 2006-09-07
JP4408863B2 true JP4408863B2 (en) 2010-02-03

Family

ID=34106914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005512118A Expired - Fee Related JP4408863B2 (en) 2003-07-28 2004-07-28 Medical image processing apparatus and method

Country Status (2)

Country Link
JP (1) JP4408863B2 (en)
WO (1) WO2005009242A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4626984B2 (en) * 2005-02-21 2011-02-09 株式会社日立メディコ Difference image generating apparatus and method
JP5133505B2 (en) * 2005-06-24 2013-01-30 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image determination apparatus and X-ray CT apparatus
JP5105584B2 (en) * 2007-04-12 2012-12-26 富士フイルム株式会社 Target area display device and program
JPWO2010016293A1 (en) * 2008-08-08 2012-01-19 コニカミノルタエムジー株式会社 MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY METHOD, AND PROGRAM
JP2011024763A (en) * 2009-07-24 2011-02-10 Hitachi Ltd Image processing method and image processor
US11231787B2 (en) 2010-10-06 2022-01-25 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures
US8942512B2 (en) * 2011-12-24 2015-01-27 Ecole De Technologie Superieure Methods and systems for processing a first image with reference to a second image
JP6507731B2 (en) * 2015-03-10 2019-05-08 富士通株式会社 Interpolated image generation apparatus, interpolated image generation method, and computer program for interpolated image generation
JP6578375B2 (en) * 2015-12-10 2019-09-18 株式会社日立製作所 Image processing apparatus and image processing method
JP6593210B2 (en) * 2016-02-08 2019-10-23 コニカミノルタ株式会社 Display control apparatus, medical image adjustment method, program, and medical image management system
JP7140475B2 (en) * 2017-08-03 2022-09-21 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, IMAGE PROCESSING SYSTEM AND PROGRAM
JP7220542B2 (en) * 2018-10-10 2023-02-10 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM
DE112021001411T5 (en) * 2020-03-05 2023-04-13 Fujifilm Corporation MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD, MEDICAL IMAGE PROGRAM AND DISPLAY SYSTEM

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169182A (en) * 1999-12-07 2001-06-22 Fuji Photo Film Co Ltd Method and device for displaying image
JP2001170035A (en) * 1999-12-16 2001-06-26 Fuji Photo Film Co Ltd Method and instrument image display
JP2001325583A (en) * 2000-03-08 2001-11-22 Fuji Photo Film Co Ltd Method and device for image processing
JP4104054B2 (en) * 2001-08-27 2008-06-18 富士フイルム株式会社 Image alignment apparatus and image processing apparatus
JP4028209B2 (en) * 2001-10-24 2007-12-26 株式会社日立メディコ X-ray CT system

Also Published As

Publication number Publication date
JPWO2005009242A1 (en) 2006-09-07
WO2005009242A1 (en) 2005-02-03

Similar Documents

Publication Publication Date Title
US7916918B2 (en) Diagnostic system for multimodality mammography
US5359513A (en) Method and system for detection of interval change in temporally sequential chest images
Ko et al. Computer-aided diagnosis and the evaluation of lung disease
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
JP4640845B2 (en) Image processing apparatus and program thereof
US9675317B2 (en) Interface identification apparatus and method
US8059900B2 (en) Method and apparatus to facilitate visualization and detection of anatomical shapes using post-processing of 3D shape filtering
US9659390B2 (en) Tomosynthesis reconstruction with rib suppression
JP4408863B2 (en) Medical image processing apparatus and method
EP2939217B1 (en) Computer-aided identification of a tissue of interest
Antonelli et al. Segmentation and reconstruction of the lung volume in CT images
KR20100089704A (en) Multistage matching method and apparatus of pulmonary nodules in serial computed tomography scan
Kurazume et al. 3D reconstruction of a femoral shape using a parametric model and two 2D fluoroscopic images
Betke et al. Automatic 3D registration of lung surfaces in computed tomography scans
US8306354B2 (en) Image processing apparatus, method, and program
US8577101B2 (en) Change assessment method
JP2002219123A (en) Projection conversion system and device and method for producing fractional images depending on the difference over time
KR101274530B1 (en) Chest image diagnosis system based on image warping, and method thereof
JP4493436B2 (en) Image interpretation support method, apparatus and program
JP2008029798A (en) Chest x-ray image and subtraction method using its right and left reversed image
JP2003250794A (en) Tumor region-detecting method and x-ray ct apparatus
JP4082718B2 (en) Image recognition method, image display method, and image recognition apparatus
JP6642048B2 (en) Medical image display system, medical image display program, and medical image display method
JP4613317B2 (en) Subtraction method for detecting temporal changes from two chest X-ray images that are temporally continuous
US20080137928A1 (en) Method and System for Registering CT Data Sets

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090713

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131120

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees