WO2005009242A1 - 医用画像処理装置及び方法 - Google Patents

医用画像処理装置及び方法 Download PDF

Info

Publication number
WO2005009242A1
WO2005009242A1 PCT/JP2004/011111 JP2004011111W WO2005009242A1 WO 2005009242 A1 WO2005009242 A1 WO 2005009242A1 JP 2004011111 W JP2004011111 W JP 2004011111W WO 2005009242 A1 WO2005009242 A1 WO 2005009242A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
value
medical image
density
local
Prior art date
Application number
PCT/JP2004/011111
Other languages
English (en)
French (fr)
Inventor
Yoshihiro Goto
Original Assignee
Hitachi Medical Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corporation filed Critical Hitachi Medical Corporation
Priority to JP2005512118A priority Critical patent/JP4408863B2/ja
Publication of WO2005009242A1 publication Critical patent/WO2005009242A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Definitions

  • the present invention relates to a medical image processing apparatus and method, and more particularly to a medical image processing apparatus and method for creating a shadow enhanced image and a difference image from a medical image.
  • the medical image processing apparatus of the present invention includes: a first storage unit configured to store a predetermined part of a subject captured by the medical image diagnostic apparatus as a first medical image; and a first storage unit configured to store the first part stored in the first storage unit.
  • the same subject different from the date and time when one image was taken and a second of the same site Second storage means for storing a medical image, and first setting for setting a plurality of first local regions each having at least one pixel as an element in the first medical image stored by the first storage means Means, and a plurality of second local areas corresponding to each of the plurality of first local areas set by the first setting means and having a size equal to or larger than the first local areas.
  • a second setting unit for setting the second image stored in the second storage unit; and calculating a reference value of a density value for each of the plurality of second local regions set by the second setting unit. Based on the reference value calculated by the reference value calculating means, and the density values of the pixels in the plurality of first local regions set by the first setting means.
  • An image creation method for creating an enhanced image for each of the first local regions. When, and display means for displaying an enhanced image that was created Te cowpea to said image forming means.
  • the reference value referred to here means a local maximum value, a local average value, a local median, a constant multiple of the local maximum value or the local average value, a density gradient, and a value relating to the density gradient determined according to the characteristics of the medical image.
  • the use of the maximum value is the simplest and most effective value
  • the use of the average value or the median suppresses the noise component of the image from the maximum value
  • the use of the density gradient reduces the values of adjacent pixels and neighboring pixels. Can respond to sudden changes.
  • the emphasized image is created by the image creating means based on a difference value between the reference value and the density value of each pixel in the first local area, and based on the calculated difference value. Is the most desirable, but if it can perform the function of enhancing only the cancer shadow, it can be performed in all calculations such as addition, multiplication, and division.
  • the shading of an image is emphasized and the abnormal shading of cancer etc. can be easily found, even if the position shift occurs between the image on the day and the past image.
  • the image creating unit includes: a contour image generating unit that generates a contour image of a first or second medical image; and superimposing the contour image and the enhanced image.
  • Image superimposing means, and the display means displays a superimposed image superimposed by the image superimposing means.
  • the shadow is emphasized in the shadow-enhanced image by superimposing the outline on the shadow-enhanced image. Even if it is difficult to determine where the position is located, it is possible to easily grasp the position of the abnormal shadow while emphasizing the abnormal shadow such as cancer.
  • the apparatus further includes a positioning unit that performs positioning between the first medical image and the second medical image.
  • pseudo-shading caused by imperfect registration by the positioning unit is reduced in density as compared with the emphasized image created by the image creating unit, and the pseudo-shading is reduced.
  • a density reduction unit configured to generate a reduced image, wherein the display unit displays the pseudo-shadow reduction image generated by the density reduction unit.
  • FIG. 1 is a diagram showing a configuration of a medical image processing apparatus according to an embodiment of the present invention
  • FIG. 2 is a functional block diagram of FIG.
  • FIG. 3 is a diagram showing an operation screen of the medical image processing apparatus
  • Figure 4 is a diagram showing the outline of the difference processing
  • Figure 5 shows an example of an image of the day
  • Figure 6 shows an example of a simple difference image
  • Figure 7 is a diagram showing an example of the procedure of the difference processing
  • Figure 8 is a diagram showing an example of finding the maximum concentration gradient direction
  • Figure 9 is a diagram showing another example of finding the maximum direction of the concentration gradient.
  • Figures 10 (a) and 10 (b) show a comparison between simple difference processing and anisotropic difference processing
  • FIG. 11 is a diagram showing an example of an image obtained by anisotropic difference processing
  • Figure 12 shows an image with an abnormal shadow circled:
  • Figure 13 is a diagram showing another example of the image of the day.
  • FIG. 14 is a diagram showing another example of an image obtained by the difference processing according to the present embodiment
  • FIG. 15 is a diagram showing the combination of a separately processed difference image and a contour image
  • FIG. 17 is a diagram showing a procedure for synthesizing a difference image and a contour image for each pixel;
  • FIG. 18 is a diagram showing an example in which the maximum density gradient direction is different from FIG. 9;
  • FIG. 19 is a diagram showing another example of the procedure of the difference processing.
  • FIG. 20 is a diagram showing another example of obtaining the maximum direction of the concentration gradient
  • FIG. 21 is a diagram showing another example of the specific direction area
  • FIG. 22 is a diagram showing an example of difference processing on a DR image
  • Figure 23 shows the schematic registration of the current day image and the past image by the simple difference method
  • Figure 24 is a diagram showing the detailed registration of the current day image and the past image by the simple difference method
  • FIG. 25 is a diagram showing a schematic alignment of an image according to the present embodiment.
  • FIG. 26 is a diagram showing detailed registration of an image according to the present embodiment.
  • FIG. 27 is a diagram showing another example of the detailed registration of the image according to the present embodiment
  • FIG. 28 is a diagram showing an example of a screen of the medical image processing apparatus
  • FIG. 29 is a diagram showing a flow of screen operation of the medical image processing apparatus.
  • FIG. 30 is a diagram showing a density reduction process using a feature amount
  • FIG. 31 is a diagram showing a false-positive density reduction process using a correlation image between edge images
  • FIG. 32 is another diagram showing another false-positive density reduction process using a correlation image between edge images. Figure showing an example
  • FIG. 33 is a diagram showing the density reduction processing using the correlation between the edge images in which the edges of the DR image are emphasized;
  • Figure 34 is a diagram showing the concentration reduction processing by the two-point replacement processing
  • FIG. 35 is a diagram showing an example of cursor-linked display on the display screen
  • FIG. 36 is a diagram showing another example of cursor-linked display on the display screen
  • FIG. 37 is a diagram showing an example of how blood vessels are captured in a plurality of images of the same day;
  • FIG. 38 is a diagram showing an example of how blood vessels are captured in a plurality of past images;
  • FIG. FIGS. 37 and 38 are diagrams illustrating the difference processing between the current day image and the past image in FIGS. 37 and 38;
  • FIG. 40 is a diagram illustrating an example of how to take a local region differently;
  • Fig. 41 is a diagram showing another example of how to take local regions differently.
  • Fig. 42 is a diagram showing another example of how to take different local regions.
  • Fig. 43 is a diagram showing another example of how to take different local regions.
  • FIG. 4 is a diagram showing another example of how to take different local regions.
  • Fig. 45 is a diagram showing another example of how to take different local regions.
  • FIG. 46 is a diagram showing another processing example of the shadow enhancement.
  • FIG. 47 is a diagram showing a subroutine used in the processing of step 162 in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows a configuration of a medical image processing apparatus 10 according to an embodiment of the present invention.
  • the medical image processing unit 10 is a central processing unit (hereinafter referred to as CPU) 11, main memory 12, magnetic disk 13, display memory 14, CRT 15, controller 16, mouse 16, mouse 17, keyboard , which are connected via a common bus 19. Further, the medical image photographing device 30 is connected to the medical image processing device 10 via, for example, RAN 32.
  • CPU central processing unit
  • the medical imaging equipment 30 is an X-ray CT (Co-immediate uted Tomography) equipment, a PET (Positron Emission ion Tomography) equipment, an MR I (Magnetic Resonance Imaging) gS ⁇ DR (Digital Radiography) equipment, an ultrasonic wave It may be an imaging device, a fundus camera, or the like, but is not limited thereto, and may be any device that captures a medical image. Also, medical images Medical images to be processed by the processing device 10 include medical images obtained by the various medical image capturing devices described above.
  • the main memory 12 is used as an area for temporary storage and processing of images and data, and the processing results are displayed on the CRT 15 via the display memory 14 and stored on the magnetic disk 13 for redisplay and results. Used for reference.
  • the magnetic disk 13 has a medical imaging device 3
  • a medical image captured by 0 is stored.
  • the first medical image (in this case, the image is taken at a predetermined examination date and time, so also referred to as “the image of the day”) is obtained by imaging a predetermined part of the subject and the patient by the medical image imaging device 30.
  • the information on the patient and the imaging site is transmitted to the magnetic disk 13 via the network (LAN) 32 via the common bus 19.
  • the second medical image (here, the image was taken on a date different from the date and time when the image was taken on the day, but most of the images were taken earlier than that, so it is also called “past image”) is a magnetic disk 1
  • the state stored in 3 is read out to the main memory 12 based on the transmitted patient and imaging region information.
  • the image on the day is transmitted to the display memory 14 via the common bus 19 via the network (LAN) 32 and displayed on the CRT 15.
  • FIG. 3 shows an operation screen displayed on the CRT 15 of the medical image processing apparatus 10.
  • a simple difference image 47 obtained by the simple difference method between the image of the day and the past image, a shadow emphasized image 48 by a process called “anisotropic difference processing” described in this embodiment, Marker display image 49 to indicate can be selected.
  • a first local area a is set by the mouse 17 in a part of the display area of the image of the day.
  • a plurality of first local regions may be set.
  • the CPU 11 sets a second local area A having an area equal to or larger than the local area in which the first local area a is set.
  • the local reference value of the second local area A is calculated by the local reference value calculation unit 111 of the CPU 11.
  • the local reference value is determined by using a representative value such as the maximum value, average value, or median in the second local area A as it is, by combining the representative values, or by multiplying the representative values by a constant. May be multiplied.
  • the shadow-enhanced image is created by performing a difference between the density value of the first local area a and the local reference value of the second local area A by the image creating unit 112 of the CPU 110. Further, the shadow-enhanced image is calculated by a difference value between the reference value and the density value of each pixel of the first local region, and is created by the image creating unit 112 based on the calculated difference value. It is most desirable to perform the calculations in any calculation, such as addition, multiplication, and division, as long as the function that emphasizes only the cancer shadows can be demonstrated.
  • the shade-emphasized image is transmitted from the image creation unit 112 to the display memory 14 and displayed on the CRT 15.
  • the image density of the medical image is represented by a density value of each pixel constituting the medical image.
  • the density value includes, for example, but not limited to, a CT value, a pixel value, and the like, and includes all values representing the density, transparency, opacity, lightness, brightness, signal strength, and the like of an image.
  • the density value is inverted depending on the conditions such as the type of medical image capturing device that captured the medical image, the method of calculating and expressing the density value, and whether the image is a negative image or a positive image. I do.
  • the density value of the part A when comparing a part A where a living tissue is shown in a medical image and a part B where air or water is shown in a certain medical image, regardless of the magnitude of the density value, the density value of the part A Is defined to be greater than the density value of Part B. According to this definition, for example, in the image shown in FIG. 4, the density value of the portion displayed in white is larger than the density value of the portion displayed in black.
  • Fig. 4 explains the principle of the present invention in comparison with the prior art.
  • Image processing is performed on a CT tomogram of a lung field of a subject by a simple difference method and an anisotropic difference method, respectively.
  • the previous image 2 is subtracted from the image 1 of the day
  • the density of the cancer shadow area is high and the density of the other areas is low.
  • the difference image is obtained. In other words, cancer shadows are emphasized, making them easier to find.
  • FIGS. 5 The image (Fig. 5), in which false positive shadows are embedded in the image of the day corresponding to faint microscopic lung cancer, is aligned with the past image (not shown) so that the correlation of each part of the image is the highest.
  • Figure 6 shows the result of subtracting the past image from the image of the day after the alignment.
  • cancer shadows are hard to find.
  • FIG. 6 This flowchart is performed on behalf of only one pixel in the image. In the main memory 12 for storing the difference image, for example, a sufficiently large value is recorded so that the difference result does not become negative.
  • a partial area 52 of the image 51 in FIG. Take the small area 54 of the 3 ⁇ 3 image matrix, for example, which is wider than the pixels of the image on the day, and pass the center point of the small area 54 in the direction where the density gradient is the largest among the vertical, horizontal, and oblique directions.
  • Ask for. consider a region of 3 pixels vertically and 3 pixels horizontally centered on point A22 as small region 54, and abs (Al1-A33), abs (A21-A23), abs (A31-A13), From the maximum value of the absolute values of abs (A12-A32), find the direction of the maximum concentration gradient at point A22. Note that the maximum value among the absolute values of abs (A11-A22), abs (A21-A22), abs (A12-A22), and abs (A31-A22) may be used.
  • FIG. 9 shows the case where the concentration gradient in the All and A33 directions is the largest.
  • a region along the maximum density gradient direction is referred to as a "specific direction region (i, j) (or an anisotropic region (i, j))".
  • All, A22. A33 are the same, but ⁇ ⁇ . ⁇ 44 in the same direction may be included.
  • B ij is subtracted from the area for which the concentration gradient is obtained. This indicates that the target areas do not necessarily need to be the same. If the area for which the density gradient is to be calculated is the same as the subtraction target area, it is included in Aij. Therefore, there may be B55 (not shown) outside of B44.
  • FIG. 9 illustrates the principle of calculating the maximum density gradient of the image 901 of the day, the past image 902, and the difference image 903, and determining whether the maximum directions of the density gradients match or not.
  • the procedure is as follows.
  • the maximum value max (local maximum value) of the density value in the specific direction area (i, j) of the past image 902 shown in FIG. 9 is obtained.
  • Cxmax is subtracted for each pixel (i, j) in the specific direction area (i, j) of the image 901 of the day shown in FIG.
  • C is a constant including 1.0, and may be set according to the image. That is, after calculating the maximum value max of All, A22, A33, Bll, and B44 of the past image 902, for example, the maxx constant is subtracted from the pixel All of the image 901 on the day, and is set as sal.
  • the pixels of the image 901 of the current day and the image 902 of the past corresponding to the same position of the subject are subtracted from each other.
  • step 93 When the result of the subtraction in step 93 is “pixel (i, j) value of difference image SUB> sal”, pixel (i, j) of the difference image is set to sal. That is, the smaller value sal is stored in SUB (same coordinates as All). If the subtraction result is negative, it may be replaced with a specific value, for example, zero.
  • Similar processing is performed for the other pixels A22, A33, Bll, and B44 in the specific direction area (i, j).
  • the processing of steps 90 to 94 is executed for all pixels of the image. On this occasion, It is preferable that the small areas 54 move while overlapping little by little. By moving in this way, the subtraction for one pixel is performed several times, and the result of the smallest difference is stored.
  • Figure 13 is the same-day image including real cancer shadows. From this, the past image is subtracted according to the procedure of the preferred embodiment of the present invention, as shown in FIG. When the position of the cancer shadow emphasized by the subtraction process is difficult to understand, as shown in the example of FIG. 15, when the contour image is separately extracted and combined with the difference image, as shown in FIG. The positional relationship of the abnormal shadow location becomes easier to understand.
  • Figure 17 shows the procedure for synthesizing the difference image and the contour image for each pixel.
  • a threshold value determination is made as to whether the outline image and the emphasized image can be superimposed. Then, as a result of the determination, if it is within the range of the threshold, the process proceeds to step 21;
  • the difference result is stored in the memory, and the processing ends.
  • the contour density is stored in the memory, and the process ends.
  • FIG. 18 shows the case where the concentration gradient in the A21.A23 direction is the largest in the above-mentioned small region. Subtract the maximum value X constant of A21, A22, A23, 21, B24 of the past image 9 02 from the pixel A21 of the image 9 01 of the day, compare the subtraction result with the current SUB (the same coordinate as A21), and Is stored in SUB (same coordinates as A21). The same applies to A22, A23, B21, and B24.
  • the method of subtraction is not limited to the above example.
  • the “function of the angle formed by the gradient maximum direction” is a function of the angle 0 formed between the maximum direction of the past image density gradient and the maximum direction of the image density gradient of the day, and changes similarly to cos 0. However, it doesn't have to be exact c os 0,
  • the subtraction method can perform not only the procedure shown in FIG. 7 but also the processing shown in FIG. That is,
  • the maximum value max of the density value of the central pixel of the small area 54 in the specific direction area (i, j) of the past image is obtained.
  • Cxmax is subtracted for each pixel (i, j) in the specific direction area (i, j) of the image 901 on the day. Let the result be sal.
  • the method of obtaining the maximum density gradient direction is not limited to only Fig. 8, but as shown in Fig. 20, the pixel density differences between two points passing through the circle C are sequentially compared, and the maximum density It is also possible to determine the gradient direction.
  • the small area 54 is 3 pixels vertically and 3 pixels horizontally, but the small area 54 is different in size, such as 4 pixels vertically ⁇ 4 pixels horizontally and 5 pixels vertically ⁇ 5 pixels horizontally. Is also good. Further, the size of the small area 54 may be changed depending on the type of the image such as the CT image and the DR image.
  • the second or third largest value may be used instead of the local maximum value of the density value, or a constant multiple of the average value may be used. In this case, the effect of shadow enhancement can be obtained. Also, if data on the average value is used, a shadow-enhanced image with less noise than the local maximum value can be obtained.
  • the specific direction area is the area (3 pixels) in the direction of the maximum density gradient.
  • the specific direction area may be a small rectangular area or a small circular area. It may be an area.
  • the shape and size of the specific direction area may be different between the past image 902 and the current day image 901.
  • the specific direction area may have a size of one vertical pixel ⁇ one horizontal pixel, that is, one pixel. In this case, the density value of that one pixel becomes the density local maximum value as it is.
  • the present invention can be applied to a DR image as shown in FIG.
  • the density value of the part displayed in black is larger than the density value of the part displayed in white.
  • the result is 183 in FIG. 22. When combined, it becomes 1 84.
  • a displacement vector is calculated and the divided image is deformed, and this is repeated until a predetermined number of divisions is reached to obtain a final displacement vector.
  • an image obtained by deforming the original image (the image before division and deformation) with the final displacement vector is used.
  • a and b are reduced (reduction ratio r) to al and bl, and the correlation 1 between al and b 1 (subtract to determine whether the difference is minimum) is taken and b 1 is translated. To obtain image b2. Next, the correlation between the images after rotation of a1 and b2 is taken to obtain image b3.
  • the image b is translated in parallel by dx / reduction ratio !: and dy / reduction ratio r, and an image b4 rotated by the angle ang is obtained.
  • a displacement vector for alignment is obtained.
  • a is divided into four and A4 is divided into b4, and B4 is divided into B4.
  • the image b4 (the original image before division and deformation) is deformed using the displacement vector N, and the image after alignment is obtained.
  • the number of image divisions is not limited to 32 ⁇ 32 divisions, and different values may be set according to the images.
  • Fig. 28 and Fig. 29 show the flow of screen operation.
  • Step 5 2 Judge “Next slice display button pressed?”. If yes, jump to step 57. If NO, proceed to step 53.
  • Step 5 3 Judge “Previous slice display button pressed?”. If yes, jump to step 5-8. If no, go to step 54.
  • Step 54 Judge "positioning & difference button pressed?” If yes, jump to step 5-9. If NO, proceed to steps 55.
  • Step 55 Judge "Difference FP delete button pressed?" If yes, jump to step 60. If no, go to step 56.
  • Step 56 Judge "End button pressed?” If Yes, end. If NO, return to step 52.
  • Step 5 Display the next slice and jump to step 52.
  • Step 6 1 a density reduction method using a shadow feature will be described with reference to FIG. (Step 6 1)
  • the narrowed portion of the binarized region is cut to make an isolated region.
  • step 69 Perform other determination processing. If yes, jump to step 69 to reduce the concentration as a false positive.
  • a circle is marked as a cancer shadow candidate at a high density portion of the difference image.
  • step 64 It is determined whether all the shadows have been determined. If yes, end. If no, jump to step 64.
  • image 3 is obtained by performing difference processing between image 1 of the day and image 2 of the past. If there is no cancer shadow in the past image and there is a cancer shadow in the current day image, the difference image mainly shows the cancer shadow and the portion due to the displacement of the entire image. Here, except for the cancer shadow, Avoiding it makes it easier to find cancer shadows.
  • FIG. 32 shows a binary image after emphasizing the edges of the CT images of the current day image and the past image.
  • the image 20 is obtained by correlating these images.
  • the area where the value of the edge image 20 is 1 in 3 in FIG. 31 is reduced in density.
  • a pseudo-shadow reduced image 21 in which the false positive after the difference is reduced in density is obtained.
  • the image 20 can be obtained by correlating a region having a density larger than the threshold value without binarizing in advance.
  • FIG. 33 shows a case where this processing is applied to a DR image.
  • Images with reduced false-positive densities may contain shadows that are suspected of cancer. Without subtraction, it is also possible to combine and display the results of detecting abnormal shadow candidates in each image alone, and seek the doctor's judgment.
  • p1 to p5 may be replaced with the maximum value of p1 to p5. In this case, even if p2 to p4 are replaced with the maximum values of p2 to p4, the effect of lowering the concentration can be obtained.
  • the medical image processing apparatus 10 makes it difficult to generate false positive shadows (pseudo shadows) by accurately aligning the image of the day and the past image, and reduces the density of the generated false positive shadows. Abnormal shadows such as cancer can be easily found.
  • a CT image 21 by the simple difference method and a shadow-enhanced image 22 by the anisotropic difference method are displayed on the CRT 15.
  • the cursor of the mouse 17 is displayed on the CRT 15 in the CT image 21 and the shadow-enhanced image 22, respectively.
  • the respective cursors are also linked.
  • the position is easy to grasp.
  • the current day image 31, the past image 32, and the difference may be displayed and the cursor of the mouse 17 may be linked.
  • the method of finding the maximum value in the search area is to scan the same address of the Mth image of the past image having the highest correlation with the Nth image of the current day at points (sequential scanning points). At the time of the scanning, assume a two-dimensional image parallel to the maximum direction of the density gradient as shown in Fig. 8, 9 or 18.
  • the N + 1st and N ⁇ 1st images before and after (or up and down) the Nth image of the current day image shown in FIG. ) Performs three-dimensional processing using the M + 1st and M-1st images.
  • the subtraction value of the (N, XI, Y1) point is The density value VI of the previous image (M, xl, y1) is subtracted from the density value VI of the image (N, XI, Y1) point.
  • the subtraction value of the (N, X2, Y2) point is the image of the day. The value is obtained by subtracting the density value v2 of the past image (M_l, X2, y2) from the density value V2 at the point ( ⁇ , ⁇ 2, ⁇ 2).
  • the search area is parallel to the maximum density gradient direction of the sequential scanning points of the M-th image. If the subtraction value is negative, the subtraction value may be replaced with zero or the absolute value of the subtraction value. Conversely, the subtraction may be performed by subtracting the current day image from the past image.
  • the search area for finding the maximum value may be a cube including the scanning points.
  • the boundary of the search area may be on the interpolated image.
  • the boundary of the search area may extend over a plurality of original images.
  • FIG. 44 shows a case where a MIP (Maximum Intensity Projection) image is created from at least two images including a past image at a slice position corresponding to the current image.
  • MIP Maximum Intensity Projection
  • the position calculation of the blood vessels and the like is not performed, so the position calculation is performed. Then, the maximum value of the pixel values near (X, y) of the past image b is subtracted from the small area center coordinate (X, y) pixel value of the image a on the day.
  • the principle is the same as that described in FIG.
  • the maximum value of the pixel values near (X, y) of the MIP image including the past image b is subtracted from the (x, y) pixel value of the image a of the day.
  • the 1 ⁇ 1 image 81 is created from at least two images including an image b3 corresponding to the image a1.
  • the 1 ⁇ 1? Image 81 may be created by reconstructing a thick slice image from the measurement data.
  • a MIP image Bn is similarly created.
  • the difference image 1 is a difference between the image a1 and the MIP image B1
  • the difference image 2 is a difference between the image a2 and the MIP image B2.
  • the difference image n is a difference between the image an and the MIP image Bn.
  • FIG. 45 shows, as a modified example of the interpolation image creation, a case where the MIP image Bn is created from four images including the image b6 corresponding to the image a4 in a vertically asymmetric manner.
  • the target part is extracted from a plurality of images including the image b whose date is earlier. This step may be omitted when the part is the head.
  • a MIP image c is created using the extracted image. If the extraction step is omitted, the MIP image c is created as it is. Further, when a MIP image is created, the range in which the maximum value is found, that is, the range in which the maximum value is found from adjacent slice images, may be defined as the range of CT values CT1 to CT2. Further, a tomographic image having a large slice thickness may be reconstructed and used instead of the MIP image c.
  • Align images a and c At the time of this alignment, if the average density and the density histogram are also matched as necessary, the alignment processing becomes difficult.
  • Substitute initial values for x and y means the start address of the image read address.
  • the maximum pixel value (including the value obtained by multiplying the subtraction value by a certain value) in the small area including (X, y) of the image is subtracted from the pixel value of the (x, y) point of the image a.
  • Step 16 It is determined whether the read address X of the image is the maximum value. If it is not the maximum value, go to Step 16; if it is the maximum value, go to Step 16A.
  • Step 16B Add 1 to y. That is, the image read address y is updated.
  • step 16C It is determined whether or not the image read address y is the maximum value. If it is not the maximum value, proceed to step 16C. If it is the maximum value, the process ends.
  • Substitute X with the initial value is set to the address of the initial value with the updated address of the image read address y.
  • the detection process (B) using the difference image is performed.
  • step 174 It is determined whether or not the operator has preferentially selected the detection rate. If the detection rate priority is selected, go to step 174; otherwise, go to step 1 75.
  • the OR processing is performed on the detection points of both A and B, and then the processing ends.
  • the difference processing is not performed between all images of the current day image and the past image, but only the past image corresponding to the image where the abnormal location was detected by the abnormal shadow detection process using the original day image is automatically databased. , And may perform a difference process with the image of the day. In the above-described processing, the processing may be performed by exchanging the past image and the image of the day, and a similar result may be obtained.
  • the shadow of an image is enhanced, and an abnormal shadow such as cancer can be easily found.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

明 細 書 医用画像処理装置及び方法 技術分野
本発明は、 医用画像処理装置及び方法に係り、 特に医用画像から陰影強調画像や差 分画像を作成する医用画像処理装置及び方法に関する。 背景技術
近年、 医用画像撮影装置で得られた医用画像が多量になり、 多量な医用画像に対し 読影の効率化が求められている。 そこで、 医用画像の中からがん陰影等の患部を見つ けやすくするために、 画像間の差分処理により陰影を強調することが行われている。 具体的には、 過去に撮影された画像 (以下、 過去画像という) にがん陰影がなく、 そ の後撮影された画像 (以下、 当日画像という) にがん陰影がある場合、 例えば、 特開 平 9一 6 8 7 0号に開示された異常陰影自動検出装置では、 被検体の同位置に対応す る当日画像と過去画像の画素同士での引き算を行った差分画像より真の異常陰影を抽 出している。
ところが、 上述のような異常陰影自動検出装置では、 当日画像と過去画像の対応す る画素同士で引き算をしているため、 位置合わせが十分でない場合は引き算の結果に 偽陽性陰影 (本物の陰影でない部分;擬似陰影) が生じることになる。
しかし、 このような場合の対応について上述の異常陰影自動検出装置では一切言及 していない。 発明の開示
本発明の医用画像処理装置は、 医用画像診断装置によって撮影された被検者の所定 部位を第一の医用画像として記憶する第一の記憶手段と、 前記第一の記憶手段に記憶 された第一の画像が撮影された日時と異なる前記同一被検者でかつ同一部位の第二の 医用画像を記憶する第二の記憶手段と、 前記第一の記憶手段によって記憶された第一 の医用画像に少なくとも一つの画素を要素とする複数の第一の局所領域を設定する第 一の設定手段と、 前記第一の設定手段によって設定された複数の第一の局所領域のそ れぞれに対応し、 それらの第一の局所領域以上の広さを有する複数の第二の局所領域 を前記第二の記憶手段に記憶された第二の画像に設定する第二の設定手段と、 前記第 二の設定手段によって設定された複数の第二の局所領域毎に濃度値の基準値を算出す る基準値算出手段と、 前記基準値算出手段によって算出された基準値と、 前記第一の 設定手段によつて設定された複数の第一の局所領域の各画素の濃度値とに基づいて前 記第一の局所領域毎に強調画像を作成する画像作成手段と、 前記画像作成手段によつ て作成された強調画像を表示する表示手段と、 を備える。
ここでいう基準値とは、 局所最大値、 局所平均値、 局所メジアン、 前記局所最大値 又は局所平均値の定数倍、 濃度勾配を求めてその濃度勾配に関する値などを医用画像 の特質に応じて採用可能である。 例えば、 最大値の採用は最も簡易で実効のある値で あり、 平均値又はメジアンの採用は画像のノイズ成分を最大値よりも抑制し、 濃度勾 配を用いれば隣接画素や近隣画素の値が急激に変化する場合に対応できる。
また、 前記強調画像は、 前記基準値と前記第一の局所領域の各画素の濃度値との差 分値を計算し、 該計算された差分値に基づいて前記画像作成手段によって作成される ことが最も望ましいが、 がん陰影だけを強調する機能を発揮できれば、 加算、 乗算、 除算、 などあらゆる計算で行うことも含まれる。
本発明に係る医用画像処理装置によれば、 当日画像と過去画像とに位置ずれが生じ たとしても、 画像の陰影が強調され、 がん等の異常陰影を容易に見つけることができ る。
また、 本発明の望ましい一実施形態によれば、 前記画像作成手段は、 第一又は第二 の医用画像の輪郭画像を生成する輪郭画像生成手段と、 この輪郭画像と前記強調画像 とを重畳する画像重畳手段とを備え、 前記表示手段は、 前記画像重畳手段によって重 畳された重畳画像を表示する。
これにより、 陰影強調画像と輪郭を重ね合せることで、 陰影強調画像では陰影が体 の中のどの位置にあるのかがわかりにくい場合でも、がん等の異常陰影を強調しつつ、 その異常陰影の位置を容易に把握することができる。
また、 本発明の望ましい一実施形態によれば、 前記第一の医用画像と前記第二の医 用画像との位置合わせを行う位置合わせ手段を更に備える。
これにより、 いわゆる当日画像と過去画像との位置合わせが組み合わされれば、 が ん等の異常陰影の計算精度が向上し、 その異常陰影の位置を更に容易に見つけること ができる。
更にまた、 本発明の望ましい一実施形態によれば、 前記画像作成手段によって作成 された強調画像と比べて前記位置合わせ手段による位置合わせの不完全性により生じ た擬似陰影を低濃度化して擬似陰影削減画像を作成する低濃度化手段とを更に備え、 前記表示手段は、前記低濃度化手段によって作成された擬似陰影削減画像を表示する。 これにより、 前記位置合わせが不完全であつてもそれによつて生じた擬似陰影が低 濃度化されるので、 がん等の異常陰影を更に容易に見つけることができる。 図面の簡単な説明
図 1は、 本発明の実施の形態に係る医用画像処理装置の構成を示す図であり ; 図 2は、 図 1の機能ブロック図であり、
図 3は、 医用画像処理装置の操作画面を示す図であり ;
図 4は、 差分処理の概要を示す図であり ;
図 5は、 当日画像の例を示す図であり ;
図 6は、 単純差分画像の例を示す図であり ;
図 7は、 差分処理の手順の例を示す図であり ;
図 8は、 濃度勾配最大方向を求める例を示す図であり ;
図 9は、 濃度勾配最大方向を求める他の例を示す図であり ;
図 1 0 ( a ) 及び 1 0 ( b ) は、 単純差分処理と異方性差分処理との比較を示す図 であり ;
図 1 1は、 異方性差分処理による画像の例を示す図であり ; 図 1 2は、 異常陰影に丸印をつけた画像を示す図であり :
図 1 3は、 当日画像の他の例を示す図であり ;
図 1 4は、 本実施形態に係る差分処理による画像の他の例を示す図であり ; 図 1 5は、 別々に処理した差分画像と輪郭画像との合成を示す図であり ; 図 1 6は、 差分処理画像と輪郭画像との合成画像の例を示す図であり ;
図 1 7は、 差分画像と輪郭画像との一画素ごとの合成手順を示す図であり ; 図 1 8は、 濃度勾配最大方向が図 9と異なる場合の例を示す図であり ;
図 1 9は、 差分処理の手順の他の例を示す図であり ;
図 2 0は、 濃度勾配最大方向を求める他の例を示す図であり ;
図 2 1は、 特定方向領域の他の例を示す図であり ;
図 2 2は、 D R画像での差分処理の例を示す図であり ;
図 2 3は、 単純差分法による当日画像と過去画像との概略位置合わせを示す図であ り ;
図 2 4は、 単純差分法による当日画像と過去画像との詳細位置合わせを示す図であ り ;
図 2 5は、 本実施形態に係る画像の概略位置合わせを示す図であり ;
図 2 6は、 本実施形態に係る画像の詳細位置合わせを示す図であり ;
図 2 7は、 本実施形態に係る画像の詳細位置合わせの他の例を示す図であり ; 図 2 8は、 医用画像処理装置の画面例を示す図であり ;
図 2 9は、 医用画像処理装置の画面操作の流れを示す図であり ;
図 3 0は、 特徴量を用いた低濃度化処理を示す図であり ;
図 3 1は、 エッジ画像間の相関画像を用いた偽陽性低濃度化処理を示す図であり ; 図 3 2は、 エッジ画像間の相関画像を用いた偽陽性の低濃度化処理の他の例を示す 図であり ;
図 3 3は、 D R画像のエッジを強調したエッジ画像間の相関を用いた低濃度化処理 を示す図であり ;
図 3 4は、 二点間置換処理による低濃度化処理を示す図であり ; 図 3 5は、 表示画面上のカーソル連動表示の例を示す図であり ; 図 3 6は、 表示画面上のカーソル連動表示の他の例を示す図であり ;
図 3 7は、 複数枚の当日画像における血管の写り方の例を示す図であり ; 図 3 8は、 複数枚の過去画像における血管の写り方の例を示す図であり ; 図 3 9は、図 3 7及び 3 8の当日画像及び過去画像の差分処理を説明する図であり; 図 4 0は、 局所領域の異なる取り方の例を示す図であり ;
図 4 1は、 局所領域の異なる取り方の他の例を示す図であり
図 4 2は、 局所領域の異なる取り方の他の例を示す図であり
図 4 3は、 局所領域の異なる取り方の他の例を示す図であり
図 4 4は、 局所領域の異なる取り方の他の例を示す図であり
図 4 5は、 局所領域の異なる取り方の他の例を示す図であり
図 4 6は、 陰影強調の他の処理例を示す図であり ;
図 4 7は、 図 4 6のステップ 1 6 2の処理で用いるサブルーチンを示す図である。 発明を実施するための最良の形態
以下、 添付図面に従って、 本発明に係る医用画像処理装置及び方法の好ましい実施 の形態について詳説する。
図 1に、 本発明の実施の形態に係る医用画像処理装置 1 0の構成を示す。 医用画像 処理装置 1 0は、 中央処理装置 (以下、 C P Uという) 1 1、 主メモリ 1 2、 磁気デ イスク 1 3、 表示メモリ 1 4、 C R T 1 5 , コントローラ 1 6、 マウス 1 7、 キーボ ード 1 8を備えており、 これらは共通バス 1 9を介して接続されている。 また、 医用 画像撮影装置 3 0が、 例えば L AN 3 2を介して医用画像処理装置 1 0に接続されて いる。
医用画像撮影装置 3 0は、 X線 C T (Co即 uted Tomography)装置、 P E T (Pos i tron Emiss ion Tomography)装置、 MR I (Magnet ic Resonance Imaging) gS^ D R (Digi tal Radiography) 装置、 超音波撮影装置、 眼底カメラなどであって良いが、 これらに限定 されず、 医用画像を撮影する装置であればどのようなものでも良い。 また、 医用画像 処理装置 1 0が処理の対象とする医用画像は、 上記の様々な医用画像撮影装置により 得られた医用画像を含む。
主メモリ 1 2は画像やデータの一時記憶、 処理用の領域として用いられ、 処理結果 は表示メモリ 1 4を介して C R T 1 5に表示されるとともに磁気デイクス 1 3に格納 され、 再表示や結果参照に利用される。 磁気ディスク 1 3には、 医用画像撮影装置 3
0により撮影された医用画像が格納されている。
次に、医用画像処理装置 1 0が行う画像処理について図 1、図 2を用いて説明する。 第一の医用画像 (ここでは、 所定の検査日時に撮影するので、 「当日画像」 ともい う) は、 医用画像撮影装置 3 0によって被検者、 患者の所定部位が撮影されて得られ る。
この患者及び撮影部位の情報は、 ネットワーク (L AN) 3 2を介し、 共通バス 1 9を経由し、 磁気ディスク 1 3に伝達される。
第二の医用画像 (ここでは、 当日画像を撮影した日時とは異なる日時に撮影するも のであるがそれより以前に撮影したものが多いので、 「過去画像」 ともいう) は、 磁 気ディスク 1 3に記憶された状態から前記伝達された患者及び撮影部位情報に基づい て主メモリ 1 2に読み出される。
当日画像は、 ネットワーク (L AN) 3 2を介し、 共通バス 1 9を経由し、 表示メ モリ 1 4に伝達され、 C R T 1 5に表示される。
医用画像処理装置 1 0の C R T 1 5に示される操作画面を図 3に示す。 当日画像と 過去画像を単純差分法により求めた単純差分画像 4 7、 本実施の形態で説明する 「異 方性差分処理」 と称する処理による陰影強調画像 4 8、 丸などで陰影を囲って明示す るためのマーカ表示画像 4 9などが選択できる。
C R T 1 5に表示された当日画像には、 マウス 1 7によってその当日画像の表示領 域の一部に第一の局所領域 aが設定される。 ここでは、 1箇所の第一の局所領域が設 定される例を説明するが、 第一の局所領域は複数設定されてもよい。
主メモリ 1 2に読み出された過去画像には、 C P U 1 1によって前記第一の局所領 域 aを設定した局所領域と同等以上の面積の第二の局所領域 Aが設定される。 前記第二の局所領域 Aの局所基準値は、 C P U 1 1の局所基準値算出部 1 1 1によ つて算出される。 ここでいう局所基準値は、 前記第二の局所領域 A内の最大値、 平均 値、 メジアンなどの代表値をそのまま使う場合と、 それら代表値を組み合わせたり、 それら代表値を定数倍するなど重みを乗じてもよい。
陰影強調画像は、 前記第一の局所領域 aの濃度値から前記第二の局所領域 Aの局 所基準値の差分が C P U 1 1の画像作成部 1 1 2によって行われることで作成される。 また、 前記陰影強調画像は、 前記基準値と前記第一の局所領域の各画素の濃度値との 差分値を計算し、 該計算された差分値に基づいて画像作成部 1 1 2によって作成され ることが最も望ましいが、がん陰影だけを強調する機能を発揮できれば、加算、乗算、 除算、 などあらゆる計算で行ってもよい。
陰影強調画像は、 画像作成部 1 1 2から表示メモリ 1 4へ伝達され、 C R T 1 5に 表示される。
ここで、医用画像の画像濃度とは、医用画像を構成する各画素の濃度値で表される。 濃度値は、 例えば C T値、 画素値などを含むが、 それらに限定されず、 画像の濃度、 透明度、 不透明度、 明度、 喑度、 信号強度などを表す値の全てを含む。 濃度値は、 そ の医用画像を撮影した医用画像撮影装置の種類、 濃度値の計算方法や表し方、 画像が ネガティブ画像であるかポジティブ画像であるか、 などの条件により正負や大小が反 転する。 本明細書では、 ある医用画像において生体組織が写っている部分 Aと空気や 水が写っている部分 Bとを比較するとき、 濃度値の数値としての大小に関わらず、 部 分 Aの濃度値は部分 Bの濃度値より大きいものと定義する。 この定義によれば、 例え ば、 図 4に示す画像においては、 白く表示されている部分の濃度値は黒く表示されて いる部分の濃度値より大きい。
図 4は、 本発明の原理を従来技術と比較して説明するもので、 被検体の肺野の C T 断層像に対して、 単純差分及び異方性差分の方法のそれぞれによって画像処理を行つ た例を示す。 過去画像 2にがん陰影がない状態で、 当日画像 1にがん陰影 (画面右下 の過去画像と比較して白く反転した領域 b ) がある場合、 当日画像 1から過去画像 2 を引き算することにより、 がん陰影部分の濃度が大きくそれ以外の部分の濃度が小さ い差分画像が得られる。 すなわち、 がん陰影が強調され見つけやすくなる。 従来の単 純差分処理では、 当日画像と過去画像の対応する画素同士で引き算をするため、 位置 合わせが十分でない場合は差分画像 3に偽陽性陰影 (本物の陰影でない部分;擬似陰 影) が生じてしまい、 本物の陰影を見つけにくい。 後述する本実施の形態の方法によ る異方的局所最大値差分処理によれば、 差分画像 4に偽陽性陰影が生じにくく、 本物 の陰影を見つけやすい。
単純差分処理の他の例を図 5及び図 6によって説明する。 淡い微小な肺がんに対応 させて偽陽性陰影を当日画像に埋め込んだ画像(図 5 ) と過去画像(図示省略)とを、 画像の各部分の相関が最も高くなるように位置合わせをする。 位置合わせ後に当日画 像から過去画像を引き算した結果を図 6に示す。図 6では、がん陰影は見つけにくい。 次に、 本実施の形態による医用画像処理装置 1 0での引き算方法について、 図 7を 用いて説明する。 このフローチャートは、 画像中のある 1画素だけを代表して行うも のとする。 差分画像を記憶する例えば主メモリ 1 2には、 差分した結果が負にならな い程度の十分大きな値を記録しておく。
(ステップ 9 0 )
過去画像中の画素点 (X, Y) において、 濃度勾配が最大の方向を求める。 図 8の 画像 5 1の一部領域 5 2を拡大して 5 3とする。 この中で当日画像の画素より広い領 域の例えば 3 X 3の画像マトリクスの小領域 5 4を取り、 小領域 5 4の中心点を通る 縦、 横、 斜め方向のうち濃度勾配が最大の方向を求める。 ここでは、 小領域 5 4とし て A22点を中心とする縦 3画素、横 3画素の領域を考え、 abs (Al 1-A33)、 abs (A21-A23)、 abs (A31 -A 13) , abs (A12-A32)の各絶対値のうちの最大値から、 A22 点での濃度勾配最 大方向を求める。 なお、 abs (A11-A22) , abs (A21-A22) , abs (A12- A22)、 abs (A31-A22) の各絶対値のうちの最大値を用いてもよい。
図 9には、 Al l, A33方向の濃度勾配が最も大きい場合を示している。
上記小領域 5 4のうち、 この濃度勾配最大方向に沿った領域を「特定方向領域(i, j) (又は異方的領域(i, j ) ) 」 と称する。 ここでは、 Al l, A22. A33がそれであるが、 同じ 方向の Β Π. Β44などを含めてもよい。 なお、 B i j は、 濃度勾配を求める領域と引き算 対象領域が必ずしも同一である必要の無いことを示すものであって、 濃度勾配を求め る領域と引き算対象領域が同一である場合には Aij に含まれる。 したがって、 B44の 外側にも B55 (不図示) などがありえる。
要するに、 図 9では、 当日画像 901、 過去画像 902及び差分画像 903の最大 濃度勾配をそれぞれ算出し、 それぞれの濃度勾配最大方向が一致するか、 否かの判定 の原理を示している。 その手順は、 次のとおりである。
(ステップ 91)
次に、 図 10 (b) の例に示すように、 図 9に示す過去画像 902の特定方向領域 (i, j)内の濃度値の最大値 max (局所最大値) を求める。
(ステップ 92)
図 9に示す当日画像 901の特定方向領域内(i, j)の各画素(i, j)について Cxmax を引き算する。 結果を sal とする。 Cは 1. 0を含む定数であり、 画像に応じて設定 してよい。 すなわち、 過去画像 902の All, A22, A33, Bll, B44の最大値 maxを求めた あと、例えば当日画像 901の画素 Allからそれぞれ maxx定数を引き算し、 salとす る。 なお、 単純差分処理では、 図 10 (a)の例に示すように、 被検体の同位置に対応 する当日画像 901と過去画像 902の画素同士での引き算を行い、 (当日画像のデ 一夕引く過去画像のデータ) =b— aとして、 差分画像 903を求める。
(ステップ 93)
「差分画像 903の画素 (i, j) 値 >sal」 か否かを判定する。 すなわち、 引き算結 果 salを現在のそれぞれのメモリ SUB(A11と同座標)と比較する。
(ステップ 94)
上記ステップ 93での引き算の結果、 「差分画像 SUBの画素 (i, j) 値〉 sal」 のと きは、 差分画像の画素 (i,j) =salとする。 すなわち、 小さい方の値 salを SUB (All と同座標)に格納する。 引き算結果が負の場合は、 特定値、 例えばゼロに置き換えるよ うにしてもよい。
特定方向領域(i, j)内の他の画素 A22, A33, Bll, B44についても同様の処理をする。 上述のステップ 90〜ステップ 94の処理を画像全画素について実行する。この際、 小領域 5 4は少しずつ重なるようにしながら移動していくことが好ましい。 このよう に移動していくと、 一つの画素についての引き算が複数回行われ、 最も小さな差分の 結果が格納されるようになる。
結果を図 1 1に示す。 陰影が強調され、 図 6に示された単純差分の結果よりも異常 陰影を見つけやすくなつている。 図 1 1の高濃度部分を検出して、 原 C T画像(図 5 ) にマーカをつけると図 1 2に図示されるようになる。
図 1 3は、 本物のがん陰影を含む当日画像である。 これから、 過去画像を本発明の 望ましい実施形態の手順に従って引き算すると、 図 1 4に図示されるようになる。 なお、 引き算処理により強調されたがん陰影の位置が分かりにくいときには、 図 1 5の例に示すように、 輪郭画像を別に抽出しておいて前記差分画像と合成すると、 図 1 6のように異常陰影個所の位置関係がより分かりやすくなる。 差分画像と輪郭画像 の一画素ごとの合成手順を図 1 7に示す。
(ステップ 2 0 )
輪郭画像と強調画像とが重畳可能であるかをしきい値判定する。 そして、 その判定 の結果、 しきい値の範囲内であればステップ 2 1へ進み、 しきい値の範囲外であれば ステップ 2 3へ進み、 対象外で処理を終了する。
(ステップ 2 1 )
異方性差分処理を実行する。
(ステップ 2 2 )
差分結果をメモリに記憶し、 処理を終了する。
(ステップ 2 3 )
輪郭濃度をメモリに記憶し、 処理を終了する。
上記小領域において、 A21. A23方向の濃度勾配が最も大きい場合を図 1 8に示す。 当日画像 9 0 1の画素 A21から過去画像 9 0 2の A21, A22, A23, 21, B24の最大値 X定数 を引き算し、引き算結果を現在の SUB (A21と同座標)と比較し、小さい方の値を SUB (A21 と同座標)に格納する。 A22, A23, B21, B24も同様である。
なお、 以上の説明では、 当日画像 9 0 1から過去画像 9 0 2を引き算したが、 過去 画像 902から当日画像 901を引き算して、 最後に符号を反転しても結果は同じで ある。
また、 引き算の方法は上述の例に限定されるものではなく、 この他
(1) 局所最大値 (定数倍を含む) を引く
(2) (各画素値に対応する CT値の関数) X局所最大値 を引く
(3) (特定方向領域 (i, j) 内の濃度分布の統計値の関数) X局所最大値を引く
(4) 局所最大値付近の平均値 (定数倍を含む) を引く
(5) (勾配最大方向のなす角の関数) X局所最大値を引く
などが可能である。
ここで、 「勾配最大方向のなす角の関数」 とは、 過去画像濃度勾配の最大方向と当 日画像濃度勾配の最大方向との成す角度 0の関数であり、 c o s 0と同様に変化する。 ただし、 厳密な c o s 0である必要はなく、
0 = 0度のとき: 1. 0
6> =45度のとき: 0. 8
0=90度のとき: 0. 5
などの値としてもよい。
上述のように、 引き算の方法は図 7に示す手順だけではなく、 図 19のような処理 も可能である。 すなわち、
(ステップ 100)
小領域 54の中心画素の過去画像の特定方向領域(i, j)内の濃度値の最大値 maxを求 める。
(ステップ 101)
当日画像 901の特定方向領域内(i, j)の各画素 (i, j) について Cxmaxを引き算 する。 結果を salとする。
(ステップ 102)
「差分画像 903の画素 (i,j) 値 >sal」 か否かを判定する。
(ステップ 103) 「差分画像 9 0 3の画素(i, j )値 >sal」 のときは、 「差分画像 9 0 3の画素(i, j) = salJ とする。
なお、 最大濃度勾配方向の求め方は図 8だけとは限らず、 図 2 0のように、 円 Cを 通る二点間の画素の濃度差を順次比較して、 その比較の結果から最大濃度勾配方向を 求めることも可能である。
また、 上述の説明では、 小領域 5 4は縦 3画素 X横 3画素であつたが、 小領域 5 4 は縦 4画素 X横 4画素、 縦 5画素 X横 5画素等、 異なる大きさとしてもよい。 また、 C T画像、 D R画像等、 画像の種類によって小領域 5 4の大きさを変えるようにして もよい。
引き算に際しては、 このような小領域 5 4の大きさに応じて、 濃度値の局所最大値 ではなく 2番目、 3番目に大きな値を用いてもよいし、 平均値の定数倍を用いてもよ レ^ このような場合でも陰影強調の効果を得ることができる。 また、 平均値に関する データを用いれば、 局所最大値と比べてノィズの少ない陰影強調画像を得ることがで さる。
また、 上述の説明では、 特定方向領域は濃度勾配最大方向の領域 (3画素) であつ たが、 図 2 1に示すように、 特定方向領域は微小な矩形領域としてもよいし、 微小な 円形領域としてもよい。 また、 過去画像 9 0 2と当日画像 9 0 1とで、 特定方向領域 の形や大きさが異なっていてもよい。 更にまた、 過去画像 9 0 2と当日画像 9 0 1と の一方において、 特定方向領域を縦 1画素 X横 1画素の大きさ、 即ち 1画素としても よい。 この場合、 その 1画素の濃度値がそのまま濃度局所最大値となる。
以上の説明では C T画像、 MR I画像などの断層像を用いていたが、 図 2 2のよう に D R画像に対しても適用できる。 図 2 2に示す D R画像においては、 黒く表示され ている部分の濃度値は白く表示されている部分の濃度値より大きい。 この場合、 当日 画像 1 8 0と過去画像 1 8 1の間で、 本発明の望ましい実施形態による引き算をする と図 2 2の 1 8 3になり、 別に輪郭抽出処理した輪郭画像 1 8 2と合成すると 1 8 4 になる。
以上は当日画像と過去画像の位置合わせを行わなくてもよい場合について説明した。 しかし、 当日画像と過去画像の位置合わせを組み合わせれば、 更に鮮明な陰影画像を 得ることができる。 この位置合わせ処理の組み合わせは、 最終的に位置合わせの効果 があればどの時点で行ってもよいが、 最も望ましいのは画像間差分処理前に行った方 がよい。 次に、 画像間差分処理前の画像間位置合わせ処理を組み合わせた場合の工夫 について、 図 2 3乃至 2 7で説明する。 位置合わせにおいては、 画像の分割、 拡大、 縮小、 移動、 回転等が行われる (図 2 3及び図 2 4参照) 。 画像を分割せずに全体で 位置合わせを行ってもよい。
また、 画像を分割するごとに変位ベクトルを算出して分割した画像を変形し、 これ を所定の分割数に達するまで繰り返して最終的な変位べクトルを求める。 位置合わせ においては、 元の画像 (分割、 変形前の画像) を最終的な変位べクトルで変形した画 像を用いる。
図 2 5の当日画像 aと過去画像 bを位置合わせするが、 まず大まかに位置合わせを する。 a、 bそれぞれを縮小 (縮小率 r ) して a l , b lとし、 a l, b 1間の相関 1 (引き算をして差が最小になるかどうかを判定する) を取り b 1を平行移動して画 像 b 2を得る。 次に a 1と b 2の回転後の画像間相関を取り、 画像 b 3を得る。
この情報をもとに、 図 2 6に示すように、 画像 bを dx/縮小率!:、 dy/縮小率 rだけ 平行移動し、 更に角度 angだけ回転した画像、 b 4を得る。 画像 aと画像 b 4から、 位置合わせのための変位ベクトルを求める。 最初に aを 4分割して A 4とし、 b 4を 分割して B 4とする。 分割画像 aij. bijの相関を取り、 変位ベクトル 4を得る。 変位 ベクトル 4で画像 B 4を変形する。
その後、 更に 1 6分割し、 分割後の aij. bij間で相関を取り、 変位ベクトル 1 6を 求める。 このような分割を繰り返レ、 精度の良くなつた、 例えば 3 2 X 3 2分割の変 位ベクトルをスプライン補間して 1ピクセルごとの変位ベクトル N (図 2 7 ) を求め る。
最後に、 図 2 7に示すように、 変位ベクトル Nを用いて画像 b 4 (分割、 変形前の 元画像) を変形し、 位置合わせ後の画像を求める。
このように、 画像の分割を徐々に細かくしていくことで正確な位置合わせを行うこ とができ、 位置合わせの不完全性による偽陽性陰影 (擬似陰影) を生じにくくするこ とができる。
なお、 画像の分割数は 3 2 X 3 2分割に限定されるものではなく、 画像に応じて異 なる値を設定してもよい。
次に、 図 2 8及び図 2 9で、 画面操作の流れを示す。
(ステップ 5 1 )
当日画像 4 1と過去画像 4 2を表示する。
(ステップ 5 2 ) 「次のスライス表示ポタン 押下?」 の判定をする。 Yes ならス テツプ 5 7に跳ぶ。 NOならステップ 5 3に進む。
(ステップ 5 3 ) 「前のスライス表示ボタン 押下?」 の判定をする。 Yes ならス テツプ 5 8に跳ぶ。 NOならステップ 5 4に進む。
(ステップ 5 4 ) 「位置合わせ &差分ボタン 押下?」 の判定をする。 Yes ならス テツプ 5 9に跳ぶ。 NOならステップ 5 5に進む。
(ステップ 5 5 ) 「差分 FP削除ボタン 押下?」 の判定をする。 Yesならステップ 6 0に跳ぶ。 NOならステップ 5 6に進む。
(ステップ 5 6 ) 「終了ボタン 押下?」 の判定をする。 Yesなら終了する。 NOな らステップ 5 2に戻る。
(ステップ 5 7 )
次のスライスを表示してステップ 5 2に跳ぶ。 (ステップ 5 8 )
前のスライスを表示してステップ 5 2に跳ぶ。 (ステップ 5 9 )
位置合わせ &差分処理してステップ 5 2に跳ぶ。
(ステップ 6 0 )
差分後の偽陽性陰影 (擬似陰影) を低濃度化してステップ 5 2に跳ぶ。 低濃度化の 方法としては、
陰影特徴量を用いた低濃度化方法、 エッジ領域を用いた低濃度化方法、 及び二点間 置換処理による低濃度化方法がある。
まず、 陰影特徴量を用いた低濃度化方法を、 図 3 0を用いて説明する。 (ステップ 6 1 )
差分処理をする。
(ステップ 6 2 )
差分画像強調 &ニ値化処理をする。
(ステップ 6 3 )
二値化処理後は領域が複数個連結している場合があるので、 二値化領域の細くくび れた部分の切断処理をして、 孤立領域にする。
(ステップ 6 4 )
「それぞれの孤立領域の縦横長の比は 計算値 >所定値 1」 か否かを判定する。 Yes ならステップ 6 9に跳び、 偽陽性として低濃度化する。
(ステップ 6 5 )
「それぞれの孤立領域の円形度は 計算値 >所定値 2」 か否かを判定する。 Yes な らステップ 6 9に跳び、 偽陽性として低濃度化する。
(ステップ 6 6 )
その他の判定処理をする。 Yes ならステップ 6 9に跳び、 偽陽性として低濃度化す る。
(ステップ 6 7 )
差分画像の高濃度個所にがん陰影候補として丸印をつける。
(ステップ 6 8 )
全ての陰影を判定したか否かを判定する。 Yesなら終了。 NOならステップ 6 4に跳 ぶ。
(ステップ 6 9 )
偽陽性陰影を低濃度化する。
次に、 エッジ領域を用いた低濃度化方法を、 図 3 1乃至 3 3を用いて説明する。 図 3 1の例では、 当日画像 1と過去画像 2との差分処理をすると画像 3のようになる。 過去画像にがん陰影が無く当日画像にがん陰影があれば、 差分画像には、 がん陰影と 画像全体の位置ずれによる部分とが主に表示される。 ここで、 がん陰影以外は表示し ないようにしたほうががん陰影を見つけやすくなる。
図 32は、 当日画像及び過去画像の CT画像のエッジを強調したあとで二値化した ものであり、 これらの画像の相関を取ると画像 20になる。 画像 20を使い、 図 31 の 3中でエッジ画像 20の値が 1の領域を低濃度化する。 これにより、 差分後の偽陽 性を低濃度化した擬似陰影削減画像 21が得られる。
なお、 予め二値化せずに、 しきい値より大きな濃度の領域の相関をとつても画像 2 0は得られる。
図 33は、 本処理を DR画像に適用した場合である。
偽陽性を低濃度化した画像には、 がんの疑いがある陰影が含まれている可能性があ る。 引き算をしないで、 それぞれの画像だけで異常陰影候補を検出した結果と合成し て表示し、 医師の判断を仰ぐことも可能である。
次に、 二点間置換処理による低濃度化処理について図 34を用いて説明する。 画素 p 1と p 5の値が所定値より小さい場合、 p l〜p 5を、 p l〜p 5の最小値 で置き換える。 この場合、 p 2〜p4を、 p 2〜p 4の最小値で置き換えても低濃度 化の効果は得られる。
また、 画素 p 1と p 5の値が所定値より大きい場合、 p l〜p 5を、 p l〜p 5の 最大値で置き換える場合もある。 この場合、 p 2〜p4を、 p 2〜p4の最大値で置 き換えても低濃度化の効果は得られる。
このように、 医用画像処理装置 10では、 当日画像と過去画像との正確な位置合わ せを行うことにより偽陽性陰影 (擬似陰影) を生じにくくし、 生じた偽陽性陰影を低 濃度化するので、 がん等の異常陰影を容易に見つけることができる。
次に、 医用画像処理装置 10の操作画面の他の例を図 35及び図 36に示す。 単純 差分法による CT画像 21、 異方性差分法による陰影強調画像 22を CRT 15に表 示している。 そして、 CRT 15には、 マウス 17のカーソルが CT画像 21及び陰 影強調画像 22にそれぞれ表示され、 これらは、 マウス 17を移動させればそれぞれ のカーソルも連動するようになっており、 対応する位置を把握しやすくしている。 また、 図 36に示すように位置合わせ後の当日画像 31、 過去画像 32、 及び差分 画像 33の 3つの画像を表示して、 マウス 17のカーソルを連動させるようにしても よい。
一般に、 探索領域内の最大値を見つける手法は、 当日画像 N枚目の画像と最も相関 の高い過去画像 M枚目の画像の同一ァドレスを点(順次走査点)でそれぞれ走査する。 その走査の際に、 図 8、 9又は図 18に示すような濃度勾配最大方向に平行な二次元 画像を想定する。
しかしながら、 二次元画像だけでは、 血管の位置関係が当日画像と過去画像とで微 妙に異なっていた場合、それに対応することが困難である。例えば、被検体の体型は、 過去画像を撮影した時と当日画像を撮影する時とで太ったり痩せたりして変わってし まっていることがあるからである。 そこで、 二次元画像に加えて、 その連続する複数 枚の二次元画像を積み上げて形成する三次元画像の考え方を導入する。
例えば、 図 37に示す当日画像 N枚目の画像の前後 (又は上下) の N+ 1枚目及び N— 1枚目の画像や、 図 38に示す過去画像 M枚目の画像の前後 (又は上下) の M + 1枚目及び M— 1枚目の画像を利用して、 三次元的に処理を行う。
具体的には、 図 39に示すように、 N枚目の画像の座標 X, Yを (N, X, Y) と 表すと、 例えば、 (N, XI, Y1) 点の引き算値は、 当日画像 (N, XI, Y1) 点 の濃度値 VIから過去画像 (M, x l, y 1) の濃度値 V 1を引いた値となり、 (N, X2, Y2) 点の引き算値は、 当日画像 (Ν, Χ2, Υ2) 点の濃度値 V2から過去 画像 (M_ l , X 2, y 2) の濃度値 v 2を引いた値となる。 ここで、 探索領域 (平 面) は、 M枚目画像の順次走査点の濃度勾配最大方向に平行である。 引き算値が負の 場合は、 引き算値をゼロや引き算値の絶対値と置き換えてもよい。 引き算は、 逆に過 去画像から当日画像を引いてもよい。
図 40に示すように、 最大値を見つけるための探索領域は走査点を含む立方体であ つてもよい。 図 41に示すように、 探索領域の境界は補間画像上であってもよい。 図 42に示すように、 断層像のスライス厚が薄い場合、 探索領域の境界は原画像の複数 枚にまたがってもよい。 その際に、 図 43に示すように、 三次元的な濃度勾配最大方 向を考慮して局所最大値を求めることが好ましい。 図 44に、 MI P (Maximum Intensity Projection) 画像を、 現在画像に対応する スライス位置の過去画像を含む少なくとも 2枚の複数画像から作成する場合を示す。 被検体の動きなどの影響で、 一方の画像にしか写っていない血管などがあり、 この 血管などの陰影が画像間差分処理後に残ってしまうことがある。 これは、 血管が写つ ていない画像と隣接する画像に血管が写っていることを意味するので、 過去画像に対 して両隣の画像と例えば 3枚 (枚数はスライスの厚さに依存し、 スライスが薄ければ 枚数は多くなる) で MI P画像を作れば、 欠けた部分を補うことができる。
撮影後、 血管などの位置が合っていないので位置合わせ演算を行うが、 その位置合 わせ演算によって完全に位置を合わせることが困難であるという問題を解決するため に、 本実施の形態による方法では、 当日画像 aの小領域中心座標 (X, y) 画素値か ら過去画像 bの (X, y) 付近の画素値の最大値を引く。 原理は図 7で説明した場合 と同様である。
上記両者を考慮して、 本実施の形態による方法では、 当日画像 aの (x, y) 画素 値から過去画像 bを含む M I P画像の (X, y) 付近の画素値の最大値を引く。
1^1 画像81は、 画像 a 1に対応する画像 b 3を含む少なくとも 2枚の複数画像 から作成する。 1^1 ?画像81は、 計測データから厚さの厚いスライス画像を再構成 することにより作成してもよい。 M I P画像 Bnも同様に作成する。
差分画像 1は画像 a 1と M I P画像 B 1との差分であり、 差分画像 2は画像 a 2と M I P画像 B 2との差分である。 以下同様に、 差分画像 nは画像 a nと M I P画像 B nとの差分である。
また、 図 45に、 補間画像作成の変形例として、 M I P画像 Bnを画像 a 4に対応 する画像 b 6を上下非対称に含む 4枚の画像から作成する場合を示す。
次に、 医用画像処理装置 10での主要な処理である引き算方法について、 図 46を 用いて説明する。
(ステップ 161)
撮影日付の違う画像群間で相関の最も高い対画像 (aは時間的に当日画像、 bは過 去画像) を求める。 (ステップ 1 6 2 )
次に、 日付が先の画像 bを含む複数画像から対象部位を抽出する。 部位が頭部であ る場合などでは、 このステップを省略してもよい。
(ステップ 1 6 3 )
抽出画像を用いて M I P画像 cを作成する。抽出ステップが省略されている場合は、 そのまま M I P画像 cを作成する。 更に、 M I P画像を作成する際に、 最大値を見つ ける範囲、 即ち隣接するスライス画像から最大値を見つける範囲を C T値の C T 1〜 C T 2の範囲とする場合もある。 また、 この M I P画像 cの代わりにスライス厚の厚 い断層像を再構成して用いてもよい。
(ステップ 1 6 4 )
画像 aと画像 cとの位置合わせをする。 この位置合わせの際、 必要に応じて、 平均 濃度や濃度ヒストグラムも一致させると位置合わせ処理がしゃすくなる。
(ステップ 1 6 5 )
x、 yに初期値を代入する。 この場合の初期値とは、 画像の読み出しアドレスの開 始アドレスを意味する。
(ステップ 1 6 6 )
画像 aの (x, y ) 点の画素値から画像じの (X , y ) を含む小領域内の最大画素 値 (引き算値に一定値を掛けた値も含む) を引き算する。
(ステップ 1 6 7 )
引き算値を用いて表示に適した値に変換し、 表示メモリに格納する。
(ステップ 1 6 8 )
Xに 1を加える。 つまり、 画像の読み出しアドレス Xを更新する。
(ステップ 1 6 9 )
画像の読み出しァドレス Xが最大値であるか否かを判定する。 最大値でなければス テツプ 1 6 6へ、 最大値であればステップ 1 6 Aへ進む。
(ステップ 1 6 A)
yに 1を加える。 つまり、 画像の読み出しアドレス yを更新する。 (ステップ 1 6 B )
画像の読み出しァドレス yが最大値であるか否かを判定する。 最大値でなければス テツプ 1 6 Cへ進み、 最大値であれば処理を終了する。
(ステップ 1 6 C )
Xに初期値を代入する。 つまり、 画像の読み出しアドレス yを更新したアドレスで Xが初期値のァドレスに設定されることになる。
次に、 図 4 7にしたがって、 原画像を用いた検出処理の結果と差分画像を用いた検 出処理の結果とを組み合わせる方法を説明する。
(ステップ 1 7 1 )
原画像を用いた検出処理 (A) を行う。
(ステップ 1 7 2 )
差分画像を用いた検出処理 (B) を行う。
(ステップ 1 7 3 )
操作者が検出率を優先に選択したか否かを判定する。 検出率優先を選択した場合ス テツプ 1 7 4へ、 選択しなかった場合ステップ 1 7 5へ進む。
(ステップ 1 7 4 )
A, B両者の検出箇所の O R処理を行い、 その後処理を終了する。
(ステップ 1 7 5 )
操作者が偽陽性削減を優先に選択したか否かを判定する。 偽陽性削減優先を選択し た場合ステップ 1 7 6へ、 選択しなかった場合処理を終了する。
(ステップ 1 7 6 )
A, B両者の検出箇所の AND処理を行い、 その後処理を終了する。
更に、 差分処理は当日画像及び過去画像の全ての画像間でするのではなく、 原当日 画像を用いた異常陰影検出処理で異常個所が検出された画像に対応する過去画像のみ を自動的にデータベースから読み出して、 当日画像との差分処理をしてもよい。 以上説明した処理において、 過去画像と当日画像とを入れ替えて処理を行ってもよ く、 同様の結果を得ることができる。 産業上の利用可能性
以上説明したように本発明によれば、 画像の陰影が強調され、 がん等の異常陰影を 容易に見つけることができる。

Claims

請 求 の 範 囲
1 . 医用画像診断装置によって撮影された被検者の所定部位を第一の医用画像として 記憶する第一の記憶手段と、
前記第一の記憶手段に記憶された第一の画像が撮影された日時と異なる前記同一被 検者でかつ同一部位の第二の医用画像を記憶する第二の記憶手段と、
前記第一の記憶手段によって記憶された第一の医用画像に少なくとも一つの画素を 要素とする複数の第一の局所領域を設定する第一の設定手段と、
前記第一の設定手段によって設定された複数の第一の局所領域のそれぞれに対応し、 それらの第一の局所領域以上の広さを有する複数の第二の局所領域を前記第二の記憶 手段に記憶された第二の画像に設定する第二の設定手段と、
前記第二の設定手段によって設定された複数の第二の局所領域毎に濃度値の基準値 を算出する基準値算出手段と、
前記基準値算出手段によって算出された基準値と、 前記第一の設定手段によって設 定された複数の第一の局所領域の各画素の濃度値とに基づいて前記第一の局所領域毎 に強調画像を作成する画像作成手段と、
前記画像作成手段によって作成された強調画像を表示する表示手段と、
を備えることを特徴とする医用画像処理装置。
2 . 前記画像作成手段は、 前記基準値算出手段によって算出された基準値と、 前記第 一の設定手段によって設定された複数の第一の局所領域の各画素の濃度値との差分値 を計算し、 該計算された差分値に基づいて前記第一の局所領域毎に強調画像を作成す ることを特徴とする請求項 1記載の医用画像処理装置。
3 . 前記画像作成手段は、 第一又は第二の医用画像の輪郭画像を生成する輪郭画像生 成手段と、 前記輪郭画像と前記強調画像とを重畳する画像重畳手段とを備え、 前記表 示手段は、 前記画像重畳手段によって重畳された重畳画像を表示することを特徴とす る請求項 1記載の医用画像処理装置。
4. 前記基準値算出手段によって算出される基準値は、 前記第二の設定手段によって 設定された第二の局所領域毎の局所最大値、 局所平均値、 局所メジアンの少なくとも 一つ又はそれらの定数倍であることを特徴とする請求項 1記載の医用画像処理装置。
5 . 前記基準値算出手段は、 前記第二の設定手段によって設定された第二の局所領域 の濃度勾配最大方向を算出する方向算出手段を更に備え、 前記基準値算出手段は、 前 記方向算出手段によって算出された濃度勾配最大方向に沿った画素値から濃度値の最 大値、 その最大値を定数倍した値、 前記最大値に濃度値の関数を乗じた値、 前記最大 値に濃度分布の近似関数を乗じた値、 前記最大値を定数倍に前記第一の画像の濃度勾 配最大方向と前記第二の画像の濃度勾配最大方向との成す角度の関数を乗じた値、 濃 度値が最大値となる画素近傍での濃度値の平均値のうちの何れか一つの値を用いて前 記局所最大値を算出することを特徴とする請求項 4記載の医用画像処理装置。
6 . 前記第一の医用画像と前記第二の医用画像との位置合わせを行う位置合わせ手段 を更に備えることを特徴とする請求項 1記載の医用画像処理装置。
7 . 前記画像作成手段によって作成された強調画像において前記位置合わせ手段によ る位置合わせの不完全性により生じた擬似陰影を低濃度化して擬似陰影削減画像を作 成する低濃度化手段を更に備え、 前記表示手段は、 前記低濃度化手段によって作成さ れた擬似陰影削減画像を表示することを特徴とする請求項 6記載の医用画像処理装置。
8 . 前記表示手段に表示されるカーソルを操作するポインティングデバイスを更に備 え、 前記表示手段は、 前記第一の医用画像、 前記第二の医用画像、 前記画像作成手段 によって作成された強調画像のうち少なくとも二つの画像を並列表示し、 並列表示さ れたそれぞれの画像に前記ポインティングデバイスによって操作されるカーソルを表 示し、 前記カーソルは、 前記並列表示されたそれぞれの画像上において前記ポインテ ィングデバイスの操作により連動することを特徴とする請求項 1記載の医用画像処理
9 . 前記基準値算出手段は、 前記第二の設定手段によって設定された複数の第二の局 所領域について、 スライス方向に隣接する複数の前記第二の医用画像によって形成さ れる M I P画像を含む三次元情報により前記基準値を算出することを特徴とする請求 項 1記載の医用画像処理装置。
1 0 . 前記表示手段に表示される強調画像の表示条件について異常陰影の検出率を優 先するか、 偽陽性削減を優先するかを設定する表示条件設定手段を更に備えることを 特徴とする請求項 1記載の医用画像処理装置。
1 1 . 医用画像診断装置によって撮影された被検者の所定部位を第一の医用画像とし て記憶する第一の記憶工程と、
前記第一の記憶工程に記憶された第一の画像が撮影された日時と異なる前記同一被 検者でかつ同一部位の第二の医用画像を記憶する第二の記憶工程と、
前記第一の記憶工程によって記憶された第一の医用画像に少なくとも一つの画素を 要素とする複数の第一の局所領域を設定する第一の設定工程と、
前記第一の設定工程によつて設定された複数の第一の局所領域のそれぞれに対応し、 それらの第一の局所領域以上の広さを有する複数の第二の局所領域を前記第二の記憶 工程に記憶された第二の画像に設定する第二の設定工程と、
前記第二の設定工程によって設定された複数の第二の局所領域毎に濃度値の基準値 を算出する基準値算出工程と、
前記基準値算出工程によって算出された基準値と、 前記第一の設定工程によつて設 定された複数の第一の局所領域の各画素の濃度値とに基づいて前記第一の局所領域毎 に強調画像を作成する画像作成工程と、
前記画像作成工程によって作成された強調画像を表示する表示工程と、
を備えることを特徴とする医用画像処理方法。
1 2 . 前記画像作成工程は、 前記基準値算出工程によって算出された基準値と、 前記 第一の設定工程によって設定された複数の第一の局所領域の各画素の濃度値との差分 値を計算し、 該計算された差分値に基づいて前記第一の局所領域毎に強調画像を作成 することを特徴とする請求項 1 1記載の医用画像処理方法。
1 3 . 前記画像作成工程は、 第一又は第二の医用画像の輪郭画像を生成する輪郭画像 生成工程と、 前記輪郭画像と前記強調画像とを重畳する画像重畳工程とを備え、 前記 表示工程は、 前記画像重畳工程によって重畳された重畳画像を表示することを特徴と する請求項 1 1記載の医用画像処理方法。
1 4. 前記基準値算出工程によって算出される基準値は、 前記第二の設定工程によつ て設定された第二の局所領域毎の局所最大値、 局所平均値、 局所メジアンの少なくと も一つ又はそれらの定数倍であることを特徴とする請求項 1 1記載の医用画像処理方 法。
1 5 . 前記基準値算出工程は、 前記第二の設定工程によって設定された第二の局所領 域の濃度勾配最大方向を算出する方向算出工程を更に備え、 前記基準値算出工程は、 前記方向算出工程によって算出された濃度勾配最大方向に沿った画素値から濃度値の 最大値、 その最大値を定数倍した値、 前記最大値に濃度値の関数を乗じた値、 前記最 大値に濃度分布の近似関数を乗じた値、 前記最大値を定数倍に前記第一の画像の濃度 勾配最大方向と前記第二の画像の濃度勾配最大方向との成す角度の関数を乗じた値、 濃度値が最大値となる画素近傍での濃度値の平均値のうちの何れか一つの値を用いて 前記局所最大値を算出することを特徴とする請求項 1 4記載の医用画像処理方法。
1 6 . 前記画像作成工程に先立ち、 前記第一の医用画像と前記第二の医用画像との位 置合わせを行う位置合わせ工程を更に備えることを特徴とする請求項 1 1記載の医用 画像処理方法。
1 7 . 前記画像作成工程によって作成された強調画像において前記位置合わせ工程に よる位置合わせの不完全性により生じた擬似陰影を低濃度化して擬似陰影削減画像を 作成する低濃度化工程を更に備え、 前記表示工程は、 前記低濃度化工程によって作成 された擬似陰影削減画像を表示することを特徴とする請求項 1 6記載の医用画像処理 方法。
1 8 . 前記表示工程に表示されるカーソルを操作するポインティングデバイスを更に 備え、 前記表示工程は、 前記第一の医用画像、 前記第二の医用画像、 前記画像作成ェ 程によって作成された強調画像のうち少なくとも二つの画像を並列表示し、 並列表示 されたそれぞれの画像に前記ポインティングデバイスによって操作されるカーソルを 表示し、 前記カーソルは、 前記並列表示されたそれぞれの画像上において前記ポイン ティングデバイスの操作により連動することを特徴とする請求項 1 1記載の医用画像 処理方法。
1 9 . 前記基準値算出工程は、 前記第二の設定工程によって設定された複数の第二の 局所領域について、 スライス方向に隣接する複数の前記第二の医用画像によって形成 される M I P画像を含む三次元情報により前記基準値を算出することを特徴とする請 求項 1 1記載の医用画像処理方法。
2 0 . 前記表示工程に表示される強調画像の表示条件について異常陰影の検出率を優 先するか、 偽陽性削減を優先するかを設定する表示条件設定工程を更に備えることを 特徴とする請求項 1 1記載の医用画像処理方法。
PCT/JP2004/011111 2003-07-28 2004-07-28 医用画像処理装置及び方法 WO2005009242A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005512118A JP4408863B2 (ja) 2003-07-28 2004-07-28 医用画像処理装置及び方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-280987 2003-07-28
JP2003280987 2003-07-28
JP2004-097873 2004-03-30
JP2004097873 2004-03-30

Publications (1)

Publication Number Publication Date
WO2005009242A1 true WO2005009242A1 (ja) 2005-02-03

Family

ID=34106914

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/011111 WO2005009242A1 (ja) 2003-07-28 2004-07-28 医用画像処理装置及び方法

Country Status (2)

Country Link
JP (1) JP4408863B2 (ja)
WO (1) WO2005009242A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006223739A (ja) * 2005-02-21 2006-08-31 Hitachi Medical Corp 差分画像生成装置
JP2007000428A (ja) * 2005-06-24 2007-01-11 Ge Medical Systems Global Technology Co Llc 画像判定装置、画像判定方法およびx線ct装置
JP2008259703A (ja) * 2007-04-12 2008-10-30 Fujifilm Corp 対象領域表示方法、装置およびプログラム
WO2010016293A1 (ja) * 2008-08-08 2010-02-11 コニカミノルタエムジー株式会社 医用画像表示装置、医用画像表示方法及びプログラム
JP2011024763A (ja) * 2009-07-24 2011-02-10 Hitachi Ltd 画像処理方法および画像処理装置
JP2015503778A (ja) * 2011-12-24 2015-02-02 エコール ドゥ テクノロジー スペリウールEcole De Technologie Superieure ノイズに対して堅牢な画像レジストレーション方法およびシステム
JP2016167233A (ja) * 2015-03-10 2016-09-15 富士通株式会社 補間画像生成装置、補間画像生成方法及び補間画像生成用コンピュータプログラム
WO2017098888A1 (ja) * 2015-12-10 2017-06-15 株式会社日立製作所 画像処理装置及び画像処理方法
JP2017142553A (ja) * 2016-02-08 2017-08-17 コニカミノルタ株式会社 表示制御装置、医用画像調整方法、プログラム及び医用画像管理システム
WO2019026680A1 (ja) * 2017-08-03 2019-02-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP2020058623A (ja) * 2018-10-10 2020-04-16 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
JPWO2021177157A1 (ja) * 2020-03-05 2021-09-10
US11941179B2 (en) 2010-10-06 2024-03-26 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169182A (ja) * 1999-12-07 2001-06-22 Fuji Photo Film Co Ltd 画像表示方法および画像表示装置
JP2001170035A (ja) * 1999-12-16 2001-06-26 Fuji Photo Film Co Ltd 画像表示方法および画像表示装置
JP2001325583A (ja) * 2000-03-08 2001-11-22 Fuji Photo Film Co Ltd 画像処理方法および画像処理装置
JP2003126076A (ja) * 2001-10-24 2003-05-07 Hitachi Medical Corp X線ct装置
JP2003153082A (ja) * 2001-08-27 2003-05-23 Fuji Photo Film Co Ltd 画像の位置合わせ装置および画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169182A (ja) * 1999-12-07 2001-06-22 Fuji Photo Film Co Ltd 画像表示方法および画像表示装置
JP2001170035A (ja) * 1999-12-16 2001-06-26 Fuji Photo Film Co Ltd 画像表示方法および画像表示装置
JP2001325583A (ja) * 2000-03-08 2001-11-22 Fuji Photo Film Co Ltd 画像処理方法および画像処理装置
JP2003153082A (ja) * 2001-08-27 2003-05-23 Fuji Photo Film Co Ltd 画像の位置合わせ装置および画像処理装置
JP2003126076A (ja) * 2001-10-24 2003-05-07 Hitachi Medical Corp X線ct装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4626984B2 (ja) * 2005-02-21 2011-02-09 株式会社日立メディコ 差分画像生成装置及び方法
JP2006223739A (ja) * 2005-02-21 2006-08-31 Hitachi Medical Corp 差分画像生成装置
JP2007000428A (ja) * 2005-06-24 2007-01-11 Ge Medical Systems Global Technology Co Llc 画像判定装置、画像判定方法およびx線ct装置
JP2008259703A (ja) * 2007-04-12 2008-10-30 Fujifilm Corp 対象領域表示方法、装置およびプログラム
WO2010016293A1 (ja) * 2008-08-08 2010-02-11 コニカミノルタエムジー株式会社 医用画像表示装置、医用画像表示方法及びプログラム
JP2011024763A (ja) * 2009-07-24 2011-02-10 Hitachi Ltd 画像処理方法および画像処理装置
US11941179B2 (en) 2010-10-06 2024-03-26 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures
JP2015503778A (ja) * 2011-12-24 2015-02-02 エコール ドゥ テクノロジー スペリウールEcole De Technologie Superieure ノイズに対して堅牢な画像レジストレーション方法およびシステム
JP2016167233A (ja) * 2015-03-10 2016-09-15 富士通株式会社 補間画像生成装置、補間画像生成方法及び補間画像生成用コンピュータプログラム
WO2017098888A1 (ja) * 2015-12-10 2017-06-15 株式会社日立製作所 画像処理装置及び画像処理方法
JP2017142553A (ja) * 2016-02-08 2017-08-17 コニカミノルタ株式会社 表示制御装置、医用画像調整方法、プログラム及び医用画像管理システム
WO2019026680A1 (ja) * 2017-08-03 2019-02-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム及びプログラム
EP3662835A4 (en) * 2017-08-03 2021-04-28 Canon Kabushiki Kaisha IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING SYSTEM, AND PROGRAM
US11302007B2 (en) 2017-08-03 2022-04-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and storage medium
JP7140475B2 (ja) 2017-08-03 2022-09-21 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP2019025240A (ja) * 2017-08-03 2019-02-21 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP2020058623A (ja) * 2018-10-10 2020-04-16 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
JP7220542B2 (ja) 2018-10-10 2023-02-10 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
JPWO2021177157A1 (ja) * 2020-03-05 2021-09-10
JP7394959B2 (ja) 2020-03-05 2023-12-08 富士フイルム株式会社 医用画像処理装置、医用画像処理方法及びプログラム、医用画像表示システム

Also Published As

Publication number Publication date
JP4408863B2 (ja) 2010-02-03
JPWO2005009242A1 (ja) 2006-09-07

Similar Documents

Publication Publication Date Title
US7653263B2 (en) Method and system for volumetric comparative image analysis and diagnosis
US7916918B2 (en) Diagnostic system for multimodality mammography
US8682054B2 (en) Method and system for propagation of myocardial infarction from delayed enhanced cardiac imaging to cine magnetic resonance imaging using hybrid image registration
US5359513A (en) Method and system for detection of interval change in temporally sequential chest images
CN107886508B (zh) 差分减影方法和医学图像处理方法及系统
EP1704532B1 (en) System and method for filtering a medical image
US8423124B2 (en) Method and system for spine visualization in 3D medical images
JP5643304B2 (ja) 胸部トモシンセシスイメージングにおけるコンピュータ支援肺結節検出システムおよび方法並びに肺画像セグメント化システムおよび方法
JP4640845B2 (ja) 画像処理装置およびそのプログラム
KR101028365B1 (ko) 연속된 컴퓨터 단층촬영의 폐결절 다단계 정합 방법 및 장치
US9675317B2 (en) Interface identification apparatus and method
Neubert et al. Automated 3D segmentation of vertebral bodies and intervertebral discs from MRI
JP4408863B2 (ja) 医用画像処理装置及び方法
EP2601637B1 (en) System and method for multi-modality segmentation of internal tissue with live feedback
JP2009226043A (ja) 医用画像処理装置及び異常陰影検出方法
US8306354B2 (en) Image processing apparatus, method, and program
US8577101B2 (en) Change assessment method
JP2002219123A (ja) 投影変換装置及び方法並びに経時差分画像作成装置及び方法
KR101274530B1 (ko) 이미지 정합 기반 흉부영상 진단 시스템 및 방법
JP2008029798A (ja) 胸部x線像とその左右反転像を用いるサブトラクション方法
KR101028798B1 (ko) 다중 페이즈 간 ct영상들의 정합을 이용한 간세포암 검출방법
JP4082718B2 (ja) 画像認識方法および画像表示方法および画像認識装置
US8165375B2 (en) Method and system for registering CT data sets
JP6642048B2 (ja) 医療画像表示システム、医療画像表示プログラム及び医療画像表示方法
JP2015136480A (ja) 3次元医用画像表示制御装置およびその作動方法並びに3次元医用画像表示制御プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005512118

Country of ref document: JP

122 Ep: pct application non-entry in european phase