WO2017141660A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2017141660A1
WO2017141660A1 PCT/JP2017/002839 JP2017002839W WO2017141660A1 WO 2017141660 A1 WO2017141660 A1 WO 2017141660A1 JP 2017002839 W JP2017002839 W JP 2017002839W WO 2017141660 A1 WO2017141660 A1 WO 2017141660A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel value
region
enhancement
search
Prior art date
Application number
PCT/JP2017/002839
Other languages
English (en)
French (fr)
Inventor
國分 博人
冬彦 寺本
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US15/777,964 priority Critical patent/US10810713B2/en
Publication of WO2017141660A1 publication Critical patent/WO2017141660A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly, to image processing for efficiently diagnosing a portion having a low contrast.
  • a part having a small density difference may be a diagnosis target.
  • inconveniences such as failure to correctly grasp the organ shape to be diagnosed and determination of the lesion to be detected occur.
  • nonlinear gradation conversion for example, gamma correction
  • the contrast of the density of the tissue to be diagnosed becomes large.
  • Patent Document 1 describes a technique (applied filter processing) that analyzes the structure (pixel value distribution) of a diagnosis target for each local region of an image and dynamically switches the contents of image processing.
  • the present invention has been made in view of the above problems, and an image processing apparatus and an image processing method capable of improving the diagnostic efficiency by controlling the contrast of a diagnostic part without greatly changing the characteristics of the entire image.
  • the purpose is to provide.
  • the present invention searches a diagnostic image input unit that inputs a diagnostic image that is image data to be diagnosed, and a representative pixel value that serves as a reference when enhancing the contrast of the diagnostic image.
  • a search pixel value range setting unit that sets a search pixel value range that is a pixel value range
  • a search region setting unit that sets a search region that is a region for searching for the representative pixel value
  • a set search pixel value A representative pixel value calculation unit that calculates the representative pixel value based on a range and a search area, and an enhanced image creation that creates an enhanced image that is an image in which the contrast of the entire diagnostic image is enhanced with reference to the calculated representative pixel value
  • An enhancement region calculation unit for calculating an enhancement region that is a region for enhancing contrast from the diagnostic image and the enhancement image, and an image in which the contrast of the enhancement region is enhanced Partially enhanced image creation unit that creates a certain partial weighted images, an image processing apparatus comprising: a.
  • the present invention also relates to an image processing method using a computer, wherein a step of inputting a diagnostic image, which is image data to be diagnosed, and a representative pixel value serving as a reference for enhancing the contrast of the diagnostic image are searched. Based on the set search pixel value range and the search area, setting a search pixel value range that is a pixel value range for the search, setting a search area that is a region for searching for the representative pixel value, and Calculating the representative pixel value; creating an emphasized image that is an image in which the contrast of the entire diagnostic image is enhanced with reference to the calculated representative pixel value; and calculating the contrast from the diagnostic image and the enhanced image. A step of calculating an emphasis area that is an emphasis area and a partially emphasized image that is an image in which the contrast of the emphasis area is enhanced are created. A step that is an image processing method, which comprises a.
  • an image processing apparatus and an image processing method capable of controlling the contrast of a diagnostic region without greatly changing the characteristics of the entire image and improving the diagnostic efficiency.
  • the figure which shows the whole structure of the image processing apparatus 100 The block diagram which shows the function structure of the image processing apparatus 100
  • the flowchart explaining the flow of the partial emphasis image creation processing which the image processing apparatus 100 performs The figure which shows an example of the calculation procedure of the emphasis area
  • the figure explaining the example which provides an emphasis exclusion range at the both ends of a search pixel value range The figure explaining the example which excludes a search area
  • the figure which shows the example of the evaluation block set to the diagnostic image 31 Diagram explaining the size of the evaluation block The figure explaining the weight map 38
  • FIG. The figure which shows an example of the user interface for setting a search pixel value range
  • Example of operation screen 55 for creating a partially emphasized image from a plurality of conditions The figure which shows the example of the condition table 56 The figure explaining the example which calculates the emphasis area
  • FIG. The figure which shows X-ray CT apparatus 2 incorporating the function of the image processing apparatus which concerns on this invention
  • the image processing system 1 includes an image processing apparatus 100, and an image database 111 and a medical image photographing apparatus 112 connected to the image processing apparatus 100 via a network 110.
  • the image processing apparatus 100 is a computer that performs processing such as image generation and image analysis. As shown in FIG. 1, the image processing apparatus 100 includes a CPU (Central Processing Unit) 101, a main memory 102, a storage device 103, a communication interface (communication I / F) 104, a display memory 105, a display device 107, and an input device 109. In addition, an interface (I / F) 106 with an external device such as a mouse 108 is provided, and each unit is connected via a bus 113.
  • the CPU 101 calls a program stored in the main memory 102 or the storage device 103 to the work memory area on the RAM of the main memory 102 and executes the program, drives and controls each unit connected via the bus 113, and the image processing apparatus Various processes performed by 100 are realized.
  • the CPU 101 of the image processing apparatus 100 creates a partially enhanced image that is an image in which the contrast of the diagnostic region is enhanced and the original pixel value is maintained for the non-diagnostic region. Details of the partially emphasized image creation process (see FIG. 4) will be described later.
  • the main memory 102 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the ROM permanently holds a computer boot program, a program such as BIOS, data, and the like.
  • the RAM temporarily stores programs, data, and the like loaded from the ROM, the storage device 103, and the like, and includes a work area used by the CPU 101 for performing various processes.
  • the storage device 103 is a storage device that reads and writes data to and from an HDD (hard disk drive) and other recording media, and stores a program executed by the CPU 101, data necessary for program execution, an OS (operating system), and the like. .
  • a control program corresponding to the OS and an application program are stored. Each of these program codes is read by the CPU 101 as necessary, transferred to the RAM of the main memory 102, and executed as various means.
  • the communication I / F 104 includes a communication control device, a communication port, and the like, and mediates communication between the image processing apparatus 100 and the network 110.
  • the communication I / F 104 controls communication with the image database 111, another computer, or a medical image photographing apparatus 112 such as an X-ray CT apparatus or an MRI apparatus via the network 110.
  • the I / F 106 is a port for connecting a peripheral device, and transmits / receives data to / from the peripheral device.
  • a pointing device such as a mouse 108 or a stylus pen may be connected via the I / F 106.
  • the display memory 105 is a buffer that temporarily stores display data input from the CPU 101.
  • the accumulated display data is output to the display device 107 at a predetermined timing.
  • the display device 107 includes a display device such as a liquid crystal panel and a CRT monitor, and a logic circuit for executing display processing in cooperation with the display device, and is connected to the CPU 101 via the display memory 105.
  • the display device 107 displays display data stored in the display memory 105 under the control of the CPU 101.
  • the input device 109 is an input device such as a keyboard, for example, and outputs various instructions and information input by the operator to the CPU 101.
  • the operator interactively operates the image processing apparatus 100 using external devices such as the display device 107, the input device 109, and the mouse 108.
  • the network 110 includes various communication networks such as a LAN (Local Area Network), a WAN (Wide Area Network), and the Internet, and mediates communication connection between the image database 111, the server, other information devices, and the image processing apparatus 100. .
  • LAN Local Area Network
  • WAN Wide Area Network
  • the network 110 includes various communication networks such as a LAN (Local Area Network), a WAN (Wide Area Network), and the Internet, and mediates communication connection between the image database 111, the server, other information devices, and the image processing apparatus 100.
  • LAN Local Area Network
  • WAN Wide Area Network
  • the image database 111 stores and stores image data captured by the medical image capturing device 112.
  • the image database 111 is connected to the image processing apparatus 100 via the network 110, but the image database 111 is provided in, for example, the storage device 103 in the image processing apparatus 100. May be.
  • the image processing apparatus 100 includes a diagnostic image input unit 21, a search pixel value range setting unit 22, a search region setting unit 23, a representative pixel value calculation unit 24, an emphasized image creation unit 25, and an enhancement region calculation unit 26. And a partially emphasized image creation unit 27.
  • the diagnostic image input unit 21 reads image data to be diagnosed from the storage device 103, the medical image photographing device 112, or the image database 111 and stores it in the main memory 102.
  • the image data is a plurality of tomographic images obtained by imaging the subject using an X-ray CT apparatus, an MR apparatus, or the like.
  • a case where the input image is a CT image will be described as an example.
  • the input image is called a diagnostic image.
  • the search pixel value range setting unit 22 is a pixel value range (hereinafter referred to as a search pixel) for searching for a representative pixel value on a diagnostic image in order to calculate a representative pixel value that serves as a reference when creating an emphasized image to be described later. Value range).
  • the search pixel value range is set as a combination of a minimum value and a maximum value.
  • An appropriate search pixel value range may be registered in the storage device 103 in advance, or an operator may input an arbitrary search pixel value range using the input device 109. As for the search pixel value range, it is desirable that an appropriate pixel value range is set according to the part to be diagnosed.
  • the search area setting unit 23 sets an area for searching the representative pixel value of the diagnostic image on the diagnostic image.
  • the shape and size of the search area may be registered in advance in the storage device 103 of the image processing apparatus 100, or an operator may input an arbitrary shape using the input device 109.
  • the search area is desirably set to an area having an appropriate shape and size in accordance with the site to be diagnosed.
  • the representative pixel value calculation unit 24 calculates a representative pixel value from the diagnostic image based on the set search pixel value range and search area.
  • the representative pixel value calculation unit 24 first extracts pixels in the search region set by the search region setting unit 23 and whose pixel values are included in the pixel value range set by the search pixel value range setting unit 22. .
  • a pixel value (representative pixel value) representing the search area is calculated from the pixel values of the extracted pixels.
  • an average value of pixel values of all the pixels extracted as an example is used as the representative pixel value.
  • the enhanced image creating unit 25 creates an enhanced image that is an image in which the contrast of the diagnostic image is enhanced with the representative pixel value calculated by the representative pixel value calculating unit 24 as a reference.
  • the contrast before and after the representative pixel value is enhanced by gradation conversion using a non-linear function (non-linear gradation conversion).
  • FIG. 3 shows an example of nonlinear gradation conversion. As shown in FIG. 3, gradation conversion is performed using function 3 so that the difference between the pixel values before and after the representative pixel value becomes large.
  • the enhanced image creation unit 25 creates an enhanced image by executing this gradation conversion on all the pixels of the diagnostic image input by the diagnostic image input unit 21.
  • the enhancement region calculation unit 26 calculates an enhancement region that is a region for enhancing contrast based on the diagnostic image and the enhancement image.
  • the enhancement region calculation unit 26 calculates a difference between the diagnostic image and the enhancement image, and calculates the enhancement region based on the magnitude of the difference value difference. A specific method for calculating the enhancement region will be described later.
  • the partially enhanced image creating unit 27 creates an image (partially enhanced image) in which the contrast of the enhanced region calculated by the enhanced region calculating unit 26 is enhanced. A specific method for creating the partially emphasized image will be described later.
  • the CPU 101 (diagnostic image input unit 21) of the image processing apparatus 100 inputs the diagnostic image 31 to be processed from the image database 111 connected via the storage device 103 or the communication I / F 104 (step S101).
  • the CPU 101 search pixel value range setting unit 22
  • first calculates a pixel value range to be searched (hereinafter referred to as a search pixel value range) in order to calculate a representative pixel value serving as a reference for the emphasized image creation processing in step S105.
  • the search pixel value range uses values registered in advance in the storage device 103 of the image processing apparatus 100 as a combination of the minimum and maximum pixel values. Alternatively, an arbitrary search pixel value range input by the operator using the input device 109 or the like may be used.
  • the search pixel value range is set to “30 to 40” for the head, “ ⁇ 700 to ⁇ 500” for the chest, and the like.
  • the CPU 101 searches area setting unit 23 sets a search area having an appropriate shape on the diagnostic image in order to calculate a representative pixel value that is a reference for an emphasized image creation process to be described later (step S103).
  • the shape and size of the search area may be registered in advance in the storage device 103 of the image processing apparatus 100, or may be input by the operator using the input device 109 or the like.
  • the search area may be set for each image, or may be set for a plurality of images continuous in the body axis direction.
  • the CPU 101 extracts pixels whose pixel values are included in the search pixel value range set in step S102 from the search area set in step S103 (step S104). From the extracted plurality of pixels, a pixel value (representative pixel value) representing the search area is calculated.
  • a pixel value representedative pixel value representing the search area is calculated.
  • the average value of the pixel values of all the extracted pixels is used as the representative pixel value.
  • the CPU 101 creates an enhanced image that is an image with enhanced contrast using the representative pixel value calculated in step S104 as a reference value (step S105).
  • gradation conversion is performed using a nonlinear function 3 that increases the difference between pixel values before and after the representative pixel value. This enhances the contrast before and after the representative pixel value.
  • the CPU 101 performs this gradation conversion on all the pixels of the diagnostic image input in step S101, and creates an enhanced image in which the contrast of the entire image is enhanced.
  • the CPU 101 Based on the diagnostic image input in step S101 and the enhanced image created in step S105, the CPU 101 (emphasized region calculation unit 26) finally calculates an enhanced region to which contrast enhancement processing is applied (step S106).
  • An example of a method for calculating the enhancement region will be described with reference to FIG.
  • the diagnostic image 31 includes a diagnostic part 31a having a low contrast and a non-diagnostic part 31b having a pixel value comparable to that of the diagnostic part 31a.
  • An object of the present invention is to create a “partially enhanced image” in which the contrast of the diagnostic region 31a is enhanced while the pixel value of the non-diagnostic region 31b does not change.
  • FIG. 5B shows a conceptual diagram of the enhanced image 33 obtained by performing the enhancement processing in step S105 on the diagnostic image 31 in FIG. Compared with the diagnostic image 31 in FIG. 5A, the enhanced image 33 shown in FIG. 5B emphasizes the difference (contrast) of the pixel values in the diagnostic region 31a. In addition, since the pixel values of a part of the diagnostic region 31a and the non-diagnosis region 31b are approximately the same, the pixel value of the non-diagnosis region 31b also varies as a result of the enhancement process.
  • the CPU 101 first creates a difference image 35 obtained by subtracting the diagnostic image 31 from the enhanced image 33 in order to calculate the enhanced region that is the region to be finally enhanced. Then, as shown in FIG. 5C, a difference image 35 corresponding to the effect of the enhancement process executed in step S105 is obtained.
  • the CPU 101 determines an area where the difference (variation) in the difference value is large as the emphasis area 37. As shown in FIG. 5D, the emphasis region 37 is calculated.
  • the CPU 101 (partially enhanced image creating unit 27) combines the diagnostic image 31 and the enhanced image 33 based on the enhanced region 37 calculated in step S106, and creates a partially enhanced image in which the contrast of the diagnostic region 31a is enhanced. (Step S107).
  • the CPU 101 displays the created partially emphasized image on the display device 107 (step S108).
  • the operator can perform image diagnosis while referring to the displayed partially emphasized image.
  • the CPU 101 repeatedly executes the above-described processing of step S101 to step S108 over the image range (each image in the body axis direction) of the diagnostic region 31a. Since the representative pixel value in step S104 is calculated for each image, the partially emphasized image created in step S107 reflects the pixel value and tissue shape of each region.
  • step S106 the emphasis area calculation process in step S106 is added.
  • the CPU 101 may calculate the enhancement region based on the relationship between the search pixel value range set in step S102 and the representative pixel value calculated in step S104.
  • FIG. 6 shows the concept.
  • the representative pixel value is calculated based on the pixel value within the search pixel value range, it exists within the search pixel range. However, depending on how the search area is set in step S103, the pixel value may be biased, and the representative pixel value may be close to the end value of the search pixel value range. In such a situation, there is an area where there are few pixels to be diagnosed within the search pixel value range. Therefore, an emphasis exclusion range is provided near the end of the search pixel value range, and if the representative pixel value of an arbitrarily set area in the search area exists in the emphasis exclusion range, that area is excluded from the enhancement area. You may do it. Thereby, an emphasis region can be obtained efficiently.
  • the CPU 101 may calculate the enhancement region from the ratio of the search pixel value in the search region.
  • FIG. 7 shows the concept.
  • the search area is expected to contain pixels within the search pixel value range. For example, if the search area range is small and most of the pixels in the area are included in the search pixel range, search All pixels in the region may be emphasized, resulting in an unnatural image. Conversely, even when the range of the search area is large and there are few pixels in the search pixel value range, only a part of the area may be emphasized and an unnatural image may be obtained. From this, the ratio of pixels in the search pixel value range in an arbitrary area in the search area is obtained, and when the ratio is greater than or less than an arbitrary value, the area is excluded from the enhancement area. Thereby, an emphasis region can be obtained efficiently.
  • the CPU 101 may divide the diagnostic image 31 into, for example, a block shape and determine whether or not each of the divided regions is an enhancement region.
  • each divided area is referred to as an evaluation block.
  • the size of the evaluation block for determining the emphasis region is desirably set to an optimum size for each part to be diagnosed.
  • the evaluation block for emphasizing region determination can evaluate the peripheral pixel region of the diagnostic region in detail if the size is reduced, but it is difficult to determine a widely distributed tissue. Conversely, when the size is increased, it is possible to determine a widely distributed tissue, but it is difficult to evaluate a detailed part. For this reason, it is desirable to determine the size of an appropriate evaluation block in consideration of the shape and size of the diagnostic region and calculate the enhancement region.
  • the enhancement region is calculated for each evaluation block and a partially enhanced image is created in step S107, the original diagnostic image 31 and the enhanced image 33 with enhanced contrast are switched for each evaluation block, resulting in an unnatural partially enhanced image. It may become. Therefore, it is desirable to extend the determination result for each evaluation block to the pixel size of the diagnostic image 31 and use it as a weight map 38 for smoothly mixing the diagnostic image and the enhanced image.
  • FIG. 10 shows an example of creating the weight map 38.
  • the evaluation block size is 64 ⁇ 64 pixels
  • the diagnostic image 31 is 512 ⁇ 512 pixels.
  • a weight value of “1.0” is assigned to the non-emphasized block and “0.0” is assigned to the emphasized block.
  • consecutive weight values of “0.0” to “1.0” are assigned for each pixel position of the diagnostic image 31 by interpolating the weight values of adjacent evaluation blocks.
  • FIG. 11 shows an example of creating a partially emphasized image 39 using the weight map 38 of FIG.
  • the CPU 101 mixes the diagnostic image 31 and the enhanced image 33 to create a partially enhanced image 39.
  • the CPU 101 refers to the weight value corresponding to the same pixel position from the weight map 38 and weights and adds the diagnostic image 31 and the emphasized image 33.
  • the weight map 38 it is possible to create a natural partially emphasized image 39 in which the switching between the diagnostic image 31 and the emphasized image 33 is not conspicuous.
  • FIG. 12 shows an example of search pixel value range data 41 that is a data set of the examination region and the search pixel value range.
  • the search pixel value range data 41 shown in FIG. 12 stores a search pixel value range (lower limit value and upper limit value) using examination sites such as the head, chest, and abdomen as keys.
  • the CPU 101 acquires a search pixel value range from the search pixel value range data 41 using the set examination site as a key, and performs image processing. Set to device 100. Thereby, the optimal search pixel value range is set according to the examination region.
  • the search pixel value range in step S102 may be set by the operation of the operator while referring to the diagnostic image 31 displayed on the display device 107.
  • FIG. 13 is a diagram illustrating an example of a user interface for setting a search pixel value range.
  • the CPU 101 of the image processing apparatus 100 displays the diagnostic image 31 on the display device 107 as shown in FIG.
  • the operator uses the input device 109, the mouse 108, or the like to designate a region on the displayed diagnostic image 31 that has a small contrast and is difficult to diagnose.
  • this designation operation may be an operation of designating a point P1 having a large pixel value and a point P2 having a small pixel value in a desired diagnostic region of the diagnostic image 31.
  • the CPU 101 sets the designated point P1 as the upper limit value of the search pixel value range and the designated point P2 as the lower limit value of the search pixel value range. Thereby, the user can set the search pixel value range while actually confirming the contrast (shading) on the image.
  • the designated points are not limited to two, and may be two or more. When two or more points are set, the maximum and minimum pixel values of a plurality of designated points (pixels) are set as the search pixel value range.
  • step S103 Note that the search area setting in step S103 is added.
  • the search area When setting a search area, if a search area is set for a specific image, a representative pixel value is calculated for each image position (position in the body axis direction). There is a possibility that the property is impaired. Therefore, as shown in FIG. 14, the search area may be set to a plurality of images 31-1, 31-2, 31-3, 31-4, 31-5,... Continuous in the body axis direction.
  • each image position “Z ⁇ ” of the images 31-2 and 31-4 adjacent to the image 31-3 in the body axis direction is calculated.
  • 1 ”to“ Z + 1 ” are set as search areas to calculate representative pixel values.
  • the image positions “Z-2” to “Z” adjacent in the body axis direction are set in the search area to represent the representative pixel value. Calculate the value.
  • the representative pixel value of each image can be calculated without impairing continuity in the body axis direction.
  • a process for identifying a diagnosis target part from the diagnostic image 31 may be added, and an image area serving as the identified diagnosis target part may be set as a search area.
  • the process for identifying the diagnosis target part may be performed using a known method such as region growing or pattern matching.
  • the CPU 101 calculates the average difference between the diagnostic image 31 and the enhanced image 33 for each evaluation block (see FIG. 8).
  • the portion without change before and after the enhancement process is “no difference”, and the absolute value of the difference average value increases as the evaluation block is biased toward either the positive or negative difference value. Therefore, an evaluation block having a large absolute value of the difference average value of the evaluation blocks is determined to be a non-diagnostic region 31b. Since the calculated difference value is a difference value generated by the contrast enhancement process, a partial enhancement image 39 can be obtained by performing correction for subtracting this value from the non-diagnostic portion 31b of the enhancement image 33.
  • correction by subtraction in evaluation block units results in an unnatural partially emphasized image 39 because the correction value is switched for each evaluation block. Therefore, similarly to the weight map 38 of FIG. 10B, the correction value for each evaluation block is expanded to the pixel size of the diagnostic image, and the correction value map 40 is created.
  • the density value of the correction value map 40 represents the correction value of each pixel.
  • the CPU 101 refers to the correction value of each pixel in the correction value map 40 and subtracts it from the pixel value of the corresponding pixel in the enhanced image 33. Thereby, the partial emphasis image 39 is created.
  • the image processing apparatus 100 creates the partial enhanced image 39 so as to cancel out the enhancement effect of the non-diagnostic region 33 based on the difference information between the diagnostic image 31 and the enhanced image 33 in each evaluation block. It is possible. As a result, the procedure for creating the partially emphasized image 39 can be simplified.
  • the enhancement region calculated in step S106 is determined based on parameters stored in advance in the storage device 103 of the image processing apparatus 100 or parameters input by the operator, but the region intended by the operator is not necessarily the enhancement region. It is not always calculated as In order to cope with this, the image processing apparatus 100 according to the third embodiment provides a user interface that allows the operator to edit the emphasis area.
  • FIG. 17 shows an example of an emphasis area editing screen 51 which is a user interface for editing the emphasis area.
  • the CPU 101 superimposes the partially emphasized image 39 created by the partially emphasized image creating process of the first embodiment and the image showing the emphasized area 37 calculated by the emphasized area calculating process in step S106 of FIG.
  • the combined superimposed image 50 is displayed on the display device 107.
  • the CPU 101 accepts editing of the highlight area 37 using the input device 109 such as a mouse 108 or a keyboard. That is, by operating the editing cursor 52 using the mouse 108, the input device 109, or the like, an operation for partially deleting or expanding the highlighted area 37 displayed on the display device 107 is accepted.
  • the CPU 101 (partially emphasized image creation unit 27) receives the edited emphasis area 37 as an input, creates the partially emphasized image 39 again, and redraws it on the display device 107.
  • the image processing apparatus 100 accepts editing of the emphasis area 37 by the operator and creates the partial emphasis image 39 again based on the edited emphasis area 7.
  • the image processing apparatus 100 creates one partial enhanced image 57 from a plurality of enhanced images and enhanced regions created under different conditions.
  • FIG. 18 is a diagram illustrating an example of the operation screen 55 for creating the partially emphasized image 57 using a plurality of conditions.
  • the CPU 101 displays a condition table 56 for instructing the display device 107 to create a partially emphasized image and a partially emphasized image 57.
  • the operator can correct the parameters of the condition table 56 while diagnosing the displayed partial emphasized image 57.
  • the CPU 101 creates a partially emphasized image based on the input parameters.
  • FIG. 19 is a diagram illustrating an example of the condition table 56.
  • a search pixel value range (lower limit value and upper limit value) is defined for each part to be emphasized. Further, a selection mark input field 56a for selecting which part is to be emphasized is provided. A plurality of parts can be selected by designating the selection mark input field 56a with the input device 109, the mouse 108, or the like.
  • the search pixel value range is set as a parameter to be edited.
  • the degree of enhancement in the emphasized image creation step (step S102) and the evaluation region size referred to in the enhancement region calculation step (step S107). Etc. may be parameters to be edited.
  • a partially emphasized image 57 in which the parts A and B selected according to the conditions set in the condition table 56 are emphasized is created and displayed on the display device 107.
  • the enhancement region 37 is calculated based on the difference information between the diagnostic image 31 and the enhancement image 33 (see FIG. 5 and the like), but the partial information is obtained from the difference information between the partial enhancement image 39 and the diagnosis image 31.
  • the enhancement region 37 of the target enhancement image 39 may be updated to the enhancement region 37A. An example is shown in FIG.
  • the CPU 101 creates a difference image 35A from the diagnostic image 31 input in step S101 of FIG. 3 and the partial enhancement image 39 created in step S107 of FIG. To do.
  • difference information may remain at the boundary of the non-diagnostic region 31 b in the difference image 35, but the input is performed as in the present embodiment.
  • the emphasis region 37 is updated and the emphasis region 37A can be calculated with high accuracy.
  • the process of updating the enhancement region 37A using the diagnostic image 31 and the partial enhancement image 39 as input can be executed repeatedly to improve the calculation accuracy of the enhancement region.
  • the CPU 101 monitors the area of the emphasis region and the number of pixels, and performs control such as ending the repetitive process when a predetermined condition is satisfied.
  • the enhanced region 37A is calculated from the difference information between the partially enhanced image 39 and the diagnostic image 31, and the calculated enhanced region 37A is enhanced. Recreates the image with dynamic enhancement. Thereby, the emphasis region 37A can be calculated with high accuracy.
  • the image processing apparatus 100 described in each of the above-described embodiments has been described by taking, as an example, a computer that processes medical image data as input.
  • the functions described in the above-described embodiments are part of the medical image diagnostic apparatus. It may be incorporated as For example, as shown in FIG. 21, the partially emphasized image creation function described in each of the above embodiments may be incorporated in the image processing apparatus 100A of the X-ray CT apparatus 2.
  • the image processing apparatus 100A includes a diagnostic image input unit 21, a search pixel value range setting unit 22, a search region setting unit 23, a representative unit as functional units for realizing the functions described in the first to fifth embodiments.
  • a diagnostic image input unit 21 includes a diagnostic image input unit 21, a search pixel value range setting unit 22, a search region setting unit 23, a representative unit as functional units for realizing the functions described in the first to fifth embodiments.
  • the emphasized image creation unit 25 the enhancement region calculation unit 26, and the partial enhancement image creation unit 27 is provided.
  • the X-ray CT apparatus 2 includes a scanner 120 in which an X-ray source and an X-ray detector are arranged at positions facing the rotating disk, and a bed 121 for inserting a subject into an opening of the scanner 120.
  • the scanner 120 irradiates the subject with X-rays from each direction around the subject resting on the bed 121 by rotating the turntable, and obtains X-ray attenuation information of the subject from the X-rays transmitted through the subject. Collected and sent to the image processing apparatus 100A.
  • the X-ray CT image reconstruction unit 28 of the image processing apparatus 100A reconstructs a tomographic image based on the X-ray attenuation information of the subject measured by the scanner 120 of the X-ray CT apparatus 2.
  • the image processing apparatus 100 ⁇ / b> A handles the tomographic image reconstructed by the X-ray CT image reconstruction unit 28 as a diagnostic image input to the diagnostic image input unit 21.
  • the image processing apparatus 100A executes the partially emphasized image creation process described in the first to fifth embodiments using the CT value (Hansfield unit) of the tomographic image as a pixel value.
  • Image processing system 100 100A Image processing apparatus 101 CPU 101 102... Main memory 103... Storage device 104... Communication I / F 105... Display memory 106... I / F 107... Display device 108... Mouse 109... Input device 110... Network 111. ⁇ 120 Diagnosis image input unit 22... Search pixel value range setting unit 23... Search region setting unit 24... Representative pixel value calculation unit 25. ⁇ Enhanced image creation unit 26 ⁇ Enhanced region calculation unit 27 ⁇ Partially emphasized image creation unit 28 ⁇ X-ray CT Image reconstruction unit 3... Non-linear gradation conversion 31... Diagnostic image 31 a. .. Non-diagnostic region 33... Enhanced image 35, 35A... Differential image 37, 37A. ... Partially enhanced image 40... Correction value map 41... Search pixel value range data 51. Edit cursor 55 ... Operation screen 56 ... Condition table 57 ... Partially emphasized images A, B ... ... Target parts P1, P2 ... Specified points

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

画像全体の特性を大きく変えることなく診断部位のコントラストを制御し、診断効率を向上させることが可能な画像処理装置及び画像処理方法を提供するために、画像処理装置100は、診断対象の画像データである診断画像のコントラストを強調する際の基準となる代表画素値を検索するための検索画素値範囲、検索領域を設定し、設定された検索画素値範囲及び検索領域に基づいて強調処理する代表画素値を算出し、代表画素値を基準として診断画像全体のコントラストを強調した強調画像を作成し、更に画像処理装置100は、診断画像と強調画像との差分情報からコントラストを強調する領域である強調領域を算出し、強調領域のコントラストを強調した画像である部分的強調画像を作成する。

Description

画像処理装置及び画像処理方法
 本発明は、画像処理装置及び画像処理方法に係り、詳細には、コントラストの小さい部位を効率よく診断するための画像処理に関する。
 医用画像を用いた診断では、濃度差の小さい部位が診断対象となることがある。その場合、診断対象の臓器形状を正しく把握できなかったり、検出すべき病変を判別できない等の不都合が生じる。また、画像の作成条件によってはノイズや偽像(アーチファクト)の発生等により、更に正しい診断を行うことが困難になることがある。このような場合、診断対象となる組織の濃度のコントラストが大きくなるように、非線形の階調変換(例えば、ガンマ補正等)を行うことがある。このような処理を行うと診断対象となる組織の濃度のコントラストを大きくすることができるが、診断対象の組織と同等の濃度の画素が周辺に存在する場合は、診断対象以外の組織の画素値も変動することになり、効率的な診断の妨げになる。
 特許文献1には、画像の局所領域毎に診断対象の構造(画素値分布)を解析し、画像処理の内容を動的に切り替える技術(適用型フィルタ処理)が記載されている。
特許第4707471号公報
 しかしながら、特許文献1の手法では診断対象の構造が明確でなければならず、コントラストの小さい領域では上述のように診断対象の構造を解析して行う処理を適用することは困難であった。
 本発明は、以上の問題点に鑑みてなされたものであり、画像全体の特性を大きく変えることなく診断部位のコントラストを制御し、診断効率を向上させることが可能な画像処理装置及び画像処理方法を提供することを目的とする。
 前述した目的を達成するために本発明は、診断対象の画像データである診断画像を入力する診断画像入力部と、前記診断画像のコントラストを強調する際の基準となる代表画素値を検索するための画素値範囲である検索画素値範囲を設定する検索画素値範囲設定部と、前記代表画素値を検索するための領域である検索領域を設定する検索領域設定部と、設定された検索画素値範囲及び検索領域に基づいて前記代表画素値を算出する代表画素値算出部と、算出された代表画素値を基準として前記診断画像全体のコントラストを強調した画像である強調画像を作成する強調画像作成部と、前記診断画像と前記強調画像とからコントラストを強調する領域である強調領域を算出する強調領域算出部と、前記強調領域のコントラストを強調した画像である部分的強調画像を作成する部分的強調画像作成部と、を備えることを特徴とする画像処理装置である。
 また本発明は、コンピュータを用いた画像処理方法であって、診断対象の画像データである診断画像を入力するステップと、前記診断画像のコントラストを強調する際の基準となる代表画素値を検索するための画素値範囲である検索画素値範囲を設定するステップと、前記代表画素値を検索するための領域である検索領域を設定するステップと、設定された検索画素値範囲及び検索領域に基づいて前記代表画素値を算出するステップと、算出された代表画素値を基準として前記診断画像全体のコントラストを強調した画像である強調画像を作成するステップと、前記診断画像と前記強調画像とからコントラストを強調する領域である強調領域を算出するステップと、前記強調領域のコントラストを強調した画像である部分的強調画像を作成するステップと、を含むことを特徴とする画像処理方法である。
 本発明により、画像全体の特性を大きく変えることなく診断部位のコントラストを制御し、診断効率を向上させることが可能な画像処理装置及び画像処理方法を提供できる。
画像処理装置100の全体構成を示す図 画像処理装置100の機能構成を示すブロック図 代表画素値を基準とする非線形階調変換の例を示す図 画像処理装置100が実行する部分的強調画像作成処理の流れを説明するフローチャート 強調領域37の算出手順の一例を示す図 検索画素値範囲の両端に強調除外範囲を設ける例を説明する図 検索領域内に含まれる検索画素値範囲内の画素の割合に基づき検索領域を強調領域から除外する例を説明する図 診断画像31に設定する評価ブロックの例を示す図 評価ブロックのサイズについて説明する図 重みマップ38について説明する図 図10の重みマップ38を使用した部分的強調画像39の作成例を示す図 検査部位と検索画素値範囲とのデータセットである検索画素値範囲データ41の一例を示す図 検索画素値範囲を設定するためのユーザインターフェースの一例を示す図 検索領域を体軸方向に連続する複数の画像に設定する例を示す図 補正値マップ40の作成例を示す図 補正値マップ40を用いた部分的強調画像39の算出例を示す図 強調領域編集画面51の一例を示す図 複数の条件から部分的強調画像を作成するための操作画面55の例 条件テーブル56の例を示す図 算出した部分的強調画像39と診断画像31との差分情報から強調領域37Aを算出する例について説明する図 本発明に係る画像処理装置の機能を組み込んだX線CT装置2を示す図
 以下図面に基づいて、本発明の実施形態を詳細に説明する。
 [第1の実施の形態]
 まず、図1を参照して、本発明の画像処理装置100を適用した画像処理システム1の構成について説明する。
 図1に示すように、画像処理システム1は、画像処理装置100と、画像処理装置100にネットワーク110を介して接続される画像データベース111及び医用画像撮影装置112とを備える。
 画像処理装置100は、画像生成、画像解析等の処理を行うコンピュータである。画像処理装置100は、図1に示すように、CPU(Central Processing Unit)101、主メモリ102、記憶装置103、通信インタフェース(通信I/F)104、表示メモリ105、表示装置107、入力装置109、マウス108等の外部機器とのインタフェース(I/F)106を備え、各部はバス113を介して接続されている。
 CPU101は、主メモリ102または記憶装置103等に格納されるプログラムを主メモリ102のRAM上のワークメモリ領域に呼び出して実行し、バス113を介して接続された各部を駆動制御し、画像処理装置100が行う各種処理を実現する。
 画像処理装置100のCPU101は、診断部位のコントラストが強調され、非診断部位については元の画素値を維持した画像である部分的強調画像を作成する。部分的強調画像作成処理(図4参照)の詳細については後述する。
 主メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。ROMはコンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。また、RAMは、ROM、記憶装置103等からロードしたプログラム、データ等を一時的に保持するとともに、CPU101が各種処理を行う為に使用するワークエリアを備える。
 記憶装置103は、HDD(ハードディスクドライブ)や他の記録媒体へのデータの読み書きを行う記憶装置であり、CPU101が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、アプリケーションプログラムが格納されている。これらの各プログラムコードは、CPU101により必要に応じて読み出されて主メモリ102のRAMに移され、各種の手段として実行される。
 通信I/F104は、通信制御装置、通信ポート等を有し、画像処理装置100とネットワーク110との通信を媒介する。また通信I/F104は、ネットワーク110を介して、画像データベース111や、他のコンピュータ、或いは、X線CT装置、MRI装置等の医用画像撮影装置112との通信制御を行う。
 I/F106は、周辺機器を接続させるためのポートであり、周辺機器とのデータの送受信を行う。例えば、マウス108やスタイラスペン等のポインティングデバイスをI/F106を介して接続させるようにしてもよい。
 表示メモリ105は、CPU101から入力される表示データを一時的に蓄積するバッファである。蓄積された表示データは所定のタイミングで表示装置107に出力される。
 表示装置107は、液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、表示メモリ105を介してCPU101に接続される。表示装置107はCPU101の制御により表示メモリ105に蓄積された表示データを表示する。
 入力装置109は、例えば、キーボード等の入力装置であり、操作者によって入力される各種の指示や情報をCPU101に出力する。操作者は、表示装置107、入力装置109、及びマウス108等の外部機器を使用して対話的に画像処理装置100を操作する。
 ネットワーク110は、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット等の各種通信網を含み、画像データベース111やサーバ、他の情報機器等と画像処理装置100との通信接続を媒介する。
 画像データベース111は、医用画像撮影装置112によって撮影された画像データを蓄積して記憶するものである。図1に示す画像処理システム1では、画像データベース111はネットワーク110を介して画像処理装置100に接続される構成であるが、画像処理装置100内の例えば記憶装置103に画像データベース111を設けるようにしてもよい。
 次に、図2を参照して画像処理装置100の機能構成について説明する。
 図2に示すように画像処理装置100は、診断画像入力部21、検索画素値範囲設定部22、検索領域設定部23、代表画素値算出部24、強調画像作成部25、強調領域算出部26、及び部分的強調画像作成部27を有する。
 診断画像入力部21は、記憶装置103や医用画像撮影装置112または画像データベース111から診断対象とする画像データを読み込み主メモリ102に保持する。画像データは、被検体をX線CT装置やMR装置等を用いて撮影した複数の断層像である。以下、入力画像がCT画像である場合を例として説明する。また、入力画像を診断画像と呼ぶ。
 検索画素値範囲設定部22は、後述する強調画像を作成する際の基準となる代表画素値を算出するために、診断画像上の代表画素値を検索するための画素値範囲(以下、検索画素値範囲という)を設定する。検索画素値範囲は、最小値、最大値の組み合わせとして設定される。適切な検索画素値範囲は、予め記憶装置103に登録しておいてもよいし、入力装置109を用いて操作者が任意の検索画素値範囲を入力してもよい。検索画素値範囲は、診断対象とする部位に応じて適切な画素値範囲が設定されることが望ましい。
 検索領域設定部23は、診断画像の代表画素値を検索するための領域を診断画像上に設定する。検索領域の形状やサイズは、予め画像処理装置100の記憶装置103に登録しておいてもよいし、入力装置109を用いて操作者が任意の形状を入力してもよい。検索領域は、診断対象とする部位に応じて適切な形状及びサイズの領域が設定されることが望ましい。
 代表画素値算出部24は、設定された検索画素値範囲及び検索領域に基づいて診断画像から代表画素値を算出する。代表画素値算出部24は、まず検索領域設定部23により設定した検索領域内の画素であって、その画素値が検索画素値範囲設定部22により設定した画素値範囲に含まれる画素を抽出する。抽出された複数の画素の画素値から検索領域を代表する画素値(代表画素値)を算出する。代表画素値を算出する方法は様々あるが、本実施形態では、一例として抽出された全ての画素の画素値の平均値を代表画素値とする。
 強調画像作成部25は、代表画素値算出部24により算出された代表画素値を基準として診断画像のコントラストを強調した画像である強調画像を作成する。例えば、非線形の関数を用いた階調変換(非線形階調変換)により代表画素値前後のコントラストを強調する。図3に非線形階調変換の一例を示す。図3に示すように、代表画素値の前後で画素値の差が大きくなるように、関数3を用いて階調変換を行う。強調画像作成部25は、この階調変換を診断画像入力部21により入力した診断画像の全ての画素に対して実行することにより強調画像を作成する。
 強調領域算出部26は、診断画像と強調画像とに基づきコントラストを強調する領域である強調領域を算出する。強調領域算出部26は、診断画像と強調画像との差分を求め、差分値の変動の大きさに基づいて強調領域を算出する。強調領域の具体的な算出方法については後述する。
 部分的強調画像作成部27は、強調領域算出部26により算出された強調領域のコントラストが強調された画像(部分的強調画像)を作成する。部分的強調画像の具体的な作成方法については後述する。
 次に、第1の実施の形態の画像処理装置100が実行する部分的強調画像生成処理の流れを図4のフローチャート、及び図5を参照して説明する。
 画像処理装置100のCPU101(診断画像入力部21)は、記憶装置103または通信I/F104を介して接続される画像データベース111から処理対象とする診断画像31を入力する(ステップS101)。
 次に、CPU101(検索画素値範囲設定部22)は、ステップS105の強調画像作成処理の基準となる代表画素値を算出するために、まず検索対象とする画素値範囲(以下、検索画素値範囲という)を設定する(ステップS102)。検索画素値範囲は、画素値の最小値及び最大値の組み合わせとして予め画像処理装置100の記憶装置103に登録されている値を使用する。或いは、入力装置109等を用いて操作者により入力された任意の検索画素値範囲を使用してもよい。検索画素値範囲は、例えば頭部であれば「30~40」、胸部であれば「-700~-500」等のように設定される。
 次に、CPU101(検索領域設定部23)は、後述する強調画像作成処理の基準となる代表画素値を算出するために、診断画像上に適切な形状の検索領域を設定する(ステップS103)。検索領域の形状及びサイズは、予め画像処理装置100の記憶装置103に登録しておいてもよいし、入力装置109等を用いて操作者が入力してもよい。また検索領域は、画像毎に設定してもよいし、体軸方向に連続する複数の画像に設定してもよい。
 次に、CPU101(代表画素値算出部24)は、ステップS103で設定した検索領域から、その画素値がステップS102で設定した検索画素値範囲に含まれる画素を抽出する(ステップS104)。抽出された複数の画素から、その検索領域を代表する画素値(代表画素値)を算出する。代表画素値を算出する方法は様々あるが、本実施形態では一例として、抽出された全ての画素の画素値の平均値を代表画素値とする。
 CPU101(強調画像作成部25)は、ステップS104で算出された代表画素値を基準値として、コントラストを強調した画像である強調画像を作成する(ステップS105)。本実施形態では、例えば図3に示すように、代表画素値の前後で画素値の差が大きくなるような非線形の関数3を用いて階調変換を行う。これにより代表画素値前後のコントラストを強調する。CPU101はこの階調変換をステップS101で入力した診断画像の全ての画素に対して実行し、画像全体のコントラストが強調された強調画像を作成する。
 ステップS101で入力した診断画像と、ステップS105で作成した強調画像を基に、CPU101(強調領域算出部26)は、最終的にコントラスト強調処理を適用する強調領域を算出する(ステップS106)。強調領域の算出方法の一例を、図5を参照して説明する。
 図5(a)に示すように、診断画像31には、コントラストが小さい診断部位31aと、診断部位31aと同程度の画素値を持つ非診断部位31bとが含まれるものとする。本発明では、診断部位31aのコントラストを強調しつつも非診断部位31bの画素値が変動しない「部分的強調画像」を作成することを目的としている。図5(a)の診断画像31に対してステップS105の強調処理を施して得られた強調画像33の概念図を図5(b)に示す。図5(b)に示す強調画像33は、図5(a)の診断画像31と比較して、診断部位31a内の画素値の差(コントラスト)が強調される。また、診断部位31aの一部と非診断部位31bの画素値は同程度であるので、強調処理の結果、非診断部位31bの画素値も変動する。
 CPU101は、最終的に強調する領域である強調領域を算出するために、まず強調画像33から診断画像31を差し引いた差分画像35を作成する。すると、図5(c)に示すようにステップS105で実行した強調処理の効果に応じた差分画像35が得られる。
 差分画像35内の診断部位31aに相当する領域は、ステップS104で算出した代表画素値を基準として強調処理を実行しているため、正負の画素値が混在し、差分値のバラツキ(変動)が大きくなる。一方、非診断部位31bに相当する領域は、正負どちらかの画素値に偏るため、差分値のバラツキ(変動)は小さくなる。この特性を利用して、CPU101は差分値のバラツキ(変動)が大きい領域を強調領域37と判定する。図5(d)に示すように、強調領域37が算出される。
 CPU101(部分的強調画像作成部27)は、ステップS106で算出した強調領域37に基づいて診断画像31と強調画像33とを合成し、診断部位31aのコントラストを強調した部分的強調画像を作成する(ステップS107)。
 CPU101は、作成した部分的強調画像を表示装置107に表示する(ステップS108)。操作者は、表示された部分的強調画像を参照しながら画像診断を実施することができる。
 CPU101は、上述したステップS101~ステップS108の処理を診断部位31aの画像範囲(体軸方向の各画像)にわたって繰り返し実行する。ステップS104の代表画素値は、各々の画像に対して算出されるため、ステップS107で作成される部分的強調画像は各々の領域の画素値や組織形状が反映されたものとなる。
 ここで、ステップS106の強調領域算出処理について追記する。
 CPU101は、ステップS102で設定した検索画素値範囲とステップS104で算出した代表画素値との関係に基づいて強調領域を算出してもよい。図6にその概念を示す。
 代表画素値は検索画素値範囲内の画素値を基に算出されるため、検索画素範囲内に存在する。しかしステップS103における検索領域の設定の仕方によっては画素値の偏りが発生し、代表画素値が検索画素値範囲の端部の値に近くなる場合がある。そのような状況では、検索画素値範囲内に診断対象となる画素が少ない領域がある。このことから、検索画素値範囲の端部近傍に強調除外範囲を設け、検索領域内の任意に設定した領域の代表画素値が強調除外範囲に存在する場合は、その領域を強調領域から除外するようにしてもよい。これにより、強調領域を効率的に求めることができる。
 また、ステップS106の強調領域算出処理において、CPU101は、検索領域内における検索画素値の割合から、強調領域を算出してもよい。図7にその概念を示す。
 検索領域内には検索画素値範囲内の画素が含まれていることが期待されるが、例えば、検索領域の範囲が小さく、領域内の画素のほとんどが検索画素範囲に含まれる場合は、検索領域内の全ての画素が強調され、不自然な画像になる場合がある。逆に、検索領域の範囲が大きく、領域内に検索画素値範囲内の画素が少ない場合も、一部の領域のみが強調され不自然な画像になる場合がある。このことから、検索領域内の任意の領域における検索画素値範囲内の画素の割合を求め、その割合が任意の値以上、或いは値以下の場合は、その領域を強調領域から除外する。これにより、強調領域を効率的に求めることができる。
 また、ステップS106の強調領域算出処理において、CPU101は診断画像31を例えばブロック状に分割し、分割された領域毎に強調領域か否かを判断してもよい。以下、分割された各領域を評価ブロックと呼ぶ。
 例えば図8に示すように、512×512画素からなる診断画像31の場合、32×32画素を評価ブロックとして、16×16ブロックに分割する。これらの評価ブロック毎に前述したような強調領域の判定(図6、図7の強調除外範囲に属するか否かの判定)を実行し、強調領域を算出する。
 なお、強調領域判定のための評価ブロックのサイズは、診断対象とする部位毎に最適なサイズを設定することが望ましい。図9に示すように、強調領域判定のための評価ブロックは、サイズを小さくすると診断部位の周辺画素領域を詳細に評価可能であるが、広く分布する組織の判定が難しい。逆に、サイズを大きくすると、広く分布する組織の判定を行うことができるが、詳細な部位の評価が難しい。このことから、診断部位の形状や大きさに配慮して適切な評価ブロックのサイズを決定し、強調領域の算出を行うことが望ましい。
 強調領域の算出を評価ブロック単位で行い、ステップS107で部分的強調画像を作成すると、評価ブロック毎に元の診断画像31とコントラストを強調した強調画像33とが切り替わり、不自然な部分的強調画像となることがある。そこで、評価ブロック毎の判定結果を診断画像31の画素サイズに拡張し、診断画像と強調画像を滑らかに混合するための重みマップ38として利用することが望ましい。
 図10に、重みマップ38の作成例を示す。図10(a)に示すように、評価ブロックのサイズを64×64画素、診断画像31を512×512画素とする。まず、評価ブロック毎に非強調対象のブロックに「1.0」、強調対象のブロックに「0.0」の重み値を割り当てる。次に、診断画像31の画素の位置毎に、隣接する評価ブロックの重み値を補間して連続する「0.0」~「1.0」の重み値を割り当てる。以上の処理を行うことで、図10(b)に示すように512×512画素にそれぞれ重み値を割り当てた重みマップ38が得られる。図10(b)の重みマップ38の濃度値が重みの大きさを表している。
 図11に、図10の重みマップ38を使用した部分的強調画像39の作成例を示す。
 図11に示すように、CPU101は診断画像31と強調画像33とを混合して部分的強調画像39を作成する。このとき、CPU101は重みマップ38から同じ画素位置に相当する重み値を参照し、診断画像31と強調画像33とを重み付け加算する。重みマップ38を用いることにより、診断画像31と強調画像33との切り替えが目立たない自然な部分的強調画像39を作成できる。
 次に、ステップS102の検索画素値範囲の設定について追記する。上述したように、検査部位や組織によって最適な検索画素値範囲は異なる。そのため、最適な検索画素値範囲を検査部位と紐づけて画像処理装置100内の記憶装置103に保持してもよい。図12に、検査部位と検索画素値範囲とのデータセットである検索画素値範囲データ41の一例を示す。図12に示す検索画素値範囲データ41には、頭部、胸部、腹部等の検査部位をキーとして、検索画素値範囲(下限値と上限値)が格納される。ステップS102の検索画素値範囲設定処理において、操作者が対象の検査部位を設定すると、CPU101は、設定された検査部位をキーとして検索画素値範囲データ41から検索画素値範囲を取得し、画像処理装置100に設定する。これにより、検査部位に応じて最適な検索画素値範囲が設定される。
 また、ステップS102の検索画素値範囲は、表示装置107に表示された診断画像31を参照しながら操作者の操作によって設定してもよい。図13は、検索画素値範囲を設定するためのユーザインターフェースの一例を示す図である。画像処理装置100のCPU101は、図13に示すように診断画像31を表示装置107に表示する。操作者は入力装置109やマウス108等を用いて、表示された診断画像31上のコントラストが小さく診断が困難な部位を指定する。
 この指定操作は、例えば図13に示すように、診断画像31の所望の診断部位の中でも画素値の大きい点P1と画素値が小さい点P2とを指定するといった操作とすればよい。CPU101は、指定点P1を検索画素値範囲の上限値、指定点P2を検索画素値範囲の下限値として設定する。これにより、ユーザが画像上で実際にコントラスト(濃淡)を確認しながら検索画素値範囲を設定できる。なお、指定点は2点に限定されず、2点以上とすればよい。2点以上設定した場合は、指定した複数の点(画素)の画素値の最大値及び最小値を検索画素値範囲として設定するものとする。
 ステップS103の検索領域の設定について追記する。
 検索領域の設定を行う際、特定の画像に対して検索領域を設定すると、各々の画像位置(体軸方向位置)毎に代表画素値が算出されるため、代表画素値の体軸方向の連続性が損なわれる虞がある。そのため、図14に示すように、検索領域を体軸方向に連続する複数の画像31-1、31-2、31-3、31-4、31-5、…に設定してもよい。
 例えば体軸方向の「Z」位置での画像31-3の代表画素値を算出する場合、画像31-3と体軸方向に隣接する画像31-2、31-4の各画像位置「Z-1」~「Z+1」を検索領域に設定して代表画素値を算出する。同様に、例えば体軸方向の「Z-1」位置での代表画素値を算出する場合、体軸方向に隣接した画像位置「Z-2」~「Z」を検索領域に設定して代表画素値を算出する。これにより体軸方向の連続性を損なうことなく、各画像の代表画素値を算出できる。
 また、診断画像31から診断対象部位を識別する処理を加え、識別された診断対象部位となる画像領域を検索領域として設定してもよい。診断対象部位を識別する処理は、例えばリージョングローイングやパターンマッチングといった公知の手法を用いればよい。
 [第2の実施の形態]
 第2の実施の形態の部分的強調画像作成処理について説明する。第2の実施の形態の画像処理装置100は、非診断領域31bの強調効果を相殺して部分的強調画像39を作成する。なお、第2の実施の形態の画像処理装置100の構成及び処理全体の流れは第1の実施の形態と同様である。以下、第1の実施の形態と重複する説明を省略し、異なる点について説明する。また第1の実施の形態の画像処理装置100と同一の各部には同一の符号を付して説明する。
 図15に示すように、まずCPU101は評価ブロック(図8参照)毎に診断画像31と強調画像33との差分平均値を算出する。強調処理の前後に変化のない部分は「差分なし」、正負どちらかの差分値に偏った評価ブロックほど差分平均値の絶対値が大きくなる。そこで、評価ブロックの差分平均値の絶対値が大きい評価ブロックは非診断部位31bであると判断するものとする。算出した差分値は、コントラスト強調処理によって生じた差分値であるので、この値を強調画像33の非診断部位31bから差し引く補正を行えば、部分的強調画像39を得ることができる。
 ただし、上述の補正において、評価ブロック単位での減算による補正では、評価ブロック毎に補正値が切り替わるため不自然な部分的強調画像39となる。そこで、図10(b)の重みマップ38と同様に、評価ブロック毎の補正値を診断画像の画素サイズに拡張して補正値マップ40を作成する。補正値マップ40の濃度値が各画素の補正値を表している。
 図16に示すように、CPU101は、補正値マップ40の各画素の補正値を参照し、強調画像33の対応する画素の画素値から差し引く。これにより、部分的強調画像39が作成される。
 このように、画像処理装置100は、各評価ブロックでの診断画像31と強調画像33との差分情報を基に非診断領域33の強調効果を相殺するようにして部分的強調画像39を作成することが可能である。これにより部分的強調画像39の作成手順を簡略に行えるようになる。
 [第3の実施の形態]
 本発明の第3の実施の形態として、強調領域の表示例とその編集操作について説明する。なお、第3の実施の形態の画像処理装置100の構成及び全体の処理の流れは第1の実施の形態と同様である。以下、重複する説明を省略し、同一の各部には同一の符号を付して説明する。
 ステップS106で算出する強調領域は、画像処理装置100の記憶装置103に予め記憶されたパラメータ、或いは操作者により入力されたパラメータに基づいて決定されるが、必ずしも操作者の意図した領域が強調領域として算出されるとは限らない。これに対処するため、第3の実施の形態の画像処理装置100は、操作者が強調領域を編集可能なユーザインターフェースを提供する。
 図17に、強調領域を編集するためのユーザインターフェースである強調領域編集画面51の一例を示す。
 CPU101は、第1の実施の形態の部分的強調画像作成処理により作成された部分的強調画像39と、図4のステップS106の強調領域算出処理により算出された強調領域37を示す画像とを重ね合わせた重畳画像50を表示装置107に表示する。強調領域37を部分的強調画像39に重ねて表示することにより、操作者は所望の診断部位が強調領域37として算出されているか確認することが可能となる。
 更にCPU101は、マウス108やキーボード等の入力装置109を用いた強調領域37の編集を受け付ける。すなわち、編集カーソル52をマウス108や入力装置109等を用いて操作することにより、表示装置107に表示されている強調領域37を部分的に削除したり、拡張したりする操作を受け付ける。CPU101(部分的強調画像作成部27)は、編集された強調領域37を入力として、部分的強調画像39を再度作成し、表示装置107に再描画する。
 このように、第3の実施の形態の画像処理装置100は、操作者による強調領域37の編集を受け付け、編集された強調領域7に基づいて部分的強調画像39を再度作成する。
 このため、操作者が意図する領域を強調領域37として部分的強調画像39を作成することが可能となる。
 [第4の実施の形態]
 検査部位に対して画素値が異なる複数の診断対象部位が存在する場合にも、本発明の部分的強調画像作成処理を適用することも可能である。本発明の第4の実施の形態として、診断対象部位が複数ある場合の部分的強調画像作成処理について説明する。なお、第4の実施の形態の画像処理装置100の構成及び処理全体の流れは第1の実施の形態と同様である。以下、重複する説明を省略し、同一の各部には同一の符号を付して説明する。
 例えば、頭部であれば、診断対象として、白質、灰白質境界、出血領域、虚血領域等がある。これらの領域はそれぞれ画素値が異なる。従って画像処理装置100は、異なる条件で作成された複数の強調画像と強調領域とから1つの部分的強調画像57を作成する。
 図18は、複数の条件を用いて部分的強調画像57を作成するための操作画面55の例を示す図である。CPU101は、表示装置107に部分的強調画像の作成を指示するための条件テーブル56と、部分的強調画像57を表示する。
 操作者は表示された部分的強調画像57を診断しながら、条件テーブル56のパラメータを修正可能とする。CPU101は入力されたパラメータを基に部分的強調画像を作成する。
 図19は条件テーブル56の例を示す図である。
 図19に示すように、条件テーブル56は、強調対象とする部位毎にそれぞれ検索画素値範囲(下限値及び上限値)が定義されている。更に、どの部位を強調対象とするかを選択するための選択マーク入力欄56aが設けられている。選択マーク入力欄56aを入力装置109やマウス108等で指定することにより、複数の部位を選択することが可能となっている。
 なお、図18の操作画面では、検索画素値範囲を編集対象のパラメータとしているが、強調画像作成ステップ(ステップS102)における強調の度合いや、強調領域算出ステップ(ステップS107)で参照する評価領域サイズ等を編集対象のパラメータとしてもよい。
 図18、図19の例では、強調対象部位として、部位Aと部位Bとが強調対象として選択されている。条件テーブル56で設定された条件に従って選択された各部位A,Bがそれぞれ強調された部分的強調画像57が作成され、表示装置107に表示される。
 [第5の実施の形態]
 上述した各実施形態では、診断画像31と強調画像33との差分情報に基づき強調領域37を算出した(図5等参照)が、部分的強調画像39と診断画像31との差分情報から、部分的強調画像39の強調領域37を強調領域37Aに更新してもよい。図20に一例を示す。
 図20に示すように、CPU101(強調領域算出部26)は、図3のステップS101で入力した診断画像31と、図3のステップS107で作成した部分的強調画像39とから差分画像35Aを作成する。図5に示した手順のように、強調画像33を入力とした場合には、差分画像35において非診断部位31bの境界部に差分情報が残ることがあるが、本実施形態のように入力を部分的強調画像39とすることで、既に強調領域外と判断された領域には診断画像31との差分情報が含まれないため、その影響を除外することができる。したがって、強調領域37が更新されて精度よく強調領域37Aを算出できる。
 また、診断画像31と部分的強調画像39とを入力として強調領域37Aを更新する処理は、繰り返し実行することで強調領域の算出精度を向上できる。この場合、CPU101は強調領域の面積や画素数を監視し、所定の条件を満たした場合に繰り返し処理を終了する等の制御を行う。
 以上説明したように、第5の実施の形態の画像処理装置によれば、部分的強調画像39と診断画像31との差分情報から強調領域37Aを算出し、算出した強調領域37Aを強調した部分的強調画像を再作成する。これにより、精度よく強調領域37Aを算出できる。
 [第6の実施の形態]
 上述の各実施の形態で示した画像処理装置100は、医用画像データを入力として処理するコンピュータ等を例として説明したが、上述の各実施の形態で説明した機能を医用画像診断装置の一部として組み込むものとしてもよい。例えば図21に示すように、X線CT装置2の画像処理装置100Aに上述の各実施の形態で説明した部分的強調画像作成機能を組み込むものとしてもよい。
 画像処理装置100Aは、第1~第5の実施の形態で説明した各機能を実現するための機能部として、診断画像入力部21、検索画素値範囲設定部22、検索領域設定部23、代表画素値算出部24、強調画像作成部25、強調領域算出部26、部分的強調画像作成部27の他、X線CT画像再構成部28を備える。
 X線CT装置2は、X線源及びX線検出器を回転盤の対向する位置に配置したスキャナ120と、スキャナ120の開口部に被検体を挿入する寝台121とを備える。スキャナ120は、回転盤を回転させることにより寝台121に寝載した被検体の周囲の各方向からX線を被検体に照射し、被検体を透過したX線から被検体のX線減弱情報を収集し、画像処置装置100Aに送出する。
 画像処理装置100AのX線CT画像再構成部28は、X線CT装置2のスキャナ120により測定した被検体のX線減弱情報を基に断層像を再構成する。
 画像処理装置100Aは、X線CT画像再構成部28により再構成された断層像を診断画像入力部21に入力する診断画像として扱う。画像処理装置100Aは断層像のCT値(ハンスフィールドユニット)を画素値として、第1~第5の実施の形態で説明した部分的強調画像作成処理を実行する。
 以上、添付図面を参照しながら、本発明に係る画像処理装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1・・・・・・・・・画像処理システム
100、100A・・画像処理装置
101・・・・・・・CPU101
102・・・・・・・主メモリ
103・・・・・・・記憶装置
104・・・・・・・通信I/F
105・・・・・・・表示メモリ
106・・・・・・・I/F
107・・・・・・・表示装置
108・・・・・・・マウス
109・・・・・・・入力装置
110・・・・・・・ネットワーク
111・・・・・・・画像データベース
112・・・・・・・医用画像撮影装置
120・・・・・・・スキャナ
121・・・・・・・寝台
2・・・・・・・・・X線CT装置
21・・・・・・・・診断画像入力部
22・・・・・・・・検索画素値範囲設定部
23・・・・・・・・検索領域設定部
24・・・・・・・・代表画素値算出部
25・・・・・・・・強調画像作成部
26・・・・・・・・強調領域算出部
27・・・・・・・・部分的強調画像作成部
28・・・・・・・・X線CT画像再構成部
3・・・・・・・・・非線形階調変換
31・・・・・・・・診断画像
31a・・・・・・・診断部位
31b・・・・・・・非診断部位
33・・・・・・・・強調画像
35、35A・・・・差分画像
37、37A・・・・強調領域
38・・・・・・・・重みマップ
39・・・・・・・・部分的強調画像
40・・・・・・・・補正値マップ
41・・・・・・・・検索画素値範囲データ
51・・・・・・・・強調領域編集画面
52・・・・・・・・編集カーソル
55・・・・・・・・操作画面
56・・・・・・・・条件テーブル
57・・・・・・・・部分的強調画像
A、B・・・・・・・対象部位
P1、P2・・・・・指定点

Claims (18)

  1.  診断対象の画像データである診断画像を入力する診断画像入力部と、
     前記診断画像のコントラストを強調する際の基準となる代表画素値を検索するための画素値範囲である検索画素値範囲を設定する検索画素値範囲設定部と、
     前記代表画素値を検索するための領域である検索領域を設定する検索領域設定部と、
     設定された検索画素値範囲及び検索領域に基づいて前記代表画素値を算出する代表画素値算出部と、
     算出された代表画素値を基準として前記診断画像全体のコントラストを強調した画像である強調画像を作成する強調画像作成部と、
     前記診断画像と前記強調画像とからコントラストを強調する領域である強調領域を算出する強調領域算出部と、
     前記強調領域のコントラストを強調した画像である部分的強調画像を作成する部分的強調画像作成部と、
     を備えることを特徴とする画像処理装置。
  2.  前記強調領域算出部は、前記診断画像と前記強調画像との差分値を求め、差分値の変動の大きさに基づいて前記強調領域を算出することを特徴とする請求項1に記載の画像処理装置。
  3.  前記強調画像作成部は、前記代表画素値を基準として非線形階調変換を行うことで前記強調画像を作成することを特徴とする請求項1に記載の画像処理装置。
  4.  前記強調領域算出部は、任意の領域における前記代表画素値が前記検索画素値範囲の端値から定められた範囲内にある場合、当該領域を前記強調領域から除外することを特徴とする請求項1に記載の画像処理装置。
  5.  前記強調領域算出部は、任意の領域における検索画素値範囲内の画素の割合が所定の値以上、或いは所定の値以下の場合は、当該領域を前記強調領域から除外することを特徴とする請求項1に記載の画像処理装置。
  6.  前記強調領域算出部は、前記診断画像及び前記強調画像を複数の評価ブロックに分割し、分割した評価ブロック毎に前記強調領域とするか否かを判定することを特徴とする請求項1に記載の画像処理装置。
  7.  検査部位毎の前記評価領域のサイズを定義したデータセットを格納する記憶部を備え、 前記強調領域算出部は、操作者が選択した検査部位に応じた評価領域のサイズを前記データセットに基づいて決定することを特徴とする請求項6に記載の画像処理装置。
  8.  前記強調領域算出部は、評価ブロック毎に判定された強調領域に基づき強調の程度を示す重みマップを作成し、
     前記部分的強調画像作成部は、前記重みマップを基に前記診断画像と前記強調画像とを重み付け加算することで前記部分的強調画像を作成することを特徴とする請求項6に記載の画像処理装置。
  9.  前記検査部位毎の前記検査画素値範囲を定義したデータセットを格納する記憶部を更に備え、
     前記検査画素値範囲設定部は、操作者が選択した検査部位に対応する検索画素値範囲を設定することを特徴とする請求項1に記載の画像処理装置。
  10.  前記診断画像を表示する診断画像表示部と、
     表示された診断画像上の任意の位置の画素値を取得する画素値取得部と、を更に備え、 前記検索画素値範囲設定部は、取得した2点以上の画素値の最大値及び最小値を前記検索画素値範囲として設定することを特徴とする請求項1に記載の画像処理装置。
  11.  前記検索領域設定部は、隣接する複数の画像を検索領域として設定することを特徴とする請求項1に記載の画像処理装置。
  12.  前記強調領域算出部は、前記評価ブロック毎の差分平均値から補正値マップを作成し、 前記部分的強調画像作成部は、前記強調画像に対して前記補正値マップの画素値を用いて補正を行うことで前記部分的強調画像を作成することを特徴とする請求項6に記載の画像処理装置。
  13.  前記強調領域算出部によって算出した強調領域を前記部分的強調画像作成部により作成した前記部分的強調画像に重ねて表示することを特徴とする請求項1に記載の画像処理装置。
  14.  表示された強調領域を編集する強調領域編集部を更に設け、
     前記部分的強調画像作成部は、編集された強調領域に基づいて前記部分的強調画像を作成することを特徴とする請求項13に記載の画像処理装置。
  15.  前記部分的強調画像作成部は、異なる条件で作成した複数の強調画像と強調領域を基に前記部分的強調画像を作成することを特徴とする請求項1に記載の画像処理装置。
  16.  前記強調領域算出手段は、前記診断画像と前記部分的強調画像との差分値を求め、任意の領域における前記差分値の変動に基づいて前記強調領域を更新することを特徴とする請求項1に記載の画像処理装置。
  17.  前記診断画像入力部は、X線CT装置で作成された断層像を入力し、
     前記検索画素値範囲設定部は、CT値を検索範囲として設定し、
     前記代表画素値算出部は、CT値を代表画素値として算出することを特徴とする請求項1に記載の画像処理装置。
  18.  コンピュータを用いた画像処理方法であって、
     診断対象の画像データである診断画像を入力するステップと、
     前記診断画像のコントラストを強調する際の基準となる代表画素値を検索するための画素値範囲である検索画素値範囲を設定するステップと、
     前記代表画素値を検索するための領域である検索領域を設定するステップと、
     設定された検索画素値範囲及び検索領域に基づいて前記代表画素値を算出するステップと、
     算出された代表画素値を基準として前記診断画像全体のコントラストを強調した画像である強調画像を作成するステップと、
     前記診断画像と前記強調画像とからコントラストを強調する領域である強調領域を算出するステップと、
     前記強調領域のコントラストを強調した画像である部分的強調画像を作成するステップと、
     を含むことを特徴とする画像処理方法。
PCT/JP2017/002839 2016-02-16 2017-01-27 画像処理装置及び画像処理方法 WO2017141660A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/777,964 US10810713B2 (en) 2016-02-16 2017-01-27 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016026770A JP6652854B2 (ja) 2016-02-16 2016-02-16 画像処理装置及び画像処理方法
JP2016-026770 2016-02-16

Publications (1)

Publication Number Publication Date
WO2017141660A1 true WO2017141660A1 (ja) 2017-08-24

Family

ID=59625884

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/002839 WO2017141660A1 (ja) 2016-02-16 2017-01-27 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US10810713B2 (ja)
JP (1) JP6652854B2 (ja)
WO (1) WO2017141660A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113850A (ja) * 2006-11-06 2008-05-22 Ge Medical Systems Global Technology Co Llc X線ct画像処理方法および装置
JP4707471B2 (ja) * 2005-06-10 2011-06-22 株式会社日立メディコ 画像処理プログラム、装置及び方法
US20120257808A1 (en) * 2009-10-13 2012-10-11 Tel HaShomer Medical Research Infastructure and Services Ltd. Method and system for processing an image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3813999B2 (ja) * 1995-08-25 2006-08-23 ジーイー横河メディカルシステム株式会社 画像処理方法および画像処理装置
US5900732A (en) * 1996-11-04 1999-05-04 Mayo Foundation For Medical Education And Research Automatic windowing method for MR images
DE10229113A1 (de) * 2002-06-28 2004-01-22 Siemens Ag Verfahren zur Grauwert-basierten Bildfilterung in der Computer-Tomographie
DE102004042792B3 (de) * 2004-09-03 2006-06-08 Siemens Ag Verfahren zur Verbesserung der Darstellung von CT-Aufnahmen
US8406493B2 (en) * 2008-07-17 2013-03-26 The Henry M. Jackson Foundation For The Advancement Of Military Medicine, Inc. Multi-grayscale overlay window
EP2517180A1 (en) * 2009-12-21 2012-10-31 Koninklijke Philips Electronics N.V. Processing an image dataset based on clinically categorized populations
DE102011003857B4 (de) * 2011-02-09 2016-12-15 Siemens Healthcare Gmbh Verfahren zur Anpassung einer Grauwertfensterung, Recheneinheit, Röntgeneinrichtung und Datenträger

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4707471B2 (ja) * 2005-06-10 2011-06-22 株式会社日立メディコ 画像処理プログラム、装置及び方法
JP2008113850A (ja) * 2006-11-06 2008-05-22 Ge Medical Systems Global Technology Co Llc X線ct画像処理方法および装置
US20120257808A1 (en) * 2009-10-13 2012-10-11 Tel HaShomer Medical Research Infastructure and Services Ltd. Method and system for processing an image

Also Published As

Publication number Publication date
US20180350045A1 (en) 2018-12-06
JP6652854B2 (ja) 2020-02-26
JP2017143953A (ja) 2017-08-24
US10810713B2 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
US20190355174A1 (en) Information processing apparatus, information processing system, information processing method, and computer-readable recording medium
JP6073616B2 (ja) X線ct装置、画像処理装置及びプログラム
US7324673B1 (en) Image processing apparatus, image processing method, and image processing program storage medium
US7860331B2 (en) Purpose-driven enhancement filtering of anatomical data
JP5566370B2 (ja) 医用画像処理装置及び方法
EP2442278A1 (en) Medical image processing apparatus, method, and program
US20110235878A1 (en) Medical image processing device and method
JP2007530132A (ja) コンピュータ断層撮影画像を向上させるための方法、コンピュータプログラムプロダクトおよび装置
JP6878101B2 (ja) 画像処理装置及び画像処理装置の作動方法
JP3984202B2 (ja) 医用画像処理装置、医用画像処理方法、および、プログラム
JP2016214857A (ja) 医用画像処理装置及び医用画像処理方法
JP6564075B2 (ja) 医用画像を表示するための伝達関数の選択
JP2010000306A (ja) 医用画像診断装置、画像処理装置、及びプログラム
JP7122918B2 (ja) 画像処理装置および画像処理方法
JP5364334B2 (ja) 医用画像処理装置
JP4745637B2 (ja) 画像表示装置
JP5363962B2 (ja) 診断支援システム、診断支援プログラムおよび診断支援方法
WO2017141660A1 (ja) 画像処理装置及び画像処理方法
WO2019065466A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2016000094A (ja) 医用画像表示装置、表示制御装置および表示制御方法、プログラム
JP7275961B2 (ja) 教師画像生成プログラム、教師画像生成方法、および教師画像生成システム
JP2004329742A (ja) 画像表示装置、画像表示方法、コンピュータプログラムおよびコンピュータ読み取り可能な記録媒体
JP5171170B2 (ja) 医用画像診断支援システム
JP7086630B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230237663A1 (en) Methods and systems for real-time image 3d segmentation regularization

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17752923

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17752923

Country of ref document: EP

Kind code of ref document: A1