WO2012046867A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2012046867A1
WO2012046867A1 PCT/JP2011/073319 JP2011073319W WO2012046867A1 WO 2012046867 A1 WO2012046867 A1 WO 2012046867A1 JP 2011073319 W JP2011073319 W JP 2011073319W WO 2012046867 A1 WO2012046867 A1 WO 2012046867A1
Authority
WO
WIPO (PCT)
Prior art keywords
lung field
region
image
extraction unit
bottom region
Prior art date
Application number
PCT/JP2011/073319
Other languages
English (en)
French (fr)
Inventor
達也 木本
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201180002837.4A priority Critical patent/CN102573641B/zh
Publication of WO2012046867A1 publication Critical patent/WO2012046867A1/ja
Priority to US13/851,396 priority patent/US9530203B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Definitions

  • Embodiments described herein relate generally to an image processing apparatus and an image processing method.
  • a cross-sectional image of an axial plane passing through the upper end of the diaphragm is designated as one of medical images to be referred to by a doctor.
  • a 3D medical image of the subject's chest is taken by a medical image diagnostic device such as an X-ray CT (Computed Tomography) device, an X-ray diagnostic device, or an MRI (Magnetic Resonance Imaging) device. Is done. Then, the doctor visually confirms a cross-sectional image such as a coronal plane or an axial plane in the three-dimensional medical image to determine the position of the upper end of the diaphragm. Then, the doctor performs image diagnosis with reference to an axial cross-sectional image at the upper end position of the diaphragm and a coronal cross-sectional image on which the upper end position of the diaphragm is displayed. Specifically, the doctor makes an image diagnosis of pulmonary emphysema by referring to the size of the pulmonary emphysema region specified in these cross-sectional images.
  • a medical image diagnostic device such as an X-ray CT (Computed Tomography) device, an X-ray diagnostic device,
  • the position of the diaphragm is lower in emphysema, and the position of the diaphragm is higher in interstitial pneumonia. Therefore, the position of the upper end of the diaphragm is important for diagnostic imaging of respiratory diseases. It becomes important in. Note that the position of the diaphragm is also used to determine the movement of the region to be imaged due to breathing or the like when an MRI image is captured.
  • the position of the upper end of the diaphragm determined by visual observation may not be reproducible. That is, the position of the upper end of the diaphragm determined by visual observation is based on the subjective judgment of the observer. For this reason, the position of the upper end of the diaphragm may be different among different observers. In addition, the position of the upper end of the diaphragm may be different every time the same observer performs the determination process.
  • the image processing apparatus includes a lung field region extraction unit, a lung field bottom region extraction unit, and a detection unit.
  • the lung field region extraction unit extracts a lung field region from the three-dimensional medical image based on the pixel value of each pixel constituting the three-dimensional medical image obtained by photographing the chest of the subject.
  • the lung field bottom region extraction unit extracts a lung field bottom region from the lung field region extracted by the lung field region extraction unit.
  • the detection unit detects a vertex position on the head side of the subject in the lung field bottom region extracted by the lung field bottom region extraction unit.
  • FIG. 1 is a diagram for explaining the configuration of the image processing apparatus according to the present embodiment.
  • FIG. 2 is a diagram for explaining an example of data to be processed by the image processing apparatus according to the present embodiment.
  • FIG. 3A is a diagram (1) for explaining the lung field region extraction unit.
  • FIG. 3B is a diagram (2) for explaining the lung field region extraction unit.
  • FIG. 4 is a diagram for explaining the lung field bottom region extraction unit.
  • FIG. 5 is a flowchart for explaining the processing of the detection unit.
  • FIG. 6A is a diagram (1) for explaining the detection unit.
  • FIG. 6B is a diagram (2) for explaining the detection unit.
  • FIG. 6C is a diagram (3) for explaining the detection unit.
  • FIG. 6D is a diagram (4) for explaining the detection unit.
  • FIG. 6A is a diagram (1) for explaining the detection unit.
  • FIG. 6B is a diagram (2) for explaining the detection unit.
  • FIG. 6C is a diagram (3) for explaining the detection unit.
  • FIG. 7A is a diagram (1) illustrating an example of an image displayed under the control of the control unit.
  • FIG. 7B is a diagram (2) illustrating an example of an image displayed under the control of the control unit.
  • FIG. 7C is a diagram (3) illustrating an example of an image displayed under the control of the control unit.
  • FIG. 8 is a flowchart for explaining processing of the image processing apparatus according to the present embodiment.
  • the image processing apparatus is a three-dimensional medical image of a subject's chest imaged by a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an X-ray diagnostic apparatus, or an MRI (Magnetic Resonance Imaging) apparatus.
  • a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an X-ray diagnostic apparatus, or an MRI (Magnetic Resonance Imaging) apparatus.
  • This device detects the position of the upper end of the diaphragm using an image.
  • FIG. 1 is a diagram for explaining a configuration of an image processing apparatus according to the present embodiment.
  • the image processing apparatus 30 is connected to a medical image database 20, and the medical image database 20 is connected to a medical image diagnostic apparatus 10.
  • the medical image diagnostic apparatus 10 is a medical image diagnostic apparatus such as an X-ray CT apparatus, an X-ray diagnostic apparatus, or an MRI apparatus.
  • the medical image database 20 is a PACS (Picture Archiving and Communication System) database that is a system for managing various types of medical image data, an electronic medical record system database that manages an electronic medical record to which medical images are attached, and the like. Specifically, the medical image database 20 stores a three-dimensional medical image obtained by imaging the chest of a subject that has been examined for emphysema.
  • FIG. 2 is a diagram for explaining an example of data to be processed by the image processing apparatus according to the present embodiment.
  • the medical image database 20 is a medical image diagnostic apparatus that displays a three-dimensional X-ray CT image that is an image processing target of the image processing apparatus 30, that is, a chest of a subject that has been examined for emphysema.
  • a three-dimensional X-ray CT image photographed by an X-ray CT apparatus 10 is stored.
  • the image processing target of the image processing device 30 is The present invention can also be applied to a case where the image is a three-dimensional MRI image obtained by photographing the chest of the subject or a three-dimensional X-ray image obtained by photographing the chest of the subject.
  • the image processing apparatus 30 includes an input unit 31, a display unit 32, a lung field region extraction unit 33, a lung field bottom region extraction unit 34, a detection unit 35, and a control. Part 36.
  • the input unit 31 includes a mouse, a keyboard, and the like, and accepts various setting requests from an operator of the image processing apparatus 30.
  • the input unit 31 receives designation of a three-dimensional X-ray CT image that is an image processing target from an operator.
  • the image processing apparatus 30 acquires a three-dimensional X-ray CT image designated by the operator from the medical image database 20 by processing of the control unit 36 described later.
  • the display unit 32 has a monitor such as a liquid crystal display or a CRT (Cathode-Ray Tube) display.
  • the display unit 32 displays a GUI (Graphical User Interface) for receiving a command from the operator via the input unit 31 or displays the result of image processing executed by the image processing device 30.
  • GUI Graphic User Interface
  • the lung field region extraction unit 33 extracts a lung field region from the three-dimensional medical image based on the pixel value of each pixel constituting the three-dimensional medical image to be subjected to image processing. Specifically, the lung field region extraction unit 33 first extracts an air region by specifying a pixel whose pixel value is equal to or less than a predetermined threshold among the pixels constituting the three-dimensional medical image.
  • 3A and 3B are diagrams for explaining a lung field region extraction unit.
  • the lung field region extraction unit 33 specifies a low CT value region having a CT value equal to or lower than “threshold: ⁇ 950 HU”, which is regarded as the CT value of air among the pixels constituting the three-dimensional X-ray CT image.
  • the air region is extracted.
  • the lung field region extraction unit 33 performs binarization processing in which the pixel value of the region below the threshold is “1” and the pixel value of the region greater than the threshold is “0”.
  • a binarized image in which a region is drawn in white is generated.
  • the binarized image of the air region is shown in two dimensions, but in reality, the binarized image of the air region generated by the lung field region extracting unit 33 is a three-dimensional image.
  • the lung field region extraction unit 33 extracts a lung field region by performing a region expansion method using one pixel in the air region as a seed point.
  • the diaphragm is in contact with the lung bottom, but anatomically, because the liver is located on the right side, the position of the upper end of the diaphragm in the right lung field is more than the position of the upper end of the diaphragm in the left lung field. High position. Therefore, in the present embodiment, the lung field region extraction unit 33 extracts the right lung field region by performing a region expansion method using one pixel in the region located on the right side of the subject in the air region as a seed point. To do.
  • the lung field region extraction unit 33 sets one pixel in the right region of the air region as a seed point. Then, the lung field region extraction unit 33 expands the region having the pixel value “1” by sequentially specifying the pixels having the pixel value “1” starting from the seed point. As a result, the lung field region extraction unit 33 extracts the right lung field region as shown in the right diagram of FIG. 3B. In the example illustrated in FIG. 3B, the lung field region extraction unit 33 sets the pixel value of the region extracted as the right lung field region by the region expansion method to “1”, and sets the pixel value of the region other than the right lung field region to “0”.
  • the binarized image in which the right lung field region is drawn in white is generated by performing the binarization process.
  • the binarized image of the right lung field region is shown two-dimensionally.
  • the binarized image of the right lung field region generated by the lung field region extraction unit 33 is It is a three-dimensional image.
  • the seed point may be set by the operator, or may be set by the lung field region extraction unit 33.
  • the control unit 36 described later performs three-dimensional binarization of the air region shown in FIG. 3A.
  • a coronal cross-sectional image is generated from the image, and the generated coronal cross-sectional image is displayed on the display unit 32. Then, the operator refers to the displayed coronal cross-sectional image and sets a pixel to be a seed point via the input unit 31.
  • the lung field region extraction unit 33 detects one pixel that is likely to be the right lung field region in the air region. Specifically, the lung field region extraction unit 33 divides the image data (a three-dimensional binarized image of the air region) into left and right at a size half the image size. For example, the lung field extraction unit 33 refers to the supplementary information attached to the image data such as the body position of the subject at the time of imaging and the coordinate system information of the medical image diagnostic apparatus 10, and converts the image data to the right side of the subject. And split to the left. Then, the lung field extraction unit 33 detects, for example, one pixel located at the center of the right image data as a pixel that has a high possibility of being the right lung field region, and sets the detected pixel as a seed point.
  • the lung field extraction unit 33 detects, for example, one pixel located at the center of the right image data as a pixel that has a high possibility of being the right lung field region, and sets the detected pixel as a seed point.
  • the lung field region extraction unit 33 for example, in the right image data, all the pixel values of the pixels (voxels) in the three-dimensional region of a predetermined size are “1”. Is extracted, one pixel located at the center of the extracted region is detected as a pixel having a high possibility of being the right lung field region, and the detected pixel is set as a seed point.
  • the lung field bottom region extraction unit 34 extracts a lung field bottom region from the lung field region extracted by the lung field region extraction unit 33. Specifically, the lung field bottom region extraction unit 34 determines whether or not each pixel of the three-dimensional medical image is a pixel extracted as a lung field region from the lower limb portion of the subject toward the head. Are determined in a plurality of scanning directions along the line. Then, the lung field bottom region extraction unit 34 extracts a region formed by the pixels that are first determined as the lung field region in each scanning direction as the lung field bottom region. In the present embodiment, the lung field bottom region extraction unit 34 extracts a lung field bottom region from the right lung field region extracted by the lung field region extraction unit 33.
  • FIG. 4 is a diagram for explaining the lung field bottom region extraction unit.
  • the lung field bottom region extraction unit 34 includes a plurality of sections along the body axis direction from the lower limb portion of the subject toward the head. Set the scanning direction. Then, the lung field bottom region extraction unit 34 determines whether the pixel value of the pixel in each scanning direction is “0” or “1”. Then, as shown in the right diagram of FIG. 4, the lung field bottom region extraction unit 34 extracts the region formed by the pixels (voxels) that are first determined to have the pixel value “1” in each scanning direction. Extracted as a field area. In the example illustrated in the right diagram of FIG.
  • the lung field bottom region extraction unit 34 sets the pixel value of the region extracted as the lung field bottom region to “1” and sets the pixel value of the region other than the lung field bottom region to “0”.
  • the binarized image in which the lung field bottom region is depicted in white is generated.
  • the binarized image of the lung field bottom region is shown in a two-dimensional manner, but actually, the binarized image of the lung field bottom region generated by the lung field bottom region extraction unit 34. Is a three-dimensional image.
  • the lung field bottom region extracted by the lung field bottom region extraction unit 34 may be hereinafter referred to as a lung field bottom region mask.
  • the detection unit 35 detects the apex position on the head side of the subject in the lung field bottom region extracted by the lung field bottom region extraction unit 34. Specifically, the detection unit 35 detects the vertex position based on the area occupied by the lung field bottom region in each of the plurality of axial planes of the three-dimensional medical image within the range where the lung field bottom region exists.
  • the detection unit 35 identifies a region that is truly in contact with the diaphragm over a wide range from the regions extracted as the lung field bottom region, and is the highest position (on the most head side) in the identified region. The position of a certain axial surface) is detected as the upper end position of the diaphragm.
  • FIG. 5 is a flowchart for explaining the processing of the detection unit
  • FIGS. 6A, 6B, 6C, and 6D are diagrams for explaining the detection unit.
  • the detection unit 35 determines whether or not a lung field bottom region has been extracted (step S1). Here, when the lung field bottom region is not extracted (No at Step S1), the detection unit 35 enters a standby state.
  • the detection unit 35 sets the slice number “i” to “0” (Step S2).
  • the slice number “i” is a range determined by the number (slice number) of the axial cross-sectional images in which the lung field bottom region mask exists among the plurality of axial cross-sectional images constituting the three-dimensional X-ray CT image. It becomes an integer. For example, when the number of slices is “100”, “i” is an integer from “0” to “99”.
  • the detection unit 35 calculates the area “Si” of the slice number “i” (step S3), and stores the calculated “Si” as the array “A [i]” (step S4). Then, the detection unit 35 determines whether there is an unprocessed slice (step S5). For example, the detection unit 35 determines whether “i” is “99”.
  • the detection unit 35 in the process of step S3, first, as shown in FIG. 6A, the detection unit 35 generates an axial cross-sectional image of slice number “i” passing through the lung field bottom region mask from the binarized image of the lung field bottom region. Generate. In the process of step S3, the detection unit 35 counts the number of pixels having the pixel value “1” corresponding to the lung field bottom region in the axial cross-sectional image of the slice number “i” as illustrated in FIG. 6A. Thus, the area “Si” is calculated. The detecting unit 35 stores “Si” as the array “A [i]” in the process of step S4.
  • the detection unit 35 sorts “A” in descending order based on the area value (number of pixels) (step S7). And the detection part 35 detects a vertex position by searching the minimum element number of A among the upper 15 ranks as a result of sorting (step S8), and complete
  • the number of slices is set according to the number of axial cross-sectional images reconstructed when a three-dimensional X-ray image is captured has been described.
  • an axial cross-sectional image is generated from the binarized image of the right lung field region at a finer slice interval than when a three-dimensional X-ray image is captured, and the vertex position of the lung field bottom region mask described above is detected. It may be a case where processing is executed.
  • control unit 36 performs overall control of the image processing apparatus 30. That is, the control unit 36 transmits a transfer request for image data designated by the operator to the medical image database 20, or transfers the image data transferred from the medical image database 20 to the lung field region extraction unit 33. In addition, the control unit 36 performs control so that the processing result of the detection unit 35 is displayed on the display unit 32.
  • control unit 36 has an axial cross-sectional image obtained by cutting a three-dimensional medical image with an axial plane passing through the vertex position detected by the detection unit 35, and the position of the axial cross-sectional image is determined as another image of the three-dimensional medical image.
  • 7A, 7B, and 7C are diagrams for explaining an example of an image displayed under the control of the control unit.
  • control unit 36 displays an axial cross-sectional image obtained by cutting the three-dimensional X-ray CT image along the axial plane corresponding to the slice number searched by the detection unit 35.
  • control unit 36 generates a coronal sectional image from the three-dimensional X-ray CT image. Then, for example, as shown in FIG. 7B, the control unit 36 superimposes a dotted line indicating the position of the axial surface corresponding to the position of the upper part of the diaphragm on the coronal cross-sectional image and displays the image on the display unit 32. Control. In the example shown in FIG. 7B, it is shown that the upper part of the diaphragm is located at the apex of the right lung field bottom region depicted in the coronal sectional image.
  • control unit 36 generates a sagittal cross-sectional image from the three-dimensional X-ray CT image, superimposes a dotted line indicating the position of the axial surface corresponding to the position of the upper portion of the diaphragm on the sagittal cross-sectional image, and then displays the display unit 32. It is also possible to control so as to display on the screen.
  • control unit 36 may extract an emphysema region from the axial cross-sectional image and further display the extracted emphysema region. Further, the emphysema area extraction and display process may be executed on the above-described coronal slice image or sagittal slice image.
  • the image on which the position of the axial cross-sectional image is superimposed is not limited to the coronal cross-sectional image or sagittal cross-sectional image of the three-dimensional medical image as described above.
  • a volume rendering image of a three-dimensional medical image an MPR (Multi Planar Reconstruction) image obtained by cutting a three-dimensional medical image with an arbitrary cross section other than a sagittal plane or a coronal plane, It may be another image of a 3D medical image such as a MIP (Maximum Intensity Projection) image of a 3D medical image.
  • MPR Multi Planar Reconstruction
  • MIP Maximum Intensity Projection
  • the control unit 36 may display an axial surface on which the upper lung field, the middle lung field, and the lower lung field are located in addition to the axial surface on which the upper diaphragm is located.
  • the control unit 36 displays a dotted line indicating the axial plane where the upper lung field, the middle lung field, and the lower lung field are located, for example, a coronal sectional image or a sagittal section.
  • the image may be superimposed on the image.
  • the control unit 36 has an axial cross-sectional image obtained by cutting a three-dimensional medical image with an axial surface at a predetermined distance from the vertex position detected by the detection unit 35, and the position of the axial cross-sectional image is determined as a three-dimensional medical image. Control is performed so that at least one of the superimposed images superimposed on the other images is displayed on the display unit 32.
  • control unit 36 displays an axial cross-sectional image obtained by cutting a three-dimensional medical image with an axial surface at a position 2 cm away from the vertex position toward the head.
  • control unit 36 may display, for example, a dotted line indicating the position of the axial surface at a position 2 cm away from the apex position on the head side other than the axial cross-sectional image of the three-dimensional medical image (for example, a coronal cross-sectional image or A superimposed image superimposed on a sagittal cross-sectional image, an MPR image, a volume rendering image, a MIP image, or the like.
  • the control unit 36 may display various images using both the vertex position and a position away from the vertex position by a predetermined distance.
  • FIG. 8 is a flowchart for explaining processing of the image processing apparatus according to the present embodiment.
  • the image processing apparatus 30 determines whether or not designation of a three-dimensional medical image that is an image processing target has been received (step S ⁇ b> 101).
  • the image processing apparatus 30 enters a standby state.
  • the image processing apparatus 30 reads the designated three-dimensional medical image (Step S102).
  • the image processing apparatus 30 reads a three-dimensional X-ray CT image in which the chest of the subject is imaged.
  • the lung field region extraction unit 33 extracts a lung field region from the three-dimensional medical image based on the pixel value of each pixel constituting the three-dimensional medical image (see step S103, FIG. 3).
  • the lung field bottom region extraction unit 34 extracts a lung field bottom region from the lung field region extracted by the lung field region extraction unit 33 (see step S104, FIG. 4), and the detection unit 35 The vertex position on the head side of the subject in the lung field bottom region extracted by the bottom region extraction unit 34 is detected (see step S105, FIG. 5 and FIG. 6).
  • control part 36 is controlled to display the detection result of the detection part 35 on the display part 32 (step S106), and complete
  • control unit 36 superimposes an axial cross-sectional image obtained by cutting a three-dimensional medical image with an axial surface at a predetermined distance from the vertex position, and superimposing the position of the axial cross-sectional image on another image of the three-dimensional medical image. Control is performed so that at least one of the images is displayed on the display unit 32.
  • the lung field region extraction unit 33 calculates the lung field from the three-dimensional medical image based on the pixel value of each pixel constituting the three-dimensional medical image obtained by photographing the chest of the subject. Extract regions.
  • the lung field bottom region extraction unit 34 extracts a lung field bottom region from the lung field region extracted by the lung field region extraction unit 33.
  • the detection unit 35 detects the apex position on the head side of the subject in the lung field bottom region extracted by the lung field bottom region extraction unit 34.
  • the control unit 36 includes an axial cross-section image obtained by cutting a three-dimensional medical image with an axial plane passing through the vertex position detected by the detection section 35 or an axial plane located at a predetermined distance from the vertex position, and the axial cross-section image.
  • the display unit 32 is controlled to display at least one of the superimposed images obtained by superimposing the positions of the three-dimensional medical images on other images.
  • the position of the upper part of the diaphragm can be automatically determined based on an objective judgment criterion that is the position that is the apex of the lung field bottom region. Therefore, in this embodiment, it is possible to easily and quickly determine the position of the upper end of the diaphragm with reproducibility.
  • an axial sectional image of the upper part of the diaphragm or an axial sectional image at a position away from the upper part of the diaphragm is displayed,
  • An image in which the position of the upper part of the diaphragm or the position away from the upper part of the diaphragm by a predetermined distance is superimposed on various images of the three-dimensional medical image can be displayed. Therefore, in this embodiment, it is possible to efficiently support image diagnosis related to emphysema.
  • the lung field region extraction unit 33 extracts an air region by specifying a pixel having a pixel value equal to or less than a predetermined threshold among the pixels constituting the three-dimensional medical image.
  • a lung region is extracted by performing region expansion using one pixel in the air region as a seed point.
  • the lung field bottom region extraction unit 34 determines whether each pixel of the three-dimensional medical image is a pixel extracted as a lung field region along the body axis direction from the lower limb of the subject toward the head.
  • a determination is made in a plurality of scanning directions, and an area formed by pixels that are first determined as a lung field area in each scanning direction is extracted as a lung field bottom area. That is, in the present embodiment, the lung field region extraction process and the lung field bottom region extraction process can be easily executed based on the characteristics of the medical image to be subjected to image processing.
  • the detection unit 35 detects the vertex position based on the area occupied by the lung field bottom region in each of the plurality of axial surfaces of the three-dimensional medical image within the range where the lung field bottom region exists.
  • the region extracted as the lung field region includes a region that is not the lung field, such as an air region of the trachea or bronchus.
  • the lung field bottom region mask includes a portion that is not the lung field bottom region.
  • the lung field region extraction unit 33 extracts a right lung field region by performing a region expansion method using one pixel in a region located on the right side of the subject in the air region as a seed point. To do. Then, the lung field bottom region extraction unit 34 extracts the lung field bottom region from the right lung field region extracted by the lung field region extraction unit 33.
  • the present embodiment only the right lung field region is processed based on the anatomical knowledge that the position of the upper end of the diaphragm in the right lung field is likely to be the position of the upper end of the entire diaphragm.
  • the load required for image processing can be reduced, and the position of the upper end of the diaphragm can be determined more quickly.
  • the case where the lung field bottom region is extracted from only the right lung field region and the vertex position of the lung field bottom region is detected has been described.
  • the extraction processing of the lung field bottom region and the detection processing of the vertex position may be performed for the left lung field region.
  • the detection unit 35 compares the vertex positions of the left and right lung field bottom regions, and detects the position of the vertex at a higher position as the upper end of the diaphragm.
  • the image processing method described in the above-described embodiment may be executed in a medical image diagnostic apparatus that captures a three-dimensional medical image that is an image processing target. That is, the above-described embodiment may be a case where the image processing apparatus 30 is incorporated in an X-ray CT apparatus, an X-ray diagnostic apparatus, an MRI apparatus, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

 実施形態の画像処理装置は、肺野領域抽出部(33)、肺野底部領域抽出部(34)及び検出部(35)を備える。肺野領域抽出部(33)は、被検体の胸部を撮影した3次元医用画像を構成する各画素の画素値に基づいて、当該3次元医用画像から肺野領域を抽出する。肺野底部領域抽出部(34)は、肺野領域から、肺野底部領域を抽出する。検出部(35)は、肺野底部領域の被検体の頭部側の頂点位置を検出する。

Description

画像処理装置及び画像処理方法
 本発明の実施形態は、画像処理装置及び画像処理方法に関する。
 従来、肺気腫の画像診断を行なう際のガイドラインでは、横隔膜上端を通るアキシャル(axial)面の断面画像が、医師が参照すべき医用画像の一つとして指定されている。
 肺気腫の画像診断を行なう際、まず、X線CT(Computed Tomography)装置や、X線診断装置、MRI(Magnetic Resonance Imaging)装置などの医用画像診断装置により、被検体胸部の3次元医用画像が撮影される。そして、医師は、3次元医用画像におけるコロナル(coronal)面やアキシャル(axial)面などの断面画像を目視により確認して、横隔膜上端の位置を決定する。そして、医師は、横隔膜上端位置のアキシャル断面画像や、横隔膜上端位置が表示されたコロナル断面画像を参照して画像診断を行なう。具体的には、医師は、これら断面画像において特定された肺気腫領域の大きさを参照して、肺気腫の画像診断を行なう。
 また、肺気腫では、横隔膜の位置が低くなり、間質性肺炎では、横隔膜の位置が高くなることが知られていることからも、横隔膜上端の位置は、呼吸器系疾患の画像診断を行なううえで重要となる。なお、横隔膜の位置は、MRI画像の撮影時において、呼吸などによる撮影対象部位の動きを判断するためにも用いられる。
特開2007-185250号公報
 しかしながら、横隔膜上端の位置決定を目視により行なうことは、観察者が複数の断面画像を観察する必要があるため、手間がかかり、その結果、画像診断の効率が悪くなってしまう。また、目視により決定される横隔膜上端の位置には、再現性がない場合がある。すなわち、目視により決定される横隔膜上端の位置は、観察者の主観的な判断によるものである。このため、横隔膜上端の位置は、異なる観察者の間で異なる場合がある。また、横隔膜上端の位置は、同一の観察者が決定処理を行なうごとに異なる場合がある。
 実施形態の画像処理装置は、肺野領域抽出部と、肺野底部領域抽出部と、検出部とを備える。肺野領域抽出部は、被検体の胸部を撮影した3次元医用画像を構成する各画素の画素値に基づいて、当該3次元医用画像から肺野領域を抽出する。肺野底部領域抽出部は、前記肺野領域抽出部により抽出された前記肺野領域から、肺野底部領域を抽出する。検出部は、前記肺野底部領域抽出部により抽出された前記肺野底部領域の前記被検体の頭部側の頂点位置を検出する。
図1は、本実施形態に係る画像処理装置の構成を説明するための図である。 図2は、本実施形態に係る画像処理装置による画像処理対象となるデータの一例を説明するための図である。 図3Aは、肺野領域抽出部を説明するための図(1)である。 図3Bは、肺野領域抽出部を説明するための図(2)である。 図4は、肺野底部領域抽出部を説明するための図である。 図5は、検出部の処理を説明するためのフローチャートである。 図6Aは、検出部を説明するための図(1)である。 図6Bは、検出部を説明するための図(2)である。 図6Cは、検出部を説明するための図(3)である。 図6Dは、検出部を説明するための図(4)である。 図7Aは、制御部の制御により表示される画像の一例を説明するための図(1)である。 図7Bは、制御部の制御により表示される画像の一例を説明するための図(2)である。 図7Cは、制御部の制御により表示される画像の一例を説明するための図(3)である。 図8は、本実施形態に係る画像処理装置の処理を説明するためのフローチャートである。
 以下、添付図面を参照して、画像処理装置の実施形態を詳細に説明する。なお、本実施形態に係る画像処理装置は、X線CT(Computed Tomography)装置やX線診断装置、MRI(Magnetic Resonance Imaging)装置などの医用画像診断装置により撮影された被検体胸部の3次元医用画像を用いて、横隔膜上端の位置を検出する装置である。
(実施形態)
 まず、本実施形態に係る画像処理装置の構成について、図1を用いて説明する。図1は、本実施形態に係る画像処理装置の構成を説明するための図である。
 図1に示すように、本実施形態に係る画像処理装置30は、医用画像データベース20に接続され、また、医用画像データベース20は、医用画像診断装置10と接続される。
 医用画像診断装置10は、X線CT装置や、X線診断装置、MRI装置などの医用画像診断装置である。医用画像データベース20は、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベースなどである。具体的には、医用画像データベース20は、肺気腫の検査が行なわれた被検体の胸部を撮影した3次元医用画像を記憶している。図2は、本実施形態に係る画像処理装置による画像処理対象となるデータの一例を説明するための図である。
 例えば、医用画像データベース20は、図2に示すように、画像処理装置30の画像処理対象である3次元X線CT画像、すなわち、肺気腫の検査が行なわれた被検体の胸部を医用画像診断装置10であるX線CT装置により撮影した3次元X線CT画像などを記憶している。
 なお、以下では、被検体の胸部を撮影した3次元X線CT画像が画像処理装置30の画像処理対象である場合について説明するが、本実施形態は、画像処理装置30の画像処理対象が、被検体の胸部を撮影した3次元MRI画像や、被検体の胸部を撮影した3次元X線画像である場合であっても、適用可能である。
 図1に戻って、本実施形態に係る画像処理装置30は、入力部31と、表示部32と、肺野領域抽出部33と、肺野底部領域抽出部34と、検出部35と、制御部36とを有する。
 入力部31は、マウス、キーボードなどを有し、画像処理装置30の操作者からの各種設定要求を受け付ける。例えば、入力部31は、画像処理対象となる3次元X線CT画像の指定を操作者から受け付ける。これにより、画像処理装置30は、後述する制御部36の処理により、操作者が指定した3次元X線CT画像を医用画像データベース20から取得する。
 表示部32は、液晶ディスプレイやCRT(Cathode-Ray Tube)ディスプレイなどのモニタを有する。表示部32は、入力部31を介して操作者からコマンドを受け付けるためのGUI(Graphical User Interface)を表示したり、画像処理装置30により実行された画像処理の結果を表示したりする。
 肺野領域抽出部33は、画像処理対象となる3次元医用画像を構成する各画素の画素値に基づいて、当該3次元医用画像から肺野領域を抽出する。具体的には、まず、肺野領域抽出部33は、3次元医用画像を構成する画素の中で画素値が所定の閾値以下の画素を特定することで、空気領域を抽出する。図3A及び図3Bは、肺野領域抽出部を説明するための図である。
 例えば、肺野領域抽出部33は、3次元X線CT画像を構成する画素の中でCT値が空気のCT値と見なされる「閾値:-950HU」以下の低CT値領域を特定することで、図3Aに示すように、空気領域を抽出する。図3Aに示す一例では、肺野領域抽出部33は、閾値以下の領域の画素値を「1」、閾値より大きい領域の画素値を「0」とする2値化処理を行なうことで、空気領域が白で描出された2値化画像を生成する。なお、図3Aでは、空気領域の2値化画像を2次元で示しているが、実際には、肺野領域抽出部33が生成する空気領域の2値化画像は、3次元画像である。
 そして、肺野領域抽出部33は、空気領域内の一つの画素をシード点とした領域拡張法を行なうことで肺野領域を抽出する。ここで、横隔膜は、肺野底部と接しているが、解剖学的に、肝臓が右側に位置するために、右肺野にある横隔膜上端の位置は、左肺野にある横隔膜上端の位置より高い位置にある。そこで、本実施形態では、肺野領域抽出部33は、空気領域にて被検体の右側に位置する領域内の一つの画素をシード点とした領域拡張法を行なうことで右肺野領域を抽出する。
 例えば、肺野領域抽出部33は、図3Bの左図に示すように、空気領域の右側の領域内にある一画素をシード点とする。そして、肺野領域抽出部33は、シード点を起点として画素値が「1」の画素を順次特定することで、画素値が「1」の領域を拡張する。これにより、肺野領域抽出部33は、図3Bの右図に示すように、右肺野領域を抽出する。図3Bに示す一例では、肺野領域抽出部33は、領域拡張法により右肺野領域として抽出された領域の画素値を「1」、右肺野領域以外の領域の画素値を「0」とする2値化処理を行なうことで、右肺野領域が白で描出された2値化画像を生成する。なお、図3Bの右図では、右肺野領域の2値化画像を2次元で示しているが、実際には、肺野領域抽出部33が生成する右肺野領域の2値化画像は、3次元画像である。
 ここで、シード点は、操作者により設定される場合であっても良いし、肺野領域抽出部33により設定される場合であっても良い。操作者が手動によりシード点を設定する場合、例えば、操作者が入力部31を介して入力した指示に基づいて、後述する制御部36は、図3Aで示した空気領域の3次元2値化画像からコロナル断面画像を生成し、生成したコロナル断面画像を表示部32にて表示させる。そして、操作者は、表示されたコロナル断面画像を参照して、シード点となる画素を、入力部31を介して設定する。
 また、シード点が自動的に設定される場合、肺野領域抽出部33は、空気領域において右肺野領域である可能性の高い一画素を検出する。具体的には、肺野領域抽出部33は、画像データ(空気領域の3次元2値化画像)を画像サイズの半分のサイズで左右に分割する。例えば、肺野領域抽出部33は、撮影時の被検体の体位及び医用画像診断装置10の座標系の情報など画像データに付与されている付帯情報を参照して、画像データを被検体の右側及び左側に分割する。そして、肺野領域抽出部33は、例えば、右側の画像データの中心に位置する一画素を、右肺野領域である可能性の高い画素として検出し、検出した画素をシード点として設定する。
 あるいは、シード点が自動的に設定される場合、肺野領域抽出部33は、例えば、右側の画像データにおいて、所定サイズの3次元領域内にある画素(ボクセル)の画素値がすべて「1」である領域を抽出し、抽出した領域の中心に位置する一画素を、右肺野領域である可能性の高い画素として検出し、検出した画素をシード点として設定する。
 図1に戻って、肺野底部領域抽出部34は、肺野領域抽出部33により抽出された肺野領域から、肺野底部領域を抽出する。具体的には、肺野底部領域抽出部34は、3次元医用画像の各画素が肺野領域として抽出された画素であるか否かを、被検体の下肢部から頭部に向かう体軸方向に沿った複数の走査方向にて判定する。そして、肺野底部領域抽出部34は、各走査方向にて最初に肺野領域として判定した画素により形成される領域を肺野底部領域として抽出する。なお、本実施形態では、肺野底部領域抽出部34は、肺野領域抽出部33により抽出された右肺野領域から肺野底部領域を抽出する。図4は、肺野底部領域抽出部を説明するための図である。
 すなわち、肺野底部領域抽出部34は、右肺野領域の2値化画像において、図4の左図に示すように、被検体の下肢部から頭部に向かう体軸方向に沿った複数の走査方向を設定する。そして、肺野底部領域抽出部34は、各走査方向にある画素の画素値が「0」であるか「1」であるかを判定する。そして、肺野底部領域抽出部34は、図4の右図に示すように、各走査方向にて最初に画素値が「1」であると判定した画素(ボクセル)により形成される領域を肺野底部領域として抽出する。図4の右図に示す一例では、肺野底部領域抽出部34は、肺野底部領域として抽出された領域の画素値を「1」、肺野底部領域以外の領域の画素値を「0」とする2値化処理を行なうことで、肺野底部領域が白で描出された2値化画像を生成する。なお、図4の右図では、肺野底部領域の2値化画像を2次元で示しているが、実際には、肺野底部領域抽出部34が生成する肺野底部領域の2値化画像は、3次元画像である。ここで、肺野底部領域抽出部34により抽出された肺野底部領域を、以下、肺野底部領域マスクと記載する場合がある。
 図1に戻って、検出部35は、肺野底部領域抽出部34により抽出された肺野底部領域の被検体の頭部側の頂点位置を検出する。具体的には、検出部35は、肺野底部領域が存在する範囲内における3次元医用画像の複数のアキシャル面それぞれにて肺野底部領域が占める面積に基づいて、頂点位置を検出する。
 換言すると、検出部35は、肺野底部領域として抽出された領域の中で、真に横隔膜と広範囲で接している領域を特定し、特定した領域の中で最も高い位置(最も頭部側にあるアキシャル面の位置)を横隔膜の上端位置として検出する。以下、検出部35が行なう処理の具体例について、図5、図6A、図6B、図6C及び図6Dを用いて説明する。図5は、検出部の処理を説明するためのフローチャートであり、図6A、図6B、図6C及び図6Dは、検出部を説明するための図である。
 まず、図5に示すように、検出部35は、肺野底部領域が抽出されたか否かを判定する(ステップS1)。ここで、肺野底部領域が抽出されていない場合(ステップS1否定)、検出部35は、待機状態となる。
 一方、肺野底部領域が抽出された場合(ステップS1肯定)、検出部35は、スライス番号「i」を「0」と設定する(ステップS2)。ここで、スライス番号「i」は、3次元X線CT画像を構成する複数のアキシャル断面画像の中で、肺野底部領域マスクが存在するアキシャル断面画像の数(スライス数)により決定される範囲の整数となる。例えば、スライス数が「100」である場合、「i」は、「0」から「99」の整数となる。
 そして、検出部35は、スライス番号「i」の面積「Si」を算出し(ステップS3)、算出した「Si」を配列「A[i]」として保存する(ステップS4)。そして、検出部35は、未処理のスライスがあるか否かを判定する(ステップS5)。例えば、検出部35は、「i」が「99」であるか否かを判定する。
 未処理のスライスがある場合、すなわち、「i」が「99」より小さい整数である場合(ステップS5肯定)、検出部35は、「i=i+1」として「i」をインクリメントし(ステップS6)、ステップS5における面積算出処理を行なう。
 すなわち、ステップS3の処理において、まず、検出部35は、図6Aに示すように、肺野底部領域の2値化画像から、肺野底部領域マスクを通るスライス番号「i」のアキシャル断面画像を生成する。そして、ステップS3の処理において、検出部35は、図6Aに示すように、スライス番号「i」のアキシャル断面画像にて、肺野底部領域に対応する画素値「1」の画素数をカウントすることで、面積「Si」を算出する。そして、検出部35は、ステップS4の処理において、「Si」を配列「A[i]」として保存する。
 これにより、検出部35は、図6Bに示すように、スライス番号(要素番号)が「0」から「99」の100個の配列「A」を保存する。すなわち、検出部35は、図6Bに示すように、スライス番号「0」の面積を示す配列「A[0]=120」や、スライス番号「1」の面積を示す配列「A[1]=250」、スライス番号「50」の面積を示す配列「A[50]=185」などを保存する。
 図5のフローチャートに戻ると、未処理のスライスがない場合(ステップS5否定)、検出部35は、「A」を面積値(画素数)に基づいて降順にソートする(ステップS7)。そして、検出部35は、ソートした結果、上位15位のうち、Aの最小要素番号を探索することで、頂点位置を検出し(ステップS8)、検出処理を終了する。
 すなわち、検出部35は、ステップS7の処理において、図6Cに示すように、「A」を面積値(画素数)に基づいて降順にソートする。そして、検出部35は、ステップS7の処理において、図6Cに示すように、上位15位の配列を特定する。そして、検出部35は、ステップS8の処理において、図6Dに示すように、上位15位のうち、要素番号(スライス番号)が最小である「i=1」を横隔膜上部が位置するスライス面(アキシャル面)であると検出する。なお、上記では、3次元X線画像の撮影時に再構成されたアキシャル断面画像の枚数により、スライス数が設定される場合について説明した。しかし、本実施形態は、3次元X線画像の撮影時より細かいスライス間隔で右肺野領域の2値化画像からアキシャル断面画像を生成して、上記した肺野底部領域マスクの頂点位置の検出処理が実行される場合であっても良い。
 図1に戻って、制御部36は、画像処理装置30の全体制御を行なう。すなわち、制御部36は、操作者が指定した画像データの転送要求を医用画像データベース20に送信したり、医用画像データベース20から転送された画像データを肺野領域抽出部33に転送したりする。また、制御部36は、検出部35の処理結果を表示部32に表示するように制御する。
 一例を挙げると、制御部36は、検出部35により検出された頂点位置を通るアキシャル面により3次元医用画像を切断したアキシャル断面画像、当該アキシャル断面画像の位置を3次元医用画像の他の画像に重畳した重畳画像の少なくとも一つを表示部32に表示するように制御する。図7A、図7B及び図7Cは、制御部の制御により表示される画像の一例を説明するための図である。
 例えば、制御部36は、図7Aに示すように、検出部35により探索されたスライス番号に対応するアキシャル面により3次元X線CT画像を切断したアキシャル断面画像を表示させる。
 また、制御部36は、3次元X線CT画像からコロナル断面画像を生成する。そして、制御部36は、例えば、図7Bに示すように、コロナル断面画像に、横隔膜上部の位置に対応するアキシャル面の位置を示す点線を重畳させたうえで、表示部32に表示するように制御する。図7Bに示す一例では、コロナル断面画像に描出された右肺野底部領域の頂点に横隔膜上部が位置していることが示されている。あるいは、制御部36は、3次元X線CT画像からサジタル断面画像を生成し、サジタル断面画像に、横隔膜上部の位置に対応するアキシャル面の位置を示す点線を重畳させたうえで、表示部32に表示するように制御しても良い。
 また、制御部36は、図7Cに示すように、アキシャル断面画像において、肺気腫領域を抽出し、抽出した肺気腫領域をさらに表示させてもよい。また、肺気腫領域の抽出及び表示処理は、上述したコロナル断面画像やサジタル断面画像において実行されてもよい。なお、アキシャル断面画像の位置が重畳される画像は、上述したように、3次元医用画像のコロナル断面画像やサジタル断面画像に限定されるものではない。アキシャル断面画像の位置が重畳される画像は、例えば、3次元医用画像のボリュームレンダリング画像や、3次元医用画像をサジタル面やコロナル面以外の任意の断面で切断したMPR(Multi Planar Reconstruction)画像、3次元医用画像のMIP(Maximum Intensity Projection)画像等、3次元医用画像の他の画像であっても良い。
 ここで、肺気腫の画像診断を行なう際のガイドラインでは、医師が参照すべき断面として、横隔膜上端の位置を通るアキシャル面の他に、大動脈弓上縁付近の上肺野や、気管分岐点付近の中肺野、右横隔膜上の1~3cm付近の下肺野のアキシャル面も指定されている。そこで、制御部36は、横隔膜上部が位置するアキシャル面の他に、上肺野や中肺野、下肺野が位置するアキシャル面を表示させても良い。また、制御部36は、横隔膜上部が位置するアキシャル面を示す点線の他に、上肺野や中肺野、下肺野が位置するアキシャル面を示す点線を、例えば、コロナル断面画像やサジタル断面画像に重畳表示させても良い。かかる場合、制御部36は、検出部35により検出された頂点位置より所定の距離離れた位置のアキシャル面により3次元医用画像を切断したアキシャル断面画像、当該アキシャル断面画像の位置を3次元医用画像の他の画像に重畳した重畳画像の少なくとも一つを表示部32に表示するように制御する。例えば、制御部36は、頂点位置より頭部側に2cm離れた位置のアキシャル面により3次元医用画像を切断したアキシャル断面画像を表示させる。或いは、制御部36は、例えば、頂点位置より頭部側に2cm離れた位置のアキシャル面の位置を示す点線を、3次元医用画像のアキシャル断面画像以外の他の画像(例えば、コロナル断面画像や、サジタル断面画像、MPR画像、ボリュームレンダリング画像、MIP画像等)に重畳させた重畳画像を表示させる。なお、頂点位置からの距離は、「頂点位置から頭部側に2cm」と初期設定されている場合であっても、例えば、重畳画像の表示の際に、操作者により、例えば、「頂点位置から頭部側に1.5cm」と手動設定される場合であっても良い。また、制御部36は、頂点位置及び頂点位置から所定の距離離れた位置の双方を用いて、各種画像の表示を行なっても良い。
 次に、図8を用いて、本実施形態に係る画像処理装置30の処理について説明する。図8は、本実施形態に係る画像処理装置の処理を説明するためのフローチャートである。
 図8に示すように、本実施形態に係る画像処理装置30は、画像処理対象となる3次元医用画像の指定を受け付けたか否かを判定する(ステップS101)。ここで、画像処理対象となる3次元医用画像の指定を受け付けていない場合(ステップS101否定)、画像処理装置30は、待機状態となる。
 一方、画像処理対象となる3次元医用画像の指定を受け付けた場合(ステップS101肯定)、画像処理装置30は、指定された3次元医用画像を読込む(ステップS102)。例えば、画像処理装置30は、被検体の胸部が撮影された3次元X線CT画像を読込む。
 そして、肺野領域抽出部33は、3次元医用画像を構成する各画素の画素値に基づいて、当該3次元医用画像から肺野領域を抽出する(ステップS103、図3を参照)。
 その後、肺野底部領域抽出部34は、肺野領域抽出部33により抽出された肺野領域から、肺野底部領域を抽出し(ステップS104、図4を参照)、検出部35は、肺野底部領域抽出部34により抽出された肺野底部領域の被検体の頭部側の頂点位置を検出する(ステップS105、図5及び図6を参照)。
 そして、制御部36は、検出部35の検出結果を表示部32に表示するように制御し(ステップS106)、処理を終了する。すなわち、制御部36は、検出部35により検出された頂点位置を通るアキシャル面により3次元医用画像を切断したアキシャル断面画像、当該アキシャル断面画像の位置を3次元医用画像の他の画像に重畳した重畳画像の少なくとも一つを表示部32に表示するように制御する。或いは、制御部36は、頂点位置より所定の距離離れた位置のアキシャル面により3次元医用画像を切断したアキシャル断面画像、当該アキシャル断面画像の位置を3次元医用画像の他の画像に重畳した重畳画像の少なくとも一つを表示部32に表示するように制御する。
 上述してきたように、本実施形態では、肺野領域抽出部33は、被検体の胸部を撮影した3次元医用画像を構成する各画素の画素値に基づいて、当該3次元医用画像から肺野領域を抽出する。肺野底部領域抽出部34は、肺野領域抽出部33により抽出された肺野領域から、肺野底部領域を抽出する。検出部35は、肺野底部領域抽出部34により抽出された肺野底部領域の被検体の頭部側の頂点位置を検出する。制御部36は、検出部35により検出された頂点位置を通るアキシャル面、又は、当該頂点位置より所定の距離離れた位置のアキシャル面により3次元医用画像を切断したアキシャル断面画像、当該アキシャル断面画像の位置を3次元医用画像の他の画像に重畳した重畳画像の少なくとも一つを表示部32に表示するように制御する。
 すなわち、本実施形態では、横隔膜上部の位置を、肺野底部領域の頂点となる位置という客観的判断基準により自動的に決定することができる。従って、本実施形態では、再現性のある横隔膜上端の位置決定を簡易かつ迅速に行なうことが可能となる。また、本実施形態では、肺気腫の画像診断を行なう際のガイドラインに沿って、「横隔膜上部のアキシャル断面画像、又は、横隔膜上部から所定の距離離れた位置のアキシャル断面画像」を表示したり、「横隔膜上部の位置、又は、横隔膜上部から所定の距離離れた位置が、3次元医用画像の各種画像に重畳された画像」を表示したりすることができる。従って、本実施形態では、肺気腫に関する画像診断の支援を効率良く行なうことができる。
 また、本実施形態では、肺野領域抽出部33は、3次元医用画像を構成する画素の中で画素値が所定の閾値以下の画素を特定することで、空気領域を抽出し、当該抽出した空気領域内の一つの画素をシード点とした領域拡張法を行なうことで肺野領域を抽出する。そして、肺野底部領域抽出部34は、3次元医用画像の各画素が肺野領域として抽出された画素であるか否かを、被検体の下肢部から頭部に向かう体軸方向に沿った複数の走査方向にて判定し、各走査方向にて最初に肺野領域として判定した画素により形成される領域を肺野底部領域として抽出する。すなわち、本実施形態では、肺野領域の抽出処理及び肺野底部領域の抽出処理を、画像処理対象となる医用画像の特性に基づいて、簡易に実行することができる。
 そして、本実施形態では、検出部35は、肺野底部領域が存在する範囲内における3次元医用画像の複数のアキシャル面それぞれにて肺野底部領域が占める面積に基づいて、頂点位置を検出する。ここで、肺野領域として抽出される領域には、気管や気管支の空気領域など、肺野でない領域が含まれてしまう場合も想定される。かかる場合、肺野底部領域マスクには、肺野底部でない部分が含まれることとなり、その結果、単純に肺野底部領域マスクの頂点を決定しても、決定した頂点位置は、横隔膜上部の位置とならない場合がある。
 そこで、本実施形態では、肺野底部でない部分が横隔膜上部の位置と検出されることを回避するため、肺野底部領域マスク内にある複数のアキシャル面それぞれにて肺野底部領域が占める画素数をカウントし、カウント数(面積)が大きいと判定されたアキシャル面の中で最も高い位置にあるアキシャル面の位置を頂点位置(横隔膜上部の位置)として検出する。すなわち、本実施形態では、周囲が肺野底部領域により占められていることから、真に横隔膜と接していると判定される肺野底部領域マスクの範囲を特定したうえで、頂点位置を検出することができる。従って、本実施形態では、横隔膜上部の位置の検出精度を向上させることができる。
 また、本実施形態では、肺野領域抽出部33は、空気領域にて被検体の右側に位置する領域内の一つの画素をシード点とした領域拡張法を行なうことで右肺野領域を抽出する。そして、肺野底部領域抽出部34は、肺野領域抽出部33により抽出された右肺野領域から肺野底部領域を抽出する。
 すなわち、本実施形態では、右肺野にある横隔膜上端の位置が横隔膜全体における上端の位置である可能性が高いという解剖学的知見に基づいて、右肺野領域のみを処理対象とする。その結果、本実施形態では、画像処理に要する負荷を軽減することができ、横隔膜上端の位置決定をより迅速に行なうことが可能となる。
 なお、上記した実施形態は、右肺野領域のみから肺野底部領域を抽出して、肺野底部領域の頂点位置を検出する場合について説明した。しかし、本実施形態は、左肺野領域についても、肺野底部領域の抽出処理及び頂点位置の検出処理を行なっても良い。かかる場合、検出部35は、左右の肺野底部領域の頂点位置を比較して、より高い位置にある頂点の位置を横隔膜の上端として検出する。
 また、上記した実施形態で説明した画像処理方法は、画像処理対象となる3次元医用画像を撮影した医用画像診断装置内で実行される場合であってもよい。すなわち、上記した本実施形態は、X線CT装置、X線診断装置、又は、MRI装置などに画像処理装置30が組み込まれる場合であってもよい。
 以上、説明したとおり、本実施形態によれば、再現性のある横隔膜上端の位置決定を簡易かつ迅速に行なうことが可能となる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (5)

  1.  被検体の胸部を撮影した3次元医用画像を構成する各画素の画素値に基づいて、当該3次元医用画像から肺野領域を抽出する肺野領域抽出部と、
     前記肺野領域抽出部により抽出された前記肺野領域から、肺野底部領域を抽出する肺野底部領域抽出部と、
     前記肺野底部領域抽出部により抽出された前記肺野底部領域の前記被検体の頭部側の頂点位置を検出する検出部と、
     を備える、画像処理装置。
  2.  前記検出部により検出された前記頂点位置を通るアキシャル面、又は、当該頂点位置より所定の距離離れた位置のアキシャル面により前記3次元医用画像を切断したアキシャル断面画像、当該アキシャル断面画像の位置を前記3次元医用画像の他の画像に重畳した重畳画像の少なくとも一つを所定の表示部に表示するように制御する制御部、
    を更に備える、請求項1に記載の画像処理装置。
  3.  前記肺野領域抽出部は、前記3次元医用画像を構成する画素の中で画素値が所定の閾値以下の画素を特定することで、空気領域を抽出し、当該抽出した空気領域内の一つの画素をシード点とした領域拡張法を行なうことで前記肺野領域を抽出し、
     前記肺野底部領域抽出部は、前記3次元医用画像の各画素が前記肺野領域として抽出された画素であるか否かを、前記被検体の下肢部から頭部に向かう体軸方向に沿った複数の走査方向にて判定し、各走査方向にて最初に前記肺野領域として判定した画素により形成される領域を前記肺野底部領域として抽出し、
     前記検出部は、前記肺野底部領域が存在する範囲内における前記3次元医用画像の複数のアキシャル面それぞれにて前記肺野底部領域が占める面積に基づいて、前記頂点位置を検出する、請求項1又は2に記載の画像処理装置。
  4.  前記肺野領域抽出部は、前記空気領域にて前記被検体の右側に位置する領域内の一つの画素をシード点とした領域拡張法を行なうことで右肺野領域を抽出し、
     前記肺野底部領域抽出部は、前記肺野領域抽出部により抽出された前記右肺野領域から前記肺野底部領域を抽出する、請求項3に記載の画像処理装置。
  5.  肺野領域抽出部が、被検体の胸部を撮影した3次元医用画像を構成する各画素の画素値に基づいて、当該3次元医用画像から肺野領域を抽出し、
     肺野底部領域抽出部が、前記肺野領域抽出部により抽出された前記肺野領域から、肺野底部領域を抽出し、
     検出部が、前記肺野底部領域抽出部により抽出された前記肺野底部領域の前記被検体の頭部側の頂点位置を検出する、
     ことを含む、画像処理方法。
PCT/JP2011/073319 2010-10-08 2011-10-11 画像処理装置及び画像処理方法 WO2012046867A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201180002837.4A CN102573641B (zh) 2010-10-08 2011-10-11 图像处理装置及图像处理方法
US13/851,396 US9530203B2 (en) 2010-10-08 2013-03-27 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-228766 2010-10-08
JP2010228766 2010-10-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/851,396 Continuation US9530203B2 (en) 2010-10-08 2013-03-27 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2012046867A1 true WO2012046867A1 (ja) 2012-04-12

Family

ID=45927857

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/073319 WO2012046867A1 (ja) 2010-10-08 2011-10-11 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9530203B2 (ja)
JP (1) JP5976293B2 (ja)
CN (1) CN102573641B (ja)
WO (1) WO2012046867A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6637619B2 (en) * 2000-09-25 2003-10-28 Kil Jae Chang Machine for reliably vending products one at a time
JP6139151B2 (ja) * 2013-01-31 2017-05-31 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 境界検出装置、磁気共鳴装置、およびプログラム
JP6450519B2 (ja) * 2013-12-27 2019-01-09 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 血管検出装置、磁気共鳴装置、およびプログラム
US10304569B2 (en) * 2015-12-03 2019-05-28 Heartflow, Inc. Systems and methods for associating medical images with a patient
WO2018159535A1 (ja) * 2017-02-28 2018-09-07 株式会社島津製作所 画像処理方法
JP6200618B1 (ja) * 2017-05-18 2017-09-20 Psp株式会社 医用画像診断支援システム及び装置、並びに、プログラム
JP2021149145A (ja) * 2020-03-16 2021-09-27 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728976A (ja) * 1993-07-07 1995-01-31 Toshiba Corp 画像表示装置
WO2007094412A1 (ja) * 2006-02-17 2007-08-23 Hitachi Medical Corporation 画像表示装置及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282307B1 (en) * 1998-02-23 2001-08-28 Arch Development Corporation Method and system for the automated delineation of lung regions and costophrenic angles in chest radiographs
US20020009215A1 (en) * 2000-01-18 2002-01-24 Arch Development Corporation Automated method and system for the segmentation of lung regions in computed tomography scans
US6990222B2 (en) * 2001-11-21 2006-01-24 Arnold Ben A Calibration of tissue densities in computerized tomography
US20030099390A1 (en) * 2001-11-23 2003-05-29 Xiaolan Zeng Lung field segmentation from CT thoracic images
US7397937B2 (en) * 2001-11-23 2008-07-08 R2 Technology, Inc. Region growing in anatomical images
US7251353B2 (en) * 2002-11-26 2007-07-31 University Of Chicago Automated method of patient recognition using chest radiographs
KR100503424B1 (ko) * 2003-09-18 2005-07-22 한국전자통신연구원 다중단면 전산화단층촬영 영상을 이용한 폐결절 자동 검출방법 및 이를 기록한 기록매체
JP2006006359A (ja) * 2004-06-22 2006-01-12 Fuji Photo Film Co Ltd 画像生成装置、画像生成装置方法、およびそのプログラム
JP2006110069A (ja) * 2004-10-14 2006-04-27 Canon Inc 画像処理装置及びその制御方法、プログラム
JP4797173B2 (ja) 2005-06-21 2011-10-19 国立大学法人金沢大学 X線診断支援装置、プログラム及び記録媒体
JP4896526B2 (ja) 2006-01-11 2012-03-14 株式会社東芝 磁気共鳴イメージング装置
JP4785133B2 (ja) 2006-05-08 2011-10-05 株式会社日立メディコ 画像処理装置
US8073232B2 (en) * 2007-10-02 2011-12-06 Siemens Aktiengesellschaft Method and system for diaphragm segmentation in chest X-ray radiographs
RU2533626C2 (ru) * 2008-11-05 2014-11-20 Конинклейке Филипс Электроникс Н.В. Автоматическое последовательное планирование мр-сканирования
JP5157918B2 (ja) * 2009-01-06 2013-03-06 コニカミノルタホールディングス株式会社 動画像表示装置およびプログラム
WO2012026145A1 (ja) * 2010-08-27 2012-03-01 コニカミノルタエムジー株式会社 診断支援システム及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728976A (ja) * 1993-07-07 1995-01-31 Toshiba Corp 画像表示装置
WO2007094412A1 (ja) * 2006-02-17 2007-08-23 Hitachi Medical Corporation 画像表示装置及びプログラム

Also Published As

Publication number Publication date
US9530203B2 (en) 2016-12-27
JP2012096025A (ja) 2012-05-24
CN102573641A (zh) 2012-07-11
US20130223687A1 (en) 2013-08-29
JP5976293B2 (ja) 2016-08-23
CN102573641B (zh) 2015-07-15

Similar Documents

Publication Publication Date Title
US11330250B2 (en) Three-dimensional display device and three-dimensional display method
JP5976293B2 (ja) 画像処理装置及び画像処理方法
JP6534998B2 (ja) 医療画像を表示する方法及び装置
JP5551960B2 (ja) 診断支援システム、診断支援プログラムおよび診断支援方法
US20060229513A1 (en) Diagnostic imaging system and image processing system
US20150070469A1 (en) Image processing apparatus and image processing method
US20210204899A1 (en) Method and system for motion assessment and correction in digital breast tomosynthesis
US20160206273A1 (en) Control apparatus for controlling tomosynthesis imaging, radiographing apparatus, control system, control method, and recording medium
JP2006014928A (ja) 画像表示方法および装置並びにプログラム
US8718344B2 (en) Image processing apparatus and medical image diagnosis apparatus
JP5536644B2 (ja) 医用画像処理装置、医用画像処理方法および医用画像処理プログラム
JP6526428B2 (ja) 医用画像処理装置、医用画像処理方法および医用画像診断装置
JP2005124617A (ja) 医用画像診断支援システム
JP6852545B2 (ja) 画像表示システム及び画像処理装置
JP6274479B2 (ja) 画像処理装置、医用画像診断装置及び画像処理プログラム
JP2015136480A (ja) 3次元医用画像表示制御装置およびその作動方法並びに3次元医用画像表示制御プログラム
WO2020035991A1 (ja) 医用情報処理装置及び医用情報処理方法、プログラム
US20190164280A1 (en) Medical image display method and imaging appartatus
JP2005136594A (ja) 画像処理装置及びその制御方法
JP2006247293A (ja) 画像処理方法および画像処理装置ならびにプログラム
US10964021B2 (en) Information processing apparatus, information processing method, and information processing system
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
JP6853004B2 (ja) 医用画像処理装置およびマンモグラフィ装置
JP2019058374A (ja) 位置合わせ装置、方法およびプログラム
JP2023013455A (ja) 医用画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180002837.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11830796

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11830796

Country of ref document: EP

Kind code of ref document: A1