WO2014034949A1 - 医用画像処理装置及び放射線治療装置 - Google Patents

医用画像処理装置及び放射線治療装置 Download PDF

Info

Publication number
WO2014034949A1
WO2014034949A1 PCT/JP2013/073713 JP2013073713W WO2014034949A1 WO 2014034949 A1 WO2014034949 A1 WO 2014034949A1 JP 2013073713 W JP2013073713 W JP 2013073713W WO 2014034949 A1 WO2014034949 A1 WO 2014034949A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
phase
medical image
display
unit
Prior art date
Application number
PCT/JP2013/073713
Other languages
English (en)
French (fr)
Inventor
藤澤 恭子
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Publication of WO2014034949A1 publication Critical patent/WO2014034949A1/ja
Priority to US14/632,789 priority Critical patent/US9504852B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • A61N5/1039Treatment planning systems using functional images, e.g. PET or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • A61B5/7485Automatic selection of region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5288Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • A61N5/1037Treatment planning systems taking into account the movement of the target, e.g. 4D-image based planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/091Measuring volume of inspired or expired gases, e.g. to determine lung capacity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1054Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using a portal imaging system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition

Definitions

  • Embodiments described herein relate generally to a medical image processing apparatus and a radiation therapy apparatus.
  • ITV Internal Target Volume
  • CTV Clinical Target Volume
  • Dynamic Volume imaging and respiratory synchronization imaging using an X-ray CT apparatus such as ADCT (Area Detector CT) or Multi Row Detector CT are known.
  • ADCT Area Detector CT
  • Multi Row Detector CT X-ray CT apparatus
  • the relationship between the range for estimating ITV and the respiratory state may not be clarified.
  • the problem to be solved by the present invention is to provide a medical image processing apparatus and a radiotherapy apparatus that make it possible to clarify the relationship between the range for estimating ITV and the respiratory state.
  • the medical image processing apparatus includes an extraction unit, a generation unit, and a display control unit.
  • the extraction unit extracts a region of interest and an organ to be treated from each of a plurality of three-dimensional medical image data collected over time.
  • the generating unit characterizes each region of interest of a plurality of designated phases among the regions of interest of each of the plurality of three-dimensional medical image data extracted by the extracting unit so that the phase can be identified, A movable range image arranged at the extracted position on the coordinates is generated.
  • the display control unit causes a predetermined display unit to display a display image in which the movable range image at the time of treatment is superimposed on the image indicating the organ to be treated with respect to the phase at the time of treatment so that the coordinates correspond to each other.
  • FIG. 1 is a diagram illustrating an example of a configuration of a medical image processing apparatus according to the first embodiment.
  • FIG. 2A is a diagram for describing an example of a region of interest extracted by the extraction unit according to the first embodiment.
  • FIG. 2B is a diagram for describing an example of a treatment target organ extracted by the extraction unit according to the first embodiment.
  • FIG. 3 is a diagram schematically illustrating an example of processing performed by the image generation unit according to the first embodiment.
  • FIG. 4A is a diagram illustrating an example of a display image displayed by the display control unit according to the first embodiment.
  • FIG. 4B is a diagram illustrating an example of a display image displayed by the display control unit according to the first embodiment.
  • FIG. 5 is a diagram for explaining an example of phase selection by the extraction unit according to the first embodiment.
  • FIG. 6A is a diagram illustrating display images of the expiration period and the inhalation period displayed by the display control unit according to the first embodiment.
  • FIG. 6B is a diagram illustrating display images of the expiration period and the inhalation period displayed by the display control unit according to the first embodiment.
  • FIG. 7 is a flowchart illustrating a processing procedure performed by the medical image processing apparatus according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of a configuration of a radiotherapy apparatus according to the second embodiment.
  • FIG. 9A is a diagram for explaining an example of the simulation according to the third embodiment.
  • FIG. 9B is a diagram for explaining an example of the simulation according to the third embodiment.
  • FIG. 9C is a diagram for explaining an example of the simulation according to the third embodiment.
  • FIG. 1 is a diagram illustrating an example of a configuration of a medical image processing apparatus 100 according to the first embodiment.
  • the medical image processing apparatus 100 includes an input unit 110, a display unit 120, a communication unit 130, a storage unit 140, and a control unit 150.
  • the medical image processing apparatus 100 is a workstation, an arbitrary personal computer, or the like, and is connected to a medical image diagnosis apparatus or an image storage apparatus (not shown) via a network.
  • the medical image diagnostic apparatus is, for example, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or the like.
  • the medical image diagnostic apparatus can generate three-dimensional medical image data (for example, three-dimensional medical image data of a lung imaged over time).
  • the image storage device is a database that stores medical images. Specifically, the image storage device stores the three-dimensional medical image data transmitted from the medical image diagnostic device in the storage unit and stores it.
  • the three-dimensional medical image data may be referred to as volume data.
  • the medical image processing apparatus 100, the medical image diagnostic apparatus, and the image storage apparatus described above can communicate with each other directly or indirectly through, for example, a hospital LAN (Local Area Network) installed in a hospital. It is in a state.
  • a hospital LAN Local Area Network
  • PACS Picture Archiving and Communication System
  • each device transmits and receives medical images and the like according to DICOM (Digital Imaging and Communications in Medicine) standards.
  • DICOM Digital Imaging and Communications in Medicine
  • the input unit 110 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the medical image processing apparatus 100 from an operator. Specifically, the input unit 110 accepts input of information for acquiring multi-phase volume data used for ITV estimation from the image storage device. For example, the input unit 110 receives input for acquiring lung volume data imaged over time by dynamic scanning of an X-ray CT apparatus for use in ITV estimation. The input unit 110 accepts an input operation for designating a plurality of phases for estimating ITV.
  • the display unit 120 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various information. Specifically, the display unit 120 displays a GUI (Graphical User Interface) for receiving various operations from the operator, a display image generated by processing by the control unit 150 described later, and the like. The display image generated by the control unit 150 will be described later.
  • the communication unit 130 is a NIC (Network Interface Card) or the like, and communicates with other devices.
  • the storage unit 140 includes an image data storage unit 141 and an image storage unit 142 as shown in FIG.
  • the storage unit 140 is a hard disk, a semiconductor memory element, or the like, and stores various types of information.
  • the image data storage unit 141 stores multi-phase volume data acquired from the image storage device via the communication unit 130.
  • the image storage unit 142 stores image data being processed by the control unit 150, which will be described later, a movable range image generated by the processing, and the like. The movable range image will be described later.
  • the controller 150 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array), and medical image processing. Overall control of the apparatus 100 is performed.
  • a CPU Central Processing Unit
  • MPU Micro Processing Unit
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the control unit 150 includes, for example, an image acquisition unit 151, an extraction unit 152, an image generation unit 153, and a display control unit 154. Then, the control unit 150 extracts a region of interest included in each of the multi-phase volume data used for ITV estimation, and designates the designated multi-phase region of interest as one treatment target organ. It is displayed superimposed on the corresponding coordinates.
  • volume data obtained by imaging a tumor in a lung field with an X-ray CT apparatus over time is used as volume data of a plurality of phases used for ITV estimation.
  • the image acquisition unit 151 acquires multi-phase volume data used for ITV estimation from an image storage device (not shown) via the communication unit 130 and stores the acquired volume data in the image data storage unit 141.
  • the image acquisition unit 151 acquires volume data obtained by imaging a tumor in the lung field over time by the X-ray CT apparatus based on information input from the operator via the input unit 110, and stores the image data. Stored in the unit 141.
  • the extraction unit 152 extracts a region of interest and an organ to be treated from each of a plurality of volume data collected over time. For example, the extraction unit 152 extracts a tumor as a region of interest from each of a plurality of volume data collected at a plurality of phases in the respiratory cycle. For example, the extraction unit 152 extracts a lung as an organ to be treated.
  • FIG. 2A is a diagram for explaining an example of a region of interest extracted by the extraction unit 152 according to the first embodiment.
  • a CT image of a coronal surface generated from volume data of a plurality of phases is shown, but in practice, the extraction unit 152 performs (t1) to (t7) in FIG. 2A.
  • (t1) to (t7) of each phase in FIG. 2A indicate time-series data taken in order from (t1) to (t7).
  • (t2) to (t7) in FIG. 2A show only the right region in each CT image.
  • FIG. 2A shows an image when fixed point observation is performed for each volume data. That is, FIG. 2A shows a CT image of predetermined coordinates in the volume data. For example, in the multi-phase volume data, the tumor 20 is moved in the vertical direction of the image as shown in FIG.
  • the extraction unit 152 extracts the tumor 20 from the volume data of each phase from (t1) to (t7).
  • the extraction unit 152 extracts the coordinates of voxels corresponding to the tumor 20 in each phase from (t1) to (t7) in the coordinates of the volume data.
  • FIG. 2B is a diagram for explaining an example of an organ to be treated extracted by the extraction unit 152 according to the first embodiment.
  • FIG. 2B shows VR (Volume Rendering) images respectively generated from the volume data of (t1) to (t7) shown in FIG. 2A.
  • the organs to be treated are extracted from the volume data generated in (t1) to (t7).
  • (t2) to (t7) in FIG. 2B show only the right region in each VR image.
  • FIG. 2B shows only the right region in each VR image.
  • the extraction unit 152 extracts the lung field 21 to be treated from the volume data of each phase from (t1) to (t7).
  • the extraction unit 152 extracts the coordinates of the voxels corresponding to the lung fields 21 of each phase from (t1) to (t7) in the coordinates of the volume data.
  • the extraction unit 152 applies a region expansion method or the like based on a pixel value (voxel value) of volume data, for example, to a region of interest such as the above-described tumor or an organ to be treated such as a lung field.
  • the region of interest and the organ to be treated are extracted.
  • the region of interest and the organ to be treated are designated by the operator.
  • the image generation unit 153 characterizes each of the plurality of specified regions of interest among the plurality of regions of interest extracted from the plurality of volume data by the extraction unit 152 so that the phases can be identified, A movable range image arranged at the extracted position on the three-dimensional coordinate is generated. Specifically, the image generation unit 153 characterizes each region of interest having a phase corresponding to a predetermined respiratory state among the regions of interest of each of the plurality of volume data so that the phase can be identified. A movable range image arranged at the extracted position is generated.
  • the image generation unit 153 generates a movable range image in which each of the tumors extracted by the extraction unit 152 is characterized in such a manner that the phase can be identified and arranged at the extracted position on the three-dimensional coordinates.
  • the image generation unit 153 characterizes the phases so that they can be identified by arranging different colors for each of the designated regions of interest of a plurality of phases.
  • FIG. 3 is a diagram schematically illustrating an example of processing by the image generation unit 153 according to the first embodiment.
  • the cube shown in FIG. 3 is virtual volume data having the same coordinate system as the volume data.
  • the image generation unit 153 selects the tumor 20 having the phase specified by the operator among the tumors 20 extracted from the volume data of each phase, in the position corresponding to the coordinates of the virtual volume data.
  • the virtual volume data arranged in each is generated.
  • the image generation unit 153 generates a movable range image indicating how the tumor 20 moves in the designated phase by performing various processes on the generated virtual volume data.
  • the image generation unit 153 can generate the movable range image as an MPR image, an oblique image, a VR image, or the like.
  • the image generation unit 153 performs various processes not only on the above-described virtual volume data but also on the multi-phase volume data acquired by the image acquisition unit 151 to depict an organ as a treatment target.
  • An image, an oblique image, a VR image, or the like can be generated.
  • the display control unit 154 causes the display unit 120 to display a display image in which a movable range image at the time of treatment is superimposed on an image indicating an organ to be treated with respect to a phase at the time of treatment so that coordinates correspond to each other.
  • the display control unit 154 displays a display image obtained by superimposing the movable range image on the MPR image, the oblique image, or the VR image indicating the treatment target organ extracted by the extraction unit 152 so that the coordinates correspond to each other. Is displayed on the display unit 120.
  • FIG. 4A and 4B are diagrams illustrating examples of display images displayed by the display control unit 154 according to the first embodiment.
  • FIG. 4A shows an MPR image
  • FIG. 4B shows a VR image.
  • the display control unit 154 colors the tumor for each phase and causes the display unit 120 to display a display image superimposed on the lung field MPR image (2D image).
  • the display control unit 154 colors the tumor for each phase, and causes the display unit 120 to display a display image superimposed on the lung field VR image (3D image).
  • the movable range of the region of interest (tumor) color-coded for each phase is displayed superimposed on the organ to be treated (lung field), so that the observer can see which lung field is what You can see at a glance where the tumor is when it is large.
  • the display control unit 154 can display the region of interest corresponding to the predetermined phase designated by the operator in different colors. That is, the observer can estimate and observe the movement of the region of interest in a desired respiratory state. For example, the observer can observe the movable range of the region of interest when breathing is shallow or when breathing is deep.
  • the extraction unit 152 selects and selects the phase in which the lung corresponding to the volume change in the state of shallow breathing is imaged from the change in the size (volume) of the lung to be treated. Extract the phase region of interest. Then, the image generation unit 153 generates a movable range image using the extracted region of interest.
  • FIG. 5 is a diagram for explaining an example of phase selection by the extraction unit 152 according to the first embodiment.
  • the extraction unit 152 selects (t4) to (t7) as phases corresponding to a state where breathing is shallow (lung volume change is small) from the volume data of a plurality of phases.
  • a movable range image is generated using the region of interest (tumor) extracted from each of the selected (t4) to (t7). Thereby, the observer can observe at a glance how the tumor moves for each respiratory state.
  • each of the plurality of phases of volume data acquired over time is classified according to the respiratory state, and an image of the volume data corresponding to the specified respiratory state. It is also possible to display only. For example, it is possible to classify the respiratory state into “deep”, “normal”, “shallow”, and the like, and display an image based on the classification.
  • the input unit 110 receives an operation for designating a predetermined breathing state. For example, the input unit 110 receives an operation of selecting a breathing state desired by the user among three breathing states “deep”, “normal”, and “shallow”.
  • the extraction unit 152 extracts three-dimensional medical image data having a phase corresponding to a predetermined respiratory state received by the input unit 110, and a region of interest and an organ to be treated from each of the extracted three-dimensional medical image data. Are extracted respectively.
  • the extracting unit 152 obtains volume data of a phase corresponding to the “shallow” breathing state from the volume data for one breathing cycle.
  • the region of interest and the organ to be treated are extracted from each of the extracted volume data.
  • the extraction unit 152 extracts each of the volume data of (t4) to (t7) shown in FIG. .
  • the volume data of the phase corresponding to each respiratory state may be determined from the lung volume, or may be associated in advance.
  • a range of lung volume change is set for each respiratory state.
  • the extraction unit 152 reads the range of the volume change amount of the lung set in the respiratory state received from the input unit 110. Then, the extraction unit 152 extracts volume data that falls within the range in which the volume change of the lung is read out as a volume corresponding to the breathing state received by the input unit 110. Thereafter, the extraction unit 152 extracts a region of interest such as a tumor and an organ to be treated from each of the extracted volume data. Then, the image generation unit 153 generates a movable range image in which each region of interest extracted by the extraction unit 152 is characterized in such a manner that the phase can be identified and arranged at the extracted position on the three-dimensional coordinates.
  • the display control unit 154 can display the movable range of the tumor in the phase corresponding to the expiration period and the inhalation period as a display image.
  • the image generation unit 153 can identify the phase of the tumor corresponding to the expiration period and the inhalation period based on the volume change of the lungs of each of the plurality of volume data extracted by the extraction unit 152. Characterize and generate a movable range image arranged at the extracted position on the three-dimensional coordinates.
  • the image generation unit 153 first generates a volume change curve from the lung volume of each of a plurality of volume data. Then, the image generation unit 153 determines the phase corresponding to the period in which the volume is decreasing in the generated volume change curve as the phase corresponding to the call period, and uses the tumor extracted from these phases to move the phase. Generate a range image. In addition, the image generation unit 153 determines the phase corresponding to the period in which the volume is rising as the phase corresponding to the absorption period in the generated volume change curve, and uses the tumor extracted from those phases to move the curve. Generate a range image. The display control unit 154 superimposes the movable range image generated as the expiratory period or the inhalation period on the lung field image, thereby observing the display image indicating how the tumor moves in the expiratory period and the inhalation period. Can be provided.
  • FIG. 6A and FIG. 6B are diagrams showing display images of the expiration period and the inhalation period displayed by the display control unit 154 according to the first embodiment.
  • FIG. 6A shows a display image showing the movable range of the tumor in the inhalation phase
  • FIG. 6B shows a display image showing the movable range of the tumor in the expiration phase.
  • the display control unit 154 color-codes the tumor of the phase corresponding to the inhalation period for each phase, and causes the display unit 120 to display the display image superimposed on the lung field VR image.
  • the display control unit 154 uses the display unit 120 to display a display image in which a tumor having a phase corresponding to a call period is color-coded for each phase and superimposed on a lung field VR image. Display.
  • the display control unit 154 can display the movable range of the phase corresponding to the expiration period and the inhalation period, respectively. Thereby, the display control unit 154 can further display a display image that reflects the position of the tumor in the phase of the maximum expiratory phase and the maximum inhalation phase.
  • the display control unit 154 can cause the display unit 120 to display a display image in which an image showing an organ to be treated is switched to the phase of the movable range image.
  • the display control unit 154 causes the display unit 120 to display a display image obtained by switching the image indicating the lung to the phase of the movable range image.
  • the display control unit 154 displays a display image in which a tumor having the phase of the maximum call period is superimposed on the image of the lung field corresponding to the maximum call period.
  • the display control unit 154 displays a display image in which a tumor having a phase of the maximum inhalation period is superimposed on an image of the lung field corresponding to the maximum inhalation period.
  • FIG. 7 is a flowchart showing a processing procedure performed by the medical image processing apparatus 100 according to the first embodiment.
  • the image acquisition unit 151 acquires multi-phase volume data used for ITV estimation (step S101).
  • the extraction unit 152 extracts a region of interest and an organ to be treated from the volume data of each phase (Step S102).
  • the image generation unit 153 generates a movable range image using the phase region of interest designated by the operator (step S103). Then, the display control unit 154 superimposes the movable range image on the treatment target organ extracted by the extraction unit 152, and causes the display unit 120 to display a display image in which the region of interest is color-coded for each phase (step S104). .
  • the image generation unit 153 determines whether or not the phase change of the region of interest to be displayed on the display image has been received (step S105).
  • the image generation unit 153 returns to step S103, and generates a movable range image using the region of interest of the newly designated phase.
  • the display control unit 154 determines whether an instruction to end the display processing of the display image has been received (Step S106).
  • step S106 when the termination instruction has not been received (step S106, No), the display control unit 154 returns to step S104 to continuously display the display image on the display unit 120.
  • step S106, Yes when an end instruction is received (step S106, Yes), the display control unit 154 ends the display of the display image.
  • the extraction unit 152 extracts a region of interest (tumor) and an organ to be treated (lung field) from each of a plurality of volume data collected over time. . Then, the image generation unit 153 characterizes each of a plurality of designated phase tumors out of the plurality of volume data tumors extracted by the extraction unit 152 so that the phases can be identified, and extracts them on three-dimensional coordinates. A movable range image arranged at the position is generated. Then, the display control unit 154 causes the display unit 120 to display a display image in which the movable range image is superimposed on the image indicating the lung field extracted by the extraction unit 152 so that the coordinates correspond to each other. Therefore, the medical image processing apparatus 100 according to the first embodiment makes it possible to clarify the relationship between the range (movable range) for estimating ITV and the respiratory state (phase).
  • the image generation unit 153 among the tumors of each of the plurality of volume data, characterizes each of the tumors having a phase corresponding to a predetermined respiratory state at an extracted position on the three-dimensional coordinates, characterized by distinguishing the phase.
  • a movable range image is generated. Therefore, the medical image processing apparatus 100 according to the first embodiment makes it possible to clarify the relationship between various respiratory states and the movable range of the tumor.
  • the input unit 110 accepts an operation for designating a predetermined breathing state.
  • the extraction unit 152 extracts volume data of a phase corresponding to a predetermined respiratory state received by the input unit 110, and extracts a region of interest and an organ to be treated from each of the extracted volume data.
  • the image generation unit 153 generates a movable range image in which each region of interest extracted by the extraction unit 152 is characterized in such a manner that the phase can be identified and arranged at the extracted position on the three-dimensional coordinates. Therefore, the medical image processing apparatus 100 according to the first embodiment can read all the volume data of the phase corresponding to the respiratory state desired by the user and display those images. It is possible to facilitate the analysis of the relationship with the movable range.
  • the extraction unit 152 extracts a tumor from each of a plurality of volume data collected at a plurality of phases in the respiratory cycle. Then, the image generation unit 153 generates a movable range image in which each of the tumors extracted by the extraction unit 152 is characterized so that the phase can be identified, and is arranged at the extracted position on the three-dimensional coordinates. Then, the display control unit 154 causes the display unit 120 to display a display image in which the movable range image is superimposed on the MPR image, oblique image, or VR image indicating the lung field to be treated so that the coordinates correspond to each other. Therefore, the medical image processing apparatus 100 according to the first embodiment makes it possible to observe the display image in 2D and 3D.
  • the image generation unit 153 characterizes each of the plurality of volume data tumors having phases corresponding to the expiratory period and the inhalation period so that the phases can be identified.
  • a movable range image arranged at the extracted position on the three-dimensional coordinate is generated. Therefore, the medical image processing apparatus 100 according to the first embodiment makes it possible to indicate the movable range of the tumor for each of the expiration period and the inhalation period in the respiratory state.
  • the image generation unit characterizes the phases so that they can be identified by arranging different colors for each of the designated multiple-phase tumors. Therefore, the medical image processing apparatus 100 according to the first embodiment makes it possible to provide a viewer with a display image in which the relationship between the movable range and the breathing state can be seen at a glance.
  • the display control unit 154 causes the display unit 120 to display a display image obtained by switching the image indicating the lung field to be treated to the phase of the movable range image. Therefore, the medical image processing apparatus 100 according to the first embodiment makes it possible to clearly identify what the movable range will be in what state of the lung field.
  • the extraction unit 152 extracts the lung as an organ to be treated.
  • the image generation unit 153 can identify the phase of the tumor corresponding to the maximum expiratory phase and the maximum inhalation phase based on the volume change of the lungs of each of the plurality of volume data extracted by the extraction unit 152.
  • a movable range image arranged at the extracted position on the three-dimensional coordinate is generated.
  • the display control unit 154 causes the display unit 120 to display a display image obtained by switching the image indicating the lung to the phase of the movable range image. Therefore, the medical image processing apparatus 100 according to the first embodiment can display the position of the tumor at the time when the lung becomes maximum and the time when the lung becomes minimum, and clearly shows how much the tumor moves at maximum. Make it possible to do.
  • FIG. 8 is a diagram for explaining an example of the configuration of the radiation therapy apparatus 200 according to the second embodiment.
  • the radiotherapy apparatus 200 according to the second embodiment includes a top plate 1, a stand 2, a gantry 3, a treatment head 4, a radioscopic part 5, and a control device 6. *
  • the top board 1 is a bed on which a subject H to be subjected to radiation therapy is placed.
  • the stand 2 supports the gantry 3 and includes a driving device for rotating the gantry 3 therein.
  • the gantry 3 supports the treatment head 4 and the radioscopy unit 5 so as to face each other with the top plate 1 interposed therebetween, and the treatment head 4 and the radioscopy unit around the horizontal axis G where the subject H is located. 5 is moved.
  • the gantry 3 includes an electron gun, a waveguide guide, and the like (not shown). *
  • the treatment head 4 generates therapeutic radiation used for treatment of the subject H.
  • the treatment head 4 includes a waveguide guide 4a, a bending magnet 4b, a target 4c, and a collimator 4d.
  • the electron beam L generated by the electron gun of the gantry 3 is accelerated by the waveguide guide 4a and then enters the bending magnet 4b.
  • the bending magnet 4b causes the electron beam L to collide with the target 4c by directing the direction of the incident electron beam L downward.
  • therapeutic radiation N is generated.
  • the generated therapeutic radiation N is irradiated to the subject H after the irradiation shape and dose distribution are adjusted by the collimator 4d. *
  • the radiation fluoroscopic unit 5 detects the radiation that has passed through the subject H, and captures a fluoroscopic image for easy alignment of the subject H and reconfirmation of the affected area.
  • the control device 6 controls the entire radiotherapy device 200. For example, the control device 6 rotates the gantry 3 by driving a drive device included in the stand 2 in accordance with an instruction from the operator. Further, for example, the control device 6 performs predetermined image processing on an image photographed by a camera included in the radiation fluoroscopic unit 5 and displays the image subjected to the image processing.
  • the radiation therapy apparatus 200 determines a radiation irradiation region based on the movable range of the tumor calculated by the medical image processing apparatus 100 shown in FIG.
  • the control device 6 includes the control unit 150 illustrated in FIG. 1 and sets the ITV based on the movable range of the region of interest derived by the control unit 150. And the control apparatus 6 irradiates therapeutic radiation to the set ITV.
  • the radiotherapy apparatus 200 determines the ITV based on the movable range of the tumor calculated by the medical image processing apparatus 100, and irradiates the determined ITV with the therapeutic radiation. . Therefore, the radiotherapy apparatus 200 according to the second embodiment can reduce the ITV, reduce the therapeutic radiation irradiation area, and reduce the burden on the patient.
  • the movable range image arranged at the extracted position on the three-dimensional coordinates is generated by characterizing the phase in an identifiable manner, and the movable range image is coordinated on the image indicating the lung field.
  • the display image superimposed on the display unit 120 is displayed on the display unit 120.
  • the embodiment is not limited to this, and may be a case where simulation is performed using the technique of the present application.
  • FIGS. 9A to 9C are diagrams for explaining an example of the simulation according to the third embodiment.
  • FIGS. 9A to 9C show a case where a movable range is simulated in different breathing states.
  • 9A and 9B show changes in the volume of the lung field in different respiratory states.
  • FIG. 9C is a graph showing changes in the volume of the lung field in different respiratory states, with the vertical axis representing volume and the horizontal axis representing time.
  • the change in the volume of the patient's lung field is small as shown in FIG. 9A.
  • the change in the volume of the lung field of the patient is large. That is, as shown in the curve 31 of FIG. 9C, the volume of the lungs of a patient taking a rest breath does not change greatly when taking one breath.
  • the lung field of the patient taking a deep breath has a large change in the volume during one breath.
  • the movement of the region of interest during one breath is different between when taking a quiet breath and when taking a deep breath.
  • the position of the region of interest on the three-dimensional coordinate at the time of the maximum inspiration of rest breathing is greatly different from the position of the region of interest on the three-dimensional coordinate at the time of the maximum inspiration of deep breathing.
  • a movable range image of a region of interest such as a tumor is created using the data at the time of examination (data during rest breathing) and superimposed on the image at the time of treatment at the timing of breathing, the region where there is no lung field is of interest There are cases where regions are superimposed.
  • the respiratory state of the patient at the time of treatment (how much the change in the size of the lung field in one breath) is analyzed from the image. Then, the medical image processing apparatus 100 simulates the position of the region of interest corresponding to the analyzed respiratory state using data at the time of examination. For example, as illustrated in FIG. 9C, the control unit 150 analyzes the volume change range 40 of the lung field during rest breathing based on the data of the curve 31. The display control unit 154 acquires the data of the position of the region of interest corresponding to the volume included in the range 40 analyzed by the control unit 150 from the data of the curve 32.
  • the display control unit 154 simulates the position of the region of interest on the three-dimensional coordinates in each volume indicated by the curve 31 from the position of the region of interest in the corresponding volume indicated by the curve 32.
  • the medical image processing apparatus 100 according to the third embodiment generates and displays a display image that is matched with the size of the organ to be treated, instead of matching with the timing of breathing.
  • the medical image processing apparatus 100 according to the third embodiment can simulate the position of the region of interest and the size of the organ from the first image (for example, the image at the time of examination).
  • a region where the region of interest may exist may be displayed in the region to be treated.
  • the display control unit 154 calculates a region having a high existence probability using the respiratory cycle information for the extracted region of interest, and performs control so that the region is displayed as a movable range image.
  • the embodiment is not limited to this, and for example, a case where a pulsating state is used as the phase may be used.
  • the image acquisition unit 151 acquires volume data from the image storage device or the medical image diagnostic device.
  • the embodiment is not limited to this.
  • a doctor carries volume data on a portable storage medium such as a flash memory or an external hard disk and stores the volume data in the image data storage unit 141 of the medical image processing apparatus 100. It may be the case. In such a case, the acquisition of the volume data data by the image acquisition unit 151 may not be executed.
  • the medical image processing apparatus 100 has been described.
  • the embodiment is not limited to this, and for example, the storage unit 140 and the control of the medical image processing apparatus 100 illustrated in FIG.
  • the unit 150 may be incorporated in the medical image diagnostic apparatus, and the above-described processing may be executed by the medical image diagnostic apparatus.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radiation-Therapy Devices (AREA)

Abstract

 実施形態の医用画像処理装置(100)は、抽出部(152)と、生成部(153)と、表示制御部(154)とを備える。抽出部(152)は、経時的に収集された複数の3次元医用画像データそれぞれから関心部位及び治療対象となる臓器をそれぞれ抽出する。生成部(153)は、抽出部(152)によって抽出された複数の3次元医用画像データそれぞれの関心部位のうち、指定された複数の位相の関心部位それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。表示制御部(154)は、治療時の位相に対する治療対象となる臓器を示す画像上に治療時の可動範囲画像を座標が対応するように重畳させた表示画像を表示部(120)にて表示させる。

Description

医用画像処理装置及び放射線治療装置
 本発明の実施形態は、医用画像処理装置及び放射線治療装置に関する。
 従来、放射線治療計画などにおいては、放射線を照射する範囲を決定するうえで、呼吸周期中に例えば腫瘍などの関心領域(CTV:Clinical Target Volume)が動きうる範囲(ITV:Internal Target Volume)が重要な情報となっている。かかるITVは、患者の負担を少なくするためにできるだけ小さくすることが望まれている。
 ここで、ITVを推定する方法としては、例えば、ADCT(Area Detector CT)や、Multi Row Detector CTなどのX線CT装置によるDynamicVolume撮影や呼吸同期撮影が知られている。かかる撮影では、呼吸周期内の複数の時点での腫瘍の移動状態が腫瘍周辺の構造物の動きとともに観察することが可能である。しかしながら、上述した従来技術においては、ITVを推定するための範囲と呼吸状態との関係を明確にすることができない場合があった。
特開2012-085969号公報
 本発明が解決しようとする課題は、ITVを推定するための範囲と呼吸状態との関係を明確にすることを可能にする医用画像処理装置及び放射線治療装置を提供することである。
 実施形態の医用画像処理装置は、抽出部と、生成部と、表示制御部とを備える。抽出部は、経時的に収集された複数の3次元医用画像データそれぞれから関心部位及び治療対象となる臓器をそれぞれ抽出する。生成部は、前記抽出部によって抽出された前記複数の3次元医用画像データそれぞれの関心部位のうち、指定された複数の位相の関心部位それぞれを、前記位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。表示制御部は、治療時の位相に対する前記治療対象となる臓器を示す画像上に前記治療時の可動範囲画像を座標が対応するように重畳させた表示画像を所定の表示部にて表示させる。
図1は、第1の実施形態に係る医用画像処理装置の構成の一例を示す図である。 図2Aは、第1の実施形態に係る抽出部によって抽出される関心部位の一例を説明するための図である。 図2Bは、第1の実施形態に係る抽出部によって抽出される治療対象の臓器の一例を説明するための図である。 図3は、第1の実施形態に係る画像生成部による処理の一例を模式的に示す図である。 図4Aは、第1の実施形態に係る表示制御部によって表示される表示画像の例を示す図である。 図4Bは、第1の実施形態に係る表示制御部によって表示される表示画像の例を示す図である。 図5は、第1の実施形態に係る抽出部による位相の選択の一例を説明するための図である。 図6Aは、第1の実施形態に係る表示制御部によって表示される呼期及び吸期それぞれの表示画像を示す図である。 図6Bは、第1の実施形態に係る表示制御部によって表示される呼期及び吸期それぞれの表示画像を示す図である。 図7は、第1の実施形態に係る医用画像処理装置による処理の手順を示すフローチャートである。 図8は、第2の実施形態に係る放射線治療装置の構成の一例を示す図である。 図9Aは、第3の実施形態に係るシミュレーションの一例を説明するための図である。 図9Bは、第3の実施形態に係るシミュレーションの一例を説明するための図である。 図9Cは、第3の実施形態に係るシミュレーションの一例を説明するための図である。
(第1の実施形態)
 図1は、第1の実施形態に係る医用画像処理装置100の構成の一例を示す図である。図1に示すように、医用画像処理装置100は、入力部110と、表示部120と、通信部130と、記憶部140と、制御部150とを有する。例えば、医用画像処理装置100は、ワークステーションや、任意のパーソナルコンピュータなどであり、図示しない医用画像診断装置や、画像保管装置などとネットワークを介して接続される。医用画像診断装置は、例えば、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置などである。また、医用画像診断装置は、3次元の医用画像データ(例えば、経時的に撮像された肺の3次元医用画像データなど)を生成可能である。画像保管装置は、医用画像を保管するデータベースである。具体的には、画像保管装置は、医用画像診断装置から送信された3次元医用画像データを記憶部に格納し、これを保管する。なお、以下では、3次元医用画像データを、ボリュームデータと記す場合がある。
 上述した医用画像処理装置100と、医用画像診断装置と、画像保管装置とは、例えば、病院内に設置された院内LAN(Local Area Network)により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、PACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。
 入力部110は、マウス、キーボード、トラックボール等であり、医用画像処理装置100に対する各種操作の入力を操作者から受け付ける。具体的には、入力部110は、ITVの推定に用いられる複数位相のボリュームデータを画像保管装置から取得するための情報の入力などを受け付ける。例えば、入力部110は、ITVの推定に用いるためにX線CT装置のダイナミックスキャンによって経時的に撮像された肺のボリュームデータを取得するための入力を受け付ける。また、入力部110は、ITVを推定する複数位相を指定するための入力操作を受付ける。
 表示部120は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、表示部120は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、後述する制御部150による処理によって生成された表示画像等を表示する。なお、制御部150によって生成される表示画像については、後述する。通信部130は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。
 記憶部140は、図1に示すように、画像データ記憶部141と、画像記憶部142とを有する。例えば、記憶部140は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。画像データ記憶部141は、通信部130を介して画像保管装置から取得された複数位相のボリュームデータを記憶する。画像記憶部142は、後述する制御部150の処理中の画像データや、処理によって生成された可動範囲画像等を記憶する。なお、可動範囲画像については後述する。
 制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、医用画像処理装置100の全体制御を行なう。
 また、制御部150は、図1に示すように、例えば、画像取得部151と、抽出部152と、画像生成部153と、表示制御部154とを有する。そして、制御部150は、ITVの推定に用いられる複数位相のボリュームデータそれぞれに含まれる関心部位を抽出して、指定された複数位相の関心部位を治療対象となる臓器を示す1枚の画像の対応する座標にそれぞれ重畳して表示する。以下、ITVの推定に用いられる複数位相のボリュームデータとして、X線CT装置によって肺野における腫瘍を経時的に撮像したボリュームデータを用いる場合を一例に挙げて説明する。
 画像取得部151は、通信部130を介して、図示しない画像保管装置からITVの推定に用いられる複数位相のボリュームデータを取得して、画像データ記憶部141に格納する。例えば、画像取得部151は、入力部110を介して操作者から入力された情報に基づいて、X線CT装置によって肺野における腫瘍を経時的に撮像したボリュームデータを取得して、画像データ記憶部141に格納する。
 抽出部152は、経時的に収集された複数のボリュームデータそれぞれから関心部位及び治療対象となる臓器をそれぞれ抽出する。例えば、抽出部152は、呼吸周期内の複数位相で収集された複数のボリュームデータそれぞれから関心部位として腫瘍を抽出する。また、例えば、抽出部152は、治療対象となる臓器として肺を抽出する。
 図2Aは、第1の実施形態に係る抽出部152によって抽出される関心部位の一例を説明するための図である。ここで、図2Aにおいては、複数位相のボリュームデータから生成されたコロナル(Coronal)面のCT画像を示しているが、実際には、抽出部152は、図2Aの(t1)~(t7)が生成されたボリュームデータから関心部位をそれぞれ抽出する。また、図2Aにおける各位相の(t1)~(t7)は、(t1)から(t7)まで順に撮影された時系列順のデータを示す。また、図2Aにおける(t2)~(t7)は、各CT画像における右側の領域のみを示す。
 また、図2Aにおいては、各ボリュームデータに対して定点観察した場合の画像を示す。すなわち、図2Aにおいては、ボリュームデータにおける所定の座標のCT画像を示す。例えば、複数位相のボリュームデータにおいては、患者の呼吸により、図2Aに示すように、腫瘍20が画像の縦方向に移動している。
 例えば、抽出部152は、図2Aに示すように、(t1)~(t7)までの各位相のボリュームデータから腫瘍20をそれぞれ抽出する。換言すると、抽出部152は、ボリュームデータの座標における(t1)~(t7)までの各位相の腫瘍20に対応するボクセルの座標をそれぞれ抽出する。
 図2Bは、第1の実施形態に係る抽出部152によって抽出される治療対象の臓器の一例を説明するための図である。ここで、図2Bにおいては、図2Aに示す(t1)~(t7)のボリュームデータからそれぞれ生成されたVR(Volume Rendering)画像を示しているが、実際には、抽出部152は、図2Bの(t1)~(t7)が生成されたボリュームデータから治療対象となる臓器をそれぞれ抽出する。また、図2Bにおける(t2)~(t7)は、各VR画像における右側の領域のみを示す。また、図2Bの(t1)~(t7)において、それぞれハッチングされた領域は、関心部位20を示す。
 例えば、抽出部152は、図2Bに示すように、(t1)~(t7)までの各位相のボリュームデータから治療対象となる肺野21をそれぞれ抽出する。換言すると、抽出部152は、ボリュームデータの座標における(t1)~(t7)までの各位相の肺野21に対応するボクセルの座標をそれぞれ抽出する。
 抽出部152は、上述した腫瘍などの関心部位や、肺野などの治療対象となる臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法などを適用することで、腫瘍などの関心部位や、治療対象となる臓器(例えば、肺野など)を抽出する。なお、関心部位及び治療対象となる臓器は、操作者によって指定される。
 図1に戻って、画像生成部153は、抽出部152によって抽出された複数のボリュームデータそれぞれの関心部位のうち、指定された複数位相の関心部位それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。具体的には、画像生成部153は、複数のボリュームデータそれぞれの関心部位のうち、所定の呼吸状態に対応する位相の関心部位それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。
 例えば、画像生成部153は、抽出部152によって抽出された腫瘍それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。ここで、画像生成部153は、指定された複数位相の関心部位それぞれに対して異なる色を配色することで、位相を識別可能に特徴付ける。図3は、第1の実施形態に係る画像生成部153による処理の一例を模式的に示す図である。ここで、図3に示す立方体は、ボリュームデータと同一の座標系を有する仮想ボリュームデータである。
 例えば、画像生成部153は、図3に示すように、各位相のボリュームデータから抽出された腫瘍20のうち、操作者によって指定された位相の腫瘍20を、仮想ボリュームデータの座標において対応する位置にそれぞれ配置した仮想ボリュームデータを生成する。そして、画像生成部153は、生成した仮想ボリュームデータに対して、各種処理を実行することにより、指定された位相において腫瘍20がどのように動くかを示す可動範囲画像を生成する。ここで、画像生成部153は、可動範囲画像をMPR画像や、オブリーク画像、VR画像などで生成することができる。また、画像生成部153は、上述した仮想ボリュームデータだけではなく、画像取得部151によって取得された複数位相のボリュームデータに対しても各種処理を実行して治療対象となる臓器が描出されたMPR画像や、オブリーク画像、VR画像などを生成することができる。
 図1に戻って、表示制御部154は、治療時の位相に対する治療対象となる臓器を示す画像上に治療時の可動範囲画像を座標が対応するように重畳させた表示画像を表示部120にて表示させる。具体的には、表示制御部154は、抽出部152によって抽出された治療対象となる臓器を示すMPR画像、オブリーク画像又はVR画像上に可動範囲画像を座標が対応するように重畳させた表示画像を表示部120にて表示させる。
 図4A及び図4Bは、第1の実施形態に係る表示制御部154によって表示される表示画像の例を示す図である。ここで、図4Aが、MPR画像を示し、図4Bが、VR画像を示す。例えば、表示制御部154は、図4Aに示すように、腫瘍を位相ごとに色分けし、肺野のMPR画像(2D画像)に重畳させた表示画像を表示部120にて表示させる。また、表示制御部154は、図4Bに示すように、腫瘍を位相ごとに色分けし、肺野のVR画像(3D画像)に重畳させた表示画像を表示部120にて表示させる。このように、位相ごとに色分けされた関心部位(腫瘍)の可動範囲が治療対象の臓器(肺野)に重畳されて表示されることで、観察者は、どの肺の肺野がどのような大きさのときに腫瘍がどの位置にあるのかを一目で確認することができる。
 ここで、表示制御部154は、操作者によって指定された所定の位相に対応する関心部位を色分けして表示させることができる。すなわち、観察者は、所望する呼吸状態での関心部位の動きを推測し観察することが可能である。例えば、観察者は、呼吸が浅い場合や、呼吸が深い場合の関心部位の可動範囲を観察することが可能である。かかる場合には、例えば、抽出部152は、治療対象となる肺の大きさ(容積)の変化から、呼吸が浅い状態の容積変化に相当する肺が撮像された位相を選択して、選択した位相の関心部位を抽出する。そして、画像生成部153は、抽出した関心部位を用いて可動範囲画像を生成する。
 図5は、第1の実施形態に係る抽出部152による位相の選択の一例を説明するための図である。例えば、図5に示すように、抽出部152は、複数位相のボリュームデータから、呼吸が浅い状態(肺の容積変化が少ない)に相当する位相として、(t4)~(t7)を選択し、選択した(t4)~(t7)からそれぞれ抽出された関心部位(腫瘍)を用いて可動範囲画像を生成する。これにより、観察者は、呼吸状態ごとに腫瘍がどのように移動するかを一目で観察することができる。
 ここで、本実施形態に係る医用画像処理装置100においては、経時的に取得された複数位相のボリュームデータそれぞれを呼吸状態に応じて分類して、指定された呼吸状態に対応するボリュームデータの画像のみを表示させることも可能である。例えば、呼吸状態を「深い」、「普通」及び「浅い」などに分類して、それらの分類に基づいて、画像を表示することが可能である。かかる場合には、まず、入力部110が、所定の呼吸状態を指定するための操作を受付ける。例えば、入力部110は、3つの呼吸状態「深い」、「普通」及び「浅い」のうちユーザが所望する呼吸状態の選択操作を受付ける。
 そして、抽出部152は、入力部110によって受付けられた所定の呼吸状態に対応する位相の3次元医用画像データを抽出して、抽出した3次元医用画像データそれぞれから関心部位及び治療対象となる臓器をそれぞれ抽出する。例えば、入力部110によって「浅い」呼吸状態の選択が受付けられた場合には、抽出部152は、1呼吸周期分のボリュームデータの中から、「浅い」呼吸状態に対応する位相のボリュームデータを抽出して、抽出したボリュームデータそれぞれから関心領域及び治療対象となる臓器をそれぞれ抽出する。一例を挙げると、入力部110によって「浅い」呼吸状態の選択が受付けられた場合には、抽出部152は、図5に示す(t4)~(t7)のボリュームデータそれぞれを抽出することとなる。なお、各呼吸状態に対応する位相のボリュームデータは、肺の容積から判定される場合であってもよく、或いは、予め対応付けられている場合であってもよい。
 肺の容積から判定される場合には、例えば、各呼吸状態に対して肺の容積変化量の範囲を設定しておく。抽出部152は、入力部110から受付けた呼吸状態に設定された肺の容積変化量の範囲を読み出す。そして、抽出部152は、肺の容積変化が読み出した範囲内となるボリュームデータを、入力部110が受付けた呼吸状態に対応するボリュームとして抽出する。その後、抽出部152は、抽出したボリュームデータそれぞれから腫瘍などの関心部位及び治療対象となる臓器をそれぞれ抽出する。そして、画像生成部153は、抽出部152によって抽出された関心部位それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。
 また、表示制御部154は、呼期及び吸期それぞれに対応する位相の腫瘍の可動範囲を表示画像として表示させることも可能である。かかる場合には、画像生成部153は、抽出部152によって抽出された複数のボリュームデータそれぞれの肺の容積変化に基づいて、呼期及び吸期に対応する位相の腫瘍を、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。
 具体的には、画像生成部153は、まず、複数のボリュームデータそれぞれの肺の容積から容積変化曲線を生成する。そして、画像生成部153は、生成した容積変化曲線において、容積が減少している期間に対応する位相を呼期に相当する位相として判定し、それらの位相から抽出された腫瘍を用いて、可動範囲画像を生成する。また、画像生成部153は、生成した容積変化曲線において、容積が上昇している期間に対応する位相を吸期に相当する位相として判定し、それらの位相から抽出された腫瘍を用いて、可動範囲画像を生成する。表示制御部154は、呼期又は吸期として生成された可動範囲画像を肺野の画像に重畳させることで、呼期及び吸期それぞれで腫瘍がどのように移動するかを示す表示画像を観察者に提供することができる。
 図6A及び図6Bは、第1の実施形態に係る表示制御部154によって表示される呼期及び吸期それぞれの表示画像を示す図である。ここで、図6Aが、吸期における腫瘍の可動範囲を示した表示画像を示し、図6Bが呼期における腫瘍の可動範囲を示した表示画像を示す。
 例えば、表示制御部154は、図6Aに示すように、吸期に相当する位相の腫瘍を位相ごとに色分けして、肺野のVR画像に重畳させた表示画像を表示部120にて表示させる。また、例えば、表示制御部154は、図6Bに示すように、呼期に相当する位相の腫瘍を位相ごとに色分けして、肺野のVR画像に重畳させた表示画像を表示部120にて表示させる。
 このように、表示制御部154は、呼期及び吸期に対応する位相の可動範囲をそれぞれ表示することが可能である。これにより、表示制御部154は、さらに最大呼期及び最大吸期の位相の腫瘍の位置を反映させた表示画像を表示させることも可能である。
 また、表示制御部154は、治療対象となる臓器を示す画像を可動範囲画像の位相に切り替えた表示画像を表示部120にて表示させることができる。例えば、表示制御部154は、肺を示す画像を可動範囲画像の位相に切り替えた表示画像を表示部120にて表示させる。例えば、表示制御部154は、最大呼期に相当する肺野の画像に最大呼期の位相の腫瘍の重畳させた表示画像を表示する。また、表示制御部154は、最大吸期に相当する肺野の画像に最大吸期の位相の腫瘍の重畳させた表示画像を表示する。
 図7は、第1の実施形態に係る医用画像処理装置100による処理の手順を示すフローチャートである。図7に示すように、第1の実施形態に係る医用画像処理装置100においては、画像取得部151は、ITVの推定に用いられる複数位相のボリュームデータを取得する(ステップS101)。そして、抽出部152は、各位相のボリュームデータから関心部位及び治療対象となる臓器を抽出する(ステップS102)。
 続いて、画像生成部153は、操作者によって指定された位相の関心部位を用いて可動範囲画像を生成する(ステップS103)。そして、表示制御部154は、抽出部152によって抽出された治療対象となる臓器に可動範囲画像を重畳させ、関心部位を位相ごとに色分けした表示画像を表示部120にて表示させる(ステップS104)。
 その後、画像生成部153は、表示画像に表示させる関心部位の位相変更を受付けたか否かを判定する(ステップS105)。ここで、位相変更を受付けた場合には(ステップS105、Yes)、画像生成部153は、ステップS103に戻って、新たに指定された位相の関心部位を用いて可動範囲画像を生成する。一方、位相変更を受付けていない場合には(ステップS105、No)、表示制御部154は、表示画像の表示処理の終了指示を受け付けたか否かを判定する(ステップS106)。
 ここで、終了指示を受け付けていない場合には(ステップS106、No)、表示制御部154は、ステップS104に戻って、表示画像を継続して表示部120に表示させる。一方、終了指示を受け付けた場合には(ステップS106、Yes)、表示制御部154は、表示画像の表示を終了する。
 上述したように、第1の実施形態によれば、抽出部152は、経時的に収集された複数のボリュームデータそれぞれから関心部位(腫瘍)及び治療対象となる臓器(肺野)をそれぞれ抽出する。そして、画像生成部153は、抽出部152によって抽出された複数のボリュームデータそれぞれの腫瘍のうち、指定された複数位相の腫瘍それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。そして、表示制御部154は、抽出部152によって抽出された肺野を示す画像上に可動範囲画像を座標が対応するように重畳させた表示画像を表示部120にて表示させる。従って、第1の実施形態に係る医用画像処理装置100は、ITVを推定するための範囲(可動範囲)と呼吸状態(位相)との関係を明確にすることを可能にする。
 画像生成部153は、複数のボリュームデータそれぞれの腫瘍のうち、所定の呼吸状態に対応する位相の腫瘍それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。従って、第1の実施形態に係る医用画像処理装置100は、種々の呼吸状態と、腫瘍の可動範囲との関係を明確にすることを可能にする。
 また、第1の実施形態によれば、入力部110は、所定の呼吸状態を指定するための操作を受付ける。そして、抽出部152は、入力部110によって受付けられた所定の呼吸状態に対応する位相のボリュームデータを抽出して、抽出したボリュームデータそれぞれから関心部位及び治療対象となる臓器をそれぞれ抽出する。そして、画像生成部153は、抽出部152によって抽出された関心部位それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。従って、第1の実施形態に係る医用画像処理装置100は、ユーザが所望する呼吸状態に対応する位相のボリュームデータをすべて読み出し、それらの画像を表示させることができ、種々の呼吸状態と、腫瘍の可動範囲との関係の解析を容易にすることを可能にする。
 また、第1の実施形態によれば、抽出部152は、呼吸周期内の複数位相で収集された複数のボリュームデータそれぞれから腫瘍を抽出する。そして、画像生成部153は、抽出部152によって抽出された腫瘍それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。そして、表示制御部154は、治療対象となる肺野を示すMPR画像、オブリーク画像又はVR画像上に可動範囲画像を座標が対応するように重畳させた表示画像を表示部120にて表示させる。従って、第1の実施形態に係る医用画像処理装置100は、表示画像を2D及び3Dで観察させることを可能にする。
 また、第1の実施形態によれば、画像生成部153は、複数のボリュームデータそれぞれの腫瘍のうち、呼期及び吸期にそれぞれ対応する位相の腫瘍それぞれを、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。従って、第1の実施形態に係る医用画像処理装置100は、呼吸状態のうち、呼期及び吸期のそれぞれについて腫瘍の可動範囲を示すことを可能にする。
 また、第1の実施形態によれば、画像生成部は、指定された複数位相の腫瘍それぞれに対して異なる色を配色することで、位相を識別可能に特徴付ける。従って、第1の実施形態に係る医用画像処理装置100は、観察者に対して、可動範囲と呼吸状態との関係が一目で分かる表示画像を提供することを可能にする。
 また、第1の実施形態によれば、表示制御部154は、治療対象となる肺野を示す画像を可動範囲画像の位相に切り替えた表示画像を表示部120にて表示させる。従って、第1の実施形態に係る医用画像処理装置100は、肺野のどのような状態のときに可動範囲がどのようになるかを明確に識別させることを可能にする。
 また、第1の実施形態によれば、抽出部152は、治療対象となる臓器として肺を抽出する。そして、画像生成部153は、抽出部152によって抽出された複数のボリュームデータそれぞれの肺の容積変化に基づいて、最大呼期及び最大吸期に対応する位相の腫瘍を、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する。そして、表示制御部154は、肺を示す画像を可動範囲画像の位相に切り替えた表示画像を表示部120にて表示させる。従って、第1の実施形態に係る医用画像処理装置100は、肺が最大になる時点と最小になる時点との腫瘍の位置を表示することができ、腫瘍が最大でどの程度移動するかを明示することを可能にする。
(第2の実施形態)
 上述した第1の実施形態においては、医用画像処理装置が腫瘍の可動範囲を表示する場合について説明する。第2の実施形態では、図1に示す医用画像処理装置100を備えた放射線治療装置について説明する。
 図8は、第2の実施形態に係る放射線治療装置200の構成の一例を説明するための図である。図8に示すように、第2の実施形態にかかる放射線治療装置200は、天板1、スタンド2、ガントリ3、治療ヘッド4、放射線透視部5および制御装置6を有する。 
 天板1は、放射線治療の対象となる被検体Hが載置される寝台である。スタンド2は、ガントリ3を支持し、ガントリ3を回転させるための駆動装置を内部に備えている。ガントリ3は、天板1を挟んで対向するように治療ヘッド4と放射線透視部5とを支持しており、被検体Hが位置する水平方向の軸Gを中心に治療ヘッド4および放射線透視部5を移動させる。また、ガントリ3は、図示していない電子銃や導波ガイド等を内部に備えている。 
 治療ヘッド4は、被検体Hの治療に用いられる治療用放射線を発生する。具体的には、治療ヘッド4は、導波ガイド4a、ベンディングマグネット4b、ターゲット4cおよびコリメータ4dを内部に備えている。そして、ガントリ3の電子銃によって発生した電子線Lは、導波ガイド4aによって加速されたうえで、ベンディングマグネット4bに入射する。ベンディングマグネット4bは、入射した電子線Lの方向を下方に向けることで、電子線Lをターゲット4cに衝突させる。これにより、治療用放射線Nが発生する。発生した治療用放射線Nは、コリメータ4dによって照射形状や線量分布が調整されたうえで、被検体Hに照射される。 
 放射線透視部5は、被検体Hを透過した放射線を検出して、被検体Hの位置合せや患部領域の再確認を容易に行うための透視画像を撮影する。制御装置6は、放射線治療装置200全体を制御する。例えば、制御装置6は、操作者による指示に応じて、スタンド2が有する駆動装置を駆動することでガントリ3を回転させる。また、例えば、制御装置6は、放射線透視部5が有するカメラによって撮影された画像に対して所定の画像処理を施し、画像処理を施した画像を表示する。
 このような構成のもと、第2の実施形態に係る放射線治療装置200は、図1に示す医用画像処理装置100によって算出された腫瘍の可動範囲に基づいて、放射線の照射領域を決定する。例えば、制御装置6が、図1に示す制御部150を備え、制御部150によって導出された関心部位の可動範囲に基づいてITVを設定する。そして、制御装置6は、設定したITVに治療用放射線を照射する。
 上述したように、第2の実施形態に係る放射線治療装置200は、医用画像処理装置100によって算出された腫瘍の可動範囲に基づいて、ITVを決定し、決定したITVに治療用放射線を照射する。従って、第2の実施形態に係る放射線治療装置200は、ITVを小さくして、治療用放射線の照射領域を狭くすることができ、患者に対する負担を軽減することを可能にする。
(第3の実施形態)
 さて、これまで第1及び第2の実施形態について説明したが、上述した第1及び第2の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
 上述した第1の実施形態では、位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成して、肺野を示す画像上に可動範囲画像を座標が対応するように重畳させた表示画像を表示部120にて表示させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、本願の技術を用いてシミュレーションを行なう場合であってもよい。
 図9A~図9Cは、第3の実施形態に係るシミュレーションの一例を説明するための図である。ここで、図9A~図9Cにおいては、異なる呼吸の状態での可動範囲のシミュレーションを行なう場合について示す。なお、図9A及び図9Bにおいては、異なる呼吸状態における肺野の体積変化を示す。また、図9Cは、異なる呼吸状態における肺野の体積変化を示すグラフであり、縦軸に体積を示し、横軸に時間を示す。
 例えば、治療中においては、患者は安静呼吸をしているため、図9Aに示すように、患者の肺野の体積の変化は小さい。一方、検査時においては、患者は息を深く吸って深く吐くような呼吸をしているため、図9Bに示すように、患者の肺野の体積の変化は大きい。すなわち、図9Cの曲線31に示すように、安静呼吸をしている患者の肺野は、1呼吸する際の体積に大きな変化はない。しかしながら、深呼吸をしている患者の肺野は、図9Cの曲線32に示すように、1呼吸する際の体積に大きな変化がある。
 したがって、安静呼吸をしている場合と、深呼吸をしている場合とで、1呼吸する際の関心部位の動き方が異なる。例えば、安静呼吸の最大吸気時における3次元座標上の関心部位の位置と、深呼吸の最大吸気時における3次元座標上の関心部位の位置とでは、大きく異なっている。すなわち、検査時のデータ(安静呼吸時のデータ)を用いて腫瘍などの関心部位の可動範囲画像を作成し、呼吸のタイミングで治療時の画像に重畳させた場合、肺野がない部分に関心領域が重畳されてしまう場合がある。
 そこで、第3の実施形態に係る医用画像処理装置100では、治療時の患者の呼吸状態(1呼吸における肺野の大きさの変化がどの程度であるか)を画像から解析する。そして、医用画像処理装置100は、解析した呼吸状態に対応する関心領域の位置を、検査時のデータを用いてシミュレーションする。例えば、制御部150は、図9Cに示すように、曲線31のデータに基づいて、安静呼吸時における肺野の体積変化の範囲40を解析する。表示制御部154は、制御部150によって解析された範囲40に含まれる体積に対応する関心領域の位置のデータを曲線32のデータから取得する。
 すなわち、表示制御部154は、曲線31で示される各体積における3次元座標上の関心部位の位置それぞれを、曲線32で示される対応する体積における関心部位の位置からシミュレーションする。換言すると、第3の実施形態に係る医用画像処理装置100は、呼吸のタイミングで合わせるのではなく、治療対象となる臓器のサイズで合わせた表示画像を生成して表示する。このように、第3の実施形態に係る医用画像処理装置100は、最初の画像(例えば、検査時の画像)から関心部位の位置と、臓器の大きさのシミュレーションを行なうことができる。
 また、上記したように関心部位の位置のシミュレーションを行なった場合に、治療対象部位のなかで、関心部位が存在するであろう領域を表示させる場合であってもよい。例えば、表示制御部154は、抽出された関心部位について呼吸周期情報を用いて存在確率が高い領域を算出して、可動範囲画像として合わせて表示させるように制御する。
 上述した第1及び第2の実施形態では、位相として呼吸の深さを用いる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、位相として拍動の状態が用いられる場合であってもよい。
 上述した第1の実施形態では、CT画像を用いる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、MR画像などを用いる場合であってもよい。
 また、上述した第1の実施形態では、画像取得部151が、画像保管装置又は医用画像診断装置からボリュームデータを取得する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、医師がフラッシュメモリや外付けハードディスクなどの可搬性の記憶媒体でボリュームデータを持ち運び、医用画像処理装置100の画像データ記憶部141に格納する場合であってもよい。かかる場合、画像取得部151によるボリュームデータデータの取得は実行されなくてもよい。
 また、上述した第1の実施形態では、医用画像処理装置100について説明したが、実施形態はこれに限定されるものではなく、例えば、図1に示す医用画像処理装置100の記憶部140と制御部150とが医用画像診断装置に組み込まれ、医用画像診断装置にて上述した処理が実行される場合であってもよい。
 以上述べた少なくともひとつの実施形態の医用画像処理装置によれば、ITVを推定するための範囲と呼吸状態との関係を明確にすることを可能にする。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (10)

  1.  経時的に収集された複数の3次元医用画像データそれぞれから関心部位及び治療対象となる臓器をそれぞれ抽出する抽出部と、
     前記抽出部によって抽出された前記複数の3次元医用画像データそれぞれの関心部位のうち、指定された複数の位相の関心部位それぞれを、前記位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する生成部と、
     治療時の位相に対する前記治療対象となる臓器を示す画像上に前記治療時の可動範囲画像を座標が対応するように重畳させた表示画像を所定の表示部にて表示させる表示制御部と、
     を備える、医用画像処理装置。
  2.  前記生成部は、前記複数の3次元医用画像データそれぞれの関心部位から、前記治療時の呼吸状態に対応する位相の関心部位それぞれを、前記位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する、請求項1に記載の医用画像処理装置。
  3.  前記呼吸状態を指定するための操作を受付ける受付部をさらに備え、
     前記抽出部は、前記受付部によって受付けられた所定の呼吸状態に対応する位相の3次元医用画像データを抽出して、抽出した3次元医用画像データそれぞれから対応する関心部位及び治療対象となる臓器をそれぞれ抽出し、
     前記生成部は、前記抽出部によって抽出された関心部位それぞれを、前記位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する、請求項2に記載の医用画像処理装置。
  4.  前記表示制御部は、前記抽出された関心部位について呼吸周期情報を用いて存在確率が高い領域を算出し、可動範囲画像として合わせて表示する、請求項2に記載の医用画像処理装置。
  5.  前記抽出部は、呼吸周期内の複数位相で収集された複数の3次元医用画像データそれぞれから関心部位として腫瘍を抽出し、
     前記生成部は、前記抽出部によって抽出された腫瘍それぞれを、前記位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成し、
     前記表示制御部は、治療時の位相に対する前記治療対象となる臓器を示すMPR画像、オブリーク画像又はVR画像上に前記治療時の可動範囲画像を座標が対応するように重畳させた表示画像を所定の表示部にて表示させる、請求項1又は2に記載の医用画像処理装置。
  6.  前記生成部は、前記複数の3次元医用画像データそれぞれの関心部位のうち、呼期及び吸期にそれぞれ対応する位相の関心部位それぞれを、前記位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成する、請求項2又は3に記載の医用画像処理装置。
  7.  前記生成部は、前記指定された複数位相の関心部位それぞれに対して異なる色を配色することで、前記位相を識別可能に特徴付ける、請求項1に記載の医用画像処理装置。
  8.  前記表示制御部は、治療時の位相に対する前記治療対象となる臓器を示す画像を前記治療時の可動範囲画像の位相に切り替えた表示画像を所定の表示部にて表示させる、請求項1に記載の医用画像処理装置。
  9.  前記抽出部は、前記治療対象となる臓器として肺を抽出し、
     前記生成部は、前記抽出部によって抽出された前記複数の3次元医用画像データそれぞれの肺の容積変化に基づいて、最大呼期及び最大吸期に対応する位相の腫瘍を、前記位相を識別可能に特徴付けて、3次元座標上の抽出された位置に配置した可動範囲画像を生成し、
     前記表示制御部は、前記肺を示す画像を前記治療時の可動範囲画像の位相に切り替えた表示画像を所定の表示部にて表示させることを特徴とする請求項5に記載の医用画像処理装置。
  10.  請求項1~8のいずれか一項に記載の医用画像処理装置と、
     前記医用画像処理装置によって算出された腫瘍の可動範囲に基づいて、放射線の照射領域を決定する制御部と、
     を備える、放射線治療装置。
PCT/JP2013/073713 2012-09-03 2013-09-03 医用画像処理装置及び放射線治療装置 WO2014034949A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/632,789 US9504852B2 (en) 2012-09-03 2015-02-26 Medical image processing apparatus and radiation treatment apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012193564 2012-09-03
JP2012-193564 2012-09-03
JP2013-182609 2013-09-03
JP2013182609A JP6207936B2 (ja) 2012-09-03 2013-09-03 医用画像処理装置及び放射線治療装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/632,789 Continuation US9504852B2 (en) 2012-09-03 2015-02-26 Medical image processing apparatus and radiation treatment apparatus

Publications (1)

Publication Number Publication Date
WO2014034949A1 true WO2014034949A1 (ja) 2014-03-06

Family

ID=50183746

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/073713 WO2014034949A1 (ja) 2012-09-03 2013-09-03 医用画像処理装置及び放射線治療装置

Country Status (3)

Country Link
US (1) US9504852B2 (ja)
JP (1) JP6207936B2 (ja)
WO (1) WO2014034949A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018501866A (ja) * 2014-12-10 2018-01-25 エレクタ、インク.Elekta, Inc. 4次元画像情報を構成するための磁気共鳴投影
CN110831664A (zh) * 2017-05-11 2020-02-21 医科达有限公司 放射疗法期间考虑形状变化的系统和方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6415432B2 (ja) * 2013-06-18 2018-10-31 キヤノン株式会社 トモシンセシス撮影の制御装置、撮影装置、撮影システム、制御方法および当該制御方法をコンピュータに実行させるためのプログラム
US10413253B2 (en) * 2014-11-21 2019-09-17 Samsung Electronics Co., Ltd. Method and apparatus for processing medical image
JP6490417B2 (ja) * 2014-12-18 2019-03-27 株式会社東芝 動体追跡治療装置及び動体追跡治療プログラム
JP6877881B2 (ja) * 2015-04-27 2021-05-26 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線ct装置及び画像処理方法
JP6930638B2 (ja) * 2016-05-17 2021-09-01 コニカミノルタ株式会社 動態解析装置、動態解析プログラム、動態解析方法及び制御装置
JP6825229B2 (ja) * 2016-05-17 2021-02-03 コニカミノルタ株式会社 動態解析システム
KR101796868B1 (ko) * 2016-06-30 2017-11-16 가톨릭대학교 산학협력단 환자의 기하학적 관계를 이용한 호흡 연동 방사선 치료에서의 플래닝 페이즈 최적화 방법
JP7114348B2 (ja) * 2018-06-06 2022-08-08 キヤノンメディカルシステムズ株式会社 腫瘍位置表示装置及び放射線治療システム
JP7256719B2 (ja) * 2019-09-13 2023-04-12 富士フイルム株式会社 画像処理装置、撮影装置、画像処理方法、及び画像処理プログラム
US11983869B2 (en) * 2021-06-09 2024-05-14 Elekta, Inc. Feature-space clustering for physiological cycle classification
CN117710229A (zh) * 2023-12-18 2024-03-15 湖南半岛医疗科技有限公司 一种基于多模态的成像图融合叠加方法及相关装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0326242A (ja) * 1989-06-23 1991-02-04 Nec Corp 放射線治療機の照射野決定装置
JPH0824254A (ja) * 1994-07-15 1996-01-30 Toshiba Corp 治療計画装置
JPH0889589A (ja) * 1994-09-22 1996-04-09 Ge Yokogawa Medical Syst Ltd 放射線治療計画に用いる表示方法及び放射線治療計画装置
JP2002186678A (ja) * 2000-12-22 2002-07-02 Toshiba Corp 放射線治療システム
JP2004513735A (ja) * 2000-11-22 2004-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元立案標的容積

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3931792B2 (ja) 2002-11-08 2007-06-20 コニカミノルタホールディングス株式会社 時系列処理画像の表示装置及び表示方法
JP2010131315A (ja) 2008-12-08 2010-06-17 Toshiba Corp 医用画像処理装置及び医用画像処理プログラム
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP5777317B2 (ja) 2010-10-22 2015-09-09 株式会社東芝 医用画像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0326242A (ja) * 1989-06-23 1991-02-04 Nec Corp 放射線治療機の照射野決定装置
JPH0824254A (ja) * 1994-07-15 1996-01-30 Toshiba Corp 治療計画装置
JPH0889589A (ja) * 1994-09-22 1996-04-09 Ge Yokogawa Medical Syst Ltd 放射線治療計画に用いる表示方法及び放射線治療計画装置
JP2004513735A (ja) * 2000-11-22 2004-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元立案標的容積
JP2002186678A (ja) * 2000-12-22 2002-07-02 Toshiba Corp 放射線治療システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018501866A (ja) * 2014-12-10 2018-01-25 エレクタ、インク.Elekta, Inc. 4次元画像情報を構成するための磁気共鳴投影
US10791958B2 (en) 2014-12-10 2020-10-06 Elekta, Inc. Magnetic resonance projection imaging
US11064899B2 (en) 2014-12-10 2021-07-20 Elekta, Inc. Magnetic resonance projection for constructing four-dimensional image information
CN110831664A (zh) * 2017-05-11 2020-02-21 医科达有限公司 放射疗法期间考虑形状变化的系统和方法

Also Published As

Publication number Publication date
US9504852B2 (en) 2016-11-29
JP2014061292A (ja) 2014-04-10
JP6207936B2 (ja) 2017-10-04
US20150165235A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
JP6207936B2 (ja) 医用画像処理装置及び放射線治療装置
CN111938678B (zh) 一种成像系统和方法
CN105520716B (zh) 荧光镜图像的实时模拟
CN112584760A (zh) 用于对象摆位和图像引导手术的系统和方法
JP2016214725A (ja) 動態解析システム
CN102727236A (zh) 通过使用3d模型产生身体器官的医疗图像的方法和设备
US10433797B2 (en) Systems and methods for ultra low dose CT fluoroscopy
JP6349278B2 (ja) 放射線撮像装置、画像処理方法及びプログラム
US20130230228A1 (en) Integrated Image Registration and Motion Estimation for Medical Imaging Applications
KR20180044421A (ko) 교정 수술 계획에 사용하기 위해 의료용 임플란트를 가진 환자의 의료 영상화를 위한 시스템 및 방법
US20140093030A1 (en) X-ray ct system, image display device, and image display method
TW201944963A (zh) 醫用畫像處理裝置、治療系統及醫用畫像處理程式
JP6824641B2 (ja) X線ct装置
KR101525040B1 (ko) 시술 전 영상의 촬영 범위를 결정하기 위한 레퍼런스 영상 생성 방법 및 그 장치
JP2020127723A (ja) 放射線治療計画装置及び放射線治療計画方法
JP6855173B2 (ja) X線ct装置
Juraszczyk et al. Preliminary Study of Computer Aided Diagnosis Methodology for Modeling and Visualization the Respiratory Deformations of the Breast Surface
JP2016041166A (ja) X線診断装置、画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13833757

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13833757

Country of ref document: EP

Kind code of ref document: A1