WO2017086154A1 - 治療支援システム及びその動作方法、並びに治療支援プログラムを記憶した記憶媒体 - Google Patents

治療支援システム及びその動作方法、並びに治療支援プログラムを記憶した記憶媒体 Download PDF

Info

Publication number
WO2017086154A1
WO2017086154A1 PCT/JP2016/082528 JP2016082528W WO2017086154A1 WO 2017086154 A1 WO2017086154 A1 WO 2017086154A1 JP 2016082528 W JP2016082528 W JP 2016082528W WO 2017086154 A1 WO2017086154 A1 WO 2017086154A1
Authority
WO
WIPO (PCT)
Prior art keywords
treatment
data
patient
tomographic image
control unit
Prior art date
Application number
PCT/JP2016/082528
Other languages
English (en)
French (fr)
Inventor
禎治 西尾
明登 齋藤
靖 永田
麻紀子 水谷
大樹 橋本
永田 毅
秀正 前川
Original Assignee
みずほ情報総研 株式会社
国立大学法人広島大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by みずほ情報総研 株式会社, 国立大学法人広島大学 filed Critical みずほ情報総研 株式会社
Priority to CN201680055777.5A priority Critical patent/CN108025184B/zh
Priority to US15/765,983 priority patent/US10821301B2/en
Priority to KR1020187007233A priority patent/KR102041059B1/ko
Priority to EP16866156.9A priority patent/EP3378534B1/en
Publication of WO2017086154A1 publication Critical patent/WO2017086154A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • A61N5/1039Treatment planning systems using functional images, e.g. PET or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/105Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using a laser alignment system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source

Definitions

  • the present invention relates to a treatment support system for supporting treatment using radiation or the like, an operation method thereof, and a storage medium storing a treatment support program.
  • primary collation is performed from the reference image to the current image. Further, from a predetermined template area generated based on the result of the primary matching from one of the reference image or the current image, the result of the primary matching from the other of the reference image or the current image different from the generation source of the predetermined template area. Secondary matching is performed on a predetermined search target area generated based on the above.
  • Patent Document 2 a positioning apparatus that can perform positioning with high accuracy by shortening the positioning time has been studied (for example, see Patent Document 2).
  • the body surface of a patient is measured by three-dimensional measurement using measurement light and a camera. Then, the body surface reference position data acquired in advance and the body surface measurement position data acquired by the three-dimensional light measurement means at the time of treatment or examination are compared and collated to obtain a position and orientation conversion parameter. With this position and orientation conversion parameter, the position and angle of the patient support are adjusted so that the difference between the body surface reference position data and the body surface measurement position data falls within an allowable range.
  • An object of the present invention is to provide a system for supporting accurate treatment using radiation or the like while reducing the burden on a patient, an operation method thereof, and a storage medium storing the program.
  • the system includes a control unit, the control unit generates three-dimensional body data of a patient using data acquired from the three-dimensional measurement unit, and acquires a tomographic image of the patient from a body tomography measurement apparatus. , Performing an examination support process for aligning the three-dimensional body data and the tomographic image, and using the aligned tomographic image and the three-dimensional body data to determine the posture of the patient at the time of treatment A treatment plan support process for generating a treatment plan is executed, and a treatment support process for outputting a treatment instruction based on the posture defined in the treatment plan is executed.
  • an accurate treatment plan can be generated using not only the tomographic image but also the three-dimensional body data of the patient. Therefore, according to the said aspect, the exact treatment using a radiation etc. can be supported, reducing a patient's burden.
  • the control unit In the treatment support system, the control unit generates body contour data in the same format as the tomographic image based on the three-dimensional body data, and generates image data obtained by combining the body contour data and the tomographic image. It is preferable that the treatment plan support process is executed using the synthesized image data. Thereby, the treatment plan for performing an effective treatment can be generated in the same format in consideration of the body shape.
  • control unit reacquires the patient's 3D body data in the treatment support process, and the reacquired 3D body data and the 3D body data of the posture determined by the treatment plan It is preferable that the treatment instruction including the comparison result is output. Thus, treatment can be performed based on the posture at the time of creating the treatment plan.
  • control unit in the examination support process, determines the three-dimensional body data and the tomographic image based on the feature points included in the three-dimensional body data and the feature points included in the tomographic image. It is preferable to be configured to perform the above-mentioned alignment. This makes it possible to align the three-dimensional body data and the tomographic image using feature points such as the body shape.
  • the body tomography measuring device is configured to irradiate the patient with reference light for specifying coordinates of the tomographic image at the time of taking a tomographic image
  • the three-dimensional measuring unit includes:
  • the control unit is configured to take an image of the patient including the reference light irradiation position when generating the three-dimensional body data, and the control unit is configured to generate the three-dimensional body data based on the reference light irradiation position. It is configured to perform alignment with the tomographic image. Accordingly, it is possible to perform alignment between the three-dimensional body data and the tomographic image using the reference light.
  • control unit is configured to prompt the operator to re-take a tomographic image based on the comparison result. Thereby, when the change of a body type is large, reexamination can be urged.
  • the method includes generating three-dimensional body data of a patient using data acquired from a three-dimensional measurement unit by the control unit, acquiring the tomographic image of the patient from the body tomography measurement device, The control unit performs alignment between the three-dimensional body data and the tomographic image, and the patient's posture at the time of treatment using the tomographic image and the three-dimensional body data aligned by the control unit. And generating a treatment instruction based on the posture determined by the treatment plan.
  • a further aspect for solving the above problem provides a non-transitory computer-readable storage medium including a program for supporting treatment using a treatment support system.
  • the program generates, in the treatment support system, three-dimensional body data of a patient using data acquired from a three-dimensional measurement unit, acquires a tomographic image of the patient from a body tomography device, Performing alignment between the three-dimensional body data and the tomographic image, and generating a treatment plan that defines the posture of the patient at the time of treatment using the aligned tomographic image and the three-dimensional body data. And outputting a treatment instruction based on the posture defined in the treatment plan.
  • doctor as used herein includes any other medical personnel such as clinical radiologists and nurses who participate or assist in or perform at least one of diagnosis and treatment, as appropriate.
  • the treatment support system includes a CT imaging device 10, a radiation treatment device 15, a treatment support device 20, a treatment planning device 30, and a 3D camera 40. It has.
  • the CT imaging device 10 functions as a body tomography measurement device, scans an object using radiation or the like, and generates an internal image (CT image data) of the object processed using a computer (CT: Computed Tomography). ) Perform processing.
  • CT image data an internal image of the object processed using a computer
  • CT image data an internal image of the object processed using a computer
  • a computed tomography a plurality of CT images obtained by imaging a patient's body at predetermined image intervals are recorded.
  • the CT image is recorded in a medical image format (DICOM: Digital Imaging and Communication in Medicine).
  • the radiotherapy device 15 is a device for treating cancer and the like by irradiating the affected area with radiation.
  • the radiotherapy device 15 is provided with an irradiation device (gantry) that emits radiation and a treatment table on which a patient lies on his back or supine.
  • gantry irradiation device
  • the treatment planning apparatus 30 is a simulator for examining whether or not an appropriate dose has been prescribed by examining a radiation incident method on an affected part.
  • the treatment planning apparatus 30 acquires CT images (DICOM data) obtained by tomography at a predetermined image interval from the CT imaging apparatus 10. Then, the treatment planning apparatus 30 performs contour extraction from DICOM data using a known method, and generates CT contour information.
  • This CT contour information is composed of DICOM ROI (Region Of Interest) data, and the contour of a predetermined part (body surface, bone, affected area, risk organ, etc.) specified in a CT image (tomographic image) taken at a predetermined interval. This is data composed of a collection of points (coordinates) that constitute.
  • the treatment planning apparatus 30 is configured to determine the quality of the treatment beam, the incident direction, the irradiation range, the dose and the number of irradiations, etc. according to the body surface shape of the affected part, the shape and position of the affected part, and the positional relationship with the risk organ. Has been.
  • the treatment planning apparatus 30 includes a control unit 31 formed of a computer or the like, and includes an input unit such as a keyboard and a pointing device used by a doctor, and an output unit such as a display. When a treatment support program is executed in the treatment support system, the control unit 31 of the treatment plan apparatus 30 is configured to execute a treatment plan support process.
  • the 3D camera 40 functions as a three-dimensional measurement unit and includes an RGB photographing unit, a motion sensor, a depth sensor, and the like, and can recognize the position and movement of the subject. Then, the 3D camera 40 outputs a captured image of the subject. This captured image includes viewpoint movement and line-of-sight direction measured by a motion sensor and distance information (depth information) measured by a depth sensor for each subject included in the field of view. Thereby, a three-dimensional model can be reconstructed in consideration of the shooting positions of a plurality of shot images.
  • the treatment support apparatus 20 is a computer system that supports radiation therapy for a patient.
  • the treatment support apparatus 20 includes a control unit 21, a three-dimensional measurement information storage unit 22, a body contour information storage unit 23, a CT image information storage unit 24, and a composite information storage unit 25.
  • the treatment support apparatus 20 includes an input unit such as a keyboard and a pointing device used by a doctor for operation, and an output unit such as a display.
  • Each of the control unit 31 of the treatment planning device 30 and the control unit 21 of the treatment support device 20 operates according to, for example, a circuit, that is, one or more dedicated hardware circuits such as an ASIC and a computer program (software). It can be realized by one or more processing circuits or a combination of both.
  • the processing circuit includes a CPU and a memory (such as a ROM and a RAM) that stores a program executed by the CPU.
  • Memory or computer readable media includes any available media that can be accessed by a general purpose or special purpose computer.
  • the control unit 21 functions as a control unit composed of a CPU, a RAM, a ROM, and the like, and performs processing described later (processing including a three-dimensional measurement processing stage, a CT processing stage, a position adjustment stage, a treatment support stage, and the like).
  • processing including a three-dimensional measurement processing stage, a CT processing stage, a position adjustment stage, a treatment support stage, and the like.
  • the control unit 21 functions as a three-dimensional measurement processing unit 211, a CT processing unit 212, a position adjustment unit 213, a treatment support unit 214, and the like.
  • the processing executed by the control unit 21 includes examination support processing and treatment support processing.
  • the three-dimensional measurement processing unit 211 executes processing for acquiring a captured image from the 3D camera 40. Further, the three-dimensional measurement processing unit 211 performs processing for reconstructing the acquired captured image and generating a three-dimensional model (mesh model) of the patient's body. Further, the three-dimensional measurement processing unit 211 executes processing for generating body contour data described later from the three-dimensional model. For this reason, the three-dimensional measurement processing unit 211 holds data related to the contour generation interval used when generating body contour data from the three-dimensional model. In this embodiment, the same distance as the CT image capturing interval is used as the contour generation interval.
  • the CT processing unit 212 executes processing for acquiring a CT image from the treatment planning apparatus 30.
  • the position adjustment unit 213 executes a process for aligning the CT contour information generated from the CT image and the three-dimensional model generated from the captured image of the 3D camera 40.
  • the treatment support unit 214 executes processing for supporting alignment of the patient's posture and the like.
  • the treatment support unit 214 holds data relating to an arrangement difference amount for determining posture reproduction and data relating to a deformation reference value for determining a change in a patient's body shape.
  • three-dimensional measurement data 220 about an image obtained by photographing the patient to be treated with the 3D camera 40 is recorded.
  • the three-dimensional measurement data 220 is recorded when a captured image is acquired from the 3D camera 40 at the time of inspection (CT imaging).
  • CT imaging time of inspection
  • the three-dimensional measurement data 220 includes data related to the patient ID, the imaging date and time, and the captured image.
  • Data relating to an identifier for identifying a patient is recorded in the patient ID data area.
  • Data related to the date and time when the examination (CT imaging) was performed is recorded in the imaging date / time data area.
  • the photographed image data area data related to the photographed image acquired from the 3D camera 40 is recorded.
  • data relating to viewpoint movement, line-of-sight direction, and distance (depth) to the subject when the 3D camera 40 is moved is embedded.
  • a three-dimensional model (three-dimensional body data) relating to the patient's body shape is generated using this captured image.
  • body contour management data 230 for a three-dimensional model generated using a patient's captured image is recorded in the body contour information storage unit 23.
  • the body contour management data 230 is recorded when a three-dimensional model is reconstructed using a captured image.
  • the body contour management data 230 includes data related to patient ID, imaging date and time, and body contour information.
  • Data relating to an identifier for identifying a patient is recorded in the patient ID data area.
  • data related to the date and time when the CT image was taken is recorded in the imaging date / time data area.
  • the body contour information data area data related to the body contour generated based on the three-dimensional model acquired from the 3D camera 40 is recorded.
  • This body contour data is constituted by the contour of a three-dimensional model tomography at a tomographic interval at which a CT image is photographed in CT imaging.
  • the DICOM ROI format is used for the body contour data, similarly to the contour extraction result of the CT image.
  • CT image data 240 relating to the tomographic structure of the patient's body is recorded in the CT image information storage unit 24.
  • This CT image data 240 is imaged by the CT imaging apparatus 10 and is recorded when a CT image and contour information are acquired from the treatment planning apparatus 30.
  • the CT image data 240 includes data related to a patient ID, imaging date / time, imaging conditions, CT image, and contour extraction result.
  • Data relating to an identifier for identifying a patient is recorded in the patient ID data area.
  • data related to the date and time when the CT image was taken is recorded in the imaging date / time data area.
  • the imaging condition data area data relating to conditions (for example, image interval) when a CT image is captured is recorded.
  • a CT image tomographic image
  • the contour information (DICOM ROI data) extracted from this CT image is recorded in the contour extraction result data area.
  • This contour information is information indicating the position of the contour of a predetermined part (body surface, bone, affected area, risk organ, etc.) included in the CT image. Then, using this contour information, the shape of the body surface (CT body surface shape) represented by the image interval of the CT image (tomographic image) can be specified.
  • the composite information storage unit 25 stores composite management in which the body contour data generated using the captured image and the CT body surface shape generated using the CT image are aligned.
  • Data 250 is recorded.
  • the composition management data 250 is recorded when the three-dimensional model is aligned.
  • the composition management data 250 includes data related to patient ID, imaging date and time, and composition information.
  • Data relating to an identifier for identifying a patient is recorded in the patient ID data area.
  • data related to the date and time when the CT image of the patient is taken is recorded.
  • composite data obtained by combining the CT image and the body contour data based on the alignment of the CT body surface shape and the three-dimensional model is recorded.
  • DICOM ROI format is used for the composite data.
  • a CT image (DICOM data) and an outline extraction result (DICOM ROI data) captured using the CT imaging apparatus 10 are acquired. Then, the feature point of the body shape is specified in the contour extraction result. In addition, the affected area is specified in the CT image and the contour extraction result of the CT image.
  • a 3D camera 40 is used to acquire a captured image obtained by capturing the patient at the time of CT imaging. Then, a three-dimensional model is created using the photographed image, and a feature point of the body shape is specified in the three-dimensional model. Then, the CT image and the 3D model are aligned by comparing the feature points in the contour extraction result of the CT image with the feature points in the 3D model. By this alignment, composite data combining the CT image and the body contour data generated from the three-dimensional model is generated.
  • the three-dimensional model D1 photographed using the 3D camera 40 is aligned with the contour extraction result D2 of the CT image.
  • body contour data D11 obtained by extracting the contour of the tomogram is generated.
  • the body contour data D11 is aligned with the contour extraction result D2 of the CT image and the CT image.
  • a treatment plan is calculated by calculating the irradiation position, irradiation direction, and irradiation amount when irradiating radiation to the affected area of the CT image by simulation using the generated synthesized data.
  • the posture of the patient in the radiation therapy apparatus 15 is compared with the posture of the patient used in the treatment plan. Then, the treatment based on the treatment plan is performed using the radiotherapy device 15 on the condition that the postures match.
  • the control unit 21 of the treatment support apparatus 20 executes a captured image acquisition process (step S1-1). Specifically, the posture of the patient on the treatment table of the CT imaging apparatus 10 (the posture at the time of examination) is imaged using the 3D camera 40. In this case, imaging is performed including the treatment table of the CT imaging apparatus 10. And the three-dimensional measurement process part 211 of the control part 21 acquires imaging
  • the control unit 21 of the treatment support apparatus 20 executes a reconfiguration process (step S1-2). Specifically, the three-dimensional measurement processing unit 211 of the control unit 21 uses the captured image of the three-dimensional measurement data 220 recorded in the three-dimensional measurement information storage unit 22 to move the viewpoint, the line-of-sight direction, and the depth in the virtual space. A three-dimensional model is generated by reconstructing using information. Next, in the three-dimensional model, the three-dimensional measurement processing unit 211 specifies a contour in a tomography at a contour generation interval (a tomographic interval in which a CT image is captured), and generates patient body contour data. The DICOM ROI format is used for the body contour data. Then, the three-dimensional measurement processing unit 211 records the generated body contour data in the body contour information storage unit 23 in association with the patient ID and the imaging date / time.
  • a contour generation interval a tomographic interval in which a CT image is captured
  • the control unit 21 of the treatment support apparatus 20 executes CT image acquisition processing (step S1-3). Specifically, the CT imaging apparatus 10 is used to perform a computed tomography process on a specific region of a patient to create a CT image (DICOM data). And the treatment plan apparatus 30 performs contour extraction using this CT image, and produces
  • the control unit 21 of the treatment support apparatus 20 executes alignment processing (step S1-4). Specifically, the position adjustment unit 213 of the control unit 21 aligns the three-dimensional model generated in step S1-2 in the direction of one side (height direction) of the treatment table reflected in the captured image. Then, the position adjustment unit 213 identifies feature points in the three-dimensional model. Further, the position adjustment unit 213 uses the contour extraction result recorded in the CT image information storage unit 24 to identify feature points in the contour information (CT body surface shape) related to the body surface. In the present embodiment, it is assumed that body feature points (for example, neck, armpits, etc.) are used.
  • body feature points for example, neck, armpits, etc.
  • the position adjustment unit 213 identifies the correspondence between the feature points of the three-dimensional model and the feature points of the CT body surface shape. In this case, the position adjustment unit 213 determines the size in the height direction in consideration of the image interval at the time of the computed tomography process, and reduces the total sum of the distances of the corresponding feature points so as to reduce the distance between the corresponding feature points. Determine placement with body surface shape.
  • alignment of the three-dimensional shapes of the body surfaces is performed by the ICP (Iterative Closest Point) method.
  • control unit 21 of the treatment support apparatus 20 executes an output process (step S1-5). Specifically, the position adjustment unit 213 of the control unit 21 replaces the three-dimensional model whose alignment has been completed with body contour data recorded in the body contour information storage unit 23. Then, the position adjustment unit 213 generates combined data obtained by combining the body contour data, the CT image, and the contour extraction result (including the organ, the affected part, and the like), and outputs the combined data to the treatment planning apparatus 30.
  • the treatment planning device 30 executes an affected part specifying process (step S2-1). Specifically, the treatment planning apparatus 30 outputs composite data including a CT image on the display. Then, the doctor confirms the CT image and designates the affected area (target) to be irradiated with radiation. The radiation quality of the treatment beam irradiated in the radiation therapy apparatus 15 is determined according to the type of the disease in the affected area. In this case, the treatment planning apparatus 30 acquires position information related to the affected area specified in the CT image and displays it so that it can be distinguished from other areas. Furthermore, the doctor confirms the CT image and designates a risk organ that should avoid radiation. In this case, the treatment planning apparatus 30 acquires position information related to the risk organ specified in the CT image and displays it so that it can be distinguished from other regions.
  • the treatment planning device 30 executes an irradiation position simulation process (step S2-2). Specifically, the treatment planning device 30 searches for an irradiation position at which the affected organ (target) can be irradiated without radiation being applied to the risk organ. In this case, in consideration of the head and limbs in the body contour information of the composite data, the irradiation position (incident direction, irradiation range) where the irradiation device does not contact these is determined.
  • the treatment planning device 30 executes a dose simulation process (step S2-3). Specifically, the treatment planning device 30 calculates the radiation dose necessary for treatment at this irradiation position. In this case, the treatment planning device 30 determines the dose and the number of irradiations according to the volume and depth of the affected part.
  • the treatment planning device 30 executes a treatment plan registration process (step S2-4). Specifically, the treatment planning device 30 stores the determined irradiation position and irradiation amount as a treatment plan. This treatment plan is used during treatment described later.
  • Treatment support processing Next, the treatment support process will be described with reference to FIG.
  • the patient is supine or supine on the treatment table of the radiation therapy apparatus 15.
  • control unit 21 of the treatment support apparatus 20 executes a call process for body information at the time of treatment planning (step S3-1). Specifically, the treatment support unit 214 of the control unit 21 acquires a captured image associated with the patient ID and the latest imaging date / time from the three-dimensional measurement information storage unit 22.
  • step S3-2 the control unit 21 of the treatment support apparatus 20 executes a captured image acquisition process (step S3-2). Specifically, as in step S1-1, the 3D camera 40 is used to photograph the posture of the patient in the radiation therapy apparatus 15 (the posture during treatment). In this case, the treatment support unit 214 of the control unit 21 acquires imaging data from the 3D camera 40 together with the patient ID.
  • the captured data includes data related to the captured image including viewpoint movement from a predetermined origin, line-of-sight direction, and depth information. Then, the treatment support unit 214 temporarily stores the imaging data.
  • the control unit 21 of the treatment support apparatus 20 executes a reconfiguration process (step S3-3). Specifically, the three-dimensional measurement processing unit 211 of the control unit 21 reconstructs the captured image acquired from the three-dimensional measurement information storage unit 22 using viewpoint movement, line-of-sight direction, and depth information in the virtual space. Thus, a three-dimensional model at the time of inspection is generated. Further, the three-dimensional measurement processing unit 211 generates a current three-dimensional model (at the time of treatment) by reconstructing the image data temporarily stored in the treatment support unit 214.
  • control unit 21 of the treatment support apparatus 20 executes an alignment process between the posture during examination and the posture during treatment (step S3-4). Specifically, the treatment support unit 214 of the control unit 21 performs matching between the current three-dimensional model and the three-dimensional model at the time of examination. Also in this case, the ICP method is used.
  • the control unit 21 of the treatment support apparatus 20 executes a determination process as to whether or not the posture is reproduced (step S3-5). Specifically, the treatment support unit 214 of the control unit 21 calculates the difference between the current three-dimensional model and the three-dimensional model at the time of examination. Here, it is determined that the posture is reproduced when the amount of difference in the arrangement of the feature points (head, limbs, neck, etc.) of the three-dimensional model is equal to or less than the reference value.
  • step S3-5 when it is determined that the disposition difference amount exceeds the reference value and the posture is not reproduced (“NO” in step S3-5), the control unit 21 of the treatment support apparatus 20 performs the posture adjustment instruction. Processing is executed (step S3-6). Specifically, the treatment support unit 214 of the control unit 21 outputs an instruction to change the posture of the patient on the display. In this case, the treatment support unit 214 superimposes and outputs the current three-dimensional model and the three-dimensional model at the time of examination. The doctor gives an instruction to correct the posture of the patient in consideration of the deviation of the body contour data. Then, the processing is restarted from the captured image acquisition process (step S3-2).
  • the control unit 21 of the treatment support apparatus 20 executes a determination process as to whether or not there is a change in body shape (Ste S3-7). Specifically, the treatment support unit 214 of the control unit 21 is based on the arrangement of the feature points of the three-dimensional model, and the deviation of the shape of the body contour data exceeds the reference value even though the posture is common. If so, it is determined that there is a change in body shape.
  • step S3-7 the control unit 21 of the treatment support apparatus 20 executes a deformation process (step S3-8). Specifically, the treatment support unit 214 of the control unit 21 calculates a deformation amount necessary for fitting the three-dimensional model at the time of the examination to the current three-dimensional model.
  • control unit 21 of the treatment support apparatus 20 executes a determination process as to whether or not it is within an allowable range (step S3-9). Specifically, the treatment support unit 214 of the control unit 21 compares the deformation amount with the deformation reference value. When the deformation amount is equal to or less than the deformation reference value, it is determined that the amount is within the allowable range.
  • step S3-10 the control unit 21 of the treatment support apparatus 20 executes an alarm process (step S3-10). Specifically, the treatment support unit 214 of the control unit 21 outputs an alarm on the display to prompt the doctor who is an operator to re-take a CT image. In response to the alarm, the doctor re-photographs the CT image using the 3D camera 40.
  • the treatment support device 20 executes a treatment start process (step S3-11). Specifically, the treatment support unit 214 of the control unit 21 acquires a treatment plan from the treatment planning device 30 and supplies the treatment plan to the radiation treatment device 15. In this case, the radiation therapy apparatus 15 performs radiation irradiation based on the treatment plan.
  • the control unit 21 of the treatment support apparatus 20 executes a captured image acquisition process (step S1-1) and a reconstruction process (step S1-2). Furthermore, the control unit 21 of the treatment support apparatus 20 executes CT image acquisition processing (step S1-3). Then, the control unit 21 of the treatment support apparatus 20 executes alignment processing (step S1-4) and output processing (step S1-5). Thereby, the synthetic
  • step S1-4 the correspondence between the feature points of the three-dimensional model and the feature points of the CT body surface shape is specified. Since the three-dimensional model has a large amount of information on the body surface, it can be accurately aligned.
  • the treatment plan apparatus 30 specifies the affected part identification process (step S2-1), the irradiation position simulation process (step S2-2), and the irradiation dose simulation process (step S2). -3) is executed.
  • a treatment plan can be created in consideration of the patient's body shape. For example, it is possible to create a treatment plan by irradiation from a position where the irradiation apparatus (gantry) does not contact the body surface of the patient and has little influence on the human body (a position suitable for treatment).
  • the control unit 21 of the treatment support apparatus 20 calls the physical information call process at the time of treatment planning (step S3-1), the captured image acquisition process (step S3-2), Reconfiguration processing (step S3-3) is executed.
  • the control unit 21 of the treatment support apparatus 20 executes alignment processing (step S3-4) between the posture at the time of examination and the posture at the time of treatment.
  • the control part 21 of the treatment assistance apparatus 20 performs the determination process about whether the attitude
  • step S3-7 the control unit 21 of the treatment support apparatus 20 executes a determination process as to whether there is a change in body shape (step S3-7).
  • the control unit 21 of the treatment support apparatus 20 executes a deformation process (step S3-8). Thereby, the change of a body shape can be considered.
  • control unit 21 of the treatment support apparatus 20 executes a determination process as to whether or not the change in body type is within an allowable range (step S3-9).
  • the control unit 21 of the treatment support apparatus 20 executes an alarm process (step S3-10).
  • the treatment support device 20 and the treatment plan device 30 are used to provide support during treatment planning and treatment.
  • the hardware configuration is not limited to this.
  • the treatment support apparatus 20 may have the function of the treatment planning apparatus 30 (treatment planning unit).
  • the control unit 21 of the treatment support apparatus 20 may be configured to execute a treatment plan support process as a treatment plan unit.
  • the 3D camera 40 is used as a 3D measurement unit that acquires 3D body data, but a 3D scanner or the like can also be used.
  • the control unit 21 of the treatment support apparatus 20 executes the alignment process (step S1-4). Specifically, the feature points of the body shape are used.
  • the alignment method is not limited to this.
  • reference light for example, laser light
  • a predetermined position coordinates representing the position of a tomographic image
  • a captured image of a patient part including the irradiation position of the reference light is used.
  • the body contour data and the CT image can be aligned by the irradiation position of the reference light.
  • the control unit 21 of the treatment support apparatus 20 performs a determination process as to whether or not the posture is reproduced (step S3-5). Further, when it is determined that the posture is reproduced (in the case of “YES” in step S3-5), the control unit 21 of the treatment support apparatus 20 performs a determination process as to whether or not there is a change in body shape (Ste S3-7).
  • the patient may be identified based on the body contour data. For example, a patient is specified using the relative positional relationship between a plurality of feature points. When the relative positional relationship is different between the examination and the treatment, an alarm is output.
  • the control unit 21 of the treatment support apparatus 20 performs a reconfiguration process (step S3-3), and an alignment process between the posture during examination and the posture during treatment (step S3-4). ).
  • the three-dimensional model created at the time of examination is compared with the three-dimensional model created based on the captured image at the time of treatment.
  • the alignment of the posture is not limited to using three-dimensional models (mesh models). For example, alignment may be performed using contour data and a mesh model. Further, the three-dimensional model created at the time of examination may be recorded in the body contour information storage unit 23 and called at the time of treatment.
  • the control unit 21 of the treatment support apparatus 20 executes the alignment process (step S1-4).
  • the correspondence between the feature points of the three-dimensional model and the feature points of the CT body surface shape is specified.
  • alignment may be performed using the body contour data recorded in the body contour information storage unit 23. In this case, it is possible to narrow down the feature points in the outline of the fault and perform the alignment efficiently.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Urology & Nephrology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radiation-Therapy Devices (AREA)

Abstract

治療を支援するためのシステムの制御部は、3次元計測部から取得したデータを用いて患者の3次元身体データを生成し、身体断層計測装置から患者の断層画像を取得し、3次元身体データと断層画像との位置合わせを行なう検査支援処理を実行し、位置合わせされた断層画像及び3次元身体データを用いて、治療時の患者の姿勢を定めた治療計画を生成する治療計画支援処理を実行し、治療計画で定められた姿勢に基づいて治療指示を出力する治療支援処理を実行する、ように構成されている。

Description

治療支援システム及びその動作方法、並びに治療支援プログラムを記憶した記憶媒体
 本発明は、放射線等を用いた治療を支援するための治療支援システム、及びその動作方法、並びに治療支援プログラムを記憶した記憶媒体に関する。
 がん治療を目的として、X線、ガンマ線、陽子や重イオンの粒子線等の放射線を用いた治療装置が検討されている。この治療装置においては、患部に集中的に照射することにより、正常細胞に影響を与えずに治療することが必要である。この場合、放射線や粒子線治療では、がんなどの患部に高精度に照射することが大切である。そこで、放射線治療の患者の位置決めを行なうための技術も検討されている(例えば、特許文献1を参照。)。この文献に記載の技術においては、3次元基準画像と3次元現在画像とを照合し、現在画像における患部の位置姿勢を基準画像における患部の位置姿勢に合うように体位補正量を計算する。具体的には、基準画像から現在画像に対して1次照合を行なう。更に、基準画像又は現在画像の一方から1次照合の結果に基づいて生成された所定のテンプレート領域から、所定のテンプレート領域の生成元とは異なる基準画像又は現在画像の他方から1次照合の結果に基づいて生成された所定の検索対象領域に対して、2次照合を行なう。
 また、位置決め時間が短縮され、精度の高い位置決めができる位置決め装置も検討されている(例えば、特許文献2を参照。)。この文献に記載の技術においては、計測光とカメラを用いた3次元計測により患者の体表面を計測する。そして、予め取得された体表面基準位置データと治療時又は検査時に3次元光計測手段で取得される体表面計測位置データとを比較照合し、位置姿勢変換パラメータを求める。この位置姿勢変換パラメータにより体表面基準位置データと体表面計測位置データとの差異が許容範囲になるように患者支持台の位置及び角度を調整する。
特開2012-254243号公報 特開2008-22896号公報
 しかしながら、特許文献1に記載された技術においては、複数回の画像撮影を行なうことになる。この場合には、複数回の放射線の照射により、患者の負担が大きくなる。また、特許文献2に記載された技術においては、検査時と治療時の姿勢を再現することができる。しかしながら、患者の姿勢の再現だけでは、患部領域を考慮した治療計画の作成は困難であった。また、治療時における照射効率を上げるため、患者の身体を照射装置に近づけた場合、照射装置に、患者の身体(例えば、腕等)が当たる可能性もある。
 本発明の目的は、患者の負担を軽減しながら、放射線等を用いた的確な治療を支援するためのシステム及びその動作方法、並びにそのプログラムを記憶した記憶媒体を提供することにある。
 上記課題を解決するための一態様は、治療を支援するためのシステムを提供する。該システムは、制御部を備えており、該制御部は、3次元計測部から取得したデータを用いて患者の3次元身体データを生成し、身体断層計測装置から前記患者の断層画像を取得し、前記3次元身体データと前記断層画像との位置合わせを行なう検査支援処理を実行し、位置合わせされた前記断層画像及び前記3次元身体データを用いて、治療時の前記患者の姿勢を定めた治療計画を生成する治療計画支援処理を実行し、前記治療計画で定められた姿勢に基づいて治療指示を出力する治療支援処理を実行するように構成されている。これにより、断層画像だけではなく、患者の3次元身体データを用いて、的確な治療計画を生成することができる。よって、上記態様によれば、患者の負担を軽減しながら、放射線等を用いた的確な治療を支援することができる。
 上記治療支援システムにおいて、前記制御部は、前記3次元身体データに基づき、前記断層画像と同じフォーマットの身体輪郭データを生成し、前記身体輪郭データと前記断層画像とを合成した画像データを生成し、前記合成した画像データを用いて前記治療計画支援処理を実行するように構成されていることが好ましい。これにより、同じフォーマットで、身体の形状を考慮して、効率的な治療を行なうための治療計画を生成することができる。
 上記治療支援システムにおいて、前記制御部は、前記治療支援処理において、患者の3次元身体データを再取得し、再取得した3次元身体データと前記治療計画で定められた姿勢の3次元身体データとを比較し、該比較の結果を含めた治療指示を出力するように構成されていることが好ましい。これにより、治療計画作成時の姿勢に基づいて、治療を行なうことができる。
 上記治療支援システムにおいて、前記制御部は、前記検査支援処理において、前記3次元身体データに含まれる特徴点と前記断層画像に含まれる特徴点とに基づいて前記3次元身体データと前記断層画像との位置合わせを行なうように構成されていることが好ましい。これにより、体型等の特徴点を用いて3次元身体データと断層画像との位置合わせを行なうことができる。
 上記治療支援システムにおいて、前記身体断層計測装置は、断層画像の撮影時に、前記断層画像の座標を特定するための基準光を前記患者に照射するように構成されており、前記3次元計測部は、3次元身体データの生成時に前記基準光の照射位置を含めて前記患者を撮影するように構成されており、前記制御部は、前記基準光の照射位置に基づいて、前記3次元身体データと前記断層画像との位置合わせを行なうように構成されている。これにより、基準光を用いて、3次元身体データと断層画像との位置合わせを行なうことができる。
 上記治療支援システムにおいて、前記制御部は、前記比較の結果に基づいて、断層画像の再撮影を操作者に促すように構成されていることが好ましい。これにより、体型の変化が大きい場合には、再検査を促すことができる。
 上記課題を解決するための別の態様は、治療を支援するためのシステムの動作方法を提供する。該方法は、制御部が3次元計測部から取得したデータを用いて患者の3次元身体データを生成することと、前記制御部が身体断層計測装置から前記患者の断層画像を取得することと、前記制御部が前記3次元身体データと前記断層画像との位置合わせを行なうことと、前記制御部が位置合わせされた前記断層画像及び前記3次元身体データを用いて、治療時の前記患者の姿勢を定めた治療計画を生成することと、前記制御部が前記治療計画で定められた姿勢に基づいて治療指示を出力することと、を備える。
 上記課題を解決するための更なる態様は、治療支援システムを用いて治療を支援するためのプログラムを含む非一時的なコンピュータ可読記憶媒体を提供する。前記プログラムは、前記治療支援システムに、3次元計測部から取得したデータを用いて患者の3次元身体データを生成することと、身体断層計測装置から前記患者の断層画像を取得することと、前記3次元身体データと前記断層画像との位置合わせを行なうことと、位置合わせされた前記断層画像及び前記3次元身体データを用いて、治療時の前記患者の姿勢を定めた治療計画を生成することと、前記治療計画で定められた姿勢に基づいて治療指示を出力することとを実行させる。
本実施形態のシステムの概略図。 (a)は図1のシステムの3次元計測情報記憶部に記録されたデータの説明図であり、(b)は図1のシステムの身体輪郭情報記憶部に記録されたデータの説明図であり、(c)は図1のシステムのCT画像情報記憶部に記録されたデータの説明図であり、(d)は図1のシステムの合成情報記憶部に記録されたデータの説明図。 図1のシステムにおける処理の概要の説明図。 (a)は図1のシステムにおける位置合わせ処理の説明図であって、3Dカメラによる3次元モデルとCT撮影領域との位置関係を示す説明図であり、(b)は図1のシステムにおける位置合わせ処理の説明図であって、3次元モデルから生成した身体輪郭データとCT撮影領域との位置関係を示す説明図。 (a)は図1のシステムにおける検査支援処理の処理手順の説明図であり、(b)は図1のシステムにおける治療計画支援処理の処理手順の説明図。 図1のシステムにおける治療支援処理の処理手順の説明図。
 以下、本発明を具体化した一実施形態を、図1~図6に従って説明する。本実施形態では、患者の体内の患部に対して放射線を照射して治療を行なう場合を想定する。なお、本明細書において「医師」との用語は、適切な場合、診断および治療の少なくとも一方に参加若しくは補助し、又は実行する診療放射線技師や看護師などのあらゆる他の医療従事者を含む。
 図1に示すように、このような放射線等を用いた治療を支援するために、治療支援システムは、CT撮影装置10、放射線治療装置15、治療支援装置20、治療計画装置30、3Dカメラ40を備えている。
 CT撮影装置10は、身体断層計測装置として機能し、放射線等を利用して物体を走査しコンピュータを用いて処理した物体の内部画像(CT画像データ)を生成するコンピュータ断層撮影(CT:Computed Tomography)処理を行なう。このコンピュータ断層撮影においては、患者の身体を、所定の画像間隔で撮影した複数のCT画像が記録される。このCT画像は、医用画像のフォーマット(DICOM:Digital Imaging and COmmunication in Medicine)により記録される。
 放射線治療装置15は、放射線を患部に照射することにより、がん等の治療を行なう装置である。この放射線治療装置15には、放射線を発する照射装置(ガントリ)や、患者が仰臥や背臥するための治療台が設けられている。
 治療計画装置30は、患部に対して放射線の入射方法を検討し、適切な線量が処方できているか確認するためのシミュレータである。この治療計画装置30は、CT撮影装置10から、所定の画像間隔で断層撮影したCT画像(DICOMデータ)を取得する。そして、治療計画装置30は、公知の方法を用いて、DICOMデータにおいて輪郭抽出を行ない、CT輪郭情報を生成する。このCT輪郭情報は、DICOM ROI(Region Of Interest)データにより構成されており、所定間隔で撮影したCT画像(断層画像)において特定した所定部位(体表面、骨、患部及びリスク臓器等)の輪郭を構成する点(座標)の集合体からなるデータである。
 この治療計画装置30は、患部の体表面形状、患部の形状、位置、リスク臓器との位置関係によって、治療ビームの線質、入射方向、照射範囲、線量・照射回数等を決定するように構成されている。この治療計画装置30は、コンピュータ等からなる制御部31を備えるとともに、医師が用いるキーボードやポインティングデバイス等の入力部や、ディスプレイ等の出力部を備える。治療支援システムにおいて治療支援プログラムが実行されるとき、治療計画装置30の制御部31は、治療計画支援処理を実行するように構成されている。
 3Dカメラ40は、3次元計測部として機能し、RGB撮影部、モーションセンサ、深度センサ等を備え、被写体の位置や動きを認識することができる。そして、3Dカメラ40は、被写体の撮影画像を出力する。この撮影画像には、視野に含まれる各被写体について、モーションセンサによって計測した視点移動及び視線方向や、深度センサによって計測した距離情報(深度情報)が含まれる。これにより、複数の撮影画像の撮影位置を考慮して、3次元モデルを再構成することができる。
 治療支援装置20は、患者の放射線治療を支援するコンピュータシステムである。この治療支援装置20は、制御部21、3次元計測情報記憶部22、身体輪郭情報記憶部23、CT画像情報記憶部24、合成情報記憶部25を備えている。更に、この治療支援装置20は、医師が操作に用いるキーボードやポインティングデバイス等の入力部や、ディスプレイ等の出力部を備える。
 治療計画装置30の制御部31及び治療支援装置20の制御部21はそれぞれ、たとえば回路(circuitry)、すなわち、ASICのような1つ以上の専用のハードウェア回路、コンピュータプログラム(ソフトウェア)に従って動作する1つ以上の処理回路、或いは両者の組み合わせによって実現することができる。処理回路は、CPUと、CPUによって実行されるプログラムを記憶したメモリ(ROM及びRAM等)とを有する。メモリすなわちコンピュータ可読媒体は、汎用または専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
 制御部21は、CPU、RAM、ROM等から構成された制御手段として機能し、後述する処理(3次元計測処理段階、CT処理段階、位置調整段階、治療支援段階等を含む処理)を行なう。治療支援システムにおいて治療支援プログラムが実行されることにより、制御部21は、3次元計測処理部211、CT処理部212、位置調整部213、治療支援部214等として機能する。制御部21により実行される処理は、検査支援処理及び治療支援処理を含む。
 3次元計測処理部211は、3Dカメラ40から撮影画像を取得する処理を実行する。更に、3次元計測処理部211は、取得した撮影画像を再構成して、患者の身体の3次元モデル(メッシュモデル)を生成する処理を実行する。更に、3次元計測処理部211は、3次元モデルから、後述する身体輪郭データを生成する処理を実行する。このため、3次元計測処理部211は、3次元モデルから、身体輪郭データを生成する場合に用いる輪郭生成間隔に関するデータを保持している。本実施形態では、この輪郭生成間隔として、CT画像の撮影間隔と同じ距離を用いる。
 CT処理部212は、治療計画装置30からCT画像を取得する処理を実行する。
 位置調整部213は、CT画像から生成したCT輪郭情報と、3Dカメラ40の撮影画像から生成した3次元モデルとの位置合わせを行なう処理を実行する。
 治療支援部214は、患者の姿勢等の位置合わせを支援する処理を実行する。治療支援部214は、姿勢の再現を判定するための配置相違量に関するデータと、患者の体型の変化を判定するためのデフォメーション基準値に関するデータを保持している。
 図2(a)に示すように、3次元計測情報記憶部22には、治療対象の患者を3Dカメラ40で撮影した画像についての3次元計測データ220が記録される。この3次元計測データ220は、検査(CT撮影)時に、3Dカメラ40から撮影画像を取得した場合に記録される。3次元計測データ220は、患者ID、撮影日時、撮影画像に関するデータを含んで構成される。
 患者IDデータ領域には、患者を特定するための識別子に関するデータが記録される。
 撮影日時データ領域には、検査(CT撮影)を行なった年月日及び時刻に関するデータが記録される。
 撮影画像データ領域には、3Dカメラ40から取得した撮影画像に関するデータが記録される。この撮影画像には、3Dカメラ40を動かした場合の視点移動、視線方向、被写体までの距離(深度)に関するデータが埋め込まれている。本実施形態では、この撮影画像を用いて、患者の身体形状に関する3次元モデル(3次元身体データ)を生成する。
 図2(b)に示すように、身体輪郭情報記憶部23には、患者の撮影画像を用いて生成した3次元モデルについての身体輪郭管理データ230が記録される。この身体輪郭管理データ230は、撮影画像を用いて3次元モデルの再構成を行なった場合に記録される。身体輪郭管理データ230は、患者ID、撮影日時、身体輪郭情報に関するデータを含んで構成される。
 患者IDデータ領域には、患者を特定するための識別子に関するデータが記録される。
 撮影日時データ領域には、CT画像を撮影した年月日及び時刻に関するデータが記録される。
 身体輪郭情報データ領域には、3Dカメラ40から取得した3次元モデルに基づいて生成された身体の輪郭に関するデータが記録される。この身体輪郭データは、CT撮影においてCT画像が撮影された断層間隔における3次元モデルの断層の輪郭によって構成される。本実施形態では、身体輪郭データには、CT画像の輪郭抽出結果と同様に、DICOM ROIフォーマットを用いる。
 図2(c)に示すように、CT画像情報記憶部24には、患者の身体の断層構造に関するCT画像データ240が記録される。このCT画像データ240は、CT撮影装置10において撮影され、治療計画装置30からCT画像や輪郭情報を取得した場合に記録される。CT画像データ240は、患者ID、撮影日時、撮影条件、CT画像、輪郭抽出結果に関するデータを含んで構成される。
 患者IDデータ領域には、患者を特定するための識別子に関するデータが記録される。
 撮影日時データ領域には、CT画像を撮影した年月日及び時刻に関するデータが記録される。
 撮影条件データ領域には、CT画像を撮影したときの条件(例えば、画像間隔)に関するデータが記録される。
 CT画像データ領域には、CT撮影装置10において撮影されたCT画像(断層画像)が記録される。
 輪郭抽出結果データ領域には、このCT画像から抽出した輪郭情報(DICOM ROIデータ)が記録される。この輪郭情報は、CT画像に含まれる所定部位(体表面、骨、患部及びリスク臓器等)の輪郭の位置を示す情報である。そして、この輪郭情報を用いて、CT画像(断層画像)の画像間隔で表された体表面の形状(CT体表面形状)を特定することができる。
 図2(d)に示すように、合成情報記憶部25には、撮影画像を用いて生成した身体輪郭データと、CT画像を用いて生成したCT体表面形状との位置合わせを行なった合成管理データ250が記録される。この合成管理データ250は、3次元モデルの位置合わせを行なった場合に記録される。合成管理データ250は、患者ID、撮影日時、合成情報に関するデータを含んで構成される。
 患者IDデータ領域には、患者を特定するための識別子に関するデータが記録される。
 撮影日時データ領域には、この患者についてのCT画像を撮影した年月日及び時刻に関するデータが記録される。
 合成情報データ領域には、CT体表面形状と3次元モデルとの位置合わせに基づいて、CT画像と身体輪郭データとを合成した合成データが記録される。本実施形態では、合成データには、DICOM ROIフォーマットを用いる。
 次に、上記のように構成された治療支援装置20を含む治療支援システムの動作方法の処理手順について、図3~図6を用いて説明する。
 (処理の概要)
 まず、図3を用いて、本実施形態の治療支援システムの処理の概要を説明する。
 検査時には、CT撮影装置10を用いて撮影したCT画像(DICOMデータ)及び輪郭抽出結果(DICOM ROIデータ)を取得する。そして、輪郭抽出結果において、体型の特徴点を特定する。また、CT画像やCT画像の輪郭抽出結果において患部領域を特定する。
 また、この検査時には、3Dカメラ40を用いて、CT撮影時の患者を撮影した撮影画像を取得する。そして、この撮影画像を用いて3次元モデルを作成し、この3次元モデルにおいて、体型の特徴点を特定する。そして、CT画像の輪郭抽出結果における特徴点と、3次元モデルにおける特徴点とを対比して、CT画像と3次元モデルとの位置合わせを行なう。この位置合わせにより、CT画像と、3次元モデルから生成した身体輪郭データとを合わせた合成データを生成する。
 図4(a)に示すように、3Dカメラ40を用いて撮影した3次元モデルD1と、CT画像の輪郭抽出結果D2との位置合わせを行なう。次に、図4(b)に示すように、3次元モデルD1において、断層の輪郭を抽出した身体輪郭データD11を生成する。この身体輪郭データD11は、CT画像の輪郭抽出結果D2やCT画像に位置合わせされている。これにより、合成データD3を用いて、CT撮影を行なっていない身体領域についても、同じデータフォーマット(DICOM ROIデータ)により形状を把握することが
できる。
 次に、治療計画時には、生成した合成データを用いたシミュレーションにより、CT画像の患部領域に対して放射線を照射する場合の照射位置や照射方向、照射量を算出した治療計画を生成する。
 治療時には、放射線治療装置15における患者の姿勢と、治療計画で用いた患者の姿勢を比較する。そして、姿勢が一致していることを条件として、放射線治療装置15を用いて、治療計画に基づいた治療を行なう。
 (検査支援処理)
 次に、図5(a)を用いて、検査支援処理を説明する。
 ここでは、治療支援装置20の制御部21は、撮影画像の取得処理を実行する(ステップS1-1)。具体的には、3Dカメラ40を用いて、CT撮影装置10の治療台上の患者の姿勢(検査時の姿勢)を撮影する。この場合、CT撮影装置10の治療台も含めて撮影する。そして、制御部21の3次元計測処理部211は、患者IDとともに、3Dカメラ40から撮影データを取得する。この撮影データには、所定の原点からの視点移動、視線方向、被写体(例えば、各ピクセル)までの深度情報を含めた撮影画像に関するデータを含める。そして、3次元計測処理部211は、患者ID、撮影日時に関連付けた撮影画像を含めた3次元計測データ220を3次元計測情報記憶部22に記録する。
 次に、治療支援装置20の制御部21は、再構成処理を実行する(ステップS1-2)。具体的には、制御部21の3次元計測処理部211は、3次元計測情報記憶部22に記録された3次元計測データ220の撮影画像を、仮想空間内で、視点移動、視線方向、深度情報を用いて再構成することにより、3次元モデルを生成する。次に、3次元計測処理部211は、3次元モデルにおいて、輪郭生成間隔(CT画像が撮影された断層間隔)における断層における輪郭を特定して、患者の身体輪郭データを生成する。この身体輪郭データには、DICOM ROIフォーマットを用いる。そして、3次元計測処理部211は、生成した身体輪郭データを、患者ID、撮影日時に関連付けて身体輪郭情報記憶部23に記録する。
 次に、治療支援装置20の制御部21は、CT画像の取得処理を実行する(ステップS1-3)。具体的には、CT撮影装置10を用いて、患者の特定領域についてコンピュータ断層撮影処理を行ない、CT画像(DICOMデータ)を作成する。そして、治療計画装置30は、このCT画像を用いて、輪郭抽出を行ない、輪郭抽出結果(DICOM ROIデータ)を生成する。治療支援装置20のCT処理部212は、治療計画装置30からCT画像、輪郭抽出結果を取得し、CT画像情報記憶部24に記録する。
 次に、治療支援装置20の制御部21は、位置合わせ処理を実行する(ステップS1-4)。具体的には、制御部21の位置調整部213は、ステップS1-2において生成した3次元モデルを、撮影画像に写り込んだ治療台の一辺方向(身長方向)で軸合わせを行なう。そして、位置調整部213は、3次元モデルにおける特徴点を特定する。更に、位置調整部213は、CT画像情報記憶部24に記録された輪郭抽出結果を用いて、体表面に関する輪郭情報(CT体表面形状)における特徴点を特定する。本実施形態では、体型の特徴点(例えば、首や脇等)を利用する場合を想定する。次に、位置調整部213は、3次元モデルの特徴点及びCT体表面形状の特徴点の対応関係を特定する。この場合、位置調整部213は、コンピュータ断層撮影処理時の画像間隔を考慮して、身長方向のサイズを決定し、対応する各特徴点の距離の総和が小さくなるように、3次元モデルとCT体表面形状との配置を決定する。ここでは、ICP(Iterative Closest Point)法によって、体表面の3次元形状同士(体表面を表す輪郭を構成する点群同士)の位置合わせを行なう。
 次に、治療支援装置20の制御部21は、出力処理を実行する(ステップS1-5)。具体的には、制御部21の位置調整部213は、位置合わせを完了した3次元モデルを、身体輪郭情報記憶部23に記録された身体輪郭データに置き換える。そして、位置調整部213は、身体輪郭データ、CT画像、輪郭抽出結果(臓器や患部等を含む)を合成した合成データを生成し、治療計画装置30に出力する。
 (治療計画支援処理)
 次に、図5(b)を用いて、治療計画支援処理を説明する。
 まず、治療計画装置30は、患部の特定処理を実行する(ステップS2-1)。具体的には、治療計画装置30は、ディスプレイに、CT画像を含めた合成データを出力する。そして、医師は、CT画像を確認して、放射線を照射する患部領域(標的)を指定する。この患部の疾患の種類により、放射線治療装置15において照射する治療ビームの線質を決める。この場合、治療計画装置30は、CT画像において指定された患部領域に関する位置情報を取得し、他の領域と識別できるように表示する。更に、医師は、CT画像を確認して、放射線の照射を避けるべきリスク臓器を指定する。この場合、治療計画装置30は、CT画像において指定されたリスク臓器に関する位置情報を取得し、他の領域と識別できるように表示する。
 次に、治療計画装置30は、照射位置のシミュレーション処理を実行する(ステップS2-2)。具体的には、治療計画装置30は、放射線がリスク臓器に照射されず、患部領域(標的)に照射できる照射位置を検索する。この場合、合成データの身体輪郭情報における頭部や四肢を考慮して、照射装置がこれらに接触しない照射位置(入射方向、照射範囲)を決定する。
 次に、治療計画装置30は、照射量のシミュレーション処理を実行する(ステップS2-3)。具体的には、治療計画装置30は、この照射位置において、治療に必要な放射線の照射量を計算する。この場合、治療計画装置30は、患部の体積や深さに応じて、線量・照射回数を決定する。
 次に、治療計画装置30は、治療計画の登録処理を実行する(ステップS2-4)。具体的には、治療計画装置30は、決定された照射位置、照射量を治療計画として記憶する。この治療計画は、後述する治療時に用いられる。
 (治療支援処理)
 次に、図6を用いて、治療支援処理を説明する。ここでは、患者は放射線治療装置15の治療台に仰臥又は背臥する。
 まず、治療支援装置20の制御部21は、治療計画時の身体情報の呼出処理を実行する(ステップS3-1)。具体的には、制御部21の治療支援部214は、3次元計測情報記憶部22から、患者ID、直近の撮影日時に関連付けられた撮影画像を取得する。
 次に、治療支援装置20の制御部21は、撮影画像の取得処理を実行する(ステップS3-2)。具体的には、ステップS1-1と同様に、3Dカメラ40を用いて、放射線治療装置15内の患者の姿勢(治療時の姿勢)を撮影する。この場合、制御部21の治療支援部214は、患者IDとともに、3Dカメラ40から撮影データを取得する。この撮影データには、所定の原点からの視点移動、視線方向、深度情報を含めた撮影画像に関するデータを含める。そして、治療支援部214は、撮影データを仮記憶する。
 次に、治療支援装置20の制御部21は、再構成処理を実行する(ステップS3-3)。具体的には、制御部21の3次元計測処理部211は、3次元計測情報記憶部22から取得した撮影画像を、仮想空間内で、視点移動、視線方向、深度情報を用いて再構成することにより、検査時の3次元モデルを生成する。更に、3次元計測処理部211は、治療支援部214に仮記憶された撮影データを用いて再構成することにより、現在(治療時)の3次元モデルを生成する。
 次に、治療支援装置20の制御部21は、検査時の姿勢と治療時の姿勢との位置合わせ処理を実行する(ステップS3-4)。具体的には、制御部21の治療支援部214は、現在の3次元モデルと、検査時の3次元モデルとのマッチングを行なう。この場合も、ICP法を用いる。
 次に、治療支援装置20の制御部21は、姿勢を再現しているかどうかについての判定処理を実行する(ステップS3-5)。具体的には、制御部21の治療支援部214は、現在の3次元モデルと検査時の3次元モデルとの差異を算出する。ここでは、3次元モデルの特徴点(頭や四肢、首等)の配置の配置相違量が基準値以下の場合には、姿勢を再現していると判定する。
 ここで、配置相違量が基準値を超えており、姿勢を再現していないと判定した場合(ステップS3-5において「NO」の場合)、治療支援装置20の制御部21は、姿勢調整指示処理を実行する(ステップS3-6)。具体的には、制御部21の治療支援部214は、ディスプレイに、患者の姿勢を変更する指示を出力する。この場合、治療支援部214は、現在の3次元モデルと検査時の3次元モデルとを重畳させて出力する。医師は、身体輪郭データのずれを考慮して、患者の姿勢を修正する指示を行なう。そして、撮影画像の取得処理(ステップS3-2)からやり直す。
 一方、姿勢を再現していると判定した場合(ステップS3-5において「YES」の場合)、治療支援装置20の制御部21は、体型の変化があるかどうかについての判定処理を実行する(ステップS3-7)。具体的には、制御部21の治療支援部214は、3次元モデルの特徴点の配置に基づいて、姿勢が共通しているにもかかわらず、身体輪郭データの形状のずれが基準値を超えている場合には、体型変化があると判定する。
 体型の変化があると判定した場合(ステップS3-7において「YES」の場合)、治療支援装置20の制御部21は、デフォメーション処理を実行する(ステップS3-8)。具体的には、制御部21の治療支援部214は、検査時の3次元モデルを、現在の3次元モデルにフィッティングするために必要な変形量を算出する。
 次に、治療支援装置20の制御部21は、許容範囲内かどうかについての判定処理を実行する(ステップS3-9)。具体的には、制御部21の治療支援部214は、変形量とデフォメーション基準値とを比較する。変形量がデフォメーション基準値以下の場合には、許容範囲内と判定する。
 許容範囲を超えていると判定した場合(ステップS3-9において「NO」の場合)、治療支援装置20の制御部21は、アラーム処理を実行する(ステップS3-10)。具体的には、制御部21の治療支援部214は、ディスプレイにアラームを出力して、操作者である医師にCT画像の再撮影を促す。医師は、アラームに応答して、3Dカメラ40を用いてCT画像の再撮影を行なう。
 一方、体型の変化がないと判定した場合(ステップS3-7において「NO」の場合)や、許容範囲内と判定した場合(ステップS3-9において「YES」の場合)、治療支援装置20の制御部21は、治療開始処理を実行する(ステップS3-11)。具体的には、制御部21の治療支援部214は、治療計画装置30から治療計画を取得し、放射線治療装置15に供給する。この場合、放射線治療装置15は、治療計画に基づいて、放射線照射を行なう。
 本実施形態の治療支援システムによれば、以下のような利点を得ることができる。
 (1)本実施形態の検査支援処理では、治療支援装置20の制御部21は、撮影画像の取得処理(ステップS1-1)、再構成処理(ステップS1-2)を実行する。更に、治療支援装置20の制御部21は、CT画像の取得処理を実行する(ステップS1-3)。そして、治療支援装置20の制御部21は、位置合わせ処理(ステップS1-4)、出力処理(ステップS1-5)を実行する。これにより、患者の身体形状についての身体輪郭データと、CT画像とを合わせた合成データを生成することができる。一般的には、CT画像は、患部領域の近傍のみを撮影するため、患者の身体全体を把握することができない。この合成データにより、患者の全体形状とともに、この全体形状における患部領域を把握することができる。
 この場合、位置合わせ処理(ステップS1-4)において、3次元モデルの特徴点及びCT体表面形状の特徴点の対応関係を特定する。3次元モデルは、体表面に関する情報量が多いので、的確に位置合わせを行なうことができる。
 (2)本実施形態の治療計画支援処理では、治療計画装置30は、患部の特定処理(ステップS2-1)、照射位置のシミュレーション処理(ステップS2-2)、照射量のシミュレーション処理(ステップS2-3)を実行する。これにより、患者の身体形状を考慮して、治療計画を作成することができる。例えば、照射装置(ガントリ)が患者の体表面に接触しない位置であって、人体への影響が少ない位置(治療に適した位置)からの照射による治療計画を作成することができる。
 (3)本実施形態の治療支援処理では、治療支援装置20の制御部21は、治療計画時の身体情報の呼出処理(ステップS3-1)、撮影画像の取得処理(ステップS3-2)、再構成処理(ステップS3-3)を実行する。次に、治療支援装置20の制御部21は、検査時の姿勢と治療時の姿勢との位置合わせ処理(ステップS3-4)を実行する。そして、治療支援装置20の制御部21は、姿勢を再現しているかどうかについての判定処理を実行する(ステップS3-5)。これにより、治療計画時の姿勢を再現していることを確認した上で、治療計画に基づいて治療を行なうことができる。
 (4)本実施形態の治療支援処理では、治療支援装置20の制御部21は、体型の変化があるかどうかについての判定処理を実行する(ステップS3-7)。体型の変化があると判定した場合(ステップS3-7において「YES」の場合)、治療支援装置20の制御部21は、デフォメーション処理を実行する(ステップS3-8)。これにより、体型の変化を考慮することができる。
 更に、治療支援装置20の制御部21は、体型の変化が許容範囲内かどうかについての判定処理を実行する(ステップS3-9)。体型の変化が許容範囲を超えていると判定した場合(ステップS3-9において「NO」の場合)、治療支援装置20の制御部21は、アラーム処理を実行する(ステップS3-10)。これにより、大きな体型変化が生じている場合には、治療計画の妥当性を判定することができる。
 また、上記実施形態は、以下のように変更してもよい。
 ・上記実施形態では、治療支援装置20、治療計画装置30を用いて、治療計画時や治療時の支援を行なう。ハードウェア構成は、これに限定されるものではない。例えば、治療支援装置20に治療計画装置30の機能(治療計画部)を持たせるようにしてもよい。この場合、治療支援装置20の制御部21が、治療計画部として、治療計画支援処理を実行するように構成されてもよい。
 ・上記実施形態では、3次元身体データの取得する3次元計測部として3Dカメラ40を用いたが、3Dスキャナ等を利用することも可能である。
 ・上記実施形態では、治療支援装置20の制御部21は、位置合わせ処理を実行する(ステップS1-4)。具体的には、体型の特徴点を利用する。位置合わせの手法は、これに限定されるものではない。例えば、CT撮影時に、患者における撮影範囲の所定位置(断層画像の位置を表わす座標)に基準光(例えばレーザー光)を照射し、この基準光の照射位置を含む患者の部位の撮影画像を利用する。この基準光の照射位置により、身体輪郭データとCT画像との位置合わせを行なうことができる。
 ・上記実施形態では、治療支援装置20の制御部21は、姿勢を再現しているかどうかについての判定処理を実行する(ステップS3-5)。更に、姿勢を再現していると判定した場合(ステップS3-5において「YES」の場合)、治療支援装置20の制御部21は、体型の変化があるかどうかについての判定処理を実行する(ステップS3-7)。ここで、身体輪郭データに基づいて、患者を識別するようにしてもよい。例えば、複数の特徴点の相対位置関係を用いて、患者を特定する。そして、検査時と治療時とで、相対位置関係が異なる場合には、アラームを出力する。
 ・上記実施形態では、治療支援処理において、治療支援装置20の制御部21は、再構成処理(ステップS3-3)、検査時の姿勢と治療時の姿勢との位置合わせ処理(ステップS3-4)を実行する。ここでは、検査時に作成した3次元モデルと、治療時の撮影画像に基づいて作成した3次元モデルとを比較する。姿勢の位置合わせは、3次元モデル(メッシュモデル)同士を用いる場合に限定されるものではない。例えば、輪郭データとメッシュモデルとを用いて位置合わせしてもよい。また、検査時に作成した3次元モデルを、身体輪郭情報記憶部23に記録しておき、治療時に呼び出すようにしてもよい。
 ・上記実施形態では、検査支援処理において、治療支援装置20の制御部21は、位置合わせ処理を実行する(ステップS1-4)。この場合、3次元モデルの特徴点及びCT体表面形状の特徴点の対応関係を特定する。ここで、身体輪郭情報記憶部23に記録された身体輪郭データを用いて、位置合わせを行なうようにしてもよい。この場合には、断層の輪郭における特徴点に絞り込んで、効率的に位置合わせを行なうことができる。

Claims (8)

  1.  治療を支援するためのシステムであって、
     3次元計測部から取得したデータを用いて患者の3次元身体データを生成し、
     身体断層計測装置から前記患者の断層画像を取得し、
     前記3次元身体データと前記断層画像との位置合わせを行なう検査支援処理を実行し、
     位置合わせされた前記断層画像及び前記3次元身体データを用いて、治療時の前記患者の姿勢を定めた治療計画を生成する治療計画支援処理を実行し、
     前記治療計画で定められた姿勢に基づいて治療指示を出力する治療支援処理を実行する、ように構成されている制御部を備える、システム。
  2.  前記制御部は、前記3次元身体データに基づき、前記断層画像と同じフォーマットの身体輪郭データを生成し、前記身体輪郭データと前記断層画像とを合成した画像データを生成し、前記合成した画像データを用いて前記治療計画支援処理を実行するように構成されている、請求項1に記載のシステム。
  3.  前記制御部は、前記治療支援処理において、患者の3次元身体データを再取得し、再取得した3次元身体データと前記治療計画で定められた姿勢の3次元身体データとを比較し、該比較の結果を含めた治療指示を出力するように構成されている、請求項1又は2に記載のシステム。
  4.  前記制御部は、前記検査支援処理において、前記3次元身体データに含まれる特徴点と前記断層画像に含まれる特徴点とに基づいて前記3次元身体データと前記断層画像との位置合わせを行なうように構成されている、請求項1~3の何れか一項に記載のシステム。
  5.  前記身体断層計測装置は、断層画像の撮影時に、前記断層画像の座標を特定するための基準光を前記患者に照射するように構成されており、
     前記3次元計測部は、3次元身体データの生成時に前記基準光の照射位置を含めて前記患者を撮影するように構成されており、
     前記制御部は、前記基準光の照射位置に基づいて、前記3次元身体データと前記断層画像との位置合わせを行なうように構成されている、請求項1~4の何れか一項に記載のシステム。
  6.  前記制御部は、前記比較の結果に基づいて、断層画像の再撮影を操作者に促すように構成されている、請求項3~5の何れか一項に記載のシステム。
  7.  治療を支援するためのシステムの動作方法であって、
     制御部が3次元計測部から取得したデータを用いて患者の3次元身体データを生成することと、
     前記制御部が身体断層計測装置から前記患者の断層画像を取得することと、
     前記制御部が前記3次元身体データと前記断層画像との位置合わせを行なうことと、
     前記制御部が位置合わせされた前記断層画像及び前記3次元身体データを用いて、治療時の前記患者の姿勢を定めた治療計画を生成することと、
     前記制御部が前記治療計画で定められた姿勢に基づいて治療指示を出力することと、を備える方法。
  8.  治療支援システムを用いて治療を支援するためのプログラムを含む非一時的なコンピュータ可読記憶媒体であって、
     前記プログラムは、前記治療支援システムに、
     3次元計測部から取得したデータを用いて患者の3次元身体データを生成することと、
     身体断層計測装置から前記患者の断層画像を取得することと、
     前記3次元身体データと前記断層画像との位置合わせを行なうことと、
     位置合わせされた前記断層画像及び前記3次元身体データを用いて、治療時の前記患者の姿勢を定めた治療計画を生成することと、
     前記治療計画で定められた姿勢に基づいて治療指示を出力することと
     を実行させる、非一時的なコンピュータ可読記憶媒体。
PCT/JP2016/082528 2015-11-18 2016-11-02 治療支援システム及びその動作方法、並びに治療支援プログラムを記憶した記憶媒体 WO2017086154A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680055777.5A CN108025184B (zh) 2015-11-18 2016-11-02 治疗支援系统及其动作方法、以及存储有治疗支援程序的存储介质
US15/765,983 US10821301B2 (en) 2015-11-18 2016-11-02 Treatment assistance system and operation method therefor, and storage medium for storing treatment assistance program
KR1020187007233A KR102041059B1 (ko) 2015-11-18 2016-11-02 치료 지원 시스템 및 이의 작동 방법, 및 치료 지원 프로그램을 기억하는 기억 매체
EP16866156.9A EP3378534B1 (en) 2015-11-18 2016-11-02 Treatment assistance system and operation method therefor, and storage medium for storing treatment assistance program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-226023 2015-11-18
JP2015226023A JP6164662B2 (ja) 2015-11-18 2015-11-18 治療支援システム、治療支援システムの動作方法及び治療支援プログラム

Publications (1)

Publication Number Publication Date
WO2017086154A1 true WO2017086154A1 (ja) 2017-05-26

Family

ID=58718028

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/082528 WO2017086154A1 (ja) 2015-11-18 2016-11-02 治療支援システム及びその動作方法、並びに治療支援プログラムを記憶した記憶媒体

Country Status (7)

Country Link
US (1) US10821301B2 (ja)
EP (1) EP3378534B1 (ja)
JP (1) JP6164662B2 (ja)
KR (1) KR102041059B1 (ja)
CN (1) CN108025184B (ja)
TW (1) TWI683652B (ja)
WO (1) WO2017086154A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181542A1 (ja) * 2018-03-20 2019-09-26 国立研究開発法人量子科学技術研究開発機構 医用画像処理装置、治療システム、および医用画像処理プログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108295384B (zh) * 2017-01-11 2020-02-28 南京中硼联康医疗科技有限公司 基于医学影像的组织元素质量比例解构方法及几何模型建立方法
US11273326B2 (en) 2017-06-29 2022-03-15 Canon Medical Systems Corporation Radiotherapy system and treatment support apparatus
JP7356211B2 (ja) * 2017-06-29 2023-10-04 キヤノンメディカルシステムズ株式会社 放射線治療システム
JP7036601B2 (ja) * 2018-01-16 2022-03-15 住友重機械工業株式会社 治療計画システム
JP2019141331A (ja) * 2018-02-21 2019-08-29 株式会社日立製作所 粒子線照射システムおよび照射計画装置
JP6606643B2 (ja) * 2018-03-09 2019-11-20 愛知県 患者位置補正方法
JP7126158B2 (ja) * 2018-06-25 2022-08-26 株式会社日立製作所 放射線治療システム、プログラムおよび放射線治療システムの作動方法
JP7222673B2 (ja) * 2018-11-20 2023-02-15 株式会社日立製作所 粒子線治療装置およびその制御方法
KR20200075623A (ko) * 2018-12-18 2020-06-26 (주)제노레이 2차원 의료 영상 및 3차원 의료 영상의 정합을 이용한 치과 치료 계획 장치 및 방법
CN109464757B (zh) 2018-12-29 2021-07-20 上海联影医疗科技股份有限公司 一种确定目标对象位置的方法、系统、装置及存储介质
DE102019203192A1 (de) * 2019-03-08 2020-09-10 Siemens Healthcare Gmbh Erzeugung eines digitalen Zwillings für medizinische Untersuchungen
EP3750481A1 (en) * 2019-06-13 2020-12-16 RaySearch Laboratories AB System and method for providing an extended image of a patient
KR102256164B1 (ko) * 2019-08-06 2021-05-26 한국수력원자력 주식회사 모의피폭체 제작을 위한 영상합성방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030112922A1 (en) * 2001-11-05 2003-06-19 Computerized Medical Systems, Inc. Apparatus and method for registration, guidance and targeting of external beam radiation therapy
JP2009526620A (ja) * 2006-02-14 2009-07-23 アキュレイ・インコーポレーテッド 適応x線制御
US20110107270A1 (en) * 2009-10-30 2011-05-05 Bai Wang Treatment planning in a virtual environment
US20130090547A1 (en) * 2011-10-07 2013-04-11 Siemens Medical Solutions Usa, Inc. Combined Imaging Modalities for Radiation Treatment Planning

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022896A (ja) * 2006-07-18 2008-02-07 Mitsubishi Electric Corp 位置決め装置
US7869562B2 (en) * 2008-05-19 2011-01-11 Siemens Aktiengesellschaft Automatic patient positioning system
JP2010246883A (ja) 2009-03-27 2010-11-04 Mitsubishi Electric Corp 患者位置決めシステム
US10426554B2 (en) * 2011-04-29 2019-10-01 The Johns Hopkins University System and method for tracking and navigation
JP5693388B2 (ja) * 2011-06-10 2015-04-01 三菱電機株式会社 画像照合装置、患者位置決め装置及び画像照合方法
MX2014002153A (es) * 2011-08-30 2014-05-01 Koninkl Philips Nv Integracion de entradas de usuario y correcion de campo de vector de deformacion en la dinamica de trabajo del registro deformable de imagenes.
JP6529264B2 (ja) * 2014-01-22 2019-06-12 株式会社日立ハイテクサイエンス 荷電粒子ビーム装置および試料観察方法
JP6316078B2 (ja) * 2014-04-23 2018-04-25 三菱電機株式会社 患者位置決めシステム、および位置ずれ量算出方法
JP6656841B2 (ja) * 2015-08-11 2020-03-04 キヤノンメディカルシステムズ株式会社 放射線治療システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030112922A1 (en) * 2001-11-05 2003-06-19 Computerized Medical Systems, Inc. Apparatus and method for registration, guidance and targeting of external beam radiation therapy
JP2009526620A (ja) * 2006-02-14 2009-07-23 アキュレイ・インコーポレーテッド 適応x線制御
US20110107270A1 (en) * 2009-10-30 2011-05-05 Bai Wang Treatment planning in a virtual environment
US20130090547A1 (en) * 2011-10-07 2013-04-11 Siemens Medical Solutions Usa, Inc. Combined Imaging Modalities for Radiation Treatment Planning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3378534A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181542A1 (ja) * 2018-03-20 2019-09-26 国立研究開発法人量子科学技術研究開発機構 医用画像処理装置、治療システム、および医用画像処理プログラム
JP2019162379A (ja) * 2018-03-20 2019-09-26 国立研究開発法人量子科学技術研究開発機構 医用画像処理装置、治療システム、および医用画像処理プログラム
TWI688373B (zh) * 2018-03-20 2020-03-21 日商東芝能源系統股份有限公司 醫用畫像處理裝置、治療系統及醫用畫像處理程式
JP6996711B2 (ja) 2018-03-20 2022-01-17 国立研究開発法人量子科学技術研究開発機構 医用画像処理装置、治療システム、および医用画像処理プログラム

Also Published As

Publication number Publication date
EP3378534A1 (en) 2018-09-26
TWI683652B (zh) 2020-02-01
EP3378534B1 (en) 2020-09-02
CN108025184B (zh) 2020-08-07
KR102041059B1 (ko) 2019-11-05
JP2017093516A (ja) 2017-06-01
KR20180040664A (ko) 2018-04-20
US10821301B2 (en) 2020-11-03
US20190308033A1 (en) 2019-10-10
CN108025184A (zh) 2018-05-11
TW201720374A (zh) 2017-06-16
EP3378534A4 (en) 2019-05-15
JP6164662B2 (ja) 2017-07-19

Similar Documents

Publication Publication Date Title
JP6164662B2 (ja) 治療支援システム、治療支援システムの動作方法及び治療支援プログラム
JP7120584B2 (ja) 被検体の位置決め装置、被検体の位置決め方法、被検体の位置決めプログラムおよび放射線治療システム
JP5693388B2 (ja) 画像照合装置、患者位置決め装置及び画像照合方法
US20130251099A1 (en) Method and system for automatic patient identification
WO2017195797A1 (ja) 医用画像診断装置
TWI545521B (zh) Radiation therapy simulator
JP6565080B2 (ja) 放射線治療装置、その作動方法及びプログラム
JP6305250B2 (ja) 画像処理装置、治療システム及び画像処理方法
US20220054862A1 (en) Medical image processing device, storage medium, medical device, and treatment system
US9254106B2 (en) Method for completing a medical image data set
JP5401240B2 (ja) 放射線治療システム
JP2021142146A (ja) 医用画像処理装置、医用装置、治療システム、医用画像処理方法、およびプログラム
US20220148180A1 (en) Medical image processing device, storage medium, medical device, and treatment system
JP6278483B2 (ja) 治療支援システム、治療支援システムの動作方法及び治療支援プログラム
CN111954494B (zh) 医用图像处理装置、医用图像处理方法及记录介质
CN114080645A (zh) 具有自动的基础事实生成的自学习分布式系统
JP7451285B2 (ja) 放射線治療装置
CN110215621B (zh) 外轮廓提取方法和装置、治疗系统、计算机存储介质
JP2022009468A (ja) 位置決め装置および位置決め方法
JP2021171483A (ja) 治療支援装置及び治療支援プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16866156

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20187007233

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE