CN111918697A - 医用图像处理装置、治疗系统以及医用图像处理程序 - Google Patents

医用图像处理装置、治疗系统以及医用图像处理程序 Download PDF

Info

Publication number
CN111918697A
CN111918697A CN201980018104.6A CN201980018104A CN111918697A CN 111918697 A CN111918697 A CN 111918697A CN 201980018104 A CN201980018104 A CN 201980018104A CN 111918697 A CN111918697 A CN 111918697A
Authority
CN
China
Prior art keywords
image
marker
processing apparatus
image processing
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980018104.6A
Other languages
English (en)
Other versions
CN111918697B (zh
Inventor
平井隆介
田口安则
坂田幸辰
冈屋庆子
森慎一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Energy Systems and Solutions Corp
Publication of CN111918697A publication Critical patent/CN111918697A/zh
Application granted granted Critical
Publication of CN111918697B publication Critical patent/CN111918697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1064Monitoring, verifying, controlling systems and methods for adjusting radiation treatment in response to monitoring
    • A61N5/1065Beam adjustment
    • A61N5/1067Beam adjustment in real time, i.e. during treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/587Alignment of source unit to detector unit
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/589Setting distance between source unit and patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1001X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy using radiation sources introduced into or applied onto the body; brachytherapy
    • A61N5/1007Arrangements or means for the introduction of sources into the body
    • A61N2005/1012Templates or grids for guiding the introduction of sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1051Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an active marker
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1056Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam by projecting a visible image of the treatment field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Radiation-Therapy Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

实施方式的医用图像处理装置具有第一图像取得部与追踪部。第一图像取得部取得患者的透视图像作为第一图像。追踪部基于从多个方向观察留置于所述患者的体内的被拍摄体而得到的多个所述被拍摄体的图像即被拍摄体图像中共同的第一特征,追踪所述第一图像中拍摄到的所述被拍摄体。

Description

医用图像处理装置、治疗系统以及医用图像处理程序
技术领域
本发明的实施方式涉及医用图像处理装置、治疗系统以及医用图像处理程序。
本申请基于2018年03月12日在日本提出申请的特愿2018-044793号主张优先权,此处引用其内容。
背景技术
放射线治疗是通过对位于患者体内的病灶照射放射线而破坏该病灶治疗方法。此时,放射线需要准确地照射到病灶的位置。这是因为,若对患者的体内的正常组织照射放射线,则有时会对该正常组织带来影响。因此,在进行放射线治疗时,首先,在治疗计划的阶段预先进行计算机断层拍摄(Computed Tomography:CT),三维地掌握位于患者体内的病灶的位置。然后,基于掌握到的病灶的位置,以减少向正常组织的照射的方式计划照射放射线的方向、所照射的放射线的强度。之后,在治疗的阶段,使患者的位置与治疗计划的阶段的患者的位置相对应,按照在治疗计划的阶段计划出的照射方向、照射强度向病灶照射放射线。
在治疗阶段中的患者的对位中,在即将开始治疗之前,进行以使患者躺在诊床的状态拍摄到的患者的体内的透视图像、以及根据治疗计划时所拍摄的三维的CT图像虚拟地重建了透视图像而得的数字重建X射线照片(Digitally Reconstructed Radiograph:DRR)图像之间的图像对照,求出各个图像之间的患者的位置的偏移。然后,基于求出的患者的位置的偏移使诊床移动。由此,患者的体内的病灶、骨骼等位置可与治疗计划时对准。
通过搜索CT图像中的位置而求出患者的位置的偏移,以重建与透视图像最相似的DRR图像。提出了很多通过计算机使患者的位置的搜索自动化的方法。但是,最终由利用者(医生等)比较透视图像与DRR图像来确认自动搜索到的结果。然后,一旦取得利用者(医生等)的确认,就进行放射线的照射。
但是,患者的体内的病灶有时位于肺、肝脏等因患者的呼吸、心跳的动作而移动的器官。在该情况下,在放射线的照射中也必须确定病灶的位置。作为确定病灶的位置的方法,有在放射线的照射中也拍摄患者的透视运动图像并基于透视图像来追踪患者体内的病灶的方法。另外,在患者体内的病灶未清晰地映于透视图像的情况下等,也有追踪通过经皮手术留置于患者体内的标记来间接地确定病灶的位置的方法。而且,作为照射放射线的方法,有跟踪病灶的位置来照射的跟踪照射、在病灶来到治疗计划时的位置时进行照射的埋伏照射等。这些照射放射线的方法被称作呼吸同步照射方法。
留置于患者的体内的标记为金属制,在透视图像中被很暗地映出,所以可视性较高。这是因为,拍摄透视图像时使用的X射线等有容易被金属吸收的性质。因此,在标记的追踪中进行如下处理,准备预先拍摄了标记的图像作为模板,通过模板匹配检测在治疗阶段拍摄到的透视图像内的标记的位置。
然而,留置于患者的体内的标记的形状有球型、棒型、楔型等各种形状。在标记是球型的情况下,映在透视图像内的标记的图像无论标记的三维空间内的姿势如何都为圆形。因此,球型的标记能够通过模板匹配容易地检测出位置。然而,球型的标记有时在患者的日常的生活中会移动。即,在标记为球型的情况下,有时在治疗计划的阶段时的位置和治疗阶段时的位置偏离。若标记的位置偏离,则治疗阶段中照射的放射线不会准确地照射到病灶的位置。因此,近年来,采用容易留在患者的体内的棒型、楔型的标记等非球型的标记的机会增加。但是,在标记是棒型、楔型的情况下,映在透视图像内的标记的图像因标记的三维空间内的姿势而变化成各种形状。因此,基于模板匹配的棒型、楔型的标记的位置检测比检测球型标记的位置更难。
因此,作为追踪映在透视图像内的标记的方法的一个例子,例如有专利文献1所公开的方法。在专利文献1所公开的方法中,准备多个从各种角度拍摄到的标记的图像作为模板,通过与各个模板的模板匹配,检测出在治疗阶段拍摄到的透视图像内的标记的位置。然而,在专利文献1所公开的方法中,需要多个模板与透视图像内的标记之间的相似度的计算。因此,在专利文献1所公开的方法中,有标记追踪的实时性降低这一问题。另外,在专利文献1所公开的方法中,由于与实际的标记的图像大不相同的模板也被使用于模板匹配,因此也可以认为存在与透视图像所含的标记以外的图像相似度较高的模板。在该情况下,在专利文献1所公开的方法中,认为将透视图像所含的标记以外的图像作为标记检测而追踪的可能性提高。
现有技术文献
专利文献
专利文献1:日本特开2016-131737号公报
发明内容
发明将要解决的课题
本发明的一个方式将要解决的课题在于,提供能够在放射线治疗中根据正在照射放射线的患者的透视图像自动地追踪留置于患者的体内的标记的医用图像处理装置、治疗系统以及医用图像处理程序。
用于解决课题的手段
本实施方式的一方式的医用图像处理装置具有第一图像取得部与追踪部。第一图像取得部取得患者的透视图像作为第一图像。追踪部基于从多个方向观察留置于所述患者的体内的被拍摄体而得到的多个所述被拍摄体的图像即被拍摄体图像中共同的第一特征,追踪所述第一图像中拍摄到的所述被拍摄体。
发明效果
根据上述方式,能够提供可根据放射线治疗中正在照射放射线的患者的透视图像来自动地追踪留置于患者的体内的标记的医用图像处理装置、治疗系统以及医用图像处理程序。
附图说明
图1是表示具备第一实施方式的医用图像处理装置的治疗系统的概略构成的框图。
图2是表示第一实施方式的医用图像处理装置的概略构成的框图。
图3是表示构成第一实施方式的医用图像处理装置的学习装置的动作的流程的流程图。
图4是表示构成第一实施方式的医用图像处理装置的运动体追踪装置的动作的流程的流程图。
图5是用于说明具备第一实施方式的医用图像处理装置的治疗系统中的放射线的照射路径与标记的关系的图。
图6是表示第二实施方式的医用图像处理装置的概略构成的框图。
图7A是表示构成第二实施方式的医用图像处理装置的学习装置的动作的流程的流程图。
图7B是表示构成第二实施方式的医用图像处理装置的学习装置的动作的流程的流程图。
图8是在构成第二实施方式的医用图像处理装置的学习装置中提取的标记的图像的一个例子的图。
图9是表示第三实施方式的医用图像处理装置的概略构成的框图。
图10是表示第三实施方式的医用图像处理装置所显示的信息的图。
图11是表示第四实施方式的医用图像处理装置的概略构成的框图。
图12A是表示构成第四实施方式的医用图像处理装置的运动体追踪装置的动作的流程的流程图。
图12B是表示构成第四实施方式的医用图像处理装置的运动体追踪装置的动作的流程的流程图。
图13是表示在构成第四实施方式的医用图像处理装置的运动体追踪装置中使用于标记的追踪的模板的图。
图14是表示第五实施方式的医用图像处理装置的概略构成的框图。
具体实施方式
以下,参照附图对实施方式的医用图像处理装置、治疗系统以及医用图像处理程序进行说明。
(第一实施方式)
图1是表示具备第一实施方式的医用图像处理装置的治疗系统的概略构成的框图。图1所示的治疗系统1具备医用图像处理装置100和治疗装置10。
首先,对构成治疗系统1的治疗装置10进行说明。治疗装置10具备治疗台11、两个放射线源12(放射线源12-1以及放射线源12-2)、两个放射线检测器13(放射线检测器13-1以及放射线检测器13-2)、以及治疗射束照射门14。
另外,图1所示的各个附图标记之后赋予的“-”与其后接续的数字用于识别对应关系。例如在治疗装置10中的放射线源12与放射线检测器13的对应关系中,放射线源12-1与放射线检测器13-1表示对应地成为一个组,放射线源12-2与放射线检测器13-2表示对应地成为另一个组。即,在以下的说明中,各个附图标记之后赋予的“-”与其后接续的数字表示相同部件彼此相对应。另外,在以下的说明中,在不加区别地表示多个相同的构成要素的情况下,不表示“-”与其后接续的数字。
治疗台11是将接收放射线的治疗的被检体(患者)P固定的诊床。
放射线源12-1从预先确定的角度照射用于透视患者P体内的放射线r-1。放射线源12-2将用于透视患者P体内的放射线r-2从与放射线源12-1不同的预先确定的角度进行照射。放射线r-1以及放射线r-2例如是X射线。在图1中,示出了对于固定在治疗台11上的患者P从两个方向进行X射线拍摄的情况。另外,在图1中,省略了对放射线源12的放射线r的照射进行控制的控制部的图示。
放射线检测器13-1检测从放射线源12-1照射并通过患者P的体内而到达的放射线r-1,生成与检测出的放射线r-1的能量的大小相应的患者P的体内的透视图像PI。放射线检测器13-2检测从放射线源12-2照射并通过患者P的体内而到达的放射线r-2,生成与检测出的放射线r-2的能量的大小相应的患者P的体内的透视图像PI。放射线检测器13以二维的阵列状配置有检测器,生成以数字值表示到达各个检测器的放射线r的能量大小的数字图像,作为透视图像PI。放射线检测器13例如是平板显示器(Flat Panel Detector:FPD)、图像增强器、彩色图像增强器。放射线检测器13将生成的透视图像PI向医用图像处理装置100输出。另外,在图1中,省略了控制放射线检测器13对透视图像PI的生成的控制部的图示。
在治疗装置10中,通过放射线源12与放射线检测器13的组构成了治疗系统1中的拍摄装置。
另外,在图1中,示出了具备两组放射线源12与放射线检测器13、即两个拍摄装置的治疗装置10的构成。但是,治疗装置10所具备拍摄装置的数量不限定于如图1所示那样具备两个拍摄装置的构成、即具备2组放射线源12与放射线检测器13的组的构成。例如治疗装置10也可以是具备三个以上的拍摄装置(3组以上的放射线源12与放射线检测器13的组)的构成。另外,治疗装置10也可以是具备一个拍摄装置(1组的放射线源12与放射线检测器13的组)的构成。
治疗射束照射门14照射用于将患者P的体内作为治疗对象的部位即病灶破坏的放射线,作为治疗射束B。治疗射束B例如是X射线、γ射束、电子射束、质子射束、中子射束、重粒子射束等。另外,在图1中,省略了控制治疗射束照射门14对治疗射束B的照射的控制部的图示。
另外,在图1中,示出了具备一个治疗射束照射门14的治疗装置10构成。但是,治疗装置10并不限定于仅具备一个治疗射束照射门14的构成,也可以具备多个治疗射束照射门。例如在图1中,示出了具备从垂直方向向患者P照射治疗射束B的治疗射束照射门14的治疗装置10的构成,但治疗系统1也可以还具备从水平方向向患者P照射治疗射束的治疗射束照射门。
医用图像处理装置100被用作通过对肺、肝脏等因患者P的呼吸、心跳的动作而移动的器官照射治疗射束B的呼吸同步照射方法进行放射线治疗的呼吸同步照射装置。医用图像处理装置100基于从放射线检测器13-1以及放射线检测器13-2输出的透视图像PI,追踪在放射线治疗中进行治疗的患者P的体内所留置的标记。由此,在医用图像处理装置100中,例如根据标记与病灶的相对的位置的关系等,能够追踪在放射线治疗中进行治疗的患者P的体内的病灶。医用图像处理装置100中的病灶的追踪通过如下方式进行:基于治疗计划的阶段等进行放射线治疗之前学习到的标记的图像(以下,称作“标记图像”)的特征,来追踪当前的患者P的透视图像PI中拍摄到的标记的位置。然后,医用图像处理装置100基于追踪留置于患者P的体内的标记而得到的结果,自动地感测在放射线治疗中向病灶照射治疗射束B的定时。
另外,医用图像处理装置100与治疗装置10所具备的放射线检测器13也可以通过LAN(Local Area Network)、WAN(Wide Area Network)连接。
接着,对构成治疗系统1的医用图像处理装置100的构成进行说明。图2是表示第一实施方式的医用图像处理装置100的概略构成的框图。图2所示的医用图像处理装置100具备学习装置110和运动体追踪装置120。另外,学习装置110具备学习用图像取得部111、学习部112、以及参数存储部113。另外,运动体追踪装置120具备第一图像取得部121与追踪部122。
学习装置110在进行放射线治疗之前,取得医用图像处理装置100中的学习用图像,根据取得的学习用图像,学习用于检测标记图像的第一特征。另外,学习装置110基于学习到的第一特征,计算表示标记的特征的特征提取参数而存储于参数存储部113。
学习用图像取得部111取得医用图像处理装置100中的学习用图像。学习用图像取得部111将取得的学习用图像向学习部112输出。这里,学习用图像是在进行放射线治疗时的治疗计划的阶段、其之前的阶段所制作的多个图像。学习用图像通过将配置于虚拟的三维空间的被拍摄体即标记的图像合成到进行放射线治疗的部位的临床图像中而制作。更具体而言,学习用图像通过将仿真图像合成到进行放射线治疗的每个部位的临床图像中而被制作,所述仿真图像是模拟了追踪的对象的标记留置于患者的体内时的各种方向而得到的模拟图像。另外,用于生成学习用图像的临床图像也可以是根据在治疗计划时拍摄到的三维的计算机断层拍摄(Computed Tomography:CT)图像虚拟地重建了透视图像PI而得的数字重建X射线照片(Digitally Reconstructed Radiograph:DRR)图像。由此,学习用图像成为模拟了留置于患者的体内的标记能取得的标记图像的所有方向的图像。另外,仿真图像与临床图像的合成例如通过阿尔法混合等现有的图像合成的技术进行。
学习部112从学习用图像取得部111取得多个学习用图像,根据取得的多个学习用图像,来学习作为被拍摄体图像而包含在学习用图像内的标记图像中共同的第一特征。这里,学习部112根据多个学习用图像,学习从所有方向观察标记的情况下所得的多个第一特征。另外,学习部112中的标记的第一特征的学习例如使用现有的机器学习的技术而进行。然后,学习部112基于通过学习而获得的第一特征,计算表示标记的方向的特征的特征提取参数。学习部112将计算出的特征提取参数向参数存储部113输出而存储。
参数存储部113是存储从学习部112输出的特征提取参数的存储装置。参数存储部113按照来自运动体追踪装置120所具备的追踪部122的请求,将存储的特征提取参数向追踪部122输出。
运动体追踪装置120在进行放射线治疗时,取得拍摄医用图像处理装置100中追踪的标记后得到的患者P的透视图像PI即第一图像,基于学习装置110所学习的标记的第一特征,追踪第一图像中拍摄到的标记。另外,运动体追踪装置120输出表示正在追踪的标记的位置的标记位置信号SM。
第一图像取得部121取得在治疗中拍摄到的患者P的透视图像PI即第一图像。第一图像取得部121将取得的第一图像向追踪部122输出。这里,第一图像是在治疗中以使患者P躺在治疗台11的状态按照预先确定的时间间隔拍摄的患者P的体内的透视图像PI。即,第一图像是在治疗中(可以是治疗射束照射门14照射治疗射束B的状态,也可以是未照射治疗射束B的状态)由放射线检测器13根据放射线源12照射的放射线r而生成的透视图像PI。另外,第一图像取得部121也可以包含用于与治疗装置10所具备的放射线检测器13连接的接口。
追踪部122追踪从第一图像取得部121输出的第一图像中作为被拍摄体而被拍摄到的标记。追踪部122在进行标记的追踪时,取得存储于学习装置110所具备的参数存储部113中的特征提取参数。然后,追踪部122基于取得的特征提取参数,计算(提取)从第一图像取得部121输出的第一图像中作为被拍摄体图像而包含的标记图像的与第一特征相同的特征。另外,在以下的说明中,为了容易说明,将与追踪部122计算(提取)的第一特征相同的特征也称作“第一特征”。追踪部122基于计算出的第一特征,追踪第一图像中拍摄到的标记。然后,追踪部122输出表示正在追踪的标记的位置的标记位置信号SM。
通过这种构成,医用图像处理装置100基于学习到的标记的特征,追踪位于当前的患者P的体内的标记,输出表示正在追踪的标记的位置的标记位置信号SM。由此,医用图像处理装置100能够自动地感测向患者P的体内的病灶照射治疗射束B的定时。由此,在具备医用图像处理装置100的治疗系统1中,能够在适当的定时向患者P的体内的病灶照射治疗射束B。另外,在治疗系统1中控制成,在正在追踪的标记的位置、即根据标记的位置能够确定的患者P的体内的病灶的位置位于预先确定的范围内时,照射治疗射束B。换言之,在治疗系统1中控制成,在患者P的体内的病灶的位置没有位于预先确定的范围内时,停止治疗射束B的照射。
另外,上述医用图像处理装置100所具备的功能部中的一部分例如也可以是,CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等处理器执行存储于存储装置的程序从而发挥功能的软件功能部。这里,存储装置也可以通过ROM(Read OnlyMemory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、闪存等实现。另外,CPU、GPU等处理器执行的程序可以预先储存于医用图像处理装置100的存储装置,也可以从其他计算机装置经由网络而下载。另外,储存于移动式存储装置的程序安装于医用图像处理装置100。另外,上述医用图像处理装置100所具备的功能部中的一部分或者全部也可以是基于FPGA(Field Programmable Gate Array)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)等的硬件功能部。
这里,对构成治疗系统1的医用图像处理装置100的动作的概略进行说明。首先,对构成医用图像处理装置100的学习装置110的动作的概略进行说明。图3是表示构成第一实施方式的医用图像处理装置100的学习装置110的动作的流程的流程图的一个例子。另外,在医用图像处理装置100中学习装置110在进行放射线治疗之前,使特征提取参数预先存储于参数存储部113。
若学习装置110开始动作,则学习用图像取得部111首先取得学习用图像(步骤S100)。接着,学习部112学习从学习用图像取得部111输出的各个学习用图像所含的标记图像中共同的第一特征(步骤S101)。接着,学习部112基于通过学习而获得的第一特征,计算特征提取参数,将计算出的特征提取参数向参数存储部113输出而存储(步骤S102)。
接着,对构成医用图像处理装置100的运动体追踪装置120的动作的概略进行说明。图4是表示构成第一实施方式的医用图像处理装置100的运动体追踪装置120的动作的流程的流程图的一个例子。另外,在医用图像处理装置100中运动体追踪装置120,在进行放射线治疗时,基于特征提取参数而追踪实际上留置于患者的体内的标记。
若运动体追踪装置120开始动作,则第一图像取得部121首先取得第一图像(步骤S103)。接着,追踪部122预测从第一图像取得部121输出的第一图像内的标记的位置(步骤S104)。接着,追踪部122取得存储于参数存储部113的特征提取参数,基于取得的特征提取参数所表示的第一特征,计算预测到的标记的位置的似然度(步骤S105)。接着,追踪部122基于计算出的似然度,计算第一图像所含的标记的位置(步骤S106)。
接下来,对构成治疗系统1的医用图像处理装置100的详细动作进行说明。首先,对构成医用图像处理装置100的学习装置110中的学习用图像的取得方法进行说明。
另外,追踪部122所追踪的对象的标记的形状有球型、棒型、楔型、别针(clip)型等各种形状。更具体而言,作为标记,例如有直径为2mm的球形状的金属制的球型标记、例如直径为0.5mm且长度为5mm、7mm、10mm的棒形状的金属制的棒型标记。在留置于患者P的体内的标记是球型标记的情况下,无论标记的三维空间内的姿势如何,进行放射线治疗时拍摄的患者P的透视图像PI中拍摄到的标记图像都为圆形。另一方面,在留置于患者P的体内的标记为棒型标记的情况下,进行放射线治疗时拍摄的患者P的透视图像PI中拍摄到的标记图像根据标记的三维空间内的姿势而变化为各种形状。在以下的说明中设为,学习用图像取得部111取得留置于患者的体内的球型标记以外的标记的学习用图像,作为其一个例子,对取得棒型标记的学习用图像的情况进行说明。
图5是用于说明具备第一实施方式的医用图像处理装置100的治疗系统1中的放射线的照射路径与标记(棒型标记)的关系的一个例子的图。图5是选取了图1所示的治疗装置10中的放射线源12-1与放射线检测器13-1的位置关系的图。如图5所示,在放射线源12-1与放射线检测器13-1之间的三维空间内,在以棒型标记M的长度方向与相对于放射线检测器13-1的拍摄面的法线方向(放射线源12-1照射的放射线r-1的照射路径的方向)平行的方式留置于患者P的体内的情况下,棒型标记M的标记图像成为圆形。而且,若从图5所示的状态起倾斜棒型标记M,则棒型标记M的标记图像表现出长度方向的特征而逐渐变长。另外,标记图像的形状根据这种标记的姿势而进行各种变化的特征并非仅仅是棒型标记M中的特征,在楔型的标记、别针型的标记即球型的标记以外的标记中也相同。
在学习装置110中,为了从患者P的体内的透视图像PI内检测出形状根据标记的姿势而进行各种变化的标记图像,学习第一特征,该第一特征成为各个标记图像中共同的特征。
另外,在图5中,示出了通过由放射线源12-1与放射线检测器13-1的组构成的拍摄装置拍摄到的棒型标记M的一个例子。但是,如图1所示,在治疗系统1中,具备两个拍摄装置。因而,学习装置110学习用于从由治疗系统1所具备的两个拍摄装置同时拍摄相同的棒型标记M而得的各个透视图像PI检测标记图像的两个第一特征作为一对第一特征。即,学习装置110学习用于从由放射线源12-1与放射线检测器13-1的组拍摄的透视图像PI检测标记图像的第一特征、和用于从由放射线源12-2与放射线检测器13-2的组拍摄的透视图像PI检测标记图像的第一特征,作为一组第一特征。例如在三维空间中棒型标记M如图5所示那样留置于患者P的体内的情况下,如上述那样,在由放射线源12-1与放射线检测器13-1的组拍摄的透视图像PI中,棒型标记M的标记图像成为圆形。另一方面,在该情况下,在由放射线源12-2与放射线检测器13-2的组拍摄的透视图像PI中,棒型标记M的标记图像成为长度最长的长方形。因而,学习装置110学习用于从患者P的体内的各自透视图像PI内检测圆形的标记图像和长方形的标记图像的组的第一特征,上述圆形的标记图像是由放射线源12-1与放射线检测器13-1的组拍摄到的标记图像,上述长方形的标记图像是由放射线源12-2与放射线检测器13-2的组拍摄到的标记图像。
这里,对学习装置110所具备的学习用图像取得部111取得为了学习第一特征而使用的学习用图像的方法进行说明。学习用图像由所追踪的对象的棒型标记M被拍摄到规定的区域内的状态的多个图像(以下,称作“正例图像”)和其他状态的多个图像(以下,称作“负例(日语:負例)图像”)构成。另外,负例图像中的其他状态例如指的是,棒型标记M未被拍摄到规定的区域中、棒型标记M未被拍摄到等的、棒型标记M被拍摄到的状态为正例图像的状态以外的情况。
首先,说明基于学习用图像取得部111的正例图像的取得方法。这里将从拍摄到的图像的整体的区域中切出以棒型标记M的重心位于图像的中心的方式预先确定的大小(范围)的区域而得到的图像设为正例图像,所述拍摄到的图像是一边改变成为追踪的对象的棒型标记M的姿势一边将其设置于对患者P的透视图像PI即第一图像进行拍摄的放射线源12与放射线检测器13之间的位置而拍摄得到的图像。另外,如上述那样,由于棒型标记M为金属制,因此在拍摄到的图像中,棒型标记M的标记图像被拍摄地较暗。因此,在学习用图像取得部111中,提取拍摄到的图像所含的各个像素的值(像素值)低的像素的区域的中心位置,作为棒型标记M的重心的位置。
学习用图像取得部111也可以根据通过拍摄装置(放射线源12与放射线检测器13的各个组)实际进行了拍摄的图像,取得正例图像。这里,用于取得正例图像的图像例如也可以是通过实际的拍摄装置拍摄到使实际的棒型标记M留置于再现了人体的拍摄用的人体模型内的状态的图像。在该情况下,也可以一边改变为了拍摄而照射的放射线r的放射线量(例如X射线量)一边进行拍摄,而以相同姿势的棒型标记M取得放射线量不同的情况下的正例图像。另外,用于取得正例图像的图像也可以是实际通过拍摄装置拍摄棒型标记M留置于体内的患者P而得的透视图像PI、即以前拍摄患者P的透视图像PI。
另外,在根据通过拍摄装置实际进行了拍摄的图像来取得正例图像的情况下,并不一定能够取得(收集)与留置于患者P的体内的棒型标记M所能够取得的所有姿势对应的正例图像。因此,学习用图像取得部111也可以通过计算机等构建仿真环境,并从虚拟地制作出的仿真图像取得正例图像,该仿真环境是再现(模拟)位于放射线源12与放射线检测器13之间的棒型标记M的姿势的环境。以下,对根据通过构建出的仿真环境虚拟地制作出的仿真图像来取得正例图像的方法进行说明。
在为了学习用图像取得部111取得正例图像而构建的仿真环境中,首先,再现构成治疗系统1的治疗装置10所具备的拍摄装置。更具体而言,如图1所示,在构成治疗系统1的治疗装置10中,放射线源12与放射线检测器13的位置被固定。即,治疗装置10中,由放射线源12与放射线检测器13的组构成的拍摄装置所拍摄的方向被固定。因此,在设置有放射线源12与放射线检测器13的三维空间内定义规定的三维坐标时,能够利用3轴的坐标值表示放射线源12与放射线检测器13的位置。在以下的说明中,将3轴的坐标值的信息称作由放射线源12与放射线检测器13的组构成的拍摄装置的几何信息。
学习用图像取得部111利用几何信息再现治疗装置10所具备的拍摄装置。另外,预先得知了与棒型标记M的三维的形状相关的信息(以下,称作“形状信息”)。因此,学习用图像取得部111利用几何信息与形状信息,再现图5所示的那种在放射线源12-1与放射线检测器13-1之间放置有棒型标记M的三维空间。这里,在学习用图像取得部111所再现的三维空间内,能够计算从放射线源12-1输出的放射线r-1通过棒型标记M而衰减的能量,因此学习用图像取得部111能够取得虚拟地由拍摄装置拍摄到的棒型标记M的标记图像。此时,学习用图像取得部111无需严格地计算通过棒型标记M而衰减的放射线r-1的能量。因而,学习用图像取得部111也可以虚拟地生成如下仿真图像,该仿真图像区别了通过了棒型标记M的放射线r-1与未通过的放射线r-1各自所到达的放射线检测器13-1的像素。此时,学习用图像取得部111也可以虚拟地生成根据放射线r-1在棒型标记M内通过的路径的长度而施加了浓淡的仿真图像。学习用图像取得部111从如此生成的仿真图像取得正例图像。
另外,在图1所示的治疗系统1中,具备能够同时拍摄的两个拍摄装置。因而,学习用图像取得部111虚拟地生成各个拍摄装置所对应的仿真图像,并根据生成的图像,取得正例图像。这里,考虑将棒型标记M绕在与图5所示的放射线r-1的照射路径正交的2轴设定的3轴旋转的旋转量设为(θ,φ,η)的情况。在该情况下,学习用图像取得部111将棒型标记M中的三个旋转量设为棒型标记M的姿势的参数(以下,称作“姿势参数”),一边连续地变更各个姿势参数一边从虚拟地生成的仿真图像取得正例图像。另外,学习用图像取得部111也可以不连续地变更各个姿势参数,而是例如按照15°间隔等预先确定的间隔一边变更一边从虚拟地生成的仿真图像取得正例图像。另外,学习用图像取得部111也可以从例如通过阿尔法混合等现有的图像合成的技术将虚拟地生成的仿真图像和在治疗前拍摄到的患者P的透视图像PI、临床图像合成后的图像,即也包含透视图像PI、临床图像所含的噪声等而再现的图像,取得正例图像。另外,仿真图像与透视图像PI、临床图像的合成并不限定于使用图像合成的技术。例如学习用图像取得部111也可以通过在透视图像PI、临床图像中将仿真图像所含的棒型标记M的位置所对应的像素的像素值置换为标记图像的像素值、预先确定的像素值(例如像素值=“0”等)来将仿真图像与透视图像PI合成。
接着,说明基于学习用图像取得部111的负例图像的取得方法。这里,将从治疗前拍摄到的患者P的透视图像PI的整体的区域中切出与正例图像中预先确定的大小的区域相同的大小的区域的图像设为负例图像。即,负例图像是从透视图像PI的整体的区域切出与正例图像中以棒型标记M的重心位于图像的中心的方式预先确定的区域相同的大小(范围)的区域的图像。另外,也可以将从人体模型的图像、在过去的临床时获得的临床图像即通过实际的拍摄装置拍摄到的图像中切出了与正例图像相同的大小的区域而得到的图像设为负例图像。在该情况下,拍摄用于获得负例图像的图像时所照射的放射线r的放射线量(例如X射线量)期望的是,与拍摄用于获得正例图像的图像时所照射的放射线r的放射线量(例如X射线量)同等。另外,负例图像也可以是棒型标记M的一部分、整体被拍摄的图像。但是,在正例图像与负例图像中,棒型标记M被拍摄到的区域不同。更具体而言,在正例图像中,如上述那样,棒型标记M的重心被拍摄到位于正例图像的中心的区域内。与此相对,在负例图像中,棒型标记M的重心被拍摄到相同的区域以外。
学习用图像取得部111取得上述那样的正例图像与负例图像作为学习用图像。然后,学习用图像取得部111将取得的学习用图像向学习部112输出。
由此,学习部112基于从学习用图像取得部111输出的多个学习用图像,学习棒型标记M的标记图像中共同的第一特征。在学习部112中,构成了解决用于识别从学习用图像取得部111输出的正例图像与负例图像的2类分类问题的函数f的识别器。在学习部112中,将任意的带教师学习的识别器用作学习部112所构成的识别器。更具体而言,学习部112例如将2类支持向量机、神经网络、深度神经网络、卷积神经网络、决策树等构成为识别器。另外,关于学习部112所利用的识别器的一个例子,与后述的追踪部122的动作一同进行说明。
学习部112将根据通过学习而获得的第一特征而计算出的特征提取参数向参数存储部113输出。由此,参数存储部113存储从学习部112输出的特征提取参数。然后,参数存储部113根据追踪部122追踪棒型标记M时输出的特征提取参数的请求,将存储的特征提取参数向追踪部122输出。
如此,学习装置110在表示图3所示的学习装置110的动作的流程的流程图的一个例子的各个步骤中,进行学习用图像(正例图像以及负例图像)的取得、和棒型标记M的标记图像中共同的第一特征的学习以及特征提取参数的计算,将计算出的特征提取参数存储于参数存储部113。
接下来,对构成医用图像处理装置100的运动体追踪装置120中的标记的追踪方法进行说明。在运动体追踪装置120中,追踪在治疗中拍摄到的患者P的第一图像(透视图像PI)所拍摄到的棒型标记M。
另外,如图1所示那样,在构成治疗系统1的治疗装置10中,利用两个拍摄装置从两个方向拍摄患者P的第一图像。因此,第一图像取得部121取得两个拍摄装置的各个拍摄到的两个方向的第一图像、即两张透视图像PI。
这里,对运动体追踪装置120所具备的第一图像取得部121取得第一图像的方法进行说明。在对于患者P进行放射线治疗时,首先,为了使患者P体内的病灶、骨等位置对准治疗计划时的位置而进行患者P的定位。更具体而言,在图1所示那样使患者P躺在治疗台11的状态下,拍摄患者P的体内的透视图像PI即第一图像。然后,进行拍摄到的第一图像与从治疗计划时拍摄到的三维的CT图像制作出的DRR图像之间的图像对照,求出各个图像之间的患者P的位置的偏移,基于求出的患者的位置的偏移使治疗台11移动,使当前的患者P的体内的病灶、骨等位置对准治疗计划时的对位。之后,为了确认是否能够正确地追踪棒型标记M,拍摄几次呼吸量的第一图像。此时,治疗射束B未照射到患者P。然后,在确认到能够正确地追踪棒型标记M之后,开始放射线治疗。另外,在进行放射线治疗的期间,各个拍摄装置按照预先确定的时间间隔拍摄第一图像。第一图像取得部121依次取得通过各个拍摄装置拍摄到的第一图像。然后,第一图像取得部121将取得的两个方向的第一图像分别向追踪部122输出。
追踪部122追踪从第一图像取得部121输出的两个方向的第一图像中拍摄到的棒型标记M。更具体而言,追踪部122基于从参数存储部113取得的特征提取参数所表示的第一特征,追踪从第一图像取得部121输出的第一图像中拍摄到的棒型标记M的标记图像。另外,追踪部122利用治疗装置10所具备的各个拍摄装置的几何信息,求出位于从放射线源12照射的放射线r通过并到达放射线检测器13为止的之间的位置的棒型标记M的三维坐标内的位置。即,追踪部122求出如图5所示那样留置了棒型标记M的情况下的规定的三维坐标内的棒型标记M的位置,作为投影矩阵。因此,在追踪部122中,从几何信息预先求出各个拍摄装置所对应的投影矩阵。即,追踪部122按照各个拍摄装置的每一个求出投影矩阵。然后,追踪部122根据拍摄到两个第一图像中的棒型标记M的位置(二维坐标的位置),利用三角测量的原理,计算表示位于规定的三维空间内的棒型标记M的位置的三维坐标的坐标值。由此,追踪部122计算位于规定的三维空间内的棒型标记M被拍摄到患者P的体内的透视图像PI(第一图像)内的哪个位置。
这里,对运动体追踪装置120所具备的追踪部122追踪第一图像中拍摄到的棒型标记M的方法进行说明。追踪部122若开始棒型标记M的追踪,则在图4所示的表示运动体追踪装置120的动作的流程的流程图的一个例子的步骤S104中,首先预测从第一图像取得部121输出的第一图像内的棒型标记M的位置。
如上述那样,第一图像取得部121即使在进行放射线治疗的期间也依次取得各个拍摄装置按照每个预先确定的时间的间隔拍摄到的第一图像并向追踪部122输出。这里,对于最初从第一图像取得部121输出的第一图像,由于为追踪部122开始追踪棒型标记M的处理的初期阶段,因此棒型标记M的位置未知。因此,追踪部122利用留置于患者P的体内的棒型标记M的位置几乎不移动这一情况,例如计算进行了患者P的对位之后拍摄到的几次呼吸所对应的第一图像、即开始放射线治疗之前的第一图像(以下,称作“治疗前第一图像”)中拍摄到的棒型标记M的位置。
更具体而言,在开始棒型标记M的追踪处理的初期阶段的棒型标记M的位置的预测处理中,追踪部122使用从几何信息预先求出的投影矩阵,向治疗前第一图像内投影棒型标记M的位置。然后,追踪部122在向一个呼吸周期量的各个治疗前第一图像内完成了棒型标记M的位置的投影之后,在一个治疗前第一图像(例如患者P的呼气或者吸气时的治疗前第一图像)内指定多个棒型标记M的位置。另外,包含有治疗前第一图像内指定的多个棒型标记M的位置在内的区域是必然存在棒型标记M的区域。追踪部122将治疗前第一图像内指定出的棒型标记M必然存在的区域设为治疗中第一图像内预测的棒型标记M的位置(预测位置)。
另外,在基于利用了标记的追踪的呼吸同步照射方法的放射线治疗中,在患者P的体内留置棒型标记M之后,为了制定治疗计划,有时对拍摄了CT图像作为运动图像的4维的CT图像进行拍摄。该4维的CT图像例如是一个呼吸周期所对应的长度的动态图像。在4维的CT图像中,利用治疗系统1的放射线治疗的实施者(医生等)容易通过目视观察确认棒型标记M的位置。然后,若得知CT图像内的棒型标记M的位置(三维坐标),则能够使用投影矩阵向治疗前第一图像内投影棒型标记M的位置。因此,追踪部122也可以将由治疗系统1的利用者指定的4维的CT图像内的区域作为棒型标记M必然存在的区域。另外,追踪部122也可以将包含有在对于患者P的相同的病灶进行的以前的放射线治疗中追踪相同的棒型标记M时的棒型标记M的位置的轨迹在内的区域,作为这次的放射线治疗中棒型标记M必然存在的区域。
然后,追踪部122基于在治疗前第一图像中指定的棒型标记M必然存在的区域,预测在开始放射线治疗之后拍摄到的第一图像(以下,称作“治疗中第一图像”)中所拍摄的棒型标记M的位置。另外,在治疗前第一图像内指定棒型标记M必然存在的区域时,如上述那样,由于是追踪部122开始棒型标记M的追踪处理的初期阶段,因此棒型标记M的位置未知。与此相对,在之后的治疗阶段,棒型标记M必然存在于指定的区域内的可能性较高。另外,在治疗阶段,从第一图像取得部121以相对于呼吸周期较短的间隔输出治疗中第一图像。因此,追踪部122通过更高速且简易的方法进行治疗阶段中的棒型标记M的位置的预测。
更具体而言,追踪部122在治疗阶段的棒型标记M的位置的预测处理中,将以治疗前第一图像中预测出的棒型标记M必然存在的区域为中心的区域(范围)设为治疗中第一图像内预测出的棒型标记M的位置(预测位置)。这里,治疗阶段中的棒型标记M的预测位置也可以是治疗中第一图像内的一部分的区域(部分区域),也可以是三维空间的一部分的空间(部分空间)。即,治疗阶段中的棒型标记M的预测位置可以是二维坐标,也可以是三维坐标。
另外,在治疗阶段的棒型标记M的位置的预测处理中,追踪部122也可以利用从过去获得的棒型标记M的位置的系列预测未来的棒型标记M的位置的时间序列滤波器作为棒型标记M的预测位置。这里,作为时间序列滤波器,例如可考虑卡尔曼滤波器、粒子滤波器等。
之后,追踪部122在图4所示的表示运动体追踪装置120的动作的流程的流程图的一个例子的步骤S105中,取得存储于参数存储部113的特征提取参数,基于取得的特征提取参数所表示的第一特征,计算预测出的棒型标记M的位置的似然度。
这里,追踪部122所计算的似然度是表示追踪部122预测到的治疗中第一图像内的棒型标记M的位置所拍摄的图像与棒型标记M的标记图像的相似性的值。更具体而言,似然度成为与棒型标记M的标记图像的相似性越高则越高的值(在是标记图像的情况下是最高的值),并且是随着与棒型标记M的标记图像的相似性降低而变低的值。追踪部122通过下式(1)或者下式(2)计算棒型标记M的预测位置x的似然度l(x)。
[数式1]
l(x)=f(v(x);w)…(1)
[数式2]
Figure BDA0002672995350000191
在上式(1)以及上式(2)中,函数f是表示学习部112所构成的识别器的函数,所述识别器解决识别从学习用图像取得部111输出的正例图像与负例图像的2类分类问题。即,在追踪部122构成有与学习部112所构成的识别器相同的函数f的识别器。另外,在上式(1)以及上式(2)中,v(x)是排列了基于棒型标记M的预测位置x而确定的治疗中第一图像的像素值的矢量。另外,v(x)也可以对排列了基于棒型标记M的预测位置x确定的治疗中第一图像的像素值而成的矢量进行转换。该情况下的转换例如是基于索贝尔滤波器等微分滤波器的转换。另外,在上式(1)以及上式(2)中,w是构成函数f的识别器的参数,并且是表示第一特征的特征提取参数、即从参数存储部113取得的特征提取参数。
另外,如图1所示,在构成治疗系统1的治疗装置10中,生成同时从不同的两个方向拍摄相同的棒型标记M而得到的两张治疗中第一图像(透视图像PI)。因此,追踪部122能够根据各个治疗中第一图像中的棒型标记M的预测位置,通过上式(1)或者上式(2)计算各个治疗中第一图像所对应的似然度l(x)。此时,追踪部122在治疗阶段中的棒型标记M的预测位置是三维坐标的情况下,也可以计算同时拍摄到的两张治疗中第一图像的各个所对应的似然度l(x),并将计算出的似然度l(x)的积作为棒型标记M的预测位置的似然度l(x)。另一方面,追踪部122在治疗阶段中的棒型标记M的预测位置是二维坐标的情况下,只要计算极线约束成立的两张治疗中第一图像的预测位置所对应的似然度l(x)即可。
另外,追踪部122也可以将排列了像素值的矢量v(x)作为连结后的矢量,所述像素值是基于在治疗装置10中同时生成的两张治疗中第一图像的各个中的棒型标记M的预测位置x而确定的。该情况下的预测位置成为使棒型标记M的预测位置投影到两张治疗中第一图像的每一个后得到的二维坐标的位置。在该情况下,二维坐标的位置也是极线约束成立的两张治疗中第一图像的预测位置。
之后,追踪部122在图4所示的表示运动体追踪装置120的动作的流程的流程图的一个例子的步骤S106中,基于计算出的似然度l(x),计算治疗中第一图像所含的棒型标记M的位置。
追踪部122基于计算出的似然度l(x),通过下式(3)计算棒型标记M的位置xm
[数式3]
xm=∑x∈Sl(x)x...(3)
根据上式(3)可知,追踪部122将以似然度l(x)为权重值的加权平均值作为棒型标记M的位置xm。另外,在上式(3)中,S是棒型标记M的预测位置的集合。
追踪部122也可以基于计算出的似然度l(x),通过下式(4)计算棒型标记M的位置xm
[数式4]
xm=arg maxx∈S l(x)...(4)
在上式(4)中,追踪部122将似然度l(x)成为最大的预测位置作为棒型标记M的位置xm
如此,运动体追踪装置120在图4所示的表示运动体追踪装置120的动作的流程的流程图的一个例子的各个步骤中,进行治疗中第一图像内的棒型标记M的位置的预测、基于特征提取参数所表示的第一特征而进行的棒型标记M的预测位置的似然度l(x)的计算、以及治疗中第一图像所含的棒型标记M的位置xm的计算。然后,运动体追踪装置120将表示计算出的棒型标记M的位置xm的标记位置信号SM输出。
如上述那样,在第一实施方式的医用图像处理装置100中,学习装置110(更具体而言是学习用图像取得部111)取得模拟了棒型标记M留置于患者P的体内时所能够取得的所有方向的仿真图像作为学习用图像。而且,在第一实施方式的医用图像处理装置100中,学习装置110(更具体而言是学习部112)根据取得的多个学习用图像,对学习用图像中拍摄到的棒型标记M中共同的第一特征进行学习,并基于通过学习而获得的第一特征,计算表示棒型标记M的方向的特征的特征提取参数,并存储于参数存储部113。而且,在第一实施方式的医用图像处理装置100中,运动体追踪装置120(更具体而言是第一图像取得部121)取得治疗中拍摄到的患者P的第一图像(透视图像PI)。而且,在第一实施方式的医用图像处理装置100中,运动体追踪装置120(更具体而言是追踪部122)计算(提取)第一图像与从参数存储部113取得的特征提取参数所表示的第一特征相同的特征(第一实施方式中设为“第一特征”)。而且,在第一实施方式的医用图像处理装置100中,运动体追踪装置120(更具体而言是追踪部122)基于计算出的第一特征,追踪第一图像中拍摄到的棒型标记M,输出表示棒型标记M的位置的标记位置信号SM。
并且,在第一实施方式的医用图像处理装置100中,未通过现有技术那种使用了模板的模板匹配来进行棒型标记M的追踪。因此,在第一实施方式的医用图像处理装置100中,能够高效地进行追踪棒型标记M时的计算,能够抑制棒型标记M的追踪的实时性的降低。另外,在第一实施方式的医用图像处理装置100中,能够降低棒型标记M的误追踪的可能性,该型标记M的误追踪被认为是因在以往的模板匹配中存在与棒型标记M相似度较高的模板而发生的。
由此,在具备第一实施方式的医用图像处理装置100的治疗系统1中,能够基于在患者P的体内追踪的棒型标记M的位置而自动地感测对与患者P的呼吸、心跳等联动地移动的病灶照射治疗射束B的适当的定时。由此,在具备第一实施方式的医用图像处理装置100的治疗系统1中,能够以与患者P的呼气、吸气同步的适当的定时,安全地向病灶照射治疗射束B。
另外,在第一实施方式的医用图像处理装置100中,说明了所追踪的对象的标记是棒型标记M的情况。但是,如上述那样,追踪的对象的标记的形状中有各种形状。因而,第一实施方式的医用图像处理装置100所追踪的对象的标记并不限定于棒型标记M。而且,在第一实施方式的医用图像处理装置100中,即使所追踪的对象的标记为棒型标记M以外,也能够基于相同的构思,取得模拟了各个标记留置于患者P的体内时所能够取得的所有方向而得的仿真图像,作为学习用图像,从而同样地动作(处理)。即,在第一实施方式的医用图像处理装置100中,即使所追踪的对象的标记例如是楔型的标记、别针型的标记、进而是球型的标记,也能够如图5所示的放射线的照射路径与标记(棒型标记)的关系的一个例子那样设置,学习同样地取得的仿真图像,作为学习用图像,从而与棒型标记M相同地追踪各个标记的位置。另外,第一实施方式的医用图像处理装置100的追踪也能够不仅是标记、而是例如将导管的仿真图像作为学习用图像而学习,从而也能够追踪手术中拍摄的患者的透视图像PI中映出的导管的图像。
如上述说明那样,医用图像处理装置100具备:取得患者P的透视图像PI作为第一图像的第一图像取得部121;以及追踪部122,基于从多个方向观察留置于患者P的体内的被拍摄体(标记)而得的多个被拍摄体的图像即被拍摄体图像(标记图像)中共同的第一特征,来追踪第一图像中拍摄到的被拍摄体。
另外,如上述说明那样,医用图像处理装置100也可以还具备:取得与多个被拍摄体图像的每一个对应的多个学习用图像的学习用图像取得部111;以及学习部112,学习多个学习用图像所含的被拍摄体图像的每一个中共同的第一特征。
另外,如上述说明那样,学习用图像取得部111也可以基于拍摄第一图像的拍摄装置(放射线源12与放射线检测器13的组)的几何信息和被拍摄体的三维的形状,取得被拍摄体被拍摄到第一图像中时的被拍摄体图像,作为基于模拟出的仿真图像的学习用图像。
另外,如上述说明那样,学习用图像也可以是将仿真图像和第一图像合成的图像。
另外,如上述说明那样,学习用图像也可以是将仿真图像和拍摄了与第一图像相同的范围的临床图像合成后的图像。
另外,如上述说明那样,学习用图像也可以由被预先确定的范围的正例图像、和与正例图像相同的范围的负例图像构成,所述正例图像中被拍摄体图像的重心位于中心,所述负例图像中被拍摄体图像的重心为正例图像的状态以外。
另外,如上述说明那样,被拍摄体可以是留置于患者P的体内的标记(例如棒型标记M)。
另外,如上述说明那样,标记也可以是球型以外的形状(例如棒型)。
另外,如上述说明那样,治疗系统1也可以具备:医用图像处理装置100;治疗装置10,具备向治疗的对象的部位(病灶)照射治疗射束B的照射部(治疗射束照射门14)和拍摄被拍摄体的拍摄装置(放射线源12与放射线检测器13的组);以及基于追踪到的被拍摄体的位置的信息来控制对病灶的治疗的控制部。
另外,医用图像处理装置100也可以是如下装置:具备CPU、GPU等处理器和ROM、RAM、HDD、闪存等存储装置,在存储装置中存储有使处理器作为第一图像取得部121和追踪部122发挥功能的程序,该第一图像取得部121取得患者P的透视图像PI作为第一图像,该追踪部122基于从多个方向观察留置于患者P的体内的被拍摄体(标记)而得的多个被拍摄体的图像即被拍摄体图像(标记图像)中共同的第一特征,追踪第一图像中拍摄到的被拍摄体。
另外,医用图像处理装置100也可以是如下装置:具备CPU、GPU等处理器和ROM、RAM、HDD、闪存等存储装置,在存储装置中存储有使处理器作为学习用图像取得部111和学习部112发挥功能的程序,该学习用图像取得部111取得与多个被拍摄体图像的每一个对应的多个学习用图像,该学习部112学习多个学习用图像所含的被拍摄体图像的每一个中共同的第一特征。
(第二实施方式)
以下,对第二实施方式进行说明。另外,具备第二实施方式的医用图像处理装置的治疗系统的构成是在具备图1所示的第一实施方式的医用图像处理装置100的治疗系统1的构成中使医用图像处理装置100替换为第二实施方式的医用图像处理装置(以下,称作“医用图像处理装置200”)的构成。在以下的说明中,将具备医用图像处理装置200的治疗系统称作“治疗系统2”。
另外,在以下的说明中,在具备医用图像处理装置200的治疗系统2的构成要素中,对与具备第一实施方式的医用图像处理装置100的治疗系统1的构成要素相同的构成要素标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素即医用图像处理装置200的构成、动作以及处理进行说明。
医用图像处理装置200与第一实施方式的医用图像处理装置100相同,基于从放射线检测器13-1以及放射线检测器13-2输出的透视图像PI,追踪在放射线治疗中进行治疗的患者P的体内所留置的标记。由此,在医用图像处理装置200中,也与第一实施方式的医用图像处理装置100相同,能够追踪在放射线治疗中进行治疗的患者P的体内的病灶。另外,医用图像处理装置200通过根据治疗前拍摄到的患者P的透视图像PI,学习所留置的标记的标记图像、或者推断并学习所留置的标记的姿势,从而限定所学习的标记图像。这里,在医用图像处理装置200中限定学习的标记图像的理由是因为,考虑到实际上留置于患者P的标记即使与患者P的呼吸、心跳等联动地在体内移动,其姿势从留置时的姿势大幅变化的可能性也较低。而且,医用图像处理装置200与第一实施方式的医用图像处理装置100相同,基于追踪留置于患者P的体内的标记而得到的结果,自动地感测在放射线治疗中向病灶照射治疗射束B的定时。
以下,对构成治疗系统2的医用图像处理装置200的构成进行说明。图6是表示第二实施方式的医用图像处理装置200的概略构成的框图。图6所示的医用图像处理装置200具备学习装置210与运动体追踪装置120。另外,学习装置210具备学习用图像取得部211、学习部112、参数存储部113、第二图像取得部214、以及对象提取部215。另外,运动体追踪装置120具备第一图像取得部121和追踪部122。
医用图像处理装置200是将构成第一实施方式的医用图像处理装置100的学习装置110替换为学习装置210的构成。学习装置210是在构成第一实施方式的医用图像处理装置100的学习装置110中追加了第二图像取得部214与对象提取部215的构成。伴随于此,在医用图像处理装置200中,构成第一实施方式的医用图像处理装置100的学习装置110所具备的学习用图像取得部111被替换为学习用图像取得部211。另外,医用图像处理装置200所具备的其他构成要素是与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素。因而,在以下的说明中,在医用图像处理装置200的构成要素中,对与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素进行说明。
学习装置210与构成第一实施方式的医用图像处理装置100的学习装置110相同,在进行放射线治疗之前,取得医用图像处理装置200中的学习用图像,根据取得的学习用图像,学习用于检测标记图像的第一特征,基于学习到的第一特征,计算表示标记的特征的特征提取参数并存储于参数存储部113。此时,学习装置210基于在治疗前拍摄到的患者P的透视图像PI,限定用于学习第一特征的标记图像。
第二图像取得部214取得在治疗前拍摄到的患者P的透视图像PI即第二图像。第二图像取得部214将取得的第二图像向对象提取部215输出。这里,第二图像是患者P以标记留置于体内的状态躺在治疗台11上并对位之后的治疗前的透视图像PI。即,第二图像是在进行放射线治疗之前(治疗射束照射门14未照射治疗射束B的状态)由放射线检测器13根据放射线源12所照射的放射线r而生成的透视图像PI。另外,第二图像取得部214也可以包含用于与治疗装置10所具备的放射线检测器13连接的接口。
另外,第二图像只要是标记留置于体内的状态的患者P的治疗前的透视图像PI即可。因此,第二图像只要是在进行放射线治疗时的治疗计划的阶段或其之前的阶段拍摄到的患者P的透视图像PI即可。例如也可以取得根据在治疗计划时拍摄到的三维的CT图像制作的DRR图像作为第二图像。另外,在放射线治疗中,由于通常历经多次而进行治疗,因此例如也可以取得针对患者P的相同的病灶进行的以前的放射线治疗中拍摄到的第一图像作为第二图像。另外,在基于利用了标记的追踪的呼吸同步照射方法的放射线治疗中,有时作为用于与患者P的呼吸同步地照射治疗射束B的排演(预演),会拍摄几次呼吸所对应的第一图像。在这种情况下,也可以取得在该排演(预演)时拍摄到的第一图像作为第二图像。另外,在开始放射线治疗之前,在治疗系统2中以使患者P躺在治疗台11的状态进行CT拍摄的情况下,也可以取得根据此时拍摄的三维的CT图像制作出的DRR图像作为第二图像。
对象提取部215从第二图像取得部214取得第二图像,提取在取得的第二图像内作为被拍摄体图像而被包含的标记图像。对象提取部215将根据包含提取出的标记图像在内的预先确定的一部分的区域(部分区域)的图像、或者包含提取出的标记图像在内的部分区域的图像而推断出标记的姿势后的结果的信息(图像),向学习用图像取得部211输出。这里,对象提取部215中的标记的提取能够通过与构成第一实施方式的医用图像处理装置100的学习装置110所具备的学习部112、运动体追踪装置120所具备的追踪部122中具有的识别器相同的处理来进行。但是,对象提取部215在标记图像的提取中所使用的第二图像是在开始治疗之前拍摄到的、包含留置于患者P的体内的标记的图像。因而,在第一实施方式中,医用图像处理装置100具备运动体追踪装置120,作为用于实时地追踪任意姿势的标记的构成,但对象提取部215中的标记的提取不被要求实时性。因此,对象提取部215也可以例如通过现有的模板匹配来进行标记从第二图像的提取。在该情况下,对象提取部215也可以将通过模板匹配提取的模板的图像作为包含标记图像的部分区域的图像而向学习用图像取得部211输出。另外,对象提取部215也可以将通过模板匹配提取出的模板的图像所表示的标记的姿势所对应的姿势参数作为标记的姿势的推断结果的信息向学习用图像取得部211输出。
另外,对象提取部215在将以从第二图像切出的标记的重心位于图像的中心的方式切出了预先确定的大小(范围)的部分区域后的图像作为包含标记图像的部分区域的正例图像并向学习用图像取得部211输出的情况下,也可以将标记图像不位于图像的中心的规定的范围内的部分区域的图像作为负例图像向学习用图像取得部211输出。
学习用图像取得部211与构成第一实施方式的医用图像处理装置100的学习装置110所具备的学习用图像取得部111相同,取得医用图像处理装置200中的学习用图像,将取得的学习用图像向学习部112输出。另外,学习用图像取得部211取得从对象提取部215输出的包含标记图像的部分区域的图像(也可以是模板的图像)。在该情况下,学习用图像取得部211取代构成第一实施方式的医用图像处理装置100的学习装置110所具备的学习用图像取得部111中的仿真图像,将从对象提取部215输出的包含标记图像的部分区域的图像合成于临床图像后的学习用图像(正例图像以及负例图像)向学习部112输出。另外,学习用图像取得部211在对象提取部215输出根据包含标记图像的部分区域的图像而推断出标记的姿势的结果的信息的情况下,取得从对象提取部215输出的标记的姿势的推断结果的信息(姿势参数)。在该情况下,学习用图像取得部211将从对象提取部215输出的标记的姿势的推断结果的信息(姿势参数)所对应的仿真图像合成到临床图像而得的学习用图像(正例图像以及负例图像)向学习部112输出。
另外,在对象提取部215输出包含标记图像的部分区域的正例图像的情况下,学习用图像取得部211取得对应的负例图像,将从对象提取部215输出的正例图像与取得的负例图像作为学习用图像向学习部112输出。另外,在对象提取部215输出正例图像与负例图像作为包含标记图像的部分区域的图像的情况下,学习用图像取得部211将由从对象提取部215输出的正例图像与负例图像构成的学习用图像向学习部112输出。
另外,取得从学习用图像取得部211中的对象提取部215输出的包含标记图像的部分区域的图像、标记的姿势的推断结果的信息并将学习用图像向学习部112输出的功能,也可以是附加于构成第一实施方式的医用图像处理装置100的学习装置110所具备的学习用图像取得部111的功能之上的功能,也可以是取代学习用图像取得部111的功能的功能。
通过这种构成,在医用图像处理装置200中,基于实际上留置于患者P的标记的姿势与患者P的呼吸、心跳等联动而大幅变化的可能性低这一构思,来限定学习的标记图像。更具体而言,在医用图像处理装置200中,从在治疗前拍摄到的患者P的透视图像PI提取留置的标记的标记图像,或者推断留置的标记的姿势。然后,在医用图像处理装置200中,基于提取标记图像、或者推断出的标记图像的姿势、即限定的标记图像所对应的学习用图像,与第一实施方式的医用图像处理装置100相同地学习标记图像中共同的第一特征。由此,在医用图像处理装置200中,能够对于进行与任意姿势的标记对应的学习的第一实施方式的医用图像处理装置100,限定学习的标记图像。然后,医用图像处理装置200中,也与第一实施方式的医用图像处理装置100相同,基于学习到的标记的特征,追踪在治疗中拍摄到的患者P的透视图像PI即第一图像中拍摄到的标记,输出表示正在追踪的标记的位置的标记位置信号SM。并且,在医用图像处理装置200中,由于将所追踪的对象的标记限定于处于当前的患者P的体内的标记,因此能够提高追踪标记时的精度。由此,在医用图像处理装置200中,也与第一实施方式的医用图像处理装置100相同,能够自动地感测向患者P的体内的病灶照射治疗射束B的定时。由此,在具备医用图像处理装置200的治疗系统2中,也与具备第一实施方式的医用图像处理装置100的治疗系统1相同,能够在适当的定时向患者P的体内的病灶照射治疗射束B。
这里,对构成治疗系统2的医用图像处理装置200的动作的概略进行说明。这里,对构成医用图像处理装置200的学习装置210的动作的概略进行说明。图7A以及图7B是表示构成第二实施方式的医用图像处理装置200的学习装置210的动作的流程的流程图的一个例子。图7A中示出了学习装置210取得从第二图像提取的标记图像所对应的学习用图像的情况下的动作的流程的一个例子。另外,图7B中示出了学习装置210取得与根据从第二图像提取的标记图像推断出的标记的姿势对应的学习用图像的情况下的动作的流程的一个例子。在医用图像处理装置200所具备的学习装置210中,进行图7A所示的动作以及图7B所示的动作中的某一方的动作或者两方的动作,取得学习用图像。另外,在图7所示的表示学习装置210的动作的流程的流程图的一个例子中,省略了在取得学习用图像之后进行的、与第一实施方式的医用图像处理装置100所具备的学习装置110相同的第一特征的学习以及特征提取参数向参数存储部113的存储的动作的流程。
首先,使用图7A,对学习装置210取得从第二图像提取的标记图像所对应的学习用图像的动作进行说明。若学习装置210开始动作,则第二图像取得部214首先取得第二图像(步骤S210)。接着,对象提取部215提取从第二图像取得部214输出的第二图像内所含的标记图像(步骤S211)。接着,学习用图像取得部211取得从对象提取部215输出的包含标记图像的部分区域的图像(也可以是模板的图像)所对应的学习用图像(步骤S212)。之后,学习装置210与图3所示的表示第一实施方式的医用图像处理装置100所具备的学习装置110的动作的流程的流程图的一个例子的各个步骤相同,进行学习用图像(正例图像以及负例图像)的取得、以及提取出的标记的标记图像中共同的第一特征的学习以及特征提取参数的计算,并将计算出的特征提取参数向参数存储部113输出而存储。
接着,使用图7B,对学习装置210取得与根据从第二图像提取的标记图像推断出的标记的姿势对应的学习用图像的动作进行说明。若学习装置210开始动作,则第二图像取得部214首先取得第二图像(步骤S220)。接着,对象提取部215提取从第二图像取得部214输出的第二图像内所含的标记图像,根据包含提取出的标记图像的部分区域的图像(也可以是模板的图像)推断标记的姿势(步骤S221)。接着,学习用图像取得部211取得从对象提取部215输出的标记的姿势的推断结果的信息(姿势参数)所对应的学习用图像(步骤S222)。之后,学习装置210与图3所示的表示第一实施方式的医用图像处理装置100所具备的学习装置110的动作的流程的流程图的一个例子的各个步骤相同,进行学习用图像(正例图像以及负例图像)的取得、以及提取出的标记的标记图像中共同的第一特征的学习以及特征提取参数的计算,将计算出的特征提取参数向参数存储部113输出而存储。
接下来,对构成治疗系统2的医用图像处理装置200所具备的学习装置210的详细动作进行说明。首先,说明构成医用图像处理装置200的学习装置210所具备的对象提取部215在图7所示的表示学习装置210的动作的流程的流程图的一个例子的步骤S211或者步骤S221中提取第二图像内所含的标记图像的方法。另外,由对象提取部215进行的自第二图像的标记图像的提取是作为取得学习用图像的前阶段而进行的,因此如上述那样,不要求实时性。
在第二图像是在治疗计划时拍摄到的三维的CT图像的情况下,标记的可视性较高,因此利用治疗系统2的放射线治疗的实施者(医生等)能够一边通过目视观察确认一边指定标记图像。在该情况下,对象提取部215能够容易地提取由治疗系统1的利用者指定的CT图像内的标记图像作为第二图像内所含的标记图像。然后,对象提取部215切出从CT图像提取的包含标记图像的预先确定的一部分的区域(部分区域),并作为包含标记图像的部分区域的图像而输出。另外,在该情况下,对象提取部215能够基于由治疗系统1的利用者指定的CT图像内的标记图像的信息,容易地推断标记的姿势。另外,由于CT图像是三维的图像,因此对象提取部215也可以基于指定的CT图像内的标记图像的信息,切出根据CT图像制作出的二维的DRR图像内的包含标记图像的一部分的区域,并作为包含标记图像的部分区域的图像而输出。
另外,在第二图像是透视图像PI的情况下,能够通过与构成第一实施方式的医用图像处理装置100所具备的学习装置110的学习部112、构成运动体追踪装置120的追踪部122所具备的识别器相同的处理,确定标记的位置。在该情况下,对象提取部215能够基于确定的标记的位置的信息提取第二图像内所含的标记图像。另外,在该情况下,对象提取部215能够根据确定的标记的位置所表示的标记图像来推断标记的姿势。
另外,如上述那样,对象提取部215能够通过模板匹配来确定第二图像内所含的标记的位置。在该情况下,对象提取部215能够基于通过模板匹配确定的标记的位置的信息,提取第二图像内所含的标记图像。另外,在该情况下,对象提取部215能够基于由治疗系统1的利用者指定的CT图像内的标记图像的信息,容易地推断标记的姿势。另外,在该情况下,对象提取部215能够根据在确定标记时使用的模板来推断标记的姿势。
这里,说明构成医用图像处理装置200的学习装置210所具备的对象提取部215在图7B所示的表示学习装置210的动作的流程的流程图的一个例子的步骤S221中根据提取出的标记图像来推断标记的姿势的方法。这里,对对象提取部215通过模板匹配提取第二图像内所含的标记图像的情况下的标记的姿势的推断方法进行说明。另外,在以下的说明中,留置于患者P的体内的标记设为球型标记以外的标记,作为其一个例子,对推断棒型标记M的姿势的情况进行说明。
图8是在构成第二实施方式的医用图像处理装置200的学习装置210中提取的标记的图像(棒型标记M的标记图像)的一个例子的图。另外,图8所示的棒型标记M的标记图像也是由构成第一实施方式的医用图像处理装置100的学习装置110所具备的学习用图像取得部111取得的、虚拟地制作出的仿真图像。另外,图8所示的棒型标记M的标记图像也能够用作对象提取部215通过模板匹配提取棒型标记M的标记图像时使用的模板的图像。图8中示出了能够由治疗系统2所具备的两个拍摄装置分别同时从两个方向拍摄的棒型标记M的标记图像的组。在图8中,各个列的上段的标记图像与下段的标记图像成为棒型标记M各自的姿势的一个组。
图8所示的各个棒型标记M的标记图像是一边依次改变表示棒型标记M的姿势的姿势参数一边制作的,因此棒型标记M的标记图像与棒型标记M的姿势参数对应。因此,在对象提取部215中,能够将图8所示的各个棒型标记M的标记图像的组作为模板,计算各个模板的组与各个第二图像中拍摄到的棒型标记M的标记图像的相似度。这里,能够在对象提取部215的相似度的计算中利用归一化互相关、互信息量等。然后,在对象提取部215中,通过确定与相似度成为最大的模板对应的姿势参数,能够推断第二图像中拍摄到的棒型标记M的姿势。
如此,对象提取部215从治疗前拍摄到的患者P的透视图像PI提取留置的棒型标记M的标记图像,并将包含提取出的棒型标记M的标记图像在内的部分区域的图像、或者根据包含提取的标记图像在内的部分区域的图像推断出标记的姿势后的结果的信息(图像),向学习用图像取得部211输出。之后,在医用图像处理装置200中,学习装置210也与第一实施方式的医用图像处理装置100所具备的学习装置110相同地进行学习用图像(正例图像以及负例图像)的取得、以及棒型标记M的标记图像中共同的第一特征的学习以及特征提取参数的计算,将计算出的特征提取参数预先存储于参数存储部113。然后,在医用图像处理装置200中,运动体追踪装置120也进行基于治疗中的第一图像内的棒型标记M的位置的预测、特征提取参数所表示的第一特征的棒型标记M的预测位置的似然度l(x)的计算以及治疗中第一图像所含的棒型标记M的位置xm的计算。然后,在医用图像处理装置200中,运动体追踪装置120也输出表示计算出的棒型标记M的位置xm的标记位置信号SM。
如上述那样,在第二实施方式的医用图像处理装置200中,学习装置210(更具体而言是对象提取部215)基于实际上留置于患者P的标记的姿势与患者P的呼吸、心跳等联动而大幅变化的可能性低这一构思,从治疗前拍摄到的患者P的透视图像PI提取留置的棒型标记M的标记图像,或者推断留置的棒型标记M的姿势。由此,在第二实施方式的医用图像处理装置200中,能够限定所学习的棒型标记M的标记图像。然后,在第二实施方式的医用图像处理装置200中,学习装置210(更具体而言是学习用图像取得部211)基于提取标记图像或者推断出的标记图像的姿势、即限定的棒型标记M的标记图像所对应的学习用图像,学习留置于患者P的体内的姿势被限定的棒型标记M的标记图像中共同的第一特征。之后,在第二实施方式的医用图像处理装置200中,也与第一实施方式的医用图像处理装置100相同,基于通过学习而获得的第一特征,计算表示棒型标记M的方向的特征的特征提取参数并存储于参数存储部113。然后,在第二实施方式的医用图像处理装置200中,也与第一实施方式的医用图像处理装置100相同,运动体追踪装置120追踪治疗中拍摄到的患者P的第一图像(透视图像PI)中所拍摄的棒型标记M,输出表示棒型标记M的位置的标记位置信号SM。
由此,在第二实施方式的医用图像处理装置200中,也与第一实施方式的医用图像处理装置100相同,能够高效地进行追踪棒型标记M时的计算,能够抑制棒型标记M的追踪的实时性的降低。另外,在第二实施方式的医用图像处理装置200中,也与第一实施方式的医用图像处理装置100相同,能够降低被认为在以往的模板匹配中存在与棒型标记M相似度较高的模板而产生的、棒型标记M的误追踪的可能性。
由此,在具备第二实施方式的医用图像处理装置200的治疗系统2中,也与具备第一实施方式的医用图像处理装置100的治疗系统1相同,能够在与患者P的呼气、吸气同步的适当的定时,安全地向病灶照射治疗射束B。
并且,在第二实施方式的医用图像处理装置200中,由于将所追踪的对象的棒型标记M限定于处于当前的患者P的体内的姿势的棒型标记M,因此能够提高追踪棒型标记M时的精度。
另外,在第二实施方式的医用图像处理装置200中,说明了所追踪的对象的标记是棒型标记M的情况,但与第一实施方式的医用图像处理装置100相同,所追踪的对象的标记并不限定于棒型标记M。
如上述说明那样,医用图像处理装置200还具备取得与第一图像在不同的时刻拍摄的透视图像PI作为第二图像的第二图像取得部214、以及提取第二图像中拍摄到的被拍摄体图像(标记)的对象提取部215,学习用图像取得部211取得第二图像中拍摄到的被拍摄体的姿势所对应的学习用图像。
另外,如上述说明那样,学习用图像也可以是将从第二图像提取的被拍摄体图像和拍摄了与第二图像相同的范围的临床图像合成而得的图像。
(第三实施方式)
以下,对第三实施方式进行说明。另外,具备第三实施方式的医用图像处理装置的治疗系统的构成是在具备图1所示的第一实施方式的医用图像处理装置100的治疗系统1的构成中使医用图像处理装置100替换为第三实施方式的医用图像处理装置(以下,称作“医用图像处理装置300”)的构成。在以下的说明中,将具备医用图像处理装置300的治疗系统称作“治疗系统3”。
另外,在以下的说明中,在具备医用图像处理装置300的治疗系统3的构成要素中,对与具备第一实施方式的医用图像处理装置100的治疗系统1的构成要素相同的构成要素,标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素即医用图像处理装置300的构成、动作以及处理进行说明。
医用图像处理装置300与第一实施方式的医用图像处理装置100相同,基于从放射线检测器13-1以及放射线检测器13-2输出的透视图像PI,追踪在放射线治疗中进行治疗的患者P的体内所留置的标记。由此,在医用图像处理装置300中,也与第一实施方式的医用图像处理装置100相同,能够追踪在放射线治疗中进行治疗的患者P的体内的病灶。然后,医用图像处理装置300与第一实施方式的医用图像处理装置100相同,基于追踪留置于患者P的体内的标记后的结果,自动地感测在放射线治疗中向病灶照射治疗射束B的定时。另外,医用图像处理装置300通过显示正在追踪留置于患者P的体内的标记的情形,使得利用治疗系统3的放射线治疗的实施者(医生等)能够进行监视。另外,医用图像处理装置300也显示根据正在追踪的标记的位置推测出的病灶的位置等,从而利用治疗系统3的放射线治疗的实施者(医生等)能够确认到正在正常地进行治疗。
以下,对构成治疗系统3的医用图像处理装置300的构成进行说明。图9是表示第三实施方式的医用图像处理装置300的概略构成的框图。图9所示的医用图像处理装置300具备学习装置110、运动体追踪装置320、以及显示部330。另外,学习装置110具备学习用图像取得部111、学习部112、以及参数存储部113。另外,运动体追踪装置320具备第一图像取得部321和追踪部122。
医用图像处理装置300是对第一实施方式的医用图像处理装置100追加了显示部330的构成。伴随于此,在医用图像处理装置300中,构成第一实施方式的医用图像处理装置100的运动体追踪装置120被替换为运动体追踪装置320。另外,在运动体追踪装置320中,构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的第一图像取得部121被替换为第一图像取得部321。另外,医用图像处理装置300所具备的其他构成要素是与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素。因而,在以下的说明中,在医用图像处理装置300的构成要素中,对与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素进行说明。
运动体追踪装置320与构成第一实施方式的医用图像处理装置100的运动体追踪装置120相同,在进行放射线治疗时,取得拍摄到医用图像处理装置300中追踪的标记的患者P的透视图像PI即第一图像,基于学习装置110学习到的标记的第一特征,追踪第一图像中拍摄到的标记。另外,运动体追踪装置320与构成第一实施方式的医用图像处理装置100的运动体追踪装置120相同,输出表示正在追踪的标记的位置的标记位置信号SM。进而,运动体追踪装置320将取得的第一图像与标记位置信号SM也向显示部330输出。
另外,运动体追踪装置320也可以构成为将表示正在追踪的标记在第一图像内的范围的信息与标记位置信号SM一同向显示部330输出。
第一图像取得部321与构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的第一图像取得部121相同,取得治疗中拍摄到的患者P的透视图像PI即第一图像,并将取得的第一图像向追踪部122输出。另外,第一图像取得部321将取得的第一图像也向显示部330输出。
另外,第一图像取得部321的动作除了将取得的第一图像也向显示部330输出以外,与构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的第一图像取得部121的动作相同。而且,具备第一图像取得部321的医用图像处理装置300的动作也可以考虑为与运动体追踪装置120的动作相同。即,具备第一图像取得部321的医用图像处理装置300的动作除了在图4所示的表示运动体追踪装置120的动作的流程的流程图的一个例子的步骤S101中将取得的第一图像向显示部330输出这一点不同以外,其他动作相同。因而,省略与运动体追踪装置320的动作相关的详细的说明。
显示部330例如是具备液晶显示器(LCD:Liquid Crystal Display)等显示装置的显示用户接口。显示部330取得从运动体追踪装置320输出的第一图像与标记位置信号SM。然后,显示部330显示基于取得的标记位置信号SM,在取得的第一图像内追踪留置于患者P的体内的标记的情形、和根据正在追踪的标记的位置推测出的病灶的位置等信息。更具体而言,显示部330显示用于使标记位置信号SM所表示的追踪的标记的位置的信息重叠于第一图像内而显示的图像。另外,显示部330基于标记位置信号SM所表示的正在追踪的标记的位置的信息,推测第一图像内拍摄到的病灶的位置,并显示用于使推测出的病灶的位置的信息重叠于第一图像内而显示的图像。
另外,运动体追踪装置320在为将表示正在追踪的标记的第一图像内的范围的信息与标记位置信号SM一同输出的构成的情况下,显示部330也可以显示用于使表示正在追踪的标记的第一图像内的范围的信息也与标记的位置的信息一同显示于第一图像内的图像。
这里,对显示部330基于标记位置信号SM推测第一图像内拍摄到的病灶的位置的方法进行说明。这里,说明在标记位置信号SM所表示的正在追踪的标记的位置是构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的追踪部122计算出的棒型标记M的位置xm的情况下,显示部330基于该棒型标记M的位置xm推测病灶的位置的方法。
显示部330通过下式(5)计算病灶的位置y。
[数式5]
y=Axm+T···(5)
在上式(5)中,A是2行×2列的矩阵。另外,在上式(5)中,T是1行×2列的矢量。另外,矩阵A以及矢量T是根据在治疗之前获得的一个以上的棒型标记M的位置与病灶的位置通过线性回归而求出的,由利用治疗系统3的放射线治疗的实施者(医生等)预先设定于显示部330。这里,用于求出矩阵A以及矢量T的棒型标记M的位置与病灶的位置例如能够利用针对在治疗计划时拍摄到的CT图像而言输入(设定)的病灶的范围(区域)与标记的范围(区域)而求出。另外,由于CT图像是三维的图像,因此能够根据从CT图像制作DRR图像时所投影的病灶的范围(区域)的重心与标记的范围(区域)的重心,通过回归预先求出棒型标记M的位置与病灶的位置的关系。
如此,显示部330基于从运动体追踪装置320输出的标记位置信号SM所表示的正在追踪的标记的位置的信息,推测从运动体追踪装置320输出的第一图像内所拍摄到的病灶的位置。然后,显示部330使推测出的病灶的位置的信息重叠地显示于第一图像内。
这里,对显示部330显示正在追踪留置于患者P的体内的棒型标记M的情形、和根据正在追踪的棒型标记M的位置推测出的病灶的位置等的信息的一个例子进行说明。图10是表示第三实施方式的医用图像处理装置300所具备的显示部330所显示的信息的图。图10中示出了正在显示如下信息的显示部330的显示画面的一个例子,所述信息为:医用图像处理装置300正在追踪留置于患者P的体内的棒型标记M的情形、和根据正在追踪的棒型标记M的位置推测出的病灶的位置的信息。
在图10中,在显示画面D的上层,在治疗装置10所具备的拍摄装置各自拍摄到的第一图像上显示了医用图像处理装置300正在追踪留置于患者P的体内的棒型标记M的情形。更具体而言,在显示于图10所示的显示画面D的上段的左侧的、由放射线源12-1与放射线检测器13-1的组构成的拍摄装置(以下,称作“拍摄装置-1”)拍摄到的第一图像TI-1中,示出了棒型标记M和追踪棒型标记M的追踪范围Ta-1。另外,在显示于图10所示的显示画面D的上层的右侧的、由放射线源12-2与放射线检测器13-2的组构成的拍摄装置(以下,称作“拍摄装置-2”)拍摄到的第一图像TI-2中,示出了棒型标记M和追踪棒型标记M的追踪范围Ta-2。
另外,在图10中,在显示画面D的下层,在治疗装置10所具备的拍摄装置各自拍摄到的第一图像上,显示了根据医用图像处理装置300正在追踪的棒型标记M的位置推测出的病灶的位置、和照射治疗射束B的位置的信息。更具体而言,在显示于图10所示的显示画面D的下段的左侧的拍摄装置-1所拍摄到的第一图像LI-1中,示出了根据棒型标记M的位置推测出的病灶F的位置、和对病灶F照射治疗射束B的照射位置Rp-1。另外,在显示于图10所示的显示画面D的下段的右侧的拍摄装置-2所拍摄到的第一图像LI-2中,示出了根据棒型标记M的位置推测出的病灶F的位置和对病灶F照射治疗射束B的照射位置Rp-2。
利用治疗系统3的放射线治疗的实施者(医生等)通过图10所示的显示部330的显示画面D的一个例子那样的显示,能够监视正在追踪留置于患者P的体内的棒型标记M的情形,能够确认是否正在对根据追踪的棒型标记M的位置推测出的病灶F正常地进行治疗。
如上述那样,在第三实施方式的医用图像处理装置300中,也与第一实施方式的医用图像处理装置100相同,学习装置110基于学习用图像,学习留置于患者P的体内的棒型标记M的标记图像中共同的第一特征,基于通过学习而获得的第一特征,计算用于追踪棒型标记M的特征提取参数而存储于参数存储部113。然后,在第三实施方式的医用图像处理装置300中,也与第一实施方式的医用图像处理装置100相同,运动体追踪装置320追踪在治疗中拍摄到的患者P的第一图像(透视图像PI)中所拍摄的棒型标记M,输出表示棒型标记M的位置的标记位置信号SM。
由此,在第三实施方式的医用图像处理装置300中,也与第一实施方式的医用图像处理装置100相同,能够高效地进行追踪棒型标记M时的计算,能够抑制棒型标记M的追踪的实时性的降低。另外,在第三实施方式的医用图像处理装置300中,也与第一实施方式的医用图像处理装置100相同,能够降低被认为在以往的模板匹配中存在与棒型标记M相似度较高的模板而产生的、棒型标记M的误追踪的可能性。
由此,在具备第三实施方式的医用图像处理装置300的治疗系统3中,也与具备第一实施方式的医用图像处理装置100的治疗系统1相同,能够在与患者P的呼气、吸气同步的适当的定时,安全地向病灶照射治疗射束B。
另外,在第三实施方式的医用图像处理装置300中,显示部330基于从运动体追踪装置320输出的标记位置信号SM,在从运动体追踪装置320输出的第一图像内,显示正在追踪留置于患者P的体内的棒型标记M的情形、和根据正在追踪的棒型标记M的位置推测出的病灶的位置等的信息。由此,在具备第三实施方式的医用图像处理装置300的治疗系统3中,利用治疗系统3的放射线治疗的实施者(医生等)能够监视对留置于患者P的体内的棒型标记M进行追踪的情形。另外,在具备第三实施方式的医用图像处理装置300的治疗系统3中,利用治疗系统3的放射线治疗的实施者(医生等)能够确认到正在对根据正在追踪的标记的位置推测出的病灶正常地进行治疗。
另外,在第三实施方式的医用图像处理装置300中,也说明了所追踪的对象的标记是棒型标记M的情况,但与第一实施方式的医用图像处理装置100相同,所追踪的对象的标记并不限定于棒型标记M。
另外,在第三实施方式的医用图像处理装置300中,说明了在图9所示的医用图像处理装置300的构成中,显示部330为如下构成的情况:取得从运动体追踪装置320输出的第一图像与标记位置信号SM,根据基于标记位置信号SM追踪的棒型标记M的位置来推测病灶F的位置,并重叠地显示于第一图像内。但是,根据正在追踪的棒型标记M的位置推测病灶F的位置的构成要素并不限定于显示部330,例如也可以构成为,由运动体追踪装置320所具备的追踪部122根据正在追踪的棒型标记M的位置推测病灶F的位置,并将推测出的病灶F的位置、大小等信息向显示部330输出。
另外,在第三实施方式的医用图像处理装置300中,说明了在图9所示的医用图像处理装置300的构成中,显示部330为医用图像处理装置300所具备的构成要素的情况。但是,显示部330并不限定于作为医用图像处理装置300所具备的构成要素的构成。例如也可以是将显示部330配备于医用图像处理装置300的外部的构成。另外,例如在具备第三实施方式的医用图像处理装置300的治疗系统3中,也可以是将显示部330的功能配备于治疗装置10的构成,该显示部330的功能也就是,显示基于从构成医用图像处理装置300的运动体追踪装置320输出的第一图像与标记位置信号SM的、信息和图像的功能。
如上述说明那样,医用图像处理装置300还具备显示所追踪的被拍摄体的位置的信息的显示部330。
另外,如上述说明那样,在医用图像处理装置300中,显示部330也可以使第一图像显示,并使第一图像内所追踪的被拍摄体的位置的信息重叠地显示于所显示的第一图像内。
另外,如上述说明那样,在医用图像处理装置300中,显示部330也可以使所治疗的对象的部位(病灶)的位置的信息重叠地显示于所显示的第一图像内。
(第四实施方式)
以下,对第四实施方式进行说明。另外,具备第四实施方式的医用图像处理装置的治疗系统的构成是在图1所示的具备第一实施方式的医用图像处理装置100的治疗系统1的构成中将医用图像处理装置100替换为第四实施方式的医用图像处理装置(以下,称作“医用图像处理装置400”)的构成。在以下的说明中,将具备医用图像处理装置400的治疗系统称作“治疗系统4”。
另外,在以下的说明中,在具备医用图像处理装置400的治疗系统4的构成要素中,对与具备第一实施方式的医用图像处理装置100的治疗系统1的构成要素相同的构成要素标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素即医用图像处理装置400的构成、动作以及处理进行说明。
医用图像处理装置400与第一实施方式的医用图像处理装置100相同,基于从放射线检测器13-1以及放射线检测器13-2输出的透视图像PI,追踪在放射线治疗中进行治疗的患者P的体内所留置的标记。由此,在医用图像处理装置400中,也与第一实施方式的医用图像处理装置100相同,能够追踪在放射线治疗中进行治疗的患者P的体内的病灶。另外,在医用图像处理装置400中,除了与第一实施方式的医用图像处理装置100相同的基于学习用图像的学习之外,也进行基于使用了模板的模板匹配的标记追踪,该模板与留置于患者P的体内的标记的姿势对应。但是,若使用标记所能够取得的所有姿势所对应的模板进行模板匹配,则有引起标记的追踪的实时性的降低的可能性。因此,在医用图像处理装置400中,在通过模板匹配来追踪标记的情况下,限定在模板匹配中使用的模板。由此,在医用图像处理装置400中,能够更稳健地进行标记的追踪。然后,医用图像处理装置400与第一实施方式的医用图像处理装置100相同,基于追踪留置于患者P的体内的标记后的结果,自动地感测在放射线治疗中向病灶照射治疗射束B的定时。
以下,对构成治疗系统4的医用图像处理装置400的构成进行说明。图11是表示第四实施方式的医用图像处理装置400的概略构成的框图。图11所示的医用图像处理装置400具备学习装置110和运动体追踪装置420。另外,学习装置110具备学习用图像取得部111、学习部112、以及参数存储部113。另外,运动体追踪装置420具备第一图像取得部121、追踪部422、模板取得部423、姿势检测部424、以及模板选择部425。
医用图像处理装置400是将构成第一实施方式的医用图像处理装置100的运动体追踪装置120替换为运动体追踪装置420的构成。运动体追踪装置420是对构成第一实施方式的医用图像处理装置100的运动体追踪装置120追加了模板取得部423、姿势检测部424、以及模板选择部425的构成。伴随于此,在医用图像处理装置400中,构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的追踪部122被替换为追踪部422。另外,医用图像处理装置400所具备的其他构成要素为与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素。因而,在以下的说明中,在医用图像处理装置400的构成要素中,对与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素进行说明。
运动体追踪装置420与构成第一实施方式的医用图像处理装置100的运动体追踪装置120相同,在进行放射线治疗时,取得拍摄到医用图像处理装置300中追踪的标记的患者P的透视图像PI即第一图像,基于学习装置110学习到的标记的第一特征,追踪第一图像中拍摄到的标记。进而,运动体追踪装置420也通过模板匹配来追踪标记。另外,运动体追踪装置420与构成第一实施方式的医用图像处理装置100的运动体追踪装置120相同,输出表示正在追踪的标记的位置的标记位置信号SM。
模板取得部423取得留置于患者P的体内的标记映在透视图像PI内的标记图像的模板。模板取得部423将取得的模板向姿势检测部424以及模板选择部425输出。这里,模板是与留置于患者P的体内的标记所能够取得的所有姿势对应的多个模板。与构成第一实施方式的医用图像处理装置100的学习装置110所具备的学习用图像取得部111所进行的正例图像的取得方法相同,一边将标记的姿势参数变更为各种值一边虚拟地生成各个模板。此时,姿势参数也可以基于与在第二实施方式的医用图像处理装置200中限定学习的标记图像时的构思相同的构思,来限定为了生成模板所要变更的值。
姿势检测部424从模板取得部423取得多个模板。另外,姿势检测部424从追踪部422取得正在追踪的标记的位置的信息。然后,姿势检测部424基于取得的标记的位置的信息,推断标记的姿势。另外,姿势检测部424推断标记的姿势的方法,与构成第二实施方式的医用图像处理装置200的学习装置210所具备的对象提取部215推断标记的姿势的方法相同。姿势检测部424将推断出的标记的姿势的信息向模板选择部425输出。
模板选择部425从模板取得部423取得多个模板。另外,模板选择部425取得从姿势检测部424输出的标记的姿势的信息。然后,模板选择部425基于取得的标记的姿势的信息,从取得的多个模板之中选择与正在追踪的标记的姿势对应的模板。另外,模板选择部425选择的模板并不限定于与正在追踪的标记的姿势对应的模板、即与正在追踪的标记的姿势对应的1组模板。追踪的标记与患者P的呼吸、心跳等联动地在体内移动。因此,模板选择部425也可以考虑标记的移动,并汇总选择以与正在追踪的标记的姿势对应的模板的姿势参数作为中心值、使姿势参数的值稍微变动的多组模板。在该情况下,相比于与标记所能够取得的所有姿势对应的模板的数量,选择的模板的数量更少,因此能够抑制基于模板匹配的标记追踪的鲁棒性的超过必要的降低。模板选择部425将选择出的模板向追踪部422输出。
追踪部422与构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的追踪部122相同,追踪从第一图像取得部121输出的第一图像中拍摄到的标记。追踪部422在进行标记的追踪时,在未从模板选择部425输出模板的情况下,与构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的追踪部122相同,基于学习装置110所具备的参数存储部113中存储的特征提取参数,追踪第一图像中拍摄到的标记。另一方面,追踪部422在进行标记的追踪时,在从模板选择部425输出了模板的情况下,通过使用了所输出的模板的模板匹配,追踪第一图像中拍摄到的标记。然后,追踪部122输出表示正在追踪的标记的位置的标记位置信号SM。另外,追踪部422将所追踪的标记的位置的信息向姿势检测部424输出。
通过这种构成,在医用图像处理装置400中,基于学习到的标记的第一特征或者选择出的模板,追踪位于当前的患者P的体内的标记,输出表示正在追踪的标记的位置的标记位置信号SM。由此,在医用图像处理装置400中,也与第一实施方式的医用图像处理装置100相同,能够自动地感测向患者P的体内的病灶照射治疗射束B的定时。由此,在具备医用图像处理装置400的治疗系统4中,也与具备第一实施方式的医用图像处理装置100的治疗系统1相同,能够在适当的定时向患者P的体内的病灶照射治疗射束B。并且,在医用图像处理装置400中,由于基于当前的患者P的体内存在的所追踪的对象的标记的姿势而限定了通过模板匹配追踪标记时所使用的模板,因此即使在通过模板匹配追踪标记的情况下,也能够与基于以往的模板匹配的标记的追踪相比提高鲁棒性。
这里,对构成治疗系统4的医用图像处理装置400的动作的概略进行说明。这里,对构成医用图像处理装置400的运动体追踪装置420的动作的概略进行说明。图12A以及图12B是表示构成第四实施方式的医用图像处理装置400的运动体追踪装置420的动作的流程的流程图的一个例子。图12A中示出了运动体追踪装置420追踪最初取得的第一图像中拍摄到的标记的情况下的动作的流程的一个例子。图12A所示的表示运动体追踪装置420的动作的流程的流程图的一个例子示出了如下动作的流程的一个例子:与构成第一实施方式的医用图像处理装置100的运动体追踪装置120相同,基于学习到的标记的特征而追踪最初取得的第一图像中拍摄到的标记,进而基于追踪到的标记的位置的信息,选择标记的姿势所对应的模板。另外,图12B示出了运动体追踪装置420追踪第二次之后取得的第一图像中拍摄到的标记的情况下的动作的流程的一个例子。图12B所示的表示运动体追踪装置420的动作的流程的流程图的一个例子示出了如下动作的流程的一个例子:通过使用了选择出的模板的模板匹配,追踪第二次之后取得的第一图像中拍摄到的标记。另外,图12所示的表示运动体追踪装置420的动作的流程的流程图的一个例子中包含与构成第一实施方式的医用图像处理装置100的运动体追踪装置120相同的动作(处理)。因而,在以下的说明中,在表示运动体追踪装置420的动作的流程的流程图的一个例子中,对与构成第一实施方式的医用图像处理装置100的运动体追踪装置120相同的动作(处理)赋予相同的步骤编号,对不同的动作(处理)重点进行说明。
首先,使用图12A,对运动体追踪装置420追踪最初取得的第一图像中拍摄到的标记的动作进行说明。若运动体追踪装置120开始动作,则第一图像取得部121首先取得最初的第一图像(步骤S103)。接着,追踪部422预测从第一图像取得部121输出的最初的第一图像内的标记的位置(步骤S104)。接着,追踪部422取得存储于参数存储部113的特征提取参数,基于取得的特征提取参数所表示的第一特征,计算预测到的标记的位置的似然度(步骤S105)。接着,追踪部422基于计算出的似然度,计算最初的第一图像所含的标记的位置(步骤S106)。然后,追踪部422输出表示计算出的最初的第一图像所含的正在追踪的标记的位置的标记位置信号SM。另外,追踪部422将所追踪的标记的位置的信息向姿势检测部424输出。接着,姿势检测部424基于从追踪部422输出的正在追踪的标记的位置的信息,推断标记的姿势(步骤S410)。另外,追踪部422将推断出的标记的姿势的信息向模板选择部425输出。接着,模板选择部425基于从姿势检测部424输出的标记的姿势的信息,选择与推断出的(最初追踪的)标记的姿势对应的模板。然后,模板选择部425将选择出的模板向追踪部422输出。
接着,使用图12B,对运动体追踪装置420追踪第二次之后取得的第一图像中拍摄到的标记的动作进行说明。若运动体追踪装置120开始动作,则第一图像取得部121首先取得第二次之后的第一图像(步骤S103)。接着,追踪部422预测从第一图像取得部121输出的第二次之后的第一图像内的标记的位置(步骤S104)。接着,追踪部422通过使用了从模板选择部425输出的模板的模板匹配,计算预测到的标记的位置的似然度(步骤S420)。接着,追踪部422基于计算出的似然度,计算第二次之后的第一图像所含的标记的位置(步骤S106)。然后,追踪部422输出表示计算出的第二次之后的第一图像所含的正在追踪的标记的位置的标记位置信号SM。另外,追踪部422将所追踪的标记的位置的信息向姿势检测部424输出。接着,姿势检测部424基于从追踪部422输出的所追踪的标记的位置的信息,推断标记的姿势(步骤S410)。另外,追踪部422将推断出的标记的姿势的信息向模板选择部425输出。接着,模板选择部425基于从姿势检测部424输出的标记的姿势的信息,选择与推断出的(第二次之后追踪的)标记的姿势对应的模板。然后,模板选择部425将选择出的模板向追踪部422输出。
在运动体追踪装置420中,通过统一基于图12A所示的学习到的标记的特征追踪到的标记的位置、和通过图12B所示的模板匹配追踪到的标记的位置,实现了运动体追踪装置420中的鲁棒性较高的标记的追踪。
这里,说明运动体追踪装置420所具备的追踪部422通过使用了由模板选择部425选择出的模板的模板匹配来追踪第一图像中拍摄到的标记的方法。追踪部422在图12B所示的表示运动体追踪装置420的动作的流程的流程图的一个例子的步骤S420中,与构成第一实施方式的医用图像处理装置100的运动体追踪装置120所具备的追踪部122相同地对预测到的标记的位置的似然度进行计算。另外,在以下的说明中,留置于患者P的体内的标记设为球型标记以外的标记,作为其一个例子,对标记是棒型标记M的情况进行说明。
这里,追踪部422所计算的似然度是表示追踪部422预测到的第二次之后取得的第一图像即治疗中第一图像内的棒型标记M的位置所拍摄到的图像、与模板的相似度的值。另外,相似度的计算中能够利用归一化互相关、互信息量等。除此之外,也可以将分离度作为相似度。
以下,参照图13,对分离度的计算方法进行说明。图13是表示在构成第四实施方式的医用图像处理装置400的运动体追踪装置420中使用于标记的追踪的模板的一个例子的图。在图13所示的模板的一个例子中,分类为棒型标记M存在的第一区域A1和第一区域A1以外的第二区域(即,不存在棒型标记M的区域)A2。在分离度的计算中,在第一图像存在与模板相同的区域的情况下,第一图像所含的像素值的直方图分别被分类为属于第一区域A1的像素值的直方图和属于第二区域A2的像素值的直方图。这是因为,在映在第一图像的棒型标记M的标记图像与第一区域A1重叠的情况下,属于第一区域A1的像素值的直方图的暗像素的像素值的频率变高,属于第二区域A2的像素值的直方图的亮像素的像素值的频率变高。在分离度的计算中,使用费舍尔的判别基准,使上述那样的像素值的直方图的分离性数值化。然后,在分离度的计算中,计算属于各个区域内的像素的像素值的方差的平均(类内方差)和各个区域间的像素值的方差(类间方差)之比,将该比设为分离度。如此,能够使用模板来计算所预测的标记的位置的似然度。然后,在追踪部422中,使用计算出的所预测的标记的位置的似然度与通过追踪部422所具备的识别器求出的似然度之积进行追踪,从而能够进行稳健的追踪。
如上述那样,在第四实施方式的医用图像处理装置400中,也是由学习装置110在进行放射线治疗之前,取得医用图像处理装置400中的学习用图像,根据取得的学习用图像来学习用于检测标记图像的第一特征,基于学习到的第一特征,计算表示标记的特征的特征提取参数而存储于参数存储部113。另外,在第四实施方式的医用图像处理装置400中,运动体追踪装置420所具备的模板取得部423取得留置于患者P的体内的棒型标记M映在透视图像PI(第一图像)内的标记图像的模板。然后,在第四实施方式的医用图像处理装置400中,基于特征提取参数所表示的第一特征,追踪最初取得的第一图像中拍摄到的棒型标记M,基于追踪到的棒型标记M的位置的信息,推断棒型标记M的姿势,选择棒型标记M的姿势所对应的模板。另外,在第四实施方式的医用图像处理装置400中,通过使用了选择出的模板的模板匹配,追踪第二次之后取得的第一图像中拍摄到的棒型标记M,同样地推断棒型标记M的姿势,选择棒型标记M的姿势所对应的模板。之后,同样是在第四实施方式的医用图像处理装置400中,通过使用了选择出的模板的模板匹配,追踪取得的第一图像中拍摄到的棒型标记M,同样地推断棒型标记M的姿势,选择棒型标记M的姿势所对应的模板并且追踪棒型标记M。然后,在第四实施方式的医用图像处理装置400中,也与第一实施方式的医用图像处理装置100相同,运动体追踪装置420输出表示所追踪的棒型标记M的位置的标记位置信号SM。
由此,在第四实施方式的医用图像处理装置400中,也与第一实施方式的医用图像处理装置100相同,能够高效地进行追踪棒型标记M时的计算,能够抑制棒型标记M的追踪的实时性的降低。而且,在第四实施方式的医用图像处理装置400中,虽然有通过模板匹配来追踪棒型标记M的情况,但一边基于当前的患者P的体内存在的追踪的对象的棒型标记M的姿势来限定在模板匹配中使用的模板,一边追踪棒型标记M。由此,在第四实施方式的医用图像处理装置400中,能够提高通过模板匹配追踪棒型标记M的情况下的鲁棒性。由此,在第四实施方式的医用图像处理装置400中,也与第一实施方式的医用图像处理装置100相同,能够降低被认为在以往的模板匹配中由于存在与棒型标记M相似度较高的模板而产生的、棒型标记M的误追踪的可能性。
由此,在具备第四实施方式的医用图像处理装置400的治疗系统4中,也与具备第一实施方式的医用图像处理装置100的治疗系统1相同,能够在与患者P的呼气、吸气同步的适当的定时,安全地向病灶照射治疗射束B。
另外,在第四实施方式的医用图像处理装置400中,也说明了所追踪的对象的标记是棒型标记M的情况,但与第一实施方式的医用图像处理装置100相同,所追踪的对象的标记并不限定于棒型标记M。
如上述说明那样,医用图像处理装置400还具备取得被拍摄体图像的模板的模板取得部423、基于追踪部422追踪到的被拍摄体的位置的信息来检测被拍摄体的姿势的姿势检测部424、以及选择与被拍摄体的姿势对应的模板的模板选择部425,追踪部422在通过模板选择部425选择了模板的情况下,使用所选择的模板追踪被拍摄体。
(第五实施方式)
以下,对第五实施方式进行说明。另外,具备第五实施方式的医用图像处理装置的治疗系统的构成是在具备图1所示的第一实施方式的医用图像处理装置100的治疗系统1的构成中将医用图像处理装置100替换为第五实施方式的医用图像处理装置(以下,称作“医用图像处理装置500”)的构成。在以下的说明中,将具备医用图像处理装置500的治疗系统称作“治疗系统5”。
另外,在以下的说明中,在具备医用图像处理装置500的治疗系统5的构成要素中,对与具备第一实施方式的医用图像处理装置100的治疗系统1的构成要素相同的构成要素标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素即医用图像处理装置500的构成、动作以及处理进行说明。
医用图像处理装置500与第一实施方式的医用图像处理装置100相同,基于从放射线检测器13-1以及放射线检测器13-2输出的透视图像PI,追踪在放射线治疗中进行治疗的患者P的体内所留置的标记。由此,在医用图像处理装置500中,也与第一实施方式的医用图像处理装置100相同,能够追踪在放射线治疗中进行治疗的患者P的体内的病灶。然后,医用图像处理装置500与第一实施方式的医用图像处理装置100相同,基于追踪了留置于患者P的体内的标记后的结果,自动地感测在放射线治疗中向病灶照射治疗射束B的定时。然后,医用图像处理装置500基于追踪了留置于患者P的体内的标记后的结果,控制治疗装置10所具备的治疗射束照射门14的治疗射束B的照射、和放射线源12的放射线r的照射。
以下,对构成治疗系统5的医用图像处理装置500的构成进行说明。图14是表示第五实施方式的医用图像处理装置500的概略构成的框图。图14所示的医用图像处理装置500具备学习装置110、运动体追踪装置120、以及控制部540。另外,学习装置110具备学习用图像取得部111、学习部112、以及参数存储部113。另外,运动体追踪装置120具备第一图像取得部121和追踪部122。
医用图像处理装置500是对第一实施方式的医用图像处理装置100追加了控制部540的构成。另外,医用图像处理装置500所具备的其他构成要素是与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素。因而,在以下的说明中,在医用图像处理装置500的构成要素中,对与第一实施方式的医用图像处理装置100所具备的构成要素相同的构成要素标注相同的附图标记,省略与各个构成要素相关的详细的说明。而且,在以下的说明中,仅对与第一实施方式的医用图像处理装置100不同的构成要素进行说明。
构成医用图像处理装置500的运动体追踪装置120所具备的追踪部122将表示正在追踪的标记的位置的标记位置信号SM向控制部540输出。
控制部540基于从运动体追踪装置120所具备的追踪部122输出的标记位置信号SM,控制具备医用图像处理装置500的治疗系统5中的放射线治疗。更具体而言,控制部540基于从追踪部122输出的标记位置信号SM所表示的正在追踪的标记的位置的信息,判定正在追踪的标记的位置是否处于进行放射线治疗的规定的范围(区域)内,并输出对治疗系统5中的放射线治疗进行控制的控制信号。即,在患者P的体内的病灶的位置位于进行放射线治疗的规定的范围(区域)内的情况下,控制部540进行治疗系统5中的放射线治疗,在患者P的体内的病灶的位置不处于进行放射线治疗的规定的范围(区域)内的情况下,输出控制成不进行治疗系统5中的放射线治疗的控制信号。在以下的说明中,将向病灶照射治疗射束B的位置以及规定的范围(区域)称作“门窗(gate window)”。
门窗是治疗计划的阶段等进行放射线治疗之前所设定的、照射治疗射束B的位置或者范围(区域)。门窗基于在治疗计划时拍摄到的CT图像中所指定的标记的位置而决定。在治疗计划中,基于在进行实际的治疗时可能产生的误差,预先设定了裕度(余量)。因此,作为门窗,设定了以CT图像内的标记的位置为中心并对其中心的位置附加了余量而成的三维的区域。另外,门窗也可以将对于CT图像设定的范围(区域)设定为,向根据CT图像制作出的DRR图像、第一图像投影到的范围(区域)。另外,门窗也可以附加设定有余量,该余量是考虑到即将开始治疗之前的患者P的状态而设定的。通过考虑上述那样的情况来设定门窗,能够避免对患者P进行不适当的治疗射束B、不必要的放射线r的照射那样的情况、所谓的被辐射。
这里,对在进行放射线治疗之前进行的治疗计划进行说明。在治疗计划中,确定向患者P照射的治疗射束B(放射线)的能量、照射方向、照射范围的形状、分为多次照射治疗射束B的情况下的射线量的分配等。更具体而言,首先,治疗计划的立案者(医生等)在治疗计划的阶段中对于拍摄到的CT图像指定肿瘤(病灶)的区域与正常组织的区域的边界、肿瘤与位于其周边的重要脏器的边界等。然后,在治疗计划中,基于根据所指定的肿瘤相关的信息计算出的、从患者P的体表面到肿瘤的位置的深度、肿瘤的大小,决定所照射的治疗射束B的方向(路径)、强度等。此时,留置于患者P的体内的标记的位置也被指定(输入)。
上述肿瘤的区域与正常组织的区域的边界的指定相当于指定肿瘤的位置以及体积。该肿瘤的体积被称作肉眼肿瘤体积(Gross Tumor Volume:GTV)、临床靶体积(ClinicalTarget Volume:CTV)、内靶体积(Internal Target Volume:ITV)、计划靶体积(PlanningTarget Volume:PTV)等。GTV是能够通过肉眼从图像确认的肿瘤的体积,并且是在放射线治疗中需要照射足够射线量的治疗射束B的体积。CTV是包含GTV与应治疗的潜在性肿瘤的体积。ITV是考虑到CTV因所预测的患者P的生理活动等而移动的情况而对CTV附加了预先确定的裕度(余量)后的体积。PTV是考虑到在进行治疗时进行的患者P的对位中的误差而对ITV附加了余量后的体积。在这些体积中,下式(6)的关系成立。
[数式6]
GTV∈CTV∈ITV∈PTV...(6)
因此,在治疗计划的阶段中,在考虑了在实际的治疗中可能产生的误差的余量的基础上,来决定向患者P照射治疗射束B的位置以及范围(区域)。此时所考虑的在实际的治疗中可能产生的误差,例如是患者P的定位时可能产生的患者P的位置的偏移等,患者P的定位是为了使患者P的体内的病灶、骨骼等位置与治疗计划时的位置对准而进行的。
在控制部540中的放射线治疗的控制中,例如控制治疗装置10所具备的治疗射束照射门14的治疗射束B的照射、和放射线源12以及放射线检测器13的透视图像PI的拍摄。更具体而言,在示出了从追踪部122输出的标记位置信号SM所表示的正在追踪的标记的位置、即患者P的体内的病灶的位置位于在放射线治疗中向病灶照射治疗射束B的门窗内的情况下,控制部540输出控制成使治疗射束照射门14照射治疗射束B的控制信号。另外,在示出了标记位置信号SM所表示的正在追踪的标记的位置不在门窗内、但在能够取得透视图像PI的范围(区域)内的情况下,控制部540输出控制成使放射线源12照射放射线r、使放射线检测器13检测通过患者P的体内而到达的放射线r并生成患者P的体内的透视图像PI(第一图像)的控制信号。
另外,在示出了标记位置信号SM所表示的正在追踪的标记的位置处于大幅脱离通常可取得的轨迹等的异常的范围的情况下,控制部540输出控制成停止治疗射束照射门14的治疗射束B的照射的控制信号。此时,控制部540也可以输出控制成停止放射线源12的放射线r的照射和由放射线检测器13进行的透视图像PI的生成、即停止透视图像PI(第一图像)的拍摄的控制信号。通过如此控制,能够避免对于患者P照射不适当的治疗射束B和不必要的放射线r。
另外,作为正在追踪的标记的位置向异常范围移动那样的意外情况的重要因素,考虑患者P的咳嗽、喷嚏、患者P睡觉期间的呼吸暂停综合症的产生等。这种重要因素所带来的意外情况被认为不需要较长时间就可以被消除,即患者P的咳嗽、喷嚏等停止,就会成为能够再次开始放射线治疗的稳定的状态。因此,控制部540也可以如下这样控制:在示出了正在追踪的标记的位置处于异常范围的情况下,不立即停止透视图像PI(第一图像)的拍摄,而是将透视图像PI(第一图像)的拍摄间隔加长预先确定的时间期间,在之后也示出了正在追踪的标记的位置处于异常范围的情况下,才停止透视图像PI(第一图像)的拍摄。
通过这种构成以及动作,医用图像处理装置500与第一实施方式的医用图像处理装置100相同,基于学习到的标记的特征,追踪位于当前的患者P的体内的标记,输出表示正在追踪的标记的位置的标记位置信号SM。然后,医用图像处理装置500基于标记位置信号SM所表示的正在追踪的标记的位置,自动地感测向患者P的体内的病灶照射治疗射束B的定时、在治疗中拍摄患者P的体内的透视图像PI(第一图像)的定时、进而是意外情况。然后,在医用图像处理装置500中,基于感测到的结果,由控制部540控制治疗装置10所具备的治疗射束照射门14的治疗射束B的照射、放射线源12的放射线r的照射。由此,在具备医用图像处理装置500的治疗系统5中,也与具备第一实施方式的医用图像处理装置100的治疗系统1相同,能够在适当的定时向患者P的体内的病灶照射治疗射束B。另外,在医用图像处理装置500中,控制部540在检测出患者P的意外情况的情况下,控制成停止治疗射束B与放射线r向患者P的照射。由此,在具备医用图像处理装置500的治疗系统5中,能够更安全地进行放射线治疗。
如上述那样,在第五实施方式的医用图像处理装置500中,与第一实施方式的医用图像处理装置100相同,学习装置110基于学习用图像,学习留置于患者P的体内的标记的标记图像中共同的第一特征,基于通过学习而获得的第一特征,计算用于追踪标记的特征提取参数而存储于参数存储部113。然后,在第五实施方式的医用图像处理装置500中,也与第一实施方式的医用图像处理装置100相同,运动体追踪装置120追踪在治疗中拍摄到的患者P的第一图像(透视图像PI)中所拍摄的标记,输出表示标记的位置的标记位置信号SM。
由此,在第五实施方式的医用图像处理装置500中,也与第一实施方式的医用图像处理装置100相同,能够高效地进行追踪标记时的计算,抑制标记的追踪的实时性的降低。另外,在第五实施方式的医用图像处理装置500中,也与第一实施方式的医用图像处理装置100相同,能够降低被认为在以往的模板匹配中因存在与标记相似度较高的模板而产生的、标记的误追踪的可能性。
由此,在具备第五实施方式的医用图像处理装置500的治疗系统5中,也与具备第一实施方式的医用图像处理装置100的治疗系统1相同,能够在与患者P的呼气、吸气同步的适当的定时,安全地向病灶照射治疗射束B。
另外,在第五实施方式的医用图像处理装置500中,控制部540基于标记位置信号SM控制治疗装置10中的治疗射束B与放射线r的照射、停止。由此,在具备第五实施方式的医用图像处理装置500的治疗系统5中,能够根据追踪治疗中的患者P的体内所留置的标记的位置的状况而安全地进行放射线治疗。即,在具备第五实施方式的医用图像处理装置500的治疗系统5中,能够减少向患者P的正常组织照射不适当的治疗射束B和照射不必要的放射线r的可能性。
另外,在第五实施方式的医用图像处理装置500中,在图14所示的医用图像处理装置500的构成中,说明了控制部540是医用图像处理装置500所具备的构成要素的情况。但是,控制部540并不限定于作为医用图像处理装置500所具备的构成要素的构成。例如,在具备第五实施方式的医用图像处理装置500的治疗系统5中,也可以构成为,治疗装置10具备控制部540的功能,该控制部540的功能是如下功能:基于从构成医用图像处理装置500的运动体追踪装置120所具备的追踪部122输出的标记位置信号SM,对治疗系统5中的放射线治疗进行控制(控制治疗射束B、放射线r的照射)。
如上述说明那样,医用图像处理装置500还具备基于追踪部122追踪到的被拍摄体的位置的信息来控制对于所治疗的对象的部位(病灶)的治疗的控制部540。
另外,如上述说明那样,控制部540也可以基于追踪部122追踪到的被拍摄体的位置的信息,来控制被拍摄体的拍摄。
如上所述,在各实施方式的医用图像处理装置中,将在治疗前模拟了留置于患者的体内时标记所能够取得的所有方向的仿真图像作为学习用图像,学习标记中共同的特征,基于通过学习而获得的特征,计算表示标记的方向的特征的特征提取参数而存储于参数存储部。然后,在各实施方式的医用图像处理装置中,基于特征提取参数所表示的标记的方向的特征,追踪在治疗中拍摄到的患者的透视图像PI中所拍摄的标记,输出表示留置于患者的体内的标记的位置的标记位置信号SM。由此,在各实施方式的医用图像处理装置中,能够高效地进行追踪标记时的计算,并抑制标记的追踪的实时性的降低,降低标记的误追踪的可能性。由此,在具备各实施方式的医用图像处理装置的治疗系统中,能够基于所追踪的标记的位置,自动地感测对于与患者的呼吸、心跳等联动地移动的病灶照射治疗射束的适当的定时。而且,在具备各实施方式的医用图像处理装置的治疗系统中,能够在与患者的呼气、吸气同步的适当的定时安全地进行向病灶照射治疗射束的放射线治疗。
另外,在第二实施方式至第五实施方式中,说明了对第一实施方式的医用图像处理装置100追加了各个实施方式之中成为特征的构成要素的构成。但是,各个实施方式中成为特征的构成要素并不限定于医用图像处理装置中排他地具备的构成。即,各个实施方式之中成为特征的构成要素也可以同时配备在医用图像处理装置中。例如也可以构成同时具备第三实施方式的医用图像处理装置300中所配备的显示部330和第五实施方式的医用图像处理装置500中所配备的控制部540的医用图像处理装置。在该情况下,医用图像处理装置所具备的其他构成要素通过适当变更而实现各个构成要素所对应的功能。
另外,在各实施方式中,说明了医用图像处理装置与治疗装置10各自为独立的装置的构成。但是,医用图像处理装置与治疗装置10并不限定于是独立的装置的构成,也可以是医用图像处理装置与治疗装置10成为一体的构成。
在上述实施方式中说明过的治疗系统中使用的医用图像处理程序是用于使计算机作为如下医用图像处理装置发挥功能的医用图像处理程序,该医用图像处理装置具备:第一图像取得部,取得患者的透视图像PI作为第一图像;以及追踪部,基于从多个方向观察留置于患者的体内的被拍摄体而得的多个被拍摄体的图像即被拍摄体图像中共同的第一特征,追踪第一图像中拍摄到的被拍摄体。
根据以上说明的至少一个实施方式,通过具有第一图像取得部(121)和追踪部(122),能够根据在放射线治疗中正在照射放射线的患者的透视图像PI,自动地追踪预先留置于患者的体内的标记,该第一图像取得部(121)取得患者P的透视图像PI作为第一图像,该追踪部(122)基于从多个方向观察留置于患者P的体内的被拍摄体(标记)而得的多个被拍摄体的图像即被拍摄体图像(标记图像)中共同的第一特征,追踪第一图像中拍摄到的被拍摄体。
另外,也可以将用于实现例如图2中所示的包含学习用图像取得部111、学习部112、以及参数存储部113的学习装置110、包含第一图像取得部121以及追踪部122的运动体追踪装置120等构成医用图像处理装置的各构成要素所带来的功能的程序记录于计算机可读取的记录介质,使计算机系统读入并执行记录于该记录介质的程序,从而实现上述的各实施方式的治疗系统的上述各种功能。另外,这里所说的“计算机系统”也可以包含OS、周边设备等硬件。另外,“计算机系统”如果是在利用了WWW系统的情况下,也包含主页提供环境(或者显示环境)。另外,“计算机可读取的记录介质”指的是软盘、磁光盘、ROM、闪存等可写入的非易失性存储器、CD-ROM等可移动介质、内置于计算机系统的硬盘等存储装置。
而且,“计算机可读取的记录介质”也包含如经由因特网等网络、电话线路等通信线路被发送了程序的情况下成为服务器、客户端的计算机系统内部的易失性存储器(例如DRAM(Dynamic Random Access Memory))那样在一定时间内保持程序的介质。另外,上述程序也可以从在存储装置等储存有该程序的计算机系统经由传送介质、或者通过传送介质中的传送波向其他计算机系统传送。这里,传送程序的“传送介质”指的是如因特网等网络(通信网)、电话线路等通信线路(通信线路)那样具有传送信息的功能的介质。另外,上述程序也可以用于实现前述功能的一部分。而且,也可以是通过与已将前述功能记录于计算机系统的程序的组合来实现的所谓的差分文件(差分程序)。
虽然说明了本发明的几个实施方式,但这些实施方式是作为例子而提出的,并不意图限定发明的范围。这些实施方式能够以其他各种方式实施,在不脱离发明的主旨的范围内,能够进行各种省略、替换、变更。这些实施方式及其变形包含在发明的范围、主旨中,同样包含在权利要求书所记载的发明与其等效的范围内。
附图标记说明
1、2、3、4、5 治疗系统
10 治疗装置
11 治疗台
12、12-1、12-2 放射线源
13、13-1、13-2 放射线检测器
14治疗射束照射门
100、200、300、400、500 医用图像处理装置
110、210 学习装置
111、211 学习用图像取得部
112 学习部
113 参数存储部
120、320、420 运动体追踪装置
121、321 第一图像取得部
122、422 追踪部
214 第二图像取得部
215 对象提取部
330 显示部
423 模板取得部
424 姿势检测部
425 模板选择部
540 控制部

Claims (18)

1.一种医用图像处理装置,具备:
第一图像取得部,取得患者的透视图像作为第一图像;以及
追踪部,基于从多个方向观察留置于所述患者的体内的被拍摄体而得到的多个所述被拍摄体的图像即被拍摄体图像中共同的第一特征,追踪所述第一图像中拍摄到的所述被拍摄体。
2.根据权利要求1所述的医用图像处理装置,还具备:
学习用图像取得部,取得与多个所述被拍摄体图像分别对应的多个学习用图像;以及
学习部,对多个所述学习用图像所含的所述被拍摄体图像的每一个中共同的所述第一特征进行学习。
3.根据权利要求2所述的医用图像处理装置,
所述学习用图像取得部,基于对所述第一图像进行拍摄的拍摄装置的几何信息和所述被拍摄体的三维的形状,取得基于模拟图像的所述学习用图像,所述模拟图像是模拟了所述被拍摄体被拍摄到所述第一图像中时的所述被拍摄体图像而得到的。
4.根据权利要求3所述的医用图像处理装置,
所述学习用图像是将所述模拟图像与所述第一图像合成而得到的图像。
5.根据权利要求3所述的医用图像处理装置,
所述学习用图像是将所述模拟图像和被拍摄了与所述第一图像相同的范围的临床图像合成而得到的图像。
6.根据权利要求2所述的医用图像处理装置,
所述学习用图像由正例图像以及负例图像构成,所述正例图像以所述被拍摄体图像的重心位于中心的方式被预先确定了范围,所述负例图像的所述被拍摄体图像的重心为所述正例图像的状态以外,且范围与所述正例图像相同。
7.根据权利要求2所述的医用图像处理装置,还具备:
第二图像取得部,取得在与所述第一图像不同的时刻拍摄到的所述透视图像作为第二图像;以及
对象提取部,提取所述第二图像中拍摄到的所述被拍摄体图像,
所述学习用图像取得部取得所述第二图像中拍摄到的所述被拍摄体的姿势所对应的所述学习用图像。
8.根据权利要求7所述的医用图像处理装置,
所述学习用图像是将从所述第二图像提取到的所述被拍摄体图像和被拍摄了与所述第二图像相同的范围的临床图像合成而得到的图像。
9.根据权利要求1所述的医用图像处理装置,还具备:
模板取得部,取得所述被拍摄体图像的模板;
姿势检测部,基于所述追踪部追踪到的所述被拍摄体的位置的信息,检测所述被拍摄体的姿势;以及
模板选择部,选择与所述被拍摄体的姿势对应的所述模板,
所述追踪部在利用所述模板选择部选择了所述模板的情况下,使用选择出的所述模板来追踪所述被拍摄体。
10.根据权利要求1所述的医用图像处理装置,
使所述第一图像进行显示,并使在所述第一图像内追踪到的所述被拍摄体的位置的信息重叠地显示于所显示的所述第一图像内。
11.根据权利要求10所述的医用图像处理装置,
使治疗的对象的部位的位置的信息重叠地显示于所显示的所述第一图像内。
12.根据权利要求1所述的医用图像处理装置,
还具备控制部,该控制部基于所述追踪部追踪到的所述被拍摄体的位置的信息,控制对于治疗的对象的部位的治疗。
13.根据权利要求12所述的医用图像处理装置,
所述控制部基于所述追踪部追踪到的所述被拍摄体的位置的信息,控制所述被拍摄体的拍摄。
14.根据权利要求1所述的医用图像处理装置,
所述被拍摄体是留置于所述患者的体内的标记。
15.根据权利要求14所述的医用图像处理装置,
所述标记是球型以外的形状。
16.一种治疗系统,具备:
权利要求1所述的医用图像处理装置;
治疗装置,具备向治疗的对象的部位照射治疗射束的照射部和拍摄所述被拍摄体的拍摄装置;以及
控制部,基于追踪到的所述被拍摄体的位置的信息,控制对于治疗的对象的部位的治疗。
17.根据权利要求16所述的治疗系统,
还具备对追踪到的所述被拍摄体的位置的信息进行显示的显示部。
18.一种医用图像处理程序,用于使计算机作为医用图像处理装置发挥功能,该医用图像处理装置具备:
第一图像取得部,取得患者的透视图像作为第一图像;以及
追踪部,基于从多个方向观察留置于所述患者的体内的被拍摄体而得到的多个所述被拍摄体的图像即被拍摄体图像中共同的第一特征,追踪所述第一图像中拍摄到的所述被拍摄体。
CN201980018104.6A 2018-03-12 2019-03-07 医用图像处理装置、治疗系统以及存储介质 Active CN111918697B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018044793A JP7113447B2 (ja) 2018-03-12 2018-03-12 医用画像処理装置、治療システム、および医用画像処理プログラム
JP2018-044793 2018-03-12
PCT/JP2019/009134 WO2019176734A1 (ja) 2018-03-12 2019-03-07 医用画像処理装置、治療システム、および医用画像処理プログラム

Publications (2)

Publication Number Publication Date
CN111918697A true CN111918697A (zh) 2020-11-10
CN111918697B CN111918697B (zh) 2023-11-10

Family

ID=67907857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980018104.6A Active CN111918697B (zh) 2018-03-12 2019-03-07 医用图像处理装置、治疗系统以及存储介质

Country Status (8)

Country Link
US (1) US20210042917A1 (zh)
EP (1) EP3766541B1 (zh)
JP (1) JP7113447B2 (zh)
KR (1) KR102579039B1 (zh)
CN (1) CN111918697B (zh)
RU (1) RU2020129466A (zh)
TW (1) TWI721384B (zh)
WO (1) WO2019176734A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767378A (zh) * 2021-01-28 2021-05-07 佛山科学技术学院 一种基于Dense-Unet的玻璃体浑浊程度评级方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113838B2 (en) * 2019-03-26 2021-09-07 Nec Corporation Deep learning based tattoo detection system with optimized data labeling for offline and real-time processing
US11871998B2 (en) 2019-12-06 2024-01-16 Stryker European Operations Limited Gravity based patient image orientation detection
JPWO2021171394A1 (zh) * 2020-02-26 2021-09-02
JP2022139429A (ja) * 2021-03-12 2022-09-26 東芝エネルギーシステムズ株式会社 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、および放射線治療装置
US11790627B2 (en) * 2022-01-20 2023-10-17 Lenovo Global Technology (United States) Inc. Using an object key to deprioritize processing of relative regions
WO2024077293A1 (en) * 2022-10-07 2024-04-11 Washington University Convolutional neural network classification of pretreatment biopsies

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053389B1 (ja) * 1998-12-03 2000-06-19 三菱電機株式会社 動体追跡照射装置
US20050054916A1 (en) * 2003-09-05 2005-03-10 Varian Medical Systems Technologies, Inc. Systems and methods for gating medical procedures
JP2009000369A (ja) * 2007-06-22 2009-01-08 Mitsubishi Electric Corp 放射線治療装置及び治療部位の位置決め方法
JP2010054807A (ja) * 2008-08-28 2010-03-11 Nikon Corp 電子カメラ
WO2011064875A1 (ja) * 2009-11-27 2011-06-03 三菱重工業株式会社 放射線治療装置制御方法および放射線治療装置制御装置
US20120041250A1 (en) * 2009-02-26 2012-02-16 National University Corporation Hokkaido University Target tracking device and radiation therapy apparatus
US20120093397A1 (en) * 2010-09-20 2012-04-19 Siemens Aktiengesellschaft Method and System for Learning Based Object Detection in Medical Images
US20120177271A1 (en) * 2011-01-06 2012-07-12 The Board Of Trustees Of The Leland Stanford Junior University 4D Anatomically Based Image Selection Procedure for Medical Imaging
US20120238866A1 (en) * 2011-03-14 2012-09-20 Siemens Aktiengesellschaft Method and System for Catheter Tracking in Fluoroscopic Images Using Adaptive Discriminant Learning and Measurement Fusion
WO2014155556A1 (ja) * 2013-03-27 2014-10-02 株式会社島津製作所 X線透視装置
CN104337536A (zh) * 2013-08-05 2015-02-11 株式会社日立制作所 放射线治疗系统
US20150094516A1 (en) * 2013-09-30 2015-04-02 Kabushiki Kaisha Toshiba Medical image processing device, treatment system and medical image processing method
CN104780973A (zh) * 2012-11-05 2015-07-15 三菱电机株式会社 三维图像拍摄系统及粒子射线治疗装置
KR101544973B1 (ko) * 2014-12-22 2015-08-18 주식회사 제노시스 다 방향 자동 추적 카메라장치
CN105615909A (zh) * 2014-11-26 2016-06-01 株式会社东芝 图像处理装置、图像处理程序、图像处理方法以及治疗系统
JP2016116659A (ja) * 2014-12-19 2016-06-30 株式会社東芝 医用画像処理装置、治療システム、医用画像処理方法、および医用画像処理プログラム
JP2016131737A (ja) * 2015-01-20 2016-07-25 国立大学法人北海道大学 放射線治療システムおよび放射線治療プログラム
CN106067943A (zh) * 2015-04-21 2016-11-02 佳能株式会社 控制装置、光学设备、摄像设备和控制方法
JP2017121324A (ja) * 2016-01-06 2017-07-13 株式会社東芝 治療システム、医用画像処理装置、および治療プログラム
CN107297030A (zh) * 2016-04-15 2017-10-27 株式会社东芝 信息处理装置及放射线治疗系统
WO2017188079A1 (ja) * 2016-04-28 2017-11-02 株式会社日立製作所 追跡対象認識シミュレータ、若しくはマーカ認識シミュレータおよび動体追跡装置ならびに放射線照射システム
WO2018037608A1 (en) * 2016-08-25 2018-03-01 Kabushiki Kaisha Toshiba Medical image processing apparatus, treatment system, and medical image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103249358B (zh) * 2010-12-02 2015-09-09 大日本印刷株式会社 医用图像处理装置
US9031317B2 (en) * 2012-09-18 2015-05-12 Seiko Epson Corporation Method and apparatus for improved training of object detecting system
JP2018044793A (ja) 2016-09-12 2018-03-22 株式会社リコー 情報処理システム、位置情報管理サーバ、情報処理方法、およびプログラム
CN109464153B (zh) * 2017-09-08 2022-09-20 通用电气公司 辐射成像系统及其控制方法

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053389B1 (ja) * 1998-12-03 2000-06-19 三菱電機株式会社 動体追跡照射装置
US20050054916A1 (en) * 2003-09-05 2005-03-10 Varian Medical Systems Technologies, Inc. Systems and methods for gating medical procedures
JP2009000369A (ja) * 2007-06-22 2009-01-08 Mitsubishi Electric Corp 放射線治療装置及び治療部位の位置決め方法
JP2010054807A (ja) * 2008-08-28 2010-03-11 Nikon Corp 電子カメラ
US20120041250A1 (en) * 2009-02-26 2012-02-16 National University Corporation Hokkaido University Target tracking device and radiation therapy apparatus
WO2011064875A1 (ja) * 2009-11-27 2011-06-03 三菱重工業株式会社 放射線治療装置制御方法および放射線治療装置制御装置
US20120093397A1 (en) * 2010-09-20 2012-04-19 Siemens Aktiengesellschaft Method and System for Learning Based Object Detection in Medical Images
US20120177271A1 (en) * 2011-01-06 2012-07-12 The Board Of Trustees Of The Leland Stanford Junior University 4D Anatomically Based Image Selection Procedure for Medical Imaging
US20120238866A1 (en) * 2011-03-14 2012-09-20 Siemens Aktiengesellschaft Method and System for Catheter Tracking in Fluoroscopic Images Using Adaptive Discriminant Learning and Measurement Fusion
CN104780973A (zh) * 2012-11-05 2015-07-15 三菱电机株式会社 三维图像拍摄系统及粒子射线治疗装置
WO2014155556A1 (ja) * 2013-03-27 2014-10-02 株式会社島津製作所 X線透視装置
CN104337536A (zh) * 2013-08-05 2015-02-11 株式会社日立制作所 放射线治疗系统
US20150094516A1 (en) * 2013-09-30 2015-04-02 Kabushiki Kaisha Toshiba Medical image processing device, treatment system and medical image processing method
CN105615909A (zh) * 2014-11-26 2016-06-01 株式会社东芝 图像处理装置、图像处理程序、图像处理方法以及治疗系统
JP2016116659A (ja) * 2014-12-19 2016-06-30 株式会社東芝 医用画像処理装置、治療システム、医用画像処理方法、および医用画像処理プログラム
KR101544973B1 (ko) * 2014-12-22 2015-08-18 주식회사 제노시스 다 방향 자동 추적 카메라장치
JP2016131737A (ja) * 2015-01-20 2016-07-25 国立大学法人北海道大学 放射線治療システムおよび放射線治療プログラム
CN106067943A (zh) * 2015-04-21 2016-11-02 佳能株式会社 控制装置、光学设备、摄像设备和控制方法
JP2017121324A (ja) * 2016-01-06 2017-07-13 株式会社東芝 治療システム、医用画像処理装置、および治療プログラム
CN107297030A (zh) * 2016-04-15 2017-10-27 株式会社东芝 信息处理装置及放射线治疗系统
WO2017188079A1 (ja) * 2016-04-28 2017-11-02 株式会社日立製作所 追跡対象認識シミュレータ、若しくはマーカ認識シミュレータおよび動体追跡装置ならびに放射線照射システム
WO2018037608A1 (en) * 2016-08-25 2018-03-01 Kabushiki Kaisha Toshiba Medical image processing apparatus, treatment system, and medical image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767378A (zh) * 2021-01-28 2021-05-07 佛山科学技术学院 一种基于Dense-Unet的玻璃体浑浊程度评级方法

Also Published As

Publication number Publication date
JP2019154738A (ja) 2019-09-19
TWI721384B (zh) 2021-03-11
CN111918697B (zh) 2023-11-10
US20210042917A1 (en) 2021-02-11
RU2020129466A (ru) 2022-03-09
WO2019176734A1 (ja) 2019-09-19
EP3766541A1 (en) 2021-01-20
EP3766541A4 (en) 2021-12-08
RU2020129466A3 (zh) 2022-03-09
EP3766541B1 (en) 2023-11-29
TW202003064A (zh) 2020-01-16
JP7113447B2 (ja) 2022-08-05
KR20200118093A (ko) 2020-10-14
KR102579039B1 (ko) 2023-09-18

Similar Documents

Publication Publication Date Title
CN111918697B (zh) 医用图像处理装置、治疗系统以及存储介质
JP7181538B2 (ja) 医用画像処理装置および放射線治療システム
US11328434B2 (en) Object tracking device
JP7099459B2 (ja) 放射線治療用追跡装置、位置検出装置および動体追跡方法
JP6964309B2 (ja) 放射線治療用追跡装置
US10143431B2 (en) Medical image processing apparatus and method, and radiotherapeutic apparatus
JP6746435B2 (ja) 医用画像処理装置、治療システム、および医用画像処理プログラム
WO2020230642A1 (ja) 医用画像処理装置、医用画像処理プログラム、医用装置、および治療システム
JP7362130B2 (ja) 放射線治療装置
JP2021041090A (ja) 医用画像処理装置、x線画像処理システム、および、学習モデルの生成方法
KR102409284B1 (ko) 종양을 추적하기 위한 움직임 자동 평가 장치 및 이를 이용한 방사선 치료 시스템
WO2024070093A1 (ja) 照射位置確認支援装置、照射位置確認支援方法、および照射位置確認支援プログラム
JP6799292B2 (ja) 放射線撮影装置および放射線画像検出方法
KR20230117404A (ko) 의료용 화상 처리 장치, 의료용 화상 처리 방법, 컴퓨터 판독가능한 기억 매체, 및 방사선 치료 장치
Peshko Design of a System for Target Localization and Tracking in Image-Guided Radiation Therapy
JP2021058480A (ja) 標的外形推定装置および治療装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant