JP6746435B2 - 医用画像処理装置、治療システム、および医用画像処理プログラム - Google Patents

医用画像処理装置、治療システム、および医用画像処理プログラム Download PDF

Info

Publication number
JP6746435B2
JP6746435B2 JP2016165125A JP2016165125A JP6746435B2 JP 6746435 B2 JP6746435 B2 JP 6746435B2 JP 2016165125 A JP2016165125 A JP 2016165125A JP 2016165125 A JP2016165125 A JP 2016165125A JP 6746435 B2 JP6746435 B2 JP 6746435B2
Authority
JP
Japan
Prior art keywords
feature
unit
processing apparatus
image processing
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016165125A
Other languages
English (en)
Other versions
JP2018029852A (ja
Inventor
隆介 平井
隆介 平井
安則 田口
安則 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016165125A priority Critical patent/JP6746435B2/ja
Priority to CN201780003049.4A priority patent/CN107980008B/zh
Priority to US15/759,319 priority patent/US20180193672A1/en
Priority to PCT/JP2017/011559 priority patent/WO2018037608A1/en
Priority to EP17720239.7A priority patent/EP3503971B1/en
Priority to KR1020187006306A priority patent/KR102080201B1/ko
Publication of JP2018029852A publication Critical patent/JP2018029852A/ja
Application granted granted Critical
Publication of JP6746435B2 publication Critical patent/JP6746435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1064Monitoring, verifying, controlling systems and methods for adjusting radiation treatment in response to monitoring
    • A61N5/1065Beam adjustment
    • A61N5/1067Beam adjustment in real time, i.e. during treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4007Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units
    • A61B6/4014Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units arranged in multiple source-detector units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1051Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an active marker
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
    • A61N2005/1062Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source using virtual X-ray images, e.g. digitally reconstructed radiographs [DRR]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N2005/1074Details of the control system, e.g. user interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1064Monitoring, verifying, controlling systems and methods for adjusting radiation treatment in response to monitoring
    • A61N5/1068Gating the beam as a function of a physiological signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Physiology (AREA)
  • Radiation-Therapy Devices (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、医用画像処理装置、治療システム、および医用画像処理プログラムに関する。
放射線治療は、放射線を患者の体内にある病巣に対して照射することによって、その病巣を破壊する治療方法である。このとき、放射線は、病巣の位置に正確に照射する必要がある。これは、患者の体内の正常な組織に放射線を照射してしまうと、その正常な組織までも破壊してしまうことになるからである。そのため、放射線治療を行う際には、まず、治療計画の段階において、予めコンピュータ断層撮影(Computed Tomography:CT)を行って患者の体内にある病巣の位置を3次元的に把握する。そして、把握した病巣の位置に基づいて、正常な組織への照射を少なくするように、放射線を照射する際の方向や照射する放射線の強度を計画する。その後、治療の段階において、治療計画の段階の患者の位置に合うように患者を配置し、治療計画の段階で計画した照射方向や照射強度に従って放射線を病巣に照射する。
治療段階における患者の位置合わせでは、治療を開始する直前に患者を寝台に寝かせた状態で撮影した患者の体内の透視画像と、治療計画のときに撮影した3次元のCT画像から仮想的に透視画像を再構成したデジタル再構成X線写真(Digitally Reconstructed Radiograph:DRR)画像との画像照合を行って、それぞれの画像の間での患者の位置のずれを求める。そして、求めたずれに基づいて寝台を移動させることによって、患者の体内の病巣や骨などの位置を治療計画のときのそれらと合わせる。
患者の位置のずれは、透視画像と最も類似するDRR画像が再構成されるように、CT画像中の位置を探索することによって求める。患者の位置の探索をコンピュータによって自動化する方法は多数提案されている。自動で探索した結果を利用者(医師など)が透視画像とDRR画像とを見比べることによって確認し、この確認が取れ次第、放射線の照射を行う。
しかし、患者の体内の病巣は、肺や肝臓など、患者の呼吸や心拍の動きによって移動してしまう器官にある場合もある。この場合、放射線の照射中にも病巣の位置を特定しなければならない。病巣の位置を特定する方法として、放射線の照射中にも患者の透視動画を撮影し、透視画像に基づいて患者の体内の病巣を追跡する方法がある。また、患者の体内の病巣が透視画像に鮮明に写らない場合などにおいては、患者の体内に留置しておいたマーカーを追跡することによって、間接的に病巣の位置を特定する方法もある。そして、放射線を照射する方法としては、病巣の位置を追尾して照射する追尾照射や、病巣が治療計画のときの位置に来たときに照射する待ち伏せ照射などがある。
しかしながら、放射線の照射中に患者の状態が急変したり、患者が咳やくしゃみをしたりする可能性がある。その他にも、患者の体内の病巣の追跡を失敗する要因は複数考えられる。そして、放射線の照射中にこのような不測の事態が起きたときには、治療を即座に中断しなければならない。そこで、放射線の照射中に不測の事態が起きたことを瞬時に検知する異常検知が、治療を安全に行うために必要である。
放射線の照射中に起きた不測の事態を検知する異常検知の方法の一例として、例えば、特許文献1に開示されている方法がある。特許文献1に開示されている方法では、患者の呼吸と連動して動く腹部の伸縮を監視(モニタリング)し、正常な呼吸のときの腹部の伸縮の動きに対して逸脱した動きを異常として判定する。しかしながら、特許文献1に開示されている方法では、患者の体内の様子をモニタリングしているわけではない。このため、特許文献1に開示されている方法では、例えば、治療中の心拍の変動や、腸内のガスの位置が移動するなどによる病巣の位置の変化を捉えることができない。このように、特許文献1に開示されている方法では、異常検知の信頼性が十分でない場合があった。
特許第5925233号公報
本発明が解決しようとする課題は、放射線治療において放射線を照射中に起こった不測の事態を自動検知することができる医用画像処理装置、治療システム、および医用画像処理プログラムを提供することである。
実施形態の医用画像処理装置は、第1画像取得部と、第2画像取得部と、特徴処理部と、算出部と、判定部とを持つ。第1画像取得部は、複数の時刻に撮像装置によって撮像された被検体の複数の第1画像を取得する。第2画像取得部は、前記第1画像とは異なる時刻に撮像装置によって撮像された前記被検体の第2画像を取得する。特徴処理部は、前記複数の第1画像それぞれに対して、解剖学的に同一部位を表す前記被検体の第1特徴位置を求め、前記第2画像から前記被検体内の前記第1特徴に対応する第2特徴の位置を求める。算出部は、前記複数の第1画像それぞれに対して求めた前記第1特徴位置を含む第1閉空間を定める。判定部は、前記第2特徴の位置が前記第1閉空間内にあるか否かを判定した結果に基づく判定信号を出力する。
第1の実施形態の医用画像処理装置を備えた治療システムの概略構成を示したブロック図。 第1の実施形態の医用画像処理装置の概略構成を示したブロック図。 第1の実施形態の医用画像処理装置における状態検知処理の流れを示したフローチャート。 第1の実施形態の医用画像処理装置における処理で用いる患者の体内に留置されたマーカーの一例を説明する図。 第2の実施形態の医用画像処理装置の概略構成を示したブロック図。 第3の実施形態の医用画像処理装置の概略構成を示したブロック図。 第4の実施形態の医用画像処理装置の概略構成を示したブロック図。 第5の実施形態の医用画像処理装置の概略構成を示したブロック図。
以下、実施形態の医用画像処理装置、治療システム、および医用画像処理プログラムを、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態の医用画像処理装置を備えた治療システムの概略構成を示したブロック図である。図1に示した治療システム1は、医用画像処理装置100と、治療装置10とを備える。
まず、治療システム1を構成する治療装置10について説明する。治療装置10は、治療台11と、2つの放射線源12(放射線源12−1および放射線源12−2)と、2つの放射線検出器13(放射線検出器13−1および放射線検出器13−2)と、治療ビーム照射門14とを備える。
なお、図1に示したそれぞれの符号に続いて付与した「−」とそれに続く数字は、対応関係を識別するためのものである。例えば、治療装置10における放射線源12と放射線検出器13との対応関係では、放射線源12−1と放射線検出器13−1とが対応して1つの組となっていることを示し、放射線源12−2と放射線検出器13−2とが対応してもう1つの組となっていることを示している。つまり、以下の説明においては、それぞれの符号に続いて付与した「−」とそれに続く数字が同じもの同士が対応していることを表している。なお、以下の説明において複数ある同じ構成要素を区別せずに表す場合には、「−」とそれに続く数字を示さずに表す。
治療台11は、放射線による治療を受ける被検体(患者)Pを固定する寝台である。
放射線源12−1は、患者Pの体内を透視するための放射線r−1を予め定めた角度から照射する。放射線源12−2は、患者Pの体内を透視するための放射線r−2を、放射線源12−1と異なる予め定めた角度から照射する。放射線r−1および放射線r−2は、例えば、X線である。図1においては、治療台11上に固定された患者Pに対して、2方向からX線撮影を行う場合を示している。なお、図1においては、放射線源12による放射線rの照射を制御する制御部の図示は省略している。
放射線検出器13−1は、放射線源12−1から照射されて患者Pの体内を通過して到達した放射線r−1を検出し、検出した放射線r−1のエネルギーの大きさに応じた患者Pの体内の透視画像を生成する。放射線検出器13−2は、放射線源12−2から照射されて患者Pの体内を通過して到達した放射線r−2を検出し、検出した放射線r−2のエネルギーの大きさに応じた患者Pの体内の透視画像を生成する。放射線検出器13は、2次元のアレイ状に検出器が配置され、それぞれの検出器に到達した放射線rのエネルギーの大きさをデジタル値で表したデジタル画像を、透視画像として生成する。放射線検出器13は、例えば、フラット・パネル・ディテクタ(Flat Panel Detector:FPD)や、イメージインテンシファイアや、カラーイメージインテンシファイアである。放射線検出器13は、生成した透視画像を医用画像処理装置100に出力する。なお、図1においては、放射線検出器13による透視画像の生成を制御する制御部の図示は省略している。
治療装置10では、放射線源12と放射線検出器13との組によって治療システム1における撮像装置を構成している。
なお、図1においては、2組の放射線源12と放射線検出器13、つまり、2つの撮像装置を備える治療装置10の構成を示した。しかし、治療装置10に備える撮像装置の数は、図1に示したように2つの撮像装置を備えた構成、つまり、放射線源12と放射線検出器13との組を2組備えた構成に限定されるのではない。例えば、治療装置10は、3つ以上の撮像装置(3組以上の放射線源12と放射線検出器13との組)を備える構成であってもよい。また、治療装置10は、1つの撮像装置(1組の放射線源12と放射線検出器13との組)を備える構成であってもよい。
治療ビーム照射門14は、患者Pの体内の病巣を破壊するための放射線を治療ビームBとして照射する。治療ビームBは、例えば、X線、γ線、電子線、陽子線、中性子線、重粒子線などである。なお、図1においては、治療ビーム照射門14による治療ビームBの照射を制御する制御部の図示は省略している。
なお、図1においては、1つの治療ビーム照射門14を備える治療装置10構成を示した。しかし、治療装置10は、治療ビーム照射門14を1つのみ備えた構成に限定されるのではなく、複数の治療ビーム照射門を備える構成であってもよい。例えば、図1では、患者Pに垂直方向から治療ビームBを照射する治療ビーム照射門14を備えている治療装置10の構成を示したが、患者Pに水平方向から治療ビームを照射する治療ビーム照射門をさらに備えている治療装置を含んで治療システム1を構成にしてもよい。
医用画像処理装置100は、放射線検出器13−1および放射線検出器13−2から出力された透視画像に基づいて、放射線治療において治療を行う患者Pの体内の病巣を追跡する。医用画像処理装置100における病巣の追跡は、治療計画の段階など、放射線治療を行う前に撮影した患者Pの透視画像と、現在の患者Pの透視画像とに基づいて行われる。
そして、医用画像処理装置100は、患者Pの体内の病巣を追跡した結果に基づいて、放射線治療において病巣に治療ビームBを照射するタイミングを自動で検知する。また、医用画像処理装置100は、患者Pの体内の病巣を追跡した結果に基づいて、治療中、体内の病巣を追跡しているときに起こった不測の事態を自動で検知する。医用画像処理装置100における治療ビームBを照射するタイミングや不測の事態の検知は、放射線治療を行う前に撮影した患者Pの透視画像に含まれる病巣の位置と、現在の患者Pの透視画像に含まれる病巣の位置との変化を判定することによって行われる。医用画像処理装置100は、検知した治療ビームBを照射するタイミングや不測の事態の情報を出力する。なお、不測の事態とは、例えば、患者Pの咳やくしゃみ、患者Pの入眠や寝ている間の無呼吸症候群の発生、患者Pの容態の急変などである。また、不測の事態には、治療システム1のシステム異常も含まれる。
なお、医用画像処理装置100と治療装置10に備えた放射線検出器13とは、LAN(Local Area Network)やWAN(Wide Area Network)によって接続されてもよい。
以下、治療システム1を構成する医用画像処理装置100の構成について説明する。図2は、第1の実施形態の医用画像処理装置100の概略構成を示したブロック図である。図2に示した医用画像処理装置100は、第1画像取得部101と、第2画像取得部102と、特徴処理部103と、学習部104と、判定部105とを備える。また、特徴処理部103は、第1特徴抽出部1031と、第2特徴計算部1032とを備える。
第1画像取得部101は、治療前の患者Pに関する複数の第1画像を取得する。第1画像取得部101は、取得した複数の第1画像を特徴処理部103に出力する。ここで、第1画像は、放射線治療を行う際の治療計画の段階において用いられた画像に基づいた画像である。治療計画の段階では、患者Pの体内の正常な組織への治療ビームBの照射が少なくするように、治療ビームBを照射する方向や強度が計画される。一例として、第1画像は、治療計画のときに撮影した3次元のコンピュータ断層撮影(Computed Tomography:CT)画像から仮想的に透視画像を再構成したデジタル再構成X線写真(Digitally Reconstructed Radiograph:DRR)画像である。また、第1画像は、患者Pを位置合わせした後の治療を開始する直前(治療ビーム照射門14が治療ビームBを照射していない状態)に、放射線検出器13が、放射線源12が照射した放射線rに応じて生成した透視画像であってもよい。なお、第1画像取得部101は、治療装置10に備えた放射線検出器13と接続するためのインターフェースを含んでもよい。
第2画像取得部102は、治療中に撮影されている患者Pの第2画像を取得する。第2画像取得部102は、取得した第2画像を特徴処理部103に出力する。ここで、第2画像は、治療中に患者Pを治療台11に寝かせた状態で、予め定めた時間間隔ごとに撮影されている患者Pの体内の透視画像である。つまり、第2画像は、治療中(治療ビーム照射門14が治療ビームBを照射している状態であっても治療ビームBを照射していない状態であってもよい)に、放射線検出器13が、放射線源12が照射した放射線rに応じて生成した透視画像である。なお、第2画像取得部102は、治療装置10に備えた放射線検出器13と接続するためのインターフェースを含んでもよい。
特徴処理部103は、第1画像取得部101から出力された複数の第1画像と、第2画像取得部102から出力された第2画像とに基づいて、それぞれの画像に撮影された特徴被写体(第1画像の第1特徴および第1特徴と対応する第2画像の第2特徴)を抽出する。特徴被写体とは、患者Pの体内にある病巣、患者Pの体内にある病巣の位置を特定するための身体の特徴的な部位、あるいは患者Pの体内に埋め込まれたマーカーなどを指す。特徴処理部103は、抽出した病巣の位置を表す情報を、学習部104および判定部105に出力する。
第1特徴抽出部1031は、第1画像取得部101から出力された患者Pの第1画像から、特徴被写体の特徴を表す特徴抽出パラメータを計算し、計算した特徴抽出パラメータを第2特徴計算部1032に出力する。特徴被写体は、例えば病巣、マーカーや被検体の一部などである。また、第1特徴抽出部1031は、計算した特徴抽出パラメータに従って、第1画像に撮影された特徴被写体の位置を抽出し、抽出した特徴被写体の位置を表す情報を、第1特徴として学習部104に出力する。
第2特徴計算部1032は、第1特徴抽出部1031から出力された特徴抽出パラメータに基づいて、第2画像取得部102から出力された患者Pの第2画像から特徴被写体を抽出する。第2特徴計算部1032は、抽出した特徴被写体に基づいて第1特徴が表す特徴被写体の位置に対応する現在の特徴被写体の位置を計算し、計算した特徴被写体の位置を表す情報を、第2特徴として判定部105に出力する。
学習部(算出部)104は、特徴処理部103に備えた第1特徴抽出部1031から出力された第1特徴に基づいて、複数時刻における特徴被写体の位置の変化を学習する。すなわち、学習部104は、患者Pの呼吸や心拍の動きによって移動する特徴被写体の位置の3次元的な分布を学習する。そして、学習部104は、学習した特徴被写体の位置の分布に基づいて、複数の第1画像から得られた複数の特徴被写体の位置の分布を包含する閉空間を定める。この閉空間は、特徴被写体が移動することが予想される範囲を表している。学習部104は、定めた閉空間の情報を判定部105に出力する。
判定部105は、学習部104から出力された閉空間の情報と、特徴処理部103に備えた第2特徴計算部1032から出力された第2特徴とに基づいて、第2特徴が閉空間内にあるか否かを判定する。例えば、判定部105は、特徴被写体が移動することが予め想定されている閉空間の範囲の中で、治療計画のときに治療ビームBを照射すると決定した位置に移動して来たか否かを判定する。また、判定部105は、特徴被写体が移動することが予め想定されている閉空間の範囲の外側に移動したか否かを判定する。判定部105は、特徴被写体の移動を判定した結果を表す判定信号を出力する。
なお、治療計画のときに決定した治療ビームBを照射する位置は、特徴被写体が位置する特定の位置であってもよいし、特徴被写体の位置を含んだ予め定めた範囲であってもよい。以下の説明においては、治療ビームBを照射する位置および範囲を、「ゲートウィンドウ」という。なお、ゲートウィンドウは、上述したように、治療計画のときに決定した治療ビームBを照射する位置または範囲である。従って、ゲートウィンドウは、学習部104が、閉空間を定める際に設定し、ゲートウィンドウの情報を、閉空間の情報と共に判定部105に出力する構成であってもよい。
判定部105は、例えば、治療装置10に備えた治療ビーム照射門14による治療ビームBの照射を制御する不図示の制御部や、放射線源12による放射線rの照射を制御する不図示の制御部に、判定信号を出力する。治療システム1において放射線治療を行う場合、不図示の制御部は、現在の特徴被写体の位置が治療計画において決定したゲートウィンドウ内に来たことを表す判定信号が出力されたときに、治療ビームBを照射するように制御する。また、治療システム1において放射線治療を行っている最中に、現在の特徴被写体の位置が治療計画において決定したゲートウィンドウからと大きくずれていることを表す判定信号が不図示の制御部に出力された場合、不図示の制御部は、治療ビームB(放射線rを含んでもよい)の照射を停止するように制御する。
このような構成によって、医用画像処理装置100は、治療前に撮影された患者Pの第1画像と、治療中に撮影されている患者Pの第2画像とに基づいて、治療計画において決定したゲートウィンドウと現在の患者Pの体内にある特徴被写体の位置とのずれを判定する。医用画像処理装置100は、治療計画において決定したゲートウィンドウと現在の特徴被写体の位置とのずれを判定した結果を、判定信号として出力する。これにより、医用画像処理装置100は、患者Pの体内の病巣に治療ビームBを照射するタイミングを自動で検知することができる。このことにより、医用画像処理装置100を備えた治療システム1では、適切なタイミングで患者Pの体内の病巣に治療ビームBを照射することができる。また、医用画像処理装置100は、患者Pの咳やくしゃみ、患者Pの入眠や寝ている間の無呼吸症候群の発生、患者Pの容態の急変など、治療中に起こった不測の事態を自動で検知することができる。このことにより、医用画像処理装置100を備えた治療システム1では、患者Pの体内の病巣に治療ビームBを照射しているときに不測の事態が起こって、特徴被写体の位置がゲートウィンドウあるいは閉空間から外れた場合に、治療ビームBの照射を停止するなど、治療を安全に行うための施策を講じることができる。
なお、上述した医用画像処理装置100に備えた機能部のうち一部は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサが記憶装置に記憶されたプログラムを実行することにより機能するソフトウェア機能部であってもよい。ここで、記憶装置は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリなどによって実現されてもよい。なお、CPUやGPUなどのプロセッサが実行するプログラムは、予め医用画像処理装置100の記憶装置に格納されていてもよいし、他のコンピュータ装置からネットワークを介してダウンロードされてもよい。また、可搬型記憶装置に格納されたプログラムが医用画像処理装置100にインストールされてもよい。また、上述した医用画像処理装置100に備えた機能部のうち一部または全部は、FPGA(Field Programmable Gate Array)やLSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)などによるハードウェア機能部であってもよい。
以下、治療システム1を構成する医用画像処理装置100において、特徴被写体の状態を検知する処理(状態検知処理)の流れについて説明する。医用画像処理装置100における状態検知処理は、特徴被写体を追跡することによって現在の特徴被写体の位置を判定する処理である。図3は、第1の実施形態の医用画像処理装置100における状態検知処理の流れを示したフローチャートの一例である。なお、医用画像処理装置100が状態検知処理を行う前、つまり、放射線治療を行う前(例えば1週間程度前)には、治療計画が立てられる。また、医用画像処理装置100が状態検知処理を行う直前には、治療計画において決定した患者Pの位置や方向と、治療を行う際の位置や方向と合わせる位置合わせを行う。以下の説明においては、治療計画において患者Pに対して治療ビームBを照射する方向や強度がすでに確定しており、治療を行う際の患者Pの位置合わせもすでに完了しているものとして説明する。なお、治療を行う際の患者Pの位置合わせにおいて、医用画像処理装置100を用いてもよい。
まず、医用画像処理装置100が状態検知処理を開始すると、第1画像取得部101は、第1画像を取得する(ステップS100)。ここで、第1画像取得部101は、特徴被写体を正しく追跡することができるか否かを確認するため、患者Pが呼吸している周期(以下、「呼吸周期」という)の数周期分の第1画像を取得する。なお、第1画像は、上述したように、治療計画の段階において用いたCT画像から透視画像を再構成したDRR画像であってもよいし、治療を開始する直前において患者Pに治療ビームBを照射していない状態で撮影した透視画像であってもよい。ただし、第1画像は、患者Pの呼吸によって特徴被写体が移動する範囲を正しく判定するため、患者Pの呼吸周期の少なくとも1周期分の画像があることが好ましい。このため、第1画像が治療を開始する直前に撮影した透視画像である場合、第1画像取得部101は、治療前に撮影されて放射線検出器13によって生成された呼吸周期の数周期分の透視画像(2方向の透視画像)を、第1画像として取得する。つまり、第1画像取得部101は、複数枚の2方向の透視画像を第1画像として取得する。そして、第1画像取得部101は、取得した第1画像のそれぞれを、特徴処理部103に備えた第1特徴抽出部1031に出力する。
なお、放射線治療においては、同じ患者Pを治療するために、治療ビームBの照射を複数回(同日でない場合も含む)に渡って行うことがある。このため、同じ患者Pに対する放射線治療が2回目以降である場合には、前回の治療の際に撮影して放射線検出器13が生成した透視画像(2方向の透視画像)を、第1画像として利用してもよい。
次に、第1特徴抽出部1031は、第1画像取得部101から出力されたそれぞれの第1画像から特徴被写体の特徴を表す特徴抽出パラメータを計算し、特徴被写体の位置を表す第1特徴を抽出する(ステップS200)。ここで、第1特徴抽出部1031が第1画像から第1特徴を抽出する方法としては、例えば、患者Pの体内に留置しておいたマーカーを特徴被写体とし、このマーカーの位置に基づいて特徴被写体を抽出する方法がある。また、第1特徴抽出部1031が第1画像から第1特徴を抽出する方法としては、例えば、患者Pの呼吸や心拍などに連動して動く部位を特徴被写体とし、この部位の位置に基づいて特徴被写体を抽出する方法などもある。なお、第1特徴抽出部1031が第1画像から第1特徴を抽出する方法に関する詳細な説明は、後述する。第1特徴抽出部1031は、計算した特徴抽出パラメータを第2特徴計算部1032に出力する。また、第1特徴抽出部1031は、抽出した第1特徴を学習部104に出力する。
次に、学習部104は、第1特徴抽出部1031から出力された第1特徴が表す複数時刻の特徴被写体の位置の分布を学習し、学習した特徴被写体の位置の分布に基づいて、閉空間を定める(ステップS300)。ここで、学習部104が特徴被写体の位置の分布を学習する方法としては、例えば、複数の第1特徴によって表される特徴被写体の位置の分布から位置の規則性を学習する方法や、生成モデルを学習する方法などがある。なお、学習部104が第1特徴から学習して閉空間を定める方法に関する詳細な説明は、後述する。学習部104は、定めた閉空間の情報を判定部105に出力する。
次に、放射線治療を開始すると、第2画像取得部102は、第2画像を取得する(ステップS400)。ここで、第2画像取得部102は、治療中に移動する特徴被写体を追跡するための第2画像として、放射線検出器13から透視画像(2方向の透視画像)を予め定めた時間間隔ごと、または逐次取得する。なお、第2画像取得部102が取得する第2画像は、撮影したタイミングが異なる以外は、第1画像取得部101が放射線検出器13から取得する透視画像と同様の画像である。第2画像取得部102は、取得した第2画像のそれぞれを、特徴処理部103に備えた第2特徴計算部1032に出力する。
次に、第2特徴計算部1032は、第1特徴抽出部1031から出力された特徴抽出パラメータに基づいて、第2画像取得部102から出力されたそれぞれの第2画像から現在の特徴被写体の位置を表す第2特徴を抽出する(ステップS500)。ここで、第2特徴計算部1032が第2画像から第2特徴を抽出する方法は、第1特徴抽出部1031と同様の方法であってもよい。つまり、第2特徴計算部1032は、第1特徴抽出部1031と同様に、例えば、患者Pの体内に留置しておいたマーカーの位置や、患者Pの呼吸や心拍などに連動して動く部位の位置などによって、第2画像から第2特徴を抽出してもよい。なお、第2特徴計算部1032が第2画像から第2特徴を抽出する方法は、第1特徴抽出部1031と同様の方法に限定されるものではない。つまり、第2特徴計算部1032は、それぞれの第2画像から現在の特徴被写体の位置を表す第2特徴を抽出することができれば、第1特徴抽出部1031と異なる方法で第2特徴を抽出してもよい。以下の説明においては、第2特徴計算部1032が、後述する第1特徴抽出部1031が第1画像から第1特徴を抽出する方法と同様の方法で、第2画像から第2特徴を抽出するものとして説明する。第2特徴計算部1032は、抽出した第2特徴を判定部105に出力する。
次に、判定部105は、第2特徴計算部1032から出力された第2特徴が、学習部104によって定められた閉空間の範囲内にあるか否かを判定し、判定した結果を表す判定信号を出力する(ステップS600)。より具体的には、判定部105は、第2特徴が閉空間の内側にある場合には、異常を検出していないことを表す判定信号を出力し、第2特徴が閉空間の外側にある場合には、異常を検出したことを表す判定信号を出力する。なお、学習部104から生成モデルによって定められた閉空間が出力された場合、判定部105は、第2特徴計算部1032から出力された第2特徴を生成モデルに入力して得られる確率値を計算し、計算した確率値が閉空間の範囲内にあるか否かを判定する。そして、判定部105は、計算した確率値が閉空間の内側にある場合には、異常を検出していないことを表す判定信号を出力し、計算した確率値が閉空間の外側にある場合には、異常を検出したことを表す判定信号を出力する。
その後、医用画像処理装置100の状態検知処理は、ステップS400に戻って、ステップS400〜ステップS600の処理を繰り返す。つまり、医用画像処理装置100の状態検知処理では、第2画像取得部102が次の第2画像を取得し、ここで取得した第2画像から抽出した第2特徴に対する判定を繰り返す。
ここで、治療システム1を構成する医用画像処理装置100の状態検知処理において、医用画像処理装置100に備えた構成要素が行う処理(処理方法)の一例について説明する。
まず、第1特徴抽出部1031が第1画像から第1特徴を抽出する方法について説明する。上述したように、第1特徴抽出部1031が第1画像から第1特徴を抽出する方法としては、例えば、患者Pの体内に留置しておいたマーカーの位置に基づいて抽出する方法や、患者Pの呼吸や心拍などに連動して動く部位の位置に基づいて抽出する方法などがある。
まず、患者Pの体内に留置しておいたマーカーの位置に基づいて第1特徴を抽出する方法について説明する。ここで、マーカーとは、例えば、球形状や棒形状の金属製の物質である。患者Pの体内にマーカーが留置されている場合、第1特徴抽出部1031は、第1画像取得部101から出力されたそれぞれの第1画像に撮影されたマーカーの位置の座標を、第1特徴とする。このとき、マーカーの位置は、例えば、マーカーの重心の位置とする。第1特徴抽出部1031は、例えば、テンプレートマッチングなどによって、予め用意しておいた透視画像におけるマーカー像のテンプレートと照合し、第1画像に撮影されたマーカーの位置を特定する。第1特徴抽出部1031は、特定したマーカーの位置を表す座標の情報を、第1特徴として学習部104に出力する。
また、第1特徴抽出部1031は、特定したマーカーの位置の座標を、特徴抽出パラメータとして第2特徴計算部1032に出力する。ここで、第1特徴抽出部1031が出力する1つの特徴抽出パラメータは、1つの第1画像、つまり、患者Pの呼吸周期の少なくとも1周期分のDRR画像群から選択された1つのDRR画像において、特定したマーカー像を含む部分画像領域を指定するための関心領域(Region Of Interest:ROI)の画像(以下、「ROI画像」という)である。なお、ROI画像の領域には、治療計画において決定したゲートウィンドウの領域(範囲)を含んでいる。第1特徴抽出部1031は、複数のDRR画像のそれぞれに対応するそれぞれのROI画像(以下、「ROI画像群」という)を、特徴抽出パラメータとして第2特徴計算部1032に出力する。
なお、特徴抽出パラメータとしてROI画像群を用いる場合、第2特徴計算部1032は、それぞれのROI画像において指定された範囲内に対してのみ、第2特徴を抽出する処理を行えばよい。このため、医用画像処理装置100では、第2特徴計算部1032が第2画像から第2特徴を抽出する抽出処理に要する時間の短縮が見込まれる。
また、第1特徴抽出部1031は、マーカー像を表すパラメータを、特徴抽出パラメータとして第2特徴計算部1032に出力してもよい。図4は、第1の実施形態の医用画像処理装置100における処理で用いる患者Pの体内に留置されたマーカーの一例を説明する図である。図4には、透視画像に撮影されたマーカー像の一例を示している。なお、図4の(a)には、球形状のマーカー像の一例を示し、図4の(b)には、棒形状のマーカー像の一例を示している。
患者Pの体内に留置されたマーカーが球形状のマーカーである場合、第1特徴抽出部1031は、図4の(a)に示したように、球形状のマーカーの直径rを特徴抽出パラメータとする。なお、患者Pの体内に留置されたマーカーが球形状のマーカーである場合における特徴抽出パラメータは、球形状のマーカーの半径であってもよい。
一方、マーカーが棒形状である場合、透視画像に撮影されるマーカー像は、患者Pの体内に留置されているマーカーの姿勢によって変化する。このため、第1特徴抽出部1031は、患者Pの体内に留置されたマーカーが棒形状のマーカーである場合、図4の(b)に示したように、棒形状のマーカーの角度θ、長さL、および太さTを特徴抽出パラメータとする。
第1特徴抽出部1031は、患者Pの体内に留置されたマーカーの形状に応じた特徴抽出パラメータを第2特徴計算部1032に出力する。また、第1特徴抽出部1031は、患者Pの体内に留置されたマーカーの形状に応じた特徴抽出パラメータに従って抽出した第1特徴を、学習部104に出力する。
なお、患者Pの体内に複数のマーカーが留置されている場合には、第1特徴抽出部1031は、第1画像に撮影されたそれぞれのマーカーの位置を含む特徴を特徴抽出パラメータとし、それぞれの特徴抽出パラメータに従って複数の第1特徴を抽出してもよい。
次に、患者Pの呼吸や心拍などに連動して動く部位の位置に基づいて第1特徴を抽出する方法について説明する。患者Pの体内に留置されたマーカーがない場合、第1特徴抽出部1031は、マーカーの代替として、第1画像取得部101から出力されたそれぞれの第1画像に撮影された患者Pの体内において呼吸や心拍などに連動して動く部位の位置の座標を、第1特徴とする。ここで、マーカーの代替とする部位の候補としては、例えば、患者Pの体内の横隔膜の境界などがある。第1特徴抽出部1031は、マーカーの代替として特定した部位の位置を表す座標の情報を、第1特徴として学習部104に出力する。
また、第1特徴抽出部1031は、特定した部位の位置の座標を、特徴抽出パラメータとして第2特徴計算部1032に出力する。この場合も第1特徴抽出部1031は、複数のDRR画像のそれぞれにおいて特定した部位の像を含む部分画像領域を指定するROI画像群を、特徴抽出パラメータとして第2特徴計算部1032に出力する。
なお、第1特徴抽出部1031は、第1画像において特定した部位の位置の画素値を、特徴抽出パラメータとしてもよい。この場合、第1特徴抽出部1031は、第1画像の全体または第1画像の一部の領域内の画素値を1列に並べたベクトルを、第1特徴とする。このとき、第1特徴抽出部1031は、画像縮小などの処理をした第1画像におけるベクトルを、第1特徴としてもよい。この場合における特徴抽出パラメータは、ベクトル化した第1画像に対応する画像領域や画像縮小処理におけるパラメータなどで表される。
また、第1特徴抽出部1031は、第1画像に含まれる画素値に対してベクトルの集合の主成分分析を行ってベクトルの次元を圧縮するなど、変換したベクトルを第1特徴としてもよい。この場合における特徴抽出パラメータは、第1画像に含まれる各画素のベクトル成分の軸方向で表される。
また、第1特徴抽出部1031は、画像認識の分野において用いられる画素値の勾配強度や勾配方向などから求める局所特徴量を、第1特徴として抽出してもよい。この場合における特徴抽出パラメータは、第1画像から抽出した局所特徴量の抽出方法で表される。
次に、学習部104が第1特徴に基づいて特徴被写体の位置の分布を学習して閉空間を定める方法について説明する。上述したように、学習部104が特徴被写体の位置の分布を学習する方法としては、例えば、複数の第1特徴によって表される特徴被写体の位置の分布から位置の規則性を学習する方法や、生成モデルを学習する方法などがある。
まず、複数の第1特徴によって表される特徴被写体の位置の分布から位置の規則性を学習する方法について説明する。特徴被写体の位置の規則性を学習する場合、学習部104は、例えば、第1特徴に対応するn次(n=自然数、正の整数)の特徴空間において、第1特徴抽出部1031から出力された複数の第1特徴の全てが内側に含まれるようなn次元(例えば、3次元)の楕円体を求める方法がある。このとき、学習部104は、楕円体の位置を、第1特徴の重心位置とする。また、学習部104は、楕円体の大きさを決定する各半径を、第1特徴の各軸の標準偏差にする。学習部104は、求めた楕円体の領域を、閉空間として定める。そして、学習部104は、定めた閉空間の情報を判定部105に出力する。
複数の第1特徴によって表される特徴被写体の位置の分布から生成モデルを学習する方法について説明する。生成モデルを学習する場合、学習部104は、生成モデルを多次元の正規分布として、第1特徴から正規分布を特定するパラメータを最尤推定によって求める方法がある。また、生成モデルを学習する場合、学習部104は、カーネル密度推定によって、生成モデルの確率密度関数を推定してもよい。これらの場合、学習部104は、0<th<1である閾値thを設定することによって、生成モデルから閉空間を定める。そして、学習部104は、定めた閉空間の情報を判定部105に出力する。なお、生成モデルを学習する場合、学習部104は、定めた閉空間の情報として、閉空間を表す閾値thのみを判定部105に出力するのではなく、学習した生成モデルも判定部105に出力する。
なお、特徴被写体の位置の規則性を学習する場合における楕円体や楕円体の領域の大きさは、治療計画の段階において定めてもよい。また、生成モデルを学習する場合における確率密度関数の値(パラメータ)は、治療計画の段階において定めてもよい。
ここで、治療計画の段階において楕円体や楕円体の領域の大きさや、確率密度関数のパラメータを定める場合の一例として、楕円体の領域の大きさを決定する半径を定める場合の考え方について説明する。治療計画では、患者Pに照射する治療ビームB(放射線)のエネルギー、照射方向、照射範囲の形状、複数回に分けて治療ビームBを照射する場合における線量の配分などを定める。より具体的には、まず、治療計画の立案者(医師など)が、治療計画の段階において撮影したCT画像に対して、腫瘍(病巣)の領域と正常な組織の領域との境界、腫瘍とその周辺にある重要な臓器との境界などを指定する。そして、治療計画では、指定された腫瘍に関する情報から計算した、患者Pの体表面からの腫瘍の位置までの深さや、腫瘍の大きさに基づいて、照射する治療ビームBの強度や方向などを決定する。
上述した腫瘍の領域と正常な組織の領域との境界の指定は、腫瘍の位置および体積を指定することに相当する。この腫瘍の体積は、肉眼的腫瘍体積(Gross Tumor Volume:GTV)、臨床的標的体積(Clinical Target Volume:CTV)、内的標的体積(Internal Target Volume:ITV)、計画標的体積(Planning Target Volume:PTV)などと呼ばれている。GTVは、画像から肉眼で確認することができる腫瘍の体積であり、放射線治療においては、十分な線量の治療ビームBを照射する必要がある体積である。CTVは、GTVと治療すべき潜在性の腫瘍とを含む体積である。ITVは、予測される生理的な患者Pの動きなどによってCTVが移動することを考慮し、CTVに予め定めた余裕(マージン)を付加した体積である。PTVは、治療を行う際に行う患者Pの位置合わせにおける誤差を考慮して、ITVにマージンを付加した体積である。これらの体積には、下式(1)の関係が成り立っている。
GTV ∈ CTV ∈ ITV ∈ PTV ・・・(1)
このため、治療計画の段階においては、実際の治療において生じる可能性がある誤差を考慮したマージンに基づいて、楕円体の大きさを決定する各半径を定めてもよい。例えば、第1特徴がマーカーの3次元の位置である場合は、各軸の標準偏差とマージンの値との和を、楕円体の大きさを決定する半径とする。また、第1特徴を第1画像に撮影された部位の画像から抽出した場合には、マージンの大きさに基づいて並進等変形させた部位の画像に対して追加の第1特徴を抽出してもよい。
このような処理によって、医用画像処理装置100では、学習部104が、第1画像から抽出した第1特徴が表す複数時刻の特徴被写体の位置の分布を学習して、閉空間を定める。そして、医用画像処理装置100では、第2画像取得部102が第2画像を順次取得して、判定部105が、第2画像から抽出した第2特徴が閉空間内にあるか否かを判定し、判定した結果を表す判定信号を出力する。このように、医用画像処理装置100では、特徴被写体を追跡することにより治療中の患者Pの体内の病巣の位置を追跡する。これにより、医用画像処理装置100は、患者Pの体内の病巣の位置を追跡した結果に基づいて、患者Pの呼吸や心拍などに連動して移動する病巣に治療ビームBを照射するタイミングである、患者Pの呼気や吸気に同期したタイミングを自動で検知することができる。また、医用画像処理装置100は、患者Pの体内の病巣の位置を追跡することによって、治療中の患者Pに起こった不測の事態を自動で検知することができる。これにより、医用画像処理装置100を備えた治療システム1では、現在の病巣の位置が治療計画において決定したゲートウィンドウ内に入ったときに治療ビームBを照射することができ、放射線治療を安全に行うことができる。
上述したように、第1の実施形態の医用画像処理装置100では、第1画像取得部101が治療前に撮影された患者Pの第1画像を取得し、特徴処理部103に備えた第1特徴抽出部1031が患者Pの体内にある特徴被写体の位置を特定するための第1特徴を抽出する。そして、第1の実施形態の医用画像処理装置100では、学習部104が、第1特徴に基づいて特徴被写体の位置の分布を学習し、特徴被写体が移動することが予想される範囲を表す閉空間を定める。また、第1の実施形態の医用画像処理装置100では、第2画像取得部102が治療中に撮影されている患者Pの第2画像を取得し、特徴処理部103に備えた第2特徴計算部1032が患者Pの体内にある特徴被写体の現在の位置を表す第2特徴を計算する。そして、第1の実施形態の医用画像処理装置100では、判定部105が、第2特徴が閉空間の範囲内にあるか否かを判定することによって、治療中の患者Pの体内の特徴被写体の位置を追跡し、判定した結果を表す判定信号を出力する。これにより、第1の実施形態の医用画像処理装置100を備えた治療システム1では、患者Pの体内の特徴被写体の位置を追跡した結果に基づいて、患者Pの呼吸や心拍などに連動して移動する病巣に対して、患者Pの呼気や吸気に同期した適切なタイミングで治療ビームBを照射することができる。また、第1の実施形態の医用画像処理装置100では、患者Pの体内の特徴被写体の位置を追跡した結果に基づいて、患者Pの咳やくしゃみ、患者Pの入眠や寝ている間の無呼吸症候群の発生、患者Pの容態の急変など、治療中の患者Pに起こった不測の事態を検知することができる。これにより、第1の実施形態の医用画像処理装置100を備えた治療システム1では、検知した治療中の患者Pに起こった不測の事態に応じて、放射線治療を安全に行うための適切な施策を講じることができる。
上記説明したように、医用画像処理装置100は、複数の時刻に撮像装置によって撮像された患者Pの複数の第1画像を取得する第1画像取得部101と、第1画像とは異なる時刻に撮像装置によって撮像された患者Pの第2画像を取得する第2画像取得部102と、複数の第1画像から患者Pの第1特徴の複数の位置を求め、第2画像から患者Pの体内の第1特徴に対応する第2特徴の位置を求める特徴処理部103と、第1特徴の複数の位置を含む第1閉空間を定める算出部(学習部104)と、第2特徴の位置が第1閉空間内にあるか否かを判定した結果に基づく判定信号を出力する判定部105と、を備える。
また、上記説明したように、特徴処理部103は、特徴被写体を抽出するための特徴抽出パラメータを計算し、特徴抽出パラメータに従って抽出した特徴被写体の位置を表す情報を第1特徴として出力する第1特徴抽出部1031と、特徴抽出パラメータに基づいて特徴被写体を抽出し、第1特徴に対応する特徴被写体の位置を表す情報を第2特徴として出力する第2特徴計算部1032と、を備えてもよい。
また、上記説明したように、判定部105は、第1閉空間に含まれる第2閉空間(ゲートウィンドウ)内に第2特徴があるか否かを判定した結果に基づく判定信号を出力してもよい。
また、上記説明したように、第1特徴は、被検体内のマーカーであってもよい。
また、上記説明したように、特徴抽出パラメータは、第1画像および第2画像に撮影された被検体内の特徴被写体を含む部分画像領域を指定するための関心領域の画像であってもよい。
また、上記説明したように、治療システム1は、医用画像処理装置100と、患者Pに治療ビームBを照射する照射部(治療ビーム照射門14)と、第1画像および第2画像を撮影する2つの撮像装置(2組の放射線源12と放射線検出器13)とを具備した治療装置10と、判定信号に基づいて、治療ビーム照射門14による治療ビームBの照射を制御する制御部509と、を備えてもよい。
また、医用画像処理装置100は、CPUやGPUなどのプロセッサと、ROMやRAM、HDD、フラッシュメモリなどの記憶装置とを備え、記憶装置には、プロセッサを、複数の時刻に撮像装置によって撮像された患者Pの複数の第1画像を取得する第1画像取得部101と、第1画像とは異なる時刻に撮像装置によって撮像された患者Pの第2画像を取得する第2画像取得部102と、複数の第1画像から患者Pの第1特徴の複数の位置を求め、第2画像から患者Pの体内の第1特徴に対応する第2特徴の位置を求める特徴処理部103と、第1特徴の複数の位置を含む第1閉空間を定める算出部(学習部104)と、第2特徴の位置が第1閉空間内にあるか否かを判定した結果に基づく判定信号を出力する判定部105として機能させるためのプログラムが記憶された装置であってもよい。
また、医用画像処理装置100は、CPUやGPUなどのプロセッサと、ROMやRAM、HDD、フラッシュメモリなどの記憶装置とを備え、記憶装置には、プロセッサを、特徴処理部103は、特徴被写体を抽出するための特徴抽出パラメータを計算し、特徴抽出パラメータに従って抽出した特徴被写体の位置を表す情報を第1特徴として出力する第1特徴抽出部1031と、特徴抽出パラメータに基づいて特徴被写体を抽出し、第1特徴に対応する特徴被写体の位置を表す情報を第2特徴として出力する第2特徴計算部1032として機能させるためのプログラムが記憶された装置であってもよい。
(第2の実施形態)
以下、第2の実施形態について説明する。なお、第2の実施形態の医用画像処理装置を備えた治療システムの構成は、図1に示した第1の実施形態の医用画像処理装置100を備えた治療システム1の構成において、医用画像処理装置100が第2の実施形態の医用画像処理装置(以下、「医用画像処理装置200」という)に代わった構成である。以下の説明においては、医用画像処理装置200を備えた治療システムを、「治療システム2」という。
なお、以下の説明においては、医用画像処理装置200を備えた治療システム2の構成要素において、第1の実施形態の医用画像処理装置100を備えた治療システム1の構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素である医用画像処理装置200の構成、動作、および処理についてのみを説明する。
医用画像処理装置200は、第1の実施形態の医用画像処理装置100と同様に、放射線検出器13−1および放射線検出器13−2から出力された透視画像に基づいて、放射線治療において治療を行う患者Pの体内の特徴被写体を追跡する。そして、医用画像処理装置200は、第1の実施形態の医用画像処理装置100と同様に、患者Pの体内の特徴被写体を追跡した結果に基づいて、治療ビームBを照射するタイミングや不測の事態を自動で検知し、検知した情報を出力する。
以下、治療システム2を構成する医用画像処理装置200の構成について説明する。図5は、第2の実施形態の医用画像処理装置200の概略構成を示したブロック図である。図5に示した医用画像処理装置200は、第1画像取得部101と、第2画像取得部102と、特徴処理部103と、分類部206と、学習部204と、判定部205とを備える。また、特徴処理部103は、第1特徴抽出部1031と、第2特徴計算部1032とを備える。
医用画像処理装置200は、第1の実施形態の医用画像処理装置100に分類部206が追加された構成である。これに伴って、医用画像処理装置200では、第1の実施形態の医用画像処理装置100に備えた学習部104が学習部204に、判定部105が判定部205にそれぞれ代わっている。なお、医用画像処理装置200に備えたその他の構成要素は、第1の実施形態の医用画像処理装置100に備えた構成要素と同じ構成要素である。従って、以下の説明においては、医用画像処理装置200の構成要素において、第1の実施形態の医用画像処理装置100に備えた構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素についてのみを説明する。
特徴処理部103は、第1画像取得部101から出力された第1画像と、第2画像取得部102から出力された第2画像とに基づいて抽出した、特徴被写体の位置を表す情報(第1特徴および第2特徴)を、分類部206および判定部205に出力する。
分類部206は、特徴処理部103に備えた第1特徴抽出部1031から出力された第1特徴を、患者Pの呼気や吸気などの呼吸の位相(周期)に応じた複数のクラスに分類する。例えば、分類部206は、第1特徴抽出部1031から出力された第1特徴を、k平均法(k−Means Clustering)などのデータのクラスタリング手法を用いて、患者Pの呼気および吸気に対応する2つのクラスに分類する。分類部206は、クラスの分類に用いた第1特徴と、この第1特徴に対応する分類ラベルとを、学習部204に出力する。
なお、分類部206は、例えば、患者Pの呼気と吸気との中間的な状態を表すために、第1特徴抽出部1031から出力された第1特徴を、Nクラス(N=自然数、正の整数)に分類してもよい。また、例えば、患者Pに呼吸センサーなどが取り付けられている場合、分類部206は、呼吸センサーなどから出力される呼吸信号を用いて、第1特徴抽出部1031から出力された第1特徴を、複数のクラスに分類してもよい。より具体的には、分類部206は、第1特徴を抽出した第1画像を撮影したときの呼吸センサーなどから出力される呼吸信号の1次微分などを用いて患者Pの呼気と吸気とを判定し、判定した結果に基づいて、患者Pの呼気および吸気に対応する2つのクラスに分類してもよい。
学習部204は、分類部206から出力された第1特徴に基づいて、第1の実施形態の医用画像処理装置100に備えた学習部104と同様に、患者Pの呼吸や心拍の動きによって移動する特徴被写体の複数時刻における3次元的な位置の分布を学習する。また、学習部204は、分類部206から出力された第1特徴に対応する分類ラベルに基づいて、学習した特徴被写体の位置の分布を、分類ラベルごとに分類する。そして、学習部204は、分類ラベルごとに分類した特徴被写体の位置の分布に基づいて、特徴被写体が移動する範囲を表す閉空間を分類ラベルごとに定める。学習部204は、分類ラベルごとに定めたそれぞれの閉空間の情報を判定部205に出力する。
なお、学習部204がそれぞれの分類ラベルに対応する閉空間を定める方法は、第1の実施形態の医用画像処理装置100に備えた学習部104と同様である。なお、分類部206から時系列に第1特徴が出力されている場合には、学習部204は、それぞれの第1特徴が属する分類ラベルにおける時系列の変化を求めて、分類ラベルごとに定めたそれぞれの閉空間の情報と共に判定部205に出力してもよい。
判定部205は、学習部204から出力されたそれぞれの分類ラベルの閉空間の情報と、特徴処理部103に備えた第2特徴計算部1032から出力された第2特徴とに基づいて、第1の実施形態の医用画像処理装置100に備えた判定部105と同様に、第2特徴が閉空間内にあるか否かを判定する。ただし、判定部205は、第2特徴が閉空間内にあるか否かの判定を、それぞれの分類ラベルに対応する閉空間ごとに行う。判定部205は、特徴被写体の移動を分類ラベルごとに判定した結果を表す判定信号を出力する。
なお、上述したように、判定部205は、それぞれの分類ラベルに対応する閉空間ごとに第2特徴が閉空間内にあるか否かの判定を行う。このため、判定部205は、第2特徴がいずれの分類ラベルに対応する閉空間内にあるか否かによって、第1の実施形態の医用画像処理装置100に備えた判定部105よりも詳細に、患者Pの呼吸の状態、つまり、治療中の特徴被写体の移動を判定することができる。例えば、判定部205は、第2特徴計算部1032から出力された第2特徴が、学習部204から出力されたいずれの分類ラベルの閉空間の内側にない場合に、異常を検出したことを表す判定信号を出力することができる。また、例えば、判定部205は、いずれかの分類ラベルの閉空間の内側にある場合、第2特徴が閉空間の内側にある分類ラベルに基づいて、患者Pの呼吸の状態を判定した判定信号を出力することができる。なお、患者Pの呼吸の状態は、例えば、患者Pに無呼吸症候群が発生している可能性や、患者Pの呼吸が乱れている可能性などである。
ここで、判定部205が患者Pの呼吸の状態を判定するための第2特徴の判定方法について説明する。最初に、判定部205が、患者Pに無呼吸症候群が発生している可能性を判定する場合の第2特徴の判定方法について説明する。この場合、判定部205は、第2特徴がいずれの分類ラベルに対応する閉空間内にあるか否かを判定し、第2特徴が閉空間の内側にあると判定した分類ラベルの情報を一時的に記憶しておく。なお、第2特徴が複数の分類ラベルの閉空間の内側にあると判定した場合には、判定部205は、第2特徴が閉空間の内側にあると判定した全ての分類ラベルの情報を一時的に記憶しておく。その後、判定部205は、予め定めた時間内の他の第2特徴がいずれの分類ラベルに対応する閉空間内にあるか否かを判定する。その結果、他の第2特徴が、一時的に記憶しておいた分類ラベルと同一の分類ラベルの閉空間の内側にあると判定した場合には、判定部205は、患者Pが周期的な呼吸を行っていない、つまり、患者Pに無呼吸症候群が発生している可能性があると判定し、異常を検出したことを表す判定信号を出力する。一方、他の第2特徴が、一時的に記憶しておいた分類ラベルと異なる分類ラベルの閉空間の内側にあると判定した場合には、判定部205は、異常を検出していないことを表す判定信号を出力する。このように、判定部205は、予め定めた時間内の複数の第2特徴が閉空間の内側にあると判定した分類ラベルの情報に基づいて、患者Pに無呼吸症候群が発生している可能性を含めて判定した判定信号を出力することができる。
続いて、判定部205が、患者Pの呼吸が乱れている可能性を判定する場合の第2特徴の判定方法について説明する。この場合、判定部205は、第2特徴がいずれの分類ラベルに対応する閉空間内にあるか否かを判定し、第2特徴が閉空間の内側にあると判定した分類ラベルの時系列の変化を一時的に記憶しておく。そして、一時的に記憶しておいた分類ラベルの時系列の変化が、学習部204が出力した第1特徴が属する分類ラベルの時系列の変化と異なった場合、判定部205は、患者Pの呼吸の周期が乱れている可能性があると判定し、異常を検出したことを表す判定信号を出力する。一方、一時的に記憶しておいた分類ラベルの時系列の変化が、学習部204が出力した第1特徴が属する分類ラベルの時系列の変化と同様である場合には、判定部205は、異常を検出していないことを表す判定信号を出力する。このように、判定部205は、学習部204から出力された、それぞれの第1特徴が属する分類ラベルにおける時系列の変化の情報を用いることによって、患者Pの呼吸が乱れている可能性を含めて判定した判定信号を出力することができる。
このような構成および動作によって、医用画像処理装置200は、治療前に撮影された患者Pの第1画像と、治療中に撮影されている患者Pの第2画像とに基づいて、治療計画において決定したゲートウィンドウと現在の患者Pの体内にある特徴被写体の位置とのずれを分類ラベルごとに判定した結果を、判定信号として出力する。これにより、医用画像処理装置200を備えた治療システム2では、第1の実施形態の医用画像処理装置100を備えた治療システム1と同様に、患者Pの呼気や吸気に同期した適切なタイミングでの治療ビームBの照射と、治療中の患者Pに起こった不測の事態の検知した場合に講じる施策とを行うことができる。
しかも、医用画像処理装置200では、分類部206が第1特徴を、患者Pの呼気や吸気などの呼吸の位相(周期)に応じた複数のクラスに分類し、学習部204および判定部205のそれぞれが、複数のクラスに分類された第1特徴に基づいて、それぞれの処理を行う。これにより、医用画像処理装置200では、患者Pの呼吸の状態が周期的に行われているか否かを含めて、治療中の患者Pの体内の特徴被写体の位置を追跡することができる。言い換えれば、医用画像処理装置200では、患者Pの体内の病巣に治療ビームBを照射するタイミングと治療中に起こった不測の事態とを高い精度で検知することができる。このことにより、医用画像処理装置200を備えた治療システム2では、放射線治療を安全に行うことができる。
なお、医用画像処理装置200における状態検知処理は、図3に示した第1の実施形態の医用画像処理装置100における状態検知処理に、分類部206による処理を追加することによって容易に考えることができる。より具体的には、図3に示した第1の実施形態の医用画像処理装置100の状態検知処理において、ステップS200とステップS300との間に分類部206による処理を追加することによって容易に考えることができる。従って、医用画像処理装置200における状態検知処理の流れに関する詳細な説明は省略する。
上述したように、第2の実施形態の医用画像処理装置200では、第1画像取得部101が治療前に撮影された患者Pの第1画像を取得し、特徴処理部103に備えた第1特徴抽出部1031が患者Pの体内にある特徴被写体の位置を特定するための第1特徴を抽出する。そして、第2の実施形態の医用画像処理装置200では、分類部206が第1特徴を患者Pの呼気や吸気などの呼吸の位相(周期)に応じた複数のクラスに分類する。そして、第2の実施形態の医用画像処理装置200では、学習部204が、分類された第1特徴に基づいて特徴被写体の位置の分布を学習し、特徴被写体が移動することが予想される範囲を表す閉空間を分類ラベルごとに定める。また、第2の実施形態の医用画像処理装置200では、第2画像取得部102が治療中に撮影されている患者Pの第2画像を取得し、特徴処理部103に備えた第2特徴計算部1032が患者Pの体内にある特徴被写体の現在の位置を表す第2特徴を計算する。そして、第2の実施形態の医用画像処理装置200では、判定部205が、第2特徴が閉空間の範囲内にあるか否かの判定をそれぞれの分類ラベルごとに行うことによって、治療中の患者Pの体内の特徴被写体の位置を追跡し、判定した結果を表す判定信号を出力する。これにより、第2の実施形態の医用画像処理装置200を備えた治療システム2では、第1の実施形態の医用画像処理装置100を備えた治療システム1と同様に、患者Pの呼気や吸気に同期した適切なタイミングで治療ビームBを照射することができる。また、第2の実施形態の医用画像処理装置200では、患者Pの体内の特徴被写体の位置の追跡を分類ラベルごとに行うことによって、治療中の患者Pの呼吸の状態を含めて、患者Pに起こった不測の事態を検知することができる。これにより、第2の実施形態の医用画像処理装置200を備えた治療システム2では、検知した治療中の患者Pに起こった不測の事態に応じて、放射線治療を安全に行うための適切な施策を講じることができる。
なお、第2の実施形態の医用画像処理装置200では、図5に示した医用画像処理装置200の構成において、分類部206が、医用画像処理装置200を構成する個別の構成要素であるものとして説明した。しかし、分類部206は、医用画像処理装置200における個別の構成要素である構成に限定されるものではない。例えば、医用画像処理装置200において、分類部206の機能を、学習部204の機能として備える構成であってもよい。
上記説明したように、医用画像処理装置200は、第1特徴の複数の位置を2以上に分類することに依り第1閉空間から第2閉空間を設定する分類部206をさらに備える。
(第3の実施形態)
以下、第3の実施形態について説明する。なお、第3の実施形態の医用画像処理装置を備えた治療システムの構成は、図1に示した第1の実施形態の医用画像処理装置100を備えた治療システム1の構成において、医用画像処理装置100が第3の実施形態の医用画像処理装置(以下、「医用画像処理装置300」という)に代わった構成である。以下の説明においては、医用画像処理装置300を備えた治療システムを、「治療システム3」という。
なお、以下の説明においては、医用画像処理装置300を備えた治療システム3の構成要素において、第1の実施形態の医用画像処理装置100を備えた治療システム1の構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素である医用画像処理装置300の構成、動作、および処理についてのみを説明する。
医用画像処理装置300は、第1の実施形態の医用画像処理装置100と同様に、放射線検出器13−1および放射線検出器13−2から出力された透視画像に基づいて、放射線治療において治療を行う患者Pの体内の特徴被写体を追跡する。そして、医用画像処理装置300は、第1の実施形態の医用画像処理装置100と同様に、患者Pの体内の特徴被写体を追跡した結果に基づいて、治療ビームBを照射するタイミングや不測の事態を自動で検知し、検知した情報を出力する。
以下、治療システム3を構成する医用画像処理装置300の構成について説明する。図6は、第3の実施形態の医用画像処理装置300の概略構成を示したブロック図である。図6に示した医用画像処理装置300は、第1画像取得部101と、第2画像取得部102と、特徴処理部303と、選択部307と、学習部104と、判定部105とを備える。また、特徴処理部303は、第1特徴抽出部3031と、第2特徴計算部3032とを備える。
医用画像処理装置300は、第1の実施形態の医用画像処理装置100に選択部307が追加された構成である。これに伴って、医用画像処理装置300では、第1の実施形態の医用画像処理装置100に備えた特徴処理部103が特徴処理部303に代わっている。また、特徴処理部303では、特徴処理部103に備えた第1特徴抽出部1031が第1特徴抽出部3031に代わり、第2特徴計算部1032が第2特徴計算部3032に代わっている。なお、医用画像処理装置300に備えたその他の構成要素は、第1の実施形態の医用画像処理装置100に備えた構成要素と同じ構成要素である。従って、以下の説明においては、医用画像処理装置300の構成要素において、第1の実施形態の医用画像処理装置100に備えた構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素についてのみを説明する。
第1画像取得部101は、治療前に撮影された患者Pの第1画像を取得して特徴処理部303に出力する。
第2画像取得部102は、治療中に撮影されている患者Pの第2画像を取得して特徴処理部303に出力する。
特徴処理部303は、第1の実施形態の医用画像処理装置100に備えた特徴処理部103と同様に、第1画像取得部101から出力された第1画像と、第2画像取得部102から出力された第2画像とに基づいて、患者Pの体内にある特徴被写体の位置を特定するための特徴を抽出する。特徴処理部303は、抽出した特徴被写体の位置を表す情報(第1特徴および第2特徴)を、選択部307および判定部105に出力する。
第1特徴抽出部3031は、第1の実施形態の医用画像処理装置100に備えた特徴処理部103内の第1特徴抽出部1031と同様に、患者Pの第1画像から特徴被写体の特徴を表す特徴抽出パラメータを計算する。このとき、第1特徴抽出部3031は、複数(2つ以上)の特徴抽出パラメータを計算する。第1特徴抽出部3031は、計算したそれぞれの特徴抽出パラメータを選択部307に出力する。また、第1特徴抽出部3031は、計算したそれぞれの特徴抽出パラメータに従って、第1画像に撮影された特徴被写体の位置を抽出し、抽出した特徴被写体の位置を表すそれぞれの第1特徴を、選択部307に出力する。なお、第1特徴抽出部3031が特徴抽出パラメータに従って第1画像から第1特徴を抽出する方法は、第1の実施形態の医用画像処理装置100に備えた特徴処理部103内の第1特徴抽出部1031と同様の方法である。
第2特徴計算部3032は、選択部307から出力された特徴抽出パラメータ、つまり、第1特徴抽出部1031から出力されたいずれかの特徴抽出パラメータに基づいて、患者Pの第2画像から特徴被写体を抽出する。第2特徴計算部3032は、抽出した特徴被写体の位置を計算し、計算した特徴被写体の位置を表す情報を、第2特徴として判定部105に出力する。なお、第2特徴計算部3032が特徴抽出パラメータに基づいて第2画像から第2特徴を抽出する方法は、第1の実施形態の医用画像処理装置100に備えた特徴処理部103内の第2特徴計算部1032と同様の方法である。
選択部307は、特徴処理部303に備えた第1特徴抽出部3031から出力された複数の特徴抽出パラメータと第1特徴を取得する。そして、選択部307は、取得したそれぞれの第1特徴が表す複数時刻の特徴被写体の位置の分布に基づいて、対応するそれぞれの特徴抽出パラメータを評価し、この評価結果に基づいて、特徴被写体の抽出に好適な特徴抽出パラメータを選択する。選択部307は、選択した特徴抽出パラメータを、特徴処理部303に備えた第2特徴計算部3032に出力する。また、選択部307は、第2特徴計算部3032に出力した特徴抽出パラメータに対応する第1特徴、つまり、好適な特徴抽出パラメータによって抽出された好適な第1特徴を選択して、学習部104に出力する。
ここで、選択部307が第1特徴に基づいて特徴抽出パラメータを評価する方法について説明する。第1特徴は、放射線治療を行う前に患者Pが安定した呼吸周期で呼吸している状態で撮影された第1画像から抽出した特徴被写体の位置を表す情報である。このため、第1特徴が表す複数時刻の特徴被写体の位置の分布は、高密度であることが望ましい。つまり、第1特徴における成分ごとの分散値は、小さいほど望ましい。そこで、選択部307は、それぞれの特徴抽出パラメータごとに、複数時刻の第1特徴において特徴被写体の位置を表す成分の分散を求める。このとき、第1特徴が属する特徴空間は、第1特徴を抽出したそれぞれの特徴抽出パラメータごとに異なるため、第1特徴において特徴被写体の位置を表す成分を単純に大小比較することができない。このため、選択部307は、それぞれの特徴抽出パラメータごとに、対応する第1特徴において特徴被写体の位置を表す成分の最大の分散値σ1と、その次に大きい分散値σ2とを計算し、分散値σ1と分散値σ2との比(=σ2/σ1)を比較する。そして、選択部307は、比較した分散値の比が最も大きい第1特徴に対応する特徴抽出パラメータを、好適な特徴抽出パラメータとして選択して第2特徴計算部3032に出力する。また、選択部307は、好適な特徴抽出パラメータとして選択した特徴抽出パラメータに対応する第1特徴を、学習部104に出力する。
これにより、第2特徴計算部3032は、選択部307から出力された好適な特徴抽出パラメータに基づいて、患者Pの第2画像から抽出した特徴被写体の位置を表す第2特徴を、判定部105に出力する。また、学習部104は、好適な特徴抽出パラメータによって抽出された好適な第1特徴を用いて定めた閉空間の情報を、判定部105に出力する。
このような構成および動作によって、医用画像処理装置300は、第1の実施形態の医用画像処理装置100と同様に、治療前に撮影された患者Pの第1画像と、治療中に撮影されている患者Pの第2画像とに基づいて、治療計画において決定したゲートウィンドウと現在の患者Pの体内にある特徴被写体の位置とのずれを判定した結果を、判定信号として出力する。これにより、医用画像処理装置300を備えた治療システム3では、第1の実施形態の医用画像処理装置100を備えた治療システム1と同様に、患者Pの呼気や吸気に同期した適切なタイミングでの治療ビームBの照射と、治療中の患者Pに起こった不測の事態の検知した場合に講じる施策とを行うことができる。
しかも、医用画像処理装置300では、選択部307が複数の特徴抽出パラメータを評価して特徴被写体の抽出に好適な特徴抽出パラメータを選択し、この好適な特徴抽出パラメータによって抽出された第1特徴に基づいて、学習部104が閉空間を定める。これにより、医用画像処理装置300では、第1の実施形態の医用画像処理装置100よりも高い精度で、治療中の患者Pの体内の特徴被写体の位置を追跡することができる。言い換えれば、医用画像処理装置300では、患者Pの体内の病巣に治療ビームBを照射するタイミングと治療中に起こった不測の事態とを高い精度で検知することができる。このことにより、医用画像処理装置300を備えた治療システム3では、放射線治療を安全に行うことができる。
なお、医用画像処理装置300における状態検知処理は、図3に示した第1の実施形態の医用画像処理装置100における状態検知処理と同様に考えることができる。より具体的には、図3に示した第1の実施形態の医用画像処理装置100の状態検知処理におけるステップS500とステップS300との処理に選択部307による処理を含めることによって容易に考えることができる。従って、医用画像処理装置300における状態検知処理の流れに関する詳細な説明は省略する。
上述したように、第3の実施形態の医用画像処理装置300では、第1画像取得部101が治療前に撮影された患者Pの第1画像を取得し、特徴処理部303に備えた第1特徴抽出部3031と選択部307とによって患者Pの体内にある特徴被写体の位置を特定するための好適な第1特徴を抽出する。そして、第3の実施形態の医用画像処理装置300では、学習部104が、好適な第1特徴に基づいて特徴被写体の位置の分布を学習し、特徴被写体が移動することが予想される範囲を表す閉空間を定める。また、第3の実施形態の医用画像処理装置300では、第2画像取得部102が治療中に撮影されている患者Pの第2画像を取得し、特徴処理部303に備えた第2特徴計算部3032が、好適な特徴抽出パラメータに基づいて患者Pの体内にある特徴被写体の現在の位置を表す第2特徴を計算する。そして、第3の実施形態の医用画像処理装置300では、判定部105が、第2特徴が閉空間の範囲内にあるか否かを判定することによって、第1の実施形態の医用画像処理装置100よりも高い精度で、治療中の患者Pの体内の特徴被写体の位置を追跡し、判定した結果を表す判定信号を出力する。これにより、第3の実施形態の医用画像処理装置300を備えた治療システム3では、第1の実施形態の医用画像処理装置100を備えた治療システム1よりも高い精度で、患者Pの呼吸や心拍などに連動して移動する病巣に対して、患者Pの呼気や吸気に同期した適切なタイミングで治療ビームBを照射することができる。また、第3の実施形態の医用画像処理装置300では、患者Pの体内の特徴被写体の位置を高い精度で追跡した結果に基づいて、治療中の患者Pに起こった不測の事態を検知することができる。これにより、第3の実施形態の医用画像処理装置300を備えた治療システム3では、高い精度で検知した治療中の患者Pに起こった不測の事態に応じて、放射線治療を安全に行うための適切な施策を講じることができる。
なお、第3の実施形態の医用画像処理装置300では、図6に示した医用画像処理装置300の構成において、選択部307が、医用画像処理装置300を構成する個別の構成要素であるものとして説明した。しかし、選択部307は、医用画像処理装置300における個別の構成要素である構成に限定されるものではない。例えば、医用画像処理装置300において、選択部307の機能を、第1特徴抽出部3031の機能として備える構成であってもよい。
上記説明したように、医用画像処理装置300において、第1特徴抽出部3031は、複数の特徴抽出パラメータを計算し、それぞれの特徴抽出パラメータに対応する複数の第1特徴を出力し、複数の第1特徴のそれぞれが表す特徴被写体の位置の分布に基づいて、第2特徴計算部が特徴被写体を抽出するために用いる特徴抽出パラメータと、算出部(学習部104)が閉空間を定めるために用いる第1特徴とを選択する選択部307をさらに備える。
(第4の実施形態)
以下、第4の実施形態について説明する。なお、第4の実施形態の医用画像処理装置を備えた治療システムの構成は、図1に示した第1の実施形態の医用画像処理装置100を備えた治療システム1の構成において、医用画像処理装置100が第4の実施形態の医用画像処理装置(以下、「医用画像処理装置400」という)に代わった構成である。以下の説明においては、医用画像処理装置400を備えた治療システムを、「治療システム4」という。
なお、以下の説明においては、医用画像処理装置400を備えた治療システム4の構成要素において、第1の実施形態の医用画像処理装置100を備えた治療システム1の構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素である医用画像処理装置400の構成、動作、および処理についてのみを説明する。
医用画像処理装置400は、第1の実施形態の医用画像処理装置100と同様に、放射線治療において治療を行う患者Pの体内の特徴被写体を追跡して、治療ビームBを照射するタイミングや不測の事態を自動で検知し、検知した情報を出力する。また、医用画像処理装置400は、患者Pの体内の特徴被写体を追跡している状況を表示することによって、医用画像処理装置400を備えた治療システム4の利用者(医師など)に提示する。
以下、治療システム4を構成する医用画像処理装置400の構成について説明する。図7は、第4の実施形態の医用画像処理装置400の概略構成を示したブロック図である。図7に示した医用画像処理装置400は、第1画像取得部101と、第2画像取得部402と、特徴処理部403と、学習部404と、判定部405と、表示部408とを備える。また、特徴処理部403は、第1特徴抽出部1031と、第2特徴計算部4032とを備える。
医用画像処理装置400は、第1の実施形態の医用画像処理装置100に表示部408が追加された構成である。これに伴って、医用画像処理装置400では、第1の実施形態の医用画像処理装置100に備えた特徴処理部103が特徴処理部403に、学習部104が学習部404に、判定部105が判定部405にそれぞれ代わっている。また、特徴処理部403では、特徴処理部103に備えた第2特徴計算部1032が第2特徴計算部4032に代わっている。なお、医用画像処理装置400に備えたその他の構成要素は、第1の実施形態の医用画像処理装置100に備えた構成要素と同じ構成要素である。従って、以下の説明においては、医用画像処理装置400の構成要素において、第1の実施形態の医用画像処理装置100に備えた構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素についてのみを説明する。
第1画像取得部101は、治療前に撮影された患者Pの第1画像を取得して特徴処理部403に出力する。
第2画像取得部402は、治療中に撮影されている患者Pの第2画像を取得して特徴処理部403に出力する。また、第2画像取得部402は、取得した第2画像を表示部408に出力する。ここで、第2画像取得部402は、放射線検出器13−1と放射線検出器13−2とのそれぞれが生成した2枚の透視画像(2方向の透視画像)を、第2画像として表示部408に出力する。
特徴処理部403は、第1の実施形態の医用画像処理装置100に備えた特徴処理部103と同様に、第1画像取得部101から出力された第1画像と、第2画像取得部102から出力された第2画像とに基づいて抽出した、特徴被写体の位置を表す情報(第1特徴および第2特徴)を、学習部404および判定部405に出力する。また、特徴処理部403は、第2特徴を表示部408に出力する。
第1特徴抽出部1031は、患者Pの第1画像から特徴被写体の特徴を表す特徴抽出パラメータを、第2特徴計算部4032に出力する。また、第1特徴抽出部1031は、特徴抽出パラメータに従って第1画像に撮影された特徴被写体の位置を抽出した第1特徴を、学習部404に出力する。
第2特徴計算部4032は、第1の実施形態の医用画像処理装置100に備えた特徴処理部103内の第2特徴計算部1032と同様に、第1特徴抽出部1031から出力された特徴抽出パラメータに基づいて第2画像から抽出した特徴被写体の位置を表す第2特徴を、判定部405に出力する。また、第2特徴計算部4032は、第2特徴を表示部408に出力する。
学習部404は、特徴処理部403に備えた第1特徴抽出部1031から出力された第1特徴に基づいて患者Pの呼吸や心拍の動きによって移動する特徴被写体の複数時刻における3次元的な位置の分布を学習して閉空間を定める。学習部404は、定めた閉空間の情報を判定部405に出力する。また、学習部404は、閉空間の情報と共に、ゲートウィンドウの情報を、判定部405に出力してもよい。なお、学習部404が第1特徴に基づいて複数時刻における特徴被写体の位置の変化を学習する方法、および学習部404が学習した特徴被写体の位置の分布に基づいて閉空間を定める方法は、第1の実施形態の医用画像処理装置100に備えた学習部104と同様の方法である。また、学習部404は、定めた閉空間の情報を表示部408に出力する。また、学習部404は、閉空間の情報と共に、ゲートウィンドウの情報を、表示部408に出力してもよい。
判定部405は、学習部404から出力された閉空間の情報と、特徴処理部403に備えた第2特徴計算部4032から出力された第2特徴とに基づいて、第2特徴が閉空間内にあるか否かを判定し、判定した結果を表す判定信号を出力する。なお、判定部405において第2特徴が閉空間内にあるか否かを判定する方法は、第1の実施形態の医用画像処理装置100に備えた判定部105と同様の方法である。また、判定部405は、第2特徴が閉空間内にあるか否かを判定した結果を提示するための情報、つまり、判定信号によって表す情報を、表示部408に出力する。また、判定部405は、第2特徴が表す特徴被写体の位置と、閉空間が表す特徴被写体が移動する範囲の境界との間の距離を計算し、計算した距離の情報を、判定信号によって表す情報と共に表示部408に出力してもよい。
表示部408は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)などの表示装置を備える表示ユーザーインターフェースである。表示部408は、第2画像取得部402から出力された第2画像、第2特徴計算部4032から出力された第2特徴、学習部404から出力された閉空間の情報、判定部405から出力された判定信号によって表す情報のそれぞれを提示するための画像を表示する。
ここで、表示部408におけるそれぞれの情報の表示方法について説明する。表示部408は、第2画像取得部402から第2画像として出力された2枚の透視画像(2方向の透視画像)を予め定めた領域に並べて同時に表示する。そして、表示部408は、学習部404から出力された閉空間の情報を、対応する透視画像の上に重畳して表示する。このとき、学習部404から出力された閉空間の情報が、例えば、3次元の空間の情報である場合、表示部408は、治療装置10に備えた放射線検出器13−1と放射線検出器13−2とのそれぞれにおけるジオメトリから求められる射影行列を利用することによって、閉空間の範囲を表す画像を対応する透視画像の上に重畳して表示する。さらに、表示部408は、第2特徴計算部4032から出力された第2特徴が表す特徴被写体の位置の情報を、対応する透視画像の上に重畳して表示する。このとき、表示部408は、第2特徴が表す特徴被写体の位置に、視覚的にわかりやすい記号やアイコンを対応する透視画像の上に重畳して表示する。ここで、第2特徴計算部4032から時系列に第2特徴が出力されている場合には、それぞれの第2特徴が表す特徴被写体の位置を更新することによって、特徴被写体が移動する様子を提示することができる。なお、この場合においてそれぞれの第2特徴が表す特徴被写体の位置を更新せずに追加していくように表示させた場合には、特徴被写体が移動した軌跡を提示することができる。
なお、学習部404がゲートウィンドウの情報を出力する場合、表示部408は、ゲートウィンドウの範囲を表す画像を対応する透視画像の上に重畳して表示する。また、判定部405が、第2特徴が表す特徴被写体の位置と閉空間が表す特徴被写体が移動する範囲の境界との間の距離の情報を出力する場合、表示部408は、例えば、透視画像を並べて表示している領域の外側において対応する透視画像の周辺に、距離の情報を表す数字列を表示する。このとき、表示部408は、距離の値(大きさ)に基づいて、表示する距離の情報を表す数字列の色を、カラーチャートに従って変更させてもよい。
また、表示部408は、判定部405から出力された判定信号が表す情報を重畳して表示する。例えば、判定部405から出力された判定信号が表す情報が、異常を検出したことを表している場合、表示部408は、異常が発生したことを通知するメッセージを全画面に重畳して大きく表示する。なお、異常が発生したことを通知するメッセージは、いわゆる、ポップアップ画面として、現在の表示に重畳してもよい。これにより、医用画像処理装置400を備えた治療システム4の利用者(医師など)に、警告を発することができる。
なお、医用画像処理装置400を備えた治療システム4において利用者(医師など)に警告を発する構成は、図7に示した表示部408に限定されるものではない。例えば、表示部408に音声出力を備える構成とし、異常が発生したことを通知するメッセージやポップアップ画面を表示する場合に、警告音を発生してもよい。なお、利用者(医師など)への警告は、少なくとも異常が発生したことを通知ことができればよいとも考えられる。この場合、医用画像処理装置400に備えた表示部408の代わりに音声出力部を備え、この音声出力部によって、異常が発生したことを警告音のみで通知する構成であってもよい。
このような構成および動作によって、医用画像処理装置400は、第1の実施形態の医用画像処理装置100と同様に、治療前に撮影された患者Pの第1画像と、治療中に撮影されている患者Pの第2画像とに基づいて、治療計画において決定したゲートウィンドウと現在の患者Pの体内にある特徴被写体の位置とのずれを判定した結果を、判定信号として出力する。これにより、医用画像処理装置400を備えた治療システム4では、第1の実施形態の医用画像処理装置100を備えた治療システム1と同様に、患者Pの呼気や吸気に同期した適切なタイミングでの治療ビームBの照射と、治療中の患者Pに起こった不測の事態の検知した場合に講じる施策とを行うことができる。
しかも、医用画像処理装置400では、表示部408が、医用画像処理装置400に備えた構成要素から出力された情報を画像として表示する。これにより、医用画像処理装置400では、治療中の状態を視覚的に確認することができる。このことにより、医用画像処理装置400を備えた治療システム4では、治療中に患者Pの体内の特徴被写体を追跡している状況を視覚的に確認しながら、放射線治療を安全に行うことができる。
なお、医用画像処理装置400における状態検知処理は、それぞれの処理段階における情報を表示部408が表することが異なる以外は、図3に示した第1の実施形態の医用画像処理装置100における状態検知処理と同様である。従って、医用画像処理装置400における状態検知処理の流れに関する詳細な説明は省略する。
上述したように、第4の実施形態の医用画像処理装置400では、第1の実施形態の医用画像処理装置100と同様に、治療中の患者Pの体内の特徴被写体の位置を追跡して判定した結果を表す判定信号を出力する。これにより、第4の実施形態の医用画像処理装置400を備えた治療システム4では、第1の実施形態の医用画像処理装置100を備えた治療システム1と同様に、患者Pの呼気や吸気に同期した適切なタイミングでの治療ビームBの照射と、治療中の患者Pに起こった不測の事態の検知した場合に講じる施策とを行うことができる。
また、第4の実施形態の医用画像処理装置400では、表示部408が、治療中の患者Pの体内の特徴被写体の位置を追跡している状態を表示する。これにより、第4の実施形態の医用画像処理装置400を備えた治療システム4では、現在の特徴被写体の位置を確認しながら、安全に放射線治療を行うことができる。また、第4の実施形態の医用画像処理装置400では、治療中の患者Pに起こった不測の事態を検知した場合に、表示部408が警告を表示する。これにより、第4の実施形態の医用画像処理装置400を備えた治療システム4では、表示部408に表示された警告に応じて、治療中の患者Pに起こった不測の事態に対応するための適切な施策を講じることができる。なお、表示部408は、第4の実施形態の医用画像処理装置400に備える構成に限定されるものではなく、第4の実施形態の医用画像処理装置400を備えた治療システム4に備える構成であってもよい。
なお、第4の実施形態の医用画像処理装置400では、図7に示した医用画像処理装置400の構成において、表示部408が、医用画像処理装置400に備えた構成要素から出力された情報に応じた画像を生成して表示(重畳)する構成である場合について説明した。しかし、表示部408に表示(重畳)する画像は、表示部408が生成する構成に限定されるものではなく、情報を出力するそれぞれの構成要素が生成する構成であってもよい。例えば、医用画像処理装置400において、第2画像取得部402が、2枚の透視画像(2方向の透視画像)を予め定めた領域に並べて同時に表示するための1枚の画像を生成し、生成した1枚の画像を第2画像として表示部408に出力する構成であってもよい。この場合、表示部408は、第2画像取得部402から出力された1枚の画像をそのまま表示する構成となる。また、例えば、医用画像処理装置400において、学習部404が、透視画像の上に重畳するための閉空間の範囲を表す画像を生成し、生成した画像を閉空間の情報として表示部408に出力する構成であってもよい。このとき、学習部404は、第2画像取得部402が生成する1枚の画像に並べられたそれぞれの透視画像に重畳して表示させる閉空間の範囲を表すそれぞれの画像が含まれた1枚の画像を、閉空間の情報として表示部408に出力してもよい。この場合、表示部408は、第2画像取得部402から出力された1枚の画像に、学習部404から出力された1枚の画像をそのまま重畳する構成となる。
上記説明したように、医用画像処理装置400は、判定部405が判定した結果を表示する表示部408をさらに備える。
また、上記説明したように、医用画像処理装置400において、表示部408は、第2画像を表示し、第2画像の表示上に閉空間の範囲を重畳して表示してもよい。
(第5の実施形態)
以下、第5の実施形態について説明する。なお、第5の実施形態の医用画像処理装置を備えた治療システムの構成は、図1に示した第1の実施形態の医用画像処理装置100を備えた治療システム1の構成において、医用画像処理装置100が第5の実施形態の医用画像処理装置(以下、「医用画像処理装置500」という)に代わった構成である。以下の説明においては、医用画像処理装置500を備えた治療システムを、「治療システム5」という。
なお、以下の説明においては、医用画像処理装置500を備えた治療システム5の構成要素において、第1の実施形態の医用画像処理装置100を備えた治療システム1の構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素である医用画像処理装置500の構成、動作、および処理についてのみを説明する。
医用画像処理装置500は、第1の実施形態の医用画像処理装置100と同様に、放射線治療において治療を行う患者Pの体内の特徴被写体を追跡して、治療ビームBを照射するタイミングや不測の事態を自動で検知し、検知した情報を出力する。そして、医用画像処理装置500は、患者Pの体内の特徴被写体を追跡した結果に基づいて、治療装置10に備えた治療ビーム照射門14による治療ビームBの照射や、放射線源12による放射線rの照射を制御する。
以下、治療システム5を構成する医用画像処理装置500の構成について説明する。図8は、第5の実施形態の医用画像処理装置500の概略構成を示したブロック図である。図8に示した医用画像処理装置500は、第1画像取得部101と、第2画像取得部102と、特徴処理部103と、学習部104と、判定部105と、制御部509とを備える。また、特徴処理部103は、第1特徴抽出部1031と、第2特徴計算部1032とを備える。
医用画像処理装置500は、第1の実施形態の医用画像処理装置100に制御部509が追加された構成である。なお、医用画像処理装置500に備えたその他の構成要素は、第1の実施形態の医用画像処理装置100に備えた構成要素と同じ構成要素である。従って、以下の説明においては、医用画像処理装置500の構成要素において、第1の実施形態の医用画像処理装置100に備えた構成要素と同様の構成要素には、同一の符号を付与し、それぞれの構成要素に関する詳細な説明は省略する。そして、以下の説明においては、第1の実施形態の医用画像処理装置100と異なる構成要素についてのみを説明する。
判定部105は、学習部104から出力された閉空間の情報と、特徴処理部103に備えた第2特徴計算部1032から出力された第2特徴とに基づいて、第2特徴が閉空間内にあるか否かを判定した結果を表す判定信号を、制御部509に出力する。
制御部509は、判定部105から出力された判定信号に基づいて、医用画像処理装置500を備えた治療システム5における放射線治療を制御する。つまり、制御部509は、判定信号が異常を検出していないことを表している場合には、治療システム5における放射線治療を行い、判定信号が異常を検出したことを表している場合には、治療システム5における放射線治療を行わないように制御する。
制御部509における放射線治療の制御では、例えば、治療装置10に備えた治療ビーム照射門14による治療ビームBの照射や、放射線源12および放射線検出器13による透視画像の撮影を制御する。より具体的には、判定信号が異常を検出しておらず、現在の特徴被写体の位置が閉空間の範囲内にあることを表している場合、制御部509は、放射線源12に放射線rを照射させ、放射線検出器13に患者Pの体内を通過して到達した放射線rを検出して患者Pの体内の透視画像を生成させるように制御する。また、判定信号が異常を検出しておらず、現在の特徴被写体の位置が治療計画において決定したゲートウィンドウ内に来たことを表している場合、制御部509は、治療ビーム照射門14に治療ビームBを照射させるように制御する。
また、判定信号が異常を検出したことを表している場合、制御部509は、治療ビーム照射門14による治療ビームBの照射を停止するように制御する。このとき、制御部509は、放射線源12による放射線rの照射と、放射線検出器13による透視画像の生成とを停止する、つまり、透視画像(第2画像)の撮影を停止するように制御してもよい。このように制御することによって、患者Pに対して不要な放射線rの照射を回避することができる。
なお、判定信号が異常を検出したことを表す要因となった不測の事態としては、患者Pの咳やくしゃみ、患者Pが寝ている間の無呼吸症候群の発生など、長い時間を要さずに不測の事態が解消される、つまり、患者Pの咳やくしゃみなどが収まって、放射線治療を行うことができる安定した状態になることが考えられる。このため、制御部509は、判定信号が異常を検出したことを表している場合に、直ちに透視画像(第2画像)の撮影を停止するのではなく、予め定めた時間の間、透視画像の撮影間隔を長くし、その後も判定信号が異常を検出したことを表している場合に、透視画像の撮影を停止するように制御してもよい。
このような構成および動作によって、医用画像処理装置500は、第1の実施形態の医用画像処理装置100と同様に、治療前に撮影された患者Pの第1画像と、治療中に撮影されている患者Pの第2画像とに基づいて、治療ビームBを照射するタイミングや不測の事態を自動で検知する。そして、医用画像処理装置500では、検知した結果に基づいて、制御部509が、治療装置10に備えた治療ビーム照射門14による治療ビームBの照射や、放射線源12による放射線rの照射を制御する。特に、制御部509は、判定信号が異常を検出したことを表している場合には、患者Pへの治療ビームBと放射線rとの照射を停止するように制御する。これにより、医用画像処理装置500を備えた治療システム5では、放射線治療を安全に行うことができる。
なお、医用画像処理装置500における状態検知処理は、図3に示した第1の実施形態の医用画像処理装置100における状態検知処理に、制御部509による処理を追加することによって容易に考えることができる。より具体的には、図3に示した第1の実施形態の医用画像処理装置100の状態検知処理において、ステップS600の処理の後、ステップS400に戻る前に、制御部509によって治療ビームBと放射線rとの照射を制御する処理を追加することによって容易に考えることができる。従って、医用画像処理装置500における状態検知処理の流れに関する詳細な説明は省略する。
上述したように、第5の実施形態の医用画像処理装置500では、第1の実施形態の医用画像処理装置100と同様に、治療中の患者Pの体内の特徴被写体の位置を追跡して判定した結果を表す判定信号を出力する。そして、第5の実施形態の医用画像処理装置500では、判定信号に基づいて、治療装置10における治療ビームBと放射線rとの照射を制御する。これにより、第5の実施形態の医用画像処理装置500を備えた治療システム5では、治療中の患者Pの体内の特徴被写体の位置を追跡した状況に応じて、放射線治療を安全に行うことができる。
なお、第5の実施形態の医用画像処理装置500では、図8に示した医用画像処理装置500の構成において、制御部509が、医用画像処理装置500に備えた構成要素である場合について説明した。しかし、制御部509は、医用画像処理装置500に備えた構成要素である構成に限定されるものではない。例えば、第5の実施形態の医用画像処理装置500を備えた治療システム5において、制御部509の機能、つまり、医用画像処理装置500に備えた判定部105が出力した判定信号に基づいて治療ビームBと放射線rとの照射を制御する機能を、治療装置10に備える構成であってもよい。
上記説明したように、医用画像処理装置500において、判定信号は、治療装置10を制御する制御部へ送信される。
上記に述べたとおり、各実施形態の医用画像処理装置では、治療前に撮影された患者Pの第1画像と、治療中に撮影されている患者Pの第2画像とに基づいて、治療中の患者Pの体内の特徴被写体の位置を追跡し、放射線治療において患者Pの体内の病巣に治療ビームBを照射するタイミングや、治療中に患者Pに起こった不測の事態を検知した結果を表す判定信号を出力する。これにより、各実施形態の医用画像処理装置を備えた治療システムでは、治療中の患者Pに起こった不測の事態の検知した場合に施策を講じることができ、患者Pの呼気や吸気に同期した適切なタイミングで治療ビームBを照射する放射線治療を安全に行うことができる。
なお、第2の実施形態から第5の実施形態では、第1の実施形態の医用画像処理装置100にそれぞれの実施形態において特徴となる構成要素を追加した構成を説明した。しかし、それぞれの実施形態において特徴となる構成要素は、医用画像処理装置において排他的に備える構成に限定されるものではない。つまり、それぞれの実施形態において特徴となる構成要素は、医用画像処理装置において同時に備えてもよい。例えば、第4の実施形態の医用画像処理装置400において備えた表示部408と、第5の実施形態の医用画像処理装置500において備えた制御部509とを同時に備えた医用画像処理装置を構成してもよい。この場合、医用画像処理装置に備えるその他の構成要素は、適宜変更することによって、それぞれの構成要素に対応する機能を実現する。
また、各実施形態では、医用画像処理装置と治療装置10とのそれぞれが別体の装置である構成を説明した。しかし、医用画像処理装置と治療装置10とは、別体の装置である構成に限定されるものではなく、医用画像処理装置と治療装置10とが一体になった構成であってもよい。
上記実施形態で説明した治療システムにおいて用いられる医用画像処理プログラムは、コンピュータを、複数の時刻に撮像装置によって撮像された被検体の複数の第1画像を取得する第1画像取得部と、第1画像とは異なる時刻に撮像装置によって撮像された被検体の第2画像を取得する第2画像取得部と、複数の第1画像から被検体の第1特徴の複数の位置を求め、第2画像から被検体内の第1特徴に対応する第2特徴の位置を求める特徴処理部と、第1特徴の複数の位置を含む第1閉空間を定める算出部と、第2特徴の位置が第1閉空間内にあるか否かを判定した結果に基づく判定信号を出力する判定部と、を備える医用画像処理装置として機能させるための医用画像処理プログラムである。
以上説明した少なくともひとつの実施形態によれば、複数の時刻に撮像装置によって撮像された被検体(患者P)の複数の第1画像を取得する第1画像取得部(101)と、第1画像とは異なる時刻に撮像装置(2組の放射線源12と放射線検出器13)によって撮像された患者Pの第2画像を取得する第2画像取得部(102)と、複数の第1画像から患者Pの第1特徴の複数の位置を求め、第2画像から患者Pの体内の第1特徴に対応する第2特徴の位置を求める特徴処理部(103)と、第1特徴の複数の位置を含む第1閉空間(閉空間)を定める算出部(学習部104)と、第2特徴の位置が第1閉空間内にあるか否かを判定した結果に基づく判定信号を出力する判定部(105)とを持つことにより、放射線治療において放射線を照射中に起こった不測の事態を自動検知することができる。
なお、例えば、図1において示した第1特徴抽出部1031および第2特徴計算部1032を含む特徴処理部103、学習部104、判定部105など、医用画像処理装置を構成する各構成要素による機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本実施形態の治療システムに係る上述した種々の機能を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1・・・治療システム、10・・・治療装置、11・・・治療台、12,12−1,12−2・・・放射線源、13,13−1,13−2・・・放射線検出器、14・・・治療ビーム照射門、100、200、300、400、500・・・医用画像処理装置、101・・・第1画像取得部、102、402・・・第2画像取得部、103、303、403・・・特徴処理部、1031、3031・・・第1特徴抽出部、1032、3032、4032・・・第2特徴計算部、104、204、404・・・学習部、105、205、405・・・判定部、206・・・分類部、307・・・選択部、408・・・表示部、509・・・制御部

Claims (13)

  1. 複数の時刻に撮像装置によって撮像された被検体の複数の第1画像を取得する第1画像取得部と、
    前記第1画像とは異なる時刻に撮像装置によって撮像された前記被検体の第2画像を取得する第2画像取得部と、
    前記複数の第1画像それぞれに対して、解剖学的に同一部位を表す前記被検体の第1特徴位置を求め、前記第2画像から前記被検体内の前記第1特徴に対応する第2特徴の位置を求める特徴処理部と、
    前記複数の第1画像それぞれに対して求めた前記第1特徴位置を含む第1閉空間を定める算出部と、
    前記第2特徴の位置が前記第1閉空間内にあるか否かを判定した結果に基づく判定信号を出力する判定部と、
    を備える医用画像処理装置。
  2. 前記特徴処理部は、
    特徴被写体を抽出するための特徴抽出パラメータを計算し、前記特徴抽出パラメータに従って抽出した前記特徴被写体の位置を表す情報を前記第1特徴として出力する第1特徴抽出部と、
    前記特徴抽出パラメータに基づいて前記特徴被写体を抽出し、前記第1特徴に対応する前記特徴被写体の位置を表す情報を前記第2特徴として出力する第2特徴計算部と、
    を備える、
    請求項1に記載の医用画像処理装置。
  3. 前記判定部は、
    前記第1閉空間に含まれる第2閉空間内に前記第2特徴があるか否かを判定した結果に基づく前記判定信号を出力する、
    請求項2に記載の医用画像処理装置。
  4. 前記第1閉空間の範囲は、前記第2閉空間の範囲よりも広い範囲である、
    請求項3に記載の医用画像処理装置。
  5. 前記第1特徴の前記複数の位置を2以上に分類することに依り前記第1閉空間から前記第2閉空間を設定する分類部をさらに備える、
    請求項に記載の医用画像処理装置。
  6. 前記第1特徴抽出部は、
    複数の前記特徴抽出パラメータを計算し、それぞれの前記特徴抽出パラメータに対応する複数の前記第1特徴を出力し、
    複数の前記第1特徴のそれぞれが表す前記特徴被写体の位置の分布に基づいて、前記第2特徴計算部が前記特徴被写体を抽出するために用いる前記特徴抽出パラメータと、前記算出部が前記第1閉空間を定めるために用いる前記第1特徴とを選択する選択部をさらに備える、
    請求項2から請求項のいずれか1項に記載の医用画像処理装置。
  7. 前記第2画像を表示し、前記第2画像の表示上に前記第1閉空間の範囲を重畳して表示する、
    請求項に記載の医用画像処理装置。
  8. 前記判定信号は、
    治療装置を制御する制御部へ送信される、
    請求項2から請求項のいずれか1項に記載の医用画像処理装置。
  9. 前記第1特徴は、
    前記被検体内のマーカーである、
    請求項2から請求項のいずれか1項に記載の医用画像処理装置。
  10. 前記特徴抽出パラメータは、
    前記第1画像および前記第2画像に撮影された前記被検体内の前記特徴被写体を含む部分画像領域を指定するための関心領域の画像である、
    請求項に記載の医用画像処理装置。
  11. 請求項1から請求項10のいずれか1項に記載の医用画像処理装置と、
    前記被検体に治療ビームを照射する照射部と、前記第1画像および前記第2画像を撮影する前記撮像装置とを具備した治療装置と、
    前記判定信号に基づいて、前記照射部による前記治療ビームの照射を制御する制御部と、
    を備える治療システム。
  12. 前記判定部が判定した結果を表示する表示部をさらに備える、
    請求項11に記載の治療システム。
  13. コンピュータを、
    複数の時刻に撮像装置によって撮像された被検体の複数の第1画像を取得する第1画像取得部と、
    前記第1画像とは異なる時刻に撮像装置によって撮像された前記被検体の第2画像を取得する第2画像取得部と、
    前記複数の第1画像それぞれに対して、解剖学的に同一部位を表す前記被検体の第1特徴位置を求め、前記第2画像から前記被検体内の前記第1特徴に対応する第2特徴の位置を求める特徴処理部と、
    前記複数の第1画像それぞれに対して求めた前記第1特徴位置を含む第1閉空間を定める算出部と、
    前記第2特徴の位置が前記第1閉空間内にあるか否かを判定した結果に基づく判定信号を出力する判定部と、
    を備える医用画像処理装置として機能させるための医用画像処理プログラム。
JP2016165125A 2016-08-25 2016-08-25 医用画像処理装置、治療システム、および医用画像処理プログラム Active JP6746435B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016165125A JP6746435B2 (ja) 2016-08-25 2016-08-25 医用画像処理装置、治療システム、および医用画像処理プログラム
CN201780003049.4A CN107980008B (zh) 2016-08-25 2017-03-15 医学图像处理设备、治疗系统和医学图像处理程序
US15/759,319 US20180193672A1 (en) 2016-08-25 2017-03-15 Medical image processing apparatus, treatment system, and medical image processing program
PCT/JP2017/011559 WO2018037608A1 (en) 2016-08-25 2017-03-15 Medical image processing apparatus, treatment system, and medical image processing program
EP17720239.7A EP3503971B1 (en) 2016-08-25 2017-03-15 Medical image processing apparatus, treatment system, and medical image processing program
KR1020187006306A KR102080201B1 (ko) 2016-08-25 2017-03-15 의료용 영상 처리 장치, 치료 시스템, 및 의료용 영상 처리 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016165125A JP6746435B2 (ja) 2016-08-25 2016-08-25 医用画像処理装置、治療システム、および医用画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2018029852A JP2018029852A (ja) 2018-03-01
JP6746435B2 true JP6746435B2 (ja) 2020-08-26

Family

ID=58640950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016165125A Active JP6746435B2 (ja) 2016-08-25 2016-08-25 医用画像処理装置、治療システム、および医用画像処理プログラム

Country Status (6)

Country Link
US (1) US20180193672A1 (ja)
EP (1) EP3503971B1 (ja)
JP (1) JP6746435B2 (ja)
KR (1) KR102080201B1 (ja)
CN (1) CN107980008B (ja)
WO (1) WO2018037608A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210387022A1 (en) * 2010-04-16 2021-12-16 Daniel J. Raymond Proton therapy beam alignment apparatus and method of use thereof
US10708152B2 (en) * 2017-03-23 2020-07-07 Cisco Technology, Inc. Predicting application and network performance
JP7113447B2 (ja) * 2018-03-12 2022-08-05 東芝エネルギーシステムズ株式会社 医用画像処理装置、治療システム、および医用画像処理プログラム
JP6996711B2 (ja) * 2018-03-20 2022-01-17 国立研究開発法人量子科学技術研究開発機構 医用画像処理装置、治療システム、および医用画像処理プログラム
JP7093075B2 (ja) * 2018-04-09 2022-06-29 東芝エネルギーシステムズ株式会社 医用画像処理装置、医用画像処理方法、およびプログラム
JP7114348B2 (ja) * 2018-06-06 2022-08-08 キヤノンメディカルシステムズ株式会社 腫瘍位置表示装置及び放射線治療システム
JP7451293B2 (ja) * 2019-06-13 2024-03-18 キヤノンメディカルシステムズ株式会社 放射線治療システム
JP7433927B2 (ja) * 2020-01-22 2024-02-20 キヤノンメディカルシステムズ株式会社 放射線治療計画装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5925233B2 (ja) 1977-06-20 1984-06-15 松下電器産業株式会社 電子楽器の周波数制御装置
US7620444B2 (en) * 2002-10-05 2009-11-17 General Electric Company Systems and methods for improving usability of images for medical applications
EP1768747B1 (en) * 2004-06-24 2013-08-07 Calypso Medical Technologies, INC. Systems for treating a lung of a patient using guided radiation therapy or surgery
WO2006012631A2 (en) * 2004-07-23 2006-02-02 Calypso Medical Technologies, Inc. Integrated radiation therapy systems and methods for treating a target in a patient
WO2006113323A2 (en) * 2005-04-13 2006-10-26 University Of Maryland, Baltimore Techniques for compensating movement of a treatment target in a patient
JP4126318B2 (ja) * 2006-06-23 2008-07-30 三菱重工業株式会社 放射線治療装置制御装置および放射線治療装置の制御方法
US8005284B2 (en) * 2006-12-07 2011-08-23 Kabushiki Kaisha Toshiba Three dimensional image processing apparatus and x-ray diagnosis apparatus
US9427201B2 (en) * 2007-06-30 2016-08-30 Accuray Incorporated Non-invasive method for using 2D angiographic images for radiosurgical target definition
US20090202045A1 (en) * 2008-02-12 2009-08-13 Varian Medical Systems Technologies, Inc. Treatment booth for radiation therapy
WO2010055881A1 (ja) * 2008-11-12 2010-05-20 国立大学法人筑波大学 放射線治療システム
JP2010154874A (ja) * 2008-12-26 2010-07-15 Hitachi Ltd 放射線治療システム
JP5472757B2 (ja) * 2009-11-16 2014-04-16 三菱重工業株式会社 放射線治療装置制御装置、特定部位位置計測方法、および、放射線治療装置制御装置の作動方法
JP5463509B2 (ja) * 2010-02-10 2014-04-09 株式会社東芝 粒子線ビーム照射装置及びその制御方法
US8229071B2 (en) * 2010-07-12 2012-07-24 Siemens Medical Solutions Usa, Inc. Gated burst mode radiation treatment of moving targets
JP2012080904A (ja) * 2010-10-06 2012-04-26 Mitsubishi Heavy Ind Ltd 放射線治療装置制御装置および放射線治療装置制御方法
US8849633B2 (en) * 2010-10-29 2014-09-30 Accuray Incorporated Method and apparatus for selecting a tracking method to use in image guided treatment
US8824630B2 (en) * 2010-10-29 2014-09-02 Accuray Incorporated Method and apparatus for treating a target's partial motion range
US9271692B2 (en) * 2011-04-01 2016-03-01 Varian Medical Systems, Inc. System and method for triggering an imaging process based on non-periodicity in breathing
US20130237822A1 (en) * 2012-03-07 2013-09-12 Patrick Gross Combined radiotherapy ultrasound device
US9179982B2 (en) * 2012-03-20 2015-11-10 Varian Medical Systems, Inc. Method and system for automatic patient identification
WO2014048490A1 (en) * 2012-09-28 2014-04-03 Brainlab Ag Isocentric Patient Rotation for Detection of the Position of a Moving Object
US9552533B2 (en) * 2013-03-05 2017-01-24 Toshiba Medical Systems Corporation Image registration apparatus and method
US20160074674A1 (en) * 2013-04-11 2016-03-17 British Columbia Cancer Agency Branch Combined respiration and cardiac gating for radiotherapy using electrical impedance technology
US9446264B2 (en) * 2013-08-06 2016-09-20 Varian Medical Systems, Inc. System and method for patient-specific motion management
US10512507B2 (en) * 2013-08-06 2019-12-24 Koninklijke Philips N.V. Method and system for automatic estimation of utility of adaptive radiation therapy re-planning
KR101670133B1 (ko) * 2014-01-17 2016-10-27 연세대학교 산학협력단 종양 추적 방법 및 그 장치
JP6305250B2 (ja) * 2014-04-04 2018-04-04 株式会社東芝 画像処理装置、治療システム及び画像処理方法
US9974977B2 (en) * 2014-10-27 2018-05-22 Elekta, Inc. Image guidance for radiation therapy
JP6437286B2 (ja) * 2014-11-26 2018-12-12 株式会社東芝 画像処理装置、画像処理プログラム、画像処理方法及び治療システム
WO2016094284A1 (en) * 2014-12-11 2016-06-16 Elekta, Inc. Motion management in mri-guided linac
EP3034003B1 (en) * 2014-12-19 2017-11-08 Ion Beam Applications S.A. Method and imaging system for determining a reference radiograph for a later use in radiation therapy
CN104888356B (zh) * 2015-06-30 2018-03-02 瑞地玛医学科技有限公司 影像引导及呼吸运动分析系统

Also Published As

Publication number Publication date
KR102080201B1 (ko) 2020-02-24
EP3503971A1 (en) 2019-07-03
WO2018037608A1 (en) 2018-03-01
CN107980008A (zh) 2018-05-01
CN107980008B (zh) 2020-10-30
EP3503971B1 (en) 2020-05-13
US20180193672A1 (en) 2018-07-12
KR20180036776A (ko) 2018-04-09
JP2018029852A (ja) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6746435B2 (ja) 医用画像処理装置、治療システム、および医用画像処理プログラム
KR102094737B1 (ko) 의료 영상 처리 장치, 의료 영상 처리 방법, 컴퓨터 판독가능한 의료 영상 처리 프로그램, 이동 대상물 추적 장치 및 방사선 치료 시스템
TWI828701B (zh) 用於肺體積閘控x射線成像系統和方法,及非暫態電腦可讀取儲存媒介
CN111918697B (zh) 医用图像处理装置、治疗系统以及存储介质
CN108882899B (zh) 调整与模型图像相关联参数来操纵呼吸模型的方法和系统
JP7298835B2 (ja) 医用装置、医用装置の制御方法、およびプログラム
US10143431B2 (en) Medical image processing apparatus and method, and radiotherapeutic apparatus
TWI840465B (zh) 決定輻射參數的系統和方法以及其非暫態電腦可讀取儲存媒介
JP7323128B2 (ja) 医用画像処理装置、医用装置、治療システム、医用画像処理方法、およびプログラム
WO2020230642A1 (ja) 医用画像処理装置、医用画像処理プログラム、医用装置、および治療システム
KR102409284B1 (ko) 종양을 추적하기 위한 움직임 자동 평가 장치 및 이를 이용한 방사선 치료 시스템
KR100706758B1 (ko) 복부 움직임에 따른 내부 장기의 움직임 추적 장치
WO2024070093A1 (ja) 照射位置確認支援装置、照射位置確認支援方法、および照射位置確認支援プログラム
JP6799292B2 (ja) 放射線撮影装置および放射線画像検出方法
KR20230117404A (ko) 의료용 화상 처리 장치, 의료용 화상 처리 방법, 컴퓨터 판독가능한 기억 매체, 및 방사선 치료 장치
CN116920288A (zh) 用于提供、求取和应用照射规划的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200805

R151 Written notification of patent or utility model registration

Ref document number: 6746435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151