JP6984908B2 - 対象追跡装置 - Google Patents

対象追跡装置 Download PDF

Info

Publication number
JP6984908B2
JP6984908B2 JP2019503121A JP2019503121A JP6984908B2 JP 6984908 B2 JP6984908 B2 JP 6984908B2 JP 2019503121 A JP2019503121 A JP 2019503121A JP 2019503121 A JP2019503121 A JP 2019503121A JP 6984908 B2 JP6984908 B2 JP 6984908B2
Authority
JP
Japan
Prior art keywords
image
tracking
target
tracking target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019503121A
Other languages
English (en)
Other versions
JPWO2018159775A1 (ja
Inventor
利之 照沼
武二 榮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Publication of JPWO2018159775A1 publication Critical patent/JPWO2018159775A1/ja
Application granted granted Critical
Publication of JP6984908B2 publication Critical patent/JP6984908B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/105Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using a laser alignment system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1059Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using cameras imaging the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
    • A61N2005/1062Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source using virtual X-ray images, e.g. digitally reconstructed radiographs [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radiation-Therapy Devices (AREA)
  • Surgical Instruments (AREA)

Description

本発明は、対象追跡装置に関する。
放射線治療などを行う場合に、被験者(患者)の呼吸や拍動等で、治療の標的対象(腫瘍等)の位置が移動するため、放射線を標的対象以外の部位(正常部位)に照射しないようにするためには、リアルタイムでX線透視画像を撮影して標的対象を追跡してその位置を特定し、標的対象が放射線の照射位置に移動したときにだけ放射線を照射する必要がある。なお、画像を撮影して標的対象の位置を特定および追跡し放射線の照射位置を誘導する技術、いわゆる画像誘導による対象追跡技術は、X線透視画像を使用することが一般的であるが、これに限定されない。例えば、X線透視画像だけでなく、超音波画像、MRI(Magnetic Resonance Imaging:核磁気共鳴画像法)画像、CT画像(Computed Tomography)、PET(Positron Emission Tomography:陽電子放射断層撮影)画像を使用することも可能である。
標的対象の位置を特定し追跡するための技術として、以下の技術が公知である。
特許文献1(特許第5610441公報)には、X線透視によるマーカレス追跡時に想定される追跡性能の低下を、体外の情報で補完する技術が記載されている。すなわち、がん病巣など治療標的対象物を包含するテンプレート画像を基に、治療時に治療標的対象の位置を検出するための透視X線画像の各フレーム内にてパターンマッチング処理をして、治療標的の位置が照射予定位置から所定の誤差範囲内にあり、かつ、呼吸等に起因する略周期的(pseudo-periodic)な動きによる照射ズレを最小限に抑えるために、照射タイミングとして適した(体表面の動きに基づいて設定される)時間(位相)ウィンドウ内で治療用放射線の照射を行う標的追跡技術が記載されている。なお、特許文献1には、治療標的位置の決定精度を高めるために、治療標的とは異なる横隔膜や骨などの非追跡対象を参照位置の情報として、パターンマッチングを行うことも記載されている。
特許文献2(特許第3053389号公報)には、金属マーカーを患者の体内に挿入してX線透視での腫瘍近傍追跡の追跡精度を高める技術が記載されている。すなわち、治療の標的対象となる腫瘍近傍に埋め込まれた腫瘍マーカーを複数の方向からX線で透視して撮影し、予め登録された追跡対象(腫瘍)マーカーのテンプレート画像と濃淡正規化相互相関によるテンプレートマッチングを行って、腫瘍マーカーの位置を3次元で特定する技術が記載されている。
特許文献3(特許第4505639号公報)には、特許文献2と同様に濃淡正規化相互相関によるテンプレートマッチングを行って腫瘍マーカの位置を特定し、その時系列的な位置データを予め取得しておき、予め取得されたデータから、現在時刻における腫瘍マーカの位置を推定する技術が記載されている。
特許文献4(国際公開2015/125600号公報)には、連続して取得されたX線画像に対して、異なる呼吸位相に対して作成されたテンプレートマッチングを実行することにより、各呼吸位相における治療対象部位の位置を特定する技術が記載されている。特許文献4に記載の技術では、基準呼吸位相における治療対象部位の位置と、連続する複数の呼吸位相における治療対象部位を含む3次元X線画像データから、異なる呼吸位相間での治療対象部位のX線画像の変形量を算出し、各呼吸位相における治療対象部位の位置を取得してテンプレートを作成している。
特許第5610441公報(「0010」、「0013」〜「0016」、図1、図2) 特許第3053389号公報(「0035」〜「0046」、図1、図2) 特許第4505639号公報(「0024」〜「0029」) 国際公開2015/125600号公報(「0010」)
(従来技術の問題点)
特許文献1〜4に記載の技術では、基本的に、治療の標的対象である患者の腫瘍や病巣を含む部位(追跡対象部位)のテンプレート画像を事前に作成しておき、放射線を実際に照射する際に、テンプレート画像と実際の撮影画像とを比較して、追跡対象部位を特定している。
しかし、X線透視画像は体内の3次元構造を投影した画像であるために、追跡対象部位が、骨(非追跡対象、障害物)で隠れてしまう問題がある。特に、X線画像の中に骨が多く写っている場合は、追跡対象が骨で隠れやすい問題がある。また、X線画像を撮影する際に、患者が寝ているベッドの枠(カウチフレーム)や固定具といった非追跡対象物(障害物)がX線画像に写り込んでしまう場合もある。また、X線治療では透過した治療用X線をEPID(Electronic Portal Imaging Device:電子的放射線治療照合装置)により画像化する事で、治療標的対象部位を追跡し位置精度を検証する場合もある。この場合、治療標的対象部位の位置ずれが大きいと正常組織への照射を制限するコリメータに治療標的対象部位が隠れてしまう問題もある。このように、テンプレート画像を作成したり、X線透視画像を撮影する際に、障害物(骨やカウチフレームやコリメータ等)により追跡標的対象部位が見えにくい場合があり、このために従来のテンプレートマッチング法等の追跡アルゴリズムでは追跡が困難になる問題があった。また、動体追跡照射法のように、追跡を確実にするために体内に金属のマーカーを埋め込むことでテンプレートマッチングの精度を高めることも可能であるが、侵襲的な方法となり、患者に負担がかかる問題もある。
骨やカウチフレームに相当する非追跡対象物(障害物)部分を特定して、骨の情報を減算する処理(Bone Suppress法)を行うことも報告されている。しかし、この処理法では、骨に対する特定の画像処理と、骨画像情報を減算する処理があるので、処理速度が遅い問題があり、リアルタイム性が求められるX線の照射位置の追跡に難がある。また、骨等の障害物情報を減算する際に、障害物に隠れる等により障害物画像に画像情報の一部が含まれた追跡対象部位まで情報が減算されることとなり、画像上の追跡対象部位の外形が、実際の追跡対象部位の外形とずれてしまう問題もある。
また、患者の呼吸に伴って、撮影される追跡対象の形状が変化することが知られているが、従来技術では、テンプレート画像を作成する場合に、骨等の障害物で隠れた部分の形状の特定が困難であるという問題もある。
さらに、撮影されるX線の画像も、テンプレート画像の撮影時と、放射線を照射する際で、明るい部分と暗い部分との差、いわゆるコントラストが異なる場合がある。よって、テンプレート画像と、放射線照射時のX線透視画像とを対比しても、追跡対象の位置が不明瞭な場合がある。
また、患者の咳やくしゃみ等の予期せぬ動きにより、追跡対象がテンプレート画像の範囲を超えるような大きな動き(想定外の動き)をすることもあるが、特許文献3,4のような従来技術では、テンプレート画像を作成する際に、呼吸のような周期的な変化にしか対応できない問題もある。
本発明は、従来技術のテンプレートマッチングによる画像追跡法に比べて、障害物の影響を受けずに追跡対象部位を特定しやすくすることを技術的課題とする。
前記技術的課題を解決するために、請求項1に記載の発明の対象追跡装置は、
追跡対象の画像特徴を含む追跡対象部画像に、前記画像特徴を含まない複数からなる非追跡対象画像のそれぞれを重ねた複数の重畳画像を作成する重畳画像作成部と、
前記複数の重畳画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する識別器作成部と、
前記識別器と、前記追跡対象の画像特徴を含む被追跡画像とに基づいて、前記被追跡画像における前記追跡対象の画像特徴および位置情報の少なくとも一方を特定する追跡対象特定部と、
を備えたことを特徴とする。
請求項2に記載の発明は、請求項1に記載の対象追跡装置において、
前記追跡対象の画像特徴を特定する教師画像を予め入力する部と、
前記複数の重畳画像と前記教師画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する前記識別器作成部と、
を備えたことを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の対象追跡装置において、
前記追跡対象の画像特徴の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、前記非追跡対象画像の枚数を導出して、導出された枚数に応じた前記非追跡対象画像を作成する非追跡対象画像編集部、
を備えたことを特徴とする。
請求項4に記載の発明は、請求項1ないし3のいずれかに記載の対象追跡装置において、
前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離抽出する画像分離部と、
前記分離非追跡対象画像を編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と
を備えたことを特徴とする。
請求項5に記載の発明は、請求項1ないし3のいずれかに記載の対象追跡装置において、
前記追跡対象の画像特徴を含む元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離する画像分離部と、
前記元画像に含まれず且つ前記被追跡画像に含まれる障害物の画像を取得する障害物画像取得部と、
前記分離非追跡対象画像と前記障害物の画像との少なくとも1つを編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と、
を備えたことを特徴とする。
請求項6に記載の発明は、請求項4または5に記載の対象追跡装置において、
前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴の画像コントラスト情報に基づき、前記追跡対象部画像と前記分離非追跡対象画像とに分離抽出する前記画像分離部と、
を備えたことを特徴とする。
請求項7に記載の発明は、請求項1ないし6のいずれかに記載の対象追跡装置において、
追跡対象の画像特徴および位置情報の少なくとも一方が予め設定された評価用の画像と、前記識別器とに基づいて、追跡対象の追跡の精度を評価する追跡精度評価部、
を備えたことを特徴とする。
請求項8に記載の発明は、請求項7に記載の対象追跡装置において、
前記追跡精度評価部による追跡の精度が、予め設定された精度に達しない場合に、前記非追跡対象画像の枚数を増やして前記識別器を再作成する前記識別器作成部、
を備えたことを特徴とする。
請求項1に記載の発明によれば、従来技術のテンプレートマッチングによる画像追跡法に比べて、治療の追跡対象部位の領域および位置の少なくとも一方を特定しやすくすることができる。
請求項2に記載の発明によれば、教師画像を使用しない場合に比べて、処理を高速化できる。請求項2の記載によれば、教師画像がある場合には、教師画像中の追跡対象の画像特徴領域の位置と形状は、複数の重畳画像に含まれる追跡対象の画像特徴領域の位置と形状とに相関があるが、追跡対象外の障害物の画像特徴の位置と形状には相関がない。この相関の有無が、追跡に必要な情報か否かを区別して学習する効果を生じさせる。
請求項3に記載の発明によれば、画像の大きさや分解能、追跡制度に応じて、必要十分な枚数の非追跡対象画像を作成することができる。
請求項4に記載の発明によれば、骨などの追跡の障害となる背景物・障害物を含む分離された非追跡対象画像を使用しない場合に比べて、患者などの被検体ごとに異なる背景や障害物の差異に応じた学習ができる。すなわち、従来技術では、多くの被検体に基づいて作成された識別器のみ実現可能であったが、それら従来技術に比して個々の被検体に適した追跡を行うことができる。
請求項5に記載の発明によれば、元画像に含まれない障害物の画像を追加することで、元画像に含まれていない障害物が、対象追跡中の被追跡画像に混入した時にでも、対象追跡の精度も向上させることができる。すなわち、従来は、このような学習の元画像に入っていない障害物が対象追跡中の被追跡画像に混入した時には著しく対象追跡の精度が低下したが、それら従来技術に比して、個別の被追跡画像に適した追跡を行う事ができる。
請求項6に記載の発明によれば、コントラスト情報に基づいて、追跡対象と非追跡対象とを分離することを自動的に行うことができ、手動で追跡対象を指定する場合に比べて、分離の処理を容易にできる。
請求項7に記載の発明によれば、実際の治療の前に識別器の評価をすることができる。
請求項8に記載の発明によれば、識別器の精度が不十分な場合は、枚数の増えた重畳画像を利用して識別器を再作成することができ、識別器の精度を向上させることができる。
図1は本発明の実施例1の対象追跡装置が適用された放射線治療機の説明図である。 図2は実施例1の放射線治療機の制御部が備えている各機能をブロック図で示した図である。 図3は実施例1の制御部における処理の一例の説明図である。 図4は追跡対象の位置の学習の一例の説明図であり、図4Aは複数の重畳画像の一例の説明図、図4Bは重畳画像が重ねられた場合の説明図である。 図5は実施例1の学習処理のフローチャートの説明図である。 図6は実施例1の追跡処理のフローチャートの説明図である。 図7は実施例1の放射線治療機における腫瘍の追跡結果の説明図である。 図8は実施例1の実験結果の説明図である。 図9は時間経過に対して追跡対象が移動する範囲の説明図であり、図9Aは従来のテンプレート法の説明図、図9Bは実施例1の学習方法の説明図である。 図10はEPIDにより撮像した画像を用いて治療の標的対象である腫瘍の追跡を行った場合の説明図であり、図10Aはコリメータに追跡対象が隠れていない状態の説明図、図10Bはコリメータに追跡対象が一部隠れた状態の説明図である。
次に図面を参照しながら、本発明の実施の形態の具体例である実施例を説明するが、本発明は以下の実施例に限定されるものではない。
なお、以下の図面を使用した説明において、理解の容易のために説明に必要な部材以外の図示は適宜省略されている。
図1は本発明の実施例1の対象追跡装置が適用された放射線治療機の説明図である。
図1において、本発明の実施例1の対象追跡装置が適用された放射線治療機1は、治療の被検体である患者2が寝るベッド3を有する。ベッド3の上方には、透視撮影用X線照射装置4が配置されている。透視撮影用X線照射装置4は、X線透視画像(CT画像)を撮影するためのX線を患者に向けて照射可能に構成されている。患者2を挟んで透視撮影用X線照射装置4の反対側には、撮像装置6が配置されている。撮像装置6は、患者を透過したX線を受けてX線透視画像を撮像する。撮像装置6で撮影した画像は画像生成器7で電気信号に変換され、コントロールシステム8に入力される。なお、透視撮影用X線照射装置4や撮像装置6、画像生成器7は、従来公知の任意の構成を採用可能であり、例えば、特許文献2〜4等に記載のような3次元のCT画像を作成可能な構成を採用することが望ましい。
また、ベッド3の側方には、治療用放射線照射器(治療装置)11が配置されている。治療用放射線照射器11は、コントロールシステム8から制御信号が入力可能に構成されている。治療用放射線照射器11は、制御信号の入力に応じて、予め設定された位置(患者2の患部)に向けて治療用の放射線を照射可能に構成されている。
(実施例1のコントロールシステム(制御部)の説明)
図2は実施例1の放射線治療機の制御部が備えている各機能をブロック図で示した図である。
図2において、コントロールシステム8の制御部Cは、外部との信号の入出力等を行う入出力インターフェースI/Oを有する。また、制御部Cは、必要な処理を行うためのプログラムおよび情報等が記憶されたROM:リードオンリーメモリを有する。また、制御部Cは、必要なデータを一時的に記憶するためのRAM:ランダムアクセスメモリを有する。また、制御部Cは、ROM等に記憶されたプログラムに応じた処理を行うCPU:中央演算処理装置を有する。したがって、実施例1の制御部Cは、小型の情報処理装置、いわゆるマイクロコンピュータにより構成されている。よって、制御部Cは、ROM等に記憶されたプログラムを実行することにより種々の機能を実現することができる。
(制御部Cに接続された信号出力要素)
制御部Cは、操作部UIや、画像生成器7、図示しないセンサ等の信号出力要素からの出力信号が入力されている。
操作部(ユーザインタフェース)UIは、表示部の一例であって入力部の一例としてのタッチパネルUI0を有する。また、操作部UIは、学習処理開始用のボタンUI1や、教師データ入力用のボタンUI2、治療開始用のボタンUI3等の各種入力部材を有する。
画像生成器7は、撮像装置6で撮影されたCT画像を制御部Cに入力する。なお、画像生成器7は、一例として、1秒間に15枚の画像(15フレーム:66[ms/f])を入力する。
(制御部Cに接続された被制御要素)
制御部Cは、透視撮影用X線照射装置4や治療用放射線照射器11、その他の図示しない制御要素に接続されている。制御部Cは、透視撮影用X線照射装置4や治療用放射線照射器11等へ、それらの制御信号を出力している。
透視撮影用X線照射装置4は、学習時や治療時にX線透視画像を撮影するためのX線を患者2に向けて照射する。
治療用放射線照射器11は、治療時に治療用の放射線(X線)を患者2に向けて照射する。
(制御部Cの機能)
制御部Cは、前記信号出力要素からの入力信号に応じた処理を実行して、前記各制御要素に制御信号を出力する機能を有している。すなわち、制御部Cは次の機能を有している。
図3は実施例1の制御部における処理の一例の説明図である。
C1:学習画像読み取り部
学習画像読み取り部C1は、画像生成器7から入力されたCT画像を読み取る(読み込む)。実施例1の学習画像読み取り部C1は、学習処理開始用のボタンUI1が入力された場合に、画像生成器7から入力された画像を読み取る。なお、実施例1では、学習処理開始用のボタンUI1の入力が開始されてから、予め設定された学習期間の間、CT画像の読み取りが行われる。なお、実施例1の学習画像読み取り部C1は、図3に示す追跡対象画像特徴21(追跡対象である腫瘍の特徴を示す画素値の配置パターン及び画像領域)を含む学習用の元画像(複数の横断面画像)22から、縦断面画像(図示せず)を構成して、以下の作業を行う。よって、実施例1では、学習に関連する各部C2〜C10は、学習画像読み取り部C1が読み取り、記憶した時系列に沿った各画像それぞれに基づいて、画像分離や編集、重畳等を実行する。すなわち、実施例1では、CT画像の撮影に対して、リアルタイムでの学習処理は行わないが、CPUの高速化等で処理速度が向上し、リアルタイムでも処理が可能になれば、リアルタイムで行うことも可能である。
C2:画像分離部
画像分離部C2は、追跡対象画像特徴21を含む学習用の元画像22に基づいて、追跡対象画像特徴21を含む追跡対象部画像23の一例としての軟部組織DRR(Digitally Reconstructed Radiography)画像と、追跡対象画像特徴21という追跡対象の特徴を示す領域を含まない分離背景画像(非追跡対象画像、分離非追跡対象画像)24の一例としての骨構造の画像特徴を含む骨構造DRR画像(骨画像)とに分離抽出する。実施例1の画像分離部C2は、CT画像のコントラスト情報であるCT値に基づいて、追跡対象部画像23(第1の画像、軟部組織DRR画像)と分離背景画像24(骨構造DRR画像)とに分離する。実施例1では、一例として、CT値が200以上の領域を骨構造DRR画像として分離背景画像24を構成し、CT値が200未満の領域を軟部組織DRR画像として追跡対象部画像23を構成する。
なお、実施例1では、一例として、肺に発生した腫瘍(追跡対象)すなわち治療の標的対象が軟部組織DRR画像として追跡対象部画像23に写る場合の実施例であるが、例えば、追跡対象が骨の異常部分等である場合は、追跡対象部画像23として骨構造DRR画像を選択し、分離背景画像24として軟部組織DRR画像を選択する。このように、追跡対象部画像と背景画像(非追跡対象画像)の選択は、追跡対象および障害物を含む背景画像に応じて、適切に選択される。
腫瘍(追跡対象)の指定は、画面上で手動で腫瘍の領域を指定したりするような手動での指定とすることも可能である。また、複数の元画像22に共通で写り込んでいるものを自動的に抽出するような腫瘍の自動判別を行う構成とすることも可能である。
C3:障害物画像取得部
障害物画像取得部C3は、治療用放射線照射器11において被追跡画像28を取得する場合に含まれ、且つ、分離背景画像24とは異なる障害物の画像25を取得する。実施例1では、障害物画像25として、ベッド3のフレーム(カウチフレーム)や患者をベッド3に固定する固定具のX線画像が予め記憶媒体に記憶されており、障害物画像取得部C3は、記憶媒体に記憶されたカウチフレームや固定具の画像(障害物画像25)を読み取って取得する。
C4:乱数発生部
乱数発生部C4は乱数を発生させる。
C5:背景画像編集部(非追跡対象画像編集部、非追跡対象画像作成部)
背景画像編集部C5は、分離背景画像24や障害物画像25の追跡対象部画像23に対する位置、拡縮、回転および明暗の少なくとも一つを編集して、背景画像(非追跡対象画像)29を作成する一例である。実施例1の背景画像編集部C5は乱数に基づいて、位置、拡縮、回転および明暗の少なくとも一つを編集する。実施例1では、具体的には、アフィン変換を行って分離背景画像24や障害物画像25を平行移動させたり、線形変換(回転、せん断、拡大、縮小)させており、乱数に基づいてアフィン変換の行列の各値を変化させることで、分離背景画像24等を編集し背景画像29を作成する。なお、明暗(コントラスト)についても、分離背景画像24等の明暗を、明または暗の方向に、乱数に応じた量変化させる。実施例1では、背景画像編集部C5は、1つの分離背景画像24等に対して、予め設定された数の一例としての100枚の編集された背景画像を作成する。すなわち、分離背景画像24等の位置等が乱数によりランダムに編集された100枚の背景画像29が作成される。
なお、作成される背景画像29の枚数Nは、追跡対象部画像23の画像の領域の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、設定することが望ましい。一例として、追跡対象部画像23の画像が10cm×10cmで、分解能が1mm、要求される追跡精度が分解能の10倍の場合には、{10(cm)/1(mm)}×10(倍)=1000(枚)として、1000枚の背景画像29を作成するようにすることも可能である。
C6:重畳画像作成部
重畳画像作成部C6は、追跡対象部画像23に、背景画像29(分離背景画像24や障害物画像25に回転等の編集がされた画像)をそれぞれ重畳した重畳画像26を作成する。
C7:教師画像の入力受付部
教師画像の入力受付部C7は、タッチパネルUI0への入力や教師データ入力用のボタンUI2への入力に応じて、追跡すべき対象を教師する画像の一例としての教師画像特徴27を含む教師画像30の入力を受け付ける。なお、実施例1では、タッチパネルUI0に学習用の元画像(CT画像)22を表示し、医師が治療の標的対象である追跡対象の画像特徴を囲むように画面上にて入力して、教師画像特徴27を決定することが可能なように構成されている。
C8:教師画像付加部
教師画像付加部C8は、入力された教師画像特徴27を含む教師画像30を重畳画像26に付加する(さらに重畳する)。
図4は追跡対象の位置の学習の一例の説明図であり、図4Aは複数の重畳画像の一例の説明図、図4Bは重畳画像が重ねられた場合の説明図である。
C9:学習部(識別器作成部)
学習部C9は、複数の重畳画像26に教師画像30が付加された複数の学習画像51に基づいて、画像における追跡対象画像特徴21の領域情報および位置情報の少なくとも一方を学習して、識別器を作成する。なお、実施例1では、追跡対象画像特徴21の領域と位置の両方を学習する。また、実施例1では、追跡対象画像特徴21の領域の重心の位置を追跡対象画像特徴21の位置としているが、領域の上端、下端、右端、左端等、設計や仕様等に応じて任意の位置に変更可能である。
図4において、実施例1の学習部C9では、ランダムに位置等が編集された障害物画像特徴31の画像が追跡対象画像特徴32に重畳された複数の重畳画像(図4A参照)において、各画像を更に重畳すると、図4Bに示すように、位置が編集されていない追跡対象画像特徴32が相対的に強調(増幅)され、且つ、位置等がランダムな障害物画像特徴31が相対的に抑制(減衰)されることとなる。したがって、CT画像における追跡対象画像特徴32の位置や外形を学習することが可能である。なお、学習部C9としては、従来公知の任意の構成を採用可能であるが、いわゆるディープラーニング(多層構造のニューラルネットワーク)を使用することが好ましく、特に、CNN(Convolutional Neural Network:畳込みニューラルネットワーク)を使用することが好ましい。実施例1では、ディープラーニングの一例としてのCaffeを使用したが、これに限定されず、任意の学習部(フレームワーク、アルゴリズム、ソフトウェア)を採用可能である。
C10:学習結果記憶部
学習結果記憶部C10は、学習部C9の学習結果を記憶する。すなわち、学習で最適化されたCNNを識別器として記憶する。
C11:X線透視画像読み取り部
X線透視画像読み取り部C11は、画像生成器7から入力されたCT画像(第3の画像)を読み取る。実施例1のX線透視画像読み取り部C11は、治療開始用のボタンUI3が入力された場合に、画像生成器7から入力された被追跡画像28を読み取る。
C12:対象特定部
対象特定部C12は、学習部C9の学習結果と、追跡対象である標的対象を含む被追跡画像28とに基づいて、被追跡画像28における追跡対象の位置を特定する。実施例1の対象特定部C12は、学習で最適化された識別器(CNN)を使用して、被追跡画像28(この場合はX線透視画像)における追跡対象画像特徴21の領域情報および位置情報を特定し、その領域情報および位置情報を出力する。
C13:放射線照射部
放射線照射部C13は、治療用放射線照射器11を制御して、対象特定部C12で特定された追跡対象画像特徴21の領域および位置が、治療用X線の照射範囲に含まれる場合に、治療用X線を照射させる。
C14:追跡精度評価部
追跡精度評価部C14は、追跡対象の領域および位置の少なくとも一方が予め設定された評価用の画像(テスト画像)と、識別器とに基づいて、追跡対象の追跡の精度を評価する。実施例1では、テスト画像として、追跡対象の領域および位置が既知の画像を使用して、識別器で追跡対象の追跡を行い、識別器で特定した追跡対象の領域および位置と、既知の領域および位置とのズレを評価する。評価は、領域については、例えば、識別器で特定した領域の外縁の各画素(ピクセル)と、テスト画像における追跡対象の外縁の画素で、(位置が一致するピクセル数)/(外縁の総ピクセル数)を演算し、それが、閾値(例えば90%)を超えていれば、識別器の精度が領域の特定については十分と評価することが可能である。同様に、位置についても、識別器で特定した追跡対象の位置(重心位置)が、テスト画像における追跡対象の位置に対して、ズレが、閾値(例えば、5ピクセル)以内であれば、識別器の精度が位置の特定については十分と評価することが可能である。なお、評価方法は、上記に限定されず、例えば、領域は外形の形状同士の相関係数を導出して評価をする等、任意の評価方法を採用可能である。
なお、実施例1では、追跡精度評価部C14で精度が不十分と評価された場合には、背景画像編集部C5でそれまでの枚数Nの2倍の枚数(2N)の編集画像を作成して、追加された編集画像を使用して重畳画像を追加で作成し、増えた重畳画像を使用して学習部C9で識別器を再作成する。したがって、再作成された識別器の精度は向上される。なお、識別器の精度が、予め設定された閾値に達するまで、自動的に編集画像を増やして、識別器を再作成し続けるように構成することも可能であるし、手動で編集画像の増加や識別器の再作成を行うようにすることも可能である。
なお、透視撮影用X線照射装置4や撮像装置6、画像生成器7、コントロールシステム8、前記各部C1〜C14により実施例1の対象追跡装置が構成されている。
(実施例1の流れ図の説明)
次に、実施例1の放射線治療機1における制御の流れを流れ図、いわゆるフローチャートを使用して説明する。
(学習処理のフローチャートの説明)
図5は実施例1の学習処理のフローチャートの説明図である。
図5のフローチャートの各ステップSTの処理は、放射線治療機1の制御部Cに記憶されたプログラムに従って行われる。また、この処理は放射線治療機1の他の各種処理と並行して実行される。なお、ユーザの入力に応じて、作成された識別器の追跡精度を評価する処理については、フローチャートが簡単なため、図示および詳細な説明は省略する。
図5に示すフローチャートは学習処理開始用のボタンUI1の入力により開始される。
図5のST1において、CT画像(元画像22)の読み取りを実行する。そして、ST2に進む。
ST2において、元画像22からCT値200未満の追跡対象部画像23と、CT値200以上の分離背景画像24とを作成する。そして、ST3に進む。
ST3において、乱数と分離背景画像24から平行移動等を編集した編集画像を所定数N作成する。そして、ST4に進む。
ST4において、追跡対象部画像23と、各編集画像を重畳した重畳画像26を作成する。そして、ST5に進む。
ST5において、タッチパネルUI0に教師データ(教師画像特徴27)を入力するための画像を表示する。そして、ST6に進む。
ST6において、教師データ(教師画像特徴27)の入力がされたか否かを判別する。イエス(Y)の場合はST7に進み、ノー(N)の場合はST6を繰り返す。
ST7において、各重畳画像26に教師データ(教師画像特徴27)を付加する。そして、ST8に進む。
ST8において、学習期間が終了したか否かを判別する。ノー(N)の場合はST9に進み、イエス(Y)の場合はST10に進む。
ST9において、次のCT画像(元画像22)を読み取る。そして、ST2に戻る。
ST10において、CNNで学習を実行して、識別器(最適化されたCNN)を出力し、記憶する。そして、学習処理を終了する。
(追跡処理のフローチャートの説明)
図6は実施例1の追跡処理のフローチャートの説明図である。
図6のフローチャートの各ステップSTの処理は、放射線治療機1の制御部Cに記憶されたプログラムに従って行われる。また、この処理は放射線治療機1の他の各種処理と並行して実行される。なお、X線の照射処理については、追跡対象の位置が予め設定された照射位置に到達している場合にX線を照射し、それ以外の場合は照射しないという処理であるため、図示および詳細な説明は省略する。なお、X線の照射処理については、特許文献1〜4に記載の従来公知の技術を採用することも可能である。
図6に示すフローチャートは治療開始用のボタンUI3の入力により開始される。
図6のST21において、識別器(最適化されたCNN)を読み込む。そして、ST22に進む。
ST22において、X線透視画像の入力がされたか否かを判別する。イエス(Y)の場合はST23に進み、ノー(N)の場合はST22を繰り返す。
ST23において、入力画像(X線透視画像)と識別器から追跡対象(治療の標的対象)の位置を特定し、出力する。そして、ST24に進む。
ST24において、追跡処理、すなわち、治療用X線の照射処理が終了したか否かを判別する。ノー(N)の場合はST22に戻り、イエス(Y)の場合は追跡処理を終了する。
(実施例1の作用)
図7は実施例1の放射線治療機における腫瘍の追跡結果の説明図である。
前記構成を備えた実施例1の放射線治療機1では、元画像22から、追跡対象画像特徴21を含む追跡対象部画像23として軟部組織DRR画像、追跡対象を含まない分離背景画像24として骨構造DRR画像を分離し、分離背景画像24(骨構造DRR画像)をランダムに編集(加工)して、追跡対象部画像23(軟部組織DRR画像)と重ねている。したがって、学習時に、追跡対象画像特徴21の位置と形状を明確に認識しやすい。元画像22にカウチフレーム等の障害物が写り込んでいる場合には、その画像特徴は、元画像22から分離されて分離背景画像(骨構造DRR画像)24に含まれた状態で学習されるため、学習時にカウチフレーム等の障害物の影響も抑制される。また、学習される障害物が、カテーテル等の体内に入る手術器具等であっても、体内に入って写り込んだカテーテル等を障害物と判断し、追跡対象から分離しやすくなる。よって、カテーテル等の障害物が体内に入った状況で対象を追跡する際の、体内障害物の影響も抑制可能である。
したがって、実施例1の放射線治療機1では、骨等の影響で外形が不明確になる恐れのある従来技術のテンプレート画像の作成方法に比べて、追跡対象(治療の標的対象)の位置や外形(領域)を特定しやすくすることができる。したがって、図7に示すように、透視画像に骨(非追跡対象、障害物)が映り込んでいたり、呼吸に伴って呼気位相、中間位相、吸気位相で腫瘍の位置や外形が変化しても、精度良く追跡することが可能である。すなわち、腫瘍の位置の追跡だけでなく、腫瘍の形状もリアルタイムで追跡可能である。
また、元画像22、すなわち、特定の患者の画像に基づいて、その患者に応じた識別器が作成されているので、多くの患者のデータに基づいて作成された汎用的な技術(テンプレート画像)を使用する場合に比べて、その患者に応じた精度の高い識別器を作成できる。骨の形状は個人差が少ないが、軟部組織(血管の走行や腫瘍の形状など)は個人差があるために、他人の画像を使用しても学習が効果的ではない場合がある。すなわち、多くの患者の画像を無作為に使用して学習した場合は、各患者の特徴は無視されるように学習が進むため、精度が低下する可能性が高い。これに対して、実施例1では、特定の患者に対して識別機が作成されており、精度が向上する。
図8は実施例1の実験結果の説明図である。
図8において、テストデータを使用して追跡対象の追跡について実験を行った。実験例1は、実施例1の構成を採用した。比較例1は、軟部組織DRR画像のみを使用し、従来のテンプレート法で実験を行った。比較例2は、一般的なDRR画像(軟部組織DRR画像+骨構造DRR画像)を使用して従来のテンプレート法で実験を行った。実験結果を図8に示す。
図8において、実験例1では、追跡対象の追跡においてエラーとなった画素の平均が0.22[ピクセル]で、標準偏差が1.7、相関係数が0.997、ジャッカード係数が平均0.918(最大0.995、最小0.764)となり、追跡対象の追跡精度が高く、良好な結果が得られた。これに対して、比較例1では、エラーとなった画素の平均が4.4[ピクセル]で、標準偏差が10、相関係数が0.113となった。比較例2では、エラーとなった画素の平均が3.9[ピクセル]で、標準偏差が9.1、相関係数が0.256となった。したがって、実施例1の構成(実験例1)で、従来(比較例1,2)に比べて、追跡の精度が向上していることが確認された。仮に、1ピクセルが1mmであれば、従来技術では平均誤差が4ピクセル程度であるため平均追跡誤差が4mm以上であったが、実施例1では平均誤差が0.22ピクセルであるため平均追跡誤差が0.22mm以下に改善する。
また、実施例1では、教師データ(教師画像特徴27)を使用しているため、学習に必要な重畳画像26のデータが2000枚程度で十分な精度で学習が可能である。なお、教師データ無しでも学習(ディープラーニング)が可能であるが、学習に必要な重畳画像26の枚数が多く必要になる。よって、教師データなしの場合は、教師データありの場合よりも重畳画像26を作成する時間や学習にかかる時間が長くなるが、実施例1では教師データ(教師画像特徴27)を使用しているため、処理を短時間で行うことが可能である。なお、実施例1では、画像の分離、乱数に基づいて編集、2000枚の重畳画像の作成は、1分程度で処理が可能であった。また、ディープラーニングは90分程度で処理が可能であった。また、X線治療時に標的対象の位置を特定(追跡)する処理も、実施例1では、1画像につき25msで可能であった。なお、従来技術で前述したBone Suppress法を追跡処理で行ったところ、1画像につき15秒かかった。したがって、従来技術に比べて、追跡時の処理速度が600倍高速化された。
さらに、実施例1では、追跡対象部画像23(軟部組織DRR画像)と分離背景画像24(骨構造DRR画像)をCT値に基づいて元画像22から分離して、編集、加工しているので、患者に応じた学習が可能である。
また、実施例1では、分離背景画像24を編集する際に明暗(コントラスト)も編集している。したがって、学習用の元画像22の撮影時と治療用のX線透視画像を撮影する時でコントラストが異なっても、コントラストが異なる状況についても学習済みであり、追跡し易い。なお、分離背景画像24のコントラストだけでなく元画像22の全体のコントラストを変えたものを使用して学習すれば、追跡の精度がさらに向上させることが可能である。
さらに、実施例1では、分離背景画像24や障害物画像25をランダムに編集している。精度の高い学習には、均一に分散された十分なデータがあればよいが、ランダムに編集せずに予め準備しておく場合は面倒で手間がかかる。これに対して、実施例1では、元画像22から分離した分離背景画像24や、治療用放射線照射器11に応じて追加された障害物画像25を乱数でランダムに編集しており、均一に分散された十分な数のデータを容易に揃えることが可能である。
一般的に、元画像の輝度変換、幾何学変換などによって学習画像数を増加させることは「データ拡張」と呼ばれる。データ拡張は、過学習(オーバーフィッティング)を防ぐために用いられる。これは、過学習により細かな特徴を学習しすぎてしまい汎化性能が落ちることを防ぐ目的である。しかし、これら線形変換は単純な変換によって元の画像に復元可能なため、せいぜい、数十倍程度までの画像増加が限界である。つまり、数百倍以上のデータ拡張には非線形変換の効果が必須になる。実施例1では、重畳画像26は、全体として非線形変換となっている。したがって、数百倍以上のデータ拡張でも汎化性能の低下はないと考えられる。
また、実施例1では、学習を行う際に、所定の学習期間のCT画像に対して学習を行う。すなわち、空間(3次元)の要素に加えて、時間(4次元目)の要素も加わったCT画像、いわゆる4DCTに対して学習が行われる。したがって、呼吸により時間的に変動する追跡対象の位置や外形に対しても精度良く追跡可能である。
図9は時間経過に対して追跡対象が移動する範囲の説明図であり、図9Aは従来のテンプレート法の説明図、図9Bは実施例1の学習方法の説明図である。
従来のテンプレート法では、図9Aに示すように、各時刻におけるCT画像における障害物(骨)と追跡対象の位置について学習するので、全体として追跡対象が移動する範囲は、CT画像で写った範囲、すなわち、呼吸で変動する範囲でしか学習が行われない。これに対して、実施例1では、各時刻におけるCT画像において、分離背景画像24等がランダムに編集され、骨やカウチフレーム等の非追跡対象、障害物に対する追跡対象の相対位置が様々異なる状況について学習される。すなわち、骨等を基準に見ると、追跡対象が色々な位置にある状況(位置的に幅を持った状況)について学習が行われ、この学習が、各時刻に対して行われる。したがって、図9Bに示すように、全体として追跡対象が移動する範囲は、CT画像に写った範囲を超えた範囲、すなわち、呼吸で移動する範囲を超えた範囲についても学習が行われることとなる。よって、実施例1では、学習を行う際に、相対的に骨等に対して追跡対象がずれている状況を学習するので、4DCTで取得した呼吸移動の範囲を超えた予想外の動きの状況(咳やくしゃみ)に対応することもできる。
さらに、実施例1では、追跡精度評価部C14によって、作成された識別器の評価が行われる。したがって、実際に放射線を照射する治療を行う前に、作成された識別器の精度の評価を行うことができ、識別器の精度が十分かどうかを治療前に事前に確認することができる。そして、精度が不十分な場合には、識別器の再作成を実行することが可能である。したがって、十分な精度を有する識別器を使用して治療を行うことができ、治療の精度が向上し、不十分な識別器を使用する場合に比べて、患者が余計な放射線被曝をすることも低減できる。
図10はEPIDにより撮像した画像を用いて治療の標的対象である腫瘍の追跡を行った場合の説明図であり、図10Aはコリメータに追跡対象が隠れていない状態の説明図、図10Bはコリメータに追跡対象が一部隠れた状態の説明図である。
図10において、EPIDに適用した場合、追跡対象画像特徴41に対して、コリメータ42が障害物として写り込むことがある。そして、患者の呼吸等の体動に応じて、追跡対象画像特徴41がコリメータ42に隠れていない状態(図10A)と、一部隠れた状態(図10B)との間で変化する場合がある。このような場合、従来のテンプレートを使用して追跡を行うと、隠れた状態で追跡対象画像特徴41の外形を推定する精度が低下する。これに対して、実施例1では、コリメータ等の障害物画像25を追加して学習しており、コリメータ42のような障害物があっても、追跡対象画像特徴41の外形を精度良く追跡することが可能であった。
以上、本発明の実施例を詳述したが、本発明は、前記実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内で、種々の変更を行うことが可能である。本発明の変更例(H01)〜(H012)を下記に例示する。
(H01)前記実施例において、元画像や軟部組織DRR画像、骨構造DRR画像としてCT画像を使用する構成を例示したがこれに限定されない。例えば、超音波画像、MRI画像、PET画像等を使用することも可能である。すなわち、X線で撮影した画像に限定されず、MRI(Magnetic Resonance Imaging)装置や超音波検査(エコー)で撮影した画像を使用することも可能である。
また、軟部組織DRR画像と骨構造DRR画像との分離は、CT値に応じて分離する構成を例示したが、CT画像を使用しない場合は、各画像において追跡対象が写る画像と、追跡対象が写らない画像とを分離できるパラメータに対して適切な閾値を設定可能である。
(H02)前記実施例において、画像を使用して、追跡対象(重要とする部位)として腫瘍を例示し、重要でない部位として骨やカウチフレーム等を例示したが、これに限定されない。例えば、過去の監視カメラの複数の撮影画像において、人物(重要、追跡対象)を背景(非重要、非追跡対象)に対して学習させることで、人物の追跡を行う構成とすることも可能である。
(H03)前記実施例において、教師データ(教師画像特徴27)を使用することが好ましいが、使用しない構成とすることも可能である。この場合は、重畳画像の数を増やすことで、重畳画像でほとんど同じ位置に登場するものを腫瘍(重要なもの)として、識別器を作成することが可能である。
(H04)前記実施例において、平行移動や拡大縮小、回転、せん断、明暗の編集を行う構成を例示したがこれに限定されない。編集を行う内容(平行移動、拡縮等)を減らしたり、増やしたりすることも可能である。
(H05)前記実施例において、乱数に基づいて編集を行う構成を採用することが望ましいが、予め重畳させる画像(骨構造DRR画像相当)を準備しておく構成とすることも可能である。
(H06)前記実施例において、追跡対象(腫瘍)の領域および位置の両方を追跡する構成を例示したが、これに限定されない。例えば、領域のみまたは位置のみを追跡する構成とすることも可能である。また、領域と位置以外の要素、例えば、明るさや色等を追跡するように学習等をすることも可能である。
(H07)前記実施例において、追跡精度を評価する機能を備えることが望ましいが、備えない構成とすることも可能である。
(H08)前記実施例において、追跡対象としての腫瘍と、障害物として骨を例示したが、これに限定されない。例えば、治療時の患者の姿勢を確認する場合には、逆に、骨を追跡対象とし、軟部組織を障害物とすることも可能である。
(H09)前記実施例において、DRR画像は、実施例に例示した投影角度に限定されず、任意の角度方向の投影を選択することが可能である。
(H010)前記実施例において、マーカを使用せずに追跡を行う構成を例示したが、これに限定されない。マーカを埋め込んだX線画像等を使用してマーカの位置を学習して、障害物に隠れた場合でも、位置や外形を精度良く判別、追跡する構成とすることも可能である。
(H011)前記実施例において、追跡対象である腫瘍等が1つの場合について説明を行ったが、追跡対象が複数の場合にも適用可能である。例えば、教師画像として階調が2bit(22=4階調)以上のものを使用すれば、第1の追跡対象と第2の追跡対象で階調を変えて区別した1つの教師画像を使用して学習することで、追跡対象が複数の場合に対応可能である。すなわち、通常、教師画像とは領域分割を示すラベリングされた画像であり、画素値(階調)をラベル値としている。単なる2値化画像の場合は1ビット(0,1)で表現可能だが、複数領域をラベリングして区別するためには2ビット以上の階調が必要となる。また、例えば、2つの追跡対象のうち一方をマーカが無い追跡対象画像特徴とし、他方をマーカが埋め込まれた追跡対象画像特徴として、個別に追跡させることも可能である。
(H012)前記実施例において、本発明の追跡対象装置を放射線治療機1に適用する構成を例示したがこれに限定されない。例えば、胆石を超音波で破砕する治療装置において、胆石の位置を追跡するために使用したり、光線力学療法(PDT : Photodynamic Therapy)で光感受性物質の追跡に使用する等、精度が必要な追跡が必要な任意の装置に適用可能である。
21…追跡対象画像特徴、
22…元画像、
23…追跡対象部画像、
24…分離非追跡対象画像、
25…障害物画像、
26…重畳画像、
27…教師画像特徴、
28…被追跡画像、
29…非追跡対象画像、
30…教師画像、
31…障害物画像特徴、
32…追跡対象画像特徴(教師画像内)、
41…追跡対象画像特徴(EPID画像内)、
42…コリメータ、
51…学習画像、
C1…学習画像読み取り部、
C2…画像分離部、
C3…障害物画像取得部、
C5…非追跡対象画像編集部、
C6…重畳画像作成部、
C7…教師画像の入力受付部、
C8…教師画像付加部、
C9…識別器作成部、
C12…対象特定部、
C14…追跡精度評価部。

Claims (8)

  1. 追跡対象の画像特徴を含む追跡対象部画像に、前記画像特徴を含まない複数からなる非追跡対象画像のそれぞれを重ねた複数の重畳画像を作成する重畳画像作成部と、
    前記複数の重畳画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する識別器作成部と、
    前記識別器と、前記追跡対象の画像特徴を含む被追跡画像とに基づいて、前記被追跡画像における前記追跡対象の画像特徴および位置情報の少なくとも一方を特定する追跡対象特定部と、
    を備えたことを特徴とする対象追跡装置。
  2. 前記追跡対象の画像特徴を特定する教師画像を予め入力する入力部と、
    前記複数の重畳画像と前記教師画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する前記識別器作成部と、
    を備えたことを特徴とする請求項1に記載の対象追跡装置。
  3. 前記追跡対象の画像特徴の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、前記非追跡対象画像の枚数を導出して、導出された枚数に応じた前記非追跡対象画像を作成する非追跡対象画像編集部、
    を備えたことを特徴とする請求項1または2に記載の対象追跡装置。
  4. 前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離抽出する画像分離部と、
    前記分離非追跡対象画像を編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
    前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と
    を備えたことを特徴とする請求項1ないし3のいずれかに記載の対象追跡装置。
  5. 前記追跡対象の画像特徴を含む元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離する画像分離部と、
    前記元画像に含まれず且つ前記被追跡画像に含まれる障害物の画像を取得する障害物画像取得部と、
    前記分離非追跡対象画像と前記障害物の画像との少なくとも1つを編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
    前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と、
    を備えたことを特徴とする請求項1ないし3のいずれかに記載の対象追跡装置。
  6. 前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴の画像コントラスト情報に基づき、前記追跡対象部画像と前記分離非追跡対象画像とに分離抽出する前記画像分離部と、
    を備えたことを特徴とする請求項4または5に記載の対象追跡装置。
  7. 追跡対象の画像特徴および位置情報の少なくとも一方が予め設定された評価用の画像と、前記識別器とに基づいて、追跡対象の追跡の精度を評価する追跡精度評価部、
    を備えたことを特徴とする請求項1ないし6のいずれかに記載の対象追跡装置。
  8. 前記追跡精度評価部による追跡の精度が、予め設定された精度に達しない場合に、前記非追跡対象画像の枚数を増やして前記識別器を再作成する前記識別器作成部、
    を備えたことを特徴とする請求項7に記載の対象追跡装置。
JP2019503121A 2017-03-03 2018-03-01 対象追跡装置 Active JP6984908B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017041111 2017-03-03
JP2017041111 2017-03-03
PCT/JP2018/007873 WO2018159775A1 (ja) 2017-03-03 2018-03-01 対象追跡装置

Publications (2)

Publication Number Publication Date
JPWO2018159775A1 JPWO2018159775A1 (ja) 2020-03-19
JP6984908B2 true JP6984908B2 (ja) 2021-12-22

Family

ID=63371288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019503121A Active JP6984908B2 (ja) 2017-03-03 2018-03-01 対象追跡装置

Country Status (4)

Country Link
US (1) US11328434B2 (ja)
EP (1) EP3590577B1 (ja)
JP (1) JP6984908B2 (ja)
WO (1) WO2018159775A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018228673A1 (en) * 2017-06-13 2018-12-20 Brainlab Ag Binary tracking on medical images
JP7218118B2 (ja) * 2018-07-31 2023-02-06 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP7127785B2 (ja) * 2018-11-30 2022-08-30 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
CN111420301A (zh) * 2019-01-10 2020-07-17 中国科学院沈阳自动化研究所 机器人化体表病灶区域定位跟踪系统
JP2020139842A (ja) * 2019-02-28 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
JP7128135B2 (ja) 2019-03-08 2022-08-30 富士フイルム株式会社 内視鏡画像学習装置、方法及びプログラム、内視鏡画像認識装置
JP2021010970A (ja) * 2019-07-05 2021-02-04 京セラドキュメントソリューションズ株式会社 ロボットシステム及びロボット制御方法
JP7252847B2 (ja) * 2019-07-08 2023-04-05 株式会社日立製作所 動体追跡装置および放射線治療システム、ならびに動体追跡装置の作動方法
JP7209595B2 (ja) * 2019-07-16 2023-01-20 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
JP2021041089A (ja) * 2019-09-13 2021-03-18 株式会社島津製作所 医用画像処理装置、x線画像処理システム、および、学習モデルの生成方法
JP7226207B2 (ja) * 2019-09-13 2023-02-21 株式会社島津製作所 医用画像処理装置、x線画像処理システム、および、学習モデルの生成方法
JP7292721B2 (ja) * 2019-10-08 2023-06-19 国立大学法人 筑波大学 標的外形推定装置および治療装置
JP7372536B2 (ja) * 2019-11-19 2023-11-01 富士通株式会社 演算プログラム、演算装置及び演算方法
JP7412178B2 (ja) * 2020-01-07 2024-01-12 キヤノンメディカルシステムズ株式会社 X線診断装置及び医用画像処理装置
JP7394645B2 (ja) 2020-02-05 2023-12-08 富士フイルム株式会社 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム
US11972559B2 (en) 2020-02-13 2024-04-30 Fujifilm Corporation Radiographic image processing device, radiographic image processing method, and radiographic image processing program
JP2021126501A (ja) * 2020-02-13 2021-09-02 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
US20230097849A1 (en) * 2020-02-26 2023-03-30 Shimadzu Corporation Creation method of trained model, image generation method, and image processing device
WO2021182343A1 (ja) * 2020-03-13 2021-09-16 富士フイルム株式会社 学習データ作成装置、方法、プログラム、学習データ及び機械学習装置
CN112263787B (zh) * 2020-10-30 2021-08-10 福建自贸试验区厦门片区Manteia数据科技有限公司 放疗的控制方法及装置
WO2023068365A1 (ja) 2021-10-21 2023-04-27 国立大学法人筑波大学 標的外形推定装置および治療装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54148914A (en) 1978-05-15 1979-11-21 Kawasaki Heavy Ind Ltd Butterfly type speed control valve
JP3053389B1 (ja) 1998-12-03 2000-06-19 三菱電機株式会社 動体追跡照射装置
US7545965B2 (en) * 2003-11-10 2009-06-09 The University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
JP4505639B2 (ja) 2005-02-24 2010-07-21 国立大学法人北海道大学 動体追跡照射装置およびプログラム
JP4126318B2 (ja) * 2006-06-23 2008-07-30 三菱重工業株式会社 放射線治療装置制御装置および放射線治療装置の制御方法
EP2357022A4 (en) 2008-11-12 2014-01-08 Univ Tsukuba RADIOTHERAPY SYSTEM
JP4727737B2 (ja) * 2009-02-24 2011-07-20 三菱重工業株式会社 放射線治療装置制御装置および目的部位位置計測方法
JP5797197B2 (ja) * 2010-07-14 2015-10-21 国立大学法人東北大学 信号処理装置、信号処理プログラム及び信号処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6351017B2 (ja) * 2014-02-24 2018-07-04 国立研究開発法人量子科学技術研究開発機構 放射線治療用動体追跡装置、放射線治療用照射領域決定装置および放射線治療装置
JP2016116659A (ja) * 2014-12-19 2016-06-30 株式会社東芝 医用画像処理装置、治療システム、医用画像処理方法、および医用画像処理プログラム
JP6747771B2 (ja) * 2015-01-26 2020-08-26 コニカミノルタ株式会社 画像表示装置及び画像表示方法
WO2018180040A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム

Also Published As

Publication number Publication date
US11328434B2 (en) 2022-05-10
EP3590577A1 (en) 2020-01-08
US20200005472A1 (en) 2020-01-02
EP3590577A4 (en) 2020-08-12
WO2018159775A1 (ja) 2018-09-07
EP3590577B1 (en) 2023-12-06
JPWO2018159775A1 (ja) 2020-03-19

Similar Documents

Publication Publication Date Title
JP6984908B2 (ja) 対象追跡装置
JP7181538B2 (ja) 医用画像処理装置および放射線治療システム
CN111956958B (zh) 被检体定位装置、方法、记录介质和放射线治疗系统
Brook et al. Spectral CT with metal artifacts reduction software for improvement of tumor visibility in the vicinity of gold fiducial markers
US8897514B2 (en) Imaging method for motion analysis
CN111918697B (zh) 医用图像处理装置、治疗系统以及存储介质
US9919164B2 (en) Apparatus, method, and program for processing medical image, and radiotherapy apparatus
CN107980008B (zh) 医学图像处理设备、治疗系统和医学图像处理程序
Park et al. A novel method of cone beam CT projection binning based on image registration
EP4160538A1 (en) Metal artifact reduction in computed tomography
Wei et al. A constrained linear regression optimization algorithm for diaphragm motion tracking with cone beam CT projections
JP7292721B2 (ja) 標的外形推定装置および治療装置
WO2024117129A1 (ja) 医用画像処理装置、治療システム、医用画像処理方法、およびプログラム
WO2023068365A1 (ja) 標的外形推定装置および治療装置
WO2024070093A1 (ja) 照射位置確認支援装置、照射位置確認支援方法、および照射位置確認支援プログラム
CN115880311A (zh) 计算机断层扫描中的自适应自动分割
JP2021104195A (ja) Ct画像診断支援装置、ct画像診断支援方法、およびct画像診断支援プログラム

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211117

R150 Certificate of patent or registration of utility model

Ref document number: 6984908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150