JPWO2018159775A1 - 対象追跡装置 - Google Patents
対象追跡装置 Download PDFInfo
- Publication number
- JPWO2018159775A1 JPWO2018159775A1 JP2019503121A JP2019503121A JPWO2018159775A1 JP WO2018159775 A1 JPWO2018159775 A1 JP WO2018159775A1 JP 2019503121 A JP2019503121 A JP 2019503121A JP 2019503121 A JP2019503121 A JP 2019503121A JP WO2018159775 A1 JPWO2018159775 A1 JP WO2018159775A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- tracking target
- tracking
- target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 claims description 18
- 238000011156 evaluation Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 70
- 230000008569 process Effects 0.000 description 40
- 210000000988 bone and bone Anatomy 0.000 description 39
- 238000010586 diagram Methods 0.000 description 32
- 206010028980 Neoplasm Diseases 0.000 description 24
- 230000005855 radiation Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 19
- 238000001959 radiotherapy Methods 0.000 description 16
- 230000001225 therapeutic effect Effects 0.000 description 15
- 210000004872 soft tissue Anatomy 0.000 description 14
- 230000029058 respiratory gaseous exchange Effects 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 9
- 239000003550 marker Substances 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 230000001678 irradiating effect Effects 0.000 description 8
- 230000000052 comparative effect Effects 0.000 description 5
- 238000002594 fluoroscopy Methods 0.000 description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000000241 respiratory effect Effects 0.000 description 4
- 239000000439 tumor marker Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000002600 positron emission tomography Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 206010011224 Cough Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 201000001883 cholelithiasis Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000001130 gallstones Diseases 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000010008 shearing Methods 0.000 description 2
- 238000002560 therapeutic procedure Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002428 photodynamic therapy Methods 0.000 description 1
- 239000003504 photosensitizing agent Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007958 sleep Effects 0.000 description 1
- 206010041232 sneezing Diseases 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
- A61N5/1048—Monitoring, verifying, controlling systems and methods
- A61N5/1049—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
- A61N5/1048—Monitoring, verifying, controlling systems and methods
- A61N5/1049—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
- A61N2005/105—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using a laser alignment system
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
- A61N5/1048—Monitoring, verifying, controlling systems and methods
- A61N5/1049—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
- A61N2005/1059—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using cameras imaging the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
- A61N5/1048—Monitoring, verifying, controlling systems and methods
- A61N5/1049—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
- A61N2005/1061—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
- A61N5/1048—Monitoring, verifying, controlling systems and methods
- A61N5/1049—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
- A61N2005/1061—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
- A61N2005/1062—Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source using virtual X-ray images, e.g. digitally reconstructed radiographs [DRR]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Heart & Thoracic Surgery (AREA)
- Optics & Photonics (AREA)
- Bioinformatics & Computational Biology (AREA)
- High Energy & Nuclear Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Robotics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
- Radiation-Therapy Devices (AREA)
- Surgical Instruments (AREA)
Abstract
Description
標的対象の位置を特定し追跡するための技術として、以下の技術が公知である。
特許文献1〜4に記載の技術では、基本的に、治療の標的対象である患者の腫瘍や病巣を含む部位(追跡対象部位)のテンプレート画像を事前に作成しておき、放射線を実際に照射する際に、テンプレート画像と実際の撮影画像とを比較して、追跡対象部位を特定している。
しかし、X線透視画像は体内の3次元構造を投影した画像であるために、追跡対象部位が、骨(非追跡対象、障害物)で隠れてしまう問題がある。特に、X線画像の中に骨が多く写っている場合は、追跡対象が骨で隠れやすい問題がある。また、X線画像を撮影する際に、患者が寝ているベッドの枠(カウチフレーム)や固定具といった非追跡対象物(障害物)がX線画像に写り込んでしまう場合もある。また、X線治療では透過した治療用X線をEPID(Electronic Portal Imaging Device:電子的放射線治療照合装置)により画像化する事で、治療標的対象部位を追跡し位置精度を検証する場合もある。この場合、治療標的対象部位の位置ずれが大きいと正常組織への照射を制限するコリメータに治療標的対象部位が隠れてしまう問題もある。このように、テンプレート画像を作成したり、X線透視画像を撮影する際に、障害物(骨やカウチフレームやコリメータ等)により追跡標的対象部位が見えにくい場合があり、このために従来のテンプレートマッチング法等の追跡アルゴリズムでは追跡が困難になる問題があった。また、動体追跡照射法のように、追跡を確実にするために体内に金属のマーカーを埋め込むことでテンプレートマッチングの精度を高めることも可能であるが、侵襲的な方法となり、患者に負担がかかる問題もある。
また、患者の呼吸に伴って、撮影される追跡対象の形状が変化することが知られているが、従来技術では、テンプレート画像を作成する場合に、骨等の障害物で隠れた部分の形状の特定が困難であるという問題もある。
また、患者の咳やくしゃみ等の予期せぬ動きにより、追跡対象がテンプレート画像の範囲を超えるような大きな動き(想定外の動き)をすることもあるが、特許文献3,4のような従来技術では、テンプレート画像を作成する際に、呼吸のような周期的な変化にしか対応できない問題もある。
追跡対象の画像特徴を含む追跡対象部画像に、前記画像特徴を含まない複数からなる非追跡対象画像のそれぞれを重ねた複数の重畳画像を作成する重畳画像作成部と、
前記複数の重畳画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する識別器作成部と、
前記識別器と、前記追跡対象の画像特徴を含む被追跡画像とに基づいて、前記被追跡画像における前記追跡対象の画像特徴および位置情報の少なくとも一方を特定する追跡対象特定部と、
を備えたことを特徴とする。
前記追跡対象の画像特徴を特定する教師画像を予め入力する部と、
前記複数の重畳画像と前記教師画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する前記識別器作成部と、
を備えたことを特徴とする。
前記追跡対象の画像特徴の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、前記非追跡対象画像の枚数を導出して、導出された枚数に応じた前記非追跡対象画像を作成する非追跡対象画像編集部、
を備えたことを特徴とする。
前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離抽出する画像分離部と、
前記分離非追跡対象画像を編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と
を備えたことを特徴とする。
前記追跡対象の画像特徴を含む元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離する画像分離部と、
前記元画像に含まれず且つ前記被追跡画像に含まれる障害物の画像を取得する障害物画像取得部と、
前記分離非追跡対象画像と前記障害物の画像との少なくとも1つを編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と、
を備えたことを特徴とする。
前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴の画像コントラスト情報に基づき、前記追跡対象部画像と前記分離非追跡対象画像とに分離抽出する前記画像分離部と、
を備えたことを特徴とする。
追跡対象の画像特徴および位置情報の少なくとも一方が予め設定された評価用の画像と、前記識別器とに基づいて、追跡対象の追跡の精度を評価する追跡精度評価部、
を備えたことを特徴とする。
前記追跡精度評価部による追跡の精度が、予め設定された精度に達しない場合に、前記非追跡対象画像の枚数を増やして前記識別器を再作成する前記識別器作成部、
を備えたことを特徴とする。
請求項2に記載の発明によれば、教師画像を使用しない場合に比べて、処理を高速化できる。請求項2の記載によれば、教師画像がある場合には、教師画像中の追跡対象の画像特徴領域の位置と形状は、複数の重畳画像に含まれる追跡対象の画像特徴領域の位置と形状とに相関があるが、追跡対象外の障害物の画像特徴の位置と形状には相関がない。この相関の有無が、追跡に必要な情報か否かを区別して学習する効果を生じさせる。
請求項3に記載の発明によれば、画像の大きさや分解能、追跡制度に応じて、必要十分な枚数の非追跡対象画像を作成することができる。
請求項5に記載の発明によれば、元画像に含まれない障害物の画像を追加することで、元画像に含まれていない障害物が、対象追跡中の被追跡画像に混入した時にでも、対象追跡の精度も向上させることができる。すなわち、従来は、このような学習の元画像に入っていない障害物が対象追跡中の被追跡画像に混入した時には著しく対象追跡の精度が低下したが、それら従来技術に比して、個別の被追跡画像に適した追跡を行う事ができる。
請求項7に記載の発明によれば、実際の治療の前に識別器の評価をすることができる。
請求項8に記載の発明によれば、識別器の精度が不十分な場合は、枚数の増えた重畳画像を利用して識別器を再作成することができ、識別器の精度を向上させることができる。
なお、以下の図面を使用した説明において、理解の容易のために説明に必要な部材以外の図示は適宜省略されている。
図1において、本発明の実施例1の対象追跡装置が適用された放射線治療機1は、治療の被検体である患者2が寝るベッド3を有する。ベッド3の上方には、透視撮影用X線照射装置4が配置されている。透視撮影用X線照射装置4は、X線透視画像(CT画像)を撮影するためのX線を患者に向けて照射可能に構成されている。患者2を挟んで透視撮影用X線照射装置4の反対側には、撮像装置6が配置されている。撮像装置6は、患者を透過したX線を受けてX線透視画像を撮像する。撮像装置6で撮影した画像は画像生成器7で電気信号に変換され、コントロールシステム8に入力される。なお、透視撮影用X線照射装置4や撮像装置6、画像生成器7は、従来公知の任意の構成を採用可能であり、例えば、特許文献2〜4等に記載のような3次元のCT画像を作成可能な構成を採用することが望ましい。
図2は実施例1の放射線治療機の制御部が備えている各機能をブロック図で示した図である。
図2において、コントロールシステム8の制御部Cは、外部との信号の入出力等を行う入出力インターフェースI/Oを有する。また、制御部Cは、必要な処理を行うためのプログラムおよび情報等が記憶されたROM:リードオンリーメモリを有する。また、制御部Cは、必要なデータを一時的に記憶するためのRAM:ランダムアクセスメモリを有する。また、制御部Cは、ROM等に記憶されたプログラムに応じた処理を行うCPU:中央演算処理装置を有する。したがって、実施例1の制御部Cは、小型の情報処理装置、いわゆるマイクロコンピュータにより構成されている。よって、制御部Cは、ROM等に記憶されたプログラムを実行することにより種々の機能を実現することができる。
制御部Cは、操作部UIや、画像生成器7、図示しないセンサ等の信号出力要素からの出力信号が入力されている。
操作部(ユーザインタフェース)UIは、表示部の一例であって入力部の一例としてのタッチパネルUI0を有する。また、操作部UIは、学習処理開始用のボタンUI1や、教師データ入力用のボタンUI2、治療開始用のボタンUI3等の各種入力部材を有する。
画像生成器7は、撮像装置6で撮影されたCT画像を制御部Cに入力する。なお、画像生成器7は、一例として、1秒間に15枚の画像(15フレーム:66[ms/f])を入力する。
制御部Cは、透視撮影用X線照射装置4や治療用放射線照射器11、その他の図示しない制御要素に接続されている。制御部Cは、透視撮影用X線照射装置4や治療用放射線照射器11等へ、それらの制御信号を出力している。
透視撮影用X線照射装置4は、学習時や治療時にX線透視画像を撮影するためのX線を患者2に向けて照射する。
治療用放射線照射器11は、治療時に治療用の放射線(X線)を患者2に向けて照射する。
制御部Cは、前記信号出力要素からの入力信号に応じた処理を実行して、前記各制御要素に制御信号を出力する機能を有している。すなわち、制御部Cは次の機能を有している。
C1:学習画像読み取り部
学習画像読み取り部C1は、画像生成器7から入力されたCT画像を読み取る(読み込む)。実施例1の学習画像読み取り部C1は、学習処理開始用のボタンUI1が入力された場合に、画像生成器7から入力された画像を読み取る。なお、実施例1では、学習処理開始用のボタンUI1の入力が開始されてから、予め設定された学習期間の間、CT画像の読み取りが行われる。なお、実施例1の学習画像読み取り部C1は、図3に示す追跡対象画像特徴21(追跡対象である腫瘍の特徴を示す画素値の配置パターン及び画像領域)を含む学習用の元画像(複数の横断面画像)22から、縦断面画像(図示せず)を構成して、以下の作業を行う。よって、実施例1では、学習に関連する各部C2〜C10は、学習画像読み取り部C1が読み取り、記憶した時系列に沿った各画像それぞれに基づいて、画像分離や編集、重畳等を実行する。すなわち、実施例1では、CT画像の撮影に対して、リアルタイムでの学習処理は行わないが、CPUの高速化等で処理速度が向上し、リアルタイムでも処理が可能になれば、リアルタイムで行うことも可能である。
画像分離部C2は、追跡対象画像特徴21を含む学習用の元画像22に基づいて、追跡対象画像特徴21を含む追跡対象部画像23の一例としての軟部組織DRR(Digitally Reconstructed Radiography)画像と、追跡対象画像特徴21という追跡対象の特徴を示す領域を含まない分離背景画像(非追跡対象画像、分離非追跡対象画像)24の一例としての骨構造の画像特徴を含む骨構造DRR画像(骨画像)とに分離抽出する。実施例1の画像分離部C2は、CT画像のコントラスト情報であるCT値に基づいて、追跡対象部画像23(第1の画像、軟部組織DRR画像)と分離背景画像24(骨構造DRR画像)とに分離する。実施例1では、一例として、CT値が200以上の領域を骨構造DRR画像として分離背景画像24を構成し、CT値が200未満の領域を軟部組織DRR画像として追跡対象部画像23を構成する。
腫瘍(追跡対象)の指定は、画面上で手動で腫瘍の領域を指定したりするような手動での指定とすることも可能である。また、複数の元画像22に共通で写り込んでいるものを自動的に抽出するような腫瘍の自動判別を行う構成とすることも可能である。
障害物画像取得部C3は、治療用放射線照射器11において被追跡画像28を取得する場合に含まれ、且つ、分離背景画像24とは異なる障害物の画像25を取得する。実施例1では、障害物画像25として、ベッド3のフレーム(カウチフレーム)や患者をベッド3に固定する固定具のX線画像が予め記憶媒体に記憶されており、障害物画像取得部C3は、記憶媒体に記憶されたカウチフレームや固定具の画像(障害物画像25)を読み取って取得する。
C4:乱数発生部
乱数発生部C4は乱数を発生させる。
背景画像編集部C5は、分離背景画像24や障害物画像25の追跡対象部画像23に対する位置、拡縮、回転および明暗の少なくとも一つを編集して、背景画像(非追跡対象画像)29を作成する一例である。実施例1の背景画像編集部C5は乱数に基づいて、位置、拡縮、回転および明暗の少なくとも一つを編集する。実施例1では、具体的には、アフィン変換を行って分離背景画像24や障害物画像25を平行移動させたり、線形変換(回転、せん断、拡大、縮小)させており、乱数に基づいてアフィン変換の行列の各値を変化させることで、分離背景画像24等を編集し背景画像29を作成する。なお、明暗(コントラスト)についても、分離背景画像24等の明暗を、明または暗の方向に、乱数に応じた量変化させる。実施例1では、背景画像編集部C5は、1つの分離背景画像24等に対して、予め設定された数の一例としての100枚の編集された背景画像を作成する。すなわち、分離背景画像24等の位置等が乱数によりランダムに編集された100枚の背景画像29が作成される。
重畳画像作成部C6は、追跡対象部画像23に、背景画像29(分離背景画像24や障害物画像25に回転等の編集がされた画像)をそれぞれ重畳した重畳画像26を作成する。
C7:教師画像の入力受付部
教師画像の入力受付部C7は、タッチパネルUI0への入力や教師データ入力用のボタンUI2への入力に応じて、追跡すべき対象を教師する画像の一例としての教師画像特徴27を含む教師画像30の入力を受け付ける。なお、実施例1では、タッチパネルUI0に学習用の元画像(CT画像)22を表示し、医師が治療の標的対象である追跡対象の画像特徴を囲むように画面上にて入力して、教師画像特徴27を決定することが可能なように構成されている。
C8:教師画像付加部
教師画像付加部C8は、入力された教師画像特徴27を含む教師画像30を重畳画像26に付加する(さらに重畳する)。
C9:学習部(識別器作成部)
学習部C9は、複数の重畳画像26に教師画像30が付加された複数の学習画像51に基づいて、画像における追跡対象画像特徴21の領域情報および位置情報の少なくとも一方を学習して、識別器を作成する。なお、実施例1では、追跡対象画像特徴21の領域と位置の両方を学習する。また、実施例1では、追跡対象画像特徴21の領域の重心の位置を追跡対象画像特徴21の位置としているが、領域の上端、下端、右端、左端等、設計や仕様等に応じて任意の位置に変更可能である。
学習結果記憶部C10は、学習部C9の学習結果を記憶する。すなわち、学習で最適化されたCNNを識別器として記憶する。
C11:X線透視画像読み取り部
X線透視画像読み取り部C11は、画像生成器7から入力されたCT画像(第3の画像)を読み取る。実施例1のX線透視画像読み取り部C11は、治療開始用のボタンUI3が入力された場合に、画像生成器7から入力された被追跡画像28を読み取る。
対象特定部C12は、学習部C9の学習結果と、追跡対象である標的対象を含む被追跡画像28とに基づいて、被追跡画像28における追跡対象の位置を特定する。実施例1の対象特定部C12は、学習で最適化された識別器(CNN)を使用して、被追跡画像28(この場合はX線透視画像)における追跡対象画像特徴21の領域情報および位置情報を特定し、その領域情報および位置情報を出力する。
C13:放射線照射部
放射線照射部C13は、治療用放射線照射器11を制御して、対象特定部C12で特定された追跡対象画像特徴21の領域および位置が、治療用X線の照射範囲に含まれる場合に、治療用X線を照射させる。
追跡精度評価部C14は、追跡対象の領域および位置の少なくとも一方が予め設定された評価用の画像(テスト画像)と、識別器とに基づいて、追跡対象の追跡の精度を評価する。実施例1では、テスト画像として、追跡対象の領域および位置が既知の画像を使用して、識別器で追跡対象の追跡を行い、識別器で特定した追跡対象の領域および位置と、既知の領域および位置とのズレを評価する。評価は、領域については、例えば、識別器で特定した領域の外縁の各画素(ピクセル)と、テスト画像における追跡対象の外縁の画素で、(位置が一致するピクセル数)/(外縁の総ピクセル数)を演算し、それが、閾値(例えば90%)を超えていれば、識別器の精度が領域の特定については十分と評価することが可能である。同様に、位置についても、識別器で特定した追跡対象の位置(重心位置)が、テスト画像における追跡対象の位置に対して、ズレが、閾値(例えば、5ピクセル)以内であれば、識別器の精度が位置の特定については十分と評価することが可能である。なお、評価方法は、上記に限定されず、例えば、領域は外形の形状同士の相関係数を導出して評価をする等、任意の評価方法を採用可能である。
なお、透視撮影用X線照射装置4や撮像装置6、画像生成器7、コントロールシステム8、前記各部C1〜C14により実施例1の対象追跡装置が構成されている。
次に、実施例1の放射線治療機1における制御の流れを流れ図、いわゆるフローチャートを使用して説明する。
図5は実施例1の学習処理のフローチャートの説明図である。
図5のフローチャートの各ステップSTの処理は、放射線治療機1の制御部Cに記憶されたプログラムに従って行われる。また、この処理は放射線治療機1の他の各種処理と並行して実行される。なお、ユーザの入力に応じて、作成された識別器の追跡精度を評価する処理については、フローチャートが簡単なため、図示および詳細な説明は省略する。
図5に示すフローチャートは学習処理開始用のボタンUI1の入力により開始される。
ST2において、元画像22からCT値200未満の追跡対象部画像23と、CT値200以上の分離背景画像24とを作成する。そして、ST3に進む。
ST3において、乱数と分離背景画像24から平行移動等を編集した編集画像を所定数N作成する。そして、ST4に進む。
ST4において、追跡対象部画像23と、各編集画像を重畳した重畳画像26を作成する。そして、ST5に進む。
ST6において、教師データ(教師画像特徴27)の入力がされたか否かを判別する。イエス(Y)の場合はST7に進み、ノー(N)の場合はST6を繰り返す。
ST7において、各重畳画像26に教師データ(教師画像特徴27)を付加する。そして、ST8に進む。
ST9において、次のCT画像(元画像22)を読み取る。そして、ST2に戻る。
ST10において、CNNで学習を実行して、識別器(最適化されたCNN)を出力し、記憶する。そして、学習処理を終了する。
図6は実施例1の追跡処理のフローチャートの説明図である。
図6のフローチャートの各ステップSTの処理は、放射線治療機1の制御部Cに記憶されたプログラムに従って行われる。また、この処理は放射線治療機1の他の各種処理と並行して実行される。なお、X線の照射処理については、追跡対象の位置が予め設定された照射位置に到達している場合にX線を照射し、それ以外の場合は照射しないという処理であるため、図示および詳細な説明は省略する。なお、X線の照射処理については、特許文献1〜4に記載の従来公知の技術を採用することも可能である。
図6に示すフローチャートは治療開始用のボタンUI3の入力により開始される。
ST22において、X線透視画像の入力がされたか否かを判別する。イエス(Y)の場合はST23に進み、ノー(N)の場合はST22を繰り返す。
ST23において、入力画像(X線透視画像)と識別器から追跡対象(治療の標的対象)の位置を特定し、出力する。そして、ST24に進む。
ST24において、追跡処理、すなわち、治療用X線の照射処理が終了したか否かを判別する。ノー(N)の場合はST22に戻り、イエス(Y)の場合は追跡処理を終了する。
図7は実施例1の放射線治療機における腫瘍の追跡結果の説明図である。
前記構成を備えた実施例1の放射線治療機1では、元画像22から、追跡対象画像特徴21を含む追跡対象部画像23として軟部組織DRR画像、追跡対象を含まない分離背景画像24として骨構造DRR画像を分離し、分離背景画像24(骨構造DRR画像)をランダムに編集(加工)して、追跡対象部画像23(軟部組織DRR画像)と重ねている。したがって、学習時に、追跡対象画像特徴21の位置と形状を明確に認識しやすい。元画像22にカウチフレーム等の障害物が写り込んでいる場合には、その画像特徴は、元画像22から分離されて分離背景画像(骨構造DRR画像)24に含まれた状態で学習されるため、学習時にカウチフレーム等の障害物の影響も抑制される。また、学習される障害物が、カテーテル等の体内に入る手術器具等であっても、体内に入って写り込んだカテーテル等を障害物と判断し、追跡対象から分離しやすくなる。よって、カテーテル等の障害物が体内に入った状況で対象を追跡する際の、体内障害物の影響も抑制可能である。
図8において、テストデータを使用して追跡対象の追跡について実験を行った。実験例1は、実施例1の構成を採用した。比較例1は、軟部組織DRR画像のみを使用し、従来のテンプレート法で実験を行った。比較例2は、一般的なDRR画像(軟部組織DRR画像+骨構造DRR画像)を使用して従来のテンプレート法で実験を行った。実験結果を図8に示す。
図8において、実験例1では、追跡対象の追跡においてエラーとなった画素の平均が0.22[ピクセル]で、標準偏差が1.7、相関係数が0.997、ジャッカード係数が平均0.918(最大0.995、最小0.764)となり、追跡対象の追跡精度が高く、良好な結果が得られた。これに対して、比較例1では、エラーとなった画素の平均が4.4[ピクセル]で、標準偏差が10、相関係数が0.113となった。比較例2では、エラーとなった画素の平均が3.9[ピクセル]で、標準偏差が9.1、相関係数が0.256となった。したがって、実施例1の構成(実験例1)で、従来(比較例1,2)に比べて、追跡の精度が向上していることが確認された。仮に、1ピクセルが1mmであれば、従来技術では平均誤差が4ピクセル程度であるため平均追跡誤差が4mm以上であったが、実施例1では平均誤差が0.22ピクセルであるため平均追跡誤差が0.22mm以下に改善する。
また、実施例1では、分離背景画像24を編集する際に明暗(コントラスト)も編集している。したがって、学習用の元画像22の撮影時と治療用のX線透視画像を撮影する時でコントラストが異なっても、コントラストが異なる状況についても学習済みであり、追跡し易い。なお、分離背景画像24のコントラストだけでなく元画像22の全体のコントラストを変えたものを使用して学習すれば、追跡の精度がさらに向上させることが可能である。
従来のテンプレート法では、図9Aに示すように、各時刻におけるCT画像における障害物(骨)と追跡対象の位置について学習するので、全体として追跡対象が移動する範囲は、CT画像で写った範囲、すなわち、呼吸で変動する範囲でしか学習が行われない。これに対して、実施例1では、各時刻におけるCT画像において、分離背景画像24等がランダムに編集され、骨やカウチフレーム等の非追跡対象、障害物に対する追跡対象の相対位置が様々異なる状況について学習される。すなわち、骨等を基準に見ると、追跡対象が色々な位置にある状況(位置的に幅を持った状況)について学習が行われ、この学習が、各時刻に対して行われる。したがって、図9Bに示すように、全体として追跡対象が移動する範囲は、CT画像に写った範囲を超えた範囲、すなわち、呼吸で移動する範囲を超えた範囲についても学習が行われることとなる。よって、実施例1では、学習を行う際に、相対的に骨等に対して追跡対象がずれている状況を学習するので、4DCTで取得した呼吸移動の範囲を超えた予想外の動きの状況(咳やくしゃみ)に対応することもできる。
図10において、EPIDに適用した場合、追跡対象画像特徴41に対して、コリメータ42が障害物として写り込むことがある。そして、患者の呼吸等の体動に応じて、追跡対象画像特徴41がコリメータ42に隠れていない状態(図10A)と、一部隠れた状態(図10B)との間で変化する場合がある。このような場合、従来のテンプレートを使用して追跡を行うと、隠れた状態で追跡対象画像特徴41の外形を推定する精度が低下する。これに対して、実施例1では、コリメータ等の障害物画像25を追加して学習しており、コリメータ42のような障害物があっても、追跡対象画像特徴41の外形を精度良く追跡することが可能であった。
(H01)前記実施例において、元画像や軟部組織DRR画像、骨構造DRR画像としてCT画像を使用する構成を例示したがこれに限定されない。例えば、超音波画像、MRI画像、PET画像等を使用することも可能である。すなわち、X線で撮影した画像に限定されず、MRI(Magnetic Resonance Imaging)装置や超音波検査(エコー)で撮影した画像を使用することも可能である。
また、軟部組織DRR画像と骨構造DRR画像との分離は、CT値に応じて分離する構成を例示したが、CT画像を使用しない場合は、各画像において追跡対象が写る画像と、追跡対象が写らない画像とを分離できるパラメータに対して適切な閾値を設定可能である。
(H03)前記実施例において、教師データ(教師画像特徴27)を使用することが好ましいが、使用しない構成とすることも可能である。この場合は、重畳画像の数を増やすことで、重畳画像でほとんど同じ位置に登場するものを腫瘍(重要なもの)として、識別器を作成することが可能である。
(H05)前記実施例において、乱数に基づいて編集を行う構成を採用することが望ましいが、予め重畳させる画像(骨構造DRR画像相当)を準備しておく構成とすることも可能である。
(H06)前記実施例において、追跡対象(腫瘍)の領域および位置の両方を追跡する構成を例示したが、これに限定されない。例えば、領域のみまたは位置のみを追跡する構成とすることも可能である。また、領域と位置以外の要素、例えば、明るさや色等を追跡するように学習等をすることも可能である。
(H08)前記実施例において、追跡対象としての腫瘍と、障害物として骨を例示したが、これに限定されない。例えば、治療時の患者の姿勢を確認する場合には、逆に、骨を追跡対象とし、軟部組織を障害物とすることも可能である。
(H09)前記実施例において、DRR画像は、実施例に例示した投影角度に限定されず、任意の角度方向の投影を選択することが可能である。
(H011)前記実施例において、追跡対象である腫瘍等が1つの場合について説明を行ったが、追跡対象が複数の場合にも適用可能である。例えば、教師画像として階調が2bit(22=4階調)以上のものを使用すれば、第1の追跡対象と第2の追跡対象で階調を変えて区別した1つの教師画像を使用して学習することで、追跡対象が複数の場合に対応可能である。すなわち、通常、教師画像とは領域分割を示すラベリングされた画像であり、画素値(階調)をラベル値としている。単なる2値化画像の場合は1ビット(0,1)で表現可能だが、複数領域をラベリングして区別するためには2ビット以上の階調が必要となる。また、例えば、2つの追跡対象のうち一方をマーカが無い追跡対象画像特徴とし、他方をマーカが埋め込まれた追跡対象画像特徴として、個別に追跡させることも可能である。
22…元画像、
23…追跡対象部画像、
24…分離非追跡対象画像、
25…障害物画像、
26…重畳画像、
27…教師画像特徴、
28…被追跡画像、
29…非追跡対象画像、
30…教師画像、
31…障害物画像特徴、
32…追跡対象画像特徴(教師画像内)、
41…追跡対象画像特徴(EPID画像内)、
42…コリメータ、
51…学習画像、
C1…学習画像読み取り部、
C2…画像分離部、
C3…障害物画像取得部、
C5…非追跡対象画像編集部、
C6…重畳画像作成部、
C7…教師画像の入力受付部、
C8…教師画像付加部、
C9…識別器作成部、
C12…対象特定部、
C14…追跡精度評価部。
Claims (8)
- 追跡対象の画像特徴を含む追跡対象部画像に、前記画像特徴を含まない複数からなる非追跡対象画像のそれぞれを重ねた複数の重畳画像を作成する重畳画像作成部と、
前記複数の重畳画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する識別器作成部と、
前記識別器と、前記追跡対象の画像特徴を含む被追跡画像とに基づいて、前記被追跡画像における前記追跡対象の画像特徴および位置情報の少なくとも一方を特定する追跡対象特定部と、
を備えたことを特徴とする対象追跡装置。 - 前記追跡対象の画像特徴を特定する教師画像を予め入力する入力部と、
前記複数の重畳画像と前記教師画像に基づいて、前記追跡対象の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する前記識別器作成部と、
を備えたことを特徴とする請求項1に記載の対象追跡装置。 - 前記追跡対象の画像特徴の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、前記非追跡対象画像の枚数を導出して、導出された枚数に応じた前記非追跡対象画像を作成する非追跡対象画像編集部、
を備えたことを特徴とする請求項1または2に記載の対象追跡装置。 - 前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離抽出する画像分離部と、
前記分離非追跡対象画像を編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と
を備えたことを特徴とする請求項1ないし3のいずれかに記載の対象追跡装置。 - 前記追跡対象の画像特徴を含む元画像から、前記追跡対象の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離する画像分離部と、
前記元画像に含まれず且つ前記被追跡画像に含まれる障害物の画像を取得する障害物画像取得部と、
前記分離非追跡対象画像と前記障害物の画像との少なくとも1つを編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集部と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成部と、
を備えたことを特徴とする請求項1ないし3のいずれかに記載の対象追跡装置。 - 前記追跡対象の画像特徴を含む学習用の元画像から、前記追跡対象の画像特徴の画像コントラスト情報に基づき、前記追跡対象部画像と前記分離非追跡対象画像とに分離抽出する前記画像分離部と、
を備えたことを特徴とする請求項4または5に記載の対象追跡装置。 - 追跡対象の画像特徴および位置情報の少なくとも一方が予め設定された評価用の画像と、前記識別器とに基づいて、追跡対象の追跡の精度を評価する追跡精度評価部、
を備えたことを特徴とする請求項1ないし6のいずれかに記載の対象追跡装置。 - 前記追跡精度評価部による追跡の精度が、予め設定された精度に達しない場合に、前記非追跡対象画像の枚数を増やして前記識別器を再作成する前記識別器作成部、
を備えたことを特徴とする請求項7に記載の対象追跡装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041111 | 2017-03-03 | ||
JP2017041111 | 2017-03-03 | ||
PCT/JP2018/007873 WO2018159775A1 (ja) | 2017-03-03 | 2018-03-01 | 対象追跡装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018159775A1 true JPWO2018159775A1 (ja) | 2020-03-19 |
JP6984908B2 JP6984908B2 (ja) | 2021-12-22 |
Family
ID=63371288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019503121A Active JP6984908B2 (ja) | 2017-03-03 | 2018-03-01 | 対象追跡装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11328434B2 (ja) |
EP (1) | EP3590577B1 (ja) |
JP (1) | JP6984908B2 (ja) |
WO (1) | WO2018159775A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018228673A1 (en) * | 2017-06-13 | 2018-12-20 | Brainlab Ag | Binary tracking on medical images |
JP7218118B2 (ja) * | 2018-07-31 | 2023-02-06 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7127785B2 (ja) * | 2018-11-30 | 2022-08-30 | オリンパス株式会社 | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 |
CN111420301A (zh) * | 2019-01-10 | 2020-07-17 | 中国科学院沈阳自动化研究所 | 机器人化体表病灶区域定位跟踪系统 |
JP2020139842A (ja) * | 2019-02-28 | 2020-09-03 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
JP7128135B2 (ja) * | 2019-03-08 | 2022-08-30 | 富士フイルム株式会社 | 内視鏡画像学習装置、方法及びプログラム、内視鏡画像認識装置 |
JP2021010970A (ja) * | 2019-07-05 | 2021-02-04 | 京セラドキュメントソリューションズ株式会社 | ロボットシステム及びロボット制御方法 |
JP7252847B2 (ja) * | 2019-07-08 | 2023-04-05 | 株式会社日立製作所 | 動体追跡装置および放射線治療システム、ならびに動体追跡装置の作動方法 |
JP7209595B2 (ja) * | 2019-07-16 | 2023-01-20 | 富士フイルム株式会社 | 放射線画像処理装置、方法およびプログラム |
JP7226207B2 (ja) * | 2019-09-13 | 2023-02-21 | 株式会社島津製作所 | 医用画像処理装置、x線画像処理システム、および、学習モデルの生成方法 |
JP2021041089A (ja) * | 2019-09-13 | 2021-03-18 | 株式会社島津製作所 | 医用画像処理装置、x線画像処理システム、および、学習モデルの生成方法 |
JP7292721B2 (ja) * | 2019-10-08 | 2023-06-19 | 国立大学法人 筑波大学 | 標的外形推定装置および治療装置 |
JP7372536B2 (ja) * | 2019-11-19 | 2023-11-01 | 富士通株式会社 | 演算プログラム、演算装置及び演算方法 |
JP7412178B2 (ja) * | 2020-01-07 | 2024-01-12 | キヤノンメディカルシステムズ株式会社 | X線診断装置及び医用画像処理装置 |
JP7394645B2 (ja) * | 2020-02-05 | 2023-12-08 | 富士フイルム株式会社 | 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム |
JP2021126501A (ja) * | 2020-02-13 | 2021-09-02 | 富士フイルム株式会社 | 放射線画像処理装置、方法およびプログラム |
US11972559B2 (en) | 2020-02-13 | 2024-04-30 | Fujifilm Corporation | Radiographic image processing device, radiographic image processing method, and radiographic image processing program |
CN115209808A (zh) * | 2020-02-26 | 2022-10-18 | 株式会社岛津制作所 | 学习完毕模型的制作方法、图像生成方法以及图像处理装置 |
JP7531578B2 (ja) * | 2020-03-13 | 2024-08-09 | 富士フイルム株式会社 | 学習データ作成装置、方法、プログラム、及び記録媒体 |
CN112263787B (zh) * | 2020-10-30 | 2021-08-10 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 放疗的控制方法及装置 |
WO2023068365A1 (ja) | 2021-10-21 | 2023-04-27 | 国立大学法人筑波大学 | 標的外形推定装置および治療装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010194053A (ja) * | 2009-02-24 | 2010-09-09 | Mitsubishi Heavy Ind Ltd | 放射線治療装置制御装置および目的部位位置計測方法 |
WO2015125600A1 (ja) * | 2014-02-24 | 2015-08-27 | 独立行政法人放射線医学総合研究所 | 放射線治療用動体追跡装置、放射線治療用照射領域決定装置および放射線治療装置 |
JP2016137007A (ja) * | 2015-01-26 | 2016-08-04 | コニカミノルタ株式会社 | 画像表示装置及び画像表示方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS54148914A (en) | 1978-05-15 | 1979-11-21 | Kawasaki Heavy Ind Ltd | Butterfly type speed control valve |
JP3053389B1 (ja) | 1998-12-03 | 2000-06-19 | 三菱電機株式会社 | 動体追跡照射装置 |
US7545965B2 (en) * | 2003-11-10 | 2009-06-09 | The University Of Chicago | Image modification and detection using massive training artificial neural networks (MTANN) |
US8989349B2 (en) * | 2004-09-30 | 2015-03-24 | Accuray, Inc. | Dynamic tracking of moving targets |
JP4505639B2 (ja) | 2005-02-24 | 2010-07-21 | 国立大学法人北海道大学 | 動体追跡照射装置およびプログラム |
JP4126318B2 (ja) * | 2006-06-23 | 2008-07-30 | 三菱重工業株式会社 | 放射線治療装置制御装置および放射線治療装置の制御方法 |
JP5610441B2 (ja) | 2008-11-12 | 2014-10-22 | 国立大学法人 筑波大学 | 放射線治療システム |
WO2012008500A1 (ja) * | 2010-07-14 | 2012-01-19 | 国立大学法人東北大学 | 信号処理装置、信号処理プログラム及び信号処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2016116659A (ja) * | 2014-12-19 | 2016-06-30 | 株式会社東芝 | 医用画像処理装置、治療システム、医用画像処理方法、および医用画像処理プログラム |
JP6760485B2 (ja) * | 2017-03-31 | 2020-09-23 | 日本電気株式会社 | 映像処理装置、映像解析システム、方法およびプログラム |
-
2018
- 2018-03-01 US US16/490,595 patent/US11328434B2/en active Active
- 2018-03-01 EP EP18761561.2A patent/EP3590577B1/en active Active
- 2018-03-01 JP JP2019503121A patent/JP6984908B2/ja active Active
- 2018-03-01 WO PCT/JP2018/007873 patent/WO2018159775A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010194053A (ja) * | 2009-02-24 | 2010-09-09 | Mitsubishi Heavy Ind Ltd | 放射線治療装置制御装置および目的部位位置計測方法 |
WO2015125600A1 (ja) * | 2014-02-24 | 2015-08-27 | 独立行政法人放射線医学総合研究所 | 放射線治療用動体追跡装置、放射線治療用照射領域決定装置および放射線治療装置 |
JP2016137007A (ja) * | 2015-01-26 | 2016-08-04 | コニカミノルタ株式会社 | 画像表示装置及び画像表示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6984908B2 (ja) | 2021-12-22 |
EP3590577A4 (en) | 2020-08-12 |
US11328434B2 (en) | 2022-05-10 |
WO2018159775A1 (ja) | 2018-09-07 |
EP3590577B1 (en) | 2023-12-06 |
EP3590577A1 (en) | 2020-01-08 |
US20200005472A1 (en) | 2020-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6984908B2 (ja) | 対象追跡装置 | |
CN111956958B (zh) | 被检体定位装置、方法、记录介质和放射线治疗系统 | |
JP7181538B2 (ja) | 医用画像処理装置および放射線治療システム | |
EP1664996B1 (en) | Systems for gating medical procedures | |
CN111918697B (zh) | 医用图像处理装置、治疗系统以及存储介质 | |
US7620146B2 (en) | Systems and methods for processing x-ray images | |
US9179982B2 (en) | Method and system for automatic patient identification | |
EP2479708A1 (en) | Systems and methods for tracking moving targets and monitoring object positions | |
CN107980008B (zh) | 医学图像处理设备、治疗系统和医学图像处理程序 | |
JP7292721B2 (ja) | 標的外形推定装置および治療装置 | |
WO2024117129A1 (ja) | 医用画像処理装置、治療システム、医用画像処理方法、およびプログラム | |
WO2024070093A1 (ja) | 照射位置確認支援装置、照射位置確認支援方法、および照射位置確認支援プログラム | |
WO2023068365A1 (ja) | 標的外形推定装置および治療装置 | |
JP2018079010A (ja) | X線透視装置及びx線透視方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20191119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6984908 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |