JP4914921B2 - 患者モニタ - Google Patents

患者モニタ Download PDF

Info

Publication number
JP4914921B2
JP4914921B2 JP2009526178A JP2009526178A JP4914921B2 JP 4914921 B2 JP4914921 B2 JP 4914921B2 JP 2009526178 A JP2009526178 A JP 2009526178A JP 2009526178 A JP2009526178 A JP 2009526178A JP 4914921 B2 JP4914921 B2 JP 4914921B2
Authority
JP
Japan
Prior art keywords
patient
model
points
data
respiratory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009526178A
Other languages
English (en)
Other versions
JP2010502244A (ja
JP2010502244A5 (ja
Inventor
ダニエル メイアー,イヴァン
ロナルド スミス,ノーマン
クリストファー ルート,アンソニー
Original Assignee
ヴィジョン アールティー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィジョン アールティー リミテッド filed Critical ヴィジョン アールティー リミテッド
Publication of JP2010502244A publication Critical patent/JP2010502244A/ja
Publication of JP2010502244A5 publication Critical patent/JP2010502244A5/ja
Application granted granted Critical
Publication of JP4914921B2 publication Critical patent/JP4914921B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7285Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/541Control of apparatus or devices for radiation diagnosis involving acquisition triggered by a physiological signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1059Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using cameras imaging the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1064Monitoring, verifying, controlling systems and methods for adjusting radiation treatment in response to monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/100764D tomography; Time-sequential 3D tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Radiation-Therapy Devices (AREA)

Description

本発明は、患者のモニタリングに関する。より詳細には、本発明の実施形態は、呼吸異常(たとえば咳)を検出し、また、患者の動きが検出されることを可能にするために呼吸をモデル化することに関する。本発明は、治療がうまくいくために患者の動きや不規則な呼吸を検出することが重要である放射線療法装置および計算機断層撮影(CT)スキャナなどとともに使うのに好適である。
放射線療法は患者の体の所定の領域に放射ビームを投射し、その領域内に存在する腫瘍を破壊または消去することからなる。そのような治療は通例、周期的かつ反復的に実行される。各医療介入において、放射線ビームが有害になる隣接組織に放射することを避けるよう選択された領域をできるだけ高い精度で照射するために、放射線源が患者に対して位置される必要がある。
胸部のまたは腹部の胸腔に腫瘍が位置特定されるとき、腫瘍の位置は呼吸サイクルを通じてかなり(たとえば数センチメートルも)変動しうる。したがって、信頼できるCTスキャン・データを得るためには、呼吸サイクル内の同じ点で一貫してデータを取得することが重要である。
ある種の現代のCTスキャナは、呼吸サイクル内の異なる時点で収集されるCTスキャン・データを処理して、呼吸の間の内部器官の3D動きの表現を生成することができる。器官の動きのそのような「4D」表現は、癌を照射するための治療のコースを決定する際にかけがえのないものである。ここでもやはり、高品質の計画データが生成されるためには、4D表現が精確に内部器官の動きを表現するよう、呼吸サイクル内で個々のCTスキャンが収集されるタイミングがわかっている必要がある。
患者に放射を当てるとき、放射が腫瘍の位置に集束され、他の組織への付帯的被害が最小限にされるよう、治療装置のゲーティングが呼吸サイクルとマッチされるべきである。患者の動きが検出される場合、腫瘍位置以外の患者の領域を照射することを回避するために、治療は停止されるべきである。また、咳のような不規則な呼吸が検出される場合にも、そのような不規則な呼吸は放射ビームの焦点に対して腫瘍の位置を変えさせることがありうるので、治療は停止されるべきである。
この理由で、放射線療法の間に患者の呼吸をモニタリングするモニタリング・システムがいくつも提案されている。たとえばUS6621889は、放射線装置のゲーティングが、患者の呼吸の周期性が以前の測定から逸脱したという判定にリンクされているシステムを開示している。さらなる例はUS6980679およびUS7123758であって、これらは幼児の呼吸をモニタリングし、患者の呼吸の周期性が以前の測定から逸脱することに基づいて不規則性を報告するシステムを開示している。
しかしながら、患者の呼吸および動きをモニタリングおよび測定する改良されたシステムが望ましい。
本発明のある側面によれば、患者をモニタリングする方法であって:
少なくとも1呼吸サイクルの間、患者の少なくとも一部の動きを示す測定を表すデータを取得する段階と;
取得されたデータを使って前記少なくとも1呼吸サイクルの間の患者の前記少なくとも一部の位置の変動の呼吸モデルを生成する段階と;
その後のある呼吸期間の間、患者の前記少なくとも一部の位置を示す測定を表すさらなるデータを取得する段階と;
前記の生成された呼吸モデルを使って患者の前記少なくとも一部の位置の表現をモデル化する段階と;
取得されたさらなるデータを、患者の前記少なくとも一部の位置のモデル化された表現と比較する段階とを有する方法、
が提供される。
本発明のもう一つの側面によれば、患者モニタであって:
患者の少なくとも一部の位置を示す測定値を決定するよう動作可能な3D位置決定モジュールと;
前記3D位置決定モジュールによって決定される測定値を使って、前記少なくとも1呼吸サイクルの間の患者の前記少なくとも一部の位置の変動の呼吸モデルを生成するよう動作可能なモデル生成モジュールと;
前記モデル生成モジュールによって生成された呼吸モデルを利用して、患者の前記少なくとも一部の位置の表現をモデル化し、前記3D位置決定モジュールによって決定された患者の前記少なくとも一部の位置の測定値をモデル化された表現と比較するよう動作可能な比較モジュールとを有する患者モニタ、
が提供される。
本発明のさらなる側面および実施形態は、以下の記載および付属の図面を参照することで明白になるであろう。
本発明の第一の実施形態に基づく患者モニタの概略図である。 不規則な呼吸を検出するための呼吸モデルを生成するために図1の患者モニタが執り行う処理の流れ図である。 AおよびBは、図1の患者モニタによって生成される呼吸信号および区分呼吸信号の例を示す図である。 呼吸信号をいくつかの区画に分割するのに関わる処理の流れ図である。 呼吸モデルを生成するための区分された呼吸信号の処理の流れ図である。 生成された呼吸モデルを使って不規則な呼吸の期間を識別するために図1の患者モニタによって執り行われる処理の流れ図である。 呼吸信号を保存された呼吸モデルと比較することに関わる処理の流れ図である。 不規則な呼吸および患者の動きを検出するために呼吸モデルを生成するために第二の実施形態の患者モニタによって執り行われる処理の流れ図である。 図8の患者モニタリング・システムにおいて呼吸信号を保存された呼吸モデルと比較することに関わる処理の流れ図である。
〈第一の実施形態〉
図1は、本発明の第一の実施形態に基づく患者モニタの概略図である。この実施形態によれば、配線12によってコンピュータ14に接続された立体視カメラ10が設けられる。コンピュータ14は、放射線療法を適用する線形加速器のような治療装置16または放射線療法を計画するX線シミュレータにも接続されている。治療の間に患者20が横たわる機械的な台18が、治療装置の一部として設けられている。治療装置16および機械的な台18は、コンピュータ14の制御のもとで、機械的な台18および治療装置16の相対位置が、横に、垂直に、長手方向に、そして回転的に変えられるよう構成されている。患者20の表面上にはマーカー22が設けられている。
使用では、立体視カメラ10のカメラは、機械的な台18の上に横たわる患者20のビデオ画像を得る。これらのビデオ画像は、配線12を介してコンピュータ14に渡される。次いでコンピュータ14は患者20上のマーカー22の画像を処理して、患者の呼吸のモデルを生成する。その後、患者の呼吸がモニタリングされ、保存されたモデルと比較され、もし異常な呼吸が検出されたら、治療装置16は正常な呼吸が再開されるまで遮断される。
コンピュータ14が立体視カメラ10から受領された画像を処理するために、コンピュータ14は、ディスク23上にまたは通信ネットワークを介して電気信号24を受信することによって提供されるソフトウェアによって、いくつかの機能モジュール25〜36に構成される。図1に示される機能モジュール25〜36は、特許請求される発明のはたらきを理解するのを支援するための純粋に概念的なものであり、実施形態によってはソフトウェアのソース・コード中のコードのブロックと直接的には対応しないこともありうる。他の実施形態では、図示された機能モジュール25〜36によって実行される機能は異なるモジュールの間で分割されてもよく、あるいは異なる機能のために同じモジュールの再使用によって実行されてもよい。
この実施形態では、機能モジュール25〜36は:立体視カメラから受領した画像を処理し、検出された3D位置に基づいてマーカー22についての呼吸信号を決定する3D位置決定モジュール25と;3D位置決定モジュール25によって決定される呼吸信号の諸部分のためのタイムスタンプを与えるクロック・モジュール26と;タイムスタンプされた呼吸信号を記憶する信号キャッシュと;信号キャッシュに記憶された信号を処理して該信号を個々の呼吸サイクルに分割する位相検出モジュール30と;主成分解析(principal component analysis)呼吸モデルを生成および記憶するモデル生成モジュール32および呼吸モデル記憶34と;受領された呼吸信号を記憶されている呼吸モデルと比較して異常な呼吸を識別する信号比較モジュール36とを有する。
使用においては、立体視カメラ10によって画像が取得されるにつれ、これらの画像は、マーカー22の位置について3D位置を決定する3D位置決定モジュール25によって処理される。3D位置決定モジュール25は次いで、この3D位置信号を、固定参照点からのマーカー22の相対距離を示す距離指標に変換する。この距離データは次いで信号キャッシュ28に、マーカー22の画像が取得されたタイミングを示すタイミング・データと一緒に記憶される。
トレーニング段階の間、いくつかの呼吸サイクルについての距離およびタイミング・データが信号キャッシュ28に記憶されたのち、このデータは位相検出モジュール30に渡される。位相検出モジュール30は記憶されたデータをいくつかの区画に分割する。ここで、各区画は個々の呼吸サイクルに対応する。これらの個々の呼吸サイクルを表すデータは次いでモデル生成モジュール32に渡される。モデル生成モジュール32は、患者の呼吸の通常の変動の主成分解析モデルを生成することに進み、該モデルは呼吸モデル記憶34に記憶される。
これに対し、モニタリング段階の間は、位相検出モジュール30は信号キャッシュ28に記憶されたデータをモニタリングし、完全な呼吸サイクルに対応するデータが記憶されるとすぐ、位相検出モジュールはそのデータを信号比較モジュール36に渡す。信号比較モジュール36はその信号を、呼吸モデル記憶34に記憶されている主成分解析呼吸モデルと比較する。
呼吸モデル記憶34に記憶されている主成分解析呼吸モデルが生成される仕方のため、モデルは、最新の検出された呼吸サイクルが患者20についての正常な呼吸の通常の変動の範囲内の呼吸サイクルに対応しているかどうかを識別することになる。記憶された主成分解析呼吸モデルが、最新の検出された呼吸サイクルをモデル化できないとしたら、このことは、患者の呼吸が異常であることを示す。この実施形態では、信号比較モジュール36が二つの相続く異常呼吸サイクルを検出する場合、信号比較モジュール36は治療装置16に信号を送って、二つの相続く正常な呼吸サイクルが検出されるまで治療を中断する。このようにして、患者20が治療の間に咳をしはじめた場合、患者が再び正常に呼吸しはじめるまで治療は停止される。
〈呼吸モデルの生成〉
不規則な呼吸を検出するために呼吸モデルを生成するために図1の患者モニタによって実行される処理について、これから図2〜図5を参照して詳細に述べる。
図2を参照すると、この図は図1の処理患者モニタによって執り行われる処理の流れ図である。呼吸モデルが生成されるべきとき、最初に(S2-1)、立体視カメラ10が患者20上のマーカー22の画像を取り込む。
これらの画像は次いで3D位置決定モジュール25に渡される。3D位置決定モジュール25は得られた立体視画像を処理して(S2-2)、画像中のマーカー22の位置を特定する。一対の画像間のマーカー22の位置は次いで、立体視カメラをなすカメラ間の相対位置に関する記憶されているデータとともに通常の方法で一緒に処理されて、取り込まれた一対の画像内のマーカーの位置の差をマーカー22の3D位置の瞬間測定値に変換する。
3D位置決定モジュール25は次いで、この3D位置を参照位置と比較し、両者の間の距離を計算する。この実施形態において、参照位置は、患者20の胸腔内のどこかにある参照位置に対応する。3D位置決定モジュール25は次いで計算された距離測定値を信号キャッシュ28に渡し、距離測定値はそこに、クロック26から得られた、前記距離指標を生成するために使われた画像が立体視カメラ10によって取得された時間を示すタイムスタンプとともに記憶される(S2-3)。
図3Aは、モニタリングされる呼吸のある期間にわたる、3D位置決定モジュール25によって信号キャッシュに記憶されうるようなタイミングおよび位置データのプロットの例示的な図である。信号はほぼ周期的であるが、典型的な信号は、個々の呼吸サイクルについての呼気と吸気の相対的な程度および個々の呼吸サイクルの継続時間の両方に起因して変動することに気づかれるであろう。さらに、患者が個々の息をわずかに異なる仕方でするので、諸呼吸サイクルについてのデータの全体的な形は変動する。呼吸におけるこの自然な変動のため、呼吸の周期性の変動を検出することに基づく単純な検出器は満足いくものではないことがある。たとえ呼吸が比較的規則的であるときでも、周期性の変動は生じうるのである。
図3Aに示されるようないくつかの呼吸サイクルについての位置およびタイミング・データが信号キャッシュ28内に記憶されたとき、位相検出モジュール30は、記憶された信号データを処理して該信号データをいくつかの区画に分割することに進む(S2-4)。ここで、各区画は個々の呼吸サイクルに対応し、記憶された信号によって示される呼吸の正常な変動の呼吸モデルが生成できる(S2-5)。
記憶されている呼吸信号を図3Bに示されるような個々の呼吸サイクルに対応する区画に分割するために位相検出モジュール30によって執り行われる処理について、これから図4を参照して詳細に述べる。
〈位相検出〉
図4を参照すると、この図は呼吸信号をいくつかの区画に分割することに関わる処理の流れ図である。ひとたびいくつかの呼吸サイクルについての位置およびタイミング・データが信号キャッシュ28に記憶されると、位相検出モジュール30はその信号を個々の呼吸サイクルを表す区画に分割する。それには、記憶されている信号を処理して各呼吸サイクルの中間および始まり/終わりに対応する点を識別する。これらの点は最大および最小の位置値を判別することによって識別できる。最大および最小の位置値はそれぞれ、呼吸サイクルに関連する最大の吸気および呼気の点に対応するであろう。
異なる呼吸サイクルの間の吸気および呼気の程度の変動のため、この識別は、位置測定値そのものを通じて信頼できる形で直接達成することはできない。しかしながら、最大および最小は、信号が向きを変える点を識別することによって識別できる。しかしながら、そのためには真の最大および最小と極大および極小との間の区別ができることが必要である。そうした局所的な極大および極小は、ノイズまたは呼吸における一般的な不規則性に起因して生じうるものである。
この目的のため、呼吸信号において最大吸気および呼気終了に対応する点を識別するため、最初に(S4-1)、信号は二次曲線とマッチされる。この実施形態では、信号はルジャンドル二次曲線にマッチされる。ルジャンドル二次曲線は、区間[−1,1]上で定義された二次曲線であり、A0+x・A1+(x2−1/3)・A2の形をもつ。そのような曲線の場合、三つの基底関数{1,x,x2−1/3}は、この区間にわたる積分に関して直交するという性質をもつ。しかしながら、一般に、積分の離散バージョン、たとえば対応する範囲にわたって定義される和を使うときには、これらの基底関数は直交ではない。この場合、サンプリングx値の新しい集合のそれぞれについて、補正を計算する必要がある。それは、A0+x・A1+(x2−t)・A2の形を与える。ここで、tは推定されるべき補正であり、三つの基底関数{1,x,x2−t}は選ばれた和に関して直交する。
信号データ(x1,y1)へのあてはめ(fitting)は、係数A0、A1、A2についての過剰決定連立方程式A0+xi・A1+(xi2−t)・A2=yiを解く標準的な技法を使って達成できる。{1,x,x2−t}の直交性は、この連立方程式が非常によい条件をもち(well conditioned)、よってノイズおよび丸め誤差に耐性をもつということを意味することを注意しておく。
ひとたび呼吸信号が好適なルジャンドル二次式とマッチされたら、呼吸信号についての記憶されているすべてのデータ点が、マッチされた二次式の挙動に基づいて分類されることができる(S4-2)。より具体的には、信号キャッシュ28内の位置およびタイミング・データの記憶されている各項目は:
a)対応する曲線が、考えられている点を中心とするある範囲にわたって増加する;
b)対応する曲線が、考えられている点を中心とする前記範囲にわたっての最大値を、前記範囲の中心の右側にもつ;または
c)対応する曲線が、考えられている点を中心とする前記範囲にわたっての最小値を、前記範囲の中心の左側にもつ、
場合に増加(increasing)として分類できる。
すると、残りの点は減少(decreasing)として分類される。
すると、最大および最小に対応する信号は、これらの分類を使って識別できる(S4-3)。記憶されている信号の場合、これは、点のシーケンスの分類を考え、分類の変化によって識別される点を識別することによって達成される。その際、最大は、分類が増加から減少に変わる点として識別でき、最小は分類が減少から増加に変わるところで識別できる。あるいはまた、単に直前の諸点と比べて分類が変わることを通じて潜在的な最大および最小を識別できる。そのような代替的なシステムは、信号が信号キャッシュに記憶されるとすぐに処理されるリアルタイムの点の分類のためにとくに好適であろう。単なる極大および極小を検出することを避けるために、最大および最小の検出は分類の変化が起こり、かつ検出される最大または最小に続く少なくとも三つの相続く点が同じ分類を維持する点のみに制限されることができる。
呼吸信号をこのようにして処理すると、呼吸信号データは、最小信号が検出されるところで信号を分割することによって、一連の呼吸サイクルに対応するデータに分割できる(S4-4)。そのようなデータの分割の結果が図3Bに示されている。このようにして正常な呼吸を表す呼吸信号を分割することは、一連の例示的な呼吸サイクルを表すデータを提供する。これが次いで、これから詳細に述べる、呼吸モデルを生成するために利用される(S2-5)。
〈主成分解析呼吸モデルの生成〉
図5に目を転じると、この図は、呼吸モデルを生成するための、区分された呼吸信号の処理の流れ図である。位相検出モジュール30が呼吸信号を、それぞれ単一の呼吸サイクルに対応する一連のサンプルに区分してしまうと、各サンプルが順にモデル生成モジュール32によって処理される。信号キャッシュ28に記憶されている絶対的なタイミング・データがまず、相対的なタイミング測定値の集合に変換される。これは、特定の呼吸サイクルに関連する最小のタイミング・データをそのサイクルについてのタイミング・データの全項目から引くことによって行われる。
呼吸信号において識別された諸区画は、通常、変動する長さ(期間)の諸区画を含み、結果として、異なる数のデータ点を含む。好適なモデルが生成できるよう、区分された信号のそれぞれは次いでサンプリングし直されて(S5-1)、それぞれ完全な呼吸サイクルの一部分に関連する一連のビンに入れられる。
これを達成するために、まず第一に、好適なビン・サイズが選択される。この実施形態では、この選択は、データが記憶されている各呼吸サイクルに関連するデータ点の平均数を考えることによって行われる。任意の特定の呼吸信号について、位置およびタイミング・データの記憶された項目のそれぞれは、呼吸サイクル内のデータの項目の相対位置に基づいて特定のビンに関連付けられる。こうして、呼吸サイクルが100個のビンにサンプリングし直される場合、呼吸サイクルの開始に関連付けられたタイミングおよび位置データは最初のビンに関連付けられ、呼吸サイクルの終わりに関連付けられたタイミングおよび位置データは最後のビンに関連付けられ、位置およびタイミング・データの残りの項目は、呼吸サイクルの検出された開始および終了に対する相対的なタイミングに依存して、中間のビンに関連付けられる。特定の信号について、ある特定のビンにどのデータも割り当てられない場合には、ビンについての好適なタイミングおよび位置データが、隣接するタイミングについてのデータを使ってタイミングおよび位置データを補間することによって生成される。逆に、呼吸サイクルの特定の部分について、位置およびタイミング・データの複数の項目が同じビンに割り当てられる場合、ビンに関連するタイミングおよび位置の値の平均が決定され、そのビンについて記憶される。この処理の結果は、検出された呼吸サイクルのそれぞれについて、サンプリングし直されたデータのセットが存在することになるというものである。ここで、各呼吸サンプルについてのデータのタイミング・位置の対の数は同じである。
サンプリングし直された信号は次いで、始まり、ピークおよび終わりの振幅の間の差があればそれを考慮するために調整される(S5-2)。理想的なセッティングでは、すべての区分された呼吸信号は、吸気および呼気フェーズの一部として、同様の開始、ピークおよび終了振幅をもつことになるが、これは実地においては当てはまらない。振幅範囲の変動は、区分された呼吸信号の実際の形とも独立である。したがって、区分された呼吸信号の形をモデル化することにおけるいかなる有害な効果をも減じるために、トレーニング・サンプル中に存在しうるいかなる整列誤差(misalignment)をも減じることが重要である。
この実施形態では、これは、吸気および呼気シーケンスが他の信号に対して異なる振幅範囲内にあるあらゆる信号を整列誤差がある区分呼吸信号として同定することによって達成される。そのような整列誤差がある信号に関連付けられた位置データは、次いで、この差を取り除くために修正される。これは、区分された呼吸信号のすべての区画の平均振幅(重心)を、サンプル中の最初のものを基準として中心化する(centring)ことによって達成される。これは、ある基準区画に対して、サンプル中のすべての区画の振幅範囲の最小二乗最小化を実行することと等価である。サンプリングし直された区分された呼吸信号のこの位置合わせ(registration)は、シーケンス中の区分された呼吸信号の平均形を精確に反映する平均区分呼吸信号を計算することを可能にする。
特定のサイクル中での吸気または呼気の程度におけるいかなる変動についても考慮するよう位置データを調節してしまうと、サンプル平均区分呼吸信号( ̄付きのX)が、位置合わせされサンプリングし直された区分呼吸信号Xiを使って計算される(S5-3)。これは、すべての区分呼吸信号の振幅および期間を合計し、それをサンプル・サイズで割ることによって達成される。これは、
Figure 0004914921
と表せる。ここで、各Xiは、区分呼吸信号振幅および期間値をもつ長さMのベクトルであり、Nはサンプル・サイズである。
次いで、すべてのXi(M×N行列Xの列)および ̄X〔 ̄付きのX〕を使ってサンプル共分散行列Sが計算される(S5-4)。これは、主成分解析を使って、使用されたサンプルに存在しうる区分呼吸信号形の主要なまたは著しい変動を計算するのに先立って行われる。したがって、Sは:
Figure 0004914921
と計算される。
次いで主成分解析を使って、位置合わせされサンプリングし直された区分呼吸信号サンプル・データにおいて存在する主要なまたは著しい変動が捕捉される(S5-5)。これらの変動は、サンプル中に存在する種々の区分呼吸信号が平均形から変動した種々の形を指示する。したがって、主成分解析は、サンプル共分散行列Sの固有分解(eigen decomposition)を実行することを通じて、固有ベクトルPj(変動の諸方向)および固有値λj(固有ベクトルに対応する分散)の組として主変動jを識別する。次いで主変動は、固有値λjの降順に配列される。すると、最も著しい変動をもつ諸方向Pjが同定できる。これらの著しい変動は、信号キャッシュ28に記憶されている観察された区分呼吸信号中の変動に最も寄与する、形および期間の変動を示す変動ということになる。
最後に、信号キャッシュ28に記憶されているそのサンプル呼吸信号についての主成分解析モデルが、サンプル平均 ̄X〔 ̄付きのX〕ならびに主成分解析を使って計算された変動Pjおよびλjを同定するデータを記憶することによって、呼吸モデル記憶34に記憶される(S5-6)。したがって、この記憶されたモデルが線形生成モデルを定義する。ここで、区分呼吸信号Yは:
Figure 0004914921
として生成されることができる。ここで、すべてのwjは、種々の主変動の寄与を変えるのに使われる重みであり、Tはモデル中で使われる主変動の数である。
この実施形態では、重みwjは、個々の主変動jが表示されるときに±2の値を与えられ、Tは、順序付けられたλjから計算される、サンプル分散の90〜100%を捕捉する変動の数として選ばれる。
線形生成モデルは、次節で論じるように、区分呼吸信号PCAモデルを新たに取り込まれた区分呼吸信号データにあてはめる(fit)ことをも可能にする。
〈ライブ・データの呼吸モデルとの比較〉
異常呼吸の期間を識別するための生成された呼吸モデルの使用について、ここで図6および図7を参照して述べる。
図6を参照すると、この図は、生成された呼吸モデルを使って不規則な呼吸の期間を識別する、患者モニタによって執り行われる処理の流れ図である。患者モニタによって執り行われる最初の処理は、本質的には、呼吸モデルを生成するために初期トレーニング・サンプルを取得するときに執り行われる処理と同一である。呼吸モデルの生成に関連して述べたように、最初に立体視カメラ10によって画像データが取得され(S6-1)、患者20の表面上に存在するマーカー22の位置についての位置データを判別するために処理される(S6-2)。この位置データが次いで、タイムスタンプとともに信号キャッシュ28に記憶される(S6-3)。
位相検出モジュール30が次いで、信号キャッシュ28に記憶されているデータを処理し(S6-4)、呼吸サイクルの始まりおよび終わりの点を識別する。これは、呼吸モデルが生成されるときに記憶されている信号中の呼吸サイクルの開始点および終了点を識別することに関係して先述した仕方で達成される。位相検出モジュール30がある完全な呼吸サイクルについてのデータが信号キャッシュ28に記憶されたと識別すると、記憶された信号は信号比較モジュール36に渡される。信号比較モジュール36は、その信号を記憶されている呼吸モデルと比較することによって、その信号を解析する。信号比較モジュール36によって実行される解析の結果、二つの相続く信号が呼吸モデル記憶34に記憶されている呼吸モデルによってモデル化できないと判定される(S6-6)場合、信号比較モジュール34は治療装置16に信号を送り、正常な呼吸が再開されて前記呼吸モデルによってモデル化できる二つの相続く呼吸サイクルが検出されるまで、治療を停止させる。
異常な呼吸を識別するために取得された呼吸信号を呼吸モデル記憶34に記憶されている呼吸モデルと比較するための、信号比較モジュール36によって執り行われるあてはめ手順について、ここで図7を参照して詳細に述べる。
図7に目を転じると、この図は、呼吸信号を記憶されている呼吸モデルと比較することに関わる処理の流れ図である。最初に(S7-1)、取り込まれた呼吸信号データが、呼吸モデルの生成に関係して先に論じたのと同じ仕方でサンプリングし直される。したがって、この再サンプリングは、取り込まれた呼吸信号を表す位置およびタイミング・データの対のセットを生成するようなものである。ここで、データの対の数は呼吸モデルを生成するときに呼吸信号をサンプリングし直すのに使われたビンの数に対応する。
次いで、サンプリングし直された呼吸信号の振幅(位置)測定値が調節される(S7-2)。これは、ステップS5-2において先述された、異なる呼吸サイクルにおける異なる吸気の程度および最大呼気を考慮するために区分呼吸信号のサンプルが調節されるのと同じ仕方である。この調節は、その後のあてはめプロセスが、両者の振幅範囲におけるいかなる整列誤差も補償する必要なしに、記憶された呼吸モデルを呼吸信号にあてはめることができることを保証する。
サンプリングし直された調節された呼吸信号をモデル化するための一組の重みwjは次のように計算される(S7-3):
Figure 0004914921
ここで、 ̄X〔 ̄付きのX〕は区分呼吸信号モデルの平均区分呼吸信号、Pjはその固有ベクトル、λjはその固有値である。
ひとたび記憶された呼吸モデルを使って新しい呼吸信号の表現を計算してしまうと、あてはめの品質が評価され(S7-4)、達成された形がもっともらしいあてはめであるかどうかが判定される。
この実施形態では、もっともらしいあてはめは、振幅形および期間が区分呼吸信号モデルのトレーニング・データにおける振幅形および期間と非常に似通っているものとして識別される。したがって、もっともらしいあてはめの指標Dは、あてはめされた区分呼吸信号モデルと区分呼吸信号モデルの平均との間のマハラノビス距離として計算される。したがって、区分呼吸信号モデルあてはめプロセスの一環として計算される重みwjを使って、Dは
Figure 0004914921
のように計算される。この距離は、あてはめされたモデルのサンプル平均からの逸脱を表し、値Dmaxと比較される。Dmaxは、モデルに含まれる自由度の数r(主変動の数r=T)およびこれらの自由度によって表現される確率p(T個の主変動によって捕捉される全変動の割合)についてのカイ二乗値χ2 p(r)に基づいて選ばれる。したがって、
Figure 0004914921
であり、もっともらしいあてはめは、D≦Dmaxを満たすものである。
良好な区分呼吸信号データをもって構築されたモデルに基づいて悪い区分呼吸信号を検出するとき、もっともらしいあてはめの評価は、精確なあてはめ評価というよりは、区分呼吸信号が良好である(モデルのトレーニング・セットのものと似ている)または悪い(モデルのトレーニング・セットのものと似ていない)ことの指示を与える。区分呼吸信号が悪いとマークされる度合いは、DがDmaxよりどれだけ大きいかを評価することによって定量化することもできる。あてはめの精度がある閾値より低いと判定される場合、これは、その呼吸サイクルが異常であることを示し、二つの相続く呼吸サイクルが検出される場合には、正常な呼吸が再開されるまで治療は停止されることができる。
〈第二の実施形態〉
本発明の第二の実施形態についてこれから述べる。第一の実施形態による呼吸サイクルの規則性の判定では、患者モニタ・システムによって収集された区分呼吸信号の比較に基づく装置が記載されている。第二の実施形態では、不規則な呼吸と患者の動きの両方を検出できる改良されたシステムが記載される。さらに、この実施形態に基づくシステムは、患者20の表面上にマーカー22を置くことに依存しない。
本発明のこの実施形態に基づく患者モニタリング・システムの全体的な構成は、図1の患者モニタリング・システムと同様であるが、例外として、患者20上のマーカー22が用意される必要がなく、3D位置決定モデル25は、立体視カメラ10によって得られる画像を処理して、カメラ10から見た患者表面の3Dワイヤ・メッシュ・モデルを生成するよう修正される。立体視カメラの画像を処理して患者の3Dワイヤ・メッシュ・モデルを生成する好適な手段は、PCT出願WO2004/004828として公開されている、本出願人の以前の、係属中の米国特許出願US10/516400において詳細に記載されている。この文献はここに参照によって組み込まれる。
最初の実施形態と同様、3D位置決定モジュール25による処理の結果がタイムスタンプとともに信号キャッシュ28に記憶される。よって、このようにして、一連の3Dワイヤ・メッシュ表面および関連付けられたタイムスタンプ・データが信号キャッシュ28に記憶される。いくつかの正常な呼吸サイクルについてのデータが記憶されたら、このデータが次いで修正された位相検出モジュール30およびモデル生成モジュール32によって処理され、ある呼吸サイクルを通じて患者の表面が変動する仕方をモデル化する主成分解析呼吸モデルが生成される。この呼吸モデルは次いで呼吸モデル記憶34に記憶される。
その後、モニタリング段階の間には、立体視カメラ10によって得られた画像が3D決定モジュール25によって処理され、3D表面データおよびタイミング・データが信号キャッシュ28に記憶される。位相検出モジュール30は次いである完全な呼吸サイクルについてのデータが記憶され終わった時を識別する。次いで信号比較モジュール36が取得された信号を記憶されている主成分解析モデルと比較し、モデルが生成された表面データにマッチできなくなる時を識別する。そうする際、信号比較モジュール36は、検出された表面を記憶されたモデルとの整列に引き戻すために必要とされる動きをも決定する。記憶されている呼吸モデルが現在の呼吸サイクルをモデル化できないことが見出される場合、このことは、不規則な呼吸または患者動きが起こったことを示す。すると、治療を停止させる信号が治療装置16に送られることができ、動きが起こった場合には、患者20を再整列させて治療が継続できるようにするために、是正動作を行うための好適な命令が決定され、機械的な台18に送られることができる。
この実施形態において位相検出モジュール30、モデル生成モジュール32および信号比較モジュール36によって執り行われる処理について、ここで図8および図9を参照して詳細に述べる。
〈表面ベースの呼吸モデルの生成〉
立体視カメラ10によって得られる画像を処理することによって表面データが生成される仕方のため、相続く表面の間の穴(hole)および突出値(outlier)といった不整合(inconsistency)が生じる。こうした不整合を克服するために、変動する表面特性を受け入れるためのメッシュ変形および穴充填が必要とされる。この実施形態においてこれを達成するために、表面を表すデータがまず(S8-1)、エネルギー最小化プロセスを使って処理される。ここで、エネルギー項は:(i)立体視カメラ10によって得られた画像の最初の対についての表面である初期参照表面と、立体視画像のその後の対について生成された表面との間の点と点の関係、ならびに、(ii)初期参照表面の表面メッシュのエッジ属性、について定義される。これらのエネルギー項は、両表面上の対応する頂点について定義される。これらの項の最小化が、参照頂点のその後の表面に向かった変換を与える。その際、前記その後の表面の形と、前記参照表面の表面属性とが保持されるようにされる。
参照表面とその後の表面の上での対応する頂点iについてのデータ(点から点)エネルギーεdataおよび平滑性(メッシュ)エネルギーεsmoothnessは次のように定義される。
Figure 0004914921
ここで、Xnは参照表面、Xn+1はその後の表面についての投影された表面、iは参照表面および投影された表面の両方についての頂点のインデックス、jは参照表面上で頂点iに接続されたE個すべての頂点についての頂点インデックスである。
参照表面の表面属性を維持しながらその後の表面の形を保存する平滑な投影された表面を計算するために最小化される、頂点iについての組み合わされたエネルギーεは、次のように定義される:
ε(i)=αεdata(i)+βεsmoothness(i)
ここで、εはεdataおよびεsmoothnessの、α,β∈Rとしての重み付きの和である。αおよびβは、その後の表面にマッチするための、よってその後の表面の形をもつが参照表面のなめらかなメッシュをもつ平滑な投影された表面を与えるよう参照表面の変形を制御するために使われる。ゲーティングされた(gated)表面についてαおよびβの値は1.0および0.2に選ばれる。これらの値が形の保持と表面の平滑さの間の良好な兼ね合いを与えるからである。
所与の頂点iについて組み合わされたエネルギーが最小化されるとき、εを最小化する最小化並進(translation)tが計算される。この並進は
Figure 0004914921
のように計算される。
したがって、平滑な投影された表面Zn+1
Zn+1(i)=Xn(i)+tn+1(i)
として定義される頂点iの組をもつことになる。
取り込まれたシーケンスについてのゲーティングされた表面のサンプリングし直された組として、平滑な投影された表面Zの組が使用された。このサンプリングし直された組は次のように記述される:
Z={X1,Z1+t2,Zn-1+tn,…,ZN-1+tN
ここで、最初の参照表面はサンプリングし直された集合における最初、すなわちZ1=X1であり、その後のすべてのサンプリングし直された表面は直前のサンプリングし直された表面の、生成されたその後の表面上への平滑表面投影として計算される、すなわちZn=Zn-1+tnである。
位相検出モジュール30は次いで(S8-2)、立体視カメラ10によって取り込まれた平滑化された3Dワイヤ・メッシュ表面を表すデータを処理して、平滑化された表面それぞれについて、患者20の表面上のいくつかの点の位置を同定するデータを取得する。これらの点が表面から表面へと一貫して追跡される。
この実施形態では、このことは、立体視カメラ10によって取得された最初の画像の対についての最初の表面上で、点の最初の選択をすることによって達成される。これらの点は、患者の胸部に対応する、モニタリングされるべき関心のある領域にわたって比較的均一に散らばるよう選択される。
立体視カメラ10によって得られる次の画像の対について生成される表面上で、これらの点に対応する新しい位置を同定するために、各点が順に考慮される。その際、ある点における法線ベクトルと、カメラ1によって取り込まれた次の画像の対について生成された表面との交点が決定される。次いでこれがモニタリングされる他の点のすべてについて繰り返される。この処理の結果は、その時点においてモニタリングされている点の、新しい画像によって表現される位置を識別することである。次いでこれは、信号キャッシュに記憶されている相続く各表面モデルについて繰り返されることができる。
こうして、この段階では、コンピュータ14は、3D位置データによって生成される表面のそれぞれについて、データの集合{ti,xi,1,…,xi,n}を記憶したことになる。ここで、tiは立体視カメラ10によって取り込まれた画像iに関連付けられたタイミングを示し、xi,1,…,xi,nは時刻tiにおける患者の表面上での点1…nの3D位置を示す。
位相検出モジュール30は次いで(S8-3)、このデータを利用して、データの各セットが特定の呼吸サイクルと関連付けられることを可能にする呼吸信号を導出する。
これをするために、この実施形態では、位相検出モジュール30は、特定の画像の対についてデータが記憶されているモニタリングされる点それぞれの、最初の画像の対についての表面におけるそれらの点の対応する位置に対する距離を示す距離指標を計算する。この実施形態では、このことは、距離指標
Figure 0004914921
を計算することによって達成される。ここで、r(i)は、対応する表面XnとXn+1の間の符号付きの距離、すなわちr(i)=|Xn+1(i)−Xn(i)|sgnであり、すべてのr(i)は|r(n)|≦|r(n+1)|となるように順序付けられている。XnおよびXn+1は、Iによってインデックス付けされる全部でM個の頂点をもつが、U個の頂点がU≦Mとなるよう選ばれる。Xnは参照表面であり、これがその後の表面上に投影されて対応する表面Xn+1を与える。
初期表面とすべてのその後の表面との間の距離指標は次いで、呼吸信号を形成するために使われる。その呼吸信号は次いで、記憶されたデータをいくつかの異なる呼吸サイクルについてのデータに分割するために使われる。これは第一の実施形態との関係で先に述べたのと同様である。
データの諸セット{ti,xi,1,…,xi,n}を、それぞれ異なる呼吸サイクルに対応するデータの諸グループに分割してしまうと、モデル生成モジュール32は、そのデータを使って主成分解析モデルを生成することに進む(S8-4)。これは、第一の実施形態における主成分解析モデルの生成と同様にして行われる。
より具体的には、サンプル平均表面 ̄Z〔 ̄付きのZ〕は、追跡される位置についての位置データを合計し、これらの和をサンプル・サイズで割ることによって計算される。これは:
Figure 0004914921
と表せる。ここで、Nはサンプル・サイズであり、すべてのZnおよび ̄Z〔 ̄付きのZ〕は{xi,1,…,xi,n}の形のベクトルである。
次いで、Znおよび ̄Z〔 ̄付きのZ〕を使ってサンプル共分散行列Wが計算される。これは、主成分解析を使ってサンプル表面に存在する表面形の主要なまたは著しい変動を計算するのに先立って行われる。
したがって、Wは:
Figure 0004914921
と計算される。
その際、エッカート・ヤング定理を使って、Wから好適な固有値および固有ベクトルが計算されることが保証される。
所与のサンプルについての表面ベースの主成分解析呼吸モデルが次いで、サンプル平均 ̄Z〔 ̄付きのZ〕ならびに主成分解析を使って計算された主変動P(j)およびλ(j)によって定義される。この主成分解析モデルは線形生成モデルを定義する。ここで、表面Yは:
Figure 0004914921
として生成されることができる。ここで、すべてのw(j)は、種々の主変動の寄与を変えるのに使われる重みであり、Tはモデル中で使われる主変動の数である。重みw(j)は通常、個々の主変動jが表示されるときに±2の値を与えられ、Tは、順序付けられたλ(j)から計算される、サンプル分散の90〜100%を捕捉する変動の数として選ばれる。
〈ライブ・データの表面ベースの呼吸モデルとの比較〉
表面ベースの主成分解析呼吸モデルが呼吸モデル記憶34に記憶されたのち、異常な呼吸および/または患者の動きを識別するために、新たに捕捉されたデータが記憶されているモデルとマッチされる。それについてここで図9を参照して述べる。図9は、呼吸信号を記憶されている呼吸モデルと比較することに関わる処理の流れ図である。
最初に(S9-1)、新たに取り込まれた表面データが、表面モデルの平均表面の構成(表面トポロジーおよび頂点数)とマッチするようサンプリングし直される。これは、表面モデルを取り込まれたにあてはめるために必要である。これにより、モデルを新しい表面にあてはめるときに使う正しい重みを決定するための計算ができるようになるのである。
この実施形態では、この再サンプリング工程は、結果として得られるサンプリングし直された表面が取り込まれた表面に精確にマッチすることを保証する、2段階の投影および位置合わせ手法を使って実行される。
第一に、記憶された表面呼吸モデルの平均表面が取り込まれた表面に投影される。両表面の間の初期対応を確立するためである。平均表面および投影された表面は次いで、一般化プロクルステス法(a Generalised Procrustes approach)を使って位置合わせされ、その結果、平均表面は取り込まれた表面により近く位置される。平均表面は次いで取り込まれた表面に投影され、結果として得られる投影は、モデルあてはめ工程のためのサンプリングし直された表面として使用される。次いで、平均表面はモデルあてはめに先立ち、そのもとの位置に復される。
ひとたび再サンプリングされた取り込まれた表面が表面モデルの平均にマッチするよう確立されたら、モデルの線形生成モデルを使って精確なモデルが計算される(S9-2)。これは、新しい表面Z′をモデルにマッチさせるために計算される重みwjの集合の決定につながる。ここで、重みwjは次のように計算される:
Figure 0004914921
ここで、 ̄Z〔 ̄付きのZ〕はゲーティングされた表面モデルの平均表面、P(j)はその固有ベクトル、λ(j)はその固有値である。
ひとたび主成分表面モデルが取り込まれた表面にあてはめられたら、あてはめの品質が評価され(S9-3)、達成された形が精確なあてはめまたはもっともらしいあてはめであったかどうかが判定される。
この実施形態では、精確なあてはめは、位置および形が、取り込まれたゲーティングされた表面と非常に似通っているものとして識別される。したがって、あてはめられたモデルの精度を決定するために、あてはめられたモデルとサンプリングし直されたゲーティングされた表面との間の距離指標εが計算される。εは、あてはめられたモデルと取り込まれた表面の頂点の間の平均距離として計算される。すなわち、ε=|Z′−Y|である。ε≦εmaxとなるよう「良好な」あてはめを定義する閾値εmaxが、ゲーティングされた表面モデルをそのトレーニング・データにあてはめ、
Figure 0004914921
のいずれかを選択することによって計算されることができる。
もっともらしいあてはめは、位置および形が、ゲーティングされた表面モデルのトレーニング・データにおいて観察される位置および形と非常に似通っているものとして識別される。したがって、もっともらしいあてはめの指標Dは、あてはめされたゲーティングされた表面モデルとモデルの平均との間のマハラノビス距離として計算される。したがって、モデルあてはめプロセスの一環として計算される重みwjを使って、Dは
Figure 0004914921
のように計算される。この距離は、あてはめされたモデルのサンプル平均からの逸脱を表し、値Dmaxと比較される。Dmaxは、モデルに含まれる自由度の数r(主変動の数r=T)およびこれらの自由度によって表現される確率p(T個の主変動によって捕捉される全変動の割合)についてのカイ二乗値χ2 p(r)に基づいて選ばれる。したがって、
Figure 0004914921
であり、もっともらしいあてはめは、D≦Dmaxを満たすものである。
正常な呼吸データ(正常な呼吸シーケンスの取り込まれた諸表面)を用いて構築された表面ベースの呼吸モデルを使って正常な呼吸および異常な呼吸を検出するとき、精確なおよびもっともらしいあてはめの評価は、新たに取り込まれた表面が正常な位置および形(モデルのトレーニング・セットのものと似ている)をもつか異常な位置および形(モデルのトレーニング・セットのものと似ていない)をもつかの合理的な指示を与える。取り込まれた表面が異常であるとマークされる度合いは、εがεmaxより、あるいはDがDmaxよりどれだけ大きいかを評価することによって定量化することもできる。
あるあてはめられたゲーティングされた表面モデルの精度を比較するとき、εmaxはmaxnε(εn)と選ばれる。これは新たに取り込まれた表面が評価されるときに「突出値」の位置および形のよりよい指示を与えるからである。もっともらしさの評価は、カイ二乗分布から取られた定義されたDmax値を使って実行される。精度評価ともっともらしさ評価の両方がなされることが好ましいことが判定されている。というのも、両者は一緒になって、対象の取り込まれた位置および形が正常な呼吸の期間の間に観測されたものと整合するかどうかを判定する簡潔な手段を提供するからである。
表面がモデルからある閾値以上に異なる場合には、このことは、サンプルに対する良好なマッチが達成できないことを示す。この実施形態では、このことが起こると判定される場合、信号比較モジュール36は治療装置16に治療を停止するよう信号を送る(S9-4)。さらに、信号比較モジュール36は、取り込まれた表面データを、記憶されている呼吸モデルによって表される表面の期待される位置と整列させ直す(realign)のに要求される並進を計算する。異常呼吸の期間にわたってこの補正並進がほぼ一貫していれば、これは患者20が動いたことを示すことになる。すると、治療が継続できるよう患者20を正しい位置に整列させ直すために、補正命令の適切なセットが機械的な台18に送られることができる。
〈さらなる修正および補正〉
前記第一の実施形態では、患者の表面上の単一の点の時間的な動きの変動をモニタリングするシステムが記載されている。これに対し、前記第二の実施形態では、表面データを患者の表面が正常な呼吸の間に変動する仕方のモデルにマッチさせるシステムが記載されている。本質的に、この第二の実施形態は、患者の表面上の複数の異なる点の動きを時間を追ってモニタリングすることと等価である。
こうして、第一の実施形態の場合、{t,x}の形のデータが各画像フレームについて取り込まれる。これに対し、第二の実施形態の場合には、{t,x1,…,xn}の形のデータが取り込まれ、システムは患者の表面上のn個の点の変動をモニタリングする。さらなる実施形態では、患者の表面上の点の位置だけを考えるのではなく、モニタリングされる点の動きおよび速度がモデル化されることができる。そのようなシステムでは、相続く画像は、{v1,…,vn}の形のデータを決定するよう処理されることができる。ここで、v1,…,vnは、モニタリングされる患者の表面上の諸点の位置および速度を示すベクトルである。そのようなシステムは、呼吸サイクルが完了するのを待つことなく、患者の動きおよび異常な呼吸の両方が検出されることを可能にするであろう。
前記第一の実施形態では、患者20の表面上にマーカー22を置くことに関わるシステムが記載されたが、そのようなマーカー22の使用は単に患者20の表面上の点の動きの追跡を簡単にするものであって、前記第二の実施形態において記載されたようなシステムは、そのようなマーカー22なしで患者の表面上の単一の点の動きを追跡するために利用されることもできることは理解されるであろう。
他の実施形態では、立体視カメラを使って患者20の表面上の点の動きを追跡するのではなく、呼吸信号を得るために他の手段が使われることもできる。よって、たとえば、無線信号を出力するマーカー22が利用され、追跡されることができる。あるいはまた、流量計を使って、患者の肺への空気のスループットの直接測定値を得て、得られたデータを使って生成される呼吸モデルを得ることもできる。
前記第一の実施形態では、呼吸サイクルについてのデータが記憶されている呼吸モデルを使ってモデル化できるかどうかを判定するための単一のもっともらしさ指標が記載されたが、取り込まれたデータがモデル化できる程度の他の指標を使うこともできることは理解されるであろう。
よって、たとえば、取り込まれた呼吸サイクルが記憶されているモデルによって表される呼吸サイクルと似通った振幅をもつかどうかを識別するために、あてはめられたモデルとサンプリングし直され位置合わせされた新しい区分呼吸信号との間の距離指標εが、あてはめられたモデルの精度を決定するために計算されることができる。すると、あてはめられたモデルの区分呼吸信号振幅および期間と新しい区分呼吸信号との間の平均距離E、すなわちε=|X′−Y|が決定されることができ、その結果が、「良好な」あてはめを定義する閾値tと比較されることができる。
Figure 0004914921
のいずれかを選択して、ε≦tとするのである。
上記の実施形態では、不規則な呼吸が検出されたときに治療装置が不活動にされるシステムが記載されてきたが、他のシステムまたは実施形態では、他の動作が執り行われることができることは理解されるであろう。よって、たとえばCTスキャナの場合、スキャナを不活動にするのではなく、異常な呼吸が起こっている間に得られたスキャンが単にそのようにラベル付けされることができる。そうすれば、ある呼吸サイクルの間の患者の内部器官の動きのその後の4Dモデルは、正常な呼吸の間に得られたスキャンのみを使って生成できる。
さらなる代替は、放射線療法の信頼できる適用を助けるべく患者ができるだけ呼吸を制御する呼吸トレーニングの間に行われうるような、いかなる治療装置もなしでの呼吸モニタを使うことであろう。呼吸トレーニングの間、患者は典型的には、理想化された呼吸信号を表す仕方で上下する棒グラフの形であってもよいトレーニング信号を見せられ、その際、患者は呼吸をしかるべく制御しようと試みる。その際、上記のシステムは、制御された呼吸のモデルを生成するために使われることができ、すると患者は、システムによってモデル化された自分の呼吸の変動性に関して、呼吸がどのくらいよく制御されていたかについてのフィードバックを与えられることができる。そのような実施形態では、というより実はいかなる実施形態でも、システムはディスプレイに接続され、不規則な呼吸または動きが検出されたときに警告を出力することができる。
呼吸モデルは、治療の間のある機会に、たとえばCT収集の間に生成されることができ、その後の諸機会において正常呼吸についての同じモデルが再利用されることができることは理解されるであろう。あるいはまた、各治療セッションのはじめに正常な呼吸の期間から新しいモデルが生成されることができる。
上記の実施形態では、異常な呼吸または患者の動きが検出されるときに放射線の適用を停止するシステムが記載されてきたが、本システムの諸実施形態が、放射線が適用されるときの呼吸サイクルの諸部分を選択するために使われることもできることは理解されるであろう。こうして、たとえば、前記第二の実施形態のシステムの場合、取り込まれた表面が所定の参照表面から高々ある閾値距離しか離れていないときにのみ患者20を照射するよう構成されることができる。
さらに、ひとたび異常呼吸が検出されたら、治療を停止させるいかなる判断もする前に、異常呼吸そのものをさらに分類することができることは理解されるであろう。こうして、たとえば、システムは、異常呼吸を識別し、その呼吸が単に速い呼吸を表す場合には治療は継続されてもよく、一方、その呼吸が咳に対応するとして分類される場合にはシステムが治療を停止させうるように構成されてもよい。
上記の実施形態では、呼吸の主成分解析モデルが生成されるシステムが記載されてきたが、正常な呼吸に対応する動きの変動を可能にするいかなる好適な形のモデル化を使うこともできることは理解されるであろう。よって、主成分解析の代わりに、呼吸サンプルについて独立成分解析モデルが生成されることができ、その場合、異常呼吸はその後取り込まれたデータを生成された独立成分解析モデルと比較することによって識別できる。
図面を参照して記載される本発明の実施形態は、コンピュータ装置およびコンピュータ装置において実行されるプロセスを有するが、本発明は、本発明を実施するよう適応されたコンピュータ・プログラム、特に担体上または担体内のコンピュータ・プログラムにも広がる。プログラムは、ソース・コードまたはオブジェクト・コードの形であってもよく、あるいは本発明に基づくプロセスの実装において使用するのに好適な他のいかなる形であってもよい。担体はプログラムを担持できるいかなる実体またはデバイスであってもよい。
たとえば、担体は、ROM、たとえばCD-ROMまたは半導体ROM、あるいは磁気記録媒体、たとえばフロッピー(登録商標)ディスクまたはハードディスクのような記憶媒体を含みうる。さらに、担体は、電気信号または光信号といった、電気ケーブルもしくは光ケーブルを介してまたは無線もしくは他の手段によって伝達されうる伝送可能担体であってもよい。
プログラムがケーブルまたは他のデバイスもしくは手段によって直接伝達されうる信号において具現されるとき、担体はそのようなケーブルまたは他のデバイスもしくは手段によって構成されてもよい。
あるいはまた、担体は、関連するプロセスを実行するために、あるいは関連するプロセスの実行において使用するために適応された、前記プログラムが埋め込まれる集積回路であってもよい。

Claims (15)

  1. 患者をモニタリングする方法であって:
    複数の呼吸サイクルの間、患者の表面上の諸点の動きを示す測定値を表すデータを取得する段階と;
    取得されたデータを使って1呼吸サイクルの間の患者の前記表面上の諸点の位置の変動の成分解析モデルを生成する段階と;
    その後のある呼吸期間の間、患者の前記表面上の諸点の位置を示す測定値を表すさらなるデータを取得する段階と;
    前記の生成された成分解析モデルを使ってあてはめされた、前記さらなるデータの表現と、前記成分解析モデルを生成するのに使われたデータの平均表現との間のマハラノビス距離を計算する段階と;
    前記計算されたマハラノビス距離を閾値と比較する段階とを含む方法。
  2. 請求項1記載の方法であって、前記成分解析モデルを生成する段階が、主成分解析モデルまたは独立成分解析モデルを生成することを含む、方法。
  3. 請求項1または2記載の方法であって、複数の呼吸サイクルの間、患者の表面上の諸点の動きを示す測定値を表すデータを取得する前記段階、ならびに、その後のある呼吸期間の間、患者の前記表面上の諸点の位置を示す測定値を表すさらなるデータを取得する前記段階が:
    患者の画像を得る段階と;
    得られた画像を処理して、該得られた画像に現れる患者の表面上の諸点の位置を決定する段階とを含む、
    方法。
  4. 請求項3記載の方法であって、さらに:
    モニタリングされるべき患者の前記部分にマーカーを位置させる段階を含み、ここで、得られた画像を処理して、該得られた画像に現れる患者の表面上の諸点の位置を決定する前記段階が、画像中に現れるマーカーの位置を決定するよう得られた複数の画像を処理する段階を含む、
    方法。
  5. 請求項3記載の方法であって、得られた画像を処理して、該得られた画像に現れる患者の表面上の諸点の位置を決定する前記段階が:
    得られた画像を処理して、該得られた画像に現れる患者の表面の3Dワイヤ・メッシュ・モデルを生成する段階と;
    生成された3Dワイヤ・メッシュ・モデルを利用して、前記患者の表面上の一つまたは複数の点の位置を決定する段階とを含み、
    成分解析モデルを生成する前記段階が、1呼吸サイクルの間の前記患者の表面上の一つまたは複数の点の位置をモデル化する成分解析モデルを生成する段階を含む、
    方法。
  6. 請求項5記載の方法であって、
    前記得られた画像に現れる患者の表面の生成された3Dワイヤ・メッシュ・モデルを、前記生成された成分解析モデルを使って生成された前記表面のモデル化された表現と比較する段階と;
    前記3Dワイヤ・メッシュ・モデルを前記モデル化された表現と一致させるために必要とされる変換を決定する段階とをさらに含む、
    方法。
  7. 請求項6記載の方法であって、前記3Dワイヤ・メッシュ・モデルを前記モデル化された表現と一致させるよう決定された変換に基づいて、機械的な台に患者の位置を直させる信号を生成する段階をさらに含む、方法。
  8. 請求項1ないし7のうちいずれか一項記載の方法であって、成分解析モデルを生成する前記段階が:
    取得されたデータを処理して、該データを異なる呼吸サイクルに関連付けられるデータに分割する段階と;
    呼吸サイクルの過程での患者の前記表面上の諸点の位置の変動の成分解析モデルを生成する段階とを含む、
    方法。
  9. 前記計算されたマハラノビス距離が前記閾値を超える場合、治療装置に治療を中断させる信号を生成する段階をさらに含む、請求項1ないし8のうちいずれか一項記載の方法。
  10. コンピュータが解釈できる命令を記憶するコンピュータ可読媒体であって、前記命令は、プログラム可能なコンピュータによって実行されると、該コンピュータに:
    複数の呼吸サイクルの間、患者の表面上の諸点の動きを示す測定値を表すデータを取得する段階と;
    取得されたデータを使って1呼吸サイクルの間の患者の前記表面上の諸点の位置の変動の成分解析モデルを生成する段階と;
    その後のある呼吸期間の間、患者の前記表面上の諸点の位置およびタイミングを示す測定値を表すさらなるデータを取得する段階と;
    前記の生成された成分解析モデルを使ってあてはめされた、前記さらなるデータの表現と、前記成分解析モデルを生成するのに使われたデータの平均表現との間のマハラノビス距離を計算する段階と;
    前記計算されたマハラノビス距離を閾値と比較する段階とを実行させる、
    コンピュータ可読媒体。
  11. 患者モニタであって:
    患者の表面上の諸点の位置を示す測定値を決定するよう動作可能な3D位置決定モジュールと;
    前記3D位置モジュールによって決定された患者の表面上の諸点の位置を示す測定値をタイミング・データと関連付けるよう動作可能なクロック・モジュールと;
    複数の呼吸サイクルについての得られた位置およびタイミング・データを使って、1呼吸サイクルの間の患者の前記表面上の諸点の位置の変動の成分解析モデルを生成するよう動作可能なモデル生成モジュールと;
    前記モデル生成モジュールによって生成された成分解析モデルを使ってあてはめされた、前記3D位置決定モジュールおよび前記クロック・モジュールによって得られた位置およびタイミング・データの表現と、前記生成された成分解析モデルを生成するのに使われたデータの平均表現との間のマハラノビス距離を計算し、前記計算されたマハラノビス距離を閾値と比較するよう動作可能な比較モジュールとを有する、
    患者モニタ。
  12. 請求項11記載の患者モニタであって、さらに:
    前記3D位置決定モジュールによって得られた患者の表面上の諸点の位置を示す測定値を処理して、測定値を種々の呼吸サイクルに関連付けるよう動作可能な位相検出モジュールを有しており、前記モデル生成モジュールは、前記3D位置決定モジュールによって決定された測定値を前記位相検出モジュールによって種々の呼吸サイクルに関連付けたものを使って、1呼吸サイクルの間の患者の前記表面上の諸点の位置の変動の成分解析モデルを生成するよう動作可能である、
    患者モニタ。
  13. 請求項11または12記載の患者モニタであって、さらに:
    モニタリングされるべき患者の画像を取得するよう動作可能な立体視カメラを有しており、前記3D位置決定モジュールは、前記立体視カメラによって得られた画像を処理して、モニタリングされる患者の表面上の諸点の位置を示す測定値を決定するよう動作可能である、
    患者モニタ。
  14. 請求項13記載の患者モニタであって、さらに機械的な台を有しており、前記比較モジュールが:
    前記立体視カメラによって得られた画像に現れる患者の表面の3Dワイヤ・メッシュ・モデルを、前記モデル生成モジュールによって生成された成分解析モデルを使って生成された前記表面のモデル化された表現と比較する段階と;
    前記3Dワイヤ・メッシュ・モデルを前記モデル化された表現と一致させるために必要とされる変換を決定する段階と、
    前記決定された変換に基づいて、前記機械的な台に患者の位置を直させる信号を生成する段階とを実行するよう動作可能である、
    患者モニタ。
  15. 治療装置をさらに有する、請求項11ないし14のうちいずれか一項記載の患者モニタであって、前記比較モジュールは、前記計算されたマハラノビス距離が前記閾値を超える場合、前記治療装置に治療を中断させる信号を生成するよう動作可能である、患者モニタ。
JP2009526178A 2006-09-05 2007-09-05 患者モニタ Active JP4914921B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0617472.6 2006-09-05
GB0617472A GB2441550A (en) 2006-09-05 2006-09-05 Surface-imaging breathing monitor
PCT/GB2007/003333 WO2008029121A1 (en) 2006-09-05 2007-09-05 Patient monitor

Publications (3)

Publication Number Publication Date
JP2010502244A JP2010502244A (ja) 2010-01-28
JP2010502244A5 JP2010502244A5 (ja) 2011-11-04
JP4914921B2 true JP4914921B2 (ja) 2012-04-11

Family

ID=37232402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009526178A Active JP4914921B2 (ja) 2006-09-05 2007-09-05 患者モニタ

Country Status (5)

Country Link
US (3) US9028422B2 (ja)
EP (1) EP2086405B1 (ja)
JP (1) JP4914921B2 (ja)
GB (2) GB2441550A (ja)
WO (1) WO2008029121A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014104360A (ja) * 2012-11-27 2014-06-09 Ge Medical Systems Global Technology Co Llc 同期放射線治療の方法及びシステム

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3117768B1 (en) 2006-05-19 2019-11-06 The Queen's Medical Center Motion tracking system and method for real time adaptive imaging and spectroscopy
GB2441550A (en) * 2006-09-05 2008-03-12 Vision Rt Ltd Surface-imaging breathing monitor
JP5295391B2 (ja) * 2009-02-12 2013-09-18 ヴィジョン アールティー リミテッド 患者モニタおよび方法
CN102361595A (zh) * 2009-03-25 2012-02-22 皇家飞利浦电子股份有限公司 用于呼吸适应的成像的方法和装置
US8235530B2 (en) * 2009-12-07 2012-08-07 C-Rad Positioning Ab Object positioning with visual feedback
EP2380493A1 (en) * 2010-04-21 2011-10-26 Koninklijke Philips Electronics N.V. Respiratory motion detection apparatus
CN102933142B (zh) * 2010-06-04 2015-09-02 皇家飞利浦电子股份有限公司 基于幅度/斜率的运动时相映射
US8229071B2 (en) * 2010-07-12 2012-07-24 Siemens Medical Solutions Usa, Inc. Gated burst mode radiation treatment of moving targets
US8238519B2 (en) 2010-07-12 2012-08-07 Siemens Medical Solutions Usa, Inc. Rotational radiation treatment of moving targets
JP5743445B2 (ja) * 2010-07-13 2015-07-01 株式会社東芝 放射線コンピュータ断層撮影装置、医用画像発生装置及び呼吸位相計測装置
JP5682203B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
JP5508553B2 (ja) * 2011-02-17 2014-06-04 三菱電機株式会社 粒子線治療装置
WO2012140531A1 (en) * 2011-04-14 2012-10-18 Koninklijke Philips Electronics N.V. Device and method for extracting information from characteristic signals
US8600132B2 (en) * 2011-05-03 2013-12-03 General Electric Company Method and apparatus for motion correcting medical images
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US20130100269A1 (en) * 2011-10-20 2013-04-25 Jay Shiro Tashiro System and Method for Assessing an Individual's Physical and Psychosocial Abilities
JP6230807B2 (ja) * 2012-04-11 2017-11-15 東芝メディカルシステムズ株式会社 放射線治療システム
US20130338525A1 (en) * 2012-04-24 2013-12-19 Irobot Corporation Mobile Human Interface Robot
US9486647B2 (en) * 2012-04-27 2016-11-08 Elekta Ab (Publ) Vision system for radiotherapy machine control
KR101376834B1 (ko) * 2012-04-27 2014-03-20 가천대학교 산학협력단 피사체의 실시간 움직임 추적 및 의료영상 보정 방법
CL2012002230A1 (es) 2012-08-10 2013-04-26 Infratec Bioingenieria Limitada Un sistema de cuantificacion del grado de enfermedaes neurodegenerativas.
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
EP2767233A1 (en) * 2013-02-15 2014-08-20 Koninklijke Philips N.V. Device for obtaining respiratory information of a subject
BR112015021277A2 (pt) 2013-03-06 2017-07-18 Koninklijke Philips Nv sistema para determinar informações de sinais vitais de um indivíduo, método para determinar as informações de sinais vitais de um indivíduo e programa de computador
KR101464330B1 (ko) * 2013-04-26 2014-11-24 서울대학교병원 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
KR101513229B1 (ko) 2013-04-26 2015-04-20 서울대학교병원 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
WO2014175608A1 (ko) * 2013-04-26 2014-10-30 재단법인 아산사회복지재단 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
GB2516282B (en) 2013-07-17 2017-07-26 Vision Rt Ltd Method of calibration of a stereoscopic camera system for use with a radio therapy treatment apparatus
US10493298B2 (en) * 2013-08-02 2019-12-03 Varian Medical Systems, Inc. Camera systems and methods for use in one or more areas in a medical facility
US9456947B2 (en) 2013-08-08 2016-10-04 Vision Rt Limited Head positioning device
WO2015042138A1 (en) * 2013-09-17 2015-03-26 The Board Of Trustees Of The Leland Stanford Junior University Apparatus for obtaining high-quality optical images in a magnetic resonance imaging system
DE102013219232A1 (de) * 2013-09-25 2015-03-26 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung einer Atmungsbewegung eines Untersuchungsobjektes
JP6040915B2 (ja) * 2013-11-12 2016-12-07 株式会社デンソー 呼吸機能検査装置及びプログラム
CN103610470A (zh) * 2013-12-05 2014-03-05 赛诺威盛科技(北京)有限公司 一种ct设备扫描的实时监控装置和方法
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
EP3175426B1 (en) * 2014-07-30 2019-09-25 Brainlab AG Online patient reconstruction and tracking for patient setup in radiation therapy using an iterative closest point algorithm
GB2530790B (en) 2014-10-02 2016-10-19 Vision Rt Ltd Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus
GB2532077B (en) 2014-11-10 2017-11-22 Vision Rt Ltd Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus
EP3226754B1 (en) * 2014-12-02 2021-02-03 Brainlab AG Human body measurement using thermographic images
GB2537686A (en) * 2015-04-24 2016-10-26 Vision Rt Ltd Patient positioning training apparatus
GB2538260B (en) 2015-05-12 2017-07-05 Vision Rt Ltd A method of calibrating a sterescopic camera system
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
DE102015215584B4 (de) * 2015-08-14 2022-03-03 Siemens Healthcare Gmbh Verfahren und System zur Rekonstruktion von Planungsbildern
CN108697367A (zh) 2015-11-23 2018-10-23 凯内蒂科尓股份有限公司 用于在医学成像扫描期间跟踪并补偿患者运动的系统、装置和方法
JP6304718B2 (ja) * 2016-01-04 2018-04-04 みずほ情報総研株式会社 呼吸計測システム、呼吸計測システムの動作方法及び呼吸計測プログラム
WO2018069419A1 (en) * 2016-10-11 2018-04-19 Koninklijke Philips N.V. Detection and measurement of breathing using an optical camera and projected shadows
US10192307B2 (en) 2016-10-27 2019-01-29 Xerox Corporation System and method for extracting a periodic signal from video
EP3586309B1 (en) * 2017-02-24 2023-04-05 Brainlab AG Deep inspiration breath-hold setup using x-ray imaging
US10624599B2 (en) * 2017-07-31 2020-04-21 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for motion signal correction
GB2565119A (en) 2017-08-02 2019-02-06 Vision Rt Ltd Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus
CN107684669B (zh) * 2017-08-21 2020-04-17 上海联影医疗科技有限公司 用于校正对准设备的系统和方法
JP6611833B2 (ja) * 2018-01-16 2019-11-27 キヤノン株式会社 放射線撮影システム、並びに、カメラ制御装置及びその制御方法
GB201802597D0 (en) 2018-02-16 2018-04-04 Vision Rt Ltd A calibration object for calibrating a patient monitoring system
US11120622B2 (en) 2018-06-08 2021-09-14 Data Integrity Advisors, Llc System and method for biophysical lung modeling
FR3094889B1 (fr) * 2019-04-12 2022-08-19 Quantum Surgical Dispositif et procédé de contrôle de la respiration d’un patient pour un robot médical
CN115515500A (zh) 2020-03-25 2022-12-23 数据完整性顾问有限责任公司 用于在x射线设备内定位患者的系统及方法
EP4171385A1 (en) * 2020-06-25 2023-05-03 Australian Lung Health Initiative Pty Ltd Imaging device and method for optimising image acquisition
EP4319640A1 (en) * 2021-04-05 2024-02-14 Carestream Health, Inc. Personalized critical care imaging
DE102022109402A1 (de) 2022-04-19 2023-10-19 L A P Gmbh Laser Applikationen Verfahren und System zum Unterstützen der Positionierung eines Patienten

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5931779A (en) * 1996-06-06 1999-08-03 Wisconsin Alumni Research Foundation Real-time in-vivo measurement of myoglobin oxygen saturation
US6937696B1 (en) 1998-10-23 2005-08-30 Varian Medical Systems Technologies, Inc. Method and system for predictive physiological gating
US6980679B2 (en) * 1998-10-23 2005-12-27 Varian Medical System Technologies, Inc. Method and system for monitoring breathing activity of a subject
US6621889B1 (en) * 1998-10-23 2003-09-16 Varian Medical Systems, Inc. Method and system for predictive physiological gating of radiation therapy
JP2000217802A (ja) * 1999-01-28 2000-08-08 Japan Science & Technology Corp 検体の胸郭内の空気の流れの測定法およびその装置
US9183351B2 (en) * 2000-05-30 2015-11-10 Vladimir Shusterman Mobile system with network-distributed data processing for biomedical applications
US7485095B2 (en) * 2000-05-30 2009-02-03 Vladimir Shusterman Measurement and analysis of trends in physiological and/or health data
US8388530B2 (en) * 2000-05-30 2013-03-05 Vladimir Shusterman Personalized monitoring and healthcare information management using physiological basis functions
US7801591B1 (en) * 2000-05-30 2010-09-21 Vladimir Shusterman Digital healthcare information management
US7343197B2 (en) * 2000-05-30 2008-03-11 Vladimir Shusterman Multi-scale analysis and representation of physiological and health data
GB2371964A (en) * 2001-01-31 2002-08-07 Tct Internat Plc Surface imaging for patient positioning in radiotherapy
GB2390792B (en) * 2002-07-08 2005-08-31 Vision Rt Ltd Image processing system for use with a patient positioning device
BRPI0313823B8 (pt) * 2002-08-30 2021-06-22 Univ Florida método e aparelho para predizer o trabalho da respiração
US7620444B2 (en) * 2002-10-05 2009-11-17 General Electric Company Systems and methods for improving usability of images for medical applications
GB2465298B (en) * 2004-09-24 2010-06-30 Vision Rt Ltd Image processing system for use with a patient positioning device
US8027715B2 (en) * 2004-10-02 2011-09-27 Accuray Incorporated Non-linear correlation models for internal target movement
US8042209B2 (en) * 2005-04-13 2011-10-25 University Of Maryland Techniques for compensating movement of a treatment target in a patient
US20070231779A1 (en) * 2006-02-15 2007-10-04 University Of Central Florida Research Foundation, Inc. Systems and Methods for Simulation of Organ Dynamics
GB2441550A (en) * 2006-09-05 2008-03-12 Vision Rt Ltd Surface-imaging breathing monitor
JP5682203B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
WO2012140531A1 (en) * 2011-04-14 2012-10-18 Koninklijke Philips Electronics N.V. Device and method for extracting information from characteristic signals
US9486647B2 (en) * 2012-04-27 2016-11-08 Elekta Ab (Publ) Vision system for radiotherapy machine control
US9456947B2 (en) * 2013-08-08 2016-10-04 Vision Rt Limited Head positioning device
GB2538260B (en) * 2015-05-12 2017-07-05 Vision Rt Ltd A method of calibrating a sterescopic camera system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014104360A (ja) * 2012-11-27 2014-06-09 Ge Medical Systems Global Technology Co Llc 同期放射線治療の方法及びシステム

Also Published As

Publication number Publication date
JP2010502244A (ja) 2010-01-28
EP2086405A1 (en) 2009-08-12
GB2455238B (en) 2011-10-05
US20150216450A1 (en) 2015-08-06
EP2086405B1 (en) 2015-03-25
GB0617472D0 (en) 2006-10-18
US20090187112A1 (en) 2009-07-23
US10154803B2 (en) 2018-12-18
GB2455238A (en) 2009-06-10
GB2441550A (en) 2008-03-12
US20190083004A1 (en) 2019-03-21
US11147478B2 (en) 2021-10-19
US9028422B2 (en) 2015-05-12
WO2008029121A1 (en) 2008-03-13
GB0901581D0 (en) 2009-03-11

Similar Documents

Publication Publication Date Title
JP4914921B2 (ja) 患者モニタ
US10646188B2 (en) Method and system for radiation application
US9232928B2 (en) Method and system for predictive physiological gating
EP2070478B1 (en) Detection of the position of a moving object and treatment method
US7260426B2 (en) Method and apparatus for tracking an internal target region without an implanted fiducial
EP1633437B1 (en) Apparatus using synchronized breathing to treat tissue subject to respiratory motion
JP5295391B2 (ja) 患者モニタおよび方法
US20160098836A1 (en) Image processing device and program
US9993663B2 (en) Estimating position of an organ with a biomechanical model
US20050201509A1 (en) Breathing synchronized computed tomography image acquisition
JP2004167109A (ja) 3次元計測方法、3次元計測システム、画像処理装置、及びコンピュータプログラム
WO2018211696A1 (ja) 動体追跡装置
WO2019198394A1 (ja) 医用画像処理装置、医用画像処理方法、およびプログラム
Calow et al. Photogrammetric measurement of patients in radiotherapy
JP2017121271A (ja) 呼吸計測システム、呼吸計測システムの動作方法及び呼吸計測プログラム
Samadi Miandoab et al. Calculation of inter-and intra-fraction motion errors at external radiotherapy using a markerless strategy based on image registration combined with correlation model
WO2024052136A1 (en) Providing pose information for x-ray projection images
Hugo -Online Monitoring, Tracking, and Dose Accumulation
Dhou Image-based Respiratory Motion Extraction and Respiration-correlated Cone Beam Ct (4d-cbct) Reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110913

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110913

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20111005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120123

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4914921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250