JP6813592B2 - 臓器の動作補償 - Google Patents

臓器の動作補償 Download PDF

Info

Publication number
JP6813592B2
JP6813592B2 JP2018553453A JP2018553453A JP6813592B2 JP 6813592 B2 JP6813592 B2 JP 6813592B2 JP 2018553453 A JP2018553453 A JP 2018553453A JP 2018553453 A JP2018553453 A JP 2018553453A JP 6813592 B2 JP6813592 B2 JP 6813592B2
Authority
JP
Japan
Prior art keywords
needle
target
location
tracking
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018553453A
Other languages
English (en)
Other versions
JP2019520098A (ja
Inventor
モーメン アバヤズィッド
モーメン アバヤズィッド
伸彦 波多
伸彦 波多
貴久 加藤
貴久 加藤
ブライアン ニンニ
ブライアン ニンニ
淳一 徳田
淳一 徳田
スチュアート ジー シルバーマン
スチュアート ジー シルバーマン
ジミン ルー
ジミン ルー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brigham and Womens Hospital Inc
Canon USA Inc
Original Assignee
Brigham and Womens Hospital Inc
Canon USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brigham and Womens Hospital Inc, Canon USA Inc filed Critical Brigham and Womens Hospital Inc
Publication of JP2019520098A publication Critical patent/JP2019520098A/ja
Application granted granted Critical
Publication of JP6813592B2 publication Critical patent/JP6813592B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B18/1477Needle-like probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6848Needles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00699Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00707Dummies, phantoms; Devices simulating patient or parts of patient
    • A61B2017/00716Dummies, phantoms; Devices simulating patient or parts of patient simulating physical properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Plasma & Fusion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Otolaryngology (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Surgical Instruments (AREA)

Description

関連出願の相互参照
本出願は、2016年4月12日に出願された同時係属中の米国仮出願第62/321,495号と2016年8月9日に出願された同時係属中の米国仮出願第62/372,541号とについて優先権を主張し、その個々の内容については、参照によりその全体を本明細書に組み込む。
連邦政府による支援を受けた研究に関する記載
政府は、受賞番号P41EB015898の下で国立衛生研究所の国立生物医学画像・生物工学研究所に従ってこの発明における権利を所有することがある。
本開示は、医用デバイスに関する。より詳細には、本開示は、呼吸中などの臓器(organ)の動作を評価するための装置および方法を例証している。
肝臓などの臓器の中への経皮的な針の挿入は、普通の低侵襲的な外科手順である。針は、生検やアブレーションなどの診断および治療の用途それぞれにしばしば使用される。超音波、磁気共鳴画像、コンピュータ断層撮影(CT)スキャン、および、X線透視装置によるコーンビームCTなどの臨床撮像技術は、針位置およびターゲット位置を取得するために針挿入の手順中に使用される場合がある。手順の成功は、針の配置精度に依存している。針の不正確な配置は、生検やアブレーションの場合に、誤診および不十分な処置をそれぞれ引き起こす場合がある。ターゲティングの不正確さは、手順中の患者の動作や、体液の流れや呼吸などの生理的プロセスによって引き起こされる場合がある。
呼吸の動作は、特に、肝生検では、不正確な針配置の主要因であると考えられる。肝臓が横隔膜の直下に位置するので、呼吸動作によって強く影響を及ぼされる。肝臓は、吸気の間には、横隔膜が収縮するので、下位方向に押され、また、呼気の間には、上位方向に動く。肝臓は、対象と血管の分岐トポロジの間で寸法および形状の大きな変化を示し、胆管も、いろいろな変則を示す場合がある。したがって、全対象に適用可能な肝臓の標準的な解剖学的アトラスを確立することは、難しい仕事である。肝臓の中の腫瘍に関して、Kitamura et al.(IJRO Biology*Physics 56(1),221〜228(2003))は、動作の範囲が、肝臓の中のそれらの位置、肝硬変(瘢痕の末期)、および、手術歴、に或る程度依存していることを示した。しかしながら、これらのファクタは、肝臓の中のターゲットの動作を予測するために十分ではない。呼吸動作の患者特有の査定は、それ故に、非常に望ましい。
息止めは、呼吸動作を補償するための最も一般的な方法である。この方法の主な欠点は、場合によっては患者がその息を十分な時間止めておくことができないということである。加えて、この技術は、自動化が、医師の呼吸段階の知識がワークフローの中に統合されていないシステムの中に組み込まれるときには、適していない。他の動作補償技術は、呼吸動作を追跡するために開発されてきた。これらの技術は、代理を得るために人の胸や胃のまわりに位置決めされる圧電ベルトを含む。ベルトの動きは、ベルトを引き伸ばし、代理信号として使用される測定可能な電荷を作り出す。別の技術は、小さな蛇腹式チューブを患者の胸のまわりに位置決めする呼吸ベローズ(breathing bellows)であり、圧力センサに連結される。他の技術は、ゲーティング、マーカ追跡および放射制御に基づいている。
しかし、これらの技術の多くは、金属の存在かまたは器具と互換性のないデバイス寸法のどちらかのせいで、画像と共に使用するのに適していない。
さらに、ナビゲーションソフトウエア、針案内メッシュ、および、定位的針案内装置(マニュアルまたはロボット)などのガイダンスデバイスの使用は、ガイダンスデバイスが針配置の精度に役立つためにだんだんと使用されているので、同じく重要である。しかしながら、これらのデバイスは、多くの場合、介入が適用されるターゲット臓器の動作を取り扱う能力を有していない。このことは、患者が息止めできないときかまたはそれに非協力的であるときのいずれかにおいて特に関連するようになる。これらの例では、動いている臓器の場所に基づいて望ましいアプローチ経路を更新するために介入ツールを事前計画したツールアプローチ経路に整列させるガイダンスデバイスおよび方法が無力であることは、特に問題である。
加えて、これらのデバイスおよび方法は、呼吸や患者の相対的な動きについて様々な推定を行う。例えば、腫瘍などのターゲット位置の現実の場所が望ましいが、これらの方法は、それどころか、ベルト下の皮膚の局所的動作のようなもの、すなわち、皮膚の表面近くの筋肉の動きの変化、を測定する。こうして、臓器動作のより直接的な測定と比較して、呼吸中に臓器の場所を提供するこれらのデバイスおよび方法には、精度の低下が存在する。
このように、上述した課題を克服するために、また、臓器の動作を評価するための正確および/または精密な情報を提供するために、新規技術の必要性が存在する。
本発明の少なくとも1つの実施形態に従って、動作追跡方法(motion tracking method)が提供され、追跡針(tracking needle)を臓器の中に部分的に挿入することであって、センサ要素(sensor element)が追跡針に取り付けられる、挿入することと、追跡針および臓器の少なくとも一部分における少なくとも1つの画像を取得することと、少なくとも1つのターゲット位置(target position)の情報を画像から取得することと、連続的な針の向き情報(needle orientation information)を(代理リアルタイム信号として)センサ要素から取得することと、代理信号(針の向き)をターゲット位置と関連付けて、対応モデル(correspondence model)を取得することと、対応モデルに基づいてターゲット位置のある瞬間の場所(instantaneous location)を決定することと、を含む。本方法は、1呼吸サイクル範囲内の複数の画像を取得することを含むことができる。機械学習アルゴリズムは、関連付けのために使用することができ、トレーニングセットは、複数の画像および連続的な針の向き情報を含む。
本発明の他の実施形態は、動作追跡システムを含み、追跡針と、追跡針に取り付けられるセンサ要素と、データ処理システムと、表示器または針ガイダンスデバイスを出力デバイスと、を含む。データ処理システムは、連続的な針の向き情報をセンサ要素から取得し、センシング要素からの測定した代理信号(針の向き)をターゲット位置と関連付けて、対応モデルを取得し、前記ある瞬間の場所を対応モデルに基づいて決定するように構成される。
本開示のこれらや他の目的、特徴、および、利点については、添付図面に関連して解釈するときの本開示の例示的な実施形態の以下の詳細な説明と、提供した特許請求の範囲と、を読むとすぐに明らかになるであろう。
本開示の更なる目的、特徴、および、利点については、本開示の例証的な実施形態を示す添付図面に関連して解釈するときに、以下の詳細な説明から明らかになるであろう。
図1(A)は、患者に挿入された追跡針を示す実施形態の図である。図1(B)は、追跡針のより接近した図である。図1(C)は、追跡針を示して第2の治療用の針を含む実施形態の図である。 図2は、追跡針と針ガイダンスデバイスを示す実施形態の図である。 図3は、呼吸を示す挿入された追跡針の図である。 図4は、動作追跡システムを含む図である。 図5は、ジャイロスコープを含む本発明の実施形態の図である。 図6は、ジャイロスコープを含む本発明の実施形態の図である。 図7は、肝臓の中の特定点のマーキングした場所を含む肝臓のコンピュータ断層撮影(CT)画像である。 図8は、例3のための実験設備の図である。 図9は、事前処理ユニットおよび学習に基づくアルゴリズムを有する実験設備の図である。
図面全体にわたって、同じ参照符号および文字は、別段の記述が無い限り、例証する実施形態の同じような特徴、要素、構成要素または部分を表すために使用されている。さらに、主題の開示は、これから詳細に図面を参照して説明されるであろうが、例証的で例示的な実施形態に関連して、そのようにされる。意図することは、変更および修正が、説明する例示的な実施形態について行うことができ、添付の特許請求の範囲によって画定されるような主開示の真実の範囲および精神から逸脱しない、ということである。
呼吸中のターゲット動作を測定するための患者特有のアプローチは、本明細書で提供される。向き情報を提供するように構成されるセンサ要素は、患者のボディの外側の針の撓みを測定するために、追跡針に取り付けられる。この代理信号は、臓器が挿入される臓器の1つまたは複数の画像から取得される臓器動作の情報に関連付けされる。関連付けは、呼吸中のターゲット動作を推定するのに適したアルゴリズムを用いて遂行され、ターゲットの動作を推定し、その結果として正確な針配置を提供し、こうして経皮的な針介入の臨床的結果を改善する。アルゴリズムは、呼吸中に肝臓の動きを推定するために動いている肝臓の中に挿入(現実のターゲティング挿入前に)された追跡針の向きの変化を測定するために慣性測定装置(IMU)を使用する場合がある。さらにまた、機械学習アルゴリズムは、代理信号(IMUデータ)を呼吸中の現実のターゲット動作に関連付ける対応モデルである場合がある。
こうして、図1(A)および図1(B)に提供されるように、患者10は、病変部30を含む内臓20を有する。患者は、病変部30が臓器20内のどこに位置するかおよび病変部30におけるターゲット位置の場所を決定するために撮像されることがある。取付式のセンサ要素50を有する追跡針40は、内臓20の中に挿入される。センサ要素50を有することも有しないこともある第2の針60が存在することもある。この第2の針60は、生検やアブレーションのためなどの治療の目的のために使用される。第1の追跡針40上に位置するセンサ要素から得られる代理信号のおかげで、第2の針60は、より正確にターゲット位置30の中に配置することができる。
追跡針40の挿入後に、1つまたは複数の追加の治療用の針(therapeutic needle)60(図1(C)参照)は、ターゲット位置30で同様に挿入され、あるいは、病変部内の他のターゲット位置の中に代替的に挿入されることがある。これらの追加の針は、針の場所、向き、変位等々についての追加の情報を提供できるセンサ50を任意選択で同じく含む。しかしながら、センサ50を治療用の針に含めることは、必要とされない。
追跡針40は、本明細書で使用するとき、穿刺用に相応しい先端を有する細長い器具である。それは、例えば、生検針、中空コアを持たない針、あるいは、カニューレスリーブであることがある。本明細書で説明するものと異なった形状や寸法を有する針は、使用してもよい。実施形態によっては、追跡針は、いくらか剛性を有していなければならず、したがって、臓器の中への部分的な挿入時に針に大きな変形が存在しない。例えば、18、20、または22ゲージの針が使用されることがある。しかしながら、他の実施形態では、より可撓性のある(例えば、細めで低侵襲的な)針は、針に撓みセンサが取り付けられるときに使用されることがあり、撓み代理信号は、針の撓みを補償するために使用される。
追跡針は、臓器の中に部分的に挿入される。こうして、針の少なくとも一部分は、臓器の中にあり、針の一部分は、臓器の外である。センサ要素を含む針の部分は、本明細書で開示するように本方法を通じて患者の外に残される。実施形態によっては、針を、実質上臓器の中に、しかしながら、完全に貫くのではなく、挿入することが好ましい。針は、臓器の直上で患者に挿入されることがあり、あるいは、針は、所定の角度で挿入されることがある。
センサ要素50は、追跡針40の近位端に取り付けられ、位置情報を提供し、位置情報は、少なくともx1軸およびy1軸まわりの回転についての情報を含み、追跡針挿入軸は、z1として画定される。位置情報は、z1軸のまわりの回転についての情報を含むこともある。加えて、センサ要素は、x2軸、y2軸、および/または、z2軸に沿った並進情報などの追加の情報を提供することがあり、z2は、針挿入の点での患者に対して接線方向の軸である。肝臓動作情報を提供する実施形態に関して、x2方向およびz2方向からの情報が好ましく、x2は鉛直軸または長手方向軸である。センサ要素は、例えば、のり、テープ、接着剤、磁気、真空化、ロック機構によって、あるいは、アダプタまたはホルダピースもしくはマルチプルホルダピースの追加を介して、追跡針に取り付けられることがある。センサ要素は、針の内部に埋め込まれることがある。実施形態によっては、センサ要素は、針が臓器の中に挿入された後に、追跡針に取り付けられることがある。
センサは、例えば、電磁センサ、光学センサ、音響センサ、電磁(EM)センサ(例えば、局所EMセンサ)、超音波センサ、PIR動作センサ、変位センサ、慣性センサ、加速度計、磁気計、または、ジャイロセンサを含むことがある。複数のセンサ要素は、単一のセンサ要素の代わりに、設けられることがある。実施形態によっては、針のセンサ要素は、エミッタであり、トランシーバは、例えば、患者上にまたは針案内デバイス上に位置する。実施形態によっては、針のセンサ要素は、トランシーバであり、エミッタは、例えば、患者上にまたは針案内デバイス上に位置する。さらに他の実施形態では、センサは、針上に位置する単一のセンサ要素だけを含む。2以上の針が使用され、各針が斬新なセンサを有するとき、これらのセンサは、共にエミッタであることがあり、単一のトランシーバは、患者上にまたは針案内デバイス上に位置する。
実施形態によっては、センサ要素は、追跡針上にあり、また、センサ要素は、米国特許第9,222,996号などに記載されているリング(または二重リング)形状を有する針案内デバイス上にある。図2に示すように、図1に示す装置は、リング形状を有する針案内デバイスをさらに含み、断面で示されているリング300および310の2つの側面は、追跡針を囲んでいる。リングに取り付けられて、センサ要素200および210は、示されている。このセンサ要素は、リング形状または部分的なリング形状を有することがあり、リングのまわりに延びている。このセンサ要素は、単一の場所にだけ位置する小さめのセンサであることがあり、あるいは、リングまわりの複数のセンサ要素部分を含むことがある。この実施形態は、針ガイダンスデバイスが患者に取り付けられるので、特有の利点を有する。このように、センサ要素200、201は、基準のフレームに取り付けられる。患者のボディの任意の全身運動は、センサ要素(200、210)の同じ全身運動を生じさせるであろう。加えて、針ガイダンスデバイスが患者と位置合わせされるだろうから、実行を要する追加の位置合わせは、より少ない。1つの実施形態では、光学センサは、リング上に位置する。
実施形態によっては、追加のセンサ要素が存在し、追加のセンサ要素は、針の任意の曲げ動作を検出するために使用される。この追加のセンサ要素は、追跡針に取り付けられることもある。特に、細めの針のために、針は、患者への挿入時に曲がる傾向を有することがあり、したがって、内臓の中に位置する針の先端は、患者の外側に残る針の部分と同一線上にない。追加のセンサ要素は、この曲げ動作が起こるか否かを決定するために、また、この動作を補償するために、使用される場合がある。この追加のセンサ要素の追加は、細めの針の使用を可能にし、こうして、患者にとってより回避的でない手順を提供する。
実施形態によっては、第2のセンサ要素、すなわち、追跡針上に位置する第2のセンサ要素は、直線加速度および/または回転速度の情報を含む。この情報は、ターゲット位置のある瞬間の(ある時点での)場所を取得するために、針の向き情報を関連付けするときに、向き情報に加えて使用することができる。
実施形態によっては、追加の情報を提供する追加のセンサや装置は、本明細書で提供するような方法およびシステムにおいて同じく含められることがある。実施形態によっては、追加のセンサ要素は、超音波センサである。この追加のセンサは、腫瘍の場所および視覚化のために使用される場合がある。
実施形態によっては、追加のセンサ要素は、筋電図センサ(EMG)である。呼吸筋からのEMG情報の追加は、咳をするなどの筋肉の動きについての情報を提供する場合がある。
臓器の動作(Organ Motion)
追跡針40に取り付けられるセンサ要素50は、臓器動作を決定するために使用される場合がある。先ず、少なくとも1つの画像は、臓器内の追跡針から取得される。この画像は、ターゲット位置の場所を決定するために臨床医が使用することがあり、そこではターゲット位置が、例えば、生検がそこから行われるであろう点、あるいは、アブレーションが必要とされる点であることがある。代替的に、ターゲット点の場所は、前の画像からあるいは他の手段を介して取得されることがある。
図3に示すように、ターゲット位置30に近い臓器の中に挿入される追跡針40は、吸気および呼気の間に動くであろう。このことは、呼気10の間の患者の皮膚の位置によって図3に実証されており、そこでは針40の位置が示されている。吸気の間、患者の皮膚12は、ターゲット位置32のように、異なる場所にある。針先端の位置は、第1の場所(針40)から、角度θとして、また、ΔxおよびΔyとしても、説明のできる第2の場所(針42)に、動く針の前側の位置をもたらす。
少なくとも1つの画像は、例えば、CTまたはMRI画像であることがある。実施形態によっては、複数の画像が取得される。例えば、少なくとも5、少なくとも8、または、少なくとも10の画像が、5秒、10秒、または、30秒の時間内に取得される。複数の画像は、呼吸サイクルの全体にわたるマッピングを可能にし、画像マップを形成する。実施形態によっては、複数の画像は、画像マップを形成するために1つの呼吸サイクルの範囲内で取得される。他の実施形態では、幾つかの呼吸サイクルにわたる画像は、呼吸サイクルの間の動作のための画像マップを形成するために使用されることがある。
次に、センサ要素からの向き情報は、得られて、そこでは位置動作は、それが患者の呼吸に基づいて変化するので、位置を測定するために連続的に取得されることがある。連続的な針の向き情報は、リアルタイムに取得されることがある代理信号を表しており、あるいは、それが患者の呼吸サイクルに基づいて行われることがある。例えば、向き情報は、呼吸のポーズ中に取得されることがあり、呼吸のポーズは、観察、前の画像データ、または、他の手段から決定されることがある。本明細書で使用するとき、「リアルタイム」は、向き情報を取得するという文脈において使用されているように、情報が、3秒ごとに少なくとも1回、2秒ごとに少なくとも1回、1秒ごとに少なくとも1回、0.5秒ごとに略1回、またはそれより少なく、取得される、ということを意味する。
針の向き情報は、対応モデルを取得するためにターゲット位置に関連付けされ、ここで対応モデルは、ある瞬間の場所のターゲット位置を決定するために使用される。この場所は、患者の呼吸と共に変化するであろう。
図4は、例示的な動作追跡システムを示しており、ここでセンサ要素50は、信号インターフェース70を介してコンソール80に電気的に連結される。この連結も、センサ要素50のための動力を供給する。コンソール80は、本明細書で説明するように関連付けを実行できるデータ処理システムを含むことがある。コンソール80は、さらにインジケータ90および画像サーバ100に連結される。コンソール80は、動作追跡システムに連結されている、例えば、DICOMサーバである画像サーバ100から、医用画像、例えば、CT画像またはMRI画像を受容する。医用画像は、医師がコンソール80によって医療手順を観察、計画、または、変更するのに役立つように注釈付き情報と共にインジケータ90に発送されることがある。
また、コンソール80および/または画像サーバ100は、医師と対話して、医用画像を用いてターゲット位置および/またはターゲット軌道を画定するために、採用される場合がある。例えば、計画中に、医師は、画像サーバ100上の1つまたは複数の医用画像を観察後に、ターゲット位置および/またはターゲット軌道を画定する場合がある。幾つかのターゲット位置および/またはターゲット軌道は、1より多くの展開(例えば、多重針配置)を要求する手順のために画定される場合がある。この情報は、動作追跡システムに発送される場合があり、次いで、システムは、臓器のある瞬間の場所と、その臓器の中のターゲット位置と、を医師が決定するのを助ける場合がある。
システムは、データ記憶装置を含むこともあり、それは、コンソールの中に含められることがあり、または、分離されることがある。このデータ記憶ユニットは、ターゲット位置に針が届くために、ターゲット位置および/または連続的な針の向きならびにターゲット軌道を記憶する。データ記憶ユニットによって記憶される向きおよび/または軌道情報は、例えば、異なった時刻での向き間の類似性や不一致を評価するために使用される場合がある。ターゲット位置を記憶することによって、動作追跡システムは、ターゲット位置と連続的な針の向きとの間の不一致を評価する場合がある。この不一致の場合、医師または針案内デバイスは、呼吸に起因する不一致が最小化されるという理由で、いつ第2の針を挿入するのが適切なのかを知ることができる。
関連付け(Correlation)
データ処理システムは、針の向き情報をターゲット位置に関連付けするために使用される。これは、例えば、補間法によって、データを呼吸位相にマッピングすることによって、行われることがある。代替的に、関連付けは、機械学習を用いて行われることがある。
学習に基づくアプローチは、呼吸中の臓器動作を、その結果として、ターゲット動作を、決定するために使用されることがある。針の向きは、当初はターゲット動作を測定しながら測定される。記録されたデータは、センサから取得された代理信号を呼吸中のターゲット位置に関連付ける対応モデルを形成するために、学習に基づくアルゴリズムのトレーニング用に使用される。多変量回帰法は、次いで、入力として針の向きだけを使用することによってターゲット動作を推定するために使用される。
実施形態によっては、ターゲット位置(EMセンサから取得された)および針の向き(針に取り付けられた向きから)を含むトレーニングデータは、少なくとも20秒(約4呼吸サイクル)の期間、記録される。実施形態によっては、記録は、少なくとも1、2、3、4、5、6、7、8、10、15、20、25、または30秒の期間(または、1、2、3、4、5、6、7、8、9、または10の完全呼吸サイクルの間)のためである。記録したデータは、機械学習アルゴリズムの教師付きトレーニングのために同期化されて使用される場合がある。
実施形態によっては、(マルチラベルおよびマルチターゲット)学習に基づくアルゴリズムは、データをトレーニング点および試験点に分割することによって評価される場合がある。針の向きデータは、次いで、3Dターゲット位置(数値出力)を推定するために、トレーニングされたシステムに対する数値入力として使用される。マルチラベル学習に基づく分類ソフトウエアは、3D空間の中のターゲット位置を推定するために使用される場合がある。
学習に基づくアルゴリズムは、トレーニングデータ点の交差確認によって評価される場合がある。針の向きデータは、次いで、ターゲット位置(数値出力)を推定するために、トレーニングされたシステムに対する数値入力として使用される。
こうして、患者特有のモデルは、設けられて、外部の方位センサ(orientation sensor)を使用して、挿入中のターゲット動作を提供する。この外部の方位センサは、例えば、呼吸に起因する患者の皮膚の動作ではなくて、呼吸に起因する臓器動作に直接関係する動作を測定しており、したがって、ターゲット位置のある瞬間の場所を提供できる。
こうして、本明細書で提供されるような方法および装置は、ターゲット位置のある瞬間の場所を提供する。これは、現実の臓器の場所についての良好な推定を提供するが、というのも、それが呼吸中の臓器の現実の場所に基づくからである。
位置の場所(Position location)
幾つかの適用例が存在し、そこではターゲット位置のある瞬間の場所(例えば、推定した場所)が使用される場合がある。呼吸動作中のターゲット位置のある瞬間の場所は、臨床医にリアルタイムに表示される場合がある。これは、例えば、患者の3Dモデルの内側のターゲットの表示を配置すること、および、それを絶えず推定場所に更新すること、によって、実質的に実行される場合がある。患者の3Dモデルは、患者の医用画像から作り出される場合があり、また、中空(皮膚表面だけを視覚化する)である場合や解剖学的構造のすべてを示す場合がある。(しかしながら、解剖学的構造のすべてを示すことは、推定ターゲットだけが動くであろうことから、紛らわしいかもしれない)。
ターゲット位置のある瞬間の場所は、ターゲットが任意の所与の時間に解剖学的構造の或る領域内にあるか否かを臨床医に示すために使用される場合がある。医療用ソフトウエアの内部で、臨床医は、解剖学的構造の内部の事前定義した体積を特定する場合がある(または、標準の相対体積が提供されることがある)。この事前定義した体積は、設定されることがあり、したがって、事前定義した針軌道が与えられれば、ターゲットのある瞬間の場所が事前定義した体積内にある場合、事前定義した針軌道に追従する針は、ターゲット位置に十分に接近することであろう。このように、実施形態によっては、ターゲット位置のある瞬間の場所がこの事前定義した体積内にあるときは必ず、臨床医は、幾つかの状態インジケータ(例えば、可聴式または可視的なインジケータ)で通知されるであろう。ターゲット位置のある瞬間の場所がこの体積を離れるときは必ず、臨床医は、再度通知されることがある。これは、(例えば、呼吸のポーズ中に)臨床医が針を挿入してそれを正確に配置するために最適な時機を選択するのに役立つであろう。
一例として、動作推定アルゴリズムは、ターゲットが針軌道に沿っている期間を決定する場合がある。この情報は、次いで、臨床医に対して針の挿入の許可を出す(give a green light)ために、使用される場合がある。ターゲットが呼吸のせいで針軌道から離れる期間中である。ナビゲーションシステムは、臓器が動いている間ずっと針を挿入しないようにする目的で、臨床医に赤信号を与える場合もある。状態インジケータ(赤信号と青信号)は、針ガイダンスデバイス上に位置する例示である。
実施形態によっては、ある瞬間の場所は、表示器に送られる場合があり、ターゲット場所を有する画像は、リアルタイムに動いているターゲット場所が示される。こうして、医師は、呼吸のせいで動いているときに、ターゲット場所の推定場所を見ることができる。
同様に、体積場所は、リアルタイムに調整される場合がある。この体積の場所は、他の追跡デバイスの位置および向きに基づいて決定される場合がある。例えば、これは、他の針をターゲットに挿入する間、臨床医の役に立つ場合がある。この新たな針が同様に追跡される場合、ソフトウエアは、針の軌道を外挿して、臨床医にリアルタイムに、ターゲット位置のある瞬間の場所が針の軌道の視野の範囲内にあるか否かを通知することができる。
ターゲット位置のある瞬間の場所は、例えば、ロボットデバイスに送られる場合がある。ロボットデバイスは、常にそのエンドエフェクタをターゲット位置に呼吸中リアルタイムに再整列させる場合がある。ロボットデバイスが臨床医の単なるガイドである場合、臨床医にリアルタイムに、推定したターゲット場所がその視野の範囲内(または、上と同じやり方で明確にされ得る或る体積の範囲内)にあるか否かを指示することができる。代替的に、ロボットデバイスが適用装置である場合、ターゲットが針の計画した軌道と整列する時点で、「適用」(針を挿入)するだけであろう。
ターゲット位置の場所に加えて、他の位置も、本明細書で提供されるような方法およびシステムを用いて、追跡されることがある。
提案するアプローチは、挿入中に針が回避する必要性のある障害物などのターゲット以外の危険な構造体の動作をモデル化するために使用される場合がある。これらの障害物は、管や腺あるいは繊細な器官の壁/膜などの傷つき易い組織である場合があり、それらは臓器の呼吸動作中の或る時点で針の軌道に沿って位置する場合がある。その位置および呼吸動作を含む危険な構造体情報は、機械学習アルゴリズムにトレーニング用の数値入力として追加される場合がある。これは、各危険な構造体用の新規の対応モデルを作り出すであろう。対応モデルは、リアルタイムの入力代理データを用いて危険な構造体の動作を推定する場合がある。
実施形態によっては、追加の情報を提供する追加のセンサまたは装置も、本明細書で提供されるような方法およびシステムに含められることがある。
実施形態によっては、追加の情報を提供する追加のセンサまたは装置(例えば、EMGセンサ)は、本明細書で提供するような方法およびシステムに含められることがある。例えば、呼吸筋からのEMG情報の追加は、咳をするなどの筋肉の動きについての情報を提供する場合がある。この追加のセンサからのデータは、対応モデルに追加される場合がある。例えば、センサデータは、トレーニングセットの一部または対応モデルを取得するために使用するデータのどちらか一方または双方として、機械学習アルゴリズムによって使用される場合がある。そういった情報の追加は、例えば、あらゆる咳や他の収縮事象の間に針注入が停止する自動システムにおける安全を向上させるために、使用される場合がある。そういった情報の追加は、例えば、改善されたトレーニングセットを提供するために、使用される場合がある。こうして、あらゆる咳事象の間に収集されるデータは、トレーニングセット画像から除外される場合があり、それというのも、そういった画像を含むことが、呼吸の動きに加えて重大な動きを包含すると共に関連付けにおける誤差を増大させる場合があるからである。
用途(Applications)
本明細書で説明するような方法およびシステムは、例えば、生検、アブレーション、または、注入などの医療手順で使用されることがある。これらや他の手順では、臓器位置情報は、臨床手順を再計画すること、臨床手順を中止すること、もとのままの臨床手順の継続を決定すること、および、臓器の動きを推定すること、を含む幾つかのやり方で使用される場合がある。
用途は、このように経皮的な針の介入中の呼吸によって誘導される肝臓内のターゲット動作の推定を含む。本明細書で説明するような方法およびシステムは、代理信号として基準針の動作を使用し、肝臓内のターゲット呼吸動作をモデル評価するために対応モデルとして機械学習を使用する。基準針の動作は、針ハブに取り付けたIMUセンサを用いて測定する場合がある。
他の用途は、特定の条件下でどのように臓器が動くかをマッピングするために個体群の全体にわたる臓器の動きの記録を含む。幾つかの条件は、凍結アブレーションのような特定の手順に、あるいは、患者の寝ている位置や患者が全身麻酔下にあるか否かのような他の手順態様に、関係することがある。このマップは、臨床医の手術前の計画を支援するために使用される場合がある。
システム(Systems)
本発明の実施形態は、動作追跡装置を含むシステムやワークステーションなどのデータ処理システムも含む。データ処理システムは、変換ソフトウエアを含み、また、視覚化ソフトウエア、データロギングソフトウエア、および/または、リサーチソフトウエアを含むこともある。
データ処理システムは、例えば、センサ要素に直接または追跡ソフトウエアを介して連結されることがある。変換ソフトウエアとトラッカ/トラッキングソフトウエアとの間の連結は、例えば、ユニバーサルシリアルバス(USB)、シリアル、イーサネット、ブルートゥース、ワイヤレス、または、TCP/IPを介して形成されることがある。
本発明は、さらに装置および/またはプロセスを含んで、臨床スタッフがどのように臓器が動いているかに基づいて手順内計画の更新を実行するのを可能にする。例えば、第1の針がアブレーション中に挿入された後で、その後の針の計画した配置は、臓器の動作を明らかにするために変更される。
データ処理システム、コンソール80、画像サーバ100、および任意選択のインジケータ90のうちの1つまたは複数を含む本発明の実施形態は、1つまたは複数の上記実施形態の機能を実行するために一時的または非一時的な記憶媒体に記録されるコンピュータの実行可能な命令(例えば、1つまたは複数のプログラム)を読み取って実行する、および/または、1つまたは複数の上記実施形態の機能を実行するための1つまたは複数の回路を含む、1つまたは複数のコンピュータユニットCUによって実現される場合もあり、また、例えば、1つまたは複数の上記実施形態の機能を実行するために記憶媒体からコンピュータの実行可能な命令を読み出して実行すること、および/または、1つまたは複数の上記実施形態の機能を実行するために1つまたは複数の回路を制御すること、によってシステムまたは装置のコンピュータによって実行される方法によって実現される場合もある。1つの実施形態では、コンソール80は、1つのコンピュータユニットであり、インジケータ90は、高精細度マルチメディアインターフェース(HDMI)を介してコンソール80に連結される表示ユニットであり、画像サーバ100は、イーサネットケーブルやワイヤレスアクセスポイントを介して連結されるコンソール80に連結される別のコンピュータユニットである。
例示的なコンピュータユニットCUの詳細については、説明する。コンピュータシステムは、少なくとも1つの中央処理ユニット(CPU)、記憶装置/RAM(ランダムアクセスメモリ)、I/O(入力/出力)インターフェース、および、ユーザインターフェースを含む。また、コンピュータシステムは、1つまたは複数のデバイスを含むことがある。例えば、1つのコンピュータは、CPU、記憶装置/RAM、I/Oインターフェースを含むことがあり、他のコンピュータは、1つまたは複数のユーザインターフェースを含むことがある。CPUは、記憶装置/RAMに記憶されたコンピュータの実行可能な命令を読み取って実行するように構成される。コンピュータの実行可能な命令は、本明細書で説明する方法および/または計算の実行のためのそれらを含むことがある。例えば、CPUは、黒っぽいリングの中心を計算する。あるいは、CPUは、位置センサおよび/または他のセンサから、画像サーバから、信号インターフェースから、の情報に従って様々な値を計算する。その他。記憶装置/RAMは、1つまたは複数のコンピュータの読み取り可能および/または書き込み可能な媒体を含み、また、例えば、磁気ディスク(例えば、ハードディスク)、光学ディスク(例えば、DVD、ブルーレイ)、光磁気ディスク、半導体メモリ(例えば、不揮発性メモリカード、フラッシュメモリ、ソリッドステートドライブ、SRAM、DRAM)、EPROM、EEPROM等々を含むことがある。記憶装置/RAMは、コンピュータの読み取り可能なデータおよび/またはコンピュータの実行可能な命令を記憶することがある。コンピュータシステムの中の構成要素の個々は、バスを介して相互に通信を行う。例えば、CTまたはMRI画像からの、例えば、画像データは、記憶され、または、画像サーバ15を介して発送され、記憶装置/RAMに記憶されることがある。画像は、次いで、医療案内デバイス11からの追加の情報有りまたは無しで、あるいは、ターゲットの向きまたはターゲットの向きからの不一致などのユーザ入力有りまたは無しで、モニタ上に表示されることがある。
I/Oインターフェースは、入力デバイスおよび出力デバイスに通信インターフェースを提供し、回路基板、インジケータ14、信号インターフェース12、および、画像サーバ15に加えて、通信ケーブル、ネットワーク(有線または無線のどちらか)、または、他のデバイスを含むことがある。ユーザインターフェースは、1つまたは複数のキーボード、マウス、タッチスクリーン、ライトペン、マイクロフォン、その他などのユーザインターフェースユニットに連結されることがある。
CUは、上で説明したように回転情報、遷移情報、動作情報などの向き情報を受け取る。情報は、追跡針に取り付けられるセンサ要素50から、有線または無線の通信インターフェースハードウエアなどのI/Oを介して、受け取る。CUは、センサ要素200および210から患者動作情報を受け取ることがある。CUは、上で説明したように、向き情報を受け取るための他のプロセスを実行することがある。
CUの中のCPUは、記憶装置/RAMを制御して、受け取った向き情報を記憶する。センサ要素は、異なる点における或る時刻の複数個の向き情報を検出し、CPUは、記憶装置/RAMを制御して、複数個の向き情報を記憶する。
データの個々がいつ取得されるかを示す時刻情報は、向き情報の個々と関連することがあり、記憶装置/RAMに記憶される。1つの実施形態では、CUは、I/Oインターフェースを介して、センサ要素50から向き情報および時刻情報を受け取ることがある。
CUは、また、ユーザインターフェースを介して、マウスやキーボードから、ターゲット情報、例えば、ターゲット位置を画定するための操作入力も受ける。ターゲット情報を受け取るプロセスでは、CUの中のCPUは、表示ユニットに、画像、例えば、或る時刻に獲得されたCTまたはMRI画像、を表示するようにさせる。画像は、ターゲット臓器の3次元画像であることがあり、また、軸状、冠状、または矢状の画像であることがある。臨床医がマウスやキーボードを使用して、表示された画像の中の1つの点を示すと共にキーボードのボタンをクリックするまたは押すとき、CUは、入力を受け取って、I/Oインターフェースを介して画像の中の位置を獲得する。CPUは、画像が取得されたことを示す時刻情報を、獲得した位置と関連させることがあり、また、記憶装置/RAMを制御して、画像の中の獲得した位置をターゲット位置として記憶すると共に、関連する時刻情報を記憶する。
プロセスでは、臨床医は、或る時刻に異なる点で獲得された各画像のための複数個のターゲット情報を入力し、その複数個のターゲット情報は、記憶装置/RAMに記憶される。
1つの実施形態では、臨床医は、位置および方向情報を入力することによってターゲット軌道情報を入力することがある。CPUは、上で説明したように、臓器動作決定のための他のプロセスを実行することがある。
CUの中のCPUは、記憶した複数個の針の向き情報のうちの少なくとも一部分と、記憶した複数個のターゲット情報のうちの少なくとも一部分と、を関連付けする。プロセスは、対応モデルを獲得するために、サポートベクターマシンなどの機械学習アルゴリズムや何らかのモデル適合アルゴリズムを用いることによって実行されることがある。対応モデルは、記憶装置/RAMに記憶される。
対応モデルは、針の向き情報が入力データとして与えられるときに、推定したターゲット位置を出力するために使用される場合のある数学上のマトリックスであることがある。1つの実施形態では、ベーシックモデルが与えられる場合に、CPUは、機械学習プロセスからベーシックモデルを修正するためのパラメータを獲得する。CPUは、上で説明したような関連付けのための他のプロセスを実行することがある。
対応モデルの獲得後に、CUの中のCPUは、対応モデルによってターゲット位置のある瞬間の場所を決定する。CPUは、表示ユニットに、決定された瞬時の場所と、センサ要素50によって検出された針の現在の向きと、を表示するようにさせることがある。CPUは、上で説明したように、表示ユニットに、他の情報を提供するようにさせることがある。
定義(Definitions)
説明を参照すると、具体的な細部は、開示した例の完全な理解を提供する目的で、記載している。他の例では、公知の方法、手順、構成要素および回路については、本開示を無用に長くさせないように、詳細には説明していない。
理解すべきことは、要素または部分が、他の要素または部分[の上」、「に対して」、「に連結され」、または、「に結合され」と本明細書で言及されている場合に、それが他の要素または部分に直接上、対して、連結され、または、結合される場合があり、あるいは、介在する要素または部分が存在することがある、ということである。対照的に、要素が他の要素または部分「の直接上に」、「に直接連結され」、または、「に直接結合され」と言及されている場合、介在する要素または部分は、存在しない。使用されるとき、用語「および/または」は、そういった提供があるなら1つまたは複数の関連するリスト記載事項の任意のまたはすべての組合せを含む。
「下」、「真下」、「下方」、「下側」、「上方」、「上側」、「近位」、「遠位」等々などの空間的な相対用語は、様々な図面に例証されているように、1つの要素または特徴部の、他の要素または特徴部に対する関係を説明するため、説明を容易にするために本明細書で使用されることがある。しかしながら、理解すべきことは、空間的な相対用語が、図面に示された向きに加えて使用または動作中のデバイスの異なる向きを包含することを意図している、ということである。例えば、図の中のデバイスがひっくり返された場合に、他の要素または特徴部の「下方」または「真下」と説明された要素は、他の要素または特徴部の「上」の向きにされるであろう。このように、「下方」などの相対的な空間用語は、上方および下方の向きの双方を包含する場合がある。デバイスは、違ったふうに向き(90度回転され、または、他の向きで)されることがあり、本明細書で使用される空間的な相対的説明は、それに応じて解釈されるべきである。同様に、相対的な空間用語「近位」および「遠位」は、適用可能な場合に、互換性を有することもある。
用語「約」は、本明細書で使用するとき、例えば、10%以内、5%以内、またはそれより小さいことを意味する。実施形態によっては、用語「約」は、測定誤差の範囲内を意味することがある。
用語第1、第2、第3などは、様々な要素、構成要素、領域、部分、および/または、セクションを説明するために本明細書で使用されることがある。理解すべきことは、これらの要素、構成要素、領域、部分、および/または、セクションが、それらの用語によって限定されるべきではない、ということである。これらの用語は、1の要素、構成要素、領域、部分、または、セクションを、他の領域、部分、または、セクションから区別するためだけで使用してきた。このように、下で議論する第1の要素、構成要素、領域、部分、または、セクションは、本明細書の教示から逸脱することなく、第2の要素、構成要素、領域、部分、または、セクションと用語付けされる場合がある。
本明細書で使用される専門用語は、特定の実施形態を説明する目的のためだけであり、限定することを意図していない。本明細書で使用するとき、単数形「1つ(a)」、「1つ(an)」、および、「その(the)」は、文脈上別に指示することが明らかな場合を除いて、複数形を同じく含むことを意図している。さらに理解すべきことは、用語「含む」および/または「含んでいる」は、本明細書で使用するとき、記述した特徴、完全なもの、ステップ、動作、要素、および/または、構成要素の存在を特定するが、1つまたは複数の他の特徴、完全なもの、ステップ、動作、要素、構成要素、および/または、明確に述べていないそれらを集めたものの存在や追加を除外するものではない、ということである。
例(Examples)
例1(Example 1)
1つの例では、1セットの断面画像は、撮影されて介入計画用の外部コンピュータに記憶されるであろう。ターゲット場所および皮膚エントリ点ならびにこれらの2つの制御点を連結するアプローチ線は、コンピュータでマーキングされてデジタル化される。医師は、介入デバイスに取り付けられた位置追跡センサ要素の助けを借りて、介入デバイスを計画したアプローチ線に整列させることを指図されるであろう。代替的に、定位フレームは、皮膚エントリ点の近くに配置されるであろうし、アプローチ経路は、介入ツールホルダを望ましいツールアプローチ経路に整列させることによって提供される。定位フレームは、動力化される場合がある。
第1の例では、現場のセンサ要素は、ターゲット臓器の直接の動作追跡のために針先端に配置される。レシーバは、腹部に配置される場合がある。レシーバは、次いで断面画像システムに位置合わせされる場合がある。こうして、針は、臓器に半分挿入されると、針先端の現場センサ要素は、動いている臓器の場所を示す。
患者が画像モダリティ装置のボアの外側にいて、息を止めるように指図された後、第1の針が挿入され、センサ要素が臓器の場所も記録する。2つの針の挿入のための流れは、次のことを含む場合がある。
肝臓の場所Bおよび針の向きBは、記録される。
患者は、撮像用のMRIに戻される。
肝臓の場所Cおよび針の向きCは、記録される。
ターゲットの場所C1は、記録される。
患者は、MRIの外側に移動して、息を止めることを指図される。
肝臓の場所Dおよび針の向きDは、記録される。
新しい第2の針は、位置D+(C−C1)に挿入されなければならない。
同様に、針の尾部は、使用されることがある。この態様では、マーカは、半分挿入した針の尾部上に配置される。トランスミッタ/レシーバであるセンサ要素は、ボディ上に配置され、病変部と共に撮像され、および、断面画像デバイスに位置合わせされる、場合がある。次いで、臓器の場所は、針が針挿入点に沿って旋回すると考えられると仮定して、推定される。逆に、針が真っ直ぐでなくて、臓器が旋回するときに曲がる場合、EMなどによる針先端と、光学的方法またはEMセンシングなどによる尾部と、の複合的センシングは、曲げモードをシミュレートする場合がある。尾部上のセンサ要素は、例えば、アクティブマーカまたはLED発光トランスミッタ(led emitting transmitter)である場合がある。ボディ上センサ要素は、レシーバにする場合がある。センサ要素場所は、反転される場合(例えば、針がレシーバセンサ要素を含み、ボディ上センサ要素がトランスミッタである)もある。針ベースの追跡または尾部ベースの追跡のどちらかは、米国特許第9,222,996号に記載の針ガイダンスデバイスと共に使用される場合がある。
例2(Example 2)
この例では、追跡針に取り付けられたセンサ要素は、9自由度(9DOF)センサである。位置情報に加えて、このセンサは、3軸ジャイロスコープ、3軸加速度計、および、3軸磁気計を備えた慣性測定ユニットを含む。米国仮出願第62/268,378号に記載されたようなセンサ、デバイス、および、方法は、参照によりその全体を本明細書に組み込む。
図5は、追跡針に取り付けられた9DOFセンサと、挿入針に取り付けられた第2の9DOFセンサと、を示す。リアルタイムでは、相対角度と計画した経路からの誤差のフィードバックの継続は、追跡針が動いているとき、または、息を止める任意の局面で、相対角度と、エントリ点110での相対角度の計画した位置と、を提供する。
図6は、挿入の状態のセンサを示し、そこでは、ロボット120も、センサと/画像位置合わせを備えた追跡針と、位置合わせされる。中実の四角形は、米国特許第9,222,996号に記載された2リングロボットの断面図を示す。センサは、追跡針と挿入針の双方の位置情報を検知する。9DOFセンサとして示されるセンサは、3軸ジャイロスコープ、3軸加速度計、および、3軸磁気計と、回路基板を備えた慣性測定ユニットを含むことがある。ジャイロスコープ、加速度計、および、磁気計は、統合出力を備えた単一のチップ上に組み込まれることがあり、あるいは、切り離されることがある。このセンサは、動作のための使用の長い持続期間を介して検知した向きのドリフトを減らすのを可能にもする。
追跡針は、並進動作の皮膚エントリ点に対して不変であることがある。
追跡針の挿入に対する臓器の小さい変位、すなわち、皮膚表面からターゲット臓器の位置の深さ、の想定が存在することがある。特に肝臓について実行可能な(viable)仮定は、臓器のボディが剛性を有することであり、したがって、追跡針の先端とターゲット病変部(ターゲット位置)との間の位置的な関係は、一定である。こうして、我々は、小さな角度、すなわち、θ〜tanθ〜sinθ、を仮定できる。したがって、角度、病変部−皮膚エントリ−先端追跡針は、動いている臓器の任意の位置で一定である。
例3(Example 3)
肝臓内の病変部の動作(Lesion Motion in Liver)。
この例では、臨床データは、呼吸中の肝臓内の病変部動作を測定するために使用された。4人の患者から取得した64スキャンのうちの肝臓CT画像は、肝臓内のターゲット動作を測定するために使用された。スキャンは、肝生検ケースとアブレーションケースの期間に取得された。患者は、手順中に動かず、肝臓内の動作の主たる原因は、呼吸であった。病変部に似ている構造体は、フリーオープンソース医用画像コンピュータ計算ソフトウエア3D Slicerを用いて、CTスキャン(図7)ごとの各画像フレームに手動でローカライズされた。ローカライズ方法は、経皮的アブレーション治療において経験年数5年の一般外科のボード認定放射線科医によって検査されて検討された。結果が示していることは、ターゲット最大絶対変位が12.56mmであったということである。この動作の主要な構成要素は、上位−下位シフト5.5±3.84mmであった。肝臓は、前−後3.77±2.07mm、左−右方向(3.14±0.68mm)の動作を追加的に示した。これらの結果は、肝臓動作を擬態するように設計されたファントムを動かすことへの入力として使用された。
ゼラチンベースのファントムは、人間の肝臓の弾力性を擬態するために使用された。15%(重量比)のゼラチン対水混合物(KnoxR gelatin, Kraft Foods Group, Inc., イリノイ州,米国)が使用された。ファントムは、肝臓内の呼吸ターゲット動作をシミュレートするために、ステッパモータで作動する2つのXZ動力化されたステージ(タイプeTrack ET−100−11,Newmark Systems Group Inc.カリフォルニア州,米国)に取り付けられた。両モータは、NewmarkコントローラNSC−A2Lシリーズを用いて制御された。この実験用の設備は、図8に示されている。
厚さ0.5mmの耐摩耗性の天然ゴムラテックス層(McMaster−Carr,イリノイ州,米国)は、皮膚を擬態するために使用された。オーロラ電磁(EM)トラッカ(Northern Digital Inc.,Waterloo,カナダ国)は、針位置および向きを、そして同じく周波数25Hzでのターゲット位置を、測定するために使用された。追跡センサは、ゼラチンファントムに異なる深さで挿入される追跡針の中に埋め込まれた。5DOF EMセンサは、その先端場所および向きを追跡するために、18ゲージ針に埋め込まれた。3D位置、ピッチ角およびヨー角は、システムによって測定された。このファントムスタディのため、他の6DOF EMセンサは、ターゲット動作を測定するために、ゼラチンの中に埋め込まれた。方位センサは、患者ボディの外側の針ハブに取り付けられた。方位センサ(BNO055,Bosch Sensortec GmbH,Reutlingen,Germany)は、3軸16ビットのジャイロスコープ、3軸14ビットの加速度計、および、完全性能型地磁気センサから構成された。方位センサは、周波数100Hzで測定した。現実のターゲット位置は、EMトラッカをターゲットサイトで用いて測定され、黄金標準として使用された。EMセンサおよび方位センサの測定値は、同期化されて、次のセクションで説明される学習に基づくアルゴリズムへの入力として使用された。
学習アルゴリズム(Learning Algorithm)。
ターゲット位置(EMセンサから取得される)と針の向き(針に取り付けられた向きから)とを含むトレーニングデータは、20秒(約4呼吸サイクル)の期間の間、記録される。測定したデータは、同期化されて分割され、収集されたデータの66%がトレーニングのために使用され、34%が対応モデルの試験(関連付け)のために使用された。ランダムkラベル集合法は、分類(多変量回帰)のために使用される。Disjoint labelset construction version RAkELdは、現スタディで使用された。Tsoumakas G et al.,(IEEE TKDE 23(7),1079−1089(2011)and Proc.ECML vol.4701,pp.406−417.Warsaw,Poland(Sept.2007))を参照のこと。
(マルチラベルおよびマルチターゲット)学習に基づくアルゴリズムは、データをトレーニング点および試験点に分割することによって評価される。針の向きデータは、次いで、3Dターゲット位置(数値出力)を推定するために、トレーニングされたシステムに対する数値入力として使用される。
この例で使用された機械学習アルゴリズムは、ニュージーランド国ハミルトンのワイカト大学の機械学習グループで開発されたWEKAのマルチラベル版であるオープンソースのMEKAソフトウエアである。マルチラベル学習に基づく分類ソフトウエアは、3D空間の中のターゲット位置を推定するために使用された。
実験(Experiments)。
この実験について理解されるような呼吸に起因する最も有意なターゲット動作は、上位−下位方向にある。呼吸サイクルは、1.5〜2秒の吸気、1.5〜2秒の呼気、および、その後の約2秒のポーズ、から構成される。この動作パターンは、展開した設備においてシミュレートされた。課せられるターゲット変位は、CTデータから測定された。ターゲット動作の20秒は、EMトラッカを用いて記録され、針の向きは、EMトラッカと方位センサの双方を用いて記録された。針は、ターゲットに対する近接性を変えて配置された。2呼吸サイクル持続期間は、ターゲット動作の大きさが12.56mmの浅い呼吸を擬態するために使用された。
各実験的試行は、少なくとも7度実行された。評価基準は、位置誤差、総処理時間、針およびターゲット間の距離の効果、および、同じく推定誤差による呼吸持続期間の効果、を含んでいた。
方位センサおよびターゲット動作(〜4呼吸サイクルの間)から取得されたデータは、学習に基づくアプローチをトレーニングして呼吸中のターゲット動作を推定するために使用された。5秒の呼吸サイクル持続期間では、中位ターゲット推定誤差は、0〜1cm、1〜2cm、および2〜3cmのターゲット近接性範囲の針を使用する間、それぞれ0(0.55±0.85)mm、0(0.52±0.77)mm、0(0.74±0.99)mm(p=0.05)であり、他方、6秒の呼吸サイクル持続期間では、中位ターゲット推定誤差は、それぞれ0(0.63±0.87)mm、1(0.74±0.79)mm、0(0.53±0.81)mm(p=0.003)であった。ウィルコクソンの順位和検定とクラスカル−ウォリス検定は、誤差を比較するために使用された。
トレーニングおよび試験のための処理時間は、リアルタイムのターゲット動作推定に十分である4〜12msであった。結果が示していることは、呼吸サイクル持続期間が、ターゲットに対する針近接性が≦1cm(p=0.4)のときに、誤差に影響を及ぼさず、他方、ターゲットに対する針近接性が≧1cmでは、推定誤差に著しく影響を及ぼす(p<0.001および0.005)、ということである。ターゲットに対する針近接性は、呼吸持続期間が6秒の場合に推定誤差に著しく影響を及ぼす。提案するアルゴリズムは、ターゲット動作の他の臓器を補償するために一般化されることが期待される。
例4(Example 4)
ターゲット動作を推定するために使用される代理信号および対応モデル、そして、同じく呼吸動作中の人間の対象者の肝臓MRデータについては、説明する。動作データは、確認研究のために使用される実験プラットフォームに対する入力として使用された。
代理信号(Surrogate signal)。
ターゲット動作を推定するために、代理信号として、動いている臓器の中に挿入された針の外部動作を使用した。代理信号は、測定可能かつアクセス可能な信号であり、現実のターゲット/臓器の動作を推定するために使用される場合がある。代理信号は、例えば、ターゲット場所が、リアルタイム(許容できる遅延の範囲内)に測定できない場合に、または、画像の呼吸動作アーチファクトひいては不正確なターゲット動作推定のせいで正確に位置できない場合に、使用される。このスタディでは、動いている臓器の中に挿入された針の外部動作は、その呼吸動作を、その結果として、肝臓の中に位置するターゲット動作を、指示するために、仮説立てされた。肝臓の中のターゲット動作を推定するために、代理信号として、動いている臓器の中に挿入された針の動作を使用する概念は、IMUセンサを用いて査定された。センサは、患者のボディの外側の針ハブに取り付けられた。IMUセンサ(BNO055,Bosch Sensortec GmbH,Reutlingen,Germany)は、3軸16ビットのジャイロスコープ、3軸14ビットの加速度計、および、地磁気センサから構成された。センサは、周波数100Hzで、針の3Dの向き、直線加速度、および、そのピッチ、ロール、ヨーの軸まわりの角速度、を測定する。IMUセンサは、マイクロコントローラボード(Arduino MICRO,Arduino,Italy)によって、インターインテグレーテッド回路モジュールを介して、給電されて制御された。シリアル通信は、測定したデータを記録する目的で、マイクロコントローラボードをコンピュータに連結するために、使用された。記録されたデータは、呼吸中の肝臓の中のターゲット動作を推定するために、学習に基づくアルゴリズムに対する入力として、使用された。
対応モデル(Correspondence model)。
対応モデルは、肝臓の中のターゲット動作と代理信号(IMUセンサデータ)の関係をモデル化することを試みている。この関係は、代理データのその後の取得に基づいてターゲット動作を推定するために使用された。この特定のスタディでは、対応モデルは、機械学習アルゴリズムを用いてトレーニングされた。現実のターゲット位置は、対応モデルのトレーニングおよび同じく評価のための黄金標準を代表する。対応モデルをトレーニングするために、記録した代理信号およびターゲット動作データは、同期化され、次いで、機械学習アルゴリズム(図9参照)の教師付きトレーニングのために使用される。機械学習方法は、分類(多変量回帰)のためのランダムkラベル集合(RAkEL)法に基づいている。kは、ラベル集合のサイズを特定するパラメータである。この方法の態様は、ラベルの大集合を幾つかの小サイズのラベル集合にランダムに割ること、そして、ラベル集合の個々のために、label powerset法を用いて、マルチラベル分類器をトレーニングすることである。Disjoint labelset construction version RAkELd presented by G.Tsoumakas,et al.,(IEEE Transactions on Knowledge and Data Engineering,vol.23,no.7,pp.1079−1089,2011)は、多数の数値入力(代理データ)および数値出力(ターゲット位置)を比較的短い処理時間内に処理できるので、使用された。(マルチラベルおよびマルチターゲット)学習に基づくアルゴリズムは、データをトレーニング点および試験点に分割することによって評価された。トレーニング後に、出力対応モデルは、呼吸中の或る時機のターゲットの3次元位置を推定するために、IMUセンサからの代理信号だけを用いる。対応モデルのトレーニングおよび試験のために、我々は、ニュージーランド国ハミルトンのワイカト大学の機械学習グループで開発されたWEKAのマルチラベル版であるオープンソースのMEKAソフトウエアを使用した。マルチラベル学習に基づく分類ソフトウエアは、対応モデルを生成し、次いで、3D空間の中のターゲット位置を推定するために使用された。
図1は、ターゲット動作を独立して測定しながら幾つかの呼吸サイクルのために測定された針の向きを示す。図9に示すように、測定した針の向き(センサ)およびターゲット位置(電磁(EM)トラッキング)は、機械学習アルゴリズムをトレーニングするために使用される前に事前処理された。学習に基づくアルゴリズムは、次いで、入力として、針の向きだけを用いて、ターゲット動作を推定するために、試験された。EMセンサから取得されたターゲット位置は、学習に基づくアルゴリズムの出力を評価するために、黄金標準として、使用された。
呼吸器系の人間MRデータ(Respiratory human MR data)。
人間対象者の肝臓MRデータは、呼吸中の肝臓内のターゲット動作プロファイルを決定するために使用された。8人の対象者は、募集されて、次のインフォームドコンセントをイメージ喚起された。人間対象者から得られるMR肝臓サジタルスキャンは、肝臓呼吸動作を測定するために使用された。対象者は、手順中に動かず、肝臓内の動作の主たる原因は、呼吸であった。対象者は、3TワイドボアMRIスキャナ(MAGNETOM Verio 3T,Siemens,Erlangen,独国)のスキャナであった。画像スライス厚、フリップ角、マトリックスサイズ、および視野は、それぞれ5mm、30度、192×192、38×38cm2であった。取得する画像の周波数は、1Hzであった。各スキャンの持続時間は、140.27±51.10秒であった。スキャン毎に、122±45.86画像が取得された。MR画像は、ボード認定放射線科医によって取得された。肝臓MR画像では、病変部に似ている3つの構造体の動作が、各MR画像フレームで追跡された。これらの構造体は、各画像フレームで手動で位置していた。測定した肝臓動作プロファイル(ターゲット変位および速度からなる)は、肝臓の動作を擬態するように設計された実験プラットフォームへの入力として使用された。
確認研究(Validation study)。
実験プラットフォーム(図8参照)は、肝臓の動作を擬態するために設計された。実験を実行する意図は、提案された代理信号および対応モデルを、様々な呼吸動作プロファイル、ならびに、ターゲット深さ、動作速度、針挿入角度、および、ターゲットに対するその近接性などの条件で、確認することである。1)ファントム:ゼラチンベースのファントム130は、人間の肝臓の弾力性を擬態するために使用された。15%(重量比)のゼラチン対水混合物(1.6L)(KnoxR gelatin, Kraft Foods Group, Inc.,イリノイ州,米国)が使用された。ファントムは、容器140の中に配置され、皮膚を擬態するために厚さ0.5mmの耐摩耗性の天然ゴムラテックス層150(McMaster−Carr,イリノイ州,米国)によってカバーされた。呼吸動作をシミュレートするために、皮膚層とゼラチンファントムの上部部分(2cm)は、x−y方向160にクランプされたが、z方向170(上昇および下降)には動くことができる。
実験設備(Experimental setup)。
ファントム130は、肝臓内の呼吸ターゲット動作をシミュレートするために、ステッパモータで作動する2つの動力化されたステージ170(XZ)(タイプeTrack ET−100−11,Newmark Systems Group Inc.カリフォルニア州,米国)に取り付けられた。両モータは、NewmarkコントローラNSC−A2Lシリーズ(図8)を用いて制御された。現実のターゲット位置は、ターゲットサイトで電磁(EM)センサ(Northern Digital Inc.,Waterloo カナダ国)を用いて測定され、黄金標準180として使用された。別の5自由度(DoF)EMセンサ50は、針およびターゲット間の距離を測定するため、また、針挿入角度も測定するため、ファントム130の中に挿入される基準針40の中に同じく埋め込まれた。ターゲットの場所、針およびターゲット間の距離、および、針挿入角度は、表示されて、フリーオープンソース医用画像コンピュータ計算ソフトウエア3D Slicerを用いて算出された。IMUセンサは、ファントムの外側の針ハブに取り付けられた。EMセンサデータおよびIMUセンサ測定値は、同期化されて、学習に基づくアルゴリズム(対応モデル)への入力として使用された。電磁界発生器190は、ファントムの外側に位置する。
実験プロトコル(Experimental protocol):
実験は、異なった挿入角度、ターゲット深さ、ターゲット動作速度、および、針に対するターゲット近接性で、開発した設計の精度を決定するために、実行された。当初のパラメータは、60度の挿入角度、8cmのターゲット深さ、3.5mm/秒の動作速度、1〜2cmの針およびターゲット間の距離である。ターゲット動作範囲および速度は、MR画像から得られた結果に基づいて選択された。ターゲット動作の範囲は、呼吸MR動作データから得られた範囲の中でランダム化された。実験プロトコルは、表1に提示されている。各実験は、7度繰り返された。ターゲット変位の範囲と速度の双方が、MR臨床データで測定された範囲内でランダム化される特別な実験が実行された。この動作パターンは、動力化されたステージを用いる実験設備でシミュレートされた。各実験の持続時間は、呼吸ターゲット動作の20秒であった。各実験では、ターゲット変位は、EMトラッカを用いて測定され、針動作は、方位センサを用いて測定された。各実験は、7度実行された。
データ分析(Data analysis):
開発した設計およびアルゴリズムを評価する目的で、挿入角度、ターゲット深さ、ターゲット動作速度、および、針に対するターゲット近接性を含む、幾つかのパラメータは、確認のために選択された。ターゲットの推定位置の精度と、データを処理するのに要する時間は、パラメータであって、呼吸動作中のターゲット位置を推定するために針の撓み(IMUデータ)を用いるという提案する概念を確認するために使用された。
記録したデータは、ターゲット動作データ(EMトラッカ)および針動作(IMUセンサ)の双方から同数のデータ点を得るために、線形補間を用いて、同期化されて再サンプリングされた。呼吸動作中の各インスタンスでの測定した針動作およびターゲット動作は、学習アルゴリズムのための単一のトレーニング点を代表する。ターゲット位置は、次いで、データの教師付きトレーニングによって、推定された。データ点の66%は、トレーニングのために使用され、34%は、学習アルゴリズムを試験するために使用された。学習アルゴリズムをトレーニングおよび試験するために使用されるデータ点は、収集したデータの中の呼吸動作プロファイルの変化を考慮する目的で、ランダムに選択された。
例5(Example 5)
この例は、動力化されるファントムの動作プロファイルを生成するために使用されるMR画像のターゲット追跡の結果を提示する。対応モデルの確認研究の結果は、同じく提示されている。
MR画像での動作追跡(Motion tracking in MR images)。
MR画像での追跡されたターゲット動作は、この例の動作が、主として鉛直軸および矢状軸でそれぞれ8.10±4.71mm、2.53±1.60mmである、ということを示した。ターゲット動作の平均速度は、鉛直軸および矢状軸でそれぞれ3.54±1.04mm/秒、1.11±0.33mm/秒であった。
実験的ターゲット動作推定(Experimental target motion estimation)。
学習アルゴリズムから得られた結果は、表2に提示され、各実験は、7度繰り返されたのであり、推定誤差は、呼吸中の或る時点における現実のターゲット位置とその推定位置との間の絶対距離である。
推定誤差(Estimation error):
学習に基づくアルゴリズムから得られるターゲットの推定位置と、ターゲットサイトに埋め込まれたEMトラッカを用いて測定されたターゲットの現実の位置と、の間の絶対距離の平均誤差。学習に基づくアルゴリズムトレーニング時間は、4ミリ秒の範囲内にあり、他方、試験時間は、1ミリ秒であった。
統計的分析(Statistical analysis):
クラスカル−ウォリス検定は、試験したパラメータの統計的有意性を決定するために実行された。結果が示していることは、40度〜90度の範囲内の挿入角度の増加がターゲティング誤差(p<0.005)を増加させ、他方、4mm〜10mmの範囲内のターゲット深さの増加がターゲティング誤差(p<0.005)を減少させた、ということである。観察されたことは、0〜1cmから2〜3cmの範囲でのターゲットおよび針先端間の距離の増加がターゲティング誤差(p<0.005)を増加させる、ということである。
実験結果が示していることは、ターゲット位置の推定の平均誤差が0.90〜1.29mmの範囲にわたる、ということである。IMUデータをトレーニングおよび試験するための最大時間は、針の向き(IMU)センサを用いるリアルタイムのターゲット動作推定にとって十分である5ミリ秒であった。同じく観察されたことは、ターゲット動作の推定誤差がターゲット深さの増加につれて減少する、ということである。実験の結論は、針が表面的であるとき、ターゲット動作以外の、センサの重量や針に取り付けたケーブルなどのファクタに敏感であるということであり、それというのも、針が深くなく、したがって、動いている臓器にうまく固定されていないからである。同じく観察されたことは、誤差が針とターゲットの間の距離の増加につれて増加する、ということである。加えて、発見したことは、ターゲット動作の速度変化が上述した実験の推定誤差において著しい変化を示さなかった、ということである。
図面に例証された実施形態例の説明において、特定の用語は、明快さの目的のために、採用されている。しかしながら、本特許明細書の開示は、そのように選択した特定の用語に限定されることを意図しておらず、理解すべきことは、各特定要素が、同じようなやり方で動作する技術的に等価なものをすべて含む、ということである。
本開示については、例示的な実施形態を参照して説明してきたが、理解すべきことは、本開示が開示した例示的な実施形態に限定されない、ということである。次に続く特許請求の範囲の範囲は、そういった修正や等価な構造および機能のすべてを包含するように最広義の解釈と一致すべきである。

Claims (17)

  1. 情報処理装置の作動方法であって、
    前記情報処理装置が、臓器に挿入された、センサ要素が取り付けられている追跡針および前記臓器の少なくとも一部分における少なくとも1つの取得された画像を取得することと
    前記情報処理装置が、連続的な追跡針の向き情報を前記センサ要素から取得することと、
    前記情報処理装置が、追跡針の向き情報を、取得された前記少なくとも1つの取得された画像内の少なくとも1つのターゲット位置と関連付けて、対応モデルを取得することと、
    前記情報処理装置が、前記対応モデルに基づいて前記少なくとも1つのターゲット位置のある時点での場所を決定することと、
    を含む、前記情報処理装置の作動方法。
  2. 少なくとも1つの取得された画像を取得することは、1呼吸サイクルの範囲内で取得された複数の画像を取得することを含む、請求項1に記載の作動方法。
  3. 少なくとも1つの取得された画像を取得することは、3〜30秒の期間にわたって取得された、少なくとも5つの画像を取得することを含む、請求項1に記載の作動方法。
  4. 前記少なくとも1つのターゲット位置は、病変部の少なくとも1つの場所に対応する、請求項1に記載の作動方法。
  5. 追跡針の向き情報を関連付けることは、機械学習アルゴリズムを用いることを含む、請求項1に記載の作動方法。
  6. 前記機械学習アルゴリズムは、ターゲット位置の情報と連続的な追跡針の向き情報とを含むトレーニングセットを使用する、請求項5に記載の作動方法。
  7. 連続的な向き情報は、リアルタイムに取得される、請求項1に記載の作動方法。
  8. 連続的な向き情報は、呼吸ポーズ中に取得される、請求項1に記載の作動方法。
  9. 連続的な並進情報を前記センサ要素から取得することをさらに含む、請求項1に記載の作動方法。
  10. 連続的な回転情報を前記センサ要素から取得することをさらに含む、請求項1に記載の作動方法。
  11. 前記ターゲット位置のある時点での場所を事前定義した体積と比較することと、相対位置を状態インジケータで示すことと、をさらに含む、請求項1に記載の作動方法。
  12. 前記取得された画像は、MRI画像またはCT画像である、請求項1に記載の作動方法。
  13. 追跡針と、
    前記追跡針に取り付けられるセンサ要素と、
    データ処理システムであって、
    連続的な追跡針の向き情報を前記センサ要素から取得し、
    追跡針の向き情報を少なくとも1つのターゲット位置と関連付けて、対応モデルを取得し、
    前記対応モデルに基づいて前記少なくとも1つのターゲット位置のある時点での場所を決定するように構成される、データ処理システムと、
    表示器または針ガイダンスデバイスを含む出力デバイスと、
    を含む動作追跡システム。
  14. 針ガイダンスデバイスをさらに含む、請求項13に記載の動作追跡システム。
  15. 前記針ガイダンスデバイスは、センサ要素を含む、請求項14に記載の動作追跡システム。
  16. 前記針ガイダンスデバイスは、治療用の針の向きを前記ターゲット位置のある時点での場所に基づいて修正するように構成される、請求項14に記載の動作追跡システム。
  17. 前記針ガイダンスデバイスは、計画した針軌道を有する治療用の針を含み、針ガイダンスデバイスは、前記データ処理システムから取得された前記ある時点での場所が、前記計画した治療用の針軌道と整列すると、前記治療用の針を挿入するように構成される、請求項14に記載の動作追跡システム。
JP2018553453A 2016-04-12 2017-04-11 臓器の動作補償 Active JP6813592B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662321495P 2016-04-12 2016-04-12
US62/321,495 2016-04-12
US201662372541P 2016-08-09 2016-08-09
US62/372,541 2016-08-09
PCT/US2017/027037 WO2017180643A1 (en) 2016-04-12 2017-04-11 Organ motion compensation

Publications (2)

Publication Number Publication Date
JP2019520098A JP2019520098A (ja) 2019-07-18
JP6813592B2 true JP6813592B2 (ja) 2021-01-13

Family

ID=60042722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018553453A Active JP6813592B2 (ja) 2016-04-12 2017-04-11 臓器の動作補償

Country Status (3)

Country Link
US (1) US20190117317A1 (ja)
JP (1) JP6813592B2 (ja)
WO (1) WO2017180643A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11497560B2 (en) * 2017-04-28 2022-11-15 Biosense Webster (Israel) Ltd. Wireless tool with accelerometer for selective power saving
JP6959428B2 (ja) 2017-07-07 2021-11-02 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 複数プローブアブレーションのプランニング
EP3768380A4 (en) * 2018-03-23 2021-12-22 The Regents Of The University Of California APPARATUS AND METHOD FOR REMOVING RESPIRATION MOVEMENT ARTIFACTS IN TOMODENSITOGRAMS
WO2020081725A1 (en) * 2018-10-16 2020-04-23 El Galley Rizk Biopsy navigation system and method
US11707259B2 (en) 2018-10-19 2023-07-25 Canon U.S.A., Inc. Wireless needle guidance using encoder sensor and encoder scale to achieve positional sensing between movable components
US11786307B2 (en) 2018-10-19 2023-10-17 Canon U.S.A., Inc. Visualization and manipulation of results from a device-to-image registration algorithm
US11344371B2 (en) 2018-10-19 2022-05-31 Canon U.S.A., Inc. Visualization of three-dimensional image data on a two-dimensional image
CN109567751B (zh) * 2018-11-15 2021-09-24 陈圣开 一种用于术中测定肝硬化硬度的穿刺针
DE102019112313A1 (de) * 2019-05-10 2020-11-12 MRI-STaR - Magnetic Resonance Institute for Safety, Technology and Research GmbH Prüfkörper zur Analyse und Überwachung der Bildqualität von MR-Tomographen
DE102020205091A1 (de) * 2020-04-22 2021-10-28 Siemens Healthcare Gmbh Verfahren zum Erzeugen eines Steuersignals
TWI792592B (zh) * 2020-12-29 2023-02-11 財團法人工業技術研究院 電腦輔助入針系統和電腦輔助入針方法
CN113303824B (zh) * 2021-06-08 2024-03-08 上海导向医疗系统有限公司 用于体内目标定位的数据处理方法、模块与系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19914455B4 (de) * 1999-03-30 2005-07-14 Siemens Ag Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
DE19963440C2 (de) * 1999-12-28 2003-02-20 Siemens Ag Verfahren und System zur Visualisierung eines Gegenstandes
DE10157965A1 (de) * 2001-11-26 2003-06-26 Siemens Ag Navigationssystem mit Atem- bzw. EKG-Triggerung zur Erhöhung der Navigationsgenauigkeiten
US7260426B2 (en) * 2002-11-12 2007-08-21 Accuray Incorporated Method and apparatus for tracking an internal target region without an implanted fiducial
US9456766B2 (en) * 2007-11-26 2016-10-04 C. R. Bard, Inc. Apparatus for use with needle insertion guidance system
US10010308B2 (en) * 2011-07-21 2018-07-03 The Research Foundation For The State University Of New York System and method for CT-guided needle biopsy
WO2013028762A1 (en) * 2011-08-22 2013-02-28 Siemens Corporation Method and system for integrated radiological and pathological information for diagnosis, therapy selection, and monitoring
US20150338477A1 (en) * 2013-01-09 2015-11-26 Ehud J. Schmidt An active tracking system and method for mri

Also Published As

Publication number Publication date
US20190117317A1 (en) 2019-04-25
JP2019520098A (ja) 2019-07-18
WO2017180643A1 (en) 2017-10-19

Similar Documents

Publication Publication Date Title
JP6813592B2 (ja) 臓器の動作補償
JP7093801B2 (ja) 手術中の位置調整および誘導を容易にするシステム
US10828106B2 (en) Fiducial marking for image-electromagnetic field registration
JP6828047B2 (ja) 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法
US9820695B2 (en) Method for detecting contact with the wall of a region of interest
JP6615451B2 (ja) インピーダンス測定を用いた挿入点から心臓までのカテーテルの追跡
US20220401000A1 (en) Neural locating method
EP1862114B1 (en) Model-based correction of position measurements
US20120259209A1 (en) Ultrasound guided positioning of cardiac replacement valves
US20140031668A1 (en) Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
Boskma et al. Closed-loop control of a magnetically-actuated catheter using two-dimensional ultrasound images
WO2012033739A2 (en) Surgical and medical instrument tracking using a depth-sensing device
EP3558151B1 (en) Navigation platform for an intracardiac catheter
Li et al. Closed-loop magnetic manipulation for robotic transesophageal echocardiography
CN111403017B (zh) 医学辅助设备、系统、和用于确定对象的变形的方法
US20170020451A1 (en) Neural locating method
US10448860B2 (en) System and method for bioelectric localization and navigation of interventional medical devices
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
WO2020106664A1 (en) System and method for volumetric display of anatomy with periodic motion
Kim Image Guided Robots for Urology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201217

R150 Certificate of patent or registration of utility model

Ref document number: 6813592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150