JP7170705B2 - 医療処置中のエフェクタの画像定位のためのシステム及び方法 - Google Patents

医療処置中のエフェクタの画像定位のためのシステム及び方法 Download PDF

Info

Publication number
JP7170705B2
JP7170705B2 JP2020213537A JP2020213537A JP7170705B2 JP 7170705 B2 JP7170705 B2 JP 7170705B2 JP 2020213537 A JP2020213537 A JP 2020213537A JP 2020213537 A JP2020213537 A JP 2020213537A JP 7170705 B2 JP7170705 B2 JP 7170705B2
Authority
JP
Japan
Prior art keywords
image
effector
dense
radiation
surgical field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020213537A
Other languages
English (en)
Other versions
JP2021053444A (ja
Inventor
アイザックス,ロバート・イー
ジョンストン,サミュエル・モリス
スクワーアー,デヴィッド・アレクサンダー
Original Assignee
トラックエックス・テクノロジー,エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トラックエックス・テクノロジー,エルエルシー filed Critical トラックエックス・テクノロジー,エルエルシー
Publication of JP2021053444A publication Critical patent/JP2021053444A/ja
Priority to JP2022175284A priority Critical patent/JP7366224B2/ja
Application granted granted Critical
Publication of JP7170705B2 publication Critical patent/JP7170705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radiation-Therapy Devices (AREA)

Description

本発明は医療処置中のエフェクタの画像定位のためのシステム及び方法に関する。
(優先権の主張及び関連出願の参照)
本願は、2016年5月16日出願の「医療処置中のエフェクタの画像定位のためのシステム及び方法」と題された同時係属米国仮特許出願第62/336,999号からの特許出願であり、同仮出願に対する恩典を主張し、その開示全体をここに参考文献として援用する。本願は、更に、2016年8月12日出願の「画像化中の被追跡金属物体の検出」と題された同時係属米国仮特許出願第62/374,187号からの特許出願であり、同仮出願に対する恩典を主張し、その開示全体をここに参考文献として援用する。
多くの外科処置は、器官や骨の様な患者の体内構造の画像を得ることを必要とする。一部の処置では、手術部位の周期画像の助けを借りて手術が成し遂げられる。手術とは、広義には、外科医、介入放射線科医、心臓専門医、疼痛管理専門医などの様な、医療従事者によって施行される何らかの侵襲性の検査又は介入を意味し得る。我々が画像誘導型と呼ぶところの実際に連続画像化によって誘導される手術及び介入では、手術器具がたとえカテーテル、針、器具、又はインプラントであろうと医師によるそれら手術器具の適正設置のためには又は特定の医療処置の施行のためには高頻度患者画像が必要である。蛍光透視又はフルオロは、術中x線の1つの形態であり、Cアームとしても知られているフルオロユニットによって撮影される。Cアームはx線ビームを患者を通して送り、その区域内の骨格構造又は血管構造の様な解剖学的構造の写真を撮る。それは、任意の写真と同じ様に、3次元(3D)空間の2次元(2D)画像である。また一方、カメラで撮影される任意の写真の様に、手掛かりとなる3D情報は、何が何の前にあるかそして一方のものがもう一方のものに対比してどれほど大きいかに基づいて2D画像に映し出されることになる。
DRRは、患者のCTスキャンを撮影し、異なる角度及び異なる距離からのx線撮影をシミュレートすることによって作られるx線のデジタル表現である。結果は、その患者について取得できるものなら何であれ可能性のあるx線がシミュレートされ得るということであり、それは患者の解剖学的構造の特徴が互いに対してどう見えるかに固有であり特異的である。「場面」は制御されるので、つまり患者に対するCアームの仮想上の場所及び互いに対する角度を制御することによって制御されるので、手術室(OR)で撮られる任意のx線の様に見えるはずの写真が生成され得るわけである。
フルオロ画像を撮影するといった様な多くの画像化手法は、少線量とはいえ患者を放射線に曝すことを伴う。但し、これらの画像誘導型処置では、少線量の回数が合算され、そうすると総放射線被曝は患者のみならず外科処置に参加している外科医又は放射線科医他にとっても問題となり得る。画像撮影時の患者/外科医について放射線被曝量を減らすための既知のやり方は様々あるが、これらの手法は、得られる画像の解像度が下がるという代償付きである。例えば、或る種の手法は標準的画像化とは対照的にパルス式画像化を使用しており、また他の手法は照射時間又は照射強度を手動で改変することを伴っている。視野の狭小化も放射線被曝面積及びその量を減少させる(加えて、放射線「散乱」量を改変する)ことができる可能性があるが、先と同じく、外科医にとって医学的決定を下すときに利用できる情報が少なくなってしまうという代償付きである。特別に、照射区域を選択可能な領域へ縮小することのできるコリメータが利用可能である。例えば、Heustis Medical社のモデルシリーズCM-1000の様なコリメータが図1に示されている源104の様なx線源の前に設置される。コリメータは、鉛の様な、殆どの入射
x線を吸収する一連の板からなっている。患者に到達するx線は板の間の開口を通過するx線だけである。板の位置は手動又は自動で制御されることができ、板は多面的視野の様な形状の異なる視野を提供するように構成されることもある。コリメータは、特定的に患者の或る一定の区域をx線への暴露から除外するので、それらの区域では画像は入手できない。そうすると医療従事者は、特定的に選択された区域に限定された患者の不完全なビューを有するわけである。したがって、コリメータの使用は、患者への放射線被曝を低減しはするが、医療従事者にとって利用可能な情報の量が減るという代償付きである。
典型的な画像化システム100が図2に示されている。画像化システムは、Cアーム画像化装置103を支持する基台ユニット102を含んでいる。Cアームは、患者Pの下に位置決めされていて放射線ビームを上に向かって受信器105へ方向決めする放射線源104を含んでいる。源104から発散される放射線ビームが円錐形であり、よって照射野は源を患者に近づけたり遠ざけたりすることによって変えることができる、ということは知られている。源104は照射野を制限するように構成されているコリメータを含んでいることもある。Cアーム103は、手術部位の異なる視認角度のために患者Pの周りを矢印108の方向に回転させることができる。場合に依っては、金属のインプラント又は器具Tの様な放射線稠密エフェクタが手術部位に配置されることもあり、すると障害物の無い部位のビューのために視認角度の変更を余儀なくされるということもある。かくして、患者に対する受信器の位置、より具体的には関心の手術部位に対する受信器の位置は、処置中に、外科医又は放射線科医の必要に応じて変わることがある。そのため、受信器105はそれへ取り付けられている追跡標的106を含んでいて、追跡装置130を使ってCアーム位置の追跡ができるようになっていてもよい。例えば、追跡標的106が標的の周りに間隔を空けて配置された数個の赤外線エミッタを含み、かたや追跡装置は素子によって発せられる赤外線信号から受信器105の位置を三角測量するように構成されている、というのであってもよい。基台ユニット102は、放射線技師がCアームの場所並びに放射線照射を制御することができるようにする制御パネル110を含んでいる。こうして典型的な制御パネル110は、技師が外科医の指揮で手術部位の「写真を撮影する」こと、放射線量を制御すること、及び放射線パルス画像を開始することを許容する。
Cアーム103の受信器105は、画像データを画像処理装置122へ送信する。画像処理装置は、それと関連付けられているデジタルメモリと、デジタルインストラクション及びソフトウェアインストラクションを実行するためのプロセッサと、を含むことができる。画像処理装置は、更に、フレームグラバ技術を駆使してディスプレイ装置126上の表示123、124として投影するためのデジタル画像又は画素ベースの画像を作成するフレームグラバを組み入れていてもよい。表示は、処置中の外科医による対話式視認に適するように位置決めされている。2つの表示は、ラテラルとAPの様な2通りのビューからの画像を示すように使用されていてもよいし、又は手術部位のベースラインスキャンと現在スキャンを示すようになっていてもよい。キーボード又はタッチスクリーンの様な入力装置125が、外科医がスクリーン上の画像を選択したり操作したりすることを可能にする。入力装置は、画像処理装置122によって実施される様々なタスク及び機構に対応するキー配列又はタッチスクリーンアイコンを組み入れていてもよいものと理解している。画像処理装置は、受信器105から得られる画像データをデジタルフォーマットへ変換するプロセッサを含んでいる。一部の事例では、Cアームは、映写照射モード(cinematic exposure mode)で作動していて毎秒多くの画像を生成している、ということもある。
これらの事例では、モーションアーチファクトやノイズを低減させるために複数の画像をまとめて短い時間に亘って平均化して単一画像にすることもできる。
標準的x線誘導型手術は、典型的に、エフェクタ(例えば、ねじ、カニューレ、ガイドワイヤ、器具、など)が身体の中へ進められてゆく際に同じ又は同様の解剖学的構造の繰返しx線を伴う。エフェクタを動かしては画像化するというこのプロセスは、器具の所望
場所が実現されるまで繰り返される。この反復プロセスひとつとっても、患者への癌の生涯リスクを1回のx線集中介入後に1%以上も増加させる可能性がある。
古典的な画像誘導型手術(「IGS」)は、先行の画像化をロードマップとして使用し、エフェクタの仮想表現を解剖学的構造の仮想表現上へ投影する。器具が身体を通って動かされてゆく際に、エフェクタの表現がこの位置決めを支援するべくコンピュータモニターに表示される。目標はx線の必要性を排除することである。残念ながら、現実には、これらの装置の実態は要望に適っていない。それらはセットアップするのに相当な時間を要するのが典型的であり、そのことが採用を制限しているだけでなくそれらを長時間の手術にとって非実用的なものにもしている。それらは経時的にドリフト及び患者の動きが物理的空間と仮想空間の間に解離を生じさせることで次第に不正確になる。典型的なIGS技法は、ワークフローを深刻なやり方で改変し、蛍光透視が使用される主たる理由であるところの何がリアルタイムで起こっているかを確証する能力及び必要に応じて器具を調節する能力、を医師へ提供しないことが往々にしてある。
米国仮特許出願第62/336,999号 米国仮特許出願第62/374,187号 米国特許第8,526,700号
医学界に大いに恩恵をもたらすことになるのは何かというと、ワークフローを改変することなく器具を位置決めするのを手助けする単純な画像定位器システムである。システムを素早くセットアップし走らせることができ、迅速な介入も長引く介入もあらゆる種類の医学的介入にとってシステムが実用的なものとなれば、実質的に有益であろう。所望されるシステムは撮影されるx線の回数を有意に限定するものということになるがx線を排除することを要求するものではない。したがって、システムは、再画像化を促進し且つこれを再較正するための手段として使用することによって、処置が計画通り所望通りに進行することを確約するものとしたい。エフェクタの仮想表現でなくエフェクタの実際のx線表現を使用することが、更に、精度を高め人間とコンピュータとの対話の必要性を最小限に抑えるはずである。システムが画像間のライブ蛍光透視を模倣するなら、システムによって実質的な放射が与えられることなしに、システムは器具を位置決めすること及び高精度のライブ画像化を提供することに役立つはずである。
医師がインプラント及び器具を患者の身体の中へ位置決めするのを支援するコンピュータ支援型画像化定位システムが提供されている。本システムは、実際の器具又はインプラントを表示し、この表示されたものを使用して手術を誘導するという所望の効果を有しており、コンピュータと直接対話する必要が無い。本システムは、重なり合う画像を一方の画像が他方の画像に透けて見えるようにしながらコンピュータスクリーン上に表示しスクリーン上で動かすことによってそれを果たす。これらの画像「マスク」は、未改変画像とすることもできるし、又は、画像の解剖学的態様又は非解剖学的態様を強める又は和らげるように細工された画像とすることもできる。これらの画像を互いに重ねてスライドさせることは、医療装置を高い精度でしかも追加x線の回数を制限して位置決めするのに役立つことができる。
別の特徴では、エフェクタのシャフト上に取り付け可能である追跡要素が提供されている。追跡要素は、エフェクタシャフトを実質的に取り巻いていて光学的追跡装置による感
知に適する構成のマーカー帯を含んでいる。1つの態様では、追跡要素上の1つ又はそれ以上のマーカー帯の構成は、エフェクタの性質の指標を提供することができる。この指標は、画像処理ソフトウェアによって提供される表示及びデータ操作の性質を確定するのに使用されることができる。
画像化システムと、画像処理装置と、手術器具及び手術装置のための定位器又は追跡装置と、を含んでいる画像誘導型手術設定の画図である。 被追跡エフェクタの運動を手術部位のx線画像上に表示する場合の諸段階の図解である。 手術部位の画像表示のスクリーンショットであり、患者の解剖学的構造と、手術部位の固定画像に対しての放射線稠密エフェクタの可動画像と、を示している。 手術部位の画像表示のスクリーンショットであり、患者の解剖学的構造と、手術部位の固定画像に対しての放射線稠密エフェクタの可動画像と、を示している。 手術部位の画像表示のスクリーンショットであり、患者の解剖学的構造と、手術部位の固定画像に対しての放射線稠密エフェクタの可動画像と、を示している。 手術部位の画像表示のスクリーンショットであり、患者の解剖学的構造と、手術部位の固定画像に対しての放射線稠密エフェクタの可動画像と、を示している。 手術部位及び放射線稠密エフェクタのx線画像のスクリーンショットである。 図4Aと同じ手術部位及び放射線稠密エフェクタのx線画像のスクリーンショットであり、低線量x線画像を含んでいる。 図4Aと同じ手術部位及び放射線稠密エフェクタのx線画像のスクリーンショットであり、放射線稠密エフェクタの表示が解剖学的構造の画像に対比して強化されている画像を含んでいる。 x線画像のスクリーンショットであり、放射線稠密エフェクタはエフェクタが動くと手術部位の固定画像に対して動く金属マスクによって画像中に表現されている。 x線画像のスクリーンショットであり、放射線稠密エフェクタはエフェクタが動くと手術部位の固定画像に対して動く金属マスクによって画像中に表現されている。 x線画像のスクリーンショットであり、放射線稠密エフェクタはエフェクタが動くと手術部位の固定画像に対して動く金属マスクによって画像中に表現されている。 エフェクタのオーバーレイ金属マスク画像を有する手術部位のx線画像のスクリーンショットである。 エフェクタのオーバーレイ金属マスク画像を有する手術部位のx線画像のスクリーンショットである。 画像中に示される解剖学的構造に対する放射線稠密エフェクタの先端の位置を指示するスラグを有するx線画像のスクリーンショットである。 エフェクタの位置を追跡するために使用されるマーカー帯を有する一般的なエフェクタの側面図である。 エフェクタ上に取り付けられていてエフェクタの位置を追跡するためのマーカー帯を提供している追跡要素を有する一般的なエフェクタの側面図である。 エフェクタ上に取り付けられていてエフェクタの位置を追跡するためのマーカー帯を提供している別の追跡要素を有する一般的なエフェクタの側面図である。 視認野内のエフェクタ及び関心領域を有する手術野のx線画像のスクリーンショットである。 放射線稠密エフェクタの画像を示す低線量x線画像のスクリーンショットである。 放射線稠密エフェクタの画像を示す低線量x線画像のスクリーンショットである。 放射線稠密エフェクタの画像を示す低線量x線画像のスクリーンショットである。 手術野内の複数の放射線稠密エフェクタのx線画像のスクリーンショットであり、エフェクタの画像は解剖学的構造の画像上にオーバーレイされた金属マスクによって表現されている。 手術野内の放射線稠密エフェクタのx線画像のスクリーンショットであり、エフェクタの画像は分離されている。 手術野内の複数の放射線稠密エフェクタのx線画像のスクリーンショットであり、エフェクタの画像は解剖学的構造の画像上にオーバーレイされた金属マスクによって表現されている。 手術野内の複数の放射線稠密エフェクタのx線画像のスクリーンショットであり、エフェクタの画像は解剖学的構造の画像上にオーバーレイされた金属マスクによって表現されている。 手術野内の放射線稠密エフェクタのx線画像のスクリーンショットであり、エフェクタの画像は分離されている。 手術野内の複数の放射線稠密エフェクタのx線画像のスクリーンショットであり、エフェクタの画像は解剖学的構造の画像上にオーバーレイされた金属マスクによって表現されている。 放射線稠密エフェクタが本開示の画像処理装置によって自動的に検出されているx線画像のスクリーンショットである。 放射線稠密エフェクタが本開示の画像処理装置によって自動的に検出されているx線画像のスクリーンショットである。 放射線稠密エフェクタが本開示の画像処理装置によって自動的に検出されているx線画像のスクリーンショットである。 放射線稠密エフェクタが本開示の画像処理装置によって自動的に検出されているx線画像のスクリーンショットである。 放射線稠密エフェクタが本開示の画像処理装置によって自動的に検出されているx線画像のスクリーンショットである。 外科処置中のx線装置又はCアームの運動の表現である。 図15AのCアームの運動に対応している画像の運動を示すx線画像のスクリーンショットである。 図15AのCアームの運動に対応している画像の運動を示すx線画像のスクリーンショットである。 図15AのCアームの運動に対応している画像の運動を示すx線画像のスクリーンショットである。 外科処置中の放射線稠密エフェクタの運動の表現である。 図16Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、エフェクタの位置は静止したままである。 図16Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、エフェクタの位置は静止したままである。 外科処置中の放射線稠密エフェクタの運動の表現である。 図16Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、解剖学的構造の画像の位置は静止したままである。 図16Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、解剖学的構造の画像の位置は静止したままである。 外科処置中の放射線稠密エフェクタの運動の表現である。 図18Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、エフェクタの位置は静止したままで、エフェクタの静止した向き付けに対応してグリッド線が画像上に重ね置かれている。 図18Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、エフェクタの位置は静止したままで、エフェクタの静止した向き付けに対応してグリッド線が画像上に重ね置かれている。 外科処置中の放射線稠密エフェクタの運動の表現である。 図19Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、解剖学的構造の画像の位置は静止したままで、放射線稠密エフェクタの異なる位置に対応してグリッド線が画像上に重ね置かれている。 図19Aの放射線稠密エフェクタの運動に対応している画像の運動を示すx線画像のスクリーンショットであり、解剖学的構造の画像の位置は静止したままで、放射線稠密エフェクタの異なる位置に対応してグリッド線が画像上に重ね置かれている。 手術部位内の特定の放射線稠密エフェクタの低い視認性を例示しているx線画像のスクリーンショットである。 手術部位の画像中の放射線稠密エフェクタの存在及び場所を検出するためのフローチャートである。 図21のフローチャートでの検出方法の1つの段階を説明する、手術部位内のエフェクタのx線画像のスクリーンショットである。 図21のフローチャートでの検出方法の更なる段階を説明する、手術部位内のエフェクタのx線画像のスクリーンショットである。 図21のフローチャートでの検出方法の別の段階を説明する、手術部位内のエフェクタのx線画像のスクリーンショットである。 図21のフローチャートでの検出方法の次の段階を説明する、手術部位内のエフェクタのx線画像のスクリーンショットである。 図21のフローチャートでの検出方法の更に別の段階を説明する、手術部位内のエフェクタのx線画像のスクリーンショットである。 図21のフローチャートでの検出方法の1つの段階を説明する、手術部位内のエフェクタのx線画像のスクリーンショットである。 エフェクタは検出済みであり画像内でエフェクタの金属マスクが強化されている手術部位のx線画像のスクリーンショットである。
開示の原理の理解を促すことを目的に、図面に描かれ以下の書面による明細書に説明されている実施形態をこれより参照してゆく。それにより、開示の範囲への何らの限定も意図されるものではないと理解している。更に、本開示は、例示されている実施形態への何らかの変更及び修正を含み、またここに開示されている原理の、本開示が属する技術の当業者に普通に想起されるはずの更なる適用を含むものと理解している。
発明の1つの態様によれば、プロセスは、外科的に対処されるべき解剖学的構造の画像を撮影することから始まる。典型的に、この「定位ショット」又は「ベースライン画像」は、動かされる/調節されることになっている放射線稠密エフェクタ(例えば、ねじ、カニューレ、ガイドワイヤ、器具、など)を包含していないが、1つの実施形態では、エフェクタを包含する単一画像が使用されることもある。画像処理装置122(図1)は、デジタル式に表示され操作されることのできるデジタル画像を生成する。解剖学的構造がコンピュータスクリーン上に識別され表示された状態で、エフェクタ又は器具を有する「新」画像が撮影され、この画像もまた画像処理装置122によってデジタル画像へ変換される。この新画像は元の定位ショットの上に表示されるので、結果として得られる画像は、図3Aに示されている様な蛍光透視スクリーン上の従来画像のように見える。本開示の1つの態様では、図1のエフェクタTの様なエフェクタは、エフェクタの運動を追跡する能
力のある定位器システム(例えば、EM、光学的IGS、など)を組み入れている。定位器システムによって測定されるエフェクタの3D運動は、「新」画像を「定位ショット」画像に対して動かすために「新」画像のデジタル表現へ適用されることができる。こうしてエフェクタの先端が追跡されてゆく際、「新」画像の運動は、追跡中の器具の先端の、「定位ショット」中に描出される静止の解剖学的構造に対する位置の変化を示す。かくして、コンピュータスクリーン上には、エフェクタが動かされるにつれあたかもライブ蛍光透視が撮影されてゆくかのように、また実際の用具又はインプラントが患者の解剖学的構造に対して動かされ調節されてゆくかのように映る。次の画像が撮影されるとき、エフェクタの先端は医師が所望する場所にある。本開示のシステム及び方法は、エフェクタのデジタルモデルが操作される典型的なIGSシステムとは異なり、手術野内のエフェクタの実際の画像を操作することに依拠する。
表示上の「新」画像の運動は、図2に描かれている様に、蛍光透視の円錐ビーム内の場所に対するエフェクタの先端の幾何学配置に基づいている。同じ相対運動について、被追跡エフェクタの先端がx線源に近いほど、「新」画像の運動ひいてはエフェクタの投影(画素数)は、「定位ショット」のサイズに対比してより大きくなる。9インチの画像増強器の様な標準サイズの画像を想定し、x線源の増強器からの典型的な1000mm離隔距離を仮定すると、画像増強器上に投影される被追跡エフェクタの運動は1mm当たり大凡2.24画素の運動となる。画像増強器から離れ源により近くなると、この画素/mm運動比は図2に示されている一貫したやり方で拡大される。具体的には、被追跡エフェクタの画像増強器への投影の運動距離は、Y’=X’*Y/Xによって与えられ、ここに、Yはエフェクタの実運動距離であり、Xは源から被追跡エフェクタ/器具までの距離であり、X’は源から画像増強器での定位画像までの距離であり、Y’は投影される運動距離である。距離X’は、従来型Cアームx線源については処置全体を通して典型的に固定されているものと理解されてもよいだろう。距離Xと運動距離Yは、画像処理装置122(図1)によって、エフェクタの運動を追跡するのに使用されている定位器システムから受信されるデータに基づいて求めることができる。画像処理装置は、投影される運動距離Y’を用いて「新」画像を表示上でしかるべく動かす。
図2の下の表現に示されている「新」画像は、標準的なx線設定を使用して撮影されてもよいし、又は総線量未満又は低線量設定を用いて撮影されてもよく、低線量設定は解剖学的構造をぼかしはするが画像中のエフェクタの画像への影響は比較的少ないという利点がある。(「放射線稠密」材料とは、概して、画像化光線又はx線が通り抜けるのを許容せず、よって放射線稠密エフェクタは下層の解剖学的構造を遮るものと理解している。)「新」画像が低線量画像である場合、「新」画像は定位ショットからの画像と組み合わされるか又は定位ショットからの画像上にオーバーレイされて、ユーザーが、結果として得られるライブ蛍光透視画像として現れる解剖学的構造の映りと組み合わされた画像を見られるようにする。結果は、図3Aに見られる様に、エフェクタを医師によって所望されている正しい場所へ誘導するのを手助けできる画像である。
図3A-図3Dに示されている実施例では、追跡されるべき骨ねじ10が、初期「定位ショット」後に患者の中へ導入され、図3Aのスクリーンショットとして表示122/123(図1)に投影されている。被追跡器具10が定位ショット又はベースライン画像12の視野から外へ動かされるとき、図3Bのスクリーンショットに描かれている様に定位ショット12が左にそして新たな低放射線画像14が右に見える状態で2つの重なり合う画像が認識されることになる。解剖学的構造の表現はぼんやりしているが、一方で低放射線画像中の金属ねじは非常に際立っていることが注目され得る。図3Cのスクリーンショットに示されている様に被追跡ねじが医師の所望に基づき理想的な場所へ動かされるとき、スクリーン上の画像は、新たなライブ画像を得ることなしにライブ蛍光透視を模倣して任意の点で新たな蛍光透視画像がどんな風に見えるかを再現する組合せ画像(総線量定位
ショットを低線量画像でオーバーレイしている)を常時投影することができる。少なくともCアーム又はx線源が動かされない限り、エフェクタ10が動かされる際に定位画像又はベースライン画像12は変化しないものと理解することができる。定位画像12のためのデジタルデータは、エフェクタの運動中に画像処理装置によって操作されない。他方で、画像処理装置は、投影される被追跡エフェクタの運動に基づいて「新」画像のデジタルデータこそを操作し、その結果、エフェクタが動かされてゆけば「新」画像が表示を横切って動くのである。
医師によって所望される場所にエフェクタ10があることを確証するために、図3Dのスクリーンショット中の表示の様な静止総線量新画像が撮影されてもよい。何らかの理由で画像整列が外れているか又は更なる微調整が要求される場合、今回新たに取得された画像がベースライン画像としての先の定位ショット画像に置き換わることができ、そしてプロセスは繰り返される。こうして本システムは総線量新画像が撮影されるとリセットし又は再較正し、その結果、以降の画像は常に以前の画像よりも高精度に表示されるわけである。
医師がエフェクタ10を動かしてゆと低線量画像はエフェクタと共に動くものと理解することができる。図3Cにある様にエフェクタがベースラインショット画像又は定位ショット画像の視野内にあるとき、低線量画像からのエフェクタの画像は、医師に患者の解剖学的構造及び当該解剖学的構造に対するエフェクタの位置がはっきりと分るように、静止定位画像と組み合わされる。エフェクタがベースライン画像の視野内で動かされると、エフェクタの画像(であり「新」画像)は相応に動くので、医師はエフェクタの先端を解剖学的構造の所望場所へ誘導することができる。オーバーレイ画像を手術部位の例えばAPビューとラテラルビューの様な二通りのビューを持つ2つの表示にすることもできると考えられる。ベースライン画像及び次の新画像がAPビューとラテラルビューの両方として取得されることもできる。エフェクタが動かされてゆくと、その関連画像が両方の表示されるビュー内で動き、その結果、外科医はエフェクタの3D運動を観測することができるのである。
エフェクタの運動の各段階で新画像が実際に取得されていないことに気づいたとき、医師はエフェクタの運動の様々な段での新たな低線量画像を取得してエフェクタの実際の場所を検証することができる。こうして、解剖学的構造に対するエフェクタの実際の位置vs表示位置における何らかの誤差は、その都度新たな低線量画像が撮影されることで排除される。言い換えると、各低線量画像を用いて、システムは解剖学的構造に対するエフェクタの実際の位置を低線量画像から取得されるデジタルデータを基に較正し直すわけである。エフェクタの新しい位置を識別している新たなデータは、こうして、エフェクタが外科医によって動かされてゆく際の新画像の運動についての起点となるのである。エフェクタがその最終位置へ動かされる際に医師が複数の低線量画像を必要とし、それぞれの低線量画像を用いてエフェクタの実際位置を較正し直しながら、場合によっては最終位置を検証するために最後は総線量画像で完了させる、ということもあり得るものと考えられる。
図3A-図3Dには低線量画像が示されているが、図4Aのスクリーンショットに示されている様に従来の又は総線量の「新」画像を撮影して同様の結果を表示させることもできる。図4Bのスクリーンショットに見られる様に低放射線画像が使用されてもよいし、又は、図4Cのスクリーンショットに示されている様に「新」画像の金属増強が遂行されてもよい。図4Bの画像は低放射線下に得られており、解剖学的特徴は有効にウオッシュアウトされている。低い放射線量のせいでエフェクタ10の画像もウオッシュアウトされてはいるが、金属又は他の放射線稠密材料は十分に放射線不透過性であるので結果として得られる図3Bのエフェクタの画像は容易に見分けるうえでなおも十分に目立っている。
図4Cの画像は、エフェクタ10の画像と関連付けられる画素を増強することによって生成されており、したがって完全画像が表示されるとき、エフェクタの画像が本質的に下層の解剖学的構造の画像をウオッシュアウトする。何れの場合も、投影されるものは、器具がライブ蛍光透視下に動いているかのように外科医に見えるようにするための「目を欺く」能力を有している。
図4Cの金属増強画像は、図5Aのスクリーンショット中の画像の様な画像へ適用されるている金属マスクを構成することができる。図5Bに示されている様に、エフェクタ10の画像は、緑色マスク20が実際の画像上にオーバーレイすることによって表現されている。マスクの運動は、定位器によって求められるエフェクタの実際の運動と相関付けられる。マスク20の緑色の層がより理想的な場所へ動かされたら、確証のためのx線が図5Cのスクリーンショットにある様に撮影されてもよい。緑色又は金属のマスク20は、画像の画素を調べてどの画素が解剖学的特徴と関連付けられどの画素が非解剖学的特徴と関連付けられるかを主に各画素の強度値に基づいて求めるソフトウェアを使用している画像処理装置122(図1)によって生成されることができる。デジタル化されたx線画像の各画素へは、解剖学的特徴を表現している画素と非解剖学的特徴を表現している画素の間のエッジを強化するために様々なフィルタが適用されてもよい。非解剖学的特徴と関連付けられる画素が取得されエッジが強化されたら、選択されている非解剖学的画素の外の画素がウオッシュアウトされ、エフェクタに対応している非解剖学的特徴の画素だけが残されるようにすることができる。
図5A-図5Cの画像と同様に、図6A-図6Bでは患者体内の所望位置へ位置決めし直されるジャムシディ針10’へ画像追跡を適用することができる。但し、図6Aには初期「定位ショット」がない。「新」画像が静止画像と動かされる画像の両方の働きをする。エフェクタの画像は図5Cのマスク20の様な緑色層マスクに置き換えられ、画像の緑色層だけが「新」画像の背景上を動かされる。エフェクタの画像誘導システムは画像中の器具の相対的配置を求めることができ、したがって先の実施例の様に画像全体を動かすのではなく、エフェクタ10’の領域の周りの狭い区域だけが動かされるのである。
発明は、被追跡物体の運動に基づいて画像マスクを動かす又は画像セットを重ね合わせるためのシステム及び方法であって、医師又は外科医に、最小限のx線画像数で患者体内の正しい場所に外科用エフェクタを設置する能力を提供するシステム及び方法を構想している。運動の投影は、エフェクタの絶対的な動きに基づくのではなく、画像化空間内での被追跡エフェクタの相対的な動きに基づいている。図6Bに示されている様な特定の画像運動にとってはエフェクタの先端の絶対場所の知識が必要であるが、その様な知識は必須ではない。エフェクタの元の位置と新しい位置の間の相対的な動きと、エフェクタ/器具の先端からx線源までの距離と、が分かりさえすればよい。
エフェクタ/器具の位置は、新x線ショットの都度、再較正されることができる。器具側では、このことは、都度のx線が「新」画像の相対位置又は初期開始点を被追跡エフェクタの現在場所へリセットし、それへエフェクタが中に入った「新」画像がリンクされる、ということを意味する。この特徴は、システムを主として相対運動に集中させるので、設定するべきドリフトについての見込まれる計画対象期間が最小限に抑えられる。
ここに開示されているシステム及び方法は、医師/外科医が患者を持続的に画像化することなくエフェクタ/器具の運動をリアルタイムで見られる、という意味での「疑似ライブ蛍光透視」を創出するのである。本開示は、更に、撮像を自動化して、中間に「疑似ライブ蛍光透視」で以て常時再更新されるスポット画像を作成させ、劇的に少ない画像及びその結果としての劇的に少ない放射でライブ蛍光透視の体裁を有する継続的高精度器具追跡装置を創出する、ということを構想している。本開示の方法は、相対運動の知識(器具
の直近位置と現在位置の間のデルタを意味する)しか必要とせず、エフェクタ/「新」画像の2D動きを表示してそれを役立たせることしか必要としない。本開示は、動かされているものの絶対運動及び実際の知識を把握することが(それの正しい仮想表現を投影するために)必須である典型的なIGSに比べて、より包括的な画像化システムを提供している。
本発明のシステム及び方法は、金属マスクと共に又は実際の画像と共にうまく機能し、また低線量画像と共に又は総線量画像と共にうまく機能することができる。このシステムを用いて、図3、図4に示されている様に画像全体が動かされ又は調節されることもできるし、又は図6Bに示されている様に関心領域のみが動かされ又は調節されることもできる。
ここに開示されているシステム及び方法は、実際のエフェクタ(又はより具体的には、エフェクタのアクティブなx線写真)を使用するのであり、典型的なIGSでの様にそれの仮想表現を使用するのではない。この手法は、視覚化を支援するために、2つの画像の異なる特徴(例えば、解剖学的構造、金属、など)を強調すること又は強調を抑えることを可能にする。ここに開示されている方法は、典型的なIGSではしばしば要求されることのある歪み補正即ちデワーピング又は較正用ファントムを必要としない。かくして本システムは、様々な型式の歪(即ち、ピンクッション、など)を補正するためのCアーム上のグリッドを必要としない。IGSシステムが使用されている場合、本システムは、IGS追跡器がエフェクタの先端に設置されることを許容する(EMマイクロセンサなどの場合)か、又はIGS追跡器が光学システムにより典型的であるとされる既知のオフセットで先端へ投影されることを許容する。本システムは、ほぼ全てのIGSシステムで標準になっている「ビーコン」の様な何らかの患者参照を必要としない。具体的には、Cアームに対する物体の先端の場所(画像増強器とx線源の間の先端の距離)及びエフェクタの平面内運動(距離と軌道)を知る必要はない。
本システム及び方法は、単一画像と共に動作することができ、金属又は他の放射線稠密材料を解剖学的構造から切り離し、金属又は他の放射線稠密材料なしの解剖学的構造を層として残すこともできるし、又は図5、図6に描かれている様に金属又は他の放射線稠密材料が層としての解剖学的構造なしに動かされることもでき、又は複数の層が何れかの組合せで動かされることもできる。
本方法及びシステムは、歪んだIGSデータ(同様のことが古典的にEMでも問題になっている)の場合でさえ機能し、運動は完全というわけにはいかないが漸近的に正しい位置へ近づいてゆく。例えば、IGSデータが20%だけ不正確であるなら、1回目の運動後、「新」x線はそれが20%外れていることを追認しようとするだろう。ところがシステムは、そこで、新たな「新」画像を動かす今回の段階がより正確であるだけでなく動く必要のある距離も先の距離の5分の1にしかならないように再較正される。したがって、システムがなおも20%の誤差を有しているとしても、この20%のギャップを閉じる次の運動は、4%(即ち、20%の20%)しか外れていないことになる。相対的な動きと都度のx線の間で動かされるこの永続的に小さくなってゆく距離の使用は、本システムが、ノイジーな歪曲EMデータをORでの適用のために使用することを可能にさせる。
別の特徴では、エフェクタ10の様なエフェクタの先端は、表示されるx線画像上に、図7のスクリーンショットに示されているスラグ30として表現されることができる。スラグの位置は、解剖学的構造に対するエフェクタの先端の位置に対応していて、円形又は標的の中心点及び図7に描かれている様な矢印を含む様々な形態を取ることができる。スラグ30の外観は、エフェクタを所望の解剖学的構造位置へナビゲートするプロセスでの異なる条件を象徴するために変えられてもよい。例えば、スラグのサイズ又は構成は、特
定の運動と関連付けられる正確度を指示するものであってもよい。例えば、スラグは、正確さが低いときは円形として描かれ、正確さが大きいときは矢印として描かれるようになっていてもよい。円のサイズが、エフェクタの先端の場所についての正確度と関係付けられていてもよい。
スラグの色も、特定の条件つまりはCアーム又はx線装置の条件を指示するように変えられていてもよい。例えば、スラグは、定位画像が取得されたときにCアームの現在位置がそれの位置の狭い範囲内にあれば、例えば2mm内にあれば緑色をしていて、現在位置が当該範囲の外にあれば赤色をしていてもよい。スラグが緑色から赤色へ変化すれば、医師は、新たなx線画像を得て、新たなベースラインを確立させ、エフェクタの実際の現在位置を検証することができる。エフェクタの色が緑色に留まる限り、医師はエフェクタ先端の実際の場所が表示されている場所に対応しているとの自信を持てる。色を変化させることの代替として、Cアームの位置が変化したらスラグ30が点滅するようになっていてもよい。
手術部位に複数のエフェクタが存在する場合、スラグ30の色が当該スラグと関連付けられている特定のエフェクタを指示するようになっていてもよい。以上に論じられている段階全てが、複数のエフェクタについて、エフェクタの所望位置への高精度ナビゲーションのために実施され得るものと理解されたい。複数のエフェクタは処置中の位置決め及び再位置決めを要することがあるかもしれないと予想できるので、本開示の方法は複数のエフェクタ及び複数のスラグを勘案して相応に修正されることができる。
別の実施形態では、図7に示されているスラグ35はエフェクタの先端の場所をマーキングしているものであって、先端の位置に対応しているドット又は小円の形をしている中心要素36と、中心要素36の周りに少なくとも初期には同心に配置されている円の形をしている第2要素37と、を含むことができる。円の形をしている第2要素は、エフェクタの長手方向軸に沿って先端からオフセットされたエフェクタ上の或る点に対応していてもよい。中心要素又はドット36に対する第2要素又は円37の場所が医師にエフェクタの姿勢の指示を提供する。図7の描写では、ドット36に対する円37のオフセットは、関連付けられているエフェクタのシャフトが手術野を左方下向きに延びていることを指示している。
或る代わりの実施形態では、スラグ35’は、図7に示されているものと同じ、エフェクタ先端の位置を描くドット又は小円36’の形をしている第1要素を含むことができる。しかしながら、第2要素については円を含むというのではなく、スラグ35’の第2要素は、エフェクタのその先端に対する方位を指示するだけでなくエフェクタの軸周りの回転も指示する「I」字型である。「I」の垂直方位からの角度的オフセットは外科医にインプラント、用具、又は器具の回転方位の視角的指示を提供する。
以上に論じられている様に、本システム及び方法は、エフェクタの位置を取得する定位器システムからの追跡情報を利用する。典型的な定位器システムは、光学センサのアレイを利用して、エフェクタの端へ取り付けられている光学的な追跡構成要素を追跡する。この配列は厄介で往々にして外科医の手術部位の視野に干渉する。本開示の1つの態様では、エフェクタ40は、図8に描かれている様に、作用先端43に終端する細長いシャフト42を有するハンドル41を含んでいる。シャフト42は、シャフトを少なくとも部分的に取り巻く光学的な帯の形態をしている光学的に追跡可能なマーカー44a、44bを提供されている。マーカーがエフェクタの全回転角度にて視認可能であるように帯はシャフトの周りを少なくとも300°取り巻いていることが構想される。帯は、エフェクタへ適用された光学的なテープによって形成されていてもよいし、又はエフェクタの材料に例えばエッチングなどによって直接適用されていてもよい。2つのマーカー44a、44bは
、自由度5――X、Y、Z、ピッチ(X回転)、及びヨー(Y回転)――のエフェクタの運動を追跡することを可能にする。マーカー44a、44bは作用先端43からの既定距離に設けられており、よって定位器ソフトウェアは2つのマーカーの検出された場所を、作用先端の5DOF位置を外挿するのに使用することができる。
本発明のこの特徴の1つの態様では、マーカー44a、44bはエフェクタの型式を指示する既定間隔だけ隔てられている。例えば、マーカーの1つの間隔はケージ挿入器を表し、マーカーの別の異なる間隔は伸延器(distractor)を表わす、というのであってもよい。定位器システムは、マーカー44a、44bの間隔の差異を見極め、次いで記憶されているデータベースを参照して検出中のエフェクタの性質を判定するように構成されることができる。データベースは、マーカーの場所を感知することによって作用先端の位置を正確に求めることができるように、作用先端をマーカーに対比して定位する情報を含んでいる。データベースは、更に、以上に記載されている金属マスク20を生成するのに使用することのできる器具のモデルを含んでいてもよい。ひとたび特定のエフェクタが識別されれば、いつでも定位器システムは作用端がどこに位置しているかを知るはずであり、たとえ2つのマーカーのうちの一方がぼんやりしていてもである。代わりに、帯のうち1つ又はそれ以上の幅が検出中のエフェクタの性質を指示するものであってもよい。
別の態様では、マーカーは、図9に示されている様に、他の点では用具40と同様である用具40’のシャフト42’へ取り付けることのできる追跡要素45へ組み入れられている。追跡要素は、シャフト42’上へ挟み付けられ摩擦把持でその場に保持されることのできる円筒形又は部分円筒形の本体46を含んでいる。円筒形本体46は、本体を取り巻く帯の形態をしている2つのマーカー44a’、44b’を含んでいる。光学的に検出可能な帯を構成する第3のマーカー44c’を円筒形本体から突き出ている腕部48に設けることもできる。第3のマーカー44c’の追加は、定位器装置によって検出される位置データに第6の自由度、即ちZ軸又はシャフト42’の長手方向軸周りのロール又は回転、を追加する。帯44a’、44b’は、特定のエフェクタを表すために以上に説明されているやり方で離間されていてもよい。
或る代わりの実施形態では、図10に示されているエフェクタ40’’は、エフェクタのシャフト42’’上に既存の従来式基準マーカー44a’’を含んでいる。追跡要素45’’は、エフェクタのシャフト42’’上へ締付けられるように構成されている円筒形又は部分円筒形の本体46’’を含んでいる。本体46’’は、円筒形本体を取り巻く帯の形をしている第2のマーカー44b’’を含んでおり、垂直方向延長部48’’に第3のマーカー44c’’を含んでいてもよい。追跡要素45’’上の2つのマーカー44b’’、44c’’は、エフェクタ上の既存の基準44a’’と協働して、自由度6のエフェクタの位置ひいては作用先端43’’の位置を検出することを可能にする。この実施形態では、追跡要素45’’は、作用先端43’’に対して特定の高さhにてシャフト42’’へ締付けられている。高さhは、既存の基準44a’’に対する既定間隔を現出させ、当該間隔を、特定のエフェクタの性質を識別するのに使用することができる。追跡要素45’’を或る特定のエフェクタにとって適正な高さに位置決めするべく較正用具が使用されてもよい。
言及されている様に、エフェクタ上のマーカーの場所は、エフェクタ、即ち、用具、器具、インプラント、など、の性質を識別するのに使用できる。画像化ソフトウェアは、どんなエフェクタが手術野にあるのかを、更にはそれらが手術野内で動かされる際の位置を憶えている。マーカーのうちの1つ又はそれ以上が定位器又は追跡装置のビューから一時的に遮られても、画像化ソフトウェアはエフェクタの位置を利用可能なマーカーの位置に基づいて外挿することができる。
本発明の更なる態様では、画像処理ソフトウェアは、システムの特定の機構を、検出されるエフェクタの型式及び処置の性質に基づいて自動化するように構成されることができる。ソフトウェアは、外科医が外科処置の性質を識別することを許可し、次いでこの情報が使用中の単数又は複数のエフェクタに関する情報と併せて使用されて、特定の表示機構がトグルされるようになっていてもよい。トグルされる機構は、金属強化(ここに論じられている)、x線画像上に表示されるスラグの性質、又は、1つ又は2つの隣接ビューの使用(APとラテラルを同時になど)を含み得る。
以上に説明されているシステムは、図11に例示されている様に、表示されている手術野F内で用具Tの様なエフェクタを追跡するための方法を提供する。本開示は、更に、画像処理装置22(図1)によって実施される画像化ソフトウェアであって、用具Tの様な被追跡放射線稠密物体が手術野Fに進入するとき及び新たな画像が放射線科医又は外科医に依って撮影されたときに限ってアクティブにされる画像化ソフトウェアを構想している。これら2つの条件が起こると、用具のための緑色マスク20の様な物体マスクが表示され、画像は外科医によってエフェクタ又は他の放射線稠密物体の操作に基づき操作されることができる。ソフトウェアは、被追跡器具を含まない新たな画像が撮影されるまで、アクティブのままである。放射線稠密物体が手術野F内に再出現すれば、ソフトウェアは、手術野及び用具の元の場所を覚えていて、放射線科医又は外科医による操作を可能にさせる。
而して、本開示のソフトウェアは、画像化ソフトウェア実行のバックグラウンドで常に走っている金属識別機構を提供している。ソフトウェアは、自動的に、何れのオペレーター介入もなしに手術野内の放射線稠密物体の存在を識別し、オペレーターの介入なしに放射線稠密物体の画像を表示する。かくして、本開示は、画像野中の放射線稠密物体を識別するための、及び当該物体の表示を手術野内で物体をナビゲートしようと試みる医師の利益に適うように強化するためのシステムを構想している。従って、ここに開示されているソフトウェアは、放射線科医又は外科医からの何れの入力又は介入もなしに、放射線稠密物体の性質及びパラメータを識別する。ソフトウェアは、x線画像を分析して単数又は複数の放射線稠密物体を定位し、次いで物体の構成に対応するマスクを作成する。物体が動かされると、ソフトウェアは下層の手術野画像を修正することなしに物体マスクだけを動かすことができる。1つの手法では、ソフトウェアは、誘導される手術用具についての既存の追跡データを利用して、器具又は用具の先端が発見され得る画像野の領域を識別し、及び/又は既存の追跡データから得られる、用具のx線への一般的な投影角度を識別する。本開示は、かくして、追跡データが視認野F内の領域R(図11)しか識別していない場合であっても用具Tを定位することのできるシステムを提供している。
放射線稠密物体が定位されたら、本開示のソフトウェア及びシステムは、放射線稠密物体の画像を強化又は増強する。図12Aに示されている様に、幾つかの放射線稠密物体Mは低線量画像では見えにくい。図12Cに示されている様に、問題は、低線量画像が先の標準線量画像と併合された場合に悪化し(図12B)、例えば2013年9月3日に発行されている米国特許第8,526,700号に記載されている技法による場合などがそうであり、同特許の開示全体を参考文献としてここに援用する。本開示は、画像処理装置122(図1)によって実行されるソフトウェアであって、図12Aに示されている画像野中でさえ(単数又は複数の)放射線稠密物体Mの場所を識別し、次いで図12Cに示されている複合画像中の放射線稠密物体M’を増強して放射線稠密物体が十分に医師に視認可能となるようにするソフトウェアを構想している。ソフトウェアは放射線稠密物体を直接に図12Aの画像から定位することができ、又はソフトウェアは画像誘導構成要素によって提供される投影の角度及び/又は場所データを使用して、(単数又は複数の)放射線稠密物体Mの場所を識別するプロセスを加速させることができる。ここに開示されているシステム及びソフトウェアは、こうして、画像が低線量画像である場合でさえ、視認野内の
ひどくおぼろげな物体を定位し強化するための手段を提供している。(単数又は複数の)放射線稠密物体M’が定位され、強化されたら、物体だけが追跡されるのであるから下層のベースライン画像又は複合x画像は静止のままにしておいて強化された放射線稠密物体だけが動かされる。更に、放射線稠密物体のうち或る特定の視野に現れる可能性のあるものだけを選択するように被追跡物体が限定されることもできると構想される。画像が被追跡放射線稠密物体M’と共に動いても、追跡されない放射線稠密物体は未強化のまま静止に放置されるようにしてもよい。また画像中の何れか1つの又は複数の放射線稠密物体は、ベースラインx線画像又は複合x線画像をオーバーレイする独立マスクとして、独立に識別され、強化され、及び動かされることができる。この特徴を用いて、複数の医師が同時に共同で作業し、皆が同じ下層の静止しているベースラインx線画像又は複合x線画像から作業して外科処置に必要な放射線稠密物体を共同で位置決めすることもできる。
本開示のシステム及びソフトウェアは、図13Aの画像と図13Bでの分離画像の様な、画像内での放射線稠密物体の分離を可能にする。分離画像を使用して、放射線稠密物体の運動を誘導したら、今度はそれを図13Cに示されている様にx線画像の新しい場所に再度一体化させることができる。このプロセスは、図13Dから図13Fに例示されている様に、何れの放射線稠密物体についてもそれがひとたび識別されたら遂行されることができる。それら放射線稠密物体を、図13Fに示されている様に複数の物体についてマスクを色分けしてマスクで表現させることができる
図14A-図14Fは、本システム及びソフトウェアによって生成される表示の一連のスクリーンショットを示している。図14Aの第1の画像は、低放射線画像でのおぼろげな物体Mを示している。放射線稠密物体Mは外科医が器具又は用具を信頼性高く操作するにはあまりにおぼろげであることがこの画像から明らかだ。図14Bの複合画像では、放射線稠密物体はいっそうおぼろげである。図14Cは、非解剖学的特徴を指示している直線状のエッジを識別することに依拠する本開示のソフトウェアによって実施される金属識別アルゴリズムの1つの段階の画像を示している。特定のエフェクタ又は物体の追跡情報が追加されると、図14Dに示されている様に、正しい直線状のエッジが放射線稠密物体として識別され、それが次いで強化され、図14Eの画像中に表示される。
システム及びソフトウェアは、更に、手術野内の被追跡放射線稠密物体の運動を視認する2つのやり方を提供している。以上に参考文献として援用されている米国特許第8,526,700号に記載のシステムは、図15Aに描かれている様にx線装置又はCアームが角度を付けられる際にビューを向き付けるためのシステムを提供している。このシステムでは、Cアームが位置1から位置2へ動かされると、表示される画像は図15Bの位置から図15Cに示される位置へ動く。図15Dには、最終的に、Cアームを、直交x線画像からの脊椎野のFerguson(平坦終板)ビューのために完全整列へ向き付けるのに使用できるグリッド線が追加されている。グリッド線は、エフェクタ又は放射線稠密物体の方位に平行である。
本開示によれば、図16から図17に示されている様に、放射線稠密エフェクタ又は用具が動かされるとき、被追跡物体は表示される画像の角度を制御する。図16Aに示されている被追跡物体は一定した方位(例えば、図16Bの垂直方向)に維持され、x線画像自体が図16Cに示されている様に被追跡物体の運動に相応して回転される。図16bと図16Cの間の画像の角度的方位の変化は、図16Aでのエフェクタの位置1から位置2への角度的方位の変化と同じであることが理解されるであろう。
この特徴への付加として、図16Cの回転された画像についての画像データが、Cアームの運動を識別してエフェクタ及び手術部位の所望ショットを作製するのに使用できる。例えば、画像データは、Cアームの運動角度を識別してエフェクタのシャフトを下る正面
図を生成するのに使用できる。同様に、画像データは、Cアームをエフェクタのシャフトの上方に中心合わせするか又はCアームに角度を付けてエフェクタシャフトに直角に撮影させたり器具の先端の上方に中心合わせして撮影させたりするのに使用できる。
代わりに、図17A-図17Cに示されている様に、x線画像が静止に留まったまま、被追跡放射線稠密物体の画像又はマスクが被追跡放射線稠密物体の実際の運動と相応して動かされるようにすることもできる。金属マスク又は画像をその長さに沿って軸方向に動かすことによって放射線稠密物体の深度が更に調節されることができる。図18A-図18Cに示されている様に被追跡物体が視野内で静止に留まっていようが、図19A-図19Cに示されている様にx線ビューが静止に留まりエフェクタの画像又はマスクが動かされていようが、表示へはグリッド線を追加させることができる。
グリッド線は、特定の画像化平面(例えばAP又はラテラル)へ投影されるエフェクタの角度運動を描くのを手助けすることができる。代替又は付加として、動いているエフェクタの画像の表示は、運動の性質に従って操作されることができる。エフェクタが又はより具体的にはエフェクタの先端が直交方向(x、y、z)に動かされるとき、エフェクタの画像は直線状に動く。エフェクタが解剖学的構造に対して回転又は枢動されるとき、エフェクタの画像は枢軸の角度に関係付けてスキューされることができる。したがって、エフェクタが1つの平面内で枢動すると、直角の平面内のエフェクタの画像はエフェクタが枢動するにつれてスキューし、より具体的にはエフェクタが枢動するにつれ枢動の方向に直径が縮んだり拡がったりすることになる。
以上に説明されている様に、本システムの画像化ソフトウェアは、被追跡放射線稠密物体の存在及び場所を検出する方法を実施し、物体を強化する。x線装置に対する空間での用具又は器具の様な放射線稠密エフェクタの位置及び方位は、エフェクタと関連付けられている追跡器システム又は定位器システムによって測定される。この追跡情報が、視認スクリーン上でエフェクタのx線画像を並進運動させるのに使用され、別のx線画像が取得されればエフェクタがどこに現れることになるかを予測する。用具の画像は、先に取得された患者の解剖学的構造の画像と、この先に取得された画像を静止のままにした状態で併合されることができる。結果として得られる併合画像は、医師に、解剖学的構造に対するエフェクタの設置について情報提供する。
この手法に関わる1つの問題は、特定の一般的に使用される手術用具Tがx線画像中に見えにくいこともあり得るということであり、特に、図20のスクリーンショット画像に描かれている様にこの画像が低x線放射線量で取得された場合は見えにくいかもしれない。手術用具の視認性はベースライン画像と次の低線量画像との併合によって更に弱められる。それ故に、本開示は併合x線画像中の被追跡手術用具の視認性を強化するための方法を構想している。
画像化ソフトウェアによって実施される1つの方法の諸段階が、図21のチャートに示されている。手術用具の特定のクラス向けに方法を最適化するのに幾つかのパラメータが利用可能である。全ての段階は、画像処理装置122(図1)のGUPの様なグラフィックス処理ユニットで実施するうえで直進式となるように設計されていて、画像処理装置は画像中の全画素で同時に同じ演算オペレーションが遂行され得る場合に最適に機能する。本実施形では、オペレーション全体は消費者等級のグラフィックカードの場合に0.5秒で標準サイズ画像に適用されることができ、それは殆どの利用パターンにとって十分である。
本方法の1つの段階は、x線画像内に長方形を検出することである。各画素は、暗色長方形パターンが画素を中心とする近傍にどれほどぴったり適合しているかを表す評点を割
り当てられる。長方形は、その角度、幅、及び長さによって定義される。或る特定の長方形の評点は、長方形の長辺の内側に沿った点と外側に沿った点の間の強度値の差の合計である(図22)。この評点計算が多くの異なる潜在的長方形について角度、幅、長さの或る範囲に亘って遂行され、最も高い評点が対応する角度、幅、及び長さと共に報告される。
特別に厚肉の放射線稠密用具を追跡する場合、差計算は更に長方形の内部の複数の深度にて遂行されてもよい。これは長方形が同質内部を有していることを裏付ける。強度差式を見込まれる値の狭い範囲へクランプし分数指数によってスケールさせるようにしてもよく、そうすれば特別に大きな強度差が最終評点に不釣り合いな影響を及ぼすことはないだろう。
次の段階では、x線画像の画素が長方形へ割り当てられる。この段階は、長方形検出からの結果を拡張する。各画素について、画素周りの近傍が、それに重なる最も高い評点の長方形を求めてサーチされる(図23)。この評点は対応する角度、幅、及び長さと共に報告される。この段階は必要である、というのも、長方形は角及び交点を有していて、これらの場所の画素はそれらを最大に内包している長方形を中心としていないからである。
x線画像では、手術用具が複数の接続された長方形を備えていることもあり、よって複数の長方形を単一の連続領域へひとまとめに接合することが望ましい。画素が同じ領域に属しているかいないかを判定するにあたり、それぞれが先の段階からの長方形の評点、角度、幅、及び長さを割り当てられている2つの隣り合う画素については、接続判定基準は、長方形の評点、角度、幅、及び長さの差の合計である(図24)。接続判定基準が閾値より下に収まれば、画素は接続を共有する。評点、角度、幅、及び長さの判定基準への影響を制御するために、それらの相対的寄与が重み付けされてもよい。各画素は、それが接続され得る可能性ある8つの近傍画素を有している。このオペレーションは各画素にて全8通りの方向について遂行される。演算処理時間を短縮するため、非常に低い長方形評点を有する画素間の接続は無視されるようにしてもよい。
次の段階では、用具のための定位器又は追跡装置から得られる追跡情報が画素へ関係付けられる。追跡装置は、空間内での手術用具の先端の位置及び方位についてデータを提供する。この先端は、x線カメラの表面へ仮想的に投影され、以上に説明されている様にx線画像内の点及び角度と関係付けられることができる。強化を目的として、主な関心は、投影されている用具先端に近接する位置及び角度を有する長方形画像特徴にある。各画素について、投影されている用具先端までの距離が計算され、用具先端の角度と画素での長方形の角度の間の差が計算される。これらの値は、クランプされ、画素の用具先端に対する空間的近接性及び角度的近接性を定量化する重みをもたらすように指数でスケールされることができる(図25)。用具は、典型的には長くて細い物体であり、先端の裏の画素は物体に属する一方で先端の前の画素は物体に属さない。この先行知識は、方位情報を空間的近接性の計算へ含めることによって符号化されることができる。
次いで、画素が連続領域へグループ分けされる。各領域は固有インデックス、長方形評点、空間的近接性、及び角度的近接性を有しているだろう。これらの値は、領域中の各画素にてアクセスできるだろう。このタスクに利用可能なアルゴリズムは様々なものがある。ここで使用されているアルゴリズムは、各画素にて並行に遂行され得るという理由で選定された。領域成長アルゴリズムは反復的に続行する。各反復時、8通りの可能な方向のそれぞれについて、各画素は当該方向のそれの近傍画素を調べる。画素がそれの近傍画素と接続を共有しているなら、それらは長方形評点を比較する。近傍画素がより高い評点を有しているなら、画素はそれの近傍画素の評点及びインデックスを受け取る。そうではなく、評点が等しく、且つ近傍画素がより高いインデックスを有しているなら、画素はそれ
の近傍画素のインデックスを受け取る。画素がそれの近傍画素と接続を共有していて、近傍画素がより高い空間的近接性を有しているなら、画素はそれの近傍画素の空間的近接性を受け取る。画素がそれの近傍画素と接続を共有していて、近傍画素がより高い角度的近接性を有しているなら、画素はその近傍画素の角度的近接性を受け取る。反復終了時、インデックス、評点、空間的近接性、又は角度的近接性が画像中の何れかの画素について変化していたなら、別の反復が遂行される。そうでない場合はアルゴリズムは停止する。
アルゴリズムが終了したとき、各画素は領域へ割り当て済みである。各領域は固有インデックスを有しており、各領域は、領域中の画素全てから出てきた最良の長方形評点、空間的近接性、及び角度的近接性を有している。これらの値が領域中の各画素にて記憶される。
次に、領域が視覚的に強化される。x線画像中に、手術用具は周囲区域より暗く映るはずである。視認性を強化するために、領域の内側の画素が暗くされ、領域の外側の画素が明るくされることができる(図26)。強度に対する変更は、偽のテクスチャが画像の中へ導入されないように、また先行段階からの潜在的エラーの存在下に強化が堅牢となるように、平滑でなくてはならない。各画素は互いの近傍の画素を調べる。近傍画素を中心とする長方形の評点、角度、幅、及び長さが割り出され、そして更には近傍画素が属する領域の評点、空間的近接性、及び角度的近接性が割り出される。
近傍長方形の緯度軸及び経度軸が確定される。画素とそれの近傍画素の間の距離は、緯度成分と経度成分の合計として表される。緯度成分は、長方形の内部の中の画素については負の値を、外部の画素については正の値を返すガウシアンの差分(difference-of-Gaussians)モデルへ渡される。経度成分は、経度方向の距離が大きくなるにつれ0に近づく
分数を返す双曲線モデルへ渡される。画素へのこの近傍画素によって寄与されるオフセットは、長方形評点、領域評点、空間的近接性、角度的近接性、緯度重み、及び経度重みの積である。全ての近傍画素からのオフセットが合算される。この段階は、画像併合段階で使用できる強度オフセットをもたらす。
次いで、関心領域を分離するために追跡情報が使用される。追跡情報は、領域をそれらの用具先端への近接性に応じて重み付けするのに使用される。これは、画像が併合されるときに画像の異なる部分を選択的に重み付けするのに使用することのできるマスクを生成することになる(図27)。各画素について、マスク値は、領域評点、空間的近接性、及び角度的近接性の積である。この値を閾値とし、画像の無関連領域を抑制するべく指数でスケールするようにしてもよい。領域のエッジはギザギザしていて精密に用具に対応していない場合が多い。そういう訳で、最終的併合画像が何らかの視角的に見苦しい不連続部を有することのないように領域を拡張し境界線を均す必要がある。我々は、これを、形態学的拡延及びそれに続くガウシアンカーネルを用いたコンボリューションによって達成する。マスク中の画素の値は0と1の間でクランプされる。0の値は画素が関心領域に属していないことを指示し、1の値は画素が完全に関心領域に属していることを指示する。次の段階では、用具画像全体が強化される。強度オフセット画像が用具の原画像へ足される。結果としての合計は、このとき、0から255までの受容可能な強度範囲の外の画素を有しているかもしれない。強度を受容可能範囲へ再び収めるために、そしてまた放射線稠密材料のエッジの周囲のコントラストを更に改善するために、低い分位数と高い分位数を確定するべく画像合計のマスク領域内の強度のヒストグラムが構築される。合計中の全ての強度が直線状にスケールされ、その結果、低い分位数は今や0であり、高い分位数は今や255である。これで強化された用具画像がもたらされる。
最終的に、強化された用具画像が解剖学的構造画像へ追加される。マスク値が高い画素では強化された用具画像が優位に立ち、マスク値が低い画素では解剖学的画像が優位に立
つ。2つの画像の最大比及び最小比は、どちらの画像も決して完全には抑制されないように選定される。この最終的な併合画像は、図28のスクリーンショットに描かれている様にユーザーへ表示される。
本開示は説明が目的であり本質的に制限を課すものではないと考えられるべきである。特定の実施形態が提示されているに過ぎず、本開示の精神の内に入る全ての変更、修正、及び更なる適用は保護されることが望まれるものと理解している。
1、2 位置
10、10’ エフェクタ
12 定位ショット、ベースライン画像
14 低放射線画像
20 マスク
30、35、35’ スラグ
36、36’ スラグの中心要素
37、37’ スラグの第2要素
40、40’、40’’ エフェクタ
41、41’ ハンドル
42、42’、42’’ シャフト
43、43’、43’’ 作用先端
44a、44a’、44a’’、44b、44b’、44b’’、44c’、44c’’ マーカー
45、45’’ 追跡要素
46、46’’ 追跡要素の本体
48、48’’ 追跡要素の腕部
100 画像化システム
102 基台ユニット
103 Cアーム画像化装置
104 放射線源
105 受信器
106 追跡標的
108 Cアームの回転方向
110 制御パネル
122 画像処理装置
123、124 表示
125 入力装置
126 表示装置
130 追跡装置
F 手術野、視野
h 作用先端に対する追跡要素の高さ
M、M’ 放射線稠密物体
P 患者
R 領域
T エフェクタ(インプラント又は用具)
X 源から被追跡エフェクタ/器具までの距離
X’ 源から画像増強器での定位画像までの距離
Y エフェクタの実際の運動距離
Y’ 投影される運動距離

Claims (4)

  1. 医療処置中に手術野(surgical field)内の患者の体内解剖学的構造と放射線稠密エフェクタとの画像の表示を生成するためのコンピュータ支援型の画像化および位置決めのシステムの作動方法であって、
    前記患者の解剖学的構造(anatomy)を含む前記手術野のベースライン画像を取得する段
    階と、
    前記手術野内の前記放射線稠密(radio-dense)エフェクタの画像を取得する段階と、
    前記放射線稠密エフェクタの前記画像を前記手術野の前記ベースライン画像上にオーバーレイする段階であって、前記放射線稠密エフェクタの前記画像は前記患者の解剖学的構造の前記画像に対して、実際の前記放射線稠密エフェクタが実際の前記解剖学的構造に対して位置決めされるのと同じやり方で位置決めされる、オーバーレイする段階と、
    前記放射線稠密エフェクタの運動を追跡する段階と、
    前記オーバーレイされる画像を、前記放射線稠密エフェクタの前記画像が前記放射線稠密エフェクタの追跡される前記運動に従って動くようにしながら、表示する段階と、
    を備え、
    前記手術野内の前記放射線稠密エフェクタの画像を取得する前記段階は前記画像を改変する(altering)段階を含み、
    前記放射線稠密エフェクタの前記画像を改変する前記段階は、前記手術野内の前記実際のエフェクタの前記画像を前記放射線稠密エフェクタのマスクで置き換える段階を含んでおり
    前記放射線稠密エフェクタの前記画像を改変する前記段階は、前記放射線稠密エフェクタの作用先端(working tip)を指示するスラグ(slug)の画像を生成する段階を含んでおり、
    前記ベースライン画像を取得するのに使用される画像化装置が動かされれば前記スラグの前記画像の構成が変化する、方法。
  2. 医療処置中に手術野(surgical field)内の患者の体内解剖学的構造と放射線稠密エフェクタとの画像の表示を生成するためのコンピュータ支援型の画像化および位置決めのシステムの作動方法であって、
    前記患者の解剖学的構造(anatomy)を含む前記手術野のベースライン画像を取得する段
    階と、
    前記手術野内の前記放射線稠密(radio-dense)エフェクタの画像を取得する段階と、
    前記放射線稠密エフェクタの前記画像を前記手術野の前記ベースライン画像上にオーバーレイする段階であって、前記放射線稠密エフェクタの前記画像は前記患者の解剖学的構造の前記画像に対して、実際の前記放射線稠密エフェクタが実際の前記解剖学的構造に対して位置決めされるのと同じやり方で位置決めされる、オーバーレイする段階と、
    前記放射線稠密エフェクタの運動を追跡する段階と、
    前記オーバーレイされる画像を、前記放射線稠密エフェクタの前記画像が前記放射線稠密エフェクタの追跡される前記運動に従って動くようにしながら、表示する段階と、
    を備え、
    前記手術野内の前記放射線稠密エフェクタの画像を取得する前記段階は前記画像を改変する(altering)段階を含み、
    前記放射線稠密エフェクタの前記画像を改変する前記段階は、前記手術野内の前記実際のエフェクタの前記画像を前記放射線稠密エフェクタのマスクで置き換える段階を含んでいおり、
    前記放射線稠密エフェクタの前記画像を改変する前記段階は、前記放射線稠密エフェクタの作用先端(working tip)を指示するスラグ(slug)の画像を生成する段階を含んでおり、
    前記スラグの前記画像は、中心要素(central element)と、前記放射線稠密エフェクタ
    の長手方向軸に沿って前記作用先端からオフセットしている前記放射線稠密エフェクタ上の点を表現している第2要素と、を含んでおり、
    前記中心要素に対する前記第2要素の方位は、前記手術野に対する前記放射線稠密エフェクタの角度的方位(angular orientation)に基づいている、方法。
  3. 請求項に記載の方法において、前記中心要素はドット又は小円であり、前記第2要素はより大きい同心円である、方法。
  4. 請求項に記載の方法において、前記中心要素はドット又は小円であり、前記第2要素は、前記放射線稠密エフェクタの、その長手方向軸周りの回転を表現するように適合されている非円形要素である、方法。
JP2020213537A 2016-05-16 2020-12-23 医療処置中のエフェクタの画像定位のためのシステム及び方法 Active JP7170705B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022175284A JP7366224B2 (ja) 2016-05-16 2022-11-01 医療処置中のエフェクタの画像定位のためのシステム及び方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662336999P 2016-05-16 2016-05-16
US62/336,999 2016-05-16
US201662374187P 2016-08-12 2016-08-12
US62/374,187 2016-08-12

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018561013A Division JP2019520119A (ja) 2016-05-16 2017-05-16 医療処置中のエフェクタの画像定位のためのシステム及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022175284A Division JP7366224B2 (ja) 2016-05-16 2022-11-01 医療処置中のエフェクタの画像定位のためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2021053444A JP2021053444A (ja) 2021-04-08
JP7170705B2 true JP7170705B2 (ja) 2022-11-14

Family

ID=60297257

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2018561013A Pending JP2019520119A (ja) 2016-05-16 2017-05-16 医療処置中のエフェクタの画像定位のためのシステム及び方法
JP2020213537A Active JP7170705B2 (ja) 2016-05-16 2020-12-23 医療処置中のエフェクタの画像定位のためのシステム及び方法
JP2021088113A Pending JP2021130026A (ja) 2016-05-16 2021-05-26 医療処置中のエフェクタの画像定位のためのシステム及び方法
JP2022175284A Active JP7366224B2 (ja) 2016-05-16 2022-11-01 医療処置中のエフェクタの画像定位のためのシステム及び方法
JP2023003524A Active JP7487356B2 (ja) 2016-05-16 2023-01-13 医療処置中のエフェクタの画像定位のためのシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018561013A Pending JP2019520119A (ja) 2016-05-16 2017-05-16 医療処置中のエフェクタの画像定位のためのシステム及び方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021088113A Pending JP2021130026A (ja) 2016-05-16 2021-05-26 医療処置中のエフェクタの画像定位のためのシステム及び方法
JP2022175284A Active JP7366224B2 (ja) 2016-05-16 2022-11-01 医療処置中のエフェクタの画像定位のためのシステム及び方法
JP2023003524A Active JP7487356B2 (ja) 2016-05-16 2023-01-13 医療処置中のエフェクタの画像定位のためのシステム及び方法

Country Status (6)

Country Link
US (2) US10441367B2 (ja)
EP (1) EP3457935B1 (ja)
JP (5) JP2019520119A (ja)
AU (2) AU2017268213B2 (ja)
CA (2) CA3086505C (ja)
WO (1) WO2017201015A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7398879B2 (ja) 2019-04-24 2023-12-15 キヤノン株式会社 画像形成装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111163696B (zh) 2017-09-25 2023-08-01 上海联影医疗科技股份有限公司 定位目标对象的系统和方法
DE102019004233B4 (de) 2018-06-15 2022-09-22 Mako Surgical Corp. Systeme und verfahren zum verfolgen von objekten
US10888385B2 (en) * 2018-07-09 2021-01-12 Point Robotics Medtech Inc. Calibration device and calibration method for surgical instrument
WO2021062024A1 (en) * 2019-09-24 2021-04-01 Nuvasive, Inc. Adjusting appearance of objects in medical images
JP7548922B2 (ja) 2019-10-16 2024-09-10 株式会社カネカ 医療器具セット、及びその使用方法
US20210128249A1 (en) * 2019-10-30 2021-05-06 Medtech Sa Tracker device for computer-assisted surgery
US11890205B2 (en) * 2019-12-13 2024-02-06 Warsaw Orthopedic, Inc. Spinal implant system and methods of use
US12094339B2 (en) 2020-02-24 2024-09-17 Schneider Enterprise Resources, LLC Systems and methods for parking suggestions
US12111161B2 (en) 2020-02-24 2024-10-08 Schneider Enterprise Resources, LLC Systems and methods for generating trip plan

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014508020A (ja) 2011-03-15 2014-04-03 コーニンクレッカ フィリップス エヌ ヴェ インターベンション装置の位置決めを支援する画像表現を提供するための医用イメージング装置
WO2015101747A1 (fr) 2013-12-31 2015-07-09 Inria Institut National De Recherche En Informatique Et En Automatique Système et procédé de suivi du déplacement d'un instrument médical dans le corps d'un sujet
US20160117823A1 (en) 2010-10-06 2016-04-28 Saferay Spine Llc Imaging System and Method for Use in Surgical and Interventional Medical Procedures

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6725080B2 (en) 2000-03-01 2004-04-20 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
US6535756B1 (en) * 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
DE10210646A1 (de) * 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
JP4563377B2 (ja) 2003-02-25 2010-10-13 イメージ・ガイディッド・ニューロロジクス・インコーポレーテッド フィデューシャル・マーカ・デバイス、ツールおよび方法
US7153308B2 (en) 2003-05-14 2006-12-26 Ge Medical Systems Global Technology Company, Llc Universal attachment mechanism for attaching a surgical tracking device to an instrument
US20050238140A1 (en) * 2003-08-20 2005-10-27 Dan Hardesty X-ray imaging system with automatic image resolution enhancement
JP4691512B2 (ja) * 2004-02-18 2011-06-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 脈管系におけるカテーテルの位置の確定に対する装置及び方法
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
JP5146692B2 (ja) 2006-03-30 2013-02-20 アクティビューズ リミテッド 光学的位置測定ならびに剛性または半可撓性の針の標的への誘導のためのシステム
US7885441B2 (en) * 2006-10-11 2011-02-08 General Electric Company Systems and methods for implant virtual review
US7987001B2 (en) 2007-01-25 2011-07-26 Warsaw Orthopedic, Inc. Surgical navigational and neuromonitoring instrument
US8301226B2 (en) * 2007-04-24 2012-10-30 Medtronic, Inc. Method and apparatus for performing a navigated procedure
US7658541B2 (en) * 2007-06-26 2010-02-09 General Electric Company Apparatus for universal electromagnetic navigation target for fluoroscopic systems
CA2655001C (en) * 2009-02-20 2015-11-24 Queen's University At Kingston Marker localization using intensity-based registration of imaging modalities
US20120150048A1 (en) * 2009-03-06 2012-06-14 Bio-Tree Systems, Inc. Vascular analysis methods and apparatus
US8737708B2 (en) 2009-05-13 2014-05-27 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8942457B2 (en) * 2010-01-12 2015-01-27 Koninklijke Philips N.V. Navigating an interventional device
US8718346B2 (en) * 2011-10-05 2014-05-06 Saferay Spine Llc Imaging system and method for use in surgical and interventional medical procedures
US8526700B2 (en) * 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
BR112013009962A2 (pt) * 2010-10-27 2021-05-25 Koninklijke Philips Electronics N.V. sistema,estação de trabalho e método.
JP2014501143A (ja) * 2010-12-23 2014-01-20 バード・アクセス・システムズ,インコーポレーテッド 医療器具を案内するシステムおよび方法
US9572539B2 (en) * 2011-04-08 2017-02-21 Imactis Device and method for determining the position of an instrument in relation to medical images
WO2012149548A2 (en) 2011-04-29 2012-11-01 The Johns Hopkins University System and method for tracking and navigation
JP5989312B2 (ja) * 2011-08-18 2016-09-07 東芝メディカルシステムズ株式会社 画像処理表示装置及び画像処理表示プログラム
JP6104601B2 (ja) 2012-03-06 2017-03-29 東芝メディカルシステムズ株式会社 X線画像診断装置及び制御プログラム
US9398911B2 (en) * 2013-03-01 2016-07-26 Ethicon Endo-Surgery, Llc Rotary powered surgical instruments with multiple degrees of freedom
US9839448B2 (en) * 2013-10-15 2017-12-12 Si-Bone Inc. Implant placement
US8880151B1 (en) 2013-11-27 2014-11-04 Clear Guide Medical, Llc Surgical needle for a surgical system with optical recognition
WO2015153174A1 (en) * 2014-04-02 2015-10-08 Intuitive Surgical Operations, Inc. Devices, systems, and methods using a steerable stylet and flexible needle
JP6472606B2 (ja) * 2014-05-15 2019-02-20 キヤノンメディカルシステムズ株式会社 X線診断装置
JP6274005B2 (ja) * 2014-05-15 2018-02-07 株式会社島津製作所 X線撮影装置およびx線撮影装置の作動方法
US9844360B2 (en) 2014-10-27 2017-12-19 Clear Guide Medical, Inc. System and devices for image targeting

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160117823A1 (en) 2010-10-06 2016-04-28 Saferay Spine Llc Imaging System and Method for Use in Surgical and Interventional Medical Procedures
JP2014508020A (ja) 2011-03-15 2014-04-03 コーニンクレッカ フィリップス エヌ ヴェ インターベンション装置の位置決めを支援する画像表現を提供するための医用イメージング装置
WO2015101747A1 (fr) 2013-12-31 2015-07-09 Inria Institut National De Recherche En Informatique Et En Automatique Système et procédé de suivi du déplacement d'un instrument médical dans le corps d'un sujet

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7398879B2 (ja) 2019-04-24 2023-12-15 キヤノン株式会社 画像形成装置

Also Published As

Publication number Publication date
US20170325897A1 (en) 2017-11-16
JP7487356B2 (ja) 2024-05-20
AU2017268213B2 (en) 2021-03-04
US20200030042A1 (en) 2020-01-30
JP2019520119A (ja) 2019-07-18
CA3086505A1 (en) 2017-11-23
US10441367B2 (en) 2019-10-15
EP3457935A4 (en) 2020-01-15
JP2023017875A (ja) 2023-02-07
WO2017201015A1 (en) 2017-11-23
CA3024323A1 (en) 2017-11-23
EP3457935A1 (en) 2019-03-27
JP2021130026A (ja) 2021-09-09
AU2021201782A1 (en) 2021-04-15
JP7366224B2 (ja) 2023-10-20
JP2023040242A (ja) 2023-03-22
CA3024323C (en) 2021-03-16
AU2021201782B2 (en) 2022-02-03
CA3086505C (en) 2022-09-06
AU2017268213A1 (en) 2018-11-29
EP3457935B1 (en) 2023-07-05
US10835325B2 (en) 2020-11-17
JP2021053444A (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
JP7170705B2 (ja) 医療処置中のエフェクタの画像定位のためのシステム及び方法
US10772687B2 (en) System and method for image localization of effecters during a medical procedure
CN113556977B (zh) 基于c臂的医学成像系统及匹配2d图像与3d空间的方法
AU2020202963B2 (en) Imaging system and method for use in surgical and interventional medical procedures
US10825177B2 (en) Imaging system and method for image localization of effecters during a medical procedure
US10444855B2 (en) Imaging system and method for use in surgical and interventional medical procedures
US11941179B2 (en) Imaging system and method for use in surgical and interventional medical procedures
JP2019500185A (ja) 放射線照射を低減された手術中の3次元視覚化
US20240285354A1 (en) System and method for image localization of effecters during a medical procedure
US20230270507A1 (en) Surgical Imaging And Display System, And Related Methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221101

R150 Certificate of patent or registration of utility model

Ref document number: 7170705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150