JP6876065B2 - 放射線照射を低減された手術中の3次元視覚化 - Google Patents

放射線照射を低減された手術中の3次元視覚化 Download PDF

Info

Publication number
JP6876065B2
JP6876065B2 JP2018549430A JP2018549430A JP6876065B2 JP 6876065 B2 JP6876065 B2 JP 6876065B2 JP 2018549430 A JP2018549430 A JP 2018549430A JP 2018549430 A JP2018549430 A JP 2018549430A JP 6876065 B2 JP6876065 B2 JP 6876065B2
Authority
JP
Japan
Prior art keywords
image
baseline
radiation
arm
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018549430A
Other languages
English (en)
Other versions
JP2019500185A (ja
Inventor
フィンリー,エリック
Original Assignee
ニューヴェイジヴ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニューヴェイジヴ,インコーポレイテッド filed Critical ニューヴェイジヴ,インコーポレイテッド
Publication of JP2019500185A publication Critical patent/JP2019500185A/ja
Application granted granted Critical
Publication of JP6876065B2 publication Critical patent/JP6876065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5282Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to scatter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/542Control of apparatus or devices for radiation diagnosis involving control of exposure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
    • A61B6/582Calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Description

本開示は、医療デバイスに概して関係があり、より具体的には、脊椎手術の分野、並びに手術野内の手術器具の準リアルタイムの術中3D画像を表示するシステム及び方法に関係がある。
本発明は、X線のような患者画像が取得され表示される方法を改めるシステム及び方法を考えている。より具体的には、発明のシステム及び方法は、執刀医又は他のユーザに表示される画像の品質又は解像度をそれほど犠牲にすることなく、医療処置中に患者が浴びる総放射線量を減らす手段を提供する。
多くの医療処置は、臓器及び骨のような患者の内部身体構造の画像を取得することを必要とする。いくつかの処置では、手術は、手術部位の周期画像を活用して成し遂げられる。手術は、執刀医、インターベンショナル・ラジオロジスト、疼痛管理医師、等のような医療関係者によって行われるあらゆる侵襲的検査又は介入を広く意味し得る。連続イメージングによって実際に導かれる(本願では「画像誘導」と呼ばれる。)手術、処置、及び介入において、頻出する患者画像が、医師による手術器具(カテーテル、針、器具又はインプラント)の適切な配置又は特定の医療処置の実行のために必要である。蛍光透視又はフルオロは、術中X線の一形式であり、Cアームとしても知られている蛍光透視ユニットによって撮影される。Cアームは、X線ビームを患者を通して送り、骨格又は血管構造のような、その領域における生体構造の写真を取り込む。それは、あらゆる写真のように、3次元(3D)空間の2次元(2D)画像である。しかし、カメラによって撮影されたあらゆる写真のように、重要な3D情報は、何が何の前にあるのか、及び1つの物が他に対してどれくらい大きいのかに基づき、2D画像において存在する可能性がある。
デジタル再構成放射線写真(DRR;Digitally reconstructed radiograph)は、患者のCTスキャンを行って、異なる角度及び距離からX線を撮影することをシミュレーションすることで構成されるX線のデジタル表現である。その結果として、例えば、Cアーム蛍光透視によって、その患者について撮影され得るあらゆる可能なX線がシミュレーションされ得る。それは一意的であり、患者の解剖学的特徴がお互いに対してどのように見えるかに特有である。“シーン”が制御されるので、すなわち、患者に対するCアームの視覚的位置及びお互いに対する角度を制御することによって、写真が生成され得、手術室(OR;Operating Room)においてCアームによって撮影されたあらゆるX線のように見えるはずである。
蛍光透視画像を撮影することといった、多くのイメージングアプローチは、たとえ低線量でも、患者を放射線にさらすことを伴う。しかし、そのような画像誘導プロシージャにおいて、低線量の数は積み重なり、それにより、トータルの放射線照射は、患者にとってだけでなく、執刀医又は放射線科医及び外科的処置に関わる他の者にとっても不利益となりうる。画像が撮影されるときに患者/執刀医に対する放射線照射の量を減らすための様々な既知の方法があるが、それらのアプローチは、取得される画像の解像度を低減させるという代償を払う。例えば、あるアプローチは、標準のイメージングとは対照的にパルスイメージングを使用し、一方で、他のアプローチは、照射の時間又は強さを手動により変更することを伴う。視野を狭めることも、(放射線“散乱”の量を変更すると同時に)放射線照射の面積及びその品質を潜在的に低減させることができるが、先と同じく、医療上の決定を行うときに執刀医に利用可能な情報を減らすことを犠牲にする。コリメータが利用可能であり、選択可能な部位への照射の面積を特に減らすことができる。しかし、コリメータは患者の特定の領域をX線の照射から特に除くので、それらの領域では画像が利用可能でない。よって、医療関係者は、特に選択された領域に制限された患者の不完全なビューを有することになる。更には、多くの場合、外科的介入の間に撮影された画像は、外部又は器材、すなわち、介入を行うために使用された実際の器具/インプラントによって遮られる。
特定の脊椎外科手術は画像誘導される。例えば、椎弓根スクリューの配置を伴う脊椎処置中に、スクリューが椎弓根に挿入されている間に周期的に骨の解剖学的構造並びにその解剖学的構造に対する手術器具及びインプラントの相対的なポジション及び姿勢を視覚化することが執刀医にとって必要である。Cアーム蛍光透視は、現在のところ、この術中イメージングを提供する最も一般的な手段である。Cアーム蛍光透視は3Dの生体構造の2Dのビューを提供するので、執刀医は、生体構造内の器具及びインプラントのポジション、姿勢、及び深さを定めるよう、異なる視点からの1つ以上のビュー(ショット)を解釈しなければならない。コンピュータ断層撮影(CT;Computed Tomography)スキャン及び磁気共鳴イメージング(MRI;Magnetic Resonance Imaging)を含め、患者の生体構造の3D画像を取り込む手段が存在する。それらは、大きく、複雑で、高価な器材を一般的に必要とし、手術室では通常利用可能でない。しばしば、しかしながら、治療の過程で、患者は、手術の前に、関係がある生体構造の撮影された3次元のCT及び/又はMRI画像のいずれか一方又は両方を有している。それらの術前画像は、術中に参照され、Cアームからの2D平面蛍光透視画像と比較され得る。このことは、実時間での患者の生体構造内の器具及びインプラントの視覚化を可能にするが、一度に1つの視点からだけである。一般に、ビューは、前後(A/P;Anterior-Posterior)又は横方向のいずれかであり、Cアームは、ビューを変えるようその姿勢を動かされなければならない。
手術において蛍光透視を使用することの1つの欠点は、患者及び/又は関係者への電離放射線の照射である。この照射を最小限とするための措置がとられるべきである。故に、スタッフは、保護のための鉛遮へい体並びに時々特別な安全メガネ及び手袋を着用すべきである。発生する放射線の量を最小限とするために使用され得るCアームに対する調整及び制御(例えば、パルス及び低線量)があるが、画像品質と生成される放射線との間にトレードオフが存在する。標準の医療処置に関連して使用可能であり、患者及び医療関係者への放射線照射を減らしながら、Cアーム画像の精度及び解像度において如何なる犠牲も払わないイメージングシステムの必要性がある。また、患者の生体構造に対する手術器具のポジション及び姿勢の術中3Dビューを執刀医に提供するイメージングシステムの必要性がある。
上記の必要性及び他は、本開示で記載される、手術野内の手術器具の準リアルタイムの術中画像を表示するシステム及び方法の実施形態によって対応される。
医療処置中に手術野内の患者の内部構造の3次元表示を生成する方法であって、ベースライン3次元画像をプロセッシングデバイスのデジタルメモリ記憶ユニットへインポートするステップと、前記ベースライン3次元画像をDRRライブラリに変換するステップと、前記手術野内に位置している放射線不透過性マーカーの参照画像を2つの異なるポジションから取得するステップと、前記参照画像を前記DRRライブラリにマッピングするステップと、三角測量によって前記ベースライン3次元画像に対するイメージングデバイスのポジションを計算するステップと、前記放射線不透過性マーカーの3D表現を前記ベースライン3次元画像上で表示するステップとを有する方法が開示される。
医療処置中に手術野内の患者の内部構造の3次元表示を生成する更なる方法であって、ベースライン3次元画像をプロセッシングデバイスのメモリ記憶ユニットへインポートするステップと、前記ベースライン3次元画像をDRRライブラリに変換するステップと、前記手術野内にある既知のジオメトリの放射線不透過性マーカーの参照画像を、2つの異なる位置にあるCアームから取得するステップと、前記参照画像を前記DRRライブラリにマッピングするステップと、三角測量によって前記ベースライン3次元画像に対するイメージングデバイスのポジションを計算するステップと、前記放射線不透過性マーカーの3D表現を前記ベースライン3次元画像上で表示するステップと、前記参照画像の2つのポジションから前記放射線不透過性マーカーの術中画像を取得するステップと、前記放射線不透過性マーカーの前記既知のジオメトリに基づき前記術中画像をスケーリングするステップと、三角測量によって前記スケーリングされた術中画像を前記ベースライン3次元画像にマッピングするステップと、前記放射線不透過性マーカーの術中3D表現を前記ベースライン3次元画像上で表示するステップとを有する更なる方法が開示される。
イメージングシステム及び画像処理デバイス並びにトラッキングデバイスを含む画像誘導手術環境の絵画図である。 イメージングシステムにおいて全線量の放射線を用いて取得される手術野の画像である。 より少ない線量の放射線を用いて画像が取得された、図2Aで示された手術野の画像である。 図2A,Bで示された2つの画像が本開示の一態様に従ってマージされたことによる手術野のマージされた画像である。 図1で示された画像処理デバイスによって行われるグラフィクス処理ステップのフローチャートである。 生体構造の一部を遮る物体を含む手術野の画像である。 エッジ強調を伴った、図4Aに示された手術野の画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 異なる関数がビュー内で解剖学的特徴及び非解剖学的特徴を決定するよう適用された図4Bの手術野を示す画像である。 閾値及びルックアップテーブルを用いて生成されたマスクの画像である。 閾値及びルックアップテーブルを用いて生成されたマスクの画像である。 膨張及び収縮後の、夫々図4K〜4Lに示されたマスクの画像である。 膨張及び収縮後の、夫々図4K〜4Lに示されたマスクの画像である。 非解剖学的特徴を画像から除去するよう図4M〜4Nのマスクを図4Bのフィルタ画像に夫々適用することによって用意された画像である。 非解剖学的特徴を画像から除去するよう図4M〜4Nのマスクを図4Bのフィルタ画像に夫々適用することによって用意された画像である。 生体構造の一部を遮る物体を含む手術野の画像である。 遮られた生体構造を表示するよう図5Aの画像がベースライン画像と部分的にマージされたことによる、図5Aに示された手術野の画像である。 遮断物を含む手術野のベースライン画像及びマージされた画像である。 遮断物を含む手術野のベースライン画像及びマージされた画像である。 イメージングデバイス又はCアームの動きと、新しい画像を取得するためのイメージングデバイスの境界内及び境界外のポジションのインジケータの提供とのために調整された手術野の表示である。 イメージングデバイス又はCアームの動きと、新しい画像を取得するためのイメージングデバイスの境界内及び境界外のポジションのインジケータの提供とのために調整された手術野の表示である。 イメージングデバイス又はCアームの動きと、新しい画像が前に取得された画像にスティッチされ得る場合のインジケータの提供とのために調整された手術野の表示である。 イメージングデバイス又はCアームの動きと、新しい画像が前に取得された画像にスティッチされ得る場合のインジケータの提供とのために調整された手術野の表示である。 新しい画像を取得するためにCアームを方向付ける際に使用される動きインジケータのトラッキングサークル及び方向とともにベースライン画像を示す表示のスクリーンプリントである。 ベースライン画像と同じ空間姿勢で新しい画像を取得するようイメージングデバイス又はCアームを方向付けるのを助けるために使用される2ビューファインダーの表示のスクリーンショットである。 イメージングデバイス又はCアームの動きと、新しい画像を取得するための所望の軌跡とのイメージングデバイスのアライメントのインジケータの提供とのために調整された手術野の表示である。 イメージングデバイス又はCアームの動きと、新しい画像を取得するための所望の軌跡とのイメージングデバイスのアライメントのインジケータの提供とのために調整された手術野の表示である。 図1に示された画像処理デバイスのための表示及びユーザインターフェイスの描写である。 本開示に従う画像アライメントプロセスの図形表現である。 コリメータを通じて取得された手術野の画像である。 本明細書で開示されるシステム及び方法によって強化された、図12Aに示された手術野の画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 コリメータが動かされる場合にコリメータを通じて取得された手術野を示す画像である。 一実施形態に従う方法のフローチャートである。 手術野の代表的な3D術前画像である。 手術計画画面の表示、及び立案ツールの使用から得られる椎弓根スクリューの配置のためのプランの表現である。 手術表示画面の表示、及びCアームの配置のための所望の角度を計算するために使用される仮想分度器機能の表現である。 放射線不透過性マーカーを伴ったK−ワイヤの配置を示す手術野の高解像度画像である。 Cアームの配置の画像である。 図21の放射線不透過性マーカーを示す手術野の結果として得られる傾斜角画像である。 Cアームの配置の画像である。 図21の放射線不透過性マーカーを示す手術野の結果として得られるA/P角画像である。 ポジション1にあるCアームからの斜め画像である。 ポジション1にあるCアームを示す。 ポジション2にあるCアームからのA/P画像である。 ポジション2にあるCアームを示す。 Cアームに対する3D画像のポジションをマッピングするための図24Aの画像と図24Cの画像との統合を示す。 一実施形態に従って執刀医に利用可能な代表的な画像であり、A/Pビュー上の手術器具の表現を示す。 一実施形態に従って執刀医に利用可能な代表的な画像であり、斜めビュー上の手術器具の表現を示す。 一実施形態に従って執刀医に利用可能な代表的な画像であり、側面ビュー上の手術器具の表現を示す。
本発明の原理の理解を促すことを目的として、これより、図において表され且つ以下の詳細な説明で記載される実施形態が参照される。本発明の適用範囲への制限はそれによって意図されないことが理解される。更には、本発明は、説明されている実施形態への如何なる変更及び修正も含み、且つ、本発明が属する技術分野において通常の知識を有する者に容易に想到可能である本発明の原理の更なる適用を含むことが理解される。
本明細書で開示される方法及びシステムは、外科テクノロジ、すなわち、従来のCアームを使用した実際の器具及びインプラントの術中3D及び同時多断面イメージング、に対する改善を提供し、標準のCアームの使用に対して精度及び効率を高め、より再現可能なインプラント配置を可能にし、脊椎手術における正確な配置の最終的な確認のために椎体及び椎弓根スクリューの軸方向像を提供し、術中放射線を減らすことによって患者及び手術スタッフの健康を改善し、インプラント精度を高めるとともに低侵襲プロシージャを(それらの固有の利点を有しながら)促進し、インプラントの配置を直すための再置換手術を減らす。
典型的なイメージングシステム100が図1に示されている。イメージングシステム100は、Cアームイメージングデバイス103を支持するベースユニット102を含む。Cアーム103は放射線源104を含む。放射線源104は、患者Pの真下に位置付けられ、放射線ビームを受信器105へ上向きに方向付ける。放射線源104から放射された放射線ビームは、円錐状であり、それにより、照射野は、放射線源104を患者のより近くへ又は患者からより遠くへ動かすことによって変更され得ることが知られている。放射線源104は、照射野を制限するよう構成されるコリメータを含んでよい。Cアーム103は、手術野の異なる視野角のために矢印108の方向において患者Pの周りを回転され得る。いくつかの例において、インプラント又は器具Tは、手術野を遮るものがないビューのために視野角の変化を必然的に伴いながら、手術野に位置付けられ得る。このように、患者に対する、より具体的には、関心のある手術野に対する受信器のポジションは、執刀医又は放射線科医によって必要とされるように処置の間変化し得る。結果として、受信器105は、トラッキングデバイス130を用いてCアームのポジションの追跡を可能にするトラッキング標的106を取り付けられ得る。単なる例として、トラッキング標的106は、標的の周りで間隔をあけられた複数の赤外線反射体又は放射体を含んでよく、一方、トラッキングデバイス130は、トラッキング標的106によって反射又は放射された赤外線信号から受信器105のポジションを三角測量するよう構成される。ベースユニット102は制御パネル110を含む。制御パネル110を通じて、放射線技師は、放射線照射とともに、Cアームの位置を制御することができる。このように、典型的な制御パネル110は、執刀医の指示で手術野の“撮影をする”こと、放射線量を制御すること、及び放射線パルス画像を開始することを放射線技師に可能にする。
Cアーム103の受信器105は、画像データを画像処理デバイス122へ送る。画像処理デバイス122は、それに付随するデジタルメモリと、デジタル及びソフトウェア命令を実行するプロセッサとを含むことができる。画像処理デバイス122は、表示デバイス126での表示123、124としての投影のためのデジタル画像を生成するためにフレームグラバー技術を使用するフレームグラバー(frame grabber)を更に組み込んでよい。表示は、処置中に執刀医へのインタラクティブな表示のために位置付けられる。2つの表示は、本明細書で記載されるように、横方向及びA/Pのような、2つのビューからの画像を示すために使用されてよく、あるいは、手術野のベースラインスキャン及び現在のスキャン、又は現在のスキャン、及び前のベースラインスキャンと低照射の現在のスキャンとに基づく“マージされた”スキャンを示してよい。キーボード又はタッチスクリーンのような入力デバイス125は、オンスクリーンの画像を選択し操作することを執刀医に可能にすることができる。入力デバイス125は、画像処理デバイス122によって実装される様々なタスク及び機能に対応するキー又はタッチスクリーンアイコンの配列を組み込んでよいことが理解される。画像処理デバイス122は、受信器105から得られた画像データをデジタルフォーマットに変換するプロセッサを含む。いくつかの場合に、Cアームは、シネ(cine)照射モードにおいて作動し、毎秒多くの画像を生成してよい。それらの場合に、複数の画像は、動きアーチファクト及びノイズを低減するよう、短時間にわたって全体に単一の画像に平均され得る。
本発明の一態様において、画像処理デバイス122は、より低い線量(LD;Lower Doses)の放射線を用いて取得されたそれほど詳細でない画像から導出される高品位の実時間画像を表示123、124で提供するよう構成される。例として、図2Aは、“全線量”(FD;Full Dose)Cアーム画像であり、一方、図2Bは、同じ生体構造の低線量(LD;Low Dose)及び/又はパルス画像である。LD画像は非常に“ノイジー”であり、正確な画像誘導手術のための、局所生体構造に関する十分な情報を提供しないことが明らかである。FD画像は、手術野の鮮明なビューを提供し、一方で、放射線量が高ければ高いほど、処置の間に多数のFD画像を取り込むことを好ましくないものにする。本明細書で記載されるステップを用いると、執刀医は、図2Cに示される現在の画像を提供される。それは、LD画像のノイズを大幅に、いくつかの場合に約90%だけ減らす。それにより、執刀医は、パルス又は低線量放射線設定を用いて鮮明な実時間画像を提供される。この能力は、イメージングの間の劇的により少ない放射線照射で、処置の間に器具及びインプラントのポジションを確認することを可能にする。
図3のフローチャートは、本発明に従う方法の一実施形態を表す。最初のステップ200で、ベースライン高解像度FD画像が手術野から取得され、画像処理デバイスに関連したメモリに格納される。処置の間にCアームが動かされるいくつかの場合に、多数の高解像度画像が手術野内の異なる位置で取得され得、次いで、それらの多数の画像は、既知の画像スティッチング技術を用いて、合成ベース画像を形成するよう、“スティッチ”される。Cアームの動き、より具体的には、それらの動きの間に取得画像を“追跡”することは、本明細書でより詳細に記載される他のステップで説明される。本議論のために、イメージングシステムは相対的に固定されていると仮定される。これは、Cアーム及び/又は患者の極めて限られた動きのみが考えられていることを意味し、例えば、硬膜外疼痛処置、椎弓根K−ワイヤ配置、又は結石除去で起こり得る。ベースライン画像は、ステップ202において、手術野が画像内で適切に中心に置かれているとの確認のために、表示123に投影される。いくつかの場合に、新しいFD画像は、適切なベースライン画像が取得されるまで取得されてよい。Cアームが動かされるプロシージャにおいて、新しいベースライン画像は、以下で説明されるように、イメージングデバイスの新しい位置で取得される。表示画像がベースライン画像として受け入れ可能である場合には、ユーザインターフェイス上で、例えば、表示デバイス126又はインターフェイス125上でボタンが押下されてよい。生理学的過程(例えば、呼吸)による相当量の動きが予期される、解剖学的領域に対して実行されるプロシージャにおいて、サイクルの多数の相にわたって同じ領域について多数のベースライン画像が取得されてよい。それらの画像は、ECG又はパルス酸素濃度計のような他の医療器具からの時間データにタグ付けされてよい。
ベースライン画像が取得されると、ベースライン画像セットがステップ204において生成される。このとき、もとのベースライン画像は、そのもとのベースライン画像の数千の置換を生成するよう、デジタルで回転され、平行移動され、且つサイズ変更される。例えば、128×128ピクセルの典型的な2次元(2D)画像は、1ピクセル間隔でx及びy方向において±15ピクセルだけ平行移動され、3度間隔で±9度だけ回転され、2.5%間隔で92.5%から107.5%にスケーリングされて(自由度4、すなわち4D)、ベースライン画像セットにおいて47,089枚の画像をもたらし得る。(3次元(3D)画像は、x及びy軸に直交する2つの更なる回転の追加により6D解空間を暗示する。もとのCT画像データセットは、同様にして数千といった多数のDRRを形成するために使用され得る。)このように、このステップでは、もとのベースライン画像は、あたかももとのベースライン画像が異なる動作置換の夫々で取得されたかのように、数千の新しい画像表現を発生させる。この“解空間(solution space)”は、ステップ206において、グラフィクスカードメモリに、例えば、画像処理デバイス122のグラフィクス処理ユニット(GPU;Graphics Processing Unit)に格納されるか、あるいは、GPUがそれらの画像を生成することができる速度及び解空間における画像の数に応じて、GPUへ送られる新しい画像として形成されてよい。現在の計算能力によれば、独立の医療用コンピュータで、ほぼ850,000枚の画像を有しているベースライン画像セットの生成は、GPUの複数のプロセッサが夫々同時に画像を処理することができるので、GPUにおいて1秒に満たず起こることができる。
処置の間、新しいLD画像はステップ208において取得され、画像処理デバイスに関連したメモリに格納され、表示123に投影される。新しい画像は、より低い放射線量で取得されるので、非常にノイジーである。よって、本発明は、より有用な情報を執刀医に伝える第2表示124でのより鮮明な画像を生成するよう、新しい画像をベースライン画像セット内の画像と“マージ”するステップを設ける。よって、本発明は、統計的に有意な一致を見つけるよう新しい画像がベースライン画像セット内の画像と比較される画像認識又はレジストレーションステップ210を考えている。新しい“マージされた”画像がステップ212で生成され、もとの新しい画像のビューに隣接して表示124で表示されてよい。プロシージャの全体にわたる様々な時点で、新しいベースライン画像がステップ216で取得されてよく、ステップ204で新しいベースライン画像セットを生成するために使用される。
ステップ210は、現在の新しい画像をベースライン画像セット内の画像と比較することを考えている。このステップは外科手術の間に起こるので、時間及び精度が重要である。望ましくは、ステップは、1秒未満で画像レジストレーションを取得することができる。それにより、画像がCアームによって取り込まれる時と、マージされた画像がデバイス126で表示される時との間には、有意な遅延が存在しない。様々なアルゴリズムが、ベースライン画像セットに含まれる画像の数、アルゴリズム演算を実行するコンピュータプロセッサ又はグラフィクスプロセッサのサイズ及び速度、計算を行うために割り当てられる時間、並びに比較される画像のサイズ(例えば、128×128ピクセル、1024×1024ピクセル、等)に応じて、用いられてよい。1つのアプローチにおいて、4D空間にわたるグリッドパターンにおいて上記の所定の位置にあるピクセルどうしの間で、比較が行われる。他のヒューリスティックアプローチでは、ピクセル比較は、関係のある一致の可能性がより大きいと信じられる画像の領域に集中することができる。それらの領域は、グリッド又はPCAサーチ(以下で定義される。)からの知識、トラッキングシステム(例えば、光学式手術ナビゲーションデバイス)からのデータ、又はDCOM若しくは相当するものからの位置データに基づき“予め選択”されてよい。代替的に、ユーザは、プロシージャに関係があると考えられる解剖学的特徴をベースライン画像上でマークすることによって、比較のために画像の1つ以上の領域を特定することができる。この入力によれば、領域内の各ピクセルは、0から1の間の関連度スコアを割り当てられ得る。関連度スコアは、新しい画像がベースライン画像と比較される場合に、画像相似関数に対するピクセルの寄与をスケーリングする。関連度スコアは、集中すべき領域又は無視されるべき領域を識別するよう較正されてよい。
他のアプローチでは、主成分分析(PCA;Principal Component Analysis)が行われる。これは、フル解像度のグリッドアプローチにより可能にされるよりも、割り当てられる時間量において、より多くのより大きい画像との比較を可能にすることができる。PCAアプローチにおいて、画像セットの各ピクセルがお互いと如何にして共変するかに関して決定がなされる。共分散行列は、解集合全体のごく一部(例えば、ベースライン画像セットの中のランダムに選択された10%)のみを用いて生成される。ベースライン画像セットからの各画像は、列ベクトルに変換される。一例において、70×40ピクセルの画像は、2800×1ベクトルになる。それらの列ベクトルは、0の平均及び1の分散に正規化され、より大きい行列へと結合される。共分散行列は、このより大きい行列から決定され、最も大きい固有ベクトルが選択される。この特定の例について、30個のPCAベクトルは、各々の画像の分散の約80%を説明することができることが分かっている。よって、夫々の2800×1画像ベクトルは、1×30ベクトルを得るよう、2800×30PCAベクトルを乗じられ得る。同じステップが新しい画像に適用され、新しい画像は、2800×1画像ベクトルに変換され、2800×3PCAベクトルとの乗算は、新しい画像に対応する1×30ベクトルを生成する。解集合(ベースライン画像)ベクトル及び新しい画像ベクトルは正規化され、解空間内の各ベクトルに対する新しい画像ベクトルのドット積が計算される。最も大きいドット積をもたらす(すなわち、1に近い)解空間ベースライン画像ベクトルは、新しい画像に最も近い画像であると決定される。本例は、解析に使用される異なる主成分及び/又は異なる画像サイズにより変更されてよいことが理解される。更には、他の既知の技術が実装されてよく、それは、例えば、固有ベクトル、特異値決定、平均二乗誤差、平均絶対誤差、及びエッジ検出を利用してよいことが理解される。更には、様々な画像認識アプローチが、画像の選択された領域に適用され得、あるいは、様々な統計的尺度が、適切な信頼閾値内に入る一致を見つけるよう適用され得ることが考えられている。信頼又は相関値が割り当てられてよく、それは、新しい画像と選択されたベースライン画像との間、又はベースライン画像セットの中の選択された画像どうしの間の相関の程度を定量化する。この信頼値は、執刀医の再検討のために表示されてよい。執刀医は、信頼値が特定の表示のために許容可能であるかどうか、及び他の画像が取得されるべきであるかどうかを判断することができる。
画像誘導外科手術において、ツール、インプラント、及び器具は、画像フィールド内に不可避的に現れる。それらの物は、通常は放射線不透過性であり、結果として、関係のある患者の生体構造をビューから遮る。ステップ210で取得された新しい画像は、よって、ベースライン画像セットの中のいずれの画像とも相関しないツールTのアーチファクトを含む。このように、画像内のツールの存在は、上記の比較技術が新しい画像とベースライン画像セットの中のいずれかの画像との間の高度なレジストレーションを生じさせないことを確かにする。それでもなお、上記のプロシージャの夫々の最終結果が、統計的に関係があるか又は特定の閾値を超える最も高い相関度を追求すべきである場合に、画像レジストレーションは、新しい画像の全体、ツールアーチファクト、等を伴って行われ得る。
代替的に、画像レジストレーションステップは、新しい画像上のツールアーチファクトを考慮するよう変更されてよい。1つのアプローチにおいて、新しい画像は、ツールによって“遮られる”画像ピクセルの数を決定するよう評価されてよい。この評価は、各ピクセルのグレースケール値を閾値と比較し、その閾値の外にあるピクセルを除くことを有することができる。例えば、ピクセルのグレースケール値が0(完全な黒色)から10(完全な透明)まで変化する場合に、3の閾値が、特定のピクセルを評価から除くよう適用されてよい。その上、位置データが様々な追跡されるツールについて利用可能であるとき、アルゴリズム的に、遮られる領域は、数学的に回避され得る。
他のアプローチにおいて、画像認識又はレジストレーションステップ210は、ベースライン画像(すなわち、図11に関連して以下で記載されるように、Cアームの動きを考慮するよう変換されているベースライン画像)の又は患者の変換されたバージョンに対するLD画像の類似性を測定するステップを含んでよい。画像誘導外科手術において、Cアームシステムは、同じ生体構造の複数の画像を取得する。この画像の連続にわたって、システムは、少しずつ動いてよく、手術ツールは、たとえ解剖学的特徴が比較的安定したままであったとしても、視野から付加又は除外されてよい。以下で記載されるアプローチは、他の後の画像において欠けている詳細を埋めるよう、1つの画像に存在する解剖学的特徴を使用することによって、解剖学的特徴におけるこの一貫性を利用する。このアプローチは、高品位の全線量画像から後の低線量画像への変換を更に可能にする。
本アプローチにおいて、画像のスカラー関数の形をとる相似関数が、現在のLD画像とベースライン画像との間のレジストレーションを決定するために使用される。このレジストレーションを決定するよう、最初に、画像どうしの間で起こった漸増的な動きを決定することが必要である。この動きは、4自由度に対応する4つの数、すなわち、スケール、回転、並びに垂直方向及び水平方向の移動、によって記述され得る。比較される所与の画像対に関して、それら4つの数の知識は、画像のうちの1つが操作されることを可能にし、それにより、同じ解剖学的特徴が両方の画像の間で同じ位置に現れる。スカラー関数は、このレジストレーションの尺度であり、相関係数、ドット積又は平均二乗誤差を用いて求められ得る。例として、ドット積スカラー関数は、2つの画像における各ピクセル対での強度値の積の和に対応する。例えば、LD及びベースライン画像の夫々において1234,1234に位置するピクセルの強度値が乗じられる。同様の計算は、全ての他のピクセル位置について行われ、それらの乗算値の全ては、スカラー関数のために加算される。2つの画像が正確なレジストレーションにある場合に、このドット積は最大限の大きさを有することが認識され得る。すなわち、最良の組み合わせが見つけられるときに、対応するドット積は他よりも通常は高く、Zスコア(すなわち、平均を上回る標準偏差の数)として報告され得る。7.5よりも大きいZスコアは、レジストレーションが偶然見つけられなかった99.9999999%の確実性を表す。このドット積を用いて求められるレジストレーションは、患者の生体構造のベースライン画像と、視野及びイメージング器材が動かされたか又は非解剖学的物体が視野内に導入された後に後の時点で取り込まれたその同じ生体構造の実時間の低線量画像との間にあることが念頭に置かれるべきである。
このアプローチは、同じ計算を並列に実行することができる複数のプロセッサから成るGPUのような並列コンピューティングアーキテクチャを使用する実施に特に適している。GPUの各プロセッサは、よって、LD画像と、ベースライン画像の1つの変換されたバージョンとの相似関数を計算するために使用されてよい。このようにして、ベースライン画像の複数の変換されたバージョンが、同時にLD画像と比較され得る。変換されたベースライン画像は、ベースラインが取得され、次いでGPUメモリに格納される場合に、前もって生成され得る。代替的に、単一のベースライン画像が記憶され、そして、変換された座標からテクスチャ・フェッチングにより読み出すことによって比較の間にオンザフライで変換され得る。GPUのプロセッサの数が、考えられるべき変換の数を大いに超える状況では、ベースライン画像及びLD画像は、異なるセクションに分けられ得、各セクションの相似関数は、異なるプロセッサで計算され、次いで、その後にマージされ得る。
2つの画像をアライメントするよう最良の変換の決定を更に加速させるよう、相似関数は、最初に、含まれるピクセルがより少ないダウンサンプリングされた画像を用いて計算され得る。このダウンサンプリングは、隣接するピクセルのグループを全体に平均することによって、前もって実行され得る。広範囲の起こり得る動きに対する多くの変換のための相似関数は、最初に、ダウンサンプリングされた画像について計算され得る。このセットからの最良の変換が決定されると、その変換は、より多くのピクセルを含む画像に適用される可能な変換のより細かいグリッドの中心として使用され得る。このようにして、複数のステップが、短い時間量での広範な可能な変換を考慮しながら、高い精度で最良の変換を決定するために使用される。異なる画像における相対的な強度レベルの差によって引き起こされる相似関数に対するバイアスを減らすよう、且つ、ユーザにとって関心がある画像において解剖学的特徴を優先的にアライメントするよう、画像は、相似関数が計算される前にフィルタをかけられ得る。そのようなフィルタは、理想的には、低線量画像に関連した非常に高い空間周波数のノイズを抑制し、一方、重要な解剖学的詳細を欠いた大きな平面領域に関連した低い空間周波数の情報も抑制する。この画像ろ過は、例えば、畳み込み、フーリエドメインにおける乗算、又はバターワースフィルタにより成し遂げられ得る。このように、LD画像及びベースライン画像の両方が、相似関数を生成するより前に、然るべくフィルタ処理されることが考えられている。
先に説明されたように、手術ツールのような非解剖学的特徴が画像に存在することがある。その場合に、LD画像とベースライン画像との間のアライメントを決定するために解剖学的特徴のみが使用されることを確かにするよう、相似関数計算に対する変更が必要とされ得る。ピクセルが解剖学的特徴の部分であるか否かを識別するマスク画像が生成され得る。一態様において、解剖学的ピクセルは1の値を割り当てられてよく、一方、非解剖学的ピクセルは0の値を割り当てられる。値のこの割り当ては、相似関数が上述されたように計算される前に、ベースライン画像及びLD画像の両方が、対応するマスク画像を乗じられることを可能にする。すなわち、マスク画像は、相似関数計算に対する如何なる影響も回避するよう、非解剖学的ピクセルを取り除くことができる。
ピクセルが解剖学的であるか否かを決定するよう、各ピクセルの周りの近傍において様々な関数が計算され得る。近傍のそれらの関数は、標準偏差、傾きの大きさ、並びに/又はもとのグレースケール画像における及びフィルタをかけられた画像におけるピクセルの対応する値を含んでよい。あるピクセルの周りの“近傍”は、5×5又は3×3グリッドといった、所定数の隣接するピクセルを含む。その上、それらの関数は、例えば、標準偏差の近傍の標準偏差を求めることによって、又は標準偏差及び傾きの大きさの二次関数を計算することによって、組み合わされ得る。近傍の適切な関数の一例は、骨と金属の器具とを見分けるためのエッジ検出技術の使用である。金属は骨よりも鋭いエッジを示し、この差は、“エッジ”ピクセルの近傍における標準偏差又は傾き計算を用いて決定され得る。近傍関数は、このようにして、このエッジ検出アプローチに基づき、ピクセルが解剖学的又は非解剖学的であるかどうかを判定し、1又は0の値を適宜ピクセルに割り当ててよい。
値の組が特定のピクセルについて計算されると、それらの値は、前に取得された画像の測定から決定された閾値と比較され得、バイナリ値が、超えられる閾値の数に基づきピクセルに割り当てられ得る。代替的に、0から1の間の小数値が、解剖学的又は非解剖学的特徴の部分としてのピクセルの識別に関する確からしさの程度を反映するように、ピクセルに割り当てられてよい。それらのステップは、画像内の1つのピクセルでの計算をGPU上の1つのプロセッサに割り当て、それによって、複数のピクセルの値が同時に計算されることを可能にすることによって、GPUにより加速され得る。マスクは、収縮(erosion)及び膨張(dilation)のような形態学的な画像操作の組み合わせを用いて、非解剖学的特徴に対応する領域を満たし且つ広げるよう操作され得る。
このアプローチのステップの例が図4A〜4Pの画像において表されている。図4Aにおいて、手術野の画像は、解剖学的特徴(患者の頭蓋骨)及び非解剖学的特徴(例えば、クランプ)を含む。図4Aの画像は、図4Bのフィルタ処理された画像を生成するよう、エッジ強調のためにフィルタをかけられる。このフィルタ処理された画像は、従来の様態において数千のピクセルによって表現され、各ピクセルの強度値は、フィルタのエッジ強調属性に従って変更されている。この例で、フィルタはバターワースフィルタである。このフィルタ処理された画像は、次いで、非解剖学的特徴に対応するマスクを生成するための8つの異なる技術を受ける。よって、上記の近傍関数(すなわち、標準偏差、傾き、及びそれらの複合関数)が、図4C〜4Jの異なる画像を生成するよう、図4Bのフィルタ処理された画像に適用される。それらの画像の夫々は、ライブLD画像との比較及びレジストレーションのために、ベースライン画像として記憶される。
よって、図4C〜4Jの各画像は、マスクを生成するために使用される。上述されたように、マスク生成プロセスは、ピクセル強度と閾値との比較によって、あるいは、既知の非解剖学的特徴に対応する強度値がピクセル強度と比較されているルックアップテーブルによってよい。近傍関数画像の1つについて閾値及びルックアップテーブルによって生成されたマスクは、図4K〜4Lに示されている。マスクは、次いで、図4M〜4Nで表されているように、非解剖学的特徴に対応する領域を満たし且つ広げるよう操作され得る。結果として現れるマスクは、次いで、ライブのLD画像と比較される図4O〜4Pの“最終の”ベースライン画像を生成するよう、図4Bのフィルタ処理された画像に適用される。上述されたように、それらの計算及びピクセル評価の夫々は、GPUの個々のプロセッサにおいて実行され得、それにより、それらの画像の全てがごく短時間に生成され得る。更に、それらのマスクをかけられたベースライン画像の夫々は、手術野又はイメージングデバイスの動きを考慮するよう変換され、そして、ベースライン画像とLD画像との間の最良のアライメントに対応する最も高いZスコアをもたらすベースライン画像を見つけるようライブのLD画像と比較され得る。この選択されたベースライン画像は、次いで、以下で説明される様態で使用される。
画像レジストレーションが完了すると、新しい画像は、種々の方法でベースライン画像セットからの選択された画像とともに表示されてよい。1つのアプローチでは、2つの画像は、図5A、5Bで表されているように、マージされる。もとの新しい画像は、図5Aにおいて示されており、はっきりと可視的であって、下にある生体構造を遮る器具Tを伴う。ステップ212(図3)で生成される部分的にマージされた画像は、図5Bにおいて示されており、器具Tは依然として可視的であるものの、実質的に緩和されており、下にある生体構造は可視的である。2つの画像は、従来の方法で画像のデジタル表現を結合することによって、例えば、2つの画像のピクセルデータを加算又は平均化することによって、マージされてよい。1つの実施形態では、執刀医は、例えば、ユーザインターフェイス125を通して、表示されている画像において、1つ以上の特定の関心領域を識別してよく、そして、マージ動作は、関心領域外の表示のためにベースライン画像データを利用し、関心領域内の表示のためにマージ動作を行うよう構成され得る。ユーザインターフェイス125は、マージされた画像において表示される新しい画像に対するベースライン画像の量を制御する“スライダ”を設けられてよい。他のアプローチでは、執刀医は、図6A、6Bに示されているように、相関されたベースライン画像と新しい画像又はマージされた画像とを交互に繰り返してよい。図6Aにおける画像は、新しい画像に対して最も高い相関度を有すると認められたベースライン画像セットからの画像である。図6Bにおける画像は、得られた新しい画像である。執刀医は、下にある生体構造のより明りょうなビューと、器具Tを含む現在の視野のビューと得るよう、それらのビューを交互に繰り返してよい。これは、実際上、デジタルで画像を交互に繰り返すことによって、器具によって遮られる生体構造に対する器具の位置を明確にしながら、視野から器具を取り除く。
他のアプローチでは、対数減算が、ベースライン画像と新しい画像との間の違いを識別するようそれら2つの画像の間で行われ得る。結果として現れる差分画像(執刀医にとって関心があるツール又は注入された造影剤を含んでよい。)は、別々に表示されるか、カラーでオーバーレイされるか、あるいは、ベースライン画像、新しい画像又はマージされた画像に加えられ得る。それにより、関心のある特徴がより明りょうに現れる。これは、Cアーム照射設定の変動を考慮するよう減算より前に画像強度値が調整されることを必要とする。収縮及び膨張のような、デジタル画像処理動作は、物理オブジェクトよりもむしろ画像ノイズに対応する差分画像内の特徴を取り除くために使用され得る。このアプローチは、記載されているように、画像の差を引き立たせるために、あるいは、マージされた画像から差分画像を除くために、使用されてよい。換言すれば、差分画像は、ベースライン画像、新しい画像又はマージされた画像における差分画像の除外又は算入のためのツールとして使用されてよい。
上述されたように、本開示の画像強調システムは、放射線不透過性の器具を最小限にし、器具の下にある生体構造の可視化を可能にするために使用され得る。代替的に、本システムは、画像又は画像群の中で選択された器具を強調するよう動作可能であることができる。特に、非解剖学的特徴の位置を特定するために使用される上記のマスクは、画像において選択的に強化され得る。同じデータはまた、解剖学的特徴と選択された器具とを強調するよう交互に操作され得る。この機構は、視覚化された景色が期待されたように見えることを確かめ、画像内で起こり得るひずみを特定するのを助け、且つ、画像誘導された器具プロシージャを支援することを執刀医に可能にするために使用され得る。骨ねじは放射線不透過性であるから、それは、極めて低い線量のCアーム画像の下で容易に視覚化され得る。従って、低線量の新しい画像が、高線量のベースライン生体構造画像とマージされながら、器具の位置を特定するために使用され得る。骨ねじが骨の中を進むにつれて、骨ねじの適切な位置付けを確認するよう、複数の極めて低い線量の画像が取得され得る。骨ねじのような器具のジオメトリは知られている(あるいは、例えば画像ガイダンス、2D投影又は両方から取得又は導出され得る)ので、Cアーム画像内で器具を表現するために使用されるピクセルデータは、器具のエッジ強調画像上にマッピングされたCADモデルと置換され得る。
上述されたように、本発明はまた、イメージングデバイス又はCアーム103が動かされる外科的処置を考えている。よって、本発明は、市販のトラッキングデバイス又はイメージングデバイスからのDICOM情報を用いて、従来の手術ナビゲーション技術で見られるような手術器具及びインプラントのポジションを追跡することよりむしろ、Cアームのポジションを追跡することを考えている。Cアームを追跡するために必要とされる精度は、器具及びインプラントを追跡するために必要とされる精度よりもずっと低い。この実施形態において、画像処理デバイス122は、トラッキングデバイス130又は加速度計からトラッキング情報を受ける。本発明のこの態様の目的は、患者に対するCアームの姿勢に関わらず実際の手術野と一致する画像を執刀医が見ることを確かにすることである。
Cアームのポジションを追跡することは、物理的な空間とイメージング(又は仮想)空間との漸次的なずれである“ドリフト”を考慮することができる。この“ドリフト”は、わずかな患者の動き、テーブル又はイメージングデバイスとの故意でない接触、及び重力のために、起こり得る。このずれは、しばしば視覚的に気付かれないほどであるが、執刀医によって見られる画像において顕著なシフトを生じさせることがある。そのようなシフトは、手術ナビゲーションプロシージャが行われている(そして、このデバイスから得られた情報を医師が信頼している)場合に、又は新しい画像とベースライン画像とのアライメントが画像の明りょうさを改善するために必要とされる場合に、問題となる可能性がある。画像処理の使用は、ベースライン画像と新しい画像との避けられないずれを取り除く。画像処理デバイス122は更に、生体構造の現在の画像が予測画像と比較される較正モードを組み込んでよい。画像の予測された動きと実際の動きとの間の差が、以下で記載される“質量重心”、すなわちCOM(center of mass)、及びドリフトの不正確な知識によって考慮され得る。少量の画像が取得され、COMが正確に定められると、システムの再較正が自動的に起こり、夫々の連続画像が取り込まれて、ドリフトの影響を取り除くことができる。
画像処理デバイス122は、Cアームの動きがモニタされ、現在表示されている画像が然るべく動かされる“トラッキングモード”で動作してよい。現在表示されている画像は、最新のベースライン画像、新しいLD画像又は上述されたように生成されたマージされた画像であってよい。この画像は、新しい像がイメージングデバイス100によって取り込まれるまで、表示123、124のうちの一方にとどまる。この画像は、トラッキングデバイス130によって取得されたポジションデータを用いて、Cアームの動きに合うよう表示上でシフトされる。トラッキングサークル240が、図7A、7Bで表されているように、表示上で示されてよい。トラッキングサークルは、画像の“境界内”位置を識別する。トラッキングサークルが赤色で現れる場合に、現在のCアームのポジションにより取得される画像は、図7Aに示されるように、ベースライン画像ポジションに関して“境界外”である。Cアームが放射線技師によって動かされるにつれて、表示上の代表画像は動かされる。画像が図7Bに示されるように“境界内”に移動する場合に、トラッキングサークル240は緑になる。それにより、技師は、Cアームがこのとき、新しい画像を取得するための適切なポジションにある、との即時の指示を有している。トラッキングサークルは、外科的処置の間にCアームの動きを導くために技師によって使用されてよい。トラッキングサークルはまた、スティッチされたベースライン画像を準備することにおいて技師を支援するために使用される。よって、図8で表されているような、他の画像とスティッチするために適切にアライメントされていない画像ポジションは、赤色のトラッキングサークル240を有し、一方、図8Bに示されるような、適切にアライメントされた画像ポジションは、緑色のトラッキングサークルを有する。技師は、次いで、スティッチされたベースライン画像の部分を形成するよう画像を取得することができる。
トラッキングサークル240は、ベースライン画像においてCアームのロール位置を示す円の外周上の印を含んでよい。矢印のような第2の印もトラッキングサークルの外周上で表示されてよい。第2の印は、Cアームのロール運動に伴ってトラッキングサークルの周りを回転する。第1の印と第2の印とのアライメントは、新しい画像とベースライン画像との間のロール自由度のアライメントに対応する。
多くの事例において、Cアーム画像は、特定の解剖学的構造を回避するよう、あるいは、標的の最良の画像を提供するよう、ある角度で取り込まれる。そのような事例において、Cアームは、ベースライン画像の最良の姿勢を見つけるようひっくり返されたり、又は傾けられたりする。従って、6自由度(6DOF)、すなわち、X及びY方向の平行移動、スケーリングに対応するZ方向の平行移動(すなわち、標的に近づいたり又は標的から遠ざかったりすること)、Z軸周りのロール又は回転、並びにピッチ及びヨー(夫々X軸及びY軸周りの回転)において、新しい画像をベースライン画像と整合させることが望ましい。X、Y、Z及びロール方向においてビューファインダーをアライメントすることは、上述されたように、トラッキングサークルの色によって示され得る。明らかなように、表示上に現れるビューファインダー画像を使用すると、4自由度の運動、すなわち、X及びY方向の平行移動、ズーム又はZ方向の平行移動、並びにZ軸周りのロール、が容易に視覚化され得る。しかし、画像表示上で残り2つの自由度、すなわち、ピッチ及びローにおける運動を直接視覚化することは、より困難である。ピッチ及びヨーにおいてトラッキングサークル240をアライメントすることは、Cアーム及びCアームに関連したビューファインダーのやや複雑な動きを必要とする。この動き及びアライメントを容易にするために、ピッチ運動に対応する垂直なスライダバー、及びヨー運動に対応する水平なスライダバーが表示上に示され得る。新しい画像は、2つのスライダバーに沿ったインジケータが中心にある場合に、適切に位置付けられている。このスライダバーは、新しい画像がピッチ及びヨーの自由度においてベースライン画像に対してずれている場合に赤色になることができ、適切に中心を置かれている場合に緑色になることができる。全ての自由度がもとのベースライン画像のX、Y、Z、ロール、ピッチ及びヨーの姿勢とアライメントされると、技師は新しい画像を取り込むことができ、執刀医は、正確且つ有意味な比較が新しい画像とベースライン画像との間で行われ得ることを保証され得る。
ベースライン画像の空間ポジションは、ベースライン画像が生成されたときに取得された6DOFポジション情報から知られる。この6DOFポジション情報は、Cアーム自体から取得されたあらゆる姿勢情報とともに、トラッキングデバイス130からのデータを含む。ベースライン画像と同じ空間ポジションで新しい画像を生成することが望まれる場合に、新しい空間ポジション情報は、Cアームが動かされるにつれて生成されている。Cアームがベースライン画像ポジションとアライメントされているかどうかは、上述されたように、6DOFポジションデータを比較することによって容易に確かめられ得る。その上、この比較は、如何にしてCアームが適切なアライメントを得るよう動かされる必要があるかに関して指示を放射線技師に対して与えるために使用され得る。換言すれば、ベースラインポジションデータと現在のポジションとの比較によりCアームが左にずれていることが分かる場合には、Cアームを右に動かすよう技師に指示する指示が与えられ得る。この指示は、図8Cのスクリーンショットで表されるように、トラッキングサークル240の周りを移動する方向矢印242の形をとることができる。移動インジケータ242の方向は、技師に対するCアームの物理ポジションに対応する座標系に変換され得る。換言すれば、移動インジケータ242は、現在の画像をベースライン画像とアライメントするために技師がCアームを上方向に動かす必要があることを示すよう、図8Cでは、画像において垂直に上を指す。トラッキングサークル上の方向矢印242の代替案として、移動方向は、図8Cにおけるバー244、245のような、画像の隣にある垂直なスライダバーにおいて示されてよい。スライダバーは、各バーの中心ポジションからのバーのオフセットを技師に直接に視覚的に示すことができる。図8Cの例では、垂直なスライダバー244は中心ポジションより下にあるので、技師は、Cアームを垂直に上方向に動かすと即時に知る。
更なる実施形態において、2つのビューファインダー画像は、ベースライン画像と同じ姿勢で新しい画像を取得するようCアームを位置合わせするために、放射線技師によって利用され得る。この実施形態では、2つのビューファインダー画像は、図8Dのスクリーンショットで表されているように、前後(A/P)画像(前から後ろへ身体を通過する。)及び側方画像(肩から肩へ身体を通過する。)のような、直交する画像である。技師は、両方のビューファインダー画像を対応するA/Pベースライン画像及び側方ベースライン画像とアライメントしようとする。Cアームが技師によって動かされるにつれて、両方の画像は、上記の単一のビューファインダーと同様に、同時に追跡される。夫々のビューファインダーは、上記の様態で応答するトラッキングサークル(すなわち、境界外では赤色、境界内では緑色)を組み込む。技師は、Cアームが操作されるにつれて、A/Pビューファインダーと側方ビューファインダーとを切り替える。トラッキングサークルが適切なアライメントの所定範囲内に入ると、表示は、技師がCアームのポジションを微調整するのを助けるよう、2ビューファインダー配置から、上記の単一ビューファインダー配置へ切り替わることができる。
明らかなように、2つのビューナビゲーション画像は、ベースライン画像と、単一A/P画像のような、現在のポジションでの単一のショット又はCアーム画像とから導出されてよい。この実施形態では、側方画像は、あたかもCアームが側方画像を得るためのポジションへと実際に回転されたかのように、A/P画像の投影である。A/P画像のためのビューファインダーが、所望の位置にビューを位置付けるよう動かされるにつれて、第2のビューファインダー画像は、直交する面におけるその画像の投影(すなわち、側方ビュー)を表示する。医師及び放射線技師は、このようにして、もとのA/Pビューの投影に基づき側方ビューのための所望の位置へとCアームを操縦することができる。Cアームが所望の位置とアライメントされると、Cアームは、次いで、実際に、直交(すなわち、側方)画像を取得するよう位置付けられ得る。
先の説明において、ここで開示されているイメージングシステムのトラッキング機能は、もとのベースライン画像が取得された空間ポジションにCアームを戻すために使用される。技師は、新しい画像を同じ位置で取得することができ、それにより、執刀医は、現在の画像をベースライン画像と比較することができる。代替的に、このトラッキング機能は、ベースライン画像の位置からオフセットされた位置で又は異なった姿勢で新しい画像を取得するために、放射線技師によって使用され得る。例えば、ベースライン画像がL3椎骨のA/Pビューであり、その椎骨の特定の特徴の画像を取得することが望まれる場合に、トラッキング機能は、技師を椎骨へ、次いで、関心のある特徴との所望のアライメントへ瞬時に導くために使用され得る。本発明のトラッキング機能は、このようにして、技師が、所望のビューに対するCアームのポジションを確認するために中間画像を取得する必要なしに、新しい画像のための適切なポジションを見つけることを可能にする。
画像トラッキング機能はまた、複数の画像をスティッチする場合に、例えば、患者の脊椎の完全な画像を形成するために、使用され得る。上述されたように、トラッキングサークル240は、あたかも画像がその位置及び姿勢で取り込まれたかのように、生体構造に対するCアームの位置を表す。ベースライン画像(又は何らかの選択された前の画像)も、表示画像が取り込まれたポジションからのCアームのオフセットを示すベースライン画像からのトラッキングサークルのオフセットを有して、表示上で現れる。表示されているベースライン画像に対するトラッキングサークルのポジションは、よって、トラッキングサークルの位置で取り込まれる新しい画像とベースライン画像との間である程度のオーバーラップを提供するよう調整され得る。Cアームが所望のオーバーラップへと動かされると、新しい画像が取り込まれ得る。この新しい画像は、次いで、2つの画像がつなぎ合わされるということで、ベースライン画像とともに画面上で表示され得る。トラッキングサークルも表示上で可視的であり、他の画像が患者の生体構造の残り2つの画像とスティッチされるようCアームの動きを導くために使用され得る。このシーケンスは、所望の生体構造の全てが撮像されてつなぎ合わされるまで、続けられ得る。
本発明は、執刀医と放射線技師との間のコミュニケーションを強化する機構を考えている。処置の過程において、執刀医は、特定の位置又は姿勢での画像を要求することがある。1つの例は、脊髄麻酔処置において“ファーガソン・ビュー”として知られているものである。このビューでは、A/P指向のCアームが、脊椎終板の上に直接整列するよう傾けられ、前記終板は、“フラット”に、すなわち、Cアームのビーム軸と本質的に平行に方向を合わせられている。ファーガソン・ビューを取得することは、脊椎の複数のA/Pビューを取得しながらCアーム又は患者台を回転させることを必要とする。これは、現在の技術によれば、終板と最も良く整列される1つを見つけるよう多数の蛍光透視像が実行されることを必要とし、厄介且つ不正確である。本発明は、単一の画像又はスティッチされた画像の上にグリッドをオーバーレイし、且つ、解剖学的特徴のためのラベルを与えることを執刀医に可能にする。ラベルは、次いで、Cアームの方向を合わせるために技師によって使用され得る。よって、図9Aに示されるように、画像処理デバイス122は、側方画像の上にオーバーレイされたトラッキングサークル240の中にグリッド246を置くことを執刀医に可能にするよう構成される。執刀医はまた、解剖学的構造、この場合に腰椎、を識別するラベル250を置いてよい。この特定の例では、目標は、L2−L3椎間板空間を中心グリッド線246と整列させることである。技師を支援するよう、軌跡矢印255が、現在のポジションでCアームにより取得された画像の軌跡を示すよう画像上にオーバーレイされている。純粋なAPの向きを変えながらCアームが動くにつれて、画像処理デバイスは、トラッキングデバイス130から取得されたCアームポジションデータを評価して、軌跡矢印255の新しい向きを決定する。軌跡矢印は、このようにして、Cアームとともに動く。それにより、軌跡矢印が、図9Bに示されるように、中心グリッド線24と整列される場合に、技師は、L3終板に沿ってファーガソン・ビューを取得するようCアームが適切に整列されていることを知りながら、画像を撮影することができる。よって、側方ビューが回転されて中心グリッド線に沿って中心に置かれるまで側方ビューをモニタすることは、放射線技師が、多数の不正確な画像を推測し取り込むことなしに、A/Pファーガソン角を見つけることを可能にする。
画像処理デバイスは更に、図10に表されているように、各々の表示123及び124で同時に側方ビュー及びA/Pビューを示すよう構成されてよい。いずれか一方又は両方のビューは、グリッド、ラベル及び軌跡矢印を組み込んでよい。これと同じ側方ビューが、技師による確認のためにイメージングシステム100の制御パネル110に現れてよい。上述されたように、軌跡矢印を中心グリッド線と整列させるようCアームが動かされるにつれて、側方画像及びA/P画像の両方ともが然るべく動かされ、それにより、執刀医は、新しい画像がどのように見えるかの即時の知覚を有する。先と同じく、技師が、軌跡矢印と中心グリッド線との整列によって示されるように、Cアームの方向を適切に合わせると、新しいA/P画像が取得される。図10に示されるように、ビューは、特定の椎間板空間と夫々整列されている複数の軌跡矢印を含んでよい。例えば、最上の軌跡矢印はL1−L2椎間板空間と整列され、一方、最下の矢印は、L5−S1椎間板空間と整列される。多段階の手順において、執刀医は、異なる段階のファーガソン・ビューを必要とすることがある。斯様なビューは、Cアームを特定の軌跡矢印と整列させるよう技師に要求することによって、容易に取得され得る。図10に示される複数の軌跡矢印は、脊柱側湾症のスティッチされた画像において適用され、コブ角(Cobb angle)を決定するために使用され得る。コブ角の変化は、矯正が脊柱に適用される場合にライブで又はインタラクティブに決定され得る。矯正された脊柱の現在のスティッチされた画像は、ベースライン画像の上にオーバーレイされるか、あるいは、矯正の効果の直接的な視覚的表示を提供するよう現在の画像とベースライン画像との間で切り替えられ得る。
他の特徴において、放射線不透過性の非対称な形状又はグリフが、Cアーム検出器の既知の位置に置かれ得る。これは、Cアームの座標フレームを、Cアームの座標フレームの任意の方向とリンクする能力を与える。Cアームの表示が何らかの回転又はミラーリングを有する画像を生成するよう変更され得る場合に、この形状を検出することは、画像比較及び画像スティッチングのプロセスを根本的に簡素化する。よって、図11に示されるように、ベースライン画像Bは、画像の9時のポジションで印又はグリフ“K”を含む。代替の実施形態において、グリフは、Cアーム環に取り付けられた放射線透過性のコンポーネントにおいて、例えば、右三角パターンにおいて、組み込まれている放射線不透過性の数珠のアレイの形をとってよい。Cアームに対するグリフの物理的な向き及び位置は固定されているから、2D画像においてグリフの位置及び向きを知ることは、現実世界に対する画像の向きの自動表示を提供する。新しい画像Nが取得される。新しい画像Nにおいて、グリフは、デフォルトの姿勢から離れて医師又は科学技術者によって回転されている。この新しい画像をベースライン画像セットと比較することは、この角度オフセットに起因して、画像間の如何なるレジストレーションも実現しそうにない。1つの実施形態において、画像処理デバイスは、ベースライン姿勢からのCアームの実際の回転を検出し、一方、他の実施形態では、画像処理デバイスは、新しい画像において“K”グリフを置き且つデフォルトポジションからの角度オフセットを決定するために画像認識ソフトウェアを使用する。この角度オフセットは、回転を変更するために及び/又はベースライン画像セットを画像ミラーリングするために使用される。画像レジストレーションステップ210で選択されたベースライン画像は、新たに取得された画像とマージされるよう、その変換された姿勢において保たれる。この変換は、Cアームに存在している表示効果を取り除くよう、回転及び画像ミラーリングを含むことができる。回転及びミラーリングは、画像内のグリフの向きによって容易に確認され得る。グリフは、“K”又は放射線不透過性の数珠のアレイのいずれであろうとも、技師によって使用される画面上に画像が現れる方法とは無関係に画像がナビゲーションのために表示される方法を制御する能力を医師に提供することが考えられている。換言すれば、ここで開示されているイメージング及びナビゲーションシステムは、医師が処置を行いながら見たいと望む様態で表示画像を回転、ミラーリング又は別なふうに操作することを医師に可能にする。グリフは、医師によって使用される画像がCアーム画像に関して操作されている様態の明示を提供する。表示画像の医師の希望する向きが設定されると、Cアームが動かされている方法に関わらず、その同じ向きに画像を保つことが確かにされる。
他の態様では、Cアーム放射線源104が台に近づくにつれて、受信器105によって捕捉される画像のサイズは大きくなることが知られる。すなわち、受信器を台に近づけることは、画像サイズの低減を生じさせる。身体に対する動きとともに画像が拡大又は縮小する量は容易に決定され得、一方、Cアームが台に沿って平行移動される場合には、画像は、放射線源に対する患者の“質量重心”(COM)の近接に応じてその変化の大きさとともにシフトする。撮像された生体構造は3D構造を有するが、高い精度を有して、数学的に我々はこの生体構造を、構造体のCOMに置かれた3D生体構造の2D像として、表すことができる。次いで、例えば、COMが放射線源の近くにある場合に、小さな動きは、結果として現れる画像を大いにシフトさせる。COMが決定されるまで、なお、画面上のオブジェクトがシフトする計算された量は、それらの実際の動きに等しくはないが比例する。COMの実際の位置を計算するために差が使用される。COMは、それらが異なる量に基づいて調整され、画像が過剰にシフトした場合に放射線源から遠ざけ、画像がほとんどシフトしない場合には反対に移動する。COMは、トラッキングデバイスの基準アークが付属されている台に中心があると最初に仮定される。COMの実際の位置は、イメージングシステムの最初のセットアップ中に取り込まれた最初の2つ又は3つの画像を用いて公平に、正確に決定され、そして、取り込まれた夫々の新しい画像により再確認/調整される。COMがグローバル空間において決定されると、COMに対するCアームの動きが計算され、画像レジストレーションのために然るべくベースライン画像セットを平行移動するよう適用され得る。
画像処理デバイス122はまた、処置の間に執刀医を導くのを助けるために、執刀医が他の追跡された要素を画像の上に導入することを可能にするよう構成されてよい。閉ループフィードバックアプローチは、この認知された追跡された要素の位置とその要素の取り込まれた画像とが対応することを執刀医が確認することを可能にする。具体的に、ライブのCアーム画像と手術ナビゲーションシステムからの決定されたポジションとが比較される。患者の生体構造を、たとえ放射線不透過性のオブジェクトによって遮られるとしても追跡するためにベースライン画像の知識が、画像認識を通じて、使用され得るのと同様にして、放射線不透過性のオブジェクトの知識は、取り込まれた画像がそれらの追跡された位置と比較されるときに、それらの追跡を確かめるために使用され得る。器具/インプラント及びCアームの両方ともが追跡されるとき、イメージングソースに対する生体構造の位置と、イメージングソースに対する機材の位置とが知られる。この情報は、よって、生体構造に対する機材又はハードウェアの位置を即座に且つインタラクティブに確かめるために使用され得る。この特徴は、一例として、例えば、アンギオ(angio)プロシージャにおいてカテーテルの経路をたどることに対して特定の適用性を有することができる。典型的なアンギオプロシージャにおいて、シネ又は連続蛍光透視は、血管に沿ったカテーテルの移動を追うために使用される。本発明は、カテーテルの仮想描写を含む生体構造の前に生成された画像を、生体構造及び実際のカテーテルのライブの蛍光透視ショットと継ぎ合わせることを可能にする。このようにして、典型的なシネプロシージャのための毎秒15枚の蛍光透視ショットを取り込むことよりむしろ、本発明は、カテーテルが血管に沿って移動するにつれてカテーテルを有効に且つ正確に追跡するために毎秒1枚のみを撮影することを放射線技師に可能にする。前に生成された画像は、取り込まれていない蛍光透視ショットを考慮するようつなぎ合わされる。仮想表現は、必要に応じて取り込まれて再較正される場合にライブショットに対して確認され得る。
これと同じ機能は、画像誘導又はロボット手術において器具を追跡するために使用され得る。EMトラッキングのような従来のトラッキング技術を用いて器具が追跡されるとき、空間における器具の位置が知られる。ここで記載されるイメージングシステムは、空間における患者の撮像された生体構造の位置を提供するので、本システムは、その生体構造に対する器具の相対位置を知る。しかし、EM信号のひずみが手術及びCアーム環境において起こり、このひずみが画像内の器具の位置を歪曲する可能性があることが知られている。空間における器具のポジションがトラッキングデータを用いて知られており、Cアーム画像の2D面が本システムによって取得されるように知られている場合に、その2D面上への器具の投影は容易に決定され得る。器具の撮像された位置は、次いで、ひずみの影響を取り除くよう最終画像において補正され得る。換言すれば、器具の位置及びポジションがトラッキングデータ及び3Dモデルから知られる場合には、2D画像上の器具の位置及びポジションは補正され得る。
特定のプロシージャにおいて、血管の解剖学的構造のポジションを、近くの骨のような、より大きい特徴に固定することが可能である。これは、従来のCTアンギオグラム(angiogram(s))(CTA)から又はプロシージャの過程で取り込まれた実際のアンギオグラムからのDRRを用いて達成され得る。いずれのアプローチも、アンギオグラムをもとの骨の解剖学的構造へリンクする手段として使用され得、その逆も可能である。より詳細に記載すると、まさに骨の解剖学的構造を強調するDRRや、骨とともに血管の解剖学的構造を含む照合セットにおける他のDRRのような、種々のDRRを、同じCTAを使用して生成することができる。患者の骨の解剖学的構造の取り込まれたベースラインCアーム画像は、次いで、最良の一致を決定するために骨DRRと比較され得る。骨のみのDRRを用いて結果を表示することに代えて、血管の解剖学的構造を含む照合されたDRRが、新しい画像とマージするために使用され得る。このアプローチでは、骨は、カテーテルの放射線撮影ポジションを、血管の解剖学的構造内のその位置に置くことを助ける。血管自体を継続的に撮像する必要はないので、この構造の像が、取得された骨のみの画像の上にオーバーレイされる場合に、血管を常に見るために造影剤が必要である従前のプロシージャと対比して、造影剤の使用は制限され得る。
以下は、上述された画像処理デバイスの特徴を利用する具体的なプロシージャの例である。それらは、ベースライン画像の種類、表示オプション、及び放射線投与の種々の組み合わせを用いて如何にしてソフトウェアがそうされ得るかに関するほんの2、3の例であり、網羅的なリストであるよう意図されていない。
FD蛍光透視撮影又は術前X線のベースラインと交互にされるパルス化された新しい画像
パルス画像(pulsed image)は取り込まれ、外科的処置の前に取り込まれたより高い解像度の非パルス画像を含む予め取得されていたベースライン画像セットと比較される。現在の画像とベースライン解集合の中の1つとの間のレジストレーションは、生体構造の現在のポジション及びビューを反映するベースライン画像を提供する。新しい画像は、レジストレーションされたベースライン画像と交互に表示されるか又はオーバーレイされ、現在の情報がオーバーレイされ、それほど不鮮明でない、すなわち、より明りょうな画像と交互に表示される。
DRRから得られたベースラインと交互にされるパルス化された新しい画像
パルス画像は取り込まれ、CTスキャンから取得されたより高い解像度のDRRを含むベースライン画像の予め取得されていた解集合と比較される。DRR画像は、骨の明りょうさを弱めるオブジェクトだけでなく、ORで撮影されたフィルムを頻繁に“ぼやけさせる”他の不明りょうな情報(例えば、ボビーコード、EKGリード、等)とは対照的に、骨の解剖学的構造をまさに示すよう制限され得る。上記の例と同様に、前のDRR画像のうちの1つとレジストレーションされる新しい画像、及びそれらの画像は、表示123、124の交互にされるか又はオーバーレイされる。
交互にされるのではなくマージされるパルス化された新しい画像
上記の全ての技術を適用することができ、新しい画像とレジストレーションされたベースライン画像とを交互にする代わりに、前の画像及び現在の画像はマージされる。加重平均又は同様のマージ技術を実行することによって、生体構造のより高い解像度の像とマージされた生体構造に関する現在の情報(例えば、器具、インプラント、カテーテル、等の配置)の両方を示す単一の画像が取得され得る。1つの例では、2つの画像の融合の複数のビューが、100%パルス画像から100%DRR画像までの範囲で提供され得る。ユーザインターフェイス125上のスライドボタンは、執刀医がこの融合範囲を望むように調整することを可能にする。
新しい画像がより大きいベースライン画像セットの小断片である
いずれかの所与の時点で取り込まれたイメージングは、全身の一部分の、限られた情報を含む。コリメーションは、例えば、組織の放射線被ばく量を下げるとともに、医師に向けられる放射線散乱を下げるが、取得される画像の視野を制限することを犠牲にする。補正位置でマージ又は交互にされたより大きい画像(例えば、術前若しくは術中に予め得られた、又はCTから得られたもの)のコンテキスト内で実際に最後に投影された画像を示すことは、より大きい身体構造への参照に組み込むことを可能にするよう、より小さい画像領域に関する情報を補うことができる。同じ画像レジストレーション技術は、新しい画像のビューの範囲に対応するベースライン画像内のより小さい領域にレジストレーションが適用されることを除いて、上述されたように適用される。
上記と同じく、接合又は遮断領域での位置付け
往々にして、特に、全体の密度が異なっている領域(胸部と隣接する腹部、頭部/頸部/頸椎と上胸郭)では、明りょうに視覚化され得るCアーム画像の領域は、取得された実際の画像のほんの一部に過ぎない。これは、身体のより大きいコンテキスト内に狭いビューを置く能力が制限される場合に、又は評価される必要がある領域が画像の不明りょうな部分にある場合に、医師にとっていらだたしいことがある。局所化された理想的な環境で夫々取り込まれた複数の画像をスティッチすることによって、より大きい画像が取得され得る。更には、現在の画像は、その相対位置によってぼやけた画像の部分を埋めるために、より大きいコンテキスト内に付加され得る。
隠された解剖学的構造を明らかにすること又はその局所効果を軽減すること
上述されたように、画像処理デバイスは、現在の新しい画像とベースライン画像セットとの間で画像レジストレーションステップを実行する。このステップは、放射線散乱又は小さい障害物(例えば、コード、等)若しくはより一層大きいオブジェクト(例えば、ツール、器具、等)の形をしたノイズによって与えられる虚報を制限する。多くの場合に、それは、実施される手術にとって最も重要であるツール又は器具によって遮られている解剖学的画像の部分である。画像から障害物を取り除くことによって、手術はより安全且つより有効になり、医師は、知識の改善を継続するための力を与えられるようになる。ノイズが付加(例えば、古いフィルム、ベースライン単一FD画像、術前に取り込まれたスティッチされた蛍光透視ショット、等)又は理想化(例えば、CTデータから生成されるDRR)される前に取り込まれる画像を使用して、現在の画像とマージ又は交互にされた、そのような前の“明りょうな”画像を表示することは、それらのオブジェクトを、画像から見えなくなするか、又は濃いオブジェクトではなく影にする。それらが追跡されたオブジェクトである場合には、遮られている領域は更に強調を抑えられ得るか、あるいは、それからの情報は、数学的比較が実行されている間に除去され得、比較の速度及び正確さを更に改善する。
ここで記載されるように構成される画像処理デバイスは、(1)条件を満たしたライブ画像に必要とされる放射線照射の量を減らし、(2)外科的処置を容易にすることができる画像を執刀医に提供し、(3)放射線技師と執刀医との間のコミュニケーションを改善する、という3つの一般的な特徴を提供する。放射線照射を減らすという態様に関して、本発明は、低線量画像が外科手術の間中取り込まれることを可能にし、現在の画像において“ノイズ”によって作り出される空隙を満たして現在の視野と全線量画像の詳細との合成又はマージ画像を生成する。実際に、これは、全ての一般的な市販のCアームに存在する変更されない特徴を使用して標準のFDイメージングよりも一桁減った放射線照射の量で生成される患者の生体構造の使い勝手のよい高品質画像を可能にする。ここで記載される画像レジストレーションのための技術は、グラフィック処理ユニットで実装することができ、直ぐに、すなわち、真にインタラクティブであるように、行われ得る。CINEモードのように、必要とされる場合には、画像レジストレーションは、毎秒複数回行われ得る。ユーザインターフェイスは、レジストレーションされた画像を取得するために必要とされる信頼度を決定することを執刀医に可能にし、サイド・バイ・サイドのビューからフェードイン/アウトされるマージされたビューまで、表示の性質に関する選択肢を執刀医に与える。
外科的処置を容易にする画像を執刀医に提供するという特徴に関して、いくつかのデジタルイメージング技術が、ユーザの経験を改善するために使用され得る。1つの例は、画像キャプチャ間で起こり得る如何なるポジション変化にもかかわらず、執刀医に表示される画像を本質的に“固定された”ポジションに保つために使用され得る画像トラッキング機能である。この機能に従って、ベースライン画像は、空間において固定され得、新しい画像は、反対に、それに合わせて調整される。連続した画像がプロシージャ内のあるステップの間に取り込まれる場合に、夫々の新しい画像は、前の画像に対して安定化され得る。それにより、関心のある特定のオブジェクト(例えば、生体構造又は器具)は、連続的なビューにおいて静止したまま保たれる。例えば、骨ネジが身体部分に導入されるにつれて連続的な画像が取り込まれる場合に、身体部分は表示画面上で静止したままであり、それにより、ネジの実際の進行が直接観測され得る。
この特徴の他の態様において、障害物を含む現在の画像は、如何なる障害物も含まない先の画像と比較され得る。レジストレーションプロセスにおいて、画像処理デバイスは、新しい画像とベースライン画像との間でマージされた画像を生成することができる。この画像は、オブジェクトの遮断性を表示画像から減じる。ユーザインターフェイスはまた、障害物を表示ビューからフェードイン及びアウトする機能を医師に提供する。
オブジェクト自体が追跡されている他の実施形態では、障害物の仮想的なバージョンが、表示画像に付加され直され得る。画像処理デバイスは、障害物のポジションを追うトラッキングデバイスからポジションデータを取得し、そのポジションデータを使用して、表示画像内の仮想オブジェクトの適切な位置及び姿勢を決定することができる。仮想オブジェクトは、チェックステップとして役立つよう新しい現在の画像と比較されるべくベースライン画像に適用され得る。新しい画像が所与の許容範囲内で生成画像(ツール及び生体構造の両方)と一致する場合に、手術は続行することができる。一致が乏しい場合には、手術は(自動手術の場合に)中止され得、及び/又は、再較正が行われ得る。これは、閉ループフードバック機能が医療インターベンションの自動操作の安全性を促すことを可能にする。
擬似アンギオプロシージャのような特定のプロシージャに関して、ベースライン画像からの血管を現在の画像の上に投影することは、ツール(マイクロカテーテル、ステント、等)が脈管構造を通って移動する場合に医師がよりずっと少ない造影剤負担でツールを見ることを可能にする。隣接する骨の解剖学的構造は血管の“アンカー(anchor)”となり、骨は本質的に、画像レジストレーションプロセスを通じて、追跡され、血管は、この構造に隣接したままであると考えられる。換言すれば、生体構造が連続的な画像間で動く場合に、新しい画像は、“背景の”生体構造の新しいポジションに対応するベースライン画像セットの中の異なる1つにレジストレーションされる。血管構造を含む異なるが既にリンクされているベースライン画像からの血管は、次いで、造影剤がない表示画像とオーバーレイ又はマージされ得る。必要な場合、又は望まれる場合には、間欠的な画像が確認のために取り込まれ得る。追跡されているカテーテルと結合される場合に、器具の位置の実際上の知識は画像内に含まれ得る。シネ(アンギオグラムが取得される場合に一般に使用される蛍光透視ショットの連続的な映画ループ)が生成され得る。それにおいて、生成された画像はシネ画像内に交互につなぎ合わされて、多くのより少ない蛍光透視画像が、アンギオグラムが実行されているか又はカテーテルが設置されている間に取得されることを可能にする。最終的に、画像がもとのベースライン画像とリンクされると、それらのうちのいずれかが現在の画像にマージするために使用されてよく、インプラントの動き、構造の形成、ステントの配置、等を監視する手段をもたらす。
第3の特徴、すなわち、コミュニケーションを改善することにおいて、ここで記載される画像処理デバイスは、新しい像をどこでどのように取り込むべきかに関してCアームの位置決めにおいて技師を導くのを助けることができる様態で画像に注釈を付すことを執刀医に可能にする。よって、画像処理デバイス122のユーザインターフェイス125は、グリッドを表示画像に付加し、解剖学的構造にラベルを付し、及び/又はイメージングデバイスのアライメントのための軌跡を識別するよう執刀医に伝達手段を提供する。技師がイメージングデバイス又はCアームを動かすにつれて、表示画像が動かされる。この特徴は、Cアームが画像を取得するためにフィールドに戻されるたびに複数の画像を取り込むことなしに、所望の姿勢で画面の中心において撮像されることを望まれる生体構造を中心に置くことを放射線技師に可能にする。この特徴は、現在欠如している機能であるCアームのためのビューファインダーを提供する。技師は、執刀医によって期待されているニーズを満たすよう調整されたビューにより新しい画像を取り込むようCアームを作動させることができる。
その上、Cアームの動きを、DICOMデータ又は手術ナビゲーションバックボーンを用いて取り込まれた画像にリンクすることは、例えば、Cアームがその後の画像取得に備えて動かされる場合に表示画像を動かすことを助ける。“境界内”及び“境界外”のインジケータは、如何なるベースライン画像とも相関又はレジストレーションさえ得ないか、又は合成視野を形成するよう他の画像とスティッチされ得ない画像をCアームの現在の動きがもたらすかどうかの即時の指示を技師に提供することができる。画像処理デバイスは、このようにして、Cアームの位置及び軌跡の提案される変化の効果を執刀医及び技師が視覚化することを可能にする画像表示を表示する。更に、画像処理デバイスは、医師が、例えば、台のポジション又はCアームの角度を変更して、生体構造が適切に(例えば、手術台に平行又は垂直に)アライメントされるようにすることを助けることができる。画像処理デバイスはまた、2つ以上の異なるガントリ角度/ポジションからの2つ以上のCアーム画像を使用して、X線撮影されたオブジェクトの正確な中心の質量重心“COM”を決定し、このCOMを使用して、表示されている撮像空間(ピクセルにおける)への物理空間(ミリメートルにおける)のリンクを改善することができる。
ここで記載される画像認識コンポーネントは、取り込まれる次の画像の位置の知識の欠如を解消することができ、これは多数の利点を提供する。新しい画像がベースラインに対してどこに中心を置かれているかを大まかに知ることは、撮像空間のより大きい範囲をスキャンする必要性を制限し、従って、画像認識ソフトウェアの速度を大いに向上させることができる。画像認識に対する内部チェックが存在するので、より多くの量の放射線削減(従って、ノイズ)が寛大に扱われ得る。ベースライン画像の生成、複数のベースライン画像セット間の切り替え、及びスティッチングのような、手術ナビゲーションなしで設計されたシステムで手動で行われる複数の機能が、自動化され得る。これらの機能は、画像トラッキングの状況でも同様に有用である。
上述されたように、システム及び方法は、手術野、生体構造及びハードウェアの正確なビューが執刀医に提示されることを確かにするよう、前に取得された画像をライブ画像と相関又は同期させる。最適な場合に、前に取得された画像は、特定の患者からであり、外科的処置にほぼ合わせて取得される。しかし、いくつかの場合に、斯様な前の画像は利用可能でない。斯様な場合には、“前に取得された画像”は、CT及びDRR画像のデータベースから取り出され得る。ほとんどの患者の生体構造は、患者の高さ及び身長に応じて比較的に一貫している。画像の大規模なデータベースからは、実質的に類似した生体構造を有している患者の前の画像(又は複数を含む。)が取得される可能性が高い。画像又は複数の画像は、前の画像が、ライブ画像と継ぎ合わされる“前に取得された画像”として確実に機能するよう目下の患者の生体構造に十分に近いかどうかを判定するために、画像処理デバイス122によって実装されているソフトウェアを介して、現在のイメージングデバイスの位置及びビューと相関され得る。
図10における表示は、画像処理デバイス122、ユーザインターフェイス125及び表示デバイス126に組み込まれ得る表示及びユーザインターフェイスのタイプを示す。例えば、表示デバイスは、表示の周囲に“ラジオ”ボタン又はアイコンを伴った2つの表示123、124を含んでよい。アイコンは、表示中に示されている“ラベル”、“グリッド”及び“軌跡”機能のような特定の機能をアクティブにするタッチスクリーンボタンであってよい。タッチスクリーン又はラジオボタンをアクティブにすることは、特定のアクティビティを実施するために執刀医によって使用され得る別の画面又はプルダウンメニューにアクセスすることができる。例えば、“ラベル”ボタンをアクティブにすることは、ラベル“L1”、“L2”、等を含むプルダウンメニュー、並びに画像上の所望の位置にラベルを置くことを執刀医に可能にするドラッグ及びドロップ機能にアクセスすることができる。同じプロセスは、図10に示されているグリッド及び軌跡矢印を置くために使用されてよい。
上記の同じシステム及び技術は、患者の照射野を減らすためにコリメータが使用される場合に、実装されてよい。例えば、図12Aに示されるように、コリメータは、執刀医又は医療関係者によって視覚化される重要な生体構造を推定上含む範囲300に照射野を制限するために使用されてよい。図12Aから明らかなように、コリメータは、コリメータのプレートによって覆われている領域301を見ることを妨げる。上記のシステム及び方法を使用して、コリメートされた領域300の外にある範囲315の以前の画像は、本システムによって提供される拡大された視野310において執刀医に可視的でない。
同じ原理は、移動するコリメータを用いて取得された画像に適用されてよい。図13A、14A、15A及び16Aで表されるように、可視的な領域は、医療関係者が生体構造の特定の部分に焦点を合わせるにつれて、図の左側に徐々にシフトされる。ここで記載されるシステム及び方法を使用すると、医療関係者が利用可能な画像は図13B、14B、15B及び16Bに示されており、局所的な生体構造の全体が可視的である。コリメートされた領域(すなわち、図12Aにおける領域300)のみが実時間画像であることが理解されるべきである。コリメートされた領域の外にある画像は、上述されたように、前の画像から取得される。よって、患者が受ける放射線量は依然として低減されたままであり、一方、医療関係者は関連する生体構造の完全なビューを提供される。上述されたように、現在の画像はベースライン画像又は前の画像とマージされ得るか、又は交互にされ得るか、又はここで記載されるイメージング技術によって強調されないまま表示される。
本開示は、コリメータによって遮られることでさもなければ失われうる情報が処置の間インタラクティブに執刀医又は医療関係者に利用可能にされるシステム及び方法を考えている。更に、ここで記載されるシステム及び方法は、コリメートされていない領域において適用される放射線を制限するために使用され得る。それらの技術は、イメージングシステム又はコリメータが固定されたままであろうと、又は動いていようとも、適用され得る。
更なる態様において、ここで記載されるシステム及び方法は、同じ解剖学的領域の複数のCアーム画像を必要とする外科的処置の間に電離放射線への患者の被ばくを減らすためにコリメータの状態を制御する画像ベースのアプローチに組み込まれてよい。特に、コリメータの開口の境界は、前に取得された画像において関心がある解剖学的特徴の位置によって決定される。外科的処置にとって重要でない画像のそれらの部分は、コリメータによって遮られることがあるが、その場合に、先に及び米国特許第8526700号において記載されたシステム及び方法を使用して、前に取得された画像からの対応する情報により満たされ得る。コリメートされた画像及び前の画像は、単一のマージされたビューにおいて画面上で表示され得るか、あるいは、それらは交互にされ得るか、あるいは、コリメートされた画像は前の画像にオーバーレイされ得る。コリメートされた画像を前の画像と適切にアライメントするよう、米国特許第8526700号で記載されているものと類似した画像ベースのレジストレーションが用いられ得る。
1つのアプローチにおいて、関心のある解剖学的特徴は、ベースライン画像又は前に取得された画像においてユーザが関心領域を描くことによって、手動で決定され得る。他のアプローチでは、画像内の関心のあるオブジェクトは識別され、コリメーションは、オブジェクトが画像内を進むにつれてそれに追随する。Cアームシステムの幾何学的状態が知られる場合に、検出器視野内の関心のある特徴の動きは、システムが患者に対して動くときに追跡され得、そして、コリメータ開口は然るべく調整され得る。システムの幾何学的状態は、光学トラッキング、電磁トラッキング、及び加速度計を含む様々な方法で決定され得る。
本開示の他の態様において、ここで及び米国特許第8526700号で記載されるシステム及び方法は、放射線量を制御するために用いられ得る。X線管は、両側にカソード及びアノードを備えた真空管から成る。電流がカソードに供給され、電圧が管に印加される場合に、電子のビームはカソードからアノードへ移動し、金属ターゲットにぶつかる。ターゲット内の金属原子と電子との衝突はX線を生成する。X線は管から放射され、イメージングのために使用される。放射された放射線の強さは、電流と、電圧と、電子のビームのパルスの存続期間とによって決定される。Cアームのようなほとんどの医療イメージングシステムにおいて、それらのパラメータは自動露出制御(AEC)システムによって制御される。このシステムは、放射線量を最小限にしながら画像の明りょうさを最大限にするようその後にパラメータを最適化するために使用され得るテスト画像を生成する目的で短い初期パルスを使用する。
既存のAECシステムに伴う1つの問題は、放射線量の低減及び画像の明りょうさの更なる改善を達成するために、医療画像における解剖学的特徴の持続を利用する画像処理ソフトウェアの能力をそれらが考慮しない点である。ここで記載されるこの技術は、イメージングシステムによって生成された画像を連続して受け取って、それらの画像を、前の時点で取得された画像とそれらを結合することで精緻化するソフトウェア及びハードウェア要素を利用する。ソフトウェア要素はまた、画像品質メトリックを計算し、そのメトリックに関して、ある理想的な値を達成するために、どの程度放射線照射が増減され得るかを推定する。この値は、様々な照射設定で取得された医療画像のライブラリに関する医師の評価の検討によって決定され、例えば、ソフトウェア要素によってアクセス可能なシステムメモリに格納されているルックアップテーブルにおいて供給されてよい。ソフトウェアは、放射された放射線の量の推定される変化を、X線管に印加される電圧及び電流のための正確な値に変換する。ハードウェア要素は、画像処理デバイスを実行するコンピュータから、AECをバイパスし且つ電圧及び電流を設定するX線管の制御へのインターフェイスから成る。
放射線が低減された3D画像誘導手術
他の広範な態様に従って、本発明は、他の3Dイメージング手段よりも低減された放射線により準リアルタイムで患者の生体構造内の手術器具又はインプラントの3D多断面投影を提供するよう、それほどコスト又は大変な複雑さを付加せずに、従来の2D Cアームを用いて外科的処置及び他のインターベンションを容易にするシステム及び方法を含む。術前3D画像と組み合わせた2D Cアームの使用は、手術器具及びインプラントのポジションを2D又は3D画像の上に投影するために光学又は電磁トラッキング技術及び数学的モデルを使用する必要性を除く。代わりに、本発明における手術器具及びインプラントのポジションは、器具又はインプラントの直接的なCアーム撮像と、より正確な設置をもたらすこととによって、取得される。1つ以上の好適な実施形態に従って、手術器具又はインプラントの実際の2D Cアーム画像と、既知の寸法及びジオメトリの参照マーカー500(望ましくは、Cアーム及び手術器具からの角度ポジション情報を伴う。)とは、2D蛍光透視画像とレジストレーションされた3D画像内に手術器具及びインプラントを投影するために使用され得る。
先に一例として記載された画像マッピング技術の使用を通じて、CTスキャンのような術前3D画像の上に2D Cアーム画像をマッピングすることが可能である。図17に表されている方法を参照して、ステップ400で、患者の生体構造の適切な3D画像データセットが、外科的処置の前にシステムにロードされる。この画像データセットは、術前CTスキャン、術前MRI、又はBodyTom、O−Arm、若しくは3D Cアームのような術中イメージャから取得された術中3D画像データセットであってよい。図18は、3D術前画像データセットからの画像の例を示す。3D画像データセットは、画像処理デバイス122へアップロードされ、取得され得る全ての可能な2D Cアーム画像を近似するよう一連のDRRへ変換されて、術中2D画像との比較及び照合のためのベースラインとなる。DRR画像は、上述されたようにデータベースに格納される。しかし、追加の入力なしでは、プロセッサが2D Cアーム画像をDRRデータベースと照合するために必要とされるラグタイムは、外科的処置の間に受け入れがたいほど時間がかかることがある。以下で更に詳細に説明されるように、本発明では、DRR処理時間を削減する方法が開示される。
これより手術計画ステップ405へ移ると、術前CTスキャンがベースライン画像として使用される場合に、3D画像データセットはまた、手動又は自動立案ソフトウェアを用いて手術の計画のための基礎となることができる(例えば、手術計画画面と、立案ツールの使用により導出された椎弓根スクリューの設置のための計画の表現とを表示する図19を参照されたい。)。斯様な立案ソフトウェアは、患者の解剖学的向き、手術器具及びインプラントの適切なサイズ、並びにインプラントの適切な軌跡の理解を執刀医にもたらす。いくつかの実施に従って、システムは、椎弓根スクリューのための計画を提供し、これによって、システムは、図19で実例のために示されている患者の生体構造及び計測を考慮して、手術計画において夫々の椎弓根スクリューのための所望の軌跡及び直径を特定する。いくつかの実施に従って、システムは、所望の脊椎バランスを実現するよう、脊髄レベルによって、必要とされる所望の矯正量を特定する。
手術立案ソフトウェアはまた、術前3Dデータセットへの術中マッピングのためにA/P画像及び斜め画像を供給するようCアームを位置付けるための最適な角度を特定するために使用されてよい(ステップ410)。図20に示されるように、脊椎手術において、夫々の椎体の上終板の頭蓋/尾側角度は、重力の方向に対して計測されてよい。図20に示される例では、L3の上終板は重力の方から5°の角度にある。患者が覆われると、関心のある椎弓根のための提案される開始点が特定されてよく、そして、視覚化のためにCアームを使用して、選択された椎弓根前処理(pedicle preparation)器具が、提案される開始点に導入されてよい。いくつかの実施に従って、椎弓根前処理器具は、リストから選択されてよく、あるいは、それが既知のジオメトリを有している場合には、それは、Cアーム画像においてシステムによって自動的に認識され得る。
撮像の正確さは、Cアームトラッキングの使用により改善され得る。いくつかの実施形態において、Cアーム角度センサは、重力の方向に対する角度ポジションフィードバックを供給するようCアームに取り付けられた2軸加速度計であってよい。他の実施形態では、Cアームのポジションは、上述されたように赤外線センサによって追跡されてよい。Cアーム角度センサは、処理ユニットと通信し、有線又は無線設計を有してよい。Cアーム角度センサの使用は、斜めポジションとA/Pポジションとの間のCアームの迅速且つ正確な移動を可能にする。各ポジションへの移動及び戻りが再現可能であればあるほど、Cアーム画像と比較されるDRR画像の母集団を制限する画像処理デバイスの能力はますます重大である。
2D Cアーム画像を術前3D画像の上に正確にマッピングするために必要とされる処理時間を最小限にするよう、2D Cアーム画像に存在する既知の寸法の参照マーカー500を有することが有利である。いくつかの場合に、手術器具及びインプラントの寸法は、処理ユニットのデジタルメモリに予めロードされる。いくつかの実施形態において、既知の寸法及びジオメトリの放射線不透過性の手術器具(例えば、椎弓根プローブ、突きぎり(awl)、突きぎり/タップ)は、ユーザによって選択されて識別されるか、あるいは、可能な選択肢のリストからシステムによって画像内で視覚的に認識される参照マーカー500となる。
他の実施形態において、器具は、放射線不透過性マーカー500を伴ったK−ワイヤである。マーカー500は、マーカー500の寸法が知られている限りは、如何なるジオメトリにあってもよい。1つの実施形態において、K−ワイヤのマーカー500は球形であってよい。器具又はK−ワイヤの既知の寸法及びジオメトリは、スケール、ポジション及び姿勢を計算するためにソフトウェアにおいて使用され得る。既知の寸法のK−ワイヤ又は手術器具又はインプラントのいずれであろうとも、既知の寸法の参照マーカー500を使用することによって、2D画像及び3D画像のお互いに対するレジストレーションの間に画像サイズを迅速にスケーリングすることが可能である。
参照マーカー500を伴ったK−ワイヤが使用される場合に、手術される各脊髄レベルでの棘突起のおおよその中心にK−ワイヤを添えることが望まれ得る。たった2つの脊椎しか関連しない場合に、単一のK−ワイヤが使用され得るが、ある程度の正確さが失われる。図21に示されるように、K−ワイヤ参照マーカー500をCアーム画像の中心に保つことによって、椎体の位置を決定するために三角測量が使用されてよい。3D空間における位置の正確な識別は、器具又はK−ワイヤの先端及び参照マーカー500がCアーム画像において可視的であることを必要とする。参照マーカー500が可視的であるが、器具又はK−ワイヤの先端が可視的でない場合に、画像をスケーリングすることは可能であるが、器具の正確なポジションを見つけることは不可能である。
1つ以上のK−ワイヤを置いた後、K−ワイヤの参照マーカー500を3D画像の上に正確にマッピングするために、斜めポジション及びA/Pポジションから高解像度のCアーム画像を取得することが必要である(ステップ420及び425)。斜めレジストレーション画像は、図22A及びBに示されるように、仮想分度器の使用から特定される角度で取り込まれてよい。Cアームのc字形のアームは、次いで、図23A及びBに示されるように、A/Pレジストレーション画像の捕捉のために12時のポジションまで回転される。斜め画像及びA/P画像はアップロードされ、夫々の画像は、上記の技術を用いて3D画像データセットのDRRと比較されアライメントされる。図24A〜Eに示されるように、処理ユニットは、斜め画像(図24A)、斜め撮像の間のCアームのポジションに関する情報(図24B)、A/P画像(図24C)、及びA/P撮像の間のCアームのポジションに関する情報(図24D)を3D画像からのDRRと比較してそれらの画像とDRRとのアライメントを計算し、Cアームのc字形のアーム及び参照マーカー500に対する椎体の位置を三角測量によって見つける。その情報に基づき、執刀医はCアームのいずれかの角度に対応するDRR(図24E)を見ることが可能である。平面ビュー(A/P、側方及び軸方向)は、外科的処置の間に執刀医が器具/インプラントのポジション更新を追跡するための簡易表示のために3D画像から処理され得る。
高解像度(全線量)の2D Cアーム画像を3D画像と適切にアライメントすると、手術が進行するにつれて患者の生体構造の更なるCアーム画像を捕捉するためにCアームをパルス/低線量、低解像度モードへ切り替えることによって、その後の撮像のための放射線量を減らすことが可能である(ステップ435)。望ましくは、Cアームはデータ/制御インターフェイスを含み、それにより、パルス低線量設定が自動的に選択され得、実際の線量情報及び節減が計算され表示され得る。夫々の低解像度画像において、参照マーカー500は可視的なままであり、画像をスケーリングして、レジストレーションされた3D画像とアライメントするために使用されてよい。これは、手術器具又はインプラントを含む低解像度画像が高解像度の術前3D画像の上に正確にマッピングされることを可能にする。それにより、それは、追加の2D画像とレジストレーションされた3D画像に投影され得る。組織解像度は低解像度画像では失われるが、参照マーカー500及び手術器具/インプラントは可視的なままであり、それにより、システムは、以下で更に詳細に説明されるように、手術器具又はインプラントの仮想表現505を3D画像内に置くことができる。
手術器具又はインプラントの寸法が知られており、処理デバイスにアップロードされている場合に、表示は、執刀医によって選択されたビューに対応するDDRと、ツールの仮想表現505とを提示する。図25A〜Cに示されるように、Cアーム画像は3D画像上にマッピングされているので、斜めポジション及びA/Pポジションが取得されるだけでなく、執刀医は、望まれるように、いずれかのDRR画像を取得することが可能である。表示画像は、3D画像から生成された“合成の”Cアーム画像である。図25Aは、A/P画像上で描写されるツール505、この例では椎弓根スクリューの仮想表現を示す。図25Bは、斜め画像上に描写される仮想ツール505を示す。そして、図25Cは、椎体の合成Cアーム画像上に描写される仮想ツール505を示し、それにより、椎弓根に対するツールの角度が見られ得る。
いくつかの実施において、画像処理デバイスは、斜め画像とA/P画像との間の手術器具又はインプラントの如何なるわずかな移動も計算することができることが有利であり得る。1つの実施形態に従って、手術器具及びインプラントは、重力の方向に対する角度ポジションフィードバックを提供するよう手術器具又はインプラントドライバに他の手段によって取り付けられるか又はクリップ留めされている2軸加速度計のような角度センサを更に有する。何らかの計測可能な動きがあるならば、表示は、斯様な動きを考慮するようDRRの提示を更新することができる。角度センサのための取付機構は、当業者に知られている如何なるメカニズムであることもできる。角度センサは、プロセッサユニットと通信し、有線又は無線設計であってよい。
ステップ440で、手術器具又はインプラントのポジションは、手術計画に従うよう又は新たな術中手術計画に従って調整されてよい。ステップ435及び440は、外科的処置が完了する(445)まで、必要に応じて何回でも繰り返されてよい。システムは、執刀医が、計画される軌跡を最初に提案されたものから調整することを可能にする。
3D術中イメージングのシステム及び方法は、手術器具の既知の寸法及びジオメトリが、Cアームを3D CT平面画像とレジストレーションすることにおいて画像処理時間を削減することを助けるので、手術イメージングにおいて技術的進歩を提供する。それはまた、放射線不透過性のオブジェクトの輪郭しか撮像される必要がなく、骨の解剖学的詳細は必要とされないので、手術器具/インプラントのポジションを更新するためのパルス/低線量Cアーム画像の使用を可能にする。更には、器具/インプラントドライバにある2軸加速度計は、ポジションを更新するために必要とされる2つの別個のCアームショット間でほとんど又は全く動きがなかったというフィードバックを提供する。Cアーム上の2軸加速度計は、各レベルでの椎体終板とのより速いアライメントを可能にし、2つのビューの角度に関する情報を提供して、3D画像から適切な一致する平面ビューを認識する処理時間を減らすのを助ける。Cアームとの任意の通信インターフェイスは、必要に応じてパルス/低線量モードへ自動的に切り替わり、従来の設定からの線量削減を計算/表示する能力を提供する。
放射線が低減された3D画像誘導手術に関してここで記載されるシステム及び方法は、より再現可能なインプラント配置、削減されたOR時間、低減された複雑さ、及び校正をもたらしながら、ポジションを決定して患者の生体構造内で手術器具/インプラントを正確に置く執刀医の能力を大いに支援することが容易に認識されるだろう。更には、正確な3D及び多断面の器具/インプラントのポジション画像は、大部分は、従来の使用と比較して放射線照射の量を大いに減らすようパルス/低線量モードにおいて、従来のCアームを用いて準リアルタイムで供給され得る。放射線削減の量は計算され表示され得る。システムのコスト及び複雑さは、3D術中画像を供給する他の手段よりも相当に低い。
ここで記載される発明特徴は、目的を達成するための好適な実施形態に関して記載されてきたが、当業者に明らかなように、本発明の精神又は適用範囲から逸脱することなしに、それらの教示を鑑みて変形が成し遂げられ得る。
[関連出願の相互参照]
本願は、2015年12月14日付けで出願された米国特許仮出願第62/266888号、及び2016年3月14日付けで出願された米国特許仮出願第62/307942号の非仮出願であり、それらに基づく優先権を主張するものである。なお、それらの先願は、その全文を参照により本願に援用される。

Claims (14)

  1. 術野内の患者の内部構造の3次元表示を生成する方法であって、
    手術野のベースライン3次元画像をプロセッシングデバイスのデジタルメモリ記憶ユニットへインポートすることと、
    前記ベースライン3次元画像をDRRライブラリに変換することと、
    放射線源及び受信器を有するイメージングデバイスを第1ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記手術野内に位置している放射線不透過性マーカーの第1レジストレーション画像を取得することと、
    前記イメージングデバイスを第2ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記放射線不透過性マーカーの第2レジストレーション画像を取得することと、
    前記第1レジストレーション画像及び前記第2レジストレーション画像を前記DRRライブラリにマッピングすることと、
    前記第1ポジションに関する情報、前記第2ポジションに関する情報、前記第1レジストレーション画像及び前記第2レジストレーション画像を前記DRRライブラリと比較して前記第1レジストレーション画像及び前記第2レジストレーション画像と前記DRRライブラリとのアライメントを計算し、前記イメージングデバイス及び前記放射線不透過性マーカーに対する前記患者の標的位置を三角測量によって求めることと、
    前記放射線不透過性マーカーの3D表現を前記ベースライン3次元画像上で表示することと
    を有する方法。
  2. 前記イメージングデバイスを前記第1ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記放射線不透過性マーカーの第1術中画像を取得することと、
    前記イメージングデバイスを前記第2ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記放射線不透過性マーカーの第2術中画像を取得することと、
    前記第1術中画像及び前記第2術中画像をスケーリングすることと、
    三角測量によって前記スケーリングされた第1術中画像及び前記スケーリングされた第2術中画像を前記ベースライン3次元画像にマッピングすることと、
    前記放射線不透過性マーカーの術中3D表現を前記ベースライン3次元画像上で表示することと
    を更に有する請求項1に記載の方法。
  3. 前記第1術中画像及び前記第2術中画像は、低線量放射線照射で取り込まれる、
    請求項2に記載の方法。
  4. 前記ベースライン3次元画像は、CTスキャンである、
    請求項1乃至3のうちいずれか一項に記載の方法。
  5. 前記イメージングデバイスは、Cアームである、
    請求項1乃至4のうちいずれか一項に記載の方法。
  6. 前記放射線不透過性マーカーは、既知のジオメトリを有する、
    請求項1乃至5のうちいずれか一項に記載の方法。
  7. 前記放射線不透過性マーカーは、マーカーを伴ったK−ワイヤ、椎弓根プローブ、突きぎり、タップ、又は椎弓根スクリューのうちの1つである、
    請求項1乃至6のうちいずれか1つの方法。
  8. 前記イメージングデバイスの前記第1ポジションの位置及び前記イメージングデバイスの前記第2ポジションの位置を測定し、該ポジションの測定を前記プロセッシングデバイスの前記デジタルメモリ記憶ユニットに記録すること
    を更に有する請求項1乃至7のうちいずれか一項に記載の方法。
  9. 前記イメージングデバイスは、前記デジタルメモリ記憶ユニットに記憶されている前記ポジションの測定に基づき前記第1ポジション又は前記第2ポジションのうちの一方へ自動的に回転される、
    請求項8に記載の方法。
  10. 前記第1ポジションでの前記イメージングデバイスの第1回転角度及び前記第2ポジションでの前記イメージングデバイスの第2回転角度を測定し、該回転角度の測定を前記プロセッシングデバイスの前記デジタルメモリ記憶ユニットに記録すること
    を更に有する請求項1乃至9のうちいずれか一項に記載の方法。
  11. 前記イメージングデバイスは、前記デジタルメモリ記憶ユニットに記憶されている前記回転角度の測定に基づき前記第1回転角度又は前記第2回転角度のうちの一方へ自動的に回転される、
    請求項10に記載の方法。
  12. 前記放射線不透過性マーカーの測定の所定の組を前記プロセッシングデバイスの前記デジタルメモリ記憶ユニットにアップロードすること
    を更に有する請求項1乃至11のうちいずれか一項に記載の方法。
  13. 前記放射線不透過性マーカーの幾何学的測定の組を決定し、該測定を前記プロセッシングデバイスの前記デジタルメモリ記憶ユニットに記憶すること
    を更に有する請求項1乃至12のうちいずれか一項に記載の方法。
  14. 術野内の患者の内部構造の3次元表示を生成する方法であって、
    手術野の、CTスキャンであるベースライン3次元画像を、プロセッシングデバイスのメモリ記憶ユニットへインポートすることと、
    前記ベースライン3次元画像をDRRライブラリに変換することと、
    放射線源及び受信器を有するCアームであるイメージングデバイスを第1ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記手術野内に位置している放射線不透過性マーカーの第1レジストレーション画像を取得することであり、前記放射線不透過性マーカーが既知のジオメトリを有する、前記取得することと、
    前記イメージングデバイスを第2ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記放射線不透過性マーカーの第2レジストレーション画像取得することと、
    前記第1レジストレーション画像及び前記第2レジストレーション画像を前記DRRライブラリにマッピングすることと、
    前記第1ポジションに関する情報、前記第2ポジションに関する情報、前記第1レジストレーション画像及び前記第2レジストレーション画像を前記DRRライブラリと比較して前記第1レジストレーション画像及び前記第2レジストレーション画像と前記DRRライブラリとのアライメントを計算し、前記Cアーム及び前記放射線不透過性マーカーに対する前記患者の標的位置を三角測量によって求めることと、
    前記放射線不透過性マーカーの3D表現を前記ベースライン3次元画像上で表示することと、
    前記イメージングデバイスを前記第1ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記放射線不透過性マーカーの第1術中画像を取得することと、
    前記イメージングデバイスを、前記第2ポジションに位置付け、前記放射線源によって放射線ビームを生成し、前記受信器によって前記患者を透過した放射線ビームを捕捉することによって、前記放射線不透過性マーカーの第2術中画像を取得することと、
    前記放射線不透過性マーカーの前記既知のジオメトリに基づき前記第1術中画像及び前記第2術中画像をスケーリングすることと、
    三角測量によって前記スケーリングされた第1術中画像及び前記スケーリングされた第2術中画像を前記ベースライン3次元画像にマッピングすることと、
    前記放射線不透過性マーカーの術中3D表現を前記ベースライン3次元画像上で表示することと
    を有する方法。
JP2018549430A 2015-12-14 2016-12-14 放射線照射を低減された手術中の3次元視覚化 Active JP6876065B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562266888P 2015-12-14 2015-12-14
US62/266,888 2015-12-14
US201662307942P 2016-03-14 2016-03-14
US62/307,942 2016-03-14
PCT/US2016/066672 WO2017106357A1 (en) 2015-12-14 2016-12-14 3d visualization during surgery with reduced radiation exposure

Publications (2)

Publication Number Publication Date
JP2019500185A JP2019500185A (ja) 2019-01-10
JP6876065B2 true JP6876065B2 (ja) 2021-05-26

Family

ID=59018762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018549430A Active JP6876065B2 (ja) 2015-12-14 2016-12-14 放射線照射を低減された手術中の3次元視覚化

Country Status (9)

Country Link
US (1) US20170165008A1 (ja)
EP (1) EP3389544A4 (ja)
JP (1) JP6876065B2 (ja)
CN (1) CN108601629A (ja)
AU (1) AU2016370633A1 (ja)
BR (1) BR112018012090A2 (ja)
DE (1) DE112016005720T5 (ja)
IL (1) IL259962A (ja)
WO (1) WO2017106357A1 (ja)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11504192B2 (en) 2014-10-30 2022-11-22 Cilag Gmbh International Method of hub communication with surgical instrument systems
DE102015209143B4 (de) * 2015-05-19 2020-02-27 Esaote S.P.A. Verfahren zur Bestimmung einer Abbildungsvorschrift und bildgestützten Navigation sowie Vorrichtung zur bildgestützten Navigation
ES2877761T3 (es) * 2016-03-02 2021-11-17 Nuvasive Inc Sistemas y procedimientos para la planificación quirúrgica de corrección de la columna
EP3429475B1 (en) 2016-03-13 2021-12-15 Vuze Medical Ltd. Apparatus for use with skeletal procedures
US10748319B1 (en) * 2016-09-19 2020-08-18 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
KR101937236B1 (ko) * 2017-05-12 2019-01-11 주식회사 코어라인소프트 영상 가이드 골절 정복 수술의 컴퓨터 지원 시스템 및 방법
WO2019012520A1 (en) 2017-07-08 2019-01-17 Vuze Medical Ltd. APPARATUS AND METHODS FOR USE WITH IMAGE-GUIDED SKELETAL PROCEDURES
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11510741B2 (en) 2017-10-30 2022-11-29 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US11109878B2 (en) 2017-10-30 2021-09-07 Cilag Gmbh International Surgical clip applier comprising an automatic clip feeding system
US11564756B2 (en) 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
EP3713491A4 (en) * 2017-11-22 2021-12-22 Mazor Robotics Ltd. METHOD OF VERIFYING HARD TISSUE LOCATION USING AN IMPLANT IMAGING
US11559308B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method for smart energy device infrastructure
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11589888B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Method for controlling smart energy devices
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11529187B2 (en) 2017-12-28 2022-12-20 Cilag Gmbh International Surgical evacuation sensor arrangements
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US20190200981A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US11179175B2 (en) 2017-12-28 2021-11-23 Cilag Gmbh International Controlling an ultrasonic surgical instrument according to tissue location
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11464559B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11540855B2 (en) 2017-12-28 2023-01-03 Cilag Gmbh International Controlling activation of an ultrasonic surgical instrument according to the presence of tissue
US20190201039A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Situational awareness of electrosurgical systems
US11633237B2 (en) 2017-12-28 2023-04-25 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11571234B2 (en) 2017-12-28 2023-02-07 Cilag Gmbh International Temperature control of ultrasonic end effector and control system therefor
US11013563B2 (en) 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US11832840B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical instrument having a flexible circuit
US11576677B2 (en) 2017-12-28 2023-02-14 Cilag Gmbh International Method of hub communication, processing, display, and cloud analytics
US11659023B2 (en) * 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US10892995B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US20190201146A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Safety systems for smart powered surgical stapling
US11419667B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location
US11559307B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method of robotic hub communication, detection, and control
US11202570B2 (en) 2017-12-28 2021-12-21 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US10758310B2 (en) 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11026751B2 (en) 2017-12-28 2021-06-08 Cilag Gmbh International Display of alignment of staple cartridge to prior linear staple line
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11423007B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Adjustment of device control programs based on stratified contextual data in addition to the data
US11424027B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
US11432885B2 (en) 2017-12-28 2022-09-06 Cilag Gmbh International Sensing arrangements for robot-assisted surgical platforms
US11602393B2 (en) 2017-12-28 2023-03-14 Cilag Gmbh International Surgical evacuation sensing and generator control
US11612444B2 (en) 2017-12-28 2023-03-28 Cilag Gmbh International Adjustment of a surgical device function based on situational awareness
US11259830B2 (en) 2018-03-08 2022-03-01 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11457944B2 (en) 2018-03-08 2022-10-04 Cilag Gmbh International Adaptive advanced tissue treatment pad saver mode
US11678927B2 (en) 2018-03-08 2023-06-20 Cilag Gmbh International Detection of large vessels during parenchymal dissection using a smart blade
US11259806B2 (en) 2018-03-28 2022-03-01 Cilag Gmbh International Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US11138768B2 (en) 2018-04-06 2021-10-05 Medtronic Navigation, Inc. System and method for artifact reduction in an image
JP6947114B2 (ja) * 2018-04-23 2021-10-13 株式会社島津製作所 X線撮影システム
US11813027B2 (en) * 2018-06-15 2023-11-14 Waldemar Link Gmbh & Co. Kg System and method for positioning a surgical tool
US11094221B2 (en) 2018-06-21 2021-08-17 University Of Utah Research Foundation Visual guidance system and method for posing a physical object in three dimensional space
DE102018211381B4 (de) 2018-07-10 2021-01-28 Siemens Healthcare Gmbh Gültigkeit eines Bezugssystems
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration
US20200015899A1 (en) 2018-07-16 2020-01-16 Ethicon Llc Surgical visualization with proximity tracking features
EP3626176B1 (de) 2018-09-19 2020-12-30 Siemens Healthcare GmbH Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
US11287874B2 (en) * 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
WO2020117941A1 (en) * 2018-12-05 2020-06-11 Stryker Corporation Systems and methods for displaying medical imaging data
WO2020150288A1 (en) 2019-01-14 2020-07-23 Nuvasive, Inc. Prediction of postoperative global sagittal alignment based on full-body musculoskeletal modeling and posture optimization
US11357503B2 (en) 2019-02-19 2022-06-14 Cilag Gmbh International Staple cartridge retainers with frangible retention features and methods of using same
US11291444B2 (en) 2019-02-19 2022-04-05 Cilag Gmbh International Surgical stapling assembly with cartridge based retainer configured to unlock a closure lockout
US11464511B2 (en) 2019-02-19 2022-10-11 Cilag Gmbh International Surgical staple cartridges with movable authentication key arrangements
CA3131167A1 (en) * 2019-03-25 2020-10-01 Ron AGINSKY Systems and methods for aiming and aligning of a treatment tool within an x-ray device or an ultrasound device environment
EP3714792A1 (en) * 2019-03-26 2020-09-30 Koninklijke Philips N.V. Positioning of an x-ray imaging system
US11903751B2 (en) * 2019-04-04 2024-02-20 Medtronic Navigation, Inc. System and method for displaying an image
JP7399982B2 (ja) * 2019-05-10 2023-12-18 ニューヴェイジヴ,インコーポレイテッド 手術中の3次元可視化
CN112137744A (zh) * 2019-06-28 2020-12-29 植仕美股份有限公司 兼具光学导航功能的数字化种植导板及其使用方法
WO2021062064A1 (en) * 2019-09-24 2021-04-01 Nuvasive, Inc. Systems and methods for adjusting appearance of objects in medical images
US20220375078A1 (en) * 2019-09-24 2022-11-24 Nuvasive, Inc. Adjusting appearance of objects in medical images
DE102019217220A1 (de) * 2019-11-07 2021-05-12 Siemens Healthcare Gmbh Computerimplementiertes Verfahren zur Bereitstellung eines Ausgangsdatensatzes
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11648060B2 (en) 2019-12-30 2023-05-16 Cilag Gmbh International Surgical system for overlaying surgical instrument data onto a virtual three dimensional construct of an organ
US11219501B2 (en) 2019-12-30 2022-01-11 Cilag Gmbh International Visualization systems using structured light
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
WO2021159519A1 (zh) * 2020-02-14 2021-08-19 西安大医集团股份有限公司 图像引导方法、装置、放疗设备和计算机存储介质
US20210251591A1 (en) * 2020-02-17 2021-08-19 Globus Medical, Inc. System and method of determining optimal 3-dimensional position and orientation of imaging device for imaging patient bones
JP7469961B2 (ja) 2020-05-29 2024-04-17 三菱プレシジョン株式会社 画像処理装置及び画像処理用コンピュータプログラム
EP4181812A1 (en) * 2020-07-16 2023-05-24 Mazor Robotics Ltd. System and method for image generation and registration based on calculated robotic arm positions
WO2022013860A1 (en) * 2020-07-16 2022-01-20 Mazor Robotics Ltd. System and method for image generation based on calculated robotic arm positions
WO2022079715A1 (en) * 2020-10-14 2022-04-21 Vuze Medical Ltd. Apparatus and methods for use with image-guided skeletal procedures
US11295460B1 (en) * 2021-01-04 2022-04-05 Proprio, Inc. Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
US20220296326A1 (en) 2021-03-22 2022-09-22 Nuvasive, Inc. Multi-user surgical cart
CN114948158B (zh) * 2021-06-01 2023-04-07 首都医科大学附属北京友谊医院 一种股骨颈通道螺钉骨内通道的定位导航装置及其方法
US20230008222A1 (en) * 2021-07-12 2023-01-12 Nuvasive, Inc. Systems and methods for surgical navigation
US11887306B2 (en) * 2021-08-11 2024-01-30 DePuy Synthes Products, Inc. System and method for intraoperatively determining image alignment
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5803089A (en) * 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
US20080260108A1 (en) * 2003-01-17 2008-10-23 Falbo Michael G Method of use of areas of reduced attenuation in an imaging support
US20050059887A1 (en) * 2003-09-16 2005-03-17 Hassan Mostafavi Localization of a target using in vivo markers
JP2006180910A (ja) * 2004-12-24 2006-07-13 Mitsubishi Heavy Ind Ltd 放射線治療装置
US7950849B2 (en) * 2005-11-29 2011-05-31 General Electric Company Method and device for geometry analysis and calibration of volumetric imaging systems
US7894649B2 (en) * 2006-11-02 2011-02-22 Accuray Incorporated Target tracking using direct target registration
CN100496386C (zh) * 2006-12-29 2009-06-10 成都川大奇林科技有限责任公司 精确放射治疗计划系统
EP2193499B1 (en) * 2007-10-01 2016-07-20 Koninklijke Philips N.V. Detection and tracking of interventional tools
US9144461B2 (en) * 2008-12-03 2015-09-29 Koninklijke Philips N.V. Feedback system for integrating interventional planning and navigation
JP2010246883A (ja) * 2009-03-27 2010-11-04 Mitsubishi Electric Corp 患者位置決めシステム
US8007173B2 (en) * 2009-10-14 2011-08-30 Siemens Medical Solutions Usa, Inc. Calibration of imaging geometry parameters
US9104902B2 (en) * 2010-04-15 2015-08-11 Koninklijke Philips N.V. Instrument-based image registration for fusing images with tubular structures
US8718346B2 (en) * 2011-10-05 2014-05-06 Saferay Spine Llc Imaging system and method for use in surgical and interventional medical procedures
US8526700B2 (en) * 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
ITTV20100133A1 (it) * 2010-10-08 2012-04-09 Teleios Srl Apparato e metodo per effettuare la mappatura di uno spazio tridimensionale in applicazioni medicali a scopo interventistico o diagnostico
EP2680778B1 (en) * 2011-03-03 2019-07-31 Koninklijke Philips N.V. System and method for automated initialization and registration of navigation system
WO2012149548A2 (en) * 2011-04-29 2012-11-01 The Johns Hopkins University System and method for tracking and navigation
CN103765239B (zh) * 2011-07-01 2017-04-19 皇家飞利浦有限公司 用于图像引导的介入的术中图像校正
US20130249907A1 (en) * 2011-09-12 2013-09-26 Medical Modeling Inc., a Colorado Corporaiton Fiducial system to facilitate co-registration and image pixel calibration of multimodal data
US9427286B2 (en) * 2013-09-24 2016-08-30 The Johns Hopkins University Method of image registration in a multi-source/single detector radiographic imaging system, and image acquisition apparatus
DE102013219737B4 (de) * 2013-09-30 2019-05-09 Siemens Healthcare Gmbh Angiographisches Untersuchungsverfahren eines Gefäßsystems
US10758198B2 (en) * 2014-02-25 2020-09-01 DePuy Synthes Products, Inc. Systems and methods for intra-operative image analysis
JP6305250B2 (ja) * 2014-04-04 2018-04-04 株式会社東芝 画像処理装置、治療システム及び画像処理方法

Also Published As

Publication number Publication date
WO2017106357A1 (en) 2017-06-22
JP2019500185A (ja) 2019-01-10
DE112016005720T5 (de) 2018-09-13
EP3389544A1 (en) 2018-10-24
CN108601629A (zh) 2018-09-28
IL259962A (en) 2018-07-31
BR112018012090A2 (pt) 2018-11-27
US20170165008A1 (en) 2017-06-15
AU2016370633A1 (en) 2018-07-05
EP3389544A4 (en) 2019-08-28

Similar Documents

Publication Publication Date Title
JP6876065B2 (ja) 放射線照射を低減された手術中の3次元視覚化
AU2021202558B2 (en) Imaging system and method for use in surgical and interventional medical procedures
US10684697B2 (en) Imaging system and method for use in surgical and interventional medical procedures
US8908952B2 (en) Imaging system and method for use in surgical and interventional medical procedures
US11941179B2 (en) Imaging system and method for use in surgical and interventional medical procedures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210423

R150 Certificate of patent or registration of utility model

Ref document number: 6876065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150