JP6400793B2 - 画像表示の生成方法 - Google Patents

画像表示の生成方法 Download PDF

Info

Publication number
JP6400793B2
JP6400793B2 JP2017124793A JP2017124793A JP6400793B2 JP 6400793 B2 JP6400793 B2 JP 6400793B2 JP 2017124793 A JP2017124793 A JP 2017124793A JP 2017124793 A JP2017124793 A JP 2017124793A JP 6400793 B2 JP6400793 B2 JP 6400793B2
Authority
JP
Japan
Prior art keywords
image
baseline
new
images
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017124793A
Other languages
English (en)
Other versions
JP2017164573A (ja
Inventor
アイザックス,ロバート・イー
ジョンストン,サミュエル・モリス
Original Assignee
ニューヴェイジヴ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニューヴェイジヴ,インコーポレイテッド filed Critical ニューヴェイジヴ,インコーポレイテッド
Publication of JP2017164573A publication Critical patent/JP2017164573A/ja
Application granted granted Critical
Publication of JP6400793B2 publication Critical patent/JP6400793B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Surgical Instruments (AREA)

Description

関連出願
[001] この出願は、2011年10月5日に出願された米国特許出願第13/253,838号に基づく優先権を主張し、当該米国出願の開示内容を本願のリファレンスに組み込む。
[002] 本発明は、X線などによる患者画像が観察及び取得される方法を変更するためのシステムおよび方法を想定している。より詳しくは、本システム及び方法は、外科的手術の間に、取得される画像の品質または解像度を著しくは犠牲にすることなく、患者が被る放射線総量を減少させる手段を提供する。
[003] 多くの外科的手術は、患者の内的な身体構造(例えば器官および骨)の画像を得ることを必要とする。いくつかのプロシージャにおいて、手術は、手術部位の周期的画像の助けを借りて達成される。手術は、広く、医療関係者(例えば外科医、介入放射線医、心臓専門医、痛み管理医師など)により実行される何らかの侵襲的検査又は治療介入等を意味することが可能である。シリアル・イメージングによって実際にガイドされる手術および介入(画像誘導として言及される)においては、カテーテル、針、機器またはインプラント等のような外科用器具の医師による適切な配置、或いは、所定の医学的プロシージャのパフォーマンスのために、頻繁に患者画像が必要である。蛍光透視法またはフルオロは、術中X線の1つの一形態であり、フルオロ・ユニット(Cアームとして知られている)によって、行われる。Cアームは、患者を抜けるX線ビームを送り、その領域にある生体構造(例えば骨格および脈管構造)の画像を撮る。それは、何らかの画像のようなものであり、3次元(3D)空間のうちの2次元(2D)画像である。しかしながら、カメラで撮影される何らかの画像と同様に、何が何の前にあるか及び或るものが他のものに対してどの程度大きいか等に基づいて、主要な3D情報が2D画像に存在しているかもしれない。
[004] DRR(デジタル再構成シミュレーション画像)は、患者のCTスキャンを撮像し且つ様々な角度および距離からのX線撮像をシミュレーションすることによって為されるX線のデジタル表現である。その結果は、その患者に関して撮像される何らかの可能なX線のシミュレーションが可能であることであり、患者の生体構造の特徴が互いに対してどのように見えるかに関し、一意で固有である。Cアームの仮想的な位置を、患者及び互いに角度に対して制御することにより、「シーン」は制御されるので、オペレーション・ルーム(OR)で取得される何らかのX線のように見えるはずの画像が、生成可能である。
[005] 多くのイメージング・アプローチ(例えばフルオロ画像を撮ること)は、僅かな線量ではあるが、患者を放射線にさらすことを含む。しかしながら、これらの画像ガイド・プロシージャでは、小線量の回数が増え、それにより、全体的な放射線照射が、患者だけでなく、外科手術に参加している医師または放射線科医および他の関係者にとっても、問題となり得る。画像が撮像されるときに、患者/医師に対する放射線照射量を減少させるさまざまな方法が知られているが、これらのアプローチは、取得される画像の解像度の減少を犠牲にしてしまう。例えば、あるアプローチは、標準的な撮像とは異なり、パルス化された撮像を利用しており、他のアプローチは露出時間または強度を手動で変えることを含む。視野を狭くすることは、放射線の照射領域およびその線量を減らすが(ならびに、放射線「散乱」量を変えるが)、再び、医学的な判断を為す場合に医師に利用可能な情報を減らすことを犠牲にしている。更に、しばしば、治療介入の際に取得される画像は、治療介入を実行するために使用される外部のOR装置または実際の器具/インプラントによって、遮られてしまう。それらの障害物の背後にある通常の生体構造の遮りを抑制することは、医学業界にとって目に見える恩恵をもたらすであろう。
[006] 標準的な医学的手術に関連して用いられることが可能であり、かつ、X線画像の精度および解像度のいかなる犠牲も伴うことなく、患者および医療関係者に対する放射線照射を低減させるイメージング・システムが必要とされている。インプラントのような機器およびハードウェアに配慮するイメージング・システムも必要とされている(そのような配慮がなければ外科手術の視野を遮ってしまうかもしれない)。
[007] 1つの態様によれば、システムおよび方法は、以前に獲得した高解像度ベースライン画像および新しく獲得した低解像度画像に基づいて、外科的又は治療介入の医学的プロシージャで使用するための、患者の内的な生体構造の表示を生成する。高解像度画像は、プロシージャまたはプレプロシージャ画像(例えばDRR)の間に取得される画像であってもよい。低解像度画像は、パルスおよび/または低線量の照射設定を用いて取得されてもよい。本システムは、高解像度ベースライン画像をデジタル的に操作するように構成される画像処理装置を想定しており、4Dまたは6D空間のベースライン画像のムーブメントの複数の置換で、ベースライン画像の代表的な画像を包含するベースライン画像セット(集合)を生成する。新しい画像を有する許容可能な相関度を有する代表画像を選択するために、新しい低解像度画像が、ベースライン画像セットと比較される。画像処理装置は、比較(例えば主成分分析または他の統計的検査)を実行するために、アルゴリズムを実行する。画像処理装置は、表示されるマージされた画像を生成するために、選択された代表的な高解像度画像と新しい低解像度画像とをマージするように構成される。マージされた画像は、選択された高解像度画像と新しい低解像度画像との変更を可能にするように、または、表示された画像において2つの画像がマージされる量を調整するように、更に処理されてもよい。
[008] 本開示の他の特徴において、イメージング・システムは、撮像装置が患者に対して動かされる場合に、ビュー・ファインダとして機能する画像処理装置を含んでもよい。この特徴によれば、外科的フィールドの画像は、第1方位で撮像装置により取得される。この取得された画像が連続的に表示される一方、撮像装置、患者または患者テーブルは、第1方位から動かされる。この動き(ムーブメント)は追跡され、追跡される動きに対して、表示画像を動かすために画像処理装置で使用される。この特徴により、撮像装置によりその時点で取得される場合に、新たな画像がどのように現れるかを予測するためのビュー・ファインダとして、ディスプレイが機能する。この特徴は、患者の解剖学的構造の次のライブ画像が取得される場所の決定に使用されることが可能であり、或いは、外科的フィールドのより大きなパノラマ的な眺めを形成するために複数の画像を一緒に結合することの支援に使用されることが可能である。画像処理システムは、予測された画像を最適化し、不整合(ミスアライメント)又は表示のオフアングル状況を最小化するように構成されるソフトウェアを実装してもよい。別の態様においては、画像処理システムは、解剖学的特徴又は所望の画像の追跡又はアライメントを識別するために、表示される画像の注釈を許容する。
[009] 開示される実施形態の更なる特徴において、外科的フィールドの中の生体構造のベースライン画像はベースライン方位において取得され、ベースライン画像は、ベースライン画像のムーブメントの複数の置換で、ベースライン画像の代表画像を包含しているベースライン画像セットを生成するように、デジタル的に操作される。外科的フィールドの新たな画像のうち、生体構造の一部分は、オブジェクトによって遮られてしまうかもしれない。新しい画像との間で許容可能な相関度を有する代表画像を選択するために、この新しい画像は、ベースライン画像セットと比較される。画像処理システムは、ブロックしているオブジェクトが最小化されている又は排除されている外科的フィールドを示す表示画像を生成する。システムは、更に、表示の中で又は外に、ブロックされるオブジェクトを薄れさせる。
[010] 図1は、イメージング・システムおよび画像処理装置並びにトラッキング装置を包含しているイメージガイド手術環境を示す図である。 [011] 図2aは、イメージング・システムの完全な線量の放射線を使用して得られる外科的フィールドの画像である。 [012] 図2bは、画像が、低線量の放射線を使用して得られる図2aに示される外科的フィールドの画像である。 [013] 図2cは、本開示の一態様に従ってマージされた図2a−bに示される2つの画像を有する外科的フィールドのマージされた画像である。 [014] 図3は、図1に示される画像処理装置により行われるグラフィックス処理ステップのフローチャートである。 [015] 図4aは、生体構造の一部分を遮るオブジェクトを含む外科的フィールドの画像である。 [016] 図4bは、エッジ強調を行った図4aに示される外科的フィールドの画像である。 [017] 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 視界の中で生体構造及び非生体構造の特徴を決定するために適用される様々なファンクションにより図4bの外科的フィールドを示す画像である。 [018]閾値およびテーブル・ルックアップを用いて生成されるマスクの画像である。 閾値およびテーブル・ルックアップを用いて生成されるマスクの画像である。 [019]拡張および浸食の後における図4k−4lにそれぞれ示されるマスクの画像である。 拡張および浸食の後における図4k―4lにそれぞれ示されるマスクの画像である。 [020]画像から非生体構造の特徴を除去するために図4bのフィルタ画像に図4m−4nのマスクをそれぞれ適用することにより準備される画像である。 画像から非生体構造の特徴を除去するために図4bのフィルタ画像に図4m−4nのマスクをそれぞれ適用することにより準備される画像である。 [021]図5aは、生体構造の一部分を遮っているオブジェクトを含む外科的フィールドの画像である。 図5bは、遮られた生体構造を表示するためにベースライン画像と部分的にマージされる図5aの画像による、図5aに示される外科的フィールドの画像である。 [023]ブロッキング・オブジェクトを包含している外科的フィールドのベースラインおよびマージされた画像である。 ブロッキング・オブジェクトを包含している外科的フィールドのベースラインおよびマージされた画像である。 [024]撮像装置またはCアームのムーブメントに関して調整される外科的フィールドの表示であり、その表示は、新しい画像を得るために撮像装置の境界内又は境界外の位置のインジケータを示している。 撮像装置またはCアームのムーブメントに関して調整される外科的フィールドの表示であり、その表示は、新しい画像を得るために撮像装置の境界内又は境界外の位置のインジケータを示している。 [025]撮像装置またはCアームのムーブメントに関して調整される外科的フィールドの表示であり、その表示は、新しい画像が以前に獲得された画像に結合されることが可能な時の指標(インジケータ)を与える。 撮像装置またはCアームのムーブメントに関して調整される外科的フィールドの表示であり、その表示は、新しい画像が以前に獲得された画像に結合されることが可能な時の指標(インジケータ)を与える。 [026]撮像装置またはCアームのムーブメントに関して調整される外科的フィールドの表示であり、その表示は、新しい画像を取得するための所望の軌跡とともに、撮像装置のアライメントのインジケータを与える。 撮像装置またはCアームのムーブメントに関して調整される外科的フィールドの表示であり、その表示は、新しい画像を取得するための所望の軌跡とともに、撮像装置のアライメントのインジケータを与える。 [027]図10は、図1に示される画像処理装置に関するユーザ・インタフェース及び表示を示す。 [028]図11は、本開示による画像アライメント位置合せプロセスの図式的な表現である。
[029] 本発明の原理の理解を促進するために、図面に図示され、以下に記載される明細書に記述されている実施形態が参照される。ただし、本発明の範囲に対する制限は意図されていないことが理解される。本発明は例示の実施形態に対する任意の変更および修正を包含し、本発明が関連する当業者にとって通常なされる本発明の原理の更なる応用も包含することも理解される。
[030] 典型的なイメージング・システム100は、図1に示される。イメージング・システムは、Cアーム画像形成装置103をサポートしている基本ユニット102を包含する。Cアームは放射線源104を含み、放射線源104は、患者Pの直下に配置され、レシーバ105の方に上方に放射線ビームを向ける。患者の方へ近付ける又は患者から遠ざかるように放射線源(又はソース)を動かすことによって、露出フィールド(又は照射の範囲)が変更されるように、ソース104から発せられる放射線ビームは円錐状であることが知られている。Cアーム103は、手術部位の異なる観測角度に関し、矢印108の方向に、患者Pの周りを回転できる。ある場合には、インプラントまたは器具Tは手術部位に置かれ、手術部位の遮られていない眺めのために、観測角度を変更する必要がある。このように、患者に対するレシーバの位置、特に、関心がある手術部位に対するレシーバの位置は、医師または放射線技師によって、必要に応じてプロシージャの間に変更される。従って、レシーバ105はトラッキング・ターゲット106を含み、トラッキング・ターゲット106は、トラッキング装置130を用いてCアームの位置のトラッキングを許容するように、レシーバ105に取り付けられる。例えば、トラッキング・ターゲット106はターゲット周辺で間隔を置いて配置される複数の赤外線エミッタを含む一方、トラッキング装置は、エレメントにより発せられる赤外線信号からレシーバ105の位置を三角測量にするように構成される。基本ユニット102はコントロールパネル110を含み、コントロールパネル110により、放射線技師は、Cアームの位置及び放射線照射の位置を制御することが可能である。典型的なコントロールパネル110は、医師の方向で手術部位の「写真を撮影すること」、放射線量を制御すること、及び、放射パルス画像を開始することを、医師等に許容する。
[031] Cアーム103のレシーバ105は、画像データを画像処理装置122に送信する。画像処理装置は、それに関連するデジタルメモリと、デジタルおよびソフトウェア命令を実行するプロセッサとを含むことが可能である。画像処理装置は、表示装置126上のディスプレイ123、124のようなプロジェクション(又は投影)に関するデジタル画像を作成するために、フレームグラバ技術を使用するフレームグラバを組み込んでもよい。表示は、手順の間、医師によって、双方向ビューイングに関し配置される。2つの表示は、ラテラル及びAPのような2つの眺めからの画像を示すために使用されてもよいし、或いは、手術部位のベースラインスキャン及び現在のスキャン、又は、現在のスキャン及び「マージされた」スキャンを、本願で説明されるように以前のベースラインスキャン及び低放射線の現在のスキャンに基づいて示してもよい。入力デバイス125(例えばキーボードまたはタッチスクリーン)は、医師が、スクリーン上の画像を選択及び操作することを許容することが可能である。入力デバイスは、画像処理装置122により実装されるさまざまなタスクおよび特徴に対応するキーまたはタッチスクリーン・アイコンの配列を組み込んでもよいことが、理解される。画像処理装置は、レシーバ105から得られる画像データを、デジタルフォーマットに変換するプロセッサを含む。或る種のケースにおいて、Cアームは、シネマティック露出モードで動作してもよいし、毎秒で多くの画像を生成してもよい。これらの場合、運動アーチファクトおよびノイズを低減させるために、複数の画像は、短時間で単一画像に一緒に平均化されることが可能である。
[032] 本発明の一態様において、画像処理装置122は、低線量の放射線を使用して得られた詳細でない画像から導出される表示123、124について、高品質のリアルタイム画像を提供するように構成される。例えば、図2aは「完全な線量」(FD)のX線像である一方、図2bは同じ生体構造についての低線量の及び/又はパルス化された(LD)画像である。FD画像は手術部位の鮮明な眺めを提供するが、多くの放射線量は、プロシージャ中に多数のFD画像を撮影することを、非常に問題のあるものとしてしまう。本願で説明される方法を利用することで、医師には図2cに示される現在画像が提供され、その現在画像は、LD画像のノイズをかなり減らし、場合によっては約90%減らし、それにより、パルス化されたまたは低線量の放射線設定を使用しても鮮明なリアルタイム画像が医師に提供される。この能力は、プロシージャの間に器具およびインプラントの位置を確認することを、イメージング(又は撮像)の間の劇的に少ない放射露光で許容する。
[033] 図3のフローチャートは、本発明による方法の一実施形態を表す。第一段階200において、ベースライン高解像力FD画像は、手術部位について取得され、画像処理装置と関連したメモリに記憶される。Cアームがプロシージャの間に動かされる場合に、複数の高解像度画像が、手術部位の中の異なる位置で得られることが可能であり、これら複数の画像は、複合ベース画像(後述)を形成するために「つぎ合わせられる(stiched)」。Cアームの動き、特に、これらの動き(ムーブメント)の間に獲得される画像の「追跡(tracking)」は、本願において詳細に説明される他のステップに関連して説明される。ここでの説明に関して、イメージング・システムは相対的に固定されていることが仮定され、これは、Cアームおよび/または患者についての非常に限られた動きだけが考察されることを意味し、そのような状況は、例えば、硬膜外鎮痛プロシージャ、脊髄K−ワイヤ配置または結石除去において生じるかもしれない。ベースライン画像は、手術部位が画像の中の中心に適切に存在することの検証のために、ステップ202においてディスプレイ123に投影される。場合によっては、適切なベースライン画像が得られるまで、新しいFD画像が取得されてもよい。Cアームが動かされるプロシージャにおいて、後述するように、新しいベースライン画像は、画像形成装置の新しい位置で取得される。表示される画像がベースライン画像として受け入れられる場合、例えば表示装置126またはインタフェース125等のようなユーザ・インタフェースにおいて、ボタンが押されてもよい。生理的プロセス(例えば呼吸)に起因して、かなりの量の動作が予想される生体構造領域で実行されるプロシージャでは、同じ領域に関し、複数のサイクル位相にわたって、複数のベースライン画像が取得される。これらの画像は、他の医療機器(例えばECGまたはパルス・オキシメータ)からの一時的データにタグ付けされることが可能である。
[034] 一旦、ベースライン画像が得られると、ステップ204において、ベースライン画像セットが生成され、そのセット(集合)のうちの元のベースライン画像は、元のベースライン画像についての何千もの置換(permutation)を生成するために、デジタル的に、回転、並進及びサイズ変更される。例えば、128x128画素の典型的二次元(2D)画像は、1画素間隔でxおよびy方向に±15画素にわたって並進され、3[度]間隔で±9[度]にわたって回転させられ、2.5%間隔で92.5%から107.5%までサイズ変更され、(4つの自由度なので4Dに関し)ベースライン画像セット内に47,089個の画像が得られる。(3次元(3D)画像は、xおよびy軸に直交する2つの追加的な回転に起因して、6D解空間を意味する。オリジナルCT画像データ・セットは、同様な方法で何千ものDRRを形成するために使用されることが可能である。)かくして、このステップでは、あたかも元のベースライン画像が様々な動き(ムーブメント)の置換の各々で得られたかのように、元のベースライン画像は、何千もの新たな画像表現を生み出す。この「解空間(solution space)」は、ステップ206において、例えば画像処理装置122のグラフィック処理装置(GPU)におけるもののようなグラフィックス・カード・メモリに記憶されてもよいし、または、解空間に属する画像の個数及びGPUがそれらの画像を生成する速度に応じて、GPUに送信される新たな画像として形成されてもよい。独立した医学用途の現在のコンピュータ能力では、約850,000個の画像を有するベースライン画像セットの生成は、GPUにおいて1秒未満でなされることが可能であり、その理由は、GPUの複数のプロセッサが画像をそれぞれ同時に処理できるからである。
[035] 手順の間、新しいLD画像は、ステップ208において、取得され、画像処理装置に関連するメモリに記憶され、表示123に投影される。新しい画像は低線量の放射線で取得されるので、それは非常にノイズが多い。本発明は、より有用な情報を医師に伝える更に鮮明な画像を第2ディスプレイ124で生成するために、ベースライン画像セットからの画像とともに新しい画像を「マージする」ステップを提供する。本発明は、画像認識ステップ又は画像レジストレーション・ステップ210を想定しており、そのステップでは、統計学的に有意の合致(match)を発見するために、新たな画像はベースライン画像セット内の画像と比較される。オリジナルの新しい画像の表示に隣接するディスプレイ124に表示される新たな「マージされた」画像が、ステップ212において生成される。プロシージャを通じた様々な時点において、ステップ204で新たなベースライン画像セットを生成するために使用される新たなベースライン画像が、ステップ216で取得されてもよい。
[036] ステップ210は、現在の新しい画像をベースライン画像セットの画像と比較することを想定している。このステップは手術プロシージャの間に為されるので、時間および精度が重要である。画像がCアームによって撮影される時点と、マージされた画像がデバイス126に表示される時点との間に、有意の遅延が生じないように、このステップは1秒未満で画像のレジストレーション(又は位置合わせ)を取得することが可能であることが好ましい。様々な要因に依存する様々なアルゴリズムが使用されてよく、そのような要因は、例えば、ベースライン画像セット内の画像の個数、アルゴリズム計算を実行するコンピュータ・プロセッサまたはグラフィックス・プロセッサのサイズ及び速度、計算を実行するために割り当てられる時間、並びに、比較される画像のサイズ(例えば、128x128画素、1024x1024画素など)等である。1つのアプローチにおいて、比較は、4D空間の全体にわたるグリッド・パターンにおいて、上記の所定の位置における画素同士の間で為される。他のヒューリスティック・アプローチでは、画素の比較は、関連する合致の大きな見込みを提供すると考えられる画像領域に集中させることが可能である。これらの領域は、グリッドまたはPCA検索(後述)からの情報、追跡システム(例えば光学外科ナビゲーション装置)からのデータ、またはDICOMファイルまたは等価物からの位置データに基づいて、「プレシード(pre−seeded)され」てもよい。代替的に、プロシージャに関連すると思われる解剖学的特徴を、ベースライン画像の中でマーキングすることによって、ユーザは、画像のうちの1つ以上の領域を比較のために指定することが可能である。この入力については、領域内の各画素が、0ないし1の間で関連するスコアの割り当てを受けることが可能であり、そのスコアは、新しい画像がベースライン画像と比較される場合に、画像相似関数に対する画素の貢献度をスケーリングするものである。関連スコアは、着目すべき領域または無視されるべき領域を識別するために調整されてよい。
[037] 他のアプローチにおいて、主成分分析(PCA)が実行され、PCAは、フル解像度グリッド・アプローチにより許容されるものよりも多数の大画像との比較を、割り当てられた時間内に許容することができる。PCAアプローチでは、画像の各画素が互いにどのように共変するか(co−varies)についての判断がなされる。共分散行列は、全ての解の集合のうちの小さな部分のみを利用して生成されてもよく−たとえば、ベースライン画像セットのうちのランダムに選択された10%を利用してもよい。ベースライン画像セットからの各画像は、列ベクトルに変換される。ある例では、70x40画素の画像は、2800x1型のベクトルになる。これらの列ベクトルは、平均が0であって分散が1であるように正規化され、より大きなマトリックスに結合される。共分散行列はこの大きなマトリックスから決定され、最大固有値の固有ベクトルが選択される。この特定の例に関して、30個のPCAベクトルが、個々の画像の分散の約80%を説明できることが分かった。そして、2800x1画像ベクトルの各々は、1x30ベクトルを得るために、2800x30PCAベクトルと乗算される。同じステップが新しい画像に適用され−新しい画像は2800x1画像ベクトルに変換され、2800x30PCAベクトルとの乗算は、新しい画像に対応する1x30ベクトルを生成する。解集合(ベースライン画像)ベクトルおよび新規な画像ベクトルは正規化され、解空間の各ベクトルに対する新規な画像ベクトルのドット積が算出される。最大のドット積(すなわち、1に最も近い)を生じる解空間ベースライン画像ベクトルは、新しい画像に最も近い画像であると判断される。この例は、分析に使用される異なる画像サイズおよび/または異なる主成分とともに変更されてもよいことが理解される。例えば、固有ベクトル、特異値の決定、二乗平均誤差、平均絶対値誤差およびエッジ検出を利用する他の既存の技術が使用されてことも理解される。さまざまな画像認識アプローチが画像の選択領域に適用されることが可能であること、または、さまざまな統計的な尺度が適切な忠実性限界の範囲内に該当する合致を発見するために適用されてよいことも、想定されている。新しい画像と選択されたベースライン画像(または、ベースライン画像セットのうち選択されたもの)との間の相関の程度を定量化する忠実性または相関値が、割り当てられてもよいし、この忠実性値が、医師のレビューのために表示されてもよい。医師は、忠実性値が特定の表示に関して許容可能であるか否か、そして、他の画像が取得されるべきであるか否かを決めることができる。
[038] 画像誘導手術プロシージャにおいて、ツール、インプラントおよび器具は、画面フィールドに必然的に現れる。これらのオブジェクト(又は対象物)は、典型的には放射線不透過性であり、従って、関連する患者の生体構造を表示から遮ってしまう。かくて、ステップ210において得られた新しい画像は、ベースライン画像セットのいずれとも相関しないツールTによるアーチファクトを含むことになる。画像の中にツールが存在することは、上記の比較技術が、新しい画像とベースライン画像セットのうちの何れとの間でも高いレジストレーション・レベルを生じないことを確実にする。にもかかわらず、上記プロシージャの各々の最終結果が、高い相関度(それは、統計学的に関連していることであり、或いは、所定の閾値を超えることである)を探し求めるならば、画像レジストレーションは、全く新しい画像、ツール・アーチファクト等とともに実行される。
[039] 代替的に、画像レジストレーション・ステップは、新しい画像上のツール・アーチファクトに対処するために修正されることができる。1つのアプローチにおいて、新しい画像は、そのツールによって「ブロックされる」画素数を決定するために評価される。この評価は、各画素のグレースケール値と閾値とを比較し、その閾値の外に落ちる画素を除外するステップを包含することが可能である。例えば、画素グレースケール値が(完全にブロックされることを示す)0から(完全に透明であることを示す)10まで変化する場合に、3という閾値が、何らかの画素を評価から排除するために適用されてもよい。更に、位置データが、様々な追跡されるツールに利用できる場合、ブロックされる領域は数学的に回避されることがアルゴリズムにより可能である。
[040] 他のアプローチにおいて、画像認識またはレジストレーション・ステップ210は、LD画像の、ベースライン画像の変換されたバージョンに対する類似度を測定するステップを含んでもよい(すなわち、ベースライン画像は、図11に関して後述されるように、Cアームの動きに応じて変換されている)。画像誘導手術プロシージャにおいて、Cアーム・システムは、同じ生体構造についての複数のX線画像を取得する。この一連の画像にわたって、システムは小さなインクリメントで作動し、たとえ解剖学的特徴が比較的安定なままでありえる場合でさえ、手術ツールが視野の中へ加わる又は視野から取り除かれる。以下に記載されるアプローチは、或る画像に存在する生体構造の特徴を活用して、後の他の画像で欠落している細部を補うことにより、生体構造の特徴に関するこの整合性の恩恵をもたらす。このアプローチは、高品質の光線量画像を以後の低線量画像に移すことを許容する。
[041] 本アプローチにおいて、画像についてのスカラー関数の形式での類似関数は、現在のLD画像とベースライン画像との間のレジストレーション(位置合わせ)を決定するために使用される。このレジストレーションを決定するために、先ず、画像同士の間で生じるインクリメンタル・モーションを判定することが必要である。この動き(モーション)は、4つの自由度−スケール、回転および並進(垂直および水平の移動)−に対応する4つの数により記述されることができる。これらの4つの数についての知識は、比較される所与の画像ペアに関し、同じ解剖学的特徴が両方の画像で同じ位置に現れるように、何れかの画像が操作されることを許容する。スカラー関数は、このレジストレーション(位置合わせ)の尺度であり、相関係数、ドット積または平均二乗誤差を用いて取得されてもよい。例えば、ドット積スカラー関数は、2つの画像の画素ペア各々における強度値の積の総和に対応する。例えば、LDおよびベースライン画像各々の1234,1234に位置する画素に関する強度値が乗算される。類似度の計算は、他の全ての画素位置について行われ、乗算された値の全てがスカラー関数に関して加えられる。2つの画像が正確に位置合わせされている場合、このドット積は可能な最大の大きさを有することが認められる。換言すれば、最良の組合せが発見されると、対応するドット積は、典型的には他のものより高い値であり、Zスコアとして報告される(すなわち、平均を上回る標準偏差の数として報告される)。7.5より大きなZスコアは、レジストレーションが偶然に発見されない確実性が99.9999999%であることを表す。このドット積を利用して求められるレジストレーションは、患者の生体構造の特徴のベースライン画像と同じ生体構造の後の時点で撮像されるリアルタイム低線量画像との間で行われる点に留意を要し、後の時点とは、視界又は撮像装置が動かされた後、或いは、生体構造以外のオブジェクトが視界に入った後である。
[042] このアプローチは、GPUのようなパラレル・コンピューティング・アーキテクチャを利用するパフォーマンスに特に適しており、GPU等は、例えば、並列的に同様な演算を実行することが可能な複数のプロセッサから構成される。GPUの各プロセッサは、LD画像とベースライン画像の変換されたバージョンとの相似関数を計算するために使用されてよい。こうして、ベースライン画像についての複数の変換されたバージョンが、LD画像と同時に比較されることが可能である。変換されたベースライン画像は、ベースラインが取得されてGPUメモリに記憶されるときに事前に生成されることが可能である。代替的に、テクスチャフェッチ(texture fetching)により、変換された座標から読み込むことによって、単独のベースライン画像が保存されて比較の最中にオンザフライで変換されることが可能である。GPUのプロセッサ数が考慮される変換の数を大きく上回る状況において、ベースライン画像およびLD画像は様々なセクションに分断されることが可能であり、各セクションに関する類似関数が様々なプロセッサで計算され、その後にマージされることが可能である。
[043] 2つの画像を整合させる最良の変換の決定を加速させるために、類似間数は、先ず、少ない画素しか含まないダウン・サンプリングされた画像で算出されることが可能である。このダウン・サンプリングは、隣接する画素のグループを一緒に平均化することによって、前もって実行されることが可能である。広範囲に及ぶ可能な動きにわたる多数の変換に対する相似関数は、先ず、ダウン・サンプリングされた画像に関して計算されることが可能である。一旦、このセットから最良の変換が決定されると、その変換は、より多い画素を有する画像に適用される可能な変換の細かいグリッドに対する中心として、使用されることが可能である。このようにして、短い時間のうちに、広範囲にわたる可能な変換を考慮しながら、高精度に最良の変換を判定するために、複数のステップが使用されてよい。
[044] 様々な画像における全体的な強度レベルの相違に起因して生じる相似関数に対するバイアスを低減させ、ユーザにとって関心がある画像内の解剖学的特徴に優先的に整合させるために、相似関数が計算される前に、画像はフィルタリングされることが可能である。そのようなフィルタは、理想的には、低線量画像に付随する非常に大きな空間周波数ノイズを抑制する一方、重要な解剖学的詳細が無い大きく平坦な領域に付随する低い空間周波数情報を抑制する。例えば、この画像フィルタリングは、畳み込み(フーリエ領域における乗算またはバターワースフィルタ)により達成されることができる。LD画像およびベースライン画像は類似関数を生成する前にそれに応じてフィルタリングされることが想定されている。
[045] 上記したように、非解剖学的特徴(例えば外科手術用ツール)が画像の中に存在するかもしれず、その場合、解剖学的特徴のみを利用してLD及びベースライン画像の間のアライメントを決定することを保証するために、類似関数計算プロセスに対する修正が必要とされる。ある画素が解剖学的特徴の一部であるか否かを識別するマスク画像を生成することが可能である。一態様では、解剖学的特徴の画素は1の値に割り振られる一方、解剖学的特徴でない画素は0の値に割り振られてもよい。この値の割り振りは、上述したように類似関数が計算される前に、ベースライン画像及びLD画像の双方に、対応するマスク画像が乗算されることを許容する。言い換えれば、マスク画像は、類似関数の算出に何らの影響も及ばないように、非解剖学的特徴の画素を除去することが可能である。
[046] 画素が解剖学的特徴であるか否かを決定するために、各画素周辺の近辺で、様々な関数の算出が可能である。近辺についてのこれらの関数は、標準偏差、勾配の大きさ、および/または、元のグレースケール画像およびフィルリングされた画像における画素の対応する値などを含んでよい。画素のまわりの「近辺」は、所定数の隣接画素(例えば5x5または3x3グリッド)を含む。更に、これらの関数は、例えば、標準偏差のうち近辺の標準偏差を捜し出すことによって、または、標準偏差および勾配の大きさの二次関数を計算することによって、構成されることが可能である。近辺についての適切な関数の1つの例は、骨と金属器具とを区別するためにエッジ検出技術を利用する者である。金属は骨よりも「鋭い」エッジを示し、そのような相違は、「エッジ」の画素の近辺で標準偏差または勾配の計算を利用して決定されることが可能である。近辺関数は、エッジ検出アプローチに基づいて画素が解剖学的特徴であるか否かを判定し、その画素に相応しいように、1または0の値を割り当ててもよい。
[047] 一旦、一組の値が特定の画素に関して計算されると、それらの値は、事前に取得された画像の測定値から決定される閾値に対して比較され、閾値を超える数に基づいて、その画素に二進値が割り当てられることが可能である。代替的に、0と1間の小数値が画素に割り当てられてもよく、そのような割り当ては、解剖学的特徴又は非解剖学的特徴の一部としての画素の正体についての信頼度を反映する。これらのステップは、GPUにおける1つのプロセッサに画像の1つの画素における計算を割り当てることによって、複数の画素の値が同時に計算されることを可能にすることで、GPUにより加速されることが可能である。形態学的画像オペレーション(例えば浸食および拡張)の組合せを使用して、非解剖学的特徴に対応する領域を充填および拡張するために、マスク処理が可能である。
[048]このアプローチのステップの例は、図4a―4pの画像に図示される。図4aにおいて、手術部位の画像は、解剖学特徴(患者の頭蓋骨)および非―解剖学特徴(例えばクランプ)を包含する。図4aの画像は、エッジ強調のためにフィルタリングされ、図4bのフィルタリングされた画像を生成する。この画像は、従来方法で何千ものにより表現されることが可能である点が認められ、各画素の強度値は、フィルタのエッジ強調属性に従って修正される。この例では、フィルタは、バターワースフィルタである。フィルタリングされた画像は、非解剖学的特徴に対応するマスクを生成することに関し、8つの異なる技術に委ねられる。このように、上記の近辺関数(すなわち、標準偏差、勾配およびそれらの組み合わせの関数)は、様々な画像(図4c−4j)を生成するために、フィルタリングされた画像(図4b)に適用される。これらの画像の各々は、実際の(ライブ)LD画像に対する比較およびレジストレーションのためにベースライン画像として記憶される。
[049] かくして、図4c乃至4jの各画像は、マスクを生成するために使用される。上述したように、マスク生成プロセスは、画素強度の閾値との比較により、または、既知の非解剖学的特徴に対応する強度値が画素強度と比較されているルックアップテーブルによって行われてよい。何れかの近辺関数に関し、閾値およびルックアップテーブル技術により生成されるマスクは、図4k−41に示される。これらのマスクは、図4m−4nの画像で表現されるように、非解剖学的特徴に対応する領域を充填および拡張するために、マスク処理が可能である。結果として生じるマスクは、図4bのフィルタリングされた画像に適用され、ライブLD画像と比較される「最終的な」ベースライン画像を生成する(図4o−4p)。前述したように、これらの画像の全てが極めて短い時間内に生成されることができるように、これらの算出および画素評価の各々はGPUの個々のプロセッサにおいて、実行されることが可能である。さらに、これらのマスクされたベースライン画像の各々は、手術部位又は撮像装置の動きに応じて変換されることが可能であり、および、ベースラインおよびLD画像間の最良のアライメントに対応する最高のZスコアをもたらすベースライン画像を発見するために、ライブLD画像と比較されることが可能である。この選択されたベースライン画像は、以下において説明される方法で使用される。
[050] 画像レジストレーションが完了すると、新しい画像は、様々な方法でベースライン画像セットから選択される画像とともに表示されてよい。1つのアプローチにおいて、図5a、bに図示されるように、2つの画像は併合されてもよい。元の新しい画像は図5aに示されており、器具Tがはっきりと見えており、その下の生体構造を遮っている。ステップ212(図3)で生成される部分的に併合される画像が図5bに示され、図5bでは器具Tがまだ見えているが、かなり緩和されており、配下の生体構造が見えている。従来の方法で画像のデジタル表現を結合することによって(例えば2つの画像に関し画素データを加算または平均化することによって)、2つの画像がマージされてもよい。一実施形態において、医師は、例えばユーザ・インタフェース125等により、表示される画像の中で一つ以上の特定の関心領域を識別してもよく、関心領域外の表示に関してベースライン画像データを利用し、関心領域内の表示に関してマージ処理を行うように、マージ処理を構成することが可能である。マージされた画像の中で表示される新たな画像とベースライン画像との量を制御する「スライダ」とともに、ユーザ・インタフェース125が提供される。他のアプローチにおいて、医師は、図6a,bに示されるように、相関しているベースライン画像と新しい画像またはマージされた画像との間で交互に切り換えてもよい。図6aの画像は、新たな画像に対して最高の相関度を有するものとして見出された、ベースライン画像セット中の画像である。図6bの画像は、得られた新しい画像である。医師はこれらの表示の間で切り替えを行い、下位の生体構造についてのより鮮明な表示、及び、器具Tを伴う現在の視野の表示を取得し、事実上、画像を切り替えることにより、視野から器具をデジタル的に除去し、器具により遮られていた生体構造に対する位置を明確にする。
[051] 他のアプローチにおいて、2つの画像間の相違を識別するために、ベースライン画像と新しい画像との間で対数減算の実行が可能である。その結果の差分画像(医師にとって関心がある注入された造影剤又は器具を含むかもしれない)は、ベースライン画像、新しい画像またはマージされた画像に対して、別々に、着色して重ねて又は加算して表示されることが可能である。これは、Cアーム露光環境における変化に対処するために、減算の前に画像強度をスケーリングすることを要する。浸食及び拡張のようなデジタル画像処理操作は、身体的オブジェクト以外の画像ノイズに対応する差分画像中の特徴を除去するために、使用することが可能である。上述したように画像差分を強調する、或いは、マージされた画像から差分画像を取り除くために、上記のアプローチが使用されてもよい。換言すれば、差分画像は、ベースライン画像、新たな画像又はマージされた画像における差分画像の除外または包含のためのツールとして使用されてよい。
[052] 上記のように、本発明は、画像形成装置またはCアーム103が動かされる外科的ナビゲーション手順も想定している。画像形成装置からのDICOM情報又は市販のトラッキング装置を使用して、従来の外科的ナビゲーション技術のようなインプラントおよび手術器具の位置を追跡するよりはむしろ、Cアームの位置を追跡することを 本発明は想定している。Cアームの追跡は、器具やインプラントを追跡するのに必要な精度よりもかなり低い精度しか要しない。この実施形態では、画像処理装置122は、トラッキング装置130から追跡情報を受信する。本発明の一態様の課題は、患者に対するCアームの向きによらず、実際の手術部位に合致した画像を医師が眺めることを保証することである。
[053] Cアームの位置を追跡することは「ドリフト」を説明することが可能であり、ドリフトは、物理的な空間と撮像空間(または仮想的な空間)との間の徐々に進行する不整合(ミスアライメント)である。この「ドリフト」は、微妙な患者の動き、テーブルまたは撮像デバイスとの偶発的な接触などに起因して生じる可能性があり、および重力に起因して生じることさえありえる。このミスアライメントは、しばしば、視覚的には知覚できないが、医師が眺める画像の中で顕著なずれ(シフト)を生成する可能性がある。外科的ナビゲーション手順が実行される場合(及び医師がそのデバイスから得られる情報を当てにする場合)、或いは、画像の鮮明性を改善するために、ベースライン画像に対する新たな画像のアライメントが必要とされる場合に、これらのシフトは問題化する可能性がある。画像処理を使用することは、ベースライン及び新たな画像の不可避的なミスアライメントを除去する。画像処理装置122は、生体構造の現在の画像が、予測された画像と比較される校正モードを組み込んでもよい。画像の予測された動きおよび実際の動きの違いは、後述される「質量中心(COM)」及びドリフトについての不正確な知識により説明できる。僅かな数の画像が取得されてCOMが正確に確定すると、システムの再校正が連続的な撮像とともに自動的に生じ、それにより、ドリフトの影響を排除することが可能である。
[054] 画像処理装置122は「トラッキングモード」で動作してもよく、そのモードでは、Cアームの動きがモニタリングされ、現在表示されている画像がそれに応じて動かされる。現在表示されている画像は、上述したように生成される、最近のベースライン、新しいLD画像またはマージされた画像であってよい。この画像は、新しい画像が画像形成装置100で撮影されるまで、ディスプレイ123、124のうちの何れかに残る。この画像は、トラッキング装置130によって取得される位置データを利用して、Cアームの動きに合致するようにディスプレイ上でシフトさせられる。図7a、6bにて図示されるように、トラッキング・サークル240がディスプレイ上に示されてもよい。トラッキング・サークルは、画像に関する「境界」位置を識別する。トラッキング・サークルが赤色で示される場合、Cアーム位置に応じて取得される画像は、図7aに示すように、ベースライン画像位置に関して「境界外(out of bounds)」となる。Cアームが放射線技師によって動かされると、ディスプレイ上に表現される画像は移動させられる。図7bに示されるように、画像が「境界内(in bounds)」に移動すると、トラッキング・サークル240は緑色に変わり、それにより、現在Cアームは新しい画像を取得するために適当な位置にある旨の速やかな指示を、技師が得るようにする。トラッキング・サークルは、手術手順の間に、Cアームの動きを案内するために、技術者によって使用されてもよい。トラッキング・サークルは、ベースライン結合画像を準備する際に技術者を支援するために使用されてもよい。図8aに示されるように、他の画像につながる際に適切に整合していない画像位置は、赤色のトラッキング・サークル240を有するが、適切に整合した画像位置は、図8bに示されるように、緑色のトラッキング・サークルを有する。そして、技師は、ベースライン結合画像の一部分を形成するために、画像を取得することが可能である。
[055] 本発明は、医師と放射線技師との間のコミュニケーションを強化する特徴を想定している。手順の最中に、医師は、特定の位置または方位における画像を要請するかもしれない。1つの例は、AP指向Cアームが、「フラット」に向いた終板とともに脊骨終板の直上に、或いは、Cアームのビーム軸に本質的に平行に、整合して傾けられる脊髄麻酔における「ファーガソン表示(Ferguson view)」として知られるものである。ファーガソン表示の取得は、脊椎の複数のAP表示を取得しながら、Cアームまたは患者テーブルを回転させることを必要とし、この手順は、現在の技術では厄介で不正確なものであり、終板に最も整合するものを発見するために、多数の蛍光透視画像の撮像を必要とする。本発明は、単独の画像又はつなぎ合わせられた画像上にグリッドを重ねること、及び、Cアームを方向付けるために技師により使用されることが可能な解剖学的特徴のラベルを提供することを、医師に許容する。かくして、図9aに示されるように、画像処理装置122は、側面画像(Lateral image)に重ねられているトラッキング・サークル240の中にグリッド245を配置することを、医師に許容するように構成される。医師は、このケースの脊髄脊柱で、解剖学的構造を識別するラベル250を特定してもよい。この特定の例では、目的は、L2−L3の椎間(disc space)を、中心グリッド線246に合わせることである。技術者を支援するために、軌道矢印255が画像に重ね合わせられ、現在位置でCアームにより取得される画像の軌跡を示す。Cアームが動くと、純粋なAPの向きを変更し、画像処理装置は、トラッキングデバイス230から取得されるCアーム位置データを評価し、軌道矢印255に対する新たな方位を決定する。軌跡矢印がCアームとともに動き、それにより、図9bに示されるように、それが中心グリッド線246に整合させられると、技師は撮像し、L3終板に沿ってファーガソン表示を得るためにCアームは適切に整合していることを知る。このように、それが中心グリッド線に沿って回転させられ及び中央に配置されるまで、側面画像をモニタリングすることは、多くの不正確な画像の推測及び撮像を行うことなく、APファーガソン角を発見することを、放射線技師に許容する。
[056] 図10に示されるように、画像処理装置は、それぞれのディスプレイ123および124に同時に側面およびAP表示を示すように構成されてもよい。一方または両方の表示は、グリッド、ラベルおよび軌道矢印を組み込んでいてもよい。これと同じ側面図が、技術者が眺める撮像システム100のコントロールパネル110上に現れてもよい。上述したように、Cアームが軌道矢印を中心グリッド線に整合させて動かされるにつれて、側面及びAP画像はそれに応じて移動し、それにより、医師は、新しい画像がどのように見えるかについての直感を得る。また、技術者がCアームを適切に仕向けると、中心グリッド線に対する軌道矢印の一致が示され、新しいAP画像が得られる。図10に示されるように、表示は複数の軌道矢印を含み、機動矢印の各々は特定の椎間に整合している。例えば、一番上の軌道矢印はL1−L2椎間に整合し、一番下の矢印はL5−S1椎間に整合する。複数のレベルの手順において、医師は様々なレベルのファーガソン表示を必要とするかもしれないが、それらは、Cアームを特定の軌道矢印に整合させることを技師に要求することによって、容易に取得されることが可能である。
[057] 他の特徴において、放射線不透過性の非対称形状は、Cアーム検出器上の既知の位置に置かれることが可能である。これは、Cアームの座標系を、Cアームの画像座標系の何らかの方向に連結する能力をもたらす。Cアームのディスプレイが、何らかの回転またはミラーリングを有する画像を生成するために修正されると、その形状の検出は、画像の比較及び画像のつなぎ合わせのプロセスを劇的に単純化する。すなわち、図11に示すように、ベースライン画像Bは、画像の9時の位置に指標「K」を包含する。新たな画像Nが取得され、その画像の中では、指標が、医師又は技師により、デフォルト方向から回転させられている。この新しい画像とベースライン画像セットとの比較は、この角度オフセットに起因して、これらの画像の間では何らのレジストレーション(又は位置合わせされている旨の判断)は生じそうにない。一実施形態では、画像処理装置がベースライン方向からCアームの実際の回転を検出し、他の実施形態では、画像処理装置が、画像認識ソフトウェアを使用して、新しい画像の中の「K」の指標の位置を特定し、デフォルト位置からの角度オフセットを判定する。この角度オフセットは、ベースライン画像セットの回転および/または鏡像による画像を得るために使用される。画像レジストレーション・ステップ210において選択されるベースライン画像は、新しく獲得される画像にマージされる変換された方位において維持される。この変換は、Cアームに存在する表示効果を除去するように、回転およびミラーイメージングを含むことができる。
[058] 別の態様においては、Cアーム放射線源104がテーブルに近づくにつれて、レシーバ105によって捕えられる画像のサイズが、より大きくなり;レシーバをテーブルの方に動かすことは、結果として画像サイズの減少になることが知られている。画像スケールが身体の方へ及び身体から遠ざかる方への動く量は容易に判定されることが可能である一方、Cアームがテーブルに沿って並進させられる場合、放射線源に対する患者の「質量中心(COM)」の近さに応じて変化する大きさの分だけ画像がシフトする。撮像される生体構造は3D構造によるものであるが、高い精度で、数学的に、その構造のCOMに配置された3D生体構造の2D画像として、その生体構造を表現することが可能である。例えば、COMが放射線源の近くにある場合、小さな動きでも、結果的に生じる画像は、大幅にシフトすることを引き起こす。COMが決定されるまでであるが、スクリーン上でオブジェクトがシフトする算出される量は、それらの実際の動きに比例するが、等しくはない。その相違は、COMの実際の位置を算出するために使用される。COMはそれらが相違する量に基づいて調整され、画像が過剰にシフトさせられる場合には放射線源からそれを動かし、画像シフトが小さすぎる場合には反対に動かす。COMは、当初は、テーブル上に中心を置くように仮定され、トラッキング装置のリファレンス・アークはそこを中心に付加される。COMの真の位置は、撮像システムの初期セットアップ中に撮影される初期の2〜3の画像を利用して極めて正確に決定され、新たな画像の取得夫々に応じて再確認/調整される。COMがグローバル空間で決定されると、COMに対するCアームの動きが算出され、画像レジストレーションに応じてベースライン画像セットを並進させるように適用されることが可能である。
[059] 画像処理装置122は、他の追跡されるエレメントを画像の中に導入することを医師に許容し、プロシージャの最中に医師のガイドを支援するように、構成されてもよい。閉ループ・フィードバック・アプローチは、この知覚され追跡されるエレメントの位置とエレメントについて撮影された画像とが対応していることの確認を、医師に許容する。具体的には、ライブのX線および外科的ナビゲーション・システムからの決定された位置が、比較される。同様に、ベースライン画像の情報は、画像認識の際に、たとえ放射線不透過性のオブジェクトにより遮られていたとしても、患者の生体構造を追跡するために使用されることが可能であり、放射線不透過性のオブジェクトの情報は、撮像された画像がその追跡される場所と比較される場合に、その追跡を確認するために使用されることが可能である。器具/インプラントおよびCアームの双方が追跡される場合、イメージング・ソースに対する生体構造の位置およびイメージング・ソースに対する装置の位置は、既知である。この情報は、生体構造に関して装置またはハードウェアの位置を迅速かつ対話式に突き止めるように使用されることが可能である。この特徴は、例えば、血管プロシージャ(angio procedure)におけるカテーテルのパスをたどるという特に有用な用途を有する。典型的な血管プロシージャにおいて、映写又は連続的なフルオロは、血管に沿うカテーテルの進行に続くように使用される。本発明は、カテーテルの仮想的な記述を有する以前に生成された生体構造の画像と、生体構造及び実際のカテーテルのライブ・フルオロ・ショットとを結合することを許容する。このように、典型的な映写プロシージャの場合に毎秒15枚のフルオロ撮像を行うのではなく、本発明は、あたかもカテーテルが血管に沿って進行しているかのように、カテーテルを効果的かつ正確に追跡するために、毎秒1回の撮像しか行わなくて済むことを放射線技師に許容する。以前に生成される画像は、撮影されていないフルオロ・ショットを説明するために接合される。必要に応じて、撮像又は再校正の場合に、仮想的な表現がライブ・ショットに対して確認されることが可能である。
[060] 特定のプロシージャにおいて、より大きな特徴(例えば近くの骨)に対する血管生体構造の位置を特定することが可能である。これは、従来のCT血管造影図(CTA)から、または、プロシージャの途中で撮像される実際の血管造影図から、DRRを利用して達成されることが可能である。いずれのアプローチも、骨の解剖学的な特徴に血管造影図をリンクさせる又はその逆を行う手段として利用されてよい。より詳細に説明するために、異なるDRRを生成するために同じCTAが使用されるものとし、DRRは、例えば、骨の解剖学的特徴のみを強調するもの、および、骨に沿う血管の解剖学的特徴を含む合致したセットにおけるもの等である。患者の骨の解剖学的特徴について撮影されたベースライン・フルオロ画像は、最高の合致性を判定するために、骨DRRと比較されることが可能である。骨のみのDRRを用いた結果を表示する代わりに、血管の解剖学的特徴を含む合致したDRRが、新しい画像とマージするために使用されることが可能である。この手法では、骨は、血管の解剖学的特徴における位置に対するカテーテルの放射線位置を特定することを支援する。血管自体を連続的に撮像する必要はなく、その構造の画像は取得された骨のみの画像に重ねられることが可能であるので、コントラスト染料の使用は、血管を安定的に見るためにコントラスト染料が必要である従来のプロシージャに対して、限定されたものにすることが可能である。
[061] 以下は、上記の画像処理装置の特徴を利用する特定のプロシージャ例である。これらは、ベースライン画像タイプ、表示オプション、および放射線量などの様々なものの組み合わせを用いて、ソフトウェアがどのように使用されるかについての僅かな例に過ぎない(これらの列挙は網羅的なものであることを意図していない)。
パルス新画像/交互/FDフルオロ又は術前のX線のベースライン
[062] パルス化された画像が取得され、その画像は、外科的手術の前に撮影された高解像度のパルス化されていない画像を含む事前に取得されるベースライン画像セットと比較される。現在の画像とベースライン・ソリューション・セットのうちの何れかとの間のレジストレーションは、解剖学的構造の現在位置および表示を反映しているベースライン画像を提供する。新しい画像は、位置合わせされたベースライン画像とともに代替的に表示される又はオーバレイされ、より妨げが少ない又はより鮮明な画像とともに、オーバレイされるおよび切り替えられる現在画像を示す。
パルス新画像/交互/DRRに由来したベースライン
[063] パルス化された画像が取得され、CTスキャンから取得される高解像度のDRRを含むベースライン画像についての事前に取得されるソリューションと比較される。DRR画像は、骨の解剖学的特徴を示すにすぎないように限定され、これは、ORの中で撮影されるフィルムを頻繁に「曇らせる」他の不明瞭情報(例えば、ボビーコード(bovie code)、EKGリード(EKG leads)等)および骨の鮮明性を曖昧にする対象(例えば、腸内ガス、器官など)と異なる。上記の例と同様に、従来のDRR画像の何れかと位置合わせされる新しい画像およびこれらの画像は、ディスプレイ123、124において交互に切り換えられ、または、オーバレイされる。
パルス新画像/別の代わりに合成
[064] 上記の技術の全てが適用されることが可能であり、新たなおよび位置合わせされたベースライン画像ではなく、過去のおよび現在の画像がマージされてもよい。加重平均または類似マージ技術を実行することによって、生体構造の高解像度画像とともにマージされる、生体構造に対する現在の情報(例えば、機器、インプラント、カテーテルなどの配置)をともに示す単一画像の取得が可能である。一例において、2つの画像の併合部の複数の画像が、100%パルス化された画像ないし100%DRRの画像にわたる範囲内で提供されることが可能である。ユーザ・インタフェース125上のスライドボタンは、必要に応じて、併合の範囲を調整することを、医師に許容する。
新しい画像は、より大きなベースライン画像セットの小部分である
[065] 所定時間に為される撮像は、全身のうちの一部分である限られた情報しか含まない。例えば、コリメーションは全体的な組織放射線照射を低下させ、身体へ向かう放射線散乱を低下させるが、得られる画像の視野を制限してしまうことを犠牲する。正しい位置でマージされる又は代用される、より大きな画像の脈絡の中で、実際の最後に投影された画像の表示は、より小さな画像領域に関する情報を補足し、より大きな身体構造に対するリファレンスに組み込むことを許容する。同じ画像レジストレーション技術が、上述したように適用される(ただし、レジストレーションは、(つなぎ合わせられている又はつなぎ合わせられていない)ベースライン画像のうち、新しい画像で見える領域に対応する狭いフィールドに適用される点を除外する)。
同様に、接合部又は遮られた領域での配置
[066] 希にではなく、特に、異なる全体密度を有する領域において(例えば、胸部と隣接する腹部との相違、頭部/首/頚椎と上部胸郭との相違において)、明確に視覚化されることが可能なX線の領域は、取得される実際の画像のうちの一部分だけである。それが能力を制限し、狭い表示を身体のより大きなコンテキストに当てはめる場合、または、評価されるべき領域が画像のうちの遮られた部分にある場合、医師の意向を妨げてしまう。複数の画像を一緒につなぎ合わせることによって(それぞれは、ローカルな理想的な環境で撮影されている)、より大きな画像の取得が可能である。更に、現在の画像は、(上述したような)より大きなコンテキストの中に付加され、関連するロケーションにより不鮮明化されている画像のその部分を満たすことが可能である。
隠れた生体構造の遮りを排除する又は局所的な影響を緩和する
[067] 上述したように、画像処理装置は、現在の新しい画像とベースライン画像セットとの間で画像レジストレーション・ステップを実行し、X線散乱または小さな遮る対象(例えばコードなど)またはより大きな対象(例えば、ツール、器具など)の形式で存在するノイズに起因する誤情報を、事実上、制限する。多くの場合、それは、ツール又は器具によってブロックされる生体構造の画像であって実行される手術にとって最も重要な画像の一部分である。遮っている対象物を画像から除去することにより、手術は、より安全に且つより有効になり、医師は改善された情報とともに継続するよう促される。ノイズが加わる前に撮影された画像(例えば、過去のフィルム、ベースライン・シングルFD画像、手術前に撮影されたフルオロ・ショットをつなぎ合わせたもの等)或いは理想化された画像(例えば、CTデータから生成されるDRRs)を利用することにより、その過去の「(遮られていない)鮮明な」画像を表示することは(その画像は、現在の画像とマージされる或いは切り替えられる)、それらの対象物を画像から消滅させる、或いは、濃い対象物ではない影になる。これらが追跡される対象物である場合、遮られる領域は非重視化されることが可能であり、あるいは、数学的な比較が実行されることにより、そこからの情報の排除が可能であり、速度および比較精度の更なる改善を促す。
[068] 本願で説明されるように構成される画像処理装置は3つの包括的な特徴を提供し、それらは:(1)受け入れられるライブ画像に必要とされる放射線照射量を低減させること、(2)手術手順を促すことが可能な画像を医師に提供すること、(3)放射線技師と医師との間のコミュニケーションを改善することである。放射線照射を低減させる態様に関し、本発明は、手術手順の全体にわたって低線量画像が撮影されることを許容し、現在の画像における「ノイズ」により形成されるギャップを埋め、完全な線量の画像の詳細とともに、現在の視野の複合的な又はマージされた画像を生成する。実際には、すべての一般的な市販のCアームに存在する未修正の特徴を利用して、標準FDイメージングより少ない放射線照射の大きさで生成される、患者の生体構造についての高い有用性の高品質画像を可能にする。本願で説明される画像レジストレーション技術は、グラフィックス処理ユニットで実現されることが可能であり、1秒以内でまたは真にインタラクティブになされることが可能であり;CINEモード等で必要とされる場合、画像レジストレーションは1秒当たり複数回実行することが可能である。ユーザ・インタフェースは、位置合わせされる画像を取得するために必要な忠実度の決定を医師に許容し、横に並べる表示ないしマージされた表示のフェードイン/フェードアウトに至る表示の仕方の選択肢を医師に与える。
[069] 手術手順を促す画像を医師に提供する特徴に関し、いくつかのデジタル撮像技術が、ユーザの体感を改善するために使用されることが可能である。1つの例は画像トラッキングであり、これは、画像キャプチャの間で生じる如何なる位置の変更にもよらず、本質的に「静的な」ポジションで医師に表示さえる画像を維持するために使用されることが可能である。この特徴によれば、ベースライン画像は空間の中で固定されることが可能であり、新しい画像はそれに対して調整され、その逆ではない。プロシージャにおけるステップの間に連続的な画像が撮影される場合に、関心のある特定の対象(例えば、生体構造または器具)が連続的な表示の中で静止したままにするように、新しい画像の各々が、先行する画像に対して安定化されることが可能である。例えば、骨用ネジが身体部分の中に入るにつれて一連の画像が撮影される場合に、身体部分は、ネジの実際の進行が直接的に観察できるように、ディスプレイスクリーン上では静止したままである。
[070] この特徴の別の態様においては、遮るオブジェクトを含む現在の画像は、何らの遮るオブジェクトもない早期の画像と比較されることが可能である。レジストレーション・プロセスにおいては、画像処理装置は、新しい画像とベースライン画像との間でマージされた画像を生成することが可能であり、その画像は、表示される画像から、オブジェクトのブロッキング性を非重視化する。ユーザ・インタフェースは、表示された眺めの中でブロッキング・オブジェクトをフェードインさせる又はそこからフェードアウトさせる機能を、医師に提供する。
[071] オブジェクト自体が追跡される他の実施形態において、ブロッキング・オブジェクトの仮想的なバージョンが、表示される画像に加え戻されることが可能である。画像処理装置は、ブロッキング・オブジェクトの位置の後に続くトラッキングデバイスから位置データを取得し、表示される画像の中で仮想的なオブジェクトの適当な位置および方位を決定するために、その位置データを用いることが可能である。仮想的なオブジェクトは、チェック・ステップとして機能するように、新たな現在画像と比較されるベースライン画像に適用されてもよく、新しい画像が、所与の許容度の範囲内で、生成された画像(ツールおよび生体構造の双方)に合致する場合、手術は進行可能である。合致が乏しい場合、(自動化された手術における)手術は停止させられ、及び/又は、再校正の実行が可能である。これは、閉ループ・フィードバック特徴を許容し、医学的な治療介入の安全性を促す。
[072] 特定のプロシージャ(例えば偽アンギオ・プロシージャ)に関し、ベースライン画像中の血管を現在の画像に投影することは、非常に少ない造影剤負荷しか利用せずに、ツールが脈管構造の中を進行する際のツール(例えば、マイクロ・カテーテル、ステントなど)を見ることを医師に許容することが可能である。隣接する骨の解剖学的特徴は、血管のための「アンカー」として役立ち、画像レジストレーション・プロセスを通じて、本質的には骨が追跡され、血管はその構造に隣接して存在するように仮定される。換言すれば、解剖学的特徴が連続的な画像の間を移動する場合に、新たな画像は、ベースライン画像セットのうちの画像であって「背景」の解剖学的特徴の新しい位置に対応する画像に対して、位置合わせされる。脈管構造を含むが異なる既にリンクされるベースライン画像中の血管は、コントラストが不足している表示される画像にオーバレイされる又はそれにマージされることが可能である。必要とされる場合又は望まれる場合には、断続的なアンギオが、確認するために撮影されることが可能である。追跡されるカテーテルと組み合わせられる場合、器具の位置についての実際の情報が、画像に包含されることが可能である。シネ(血管造影図が得られる場合に一般的に使用されるフルオロ・ショットの連続的なムービーループ)の作成が可能であり、シネにおいて生成される画像は、シネ画像につながれ、血管造影図が作成される又はカテーテルが配置される一方で、低線量X線が多数取得されることを許容する。最終的に、画像がオリジナルのベースライン画像にリンクされると、これらのうちの何れかが現在の画像にマージされるために使用され、インプラントの動き、コンストラクトの形成、ステントの設置などをモニタリングする手段を形成する。
[073] コミュニケーションを改善する第3の特徴では、新たな画像を取得する仕方および場所に関し、Cアームのポジショニングで技師を案内することが可能な方法において、本願で説明される画像処理装置は、医師が画像に注釈をつけることを許容する。かくして、画像処理装置122はユーザ・インタフェース125は、表示される画像にグリッドを付加し、生体構造にラベルを付し、撮像装置のアライメントのための軌跡を識別するための手段を医師に提供する。技師が画像形成装置またはCアームを動かすにつれて、表示される画像も動かされる。この特徴は、それを得るためにCアームがフィールド内に戻されるたびに複数の画像を撮影することなく、所望の方向で、スクリーンの中央で撮像されることが望ましい解剖学的特徴を中心とすることを、放射線技師に許容する。この特徴は、Cアームに関しビュー・ファインダを提供し(この特徴は、従来技術では欠如している)。医師が示す必要性を満たすように形成される表示とともに、新たな画像を撮影するために、技師はCアームを起動させることが可能である。
[074] 更に、DICOMデータまたは外科的ナビゲーション・バックボーンを使用して撮影される画像にCアームの動きを関連づけることは、例えば、Cアームが次の画像獲得に備えて移動する際に、表示される画像を移動させることを支援する。「境界内(In bound)」および「境界外(out of bounds)」インジケータは、如何なるベースライン画像とも相関させることができない又は位置を合わせることができない画像、或いは、複合的な視野を形成するために他の画像とともにつなぎ合わせることができない画像を、Cアームの現在の動きがもたらすか否かについての即時的な指示を技師に提供することが可能である。画像処理装置は画像ディスプレイを提供し、その画像ディスプレイは、Cアームの位置及び軌跡の提案される変化の影響を、医師および技師に視覚化することを許容する。さらに、画像処理装置は、例えば、生体構造が適切に整合するように(例えば、手術テーブルに対して平行に又は垂直になるように)、Cアームの角度またはテーブルの位置を、医師が変更することを支援する。画像処理装置は、二つ以上の異なるガントリー角度/位置からの二つ以上のX線ショットを用いたX線撮像対象の正確な中心についての質量中心(COM)を決定することも可能であり、そのCOM情報を利用して、(画素単位で)表示される撮像空間に対する(ミリメートル単位の)物理的な位置の対応付けを改善する。
[075] 本願で開示される画像認識コンポーネントは、撮影される次の画像の位置についての情報不足を克服し、多くの利点を提供する。新しい画像がベースラインに対して中心を合わせている場所を大まかに知ることは、撮像空間のうちの大きな領域をスキャンする必要性を制限し、従って、著しく画像認識ソフトウェアの速度を大幅に向上させる。より多くの放射線低減量(およびノイズの削減)が許容され、画像認識の内部チェックが存在する。例えば、ベースライン画像作成、複数のベースライン画像セット間の切り替え、および、つなぎ合わせ等のような、外科的ナビゲーションなしに設定されるシステムにおいてマニュアルでなされている複数の特徴が、自動化されることが可能である。これらの特徴は、コンテキストを追跡する画像においても、等しく有用である。
[076] 上述の通り、手術部位、解剖学的特徴およびハードウェアの正確な表示が医師に提示されることを保証するために、システムおよび方法は、過去に取得された画像を、ライブ画像と相関させるまたは同期させる。最適ケースでは、過去に取得された画像は、特定の患者からのものであって、手術手順と時間的に近接して取得されたものである。しかしながら、場合によっては、そのような過去の画像は利用可能ではない。そのような場合、「過去に取得された画像」は、CTおよびDRR画像のデータベースから抽出されることが可能である。大部分の患者の解剖学的特徴は、患者の身長および状態に応じて比較的一様である。画像の大きなデータベースの中では、かなり類似する解剖学的特徴を有する患者の過去の1つ以上の画像の取得が可能である確率が高い。1つ以上の画像は、画像処理装置122により実現されるソフトウェアにより、現在の撮像装置の位置及び眺めに対して相関付けられ、ライブ画像につながれるべき「過去に取得された画像」として信頼性高く提供される程度に十分に、過去の画像が現在の患者の解剖学的特徴に近いものであるか否かを判定する。
[077] 図10の表示は、画像処理装置122、ユーザ・インタフェース125および表示装置126に組み込まれてもよいタイプのディスプレイおよびユーザ・インタフェースを示す。例えば、表示装置は、ディスプレイの周辺にある「ラジオ(radio)」ボタンまたはアイコンを有する2つのディスプレイ122、123を含んでもよい。アイコンは、特定の特徴(例えば表示に示される「ラベル」、「グリッド(格子)」および「軌道」の特徴)を起動させるタッチスクリーン・ボタンであってもよい。タッチスクリーンまたはラジオボタンを起動させることは、特定のアクティビティを実行するために医師によって使用されることが可能な様々なスクリーンまたはプルダウンメニューにアクセスすることを可能にする。例えば、「ラベル」ボタンを起動させることはラベル「LI」、「L2」などを有するプルダウンメニューにアクセスすることであってもよいし、ドラッグアンドドロップは、画像上の所望の位置に医師がラベルを配置することを許容する。図10に示されるグリッドおよび軌道矢印を配置することに関し、同様なプロセスが使用されてよい。
[078] 以上、本発明は図面および上記の記述により詳細に図示および説明されてきたが、それらは例示として解釈されるべきであり、その性質上、限定として解釈されるべきでない。好ましい実施形態しか提示されていないこと、本発明の精神の範囲に属する全ての変更、修正及び応用も、保護波にないにあることが理解される。
以下、本願により教示される手段を例示的に列挙する。
(付記1)
医学的プロシージャ中、外科的フィールドの患者の内部解剖学的構造の画像の表示を生成するために、画像処理装置が実行する方法であって、
ベースライン方位の患者の内部解剖学的構造を包含している外科的フィールドの高解像度ベースライン画像を得るステップと、
ベースライン画像のベースライン方位からのムーブメントの複数の置換におけるベースライン画像の代表画像を包含しているベースライン画像セットを生成するために、高解像度ベースライン画像をデジタル的に操作するステップと、
低い解像度で外科的フィールドの新しい画像を得るステップと、
新しい画像をベースライン画像セットの代表画像と比較して、新しい画像との許容可能な相関度を有している代表画像を選択するステップと、
選択された代表画像と新しい画像とをマージして、マージされた画像を表示するステップと
を有することを特徴とする方法。
(付記2)
前記ベースライン画像は、プレプロシージャフル線量蛍光透視画像またはCTスキャン画像のうちの何れかであることを特徴とする付記1に記載の方法。
(付記3)
前記ベースライン画像は、DRRであることを特徴とする付記1に記載の方法。
(付記4)
前記新しい画像は、パルスおよび/または低い線量画像のうちの何れかであることを特徴とする付記1に記載の方法。
(付記5)
前記ベースライン画像をデジタル的に操作するステップにおけるムーブメントの置換が、2D画像に対応する4Dムーブメントを包含することを特徴とする付記1に記載の方法。
(付記6)
前記ベースライン画像をデジタル的に操作するステップにおけるムーブメントの置換が、3D画像に対応する6Dムーブメントを包含することを特徴とする付記1に記載の方法。
(付記7)
前記高解像度ベースライン画像をデジタル的に操作するステップにおいて、所定のグリッドが画像にオーバレイされ、
新しい画像をベースライン画像セットの代表画像と比較することが、代表画像及び新しい画像において所定の位置にある画素を比較するステップを包含する、ことを特徴とする付記1に記載の方法。
(付記8)
新しい画像をベースライン画像セットの代表画像と比較することが、比較に関し代表画像を発見的に選択することを包含することを特徴とする付記1に記載の方法。
(付記9)
新しい画像をベースライン画像セットの代表画像と比較するステップは、
一つ以上のPCA(principal component analysis)ベクトルを生成するためにベースライン画像セットの代表画像の画素について主成分分析法(PCA)を実行するステップであって、前記PCAベクトルは縦ベクトルである、ステップと、
代表画像の各画素に関し複数のPCAベクトルによるPCAマトリックスを生成するステップであって、前記PCAマトリックスは共分散行列である、ステップと、
各代表画像および新しい画像の各画素データである成分を有する縦ベクトルを生成するステップと、
各代表画像および新しい画像に関し新しい縦ベクトルを生成するためにPCAマトリックスおよび各縦ベクトルのマトリックス乗算を実行するステップと、
代表画像の各々に関する縦ベクトルと新しい画像に関する縦ベクトルとの内積を得るステップと、
内積が予め定められた閾値の範囲内である代表画像を選択するステップと、
を有することを特徴とする付記1に記載の方法。
(付記10)
医学的プロシージャは、外科的なフィールドの画像内の内部解剖学的特徴をブロックまたは隠すツール、計測器、インプラントまたは他のオブジェクトを使用することを包含し、
新しい画像をベースライン画像セットの代表画像と比較することが、ブロックされるかまたは隠される部分以外の画像の部分のみを比較するステップを包含する、ことを特徴とする付記1に記載の方法。
(付記11)
どの画素が予め定められた閾値の範囲外の値を有するかを決定することによって、新しい画像のうちブロック又は隠される部分の位置が決定されることを特徴とする付記10に記載の方法。
(付記12)
前記高解像度ベースライン画像をデジタル的に操作するステップが、特定の解剖学的な特徴が低減させられるかまたは強化される各々の代表画像に平行した画像を提供するステップを包含し、
選択された代表画像をマージするステップが、選択された代表画像に平行した画像をマージして、表示することを包含する、ことを特徴とする付記1に記載の方法。
(付記13)
医学的プロシージャ中、患者の内部解剖学的構造の画像の表示を生成することに関する画像処理装置であって、
ベースライン方位の患者の内部解剖学的構造を含む外科的フィールドの高解像度ベースライン画像と、低い分解能で外科的フィールドの新しい画像とを記憶するためのメモリと、
プロセッサとを有し、該プロセッサが、
ベースライン画像のベースライン方位からのムーブメントの複数の置換におけるベースライン画像の代表画像を包含しているベースライン画像セットを生成するために、高解像度ベースライン画像をデジタル的に操作し、
新しい画像をベースライン画像セットの代表画像と比較して、新しい画像との許容可能な相関度を有している代表画像を選択するためのソフトウェア命令を実行し、
選択された代表画像と新しい画像とをデジタル的にマージし、
マージされた画像を表示装置で表示するための信号を生成する、
ように構成されることを特徴とする画像処理装置。
(付記14)
ムーブメントの置換は、2D画像に対応する4Dムーブメントを含むことを特徴とする付記13に記載の画像処理装置。
(付記15)
ムーブメントの置換は、3D画像に対応する6Dムーブメントを含むことを特徴とする付記13に記載の画像処理装置。
(付記16)
所定のグリッドが画像にオーバレイされるように、プロセッサは高解像度ベースライン画像をデジタル的に操作するように構成され、
ベースライン画像セットの代表画像と新しい画像を比較するためのソフトウェア命令が、代表画像及び新しい画像において所定の位置にある画素を比較することを包含する、ことを特徴とする付記13の画像処理装置。
(付記17)
新しい画像をベースライン画像セットの代表画像と比較するためのソフトウェア命令が、
一つ以上のPCA(principal component analysis)ベクトルを生成するためにベースライン画像セットの代表画像の画素について主成分分析法(PCA)を実行するステップであって、前記PCAベクトルは縦ベクトルである、ステップと、
代表画像の各画素に関し複数のPCAベクトルによるPCAマトリックスを生成するステップであって、前記PCAマトリックスは共分散行列である、ステップと、
各代表画像および新しい画像の各画素データである成分を有する縦ベクトルを生成するステップと、
各代表画像および新しい画像に関し新しい縦ベクトルを生成するためにPCAマトリックスおよび各縦ベクトルのマトリックス乗算を実行するステップと、
代表画像の各々に関する縦ベクトルと新しい画像に関する縦ベクトルとの内積を得るステップと、
内積が予め定められた閾値の範囲内である代表画像を選択するステップと、
を具えていることを特徴とする付記13に記載の画像処理装置。
(付記18)
医学的プロシージャは、外科的なフィールドの画像内の内部解剖学的特徴をブロックまたは隠すツール、計測器、インプラントまたは他のオブジェクトを使用することを包含し、
新しい画像をベースライン画像セットの代表画像と比較することが、ブロックされるかまたは隠される部分以外の画像の部分のみを比較するステップを包含する、ことを特徴とする付記13の画像処理装置。
(付記19)
どの画素が予め定められた閾値の範囲外の値を有するかを決定することによって、新しい画像のうちブロック又は隠される部分の位置が決定されることを特徴とする付記18に記載の画像処理装置。
(付記20)
新しい画像と選択された代表画像とをデジタル的にマージする度合いの手動調整を可能にするように操作可能なユーザ・インタフェースを備える、ことを特徴とする付記13の画像処理装置。
(付記21)
ユーザ・インタフェースが更に、代表画像、新しい画像およびマージされた画像のうちの一つ以上の表示を手動で切り替えることを可能にするように操作可能であり、
前記プロセッサは、ユーザ・インタフェースに従って表示装置で表示するための信号を生成する、ことを特徴とする付記20の画像処理装置。
(付記22)
医学的プロシージャの間に、手術フィールドにおける患者の内部の解剖学的特徴についての画像の表示を生成するための方法であって、
第1方位において撮像装置により手術フィールドの画像を取得するステップと、
取得した画像を表示するステップと、
前記撮像装置、患者またはテーブルを、前記第1方位から移動させるステップと、
前記撮像装置、患者またはテーブルの前記第1方位からの動きを追跡するステップと、
前記撮像装置により前記手術フィールドの新たな画像を取得する前に、追跡される動きに対して、表示される画像を移動させるステップと、
を有する方法。
(付記23)
表示される画像を移動させるステップは、前記手術フィールドに対する前記撮像装置の位置によって生じる表示される画像の動きの誤差を補償するステップを包含する、ことを特徴とする付記22に記載の方法。
(付記24)
誤差を補償するステップは、前記手術フィールドの質量中心を決定し、前記質量中心に対する前記撮像装置の位置に基づいて、表示される画像の動きを調整するステップを包含する、ことを特徴とする付記23に記載の方法。
(付記25)
取得した画像を表示するステップが、前記新たな画像に対する所望の視野を表すしるしを、表示される画像に重ねるステップを包含する、ことを特徴とする付記22に記載の方法。
(付記26)
前記しるしは、表示される画像が所望の視野の外側にある場合には第1状態で、および、表示される画像が所望の視野の内側にある場合には第2状態で表示される、ことを特徴とする付記25に記載の方法。
(付記27)
撮像装置は、前記しるしの状態に応答して動かされる、ことを特徴とする付記26に記載の方法。
(付記28)
所望の視野の中に前記手術フィールドの患者が位置するように前記撮像装置が静止したままである一方、前記患者またはテーブルが動かされる、ことを特徴とする付記26に記載の方法。
(付記29)
前記所望の視野は、前記手術フィールドについての複数の新しい画像をつなぎ合わせる方向に対応している、ことを特徴とする付記25に記載の方法。
(付記30)
取得した画像を表示するステップが、グローバル座標系に関する前記撮像装置の位置を表すしるしを、表示される画像に重ねるステップを包含する、ことを特徴とする付記22に記載の方法。
(付記31)
表示される画像の所望の動きを表すしるしを、オーバレイするステップを包含することを特徴とする付記22に記載の方法。
(付記32)
前記しるしは、表示される画像にオーバレイされるグリッドであり、前記グリッドは、表示される画像が移動する際に、表示される画像に対して静止したままである、ことを特徴とする付記31に記載の方法。
(付記33)
前記しるしは、表示される画像とともに移動する前記新たな画像に関する表示方向を表す軌道インジケータを包含する、ことを特徴とする付記32に記載の方法。
(付記34)
前記軌道インジケータが前記新たな画像を取得する前に前記グリッドの一部分に整合させられるまで、前記撮像装置は動かされる、ことを特徴とする付記33に記載の方法。
(付記35)
表示される画像とともに移動する、前記表示される画像内の解剖学特徴に対応する識別子をオーバレイするステップを包含する、ことを特徴とする付記22に記載の方法。
(付記36)
前記新たな画像を得るステップと、
前記新たな画像を前記表示される画像と比較し、それら2つの画像の間の何らかのドリフトを除去するように、前記表示される画像を調整するステップと、
を有することを特徴とする付記22に記載の方法。
(付記37)
前記新たな画像を得るステップと、
前記新たな画像を前記表示される画像と比較し、表示される解剖学的特徴の位置が安定するように、前記表示される画像を調整するステップと、
を有することを特徴とする付記22に記載の方法。
(付記38)
画像ガイダンスシステムから位置データを受信するステップと、
表示される画像を前記位置データに関連付け、それに応じて前記表示される画像を調整するステップと、
を更に有することを特徴とする付記22に記載の方法。
(付記39)
医学的プロシージャが、ツールまたは器具のようなオブジェクトの位置が追跡される手術ナビゲーション・プロシージャであり、前記新たな画像は、前記ツールまたは器具の画像を含み、前記方法は:
前記取得した画像に前記オブジェクトの表現物を導入するステップと、
追跡される動きに関して前記表示される画像を移動させた後に、前記オブジェクトの追跡される位置に対応する位置データを取得し、移動させた画像における前記オブジェクトの位置と前記位置データとを比較するステップと、
移動させた画像における前記オブジェクトの位置と前記位置データとの比較に基づいて、移動させた画像を再調整するステップと、
を有することを特徴とする付記22に記載の方法。
(付記40)
医学的プロシージャの間に、手術フィールドにおける患者の内部の解剖学的特徴の画像の表示を生成するための方法であって、前記医学的プロシージャは、前記手術フィールドの画像中の前記内部の解剖学的特徴を妨害または不明瞭化するツール、器具、インプラントまたは他のオブジェクトを包含し、前記方法は:
ベースライン方位における前記手術フィールドの中で解剖学的特徴の高解像度のベースライン画像を取得するステップと、
ベースライン画像の前記ベースライン方位からの動きの複数の置換によるベースライン画像についての代表画像を含むベースライン画像セットを生成するように、前記高解像度のベースライン画像をデジタル的に操作するステップと、
解剖学的特徴の一部分がオブジェクトによってブロックされている、手術フィールドの新たな画像を取得するステップ;
前記ベースライン画像セット内の代表画像と前記新たな画像とを比較し、前記新たな画像との許容可能な相関度を有する代表画像を選択するステップと、
ブロックしているオブジェクトを最小化、強調又は除去する手術フィールドを示すために、選択された代表画像を表示するステップと、
を有することを特徴とする方法。
(付記41)
前記ベースライン画像セット内の代表画像と前記新たな画像とを比較することが、妨害または不明瞭化される部分以外の画像部分のみを比較する、ことを特徴とする付記40に記載の方法。
(付記42)
どの画素が所定の閾値の外側の値を有するかを判断することによって、新たな画像のうち妨害または不明瞭化される部分の位置が決定される、ことを特徴とする付記41に記載の方法。
(付記43)
画像ガイダンスシステムからの位置データを受信するステップと、
表示される画像を前記位置データに関連付け、それに応じて表示される画像を調整するステップと
を有することを特徴とする付記40に記載の方法。
(付記44)
前記高解像度のベースライン画像をデジタル的に操作するステップが、特定の解剖学特徴が少なくなるまたは強化される各代表画像に対して並列的な画像を提供するステップを包含し、
選択された代表画像を表示するステップが、選択された代表画像に対して並列的な画像を表示することを包含する
ことを特徴とする付記40に記載の方法。
(付記45)
前記比較することが、
前記ベースライン画像セットの各ベースライン画像の各画素に関し強度値を得るステップと、
前記新しい画像の各画素の強度値を得るステップと、
前記新しい画像および各々のベースライン画像に同様に配置された画素の強度値のスカラー関数を生成するステップであって、スカラー関数はスカラー値を生成する、ステップと、
前記選択された代表画像として、最大のスカラー値を有しているベースライン画像を選択するステップと、
を包含する特徴とする付記1に記載の方法。
(付記46)
すべてのベースライン画像のスカラー関数に関してベースライン画像の各々のスカラー関数のZスコアが生成され、最大のZスコアを有するベースライン画像が選択される、ことを特徴とする付記45に記載の方法。
(付記47)
少なくとも比較するステップは、グラフィック処理装置(GPU)を有しているデバイスにおいて実行され、
前記スカラー関数を生成するための画素についての乗算は、GPUの複数のプロセッサにおいて同時に発生する
ことを特徴とする付記45に記載の方法。
(付記48)
スカラー関数を生成するステップは、
前記ベースライン画像および新しい画像のダウン・サンプリングされた画像に基づいてスカラー関数を生成するステップを包含し、ダウン・サンプリングされた画像は、オリジナルのベースラインおよび新しい画像の画素の全てより少ない画素を含むことを特徴とする付記45に記載の方法。
(付記49)
最大のスカラー値を有する画像を選択するステップが、
最大のスカラー値を有しているダウン・サンプリングされたベースライン画像を選択するステップと、
第2のベースライン画像セットの中で第2のベースライン画像を生産するために選択された画像のムーブメントの複数の置換で選択されたダウン・サンプリングされたベースライン画像を更に操作するステップと、
新しい画像および第2のベースライン画像セットの各々の第2のベースライン画像において同様に配置された画素に関して第2のスカラー値を生成するステップと、
前記選択された代表画像として、最大のスカラー値を有している第2のベースライン画像を選択するステップと、
を含むことを特徴とする付記25に記載の方法。
(付記50)
高解像度ベースライン画像をデジタル的に操作するステップは、ベースライン画像の解剖学的および非解剖学的特徴を区別するために、前記ベースライン画像をフィルタリングすることを包含することを特徴とする付記1に記載の方法。
(付記51)
前記フィルタリングは、エッジ検出を包含する、ことを特徴とする付記50に記載の方法。
(付記52)
前記フィルタリングが、
各画素の予め定められた近所で近辺ファンクションを適用するステップと、
近辺ファンクションの結果が予め定められた閾値の範囲外にある場合、各画素を解剖学的であると識別するステップと、
を包含することを特徴とする付記50に記載の方法。
(付記53)
前記フィルタリングが、
各画素の予め定められた近所で近辺ファンクションを適用するステップと、
近辺ファンクションの結果が予め定められたルックアップテーブル中の結果に対応する場合、各画素を非解剖学的であると識別するステップと、
を包含することを特徴とする付記50に記載の方法。
(付記54)
近辺ファンクションは、標準偏差、勾配、および、標準偏差および勾配双方の合成されたファンクションのうちの1つ以上から選択されることを特徴とする付記52または53に記載の方法。
(付記55)
近辺ファンクションは、各画素を中心とする所定サイズのグリッドとして定義される近辺に適用されることを特徴とする付記54に記載の方法。
(付記56)
グリッドは、5画素×5画素であることを特徴とする付記55に記載の方法。
(付記57)
グリッドは、3画素×3画素であることを特徴とする付記55に記載の方法。
(付記58)
高解像度ベースライン画像をデジタル的に操作するステップが、
画像の非解剖学的特徴に対応するマスクを生成するステップと、
前記非解剖学的特徴を除いた修正された改訂ベースライン画像を生成するために、ベースライン画像にマスクを適用するステップと、
を包含することを特徴とする付記50に記載の方法。
(付記59)
前記プロセッサは、複数のプロセッサを有しているグラフィック処理装置(GPU)であり、
前記ソフトウェア命令は画素毎に画像の比較を実行することを含み、複数のマルチプロセッサの各々が、画像中の異なる画素の比較を同時に実行することを含む、
ことを特徴とする付記13の画像処理装置。
(付記60)
スカラー関数は、ドット積、相関係数、平均誤差および平均二乗誤差から選択される、ことを特徴とする付記45の方法。
(付記61)
前記強度値を得るステップは、
新しい画像においてユーザにより選択される一つ以上の関心領域からの距離によって新しい画像およびベースライン画像の画素をスケーリングするステップを包含することを特徴とする付記45の方法。
(付記62)
前記ベースライン画像および新しい画像の一方または両方が、いくつかの連続的な画像から平均されることを特徴とする付記1の方法。
(付記63)
前記高解像度ベースライン画像を得ることは、連続的に同じ解剖学的特徴および同じベースライン方位についての複数の高解像度ベースライン画像を得ることを包含し、
前記デジタル的に操作することは、複数のベースライン画像の全てを操作することを包含する
ことを特徴とする付記1の方法。
(付記64)
前記比較するステップは、代表画像と新しい画像との違いから差分画像を生成することを包含し、
前記マージするステップが、マージされた画像、代表画像及び新しい画像のうちの一つ以上に差分画像を選択的にオーバレイすることを含む、
ことを特徴とする付記1の方法。
(付記65)
前記マージするステップは、オーバレイの前に、ノイズを削減することにより前記差分画像を向上させることを包含することを特徴とする付記64の方法。
(付記66)
予め定められた閾値は、標準偏差、勾配、および、画素の強度の標準偏差および勾配双方の合成ファンクションのうちの一つ以上から選択されることを特徴とする付記11の方法。
(付記67)
前記予め定められた閾値は、標準偏差、勾配、および、画素の強度の標準偏差および勾配双方の合成ファンクションのうちの一つ以上から選択されることを特徴とする付記19の画像処理装置。
(付記68)
予め定められた閾値は、標準偏差、勾配、および、ピクセル強度の標準偏差および勾配の両方の合成ファンクションの一つ以上から選択されることを特徴とする付記42の方法。
(付記69)
前記比較するステップは、最終的な代表画像を見つけるために一つ以上の逐次反復においてダウン・サンプリングされる許容可能な相関度を有している連続した画像のグループを選択することを包含することを特徴とする付記1の方法。
(付記70)
ダウン・サンプリングされた画像は、画像における徐々に小さくなる関心領域について解像度を増やした画像であることを特徴とする付記69の方法。
米国特許出願公開第2005/0272991号明細書

Claims (18)

  1. 医学的プロシージャの間に、手術フィールドにおける患者の内部の解剖学的特徴についての画像の表示を生成するために、画像処理装置が実行する方法であって、
    第1方位において撮像装置により手術フィールドの画像を取得するステップと、
    取得した画像を表示するステップと、
    前記撮像装置、患者またはテーブルが前記第1方位から動く場合に、前記撮像装置、患者またはテーブルの前記第1方位からの動きを追跡するステップと、
    前記撮像装置により前記手術フィールドの新たな画像を取得する前に、追跡される動きに対して、表示される画像を移動させるステップと、
    を有する方法。
  2. 表示される画像を移動させるステップは、前記手術フィールドに対する前記撮像装置の位置によって生じる表示される画像の動きの誤差を補償するステップを包含する、ことを特徴とする請求項1に記載の方法。
  3. 誤差を補償するステップは、前記手術フィールドの質量中心を決定し、前記質量中心に対する前記撮像装置の位置に基づいて、表示される画像の動きを調整するステップを包含する、ことを特徴とする請求項2に記載の方法。
  4. 取得した画像を表示するステップが、前記新たな画像に対する所望の視野を表すしるしを、表示される画像に重ねるステップを包含する、ことを特徴とする請求項1に記載の方法。
  5. 前記しるしは、表示される画像が所望の視野の外側にある場合には第1状態で、および、表示される画像が所望の視野の内側にある場合には第2状態で表示される、ことを特徴とする請求項4に記載の方法。
  6. 撮像装置は、前記しるしの状態に応答して動かされる、ことを特徴とする請求項5に記載の方法。
  7. 所望の視野の中に前記手術フィールドの患者が位置するように前記撮像装置が静止したままである一方、前記患者またはテーブルが動かされる、ことを特徴とする請求項5に記載の方法。
  8. 前記所望の視野は、前記手術フィールドについての複数の新しい画像をつなぎ合わせる方向に対応している、ことを特徴とする請求項4に記載の方法。
  9. 取得した画像を表示するステップが、グローバル座標系に関する前記撮像装置の位置を表すしるしを、表示される画像に重ねるステップを包含する、ことを特徴とする請求項1に記載の方法。
  10. 表示される画像の所望の動きを表すしるしを、オーバレイするステップを包含することを特徴とする請求項1に記載の方法。
  11. 前記しるしは、表示される画像にオーバレイされるグリッドであり、前記グリッドは、表示される画像が移動する際に、表示される画像に対して静止したままである、ことを特徴とする請求項10に記載の方法。
  12. 前記しるしは、表示される画像とともに移動する前記新たな画像に関する表示方向を表す軌道インジケータを包含する、ことを特徴とする請求項11に記載の方法。
  13. 前記軌道インジケータが前記新たな画像を取得する前に前記グリッドの一部分に整合させられるまで、前記撮像装置は動かされる、ことを特徴とする請求項12に記載の方法。
  14. 表示される画像とともに移動する、前記表示される画像内の解剖学特徴に対応する識別子をオーバレイするステップを包含する、ことを特徴とする請求項1に記載の方法。
  15. 前記新たな画像を得るステップと、
    前記新たな画像を前記表示される画像と比較し、それら2つの画像の間の何らかのドリフトを除去するように、前記表示される画像を調整するステップと、
    を有することを特徴とする請求項1に記載の方法。
  16. 前記新たな画像を得るステップと、
    前記新たな画像を前記表示される画像と比較し、表示される解剖学的特徴の位置が安定するように、前記表示される画像を調整するステップと、
    を有することを特徴とする請求項1に記載の方法。
  17. 画像ガイダンスシステムから位置データを受信するステップと、
    表示される画像を前記位置データに関連付け、それに応じて前記表示される画像を調整するステップと、
    を更に有することを特徴とする請求項1に記載の方法。
  18. 医学的プロシージャが、ツールまたは器具のようなオブジェクトの位置が追跡される手術ナビゲーション・プロシージャであり、前記新たな画像は、前記ツールまたは器具の画像を含み、前記方法は:
    前記取得した画像に前記オブジェクトの表現物を導入するステップと、
    追跡される動きに関して前記表示される画像を移動させた後に、前記オブジェクトの追跡される位置に対応する位置データを取得し、移動させた画像における前記オブジェクトの位置と前記位置データとを比較するステップと、
    移動させた画像における前記オブジェクトの位置と前記位置データとの比較に基づいて、移動させた画像を再調整するステップと、
    を有することを特徴とする請求項1に記載の方法。
JP2017124793A 2011-10-05 2017-06-27 画像表示の生成方法 Active JP6400793B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/253,838 2011-10-05
US13/253,838 US8526700B2 (en) 2010-10-06 2011-10-05 Imaging system and method for surgical and interventional medical procedures

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014534743A Division JP6246718B2 (ja) 2011-10-05 2012-10-05 画像表示方法及び画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018165551A Division JP2018187463A (ja) 2011-10-05 2018-09-05 画像処理方法及び画像処理装置

Publications (2)

Publication Number Publication Date
JP2017164573A JP2017164573A (ja) 2017-09-21
JP6400793B2 true JP6400793B2 (ja) 2018-10-03

Family

ID=45925174

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2014534743A Active JP6246718B2 (ja) 2011-10-05 2012-10-05 画像表示方法及び画像処理装置
JP2017124793A Active JP6400793B2 (ja) 2011-10-05 2017-06-27 画像表示の生成方法
JP2017219827A Active JP6527210B2 (ja) 2011-10-05 2017-11-15 画像表示の生成方法
JP2017219826A Active JP6527209B2 (ja) 2011-10-05 2017-11-15 画像表示の生成方法
JP2018165551A Pending JP2018187463A (ja) 2011-10-05 2018-09-05 画像処理方法及び画像処理装置
JP2019089238A Active JP6768878B2 (ja) 2011-10-05 2019-05-09 画像表示の生成方法
JP2020066535A Pending JP2020110650A (ja) 2011-10-05 2020-04-02 画像処理方法及び画像処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014534743A Active JP6246718B2 (ja) 2011-10-05 2012-10-05 画像表示方法及び画像処理装置

Family Applications After (5)

Application Number Title Priority Date Filing Date
JP2017219827A Active JP6527210B2 (ja) 2011-10-05 2017-11-15 画像表示の生成方法
JP2017219826A Active JP6527209B2 (ja) 2011-10-05 2017-11-15 画像表示の生成方法
JP2018165551A Pending JP2018187463A (ja) 2011-10-05 2018-09-05 画像処理方法及び画像処理装置
JP2019089238A Active JP6768878B2 (ja) 2011-10-05 2019-05-09 画像表示の生成方法
JP2020066535A Pending JP2020110650A (ja) 2011-10-05 2020-04-02 画像処理方法及び画像処理装置

Country Status (7)

Country Link
US (2) US8526700B2 (ja)
EP (1) EP2764467B1 (ja)
JP (7) JP6246718B2 (ja)
CN (1) CN104025119B (ja)
AU (6) AU2012318522B2 (ja)
CA (4) CA2851369C (ja)
WO (1) WO2013052726A1 (ja)

Families Citing this family (158)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8219178B2 (en) 2007-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US10893912B2 (en) 2006-02-16 2021-01-19 Globus Medical Inc. Surgical tool systems and methods
US10653497B2 (en) 2006-02-16 2020-05-19 Globus Medical, Inc. Surgical tool systems and methods
US10357184B2 (en) 2012-06-21 2019-07-23 Globus Medical, Inc. Surgical tool systems and method
ES2607052T3 (es) 2009-06-17 2017-03-29 3Shape A/S Aparato de escaneo de enfoque
US11231787B2 (en) 2010-10-06 2022-01-25 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures
US8526700B2 (en) * 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
WO2012131660A1 (en) 2011-04-01 2012-10-04 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system for spinal and other surgeries
GB2495150B (en) * 2011-09-30 2015-07-01 Mirada Medical Method and system of defining a region of interest on medical scan images
WO2013110025A2 (en) * 2012-01-22 2013-07-25 I22, Llc Graphical system for collecting, presenting and using medical data and the automated generation of surgical reports
JP6104601B2 (ja) * 2012-03-06 2017-03-29 東芝メディカルシステムズ株式会社 X線画像診断装置及び制御プログラム
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US10646280B2 (en) 2012-06-21 2020-05-12 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US11116576B2 (en) 2012-06-21 2021-09-14 Globus Medical Inc. Dynamic reference arrays and methods of use
US10136954B2 (en) 2012-06-21 2018-11-27 Globus Medical, Inc. Surgical tool systems and method
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
WO2013192598A1 (en) 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
US10231791B2 (en) 2012-06-21 2019-03-19 Globus Medical, Inc. Infrared signal based position recognition system for use with a robot-assisted surgery
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US10842461B2 (en) 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11395706B2 (en) 2012-06-21 2022-07-26 Globus Medical Inc. Surgical robot platform
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US10350013B2 (en) 2012-06-21 2019-07-16 Globus Medical, Inc. Surgical tool systems and methods
US11607149B2 (en) 2012-06-21 2023-03-21 Globus Medical Inc. Surgical tool systems and method
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US9183354B2 (en) * 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
WO2014063158A1 (en) * 2012-10-19 2014-04-24 Neurologica Corp. Computerized tomography (ct) fluoroscopy imaging system using a standard intensity ct scan with reduced intensity ct scan overlays
US9626757B2 (en) 2013-08-08 2017-04-18 Washington University System and method for the validation and quality assurance of computerized contours of human anatomy
US10376715B2 (en) 2013-08-08 2019-08-13 Washington University System and method for the validation and quality assurance of computerized contours of human anatomy
US9283048B2 (en) 2013-10-04 2016-03-15 KB Medical SA Apparatus and systems for precise guidance of surgical tools
CA2926529A1 (en) 2013-10-10 2015-04-16 Torus Biomedical Solutions Inc. Tracking system for imaging machines and related apparatus
CN113576679A (zh) * 2013-12-20 2021-11-02 皇家飞利浦有限公司 用于光子工具和电磁跟踪引导的支气管镜的用户接口
WO2015107099A1 (en) 2014-01-15 2015-07-23 KB Medical SA Notched apparatus for guidance of an insertable instrument along an axis during spinal surgery
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
EP3104803B1 (en) 2014-02-11 2021-09-15 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
CN106659537B (zh) 2014-04-24 2019-06-11 Kb医疗公司 结合机器人手术系统使用的手术器械固持器
US10828120B2 (en) 2014-06-19 2020-11-10 Kb Medical, Sa Systems and methods for performing minimally invasive surgery
US10098702B2 (en) * 2014-07-11 2018-10-16 Volcano Corporation Devices, systems, and methods for treatment of vessels
US10765438B2 (en) 2014-07-14 2020-09-08 KB Medical SA Anti-skid surgical instrument for use in preparing holes in bone tissue
CN107072673A (zh) 2014-07-14 2017-08-18 Kb医疗公司 用于在骨组织中制备孔的防滑手术器械
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US11103316B2 (en) 2014-12-02 2021-08-31 Globus Medical Inc. Robot assisted volume removal during surgery
JP6374536B2 (ja) * 2015-02-02 2018-08-15 富士フイルム株式会社 追尾システム、端末装置、カメラ装置、追尾撮影方法及びプログラム
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10555782B2 (en) 2015-02-18 2020-02-11 Globus Medical, Inc. Systems and methods for performing minimally invasive spinal surgery with a robotic surgical system using a percutaneous technique
US10058394B2 (en) 2015-07-31 2018-08-28 Globus Medical, Inc. Robot arm and methods of use
US10646298B2 (en) 2015-07-31 2020-05-12 Globus Medical, Inc. Robot arm and methods of use
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10080615B2 (en) 2015-08-12 2018-09-25 Globus Medical, Inc. Devices and methods for temporary mounting of parts to bone
US10098707B2 (en) 2015-08-17 2018-10-16 Orthogrid Systems Inc. Surgical positioning system, apparatus and method of use
EP3344179B1 (en) 2015-08-31 2021-06-30 KB Medical SA Robotic surgical systems
US10034716B2 (en) 2015-09-14 2018-07-31 Globus Medical, Inc. Surgical robotic systems and methods thereof
US9771092B2 (en) 2015-10-13 2017-09-26 Globus Medical, Inc. Stabilizer wheel assembly and methods of use
US10664568B2 (en) * 2015-11-10 2020-05-26 Hyland Switzerland Sàrl System and methods for transmitting clinical data from one or more sending applications to a dictation system
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
JP6876065B2 (ja) * 2015-12-14 2021-05-26 ニューヴェイジヴ,インコーポレイテッド 放射線照射を低減された手術中の3次元視覚化
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US10842453B2 (en) 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
US11058378B2 (en) 2016-02-03 2021-07-13 Globus Medical, Inc. Portable medical imaging system
US10117632B2 (en) 2016-02-03 2018-11-06 Globus Medical, Inc. Portable medical imaging system with beam scanning collimator
US10866119B2 (en) 2016-03-14 2020-12-15 Globus Medical, Inc. Metal detector for detecting insertion of a surgical device into a hollow tube
US10115037B2 (en) * 2016-03-21 2018-10-30 Konica Minolta Laboratory U.S.A., Inc. Patient identification using dynamic medical images
USD810097S1 (en) 2016-05-02 2018-02-13 General Electric Company Display screen portion with graphical user interface of C-arm machine
USD810096S1 (en) 2016-05-02 2018-02-13 General Electric Company Display screen portion with animated graphical user interface of C-arm machine
JP2019520119A (ja) 2016-05-16 2019-07-18 トラックエックス・テクノロジー,エルエルシー 医療処置中のエフェクタの画像定位のためのシステム及び方法
WO2018006026A1 (en) 2016-06-30 2018-01-04 Orthogrid Systems S.A.R.L Surgical instrument positioning system, apparatus and method of use as a non-invasive anatomical reference
US11075992B2 (en) * 2016-07-28 2021-07-27 International Business Machines Corporation System and method for providing medical attention
US10748319B1 (en) * 2016-09-19 2020-08-18 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
US11039893B2 (en) 2016-10-21 2021-06-22 Globus Medical, Inc. Robotic surgical systems
EP3360502A3 (en) 2017-01-18 2018-10-31 KB Medical SA Robotic navigation of robotic surgical systems
EP3351202B1 (en) 2017-01-18 2021-09-08 KB Medical SA Universal instrument guide for robotic surgical systems
JP2018114280A (ja) 2017-01-18 2018-07-26 ケービー メディカル エスアー ロボット外科用システムのための汎用器具ガイド、外科用器具システム、及びそれらの使用方法
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
EP3384848B1 (de) 2017-04-04 2021-06-23 Siemens Healthcare GmbH Flexibler einsatz eines klinischen entscheidungsunterstützungssystems
WO2018228673A1 (en) * 2017-06-13 2018-12-20 Brainlab Ag Binary tracking on medical images
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US11135015B2 (en) 2017-07-21 2021-10-05 Globus Medical, Inc. Robot surgical platform
CN111163697B (zh) 2017-10-10 2023-10-03 柯惠有限合伙公司 用于在荧光三维重构中识别和标记目标的系统和方法
US10898252B2 (en) 2017-11-09 2021-01-26 Globus Medical, Inc. Surgical robotic systems for bending surgical rods, and related methods and devices
US11382666B2 (en) 2017-11-09 2022-07-12 Globus Medical Inc. Methods providing bend plans for surgical rods and related controllers and computer program products
US11794338B2 (en) 2017-11-09 2023-10-24 Globus Medical Inc. Robotic rod benders and related mechanical and motor housings
US11134862B2 (en) 2017-11-10 2021-10-05 Globus Medical, Inc. Methods of selecting surgical implants and related devices
US20200337798A1 (en) * 2017-11-20 2020-10-29 Medi Plus Inc. Medical safety system
US11672605B2 (en) * 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
JP7130406B2 (ja) * 2018-03-30 2022-09-05 キヤノンメディカルシステムズ株式会社 画像処理装置、x線診断装置及び画像処理プログラム
US10573023B2 (en) 2018-04-09 2020-02-25 Globus Medical, Inc. Predictive visualization of medical imaging scanner component movement
US11026585B2 (en) * 2018-06-05 2021-06-08 Synaptive Medical Inc. System and method for intraoperative video processing
EP3810015A1 (en) * 2018-06-19 2021-04-28 Tornier, Inc. Mixed-reality surgical system with physical markers for registration of virtual models
CN109300136B (zh) * 2018-08-28 2021-08-31 众安信息技术服务有限公司 一种基于卷积神经网络的危及器官自动分割方法
EP4226864A1 (en) * 2018-10-26 2023-08-16 Koninklijke Philips N.V. Intraluminal ultrasound imaging with automatic and assisted labels and bookmarks
US11337742B2 (en) 2018-11-05 2022-05-24 Globus Medical Inc Compliant orthopedic driver
US11278360B2 (en) 2018-11-16 2022-03-22 Globus Medical, Inc. End-effectors for surgical robotic systems having sealed optical components
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US10987073B2 (en) * 2018-12-14 2021-04-27 General Electric Company Medical imaging system and method for automated medical imaging assistance
CN109498106B (zh) * 2018-12-26 2021-11-19 哈尔滨工程大学 一种基于三维图像的髓内针钉孔的定位和导航方法
US11918313B2 (en) 2019-03-15 2024-03-05 Globus Medical Inc. Active end effectors for surgical robots
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11806084B2 (en) 2019-03-22 2023-11-07 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11419616B2 (en) 2019-03-22 2022-08-23 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US20200297357A1 (en) 2019-03-22 2020-09-24 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11317978B2 (en) 2019-03-22 2022-05-03 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11571265B2 (en) 2019-03-22 2023-02-07 Globus Medical Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
CN110215339B (zh) * 2019-07-03 2022-01-07 中山大学 一种实现自动化机械操作臂路径规划的方法
US11628023B2 (en) 2019-07-10 2023-04-18 Globus Medical, Inc. Robotic navigational system for interbody implants
EP4006229A4 (en) 2019-07-24 2023-08-02 Mitsuboshi Belting Ltd. DRIVE BELT CENTER WIRE PRODUCTION METHOD, DRIVE BELT PRODUCTION METHOD, TREATMENT AGENT AND TREATMENT KIT
US11571171B2 (en) 2019-09-24 2023-02-07 Globus Medical, Inc. Compound curve cable chain
US20220375078A1 (en) * 2019-09-24 2022-11-24 Nuvasive, Inc. Adjusting appearance of objects in medical images
US11890066B2 (en) 2019-09-30 2024-02-06 Globus Medical, Inc Surgical robot with passive end effector
US11864857B2 (en) 2019-09-27 2024-01-09 Globus Medical, Inc. Surgical robot with passive end effector
US11426178B2 (en) 2019-09-27 2022-08-30 Globus Medical Inc. Systems and methods for navigating a pin guide driver
US11510684B2 (en) 2019-10-14 2022-11-29 Globus Medical, Inc. Rotary motion passive end effector for surgical robots in orthopedic surgeries
CN111161369B (zh) * 2019-12-20 2024-04-23 上海联影智能医疗科技有限公司 图像重建存储方法、装置、计算机设备和存储介质
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
CN111613120B (zh) * 2020-04-08 2023-03-14 宁波创导三维医疗科技有限公司 一种介入手术操作造影成像效果模拟系统
CN111553207B (zh) * 2020-04-14 2022-09-06 哈尔滨工程大学 一种基于统计分布的舰船辐射噪声特征重组方法
US11253216B2 (en) 2020-04-28 2022-02-22 Globus Medical Inc. Fixtures for fluoroscopic imaging systems and related navigation systems and methods
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11317973B2 (en) 2020-06-09 2022-05-03 Globus Medical, Inc. Camera tracking bar for computer assisted navigation during surgery
US11382713B2 (en) 2020-06-16 2022-07-12 Globus Medical, Inc. Navigated surgical system with eye to XR headset display calibration
US11877807B2 (en) 2020-07-10 2024-01-23 Globus Medical, Inc Instruments for navigated orthopedic surgeries
US11793588B2 (en) 2020-07-23 2023-10-24 Globus Medical, Inc. Sterile draping of robotic arms
CN112053330B (zh) * 2020-08-28 2023-06-20 西安电子科技大学 基于pca和tssm模型的膈肌预测系统及方法
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US11523785B2 (en) 2020-09-24 2022-12-13 Globus Medical, Inc. Increased cone beam computed tomography volume length without requiring stitching or longitudinal C-arm movement
US11911112B2 (en) 2020-10-27 2024-02-27 Globus Medical, Inc. Robotic navigational system
US11941814B2 (en) 2020-11-04 2024-03-26 Globus Medical Inc. Auto segmentation using 2-D images taken during 3-D imaging spin
EP4002389A1 (en) * 2020-11-17 2022-05-25 TRUMPF Medizin Systeme GmbH + Co. KG Operating room control and communication system
US11717350B2 (en) 2020-11-24 2023-08-08 Globus Medical Inc. Methods for robotic assistance and navigation in spinal surgery and related systems
JP2024513737A (ja) 2021-03-22 2024-03-27 ニューヴェイジヴ,インコーポレイテッド マルチユーザ外科カート
US11857273B2 (en) 2021-07-06 2024-01-02 Globus Medical, Inc. Ultrasonic robotic surgical navigation
US11439444B1 (en) 2021-07-22 2022-09-13 Globus Medical, Inc. Screw tower and rod reduction tool
US20230169696A1 (en) * 2021-11-27 2023-06-01 Novarad Corporation Transfer of Alignment Accuracy Between Visible Markers Used with Augmented Reality Displays
US11918304B2 (en) 2021-12-20 2024-03-05 Globus Medical, Inc Flat panel registration fixture and method of using same

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4367490A (en) 1981-04-24 1983-01-04 General Electric Company Noise reduction in digital fluoroscopy systems
US4641352A (en) 1984-07-12 1987-02-03 Paul Fenster Misregistration correction
US5195234A (en) 1991-08-19 1993-03-23 Motorola, Inc. Method and apparatus for visual alignment of parts
US5211165A (en) 1991-09-03 1993-05-18 General Electric Company Tracking system to follow the position and orientation of a device with radiofrequency field gradients
US5253169A (en) 1991-11-29 1993-10-12 General Electric Company Method and apparatus for reducing x-ray dosage during fluoroscopic examinations
DE69322444T2 (de) 1992-07-10 1999-06-24 Koninkl Philips Electronics Nv Röntgendurchleuchtungsgerät mit Mitteln zur Rauschreduktion
US5396531A (en) 1992-11-05 1995-03-07 General Electric Company Method of achieving reduced dose X-ray fluoroscopy by employing statistical estimation of poisson noise
US5803089A (en) 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
DE69532829T2 (de) 1994-10-07 2005-01-27 St. Louis University Vorrichtung zur benutzung mit einem chirurgischen navigationssystem
FR2736182A1 (fr) 1995-06-30 1997-01-03 Philips Electronique Lab Procede de traitement d'images pour la reduction du bruit dans une image d'une sequence d'images numeriques et dispositif mettant en oeuvre ce procede
US5772594A (en) 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
WO1998002091A1 (en) 1996-07-11 1998-01-22 The Board Of Trustees Of The Leland Stanford Junior University High-speed inter-modality image registration via iterative feature matching
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US5951475A (en) 1997-09-25 1999-09-14 International Business Machines Corporation Methods and apparatus for registering CT-scan data to multiple fluoroscopic images
FR2772225A1 (fr) 1997-12-09 1999-06-04 Philips Electronics Nv Procede de traitement d'une image ou le bruit depend du signal
WO1999030486A2 (en) 1997-12-10 1999-06-17 Koninklijke Philips Electronics N.V. Forming an assembled image from successive x-ray images
JP3053389B1 (ja) * 1998-12-03 2000-06-19 三菱電機株式会社 動体追跡照射装置
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US6381352B1 (en) 1999-02-02 2002-04-30 The United States Of America As Represented By The Secretary Of The Navy Method of isolating relevant subject matter in an image
US6330356B1 (en) 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US6463121B1 (en) 1999-10-13 2002-10-08 General Electric Company Interactive x-ray position and exposure control using image data as reference information
US6314160B1 (en) 1999-12-17 2001-11-06 General Electric Company Method and apparatus for performing fluoroscopic noise reduction
US6535756B1 (en) * 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US6775405B1 (en) 2000-09-29 2004-08-10 Koninklijke Philips Electronics, N.V. Image registration system and method using cross-entropy optimization
US7054474B1 (en) 2001-07-25 2006-05-30 3D Sharp, Inc. Image noise reduction
DE10210646A1 (de) * 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
US6990368B2 (en) 2002-04-04 2006-01-24 Surgical Navigation Technologies, Inc. Method and apparatus for virtual digital subtraction angiography
FR2841118B1 (fr) 2002-06-20 2012-03-23 Perception Raisonnement Action En Medecine Determination de la position d'un appareil de radiographie ou de radioscopie
FR2846504B1 (fr) 2002-10-29 2005-04-08 Ge Med Sys Global Tech Co Llc Procede de determination d'un bruit fluoroscopique
JP4200811B2 (ja) * 2003-05-16 2008-12-24 株式会社島津製作所 放射線治療計画装置
JP2004351100A (ja) * 2003-05-30 2004-12-16 Konica Minolta Medical & Graphic Inc 医用画像処理システム及び医用画像処理方法
JP2005027913A (ja) * 2003-07-07 2005-02-03 Shimadzu Corp X線撮像装置
US20050238140A1 (en) * 2003-08-20 2005-10-27 Dan Hardesty X-ray imaging system with automatic image resolution enhancement
US7187792B2 (en) 2003-08-29 2007-03-06 Accuray, Inc. Apparatus and method for determining measure of similarity between images
JP4580628B2 (ja) * 2003-09-19 2010-11-17 株式会社東芝 X線画像診断装置及び画像データ生成方法
US7317841B2 (en) 2003-12-22 2008-01-08 Ge Medical Systems Global Technology Company, Llc System and method for image noise reduction using a minimal error spatiotemporal recursive filter
US7450743B2 (en) * 2004-01-21 2008-11-11 Siemens Medical Solutions Usa, Inc. Method and system of affine registration of inter-operative two dimensional images and pre-operative three dimensional images
US7620223B2 (en) * 2004-04-22 2009-11-17 Siemens Medical Solutions Usa, Inc. Method and system for registering pre-procedural images with intra-procedural images using a pre-computed knowledge base
US7097357B2 (en) * 2004-06-02 2006-08-29 General Electric Company Method and system for improved correction of registration error in a fluoroscopic image
US7327865B2 (en) * 2004-06-30 2008-02-05 Accuray, Inc. Fiducial-less tracking with non-rigid image registration
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
EP1657681B1 (en) * 2004-11-10 2009-01-21 Agfa HealthCare NV Method of performing measurements on digital images
US7720520B2 (en) 2004-12-01 2010-05-18 Boston Scientific Scimed, Inc. Method and system for registering an image with a navigation reference catheter
DE102005017491B4 (de) 2005-04-15 2007-03-15 Siemens Ag Verfahren zum Erzeugen eines gainkorrigierten Röntgenbildes
FR2884948B1 (fr) * 2005-04-26 2009-01-23 Gen Electric Procede et dispositif de reduction du bruit dans une sequence d'images fluoroscopiques
US7274771B2 (en) 2005-05-03 2007-09-25 General Electric Company Methods and systems for controlling exposure for medical imaging devices
US8208988B2 (en) 2005-05-13 2012-06-26 General Electric Company System and method for controlling a medical imaging device
US7603155B2 (en) 2005-05-24 2009-10-13 General Electric Company Method and system of acquiring images with a medical imaging device
US20070100223A1 (en) * 2005-10-14 2007-05-03 Rui Liao Method and system for cardiac imaging and catheter guidance for radio frequency (RF) ablation
US7835500B2 (en) * 2005-11-16 2010-11-16 Accuray Incorporated Multi-phase registration of 2-D X-ray images to 3-D volume studies
US8098964B2 (en) 2006-02-06 2012-01-17 Microsoft Corp. Raw image processing
DE102006006451A1 (de) 2006-02-10 2007-08-16 Siemens Ag Verfahren zum Betrieb einer Röntgendiagnostikeinrichtung zur Erzeugung hochaufgelöster Subtraktionsangiographie-Bilder
JP5231725B2 (ja) * 2006-06-20 2013-07-10 株式会社東芝 X線診断装置及びその制御方法
US7848592B2 (en) 2006-07-31 2010-12-07 Carestream Health, Inc. Image fusion for radiation therapy
EP1892668B1 (en) * 2006-08-22 2012-10-03 BrainLAB AG Registration of imaging data
JP2008073076A (ja) * 2006-09-19 2008-04-03 Institute Of National Colleges Of Technology Japan 乳房x線画像処理装置
US7885441B2 (en) * 2006-10-11 2011-02-08 General Electric Company Systems and methods for implant virtual review
US7856130B2 (en) 2007-03-28 2010-12-21 Eigen, Inc. Object recognition system for medical imaging
US8301226B2 (en) * 2007-04-24 2012-10-30 Medtronic, Inc. Method and apparatus for performing a navigated procedure
JP5335201B2 (ja) * 2007-05-08 2013-11-06 キヤノン株式会社 画像診断装置
US8073230B2 (en) * 2007-05-09 2011-12-06 Case Western Reserve University Systems and methods for generating images for identifying diseases
US7658541B2 (en) * 2007-06-26 2010-02-09 General Electric Company Apparatus for universal electromagnetic navigation target for fluoroscopic systems
WO2009044321A2 (en) * 2007-10-01 2009-04-09 Koninklijke Philips Electronics N.V. Detection and tracking of interventional tools
JP5025423B2 (ja) * 2007-10-30 2012-09-12 株式会社東芝 カテーテル挿入案内システムおよび該システムを組み込んだ医用画像診断装置
US20090324041A1 (en) 2008-01-23 2009-12-31 Eigen, Llc Apparatus for real-time 3d biopsy
EP2088556B1 (en) * 2008-02-05 2017-02-01 Siemens Healthcare GmbH Method and system for registration to align at least one preoperative image to at least one intraoperativley acquired image
US20100001996A1 (en) 2008-02-28 2010-01-07 Eigen, Llc Apparatus for guiding towards targets during motion using gpu processing
US20090326363A1 (en) 2008-05-02 2009-12-31 Eigen, Llc Fused image modalities guidance
US8278913B2 (en) 2008-05-15 2012-10-02 Eigen Inc. Apparatus and method for position sensing
US20100004526A1 (en) 2008-06-04 2010-01-07 Eigen, Inc. Abnormality finding in projection images
JP5305747B2 (ja) * 2008-06-17 2013-10-02 キヤノン株式会社 放射線画像撮影装置及びその駆動方法、並びに、プログラム
JP5675056B2 (ja) * 2008-07-04 2015-02-25 株式会社東芝 X線撮影装置および画像処理装置
JP2010069086A (ja) * 2008-09-19 2010-04-02 Toshiba Corp 放射線治療システム及び画像表示方法
JP5486182B2 (ja) * 2008-12-05 2014-05-07 キヤノン株式会社 情報処理装置および情報処理方法
US20100207942A1 (en) 2009-01-28 2010-08-19 Eigen, Inc. Apparatus for 3-d free hand reconstruction
CN104268849A (zh) * 2009-06-10 2015-01-07 三菱电机株式会社 图像核对装置以及患者定位装置
US8694075B2 (en) * 2009-12-21 2014-04-08 General Electric Company Intra-operative registration for navigated surgical procedures
JP5595745B2 (ja) * 2010-01-06 2014-09-24 株式会社東芝 X線透視装置
CN101984462A (zh) * 2010-09-08 2011-03-09 天津科技大学 电阻抗断层功能图像与解剖图像的合成方法
US8526700B2 (en) * 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures

Also Published As

Publication number Publication date
JP6527209B2 (ja) 2019-06-05
JP2018034014A (ja) 2018-03-08
AU2017239582A1 (en) 2017-10-26
WO2013052726A1 (en) 2013-04-11
AU2017239582B2 (en) 2018-07-26
EP2764467B1 (en) 2024-03-06
CA3178437A1 (en) 2013-04-11
AU2021202558B2 (en) 2022-03-24
EP2764467A1 (en) 2014-08-13
JP2018187463A (ja) 2018-11-29
CA3036492A1 (en) 2013-04-11
US20130342578A1 (en) 2013-12-26
US20120087562A1 (en) 2012-04-12
AU2018253616A1 (en) 2018-11-22
US8526700B2 (en) 2013-09-03
JP2015501174A (ja) 2015-01-15
CN104025119B (zh) 2017-08-25
JP2018034013A (ja) 2018-03-08
JP2019136546A (ja) 2019-08-22
AU2017239581A1 (en) 2017-10-26
AU2020202963B2 (en) 2021-05-27
JP6527210B2 (ja) 2019-06-05
US8792704B2 (en) 2014-07-29
AU2012318522B2 (en) 2017-07-27
CA3036487C (en) 2021-12-07
JP2017164573A (ja) 2017-09-21
CA3036487A1 (en) 2013-04-11
AU2017239581B2 (en) 2018-08-09
EP2764467A4 (en) 2015-04-15
CN104025119A (zh) 2014-09-03
JP6768878B2 (ja) 2020-10-14
CA2851369C (en) 2021-11-23
JP2020110650A (ja) 2020-07-27
AU2018253616B2 (en) 2020-05-21
JP6246718B2 (ja) 2017-12-13
CA3036492C (en) 2023-01-10
CA2851369A1 (en) 2013-04-11
AU2012318522A1 (en) 2014-05-01
AU2021202558A1 (en) 2021-05-27
AU2020202963A1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
JP6400793B2 (ja) 画像表示の生成方法
US10444855B2 (en) Imaging system and method for use in surgical and interventional medical procedures
JP6876065B2 (ja) 放射線照射を低減された手術中の3次元視覚化
US8908952B2 (en) Imaging system and method for use in surgical and interventional medical procedures
US11941179B2 (en) Imaging system and method for use in surgical and interventional medical procedures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180905

R150 Certificate of patent or registration of utility model

Ref document number: 6400793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250