JP2018501834A - 投影画像における介入器具の位置を決定する装置 - Google Patents

投影画像における介入器具の位置を決定する装置 Download PDF

Info

Publication number
JP2018501834A
JP2018501834A JP2017526860A JP2017526860A JP2018501834A JP 2018501834 A JP2018501834 A JP 2018501834A JP 2017526860 A JP2017526860 A JP 2017526860A JP 2017526860 A JP2017526860 A JP 2017526860A JP 2018501834 A JP2018501834 A JP 2018501834A
Authority
JP
Japan
Prior art keywords
projection image
interventional instrument
representation
projection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2017526860A
Other languages
English (en)
Other versions
JP2018501834A5 (ja
Inventor
アーメット エキン
アーメット エキン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018501834A publication Critical patent/JP2018501834A/ja
Publication of JP2018501834A5 publication Critical patent/JP2018501834A5/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/507Clinical applications involving determination of haemodynamic parameters, e.g. perfusion CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire

Abstract

本発明は、投影画像において介入器具3が位置される位置を決定する位置決定ユニットに関する。 入力ユニット16はユーザが投影画像において介入器具3の先端23の位置を示すことを可能にし、投影画像における、介入器具が位置される位置は、OSS装置のようなトラッキング装置によって決定されるように、投影画像、示される先端位置、及びその位置及び形状によって規定される介入器具の3次元表現に基づいて決定される。 投影画像、示される先端位置、及び表現を用いることによって、介入器具が位置される、投影画像における位置は、非常に正確に決定されることができる。 これらの決定される位置に基づいて、投影装置及びトラッキング装置は、互いに非常に正確にレジストレーションされることができる。

Description

本発明は、投影画像において介入器具が位置される、位置を決定するための位置決定装置、方法及びコンピュータプログラムに関する。本発明はさらに、投影画像において介入器具が位置される位置を決定するための位置決定装置を有する介入システムに関する。
WO 2013/001388 A1は、体内管腔のライブ3D画像を提供するためのシステムを開示する。 本システムは、光学形状検出を使って体内管腔におけるフレキシブルな外科的ツールの3次元形状を決定し、体内管腔のX線画像を撮るように構成され、体内管腔及び外科的ツールの少なくとも1つは放射線不透過性である。本システムは更に、決定される3次元外科的ツール形状をX線画像にレジストレーションするように構成される。
US 2008/0095421 A1は、ボリュームを表すデータに蛍光透視画像をレジストレーションする方法を開示する。 蛍光透視画像は超音波データにレジストレーションされ、超音波データはボリュームを表すデータにレジストレーションされ、蛍光透視画像は超音波データとの蛍光透視画像のレジストレーション及びボリュームを表すデータとの超音波データのレジストレーションの機能としてボリュームを表すデータにレジストレーションされる。
A. Brost他による記事「画像に基づいて三次元ラッソカテーテルモデル生成及びトラッキングによるEPプロシージャの間の三次元呼吸動き補償」(MICCAI 2009、パートI、394〜401頁、スプリンガー・バーラグ、ベルリン、ハイデルベルク(2009))は、電気生理プロシージャの間、3次元呼吸運動を補償するシステムを開示する。バイプレーンX線C-アームシステムは、異なる時間のために2つの収集方向で特殊円周カテーテルの二次元投影画像を生成する。 各々の時間に対し、カテーテルの3次元モデルは、カテーテルの時間依存3次元モデルを提供するために、二次元投影画像に基づいて再構成される。カテーテルのこの時間依存3次元モデルは、動き補償を実行するために最後に使われる3次元呼吸運動を推定するために使われる。
人体に導入されるためのカテーテル介入のような器具、人体内における介入器具の位置をトラッキングするトラッキング装置、人体の投影画像を生成する投影装置、及び投影画像で重ね合わされる人体内における介入器具のトラッキング位置を示すためのディスプレイを有する介入システムは知られている。投影装置は、人体を横断するために放射線を放出する放射線源、及び人体を横断した後に放射線を検出し、検出される放射線に基づいて投影画像を生成するための検出面を備える検出器を有する。
ディスプレイが投影画像で重ね合わされる介入器具のトラッキング位置を示すことを可能にするために、トラッキング装置及び投影装置は、互いにレジストレーションされる必要がある。 レジストレーションはたとえば、いくつかの投影画像における介入器具の位置を検出することによって、及び投影画像において検出される介入器具の位置及びトラッキング装置によってトラッキングされる介入器具の位置の間の変換を規定するレジストレーションパラメータを決定することによって実行されることができる。介入器具のトラッキング位置に基づいて、及び投影画像において検出される介入器具の位置に基づいて投影装置をトラッキング装置にレジストレーションすることはあまり正確でない。
本発明の目的は、投影画像を生成する投影装置及び介入器具の位置をトラッキングするトラッキング装置の間の、決定される位置に基づく、レジストレーションを改善するために、投影画像において非常に正確に介入器具が位置される、位置決定装置、方法及び位置を決定するためのコンピュータプログラムを提供することにある。本発明の更なる目的は、投影画像において介入器具が位置される位置を決定する位置決定装置を有する介入システムを提供することにある。
本発明の第一の態様において、投影画像において介入器具が位置される位置を決定する位置決定装置であって、
-介入器具を示し、投影装置によって生成される投影画像を供給する投影画像供給ユニットと、
-介入器具の位置をトラッキングするトラッキング装置によって決定されるように介入器具の位置及び形状によって規定される介入器具の3次元表現を供給する表現供給ユニットと、
-ユーザが投影画像における介入器具の先端の位置を示すことを可能にする入力ユニットと、
-供給される投影画像、供給される表現及び介入器具の先端の示される位置に基づいて投影画像における、介入器具が位置される位置を決定する位置決定ユニットと
を有する位置決定装置が提供される。
位置決定ユニットは、単に投影画像における位置を決定するための投影画像だけでなく、更にトラッキング装置によって決定されるように介入器具の位置及び形状によって規定される介入器具の供給される3次元表現及び投影画像における介入器具の先端のユーザに示される位置も使うため、投影画像において介入器具が位置される位置は非常に正確に決定されることができる。これらの決定位置は投影装置をトラッキング装置と正確にレジストレーションするために用いられることができる。
優先的には介入器具は、介入プロシージャの間、使われる介入装置、介入器具の位置をトラッキングしている間、人又は動物の体内又は外側に位置される特に細長い介入器具である。 たとえば、介入器具は、カテーテル、針、ガイドワイヤー、内視鏡その他になり得る。 介入器具の供給される表現は、投影画像の生成の間、介入器具の位置及び形状を規定する。 表現供給ユニットは、3次元表現はすでに記憶されて、記憶される3次元表現はそれを供給するために取り出されることができる記憶ユニットになることができ、及び/又は表現供給ユニットは、介入器具の位置及び形状をトラッキングするトラッキング装置から3次元表現を受信するための受信ユニットになることができ、受信ユニットはそれから、受信3次元表現を供給することができる。表現供給ユニットは、位置、すなわち介入器具の位置及び形状を直接トラッキングするトラッキング装置にもなり得る。優先的には、表現供給ユニットは、3次元位置及び形状並びにそれゆえに介入器具の表現を供給するために、光学形状検出(OSS)データを供給する。
投影画像は、二次元の画像である。 優先的には、それは、介入器具、すなわちリアルの3次元介入器具を二次元領域に投影することによって生成される。投影装置は、優先的にはイメージング領域を横断した後に放射線を検出し、検出される放射線に基づいて投影画像を生成する検出面を備える検出器及び介入器具が位置される投影装置のイメージング領域を横断する放射線を放出する放射線源を有する。投影画像供給ユニットは記憶ユニットになることができ、1つ又は複数の投影画像は記憶されて、1つ又は複数の投影画像はそれを供給するために取り出されることができる。 しかしながら、投影画像供給ユニットは、投影装置から1つ又は複数の投影画像を受信し、受信される1つ又は複数の投影画像を供給する受信ユニットにもなり得る。投影画像供給ユニットは、投影装置自体にもなり得る。
優先的には投影画像供給ユニットは、介入器具が異なる方向で示されるいくつかの投影画像を供給し、入力ユニットは、ユーザが各々の供給される投影画像において介入器具の先端の位置を示すことを可能にし、位置決定ユニットは、各々の供給される投影画像、供給される表現、各々の投影画像において示される介入器具の先端の位置に基づいて各々の投影画像における、介入器具が位置される位置を決定する。特に、位置決定ユニットは、各々の投影画像に対して介入器具が位置される位置を別個に決定することができる。優先的には投影装置は、投影装置が、介入器具は異なる方向、すなわち異なる投影方向で示される異なる投影画像を生成することを可能にするために、介入器具に対して放射線源及び優先的には検出器も回転させる。投影装置は、優先的には、X線投影画像、特にC-アームX線投影装置を生成するX線投影装置である。
ユーザが投影画像において介入器具の先端の位置を示すことを可能にするために、入力ユニットはグラフィカルユーザインタフェース及びコンピュータマウス、キーボード、タッチパッド等を優先的には含む。 たとえば、投影画像はディスプレイ上に示され、入力ユニットはユーザがディスプレイ上に介入器具の先端の位置を示すことを可能にすることができる。 入力ユニットがタッチパッドを含む場合、ディスプレイ及び入力ユニットは一体化デバイスになり、タッチパッドのディスプレイは投影画像を示し、ユーザはタッチパッドを用いて投影画像において介入器具の先端の位置を示すことができる。
実施例において位置決定ユニットは、i) a) 検出器の検出面上の空間変換表現の仮想投影及びb) 投影画像における介入器具の間の逸脱に依存する類似度が増加されるように、表現を空間変換し、空間変換は、変換表現の仮想投影の先端が投影画像における介入器具の先端の示される位置に一致するように表現の変換を含み、ii) 空間変換表現に基づいて投影画像において介入器具が位置される位置を決定する。空間変換表現の仮想投影は、投影装置のイメージング領域内にある表現の全ての部分の投影又はこの部分の一部のみの投影を含む。それは、投影画像を生成するために使われる投影ジオメトリーで実行される。
さらに、空間変換は、類似度が増やされるように、変換表現の回転を含む。回転は、変換表現の先端のまわりで、回転角度によって優先的には規定される。 表現を変換するために、及び表現が回転される位置として、投影画像における介入器具の先端の示される位置を用いることによって、空間変換表現に基づく投影画像において介入器具が位置される位置を決定する精度はさらに増やされることができる。これは、トラッキング装置との投影装置のさらに改善されるレジストレーションをもたらすことができる。
位置決定ユニットは、仮想投影空間変換表現に沿って曲率値を決定し、曲率値に基づいて投影画像において介入器具が位置される位置を決定する。特に、位置決定ユニットは、仮想投影空間変換表現をいくつかのセグメントに分割し、各々のセグメントのために最大曲率値を決定し、各々のセグメントのために決定される各々の最大曲率値の位置に基づいて投影画像において介入器具が位置される位置を決定する。 曲率値に基づいて投影画像において介入器具が位置される位置を決定することによって、これらの位置を決定する精度はさらに増やされることができ、今度は投影装置及びトラッキング装置の間でさらに改善されるレジストレーションをもたらすことができる。
入力ユニットは、ユーザが投影画像において介入器具の更なる位置を示すことを可能にし、位置決定ユニットは、供給される投影画像、供給される表現、投影画像における介入器具の先端の示される位置、及びユーザによって示される更なる位置に基づいて、投影画像において介入器具が位置される位置を決定する。特に、位置決定ユニットは、ユーザによって示される更なる位置の、投影画像において介入器具が位置される位置の決定に対する寄与を重み付けし、重み付けはユーザによって示される更なる位置の数に依存する。たとえば位置の決定は、a) 検出器の検出面上の空間変換表現の仮想投影及びb) 投影画像における介入器具の間の第一の逸脱に依存する類似度が増加されるように、表現の空間変換を含む場合、類似度は、a) 検出器の検出面上の空間変換表現の仮想投影及びb) ユーザによって示される更なる位置の間の第二の逸脱に更に依存する。特に、類似度は、第一の逸脱に依存する第一の類似性及び第二の逸脱に依存する第二の類似性の重み付け結合になることができ、第二の類似性のために使われる重み付けはユーザによって示される更なる位置の数に依存することができる。優先的には、第二の類似度のための重み付けは、ユーザによって示される更なる位置の増加する数とともに増加し得る。供給される投影画像、供給される表現及び 投影画像において介入器具の先端の示される位置と共にユーザによって示される更なる位置を考慮することによって、投影画像において介入器具が位置される位置を決定する精度はさらに増やされることができ、今度は投影装置及びトラッキング装置の間でさらに改善されるレジストレーションをもたらすことができる。
レジストレーションは、介入器具の位置及び形状によって規定される供給される表現及び投影画像における、介入器具が位置される位置に基づいて、トラッキング装置との、投影装置のレジストレーションを規定するレジストレーションパラメータを決定するレジストレーションユニットによって実行されることができる。さらに、レジストレーションユニットは、レジストレーションパラメータを、レジストレーションパラメータを決定するために使われた同じ投影画像又は投影装置によって生成される他の投影画像である、投影画像供給ユニットにより供給される投影画像に適用し、及び/又は互いに対して投影画像及び表現をレジストレーションするために、レジストレーションパラメータを決定するために使われた同じ投影画像又はトラッキング装置によって決定位置及び形状によって規定される他の表現である、表現に適用し、位置決定装置は、レジストレーションされる表現と共に投影画像を示すためのディスプレイを更に有する。このように、ディスプレイは投影画像における介入器具の位置を正確に示すことができる。 たとえば、介入器具の位置は、投影画像に示される人又は動物の範囲内で示されることができる。
ディスプレイは、投影画像において介入器具が位置される決定位置を表すマーカ及び投影画像を示し、入力ユニットは、ユーザが決定位置を修正することを可能にし、レジストレーションユニットは、修正位置に基づいてレジストレーションパラメータを決定する。このように、投影装置をトラッキング装置にレジストレーションする前に、ユーザは、投影画像において介入器具が位置される位置を修正する可能性を有する。 これは、投影装置及びトラッキング装置の間のさらに改善されるレジストレーションをもたらすことができる。
さらに ディスプレイは、レジストレーションの後に投影画像において介入器具が位置される決定位置を表すマーカ及び表現と共に投影画像を示し、入力ユニットは、ユーザが決定位置を修正することを可能にし、レジストレーションユニットは、修正位置に基づいてレジストレーションパラメータ並びに投影画像及び表現の間のレジストレーションを更新し、ディスプレイは、修正位置を表すマーカ及び更新レジストレーションに従って介入器具の表現と共に投影画像を示す。このように、ユーザがレジストレーション結果に満足するまで、ユーザは所定の位置を修正する。これは、ここでも、投影装置及びトラッキング装置の間のさらに改善されるレジストレーションをもたらすことができる。
本発明の更なる態様において、介入システムが提示され、介入システムは、
- 被験体内において介入プロシージャを実行するための介入器具と、
- 介入器具のレジストレーションされる表現と共に被験体を示す投影画像を示すための請求項11に記載の位置決定装置と
を有する。
本発明の更なる態様において、投影画像において介入器具が位置される位置を決定する位置決定方法が提示され、位置決定方法は、
-投影画像供給ユニットにより、介入器具を示し、投影装置によって生成されている投影画像を供給するステップと、
-表現供給ユニットにより、介入器具の位置をトラッキングするトラッキング装置によって決定される介入器具の位置及び形状によって規定される介入器具の3次元表現を供給するステップと、
-入力ユニットにより、ユーザが投影画像において介入器具の先端の位置を示すことを可能にするステップと、
- 位置決定ユニットにより、供給される投影画像、供給される表現及び投影画像において介入器具の先端の示される位置に基づいて投影画像において介入器具が位置される位置を決定するステップと
を有する。
他の態様において、投影画像において介入器具が位置される位置を決定するためのコンピュータプログラムが提示され、コンピュータプログラムは、位置決定装置を制御するコンピュータプログラムがコンピュータ上で実行されるとき、請求項1に記載の位置決定装置に、請求項13に記載の位置決定方法のステップを実行させるためのプログラムコード手段を有する。
特に従属請求項において規定されるように、請求項1の位置決定装置、請求項12の介入システム、請求項13の位置決定方法及び請求項14のコンピュータプログラムは、類似及び/又は同一の好ましい実施例を持つことは理解される。
本発明の好ましい実施例は、各独立請求項との、従属請求項の何れの組合せにもなり得ることはさらに理解されるべきである。
本発明のこれら及び他の態様は、本明細書で後述される実施形態から明らかになり、それらの実施形態を参照して説明される。
介入システムの実施例を例示する。 投影画像においてカテーテルが位置される位置を決定する位置決定方法の実施例を例示するフローチャートを例示する。 投影画像を例示する。 脈管画像を正規化するための量子化レベルを例示する。 正規化脈管画像を例示する。 表現が変換される前における、カテーテルの表現の仮想投影で投影画像を例示する。 表現が変換された後における、図6に示される投影画像を例示する。 正規化脈管画像上において、表現が変換され、回転された後における、カテーテルの表現の仮想投影を例示する。 カテーテルが正規化脈管画像に位置される位置の改善を例示する。
図1は、介入システムの実施例を例示する。 介入システム1は、介入プロシージャを実行するための介入器具3を有する。 この実施例において、介入器具3は、カテーテル制御ユニット15によって制御されるカテーテルである。 カテーテル制御ユニット15及びカテーテル3は、たとえば、患者テーブル26のような支持手段上に横になる人25の心臓24内におけるアブレーションプロシージャを実行する。 しかしながら、カテーテル3及びカテーテル制御ユニット15は、他の介入プロシージャを実行することもできる。 さらに、介入システムは、針のような他の介入器具を有することもできる。 この実施例において、カテーテル3は、高周波(RF)アブレーションプロシージャを適用し、カテーテル制御ユニット15は、RFエネルギーをカテーテル3の先端23に構成されるアブレーション電極に供給する。
カテーテル3は、人25内におけるカテーテル3の位置を決定するための、すなわち、OSSによって人25内におけるカテーテル3の3次元位置及び形状を決定するためのトラッキング制御ユニット4に接続されるOSSファイバを備える。 人25内におけるカテーテル3の位置を決定するために、参照によってここに取り入れられるUS7,772,541B2において開示される技術のような既知のOSS技術が使われることができる。カテーテル3のOSSファイバ及びトラッキング制御ユニット4は、人25内におけるカテーテル3の位置をトラッキングするトラッキング装置とみなされ得る。 さらに、カテーテル3のOSSファイバ及びトラッキング制御ユニット4が位置及び形状を供給し、それによってカテーテル3の表現を供給するため、カテーテル3のOSSファイバ及びトラッキング制御ユニット4は、カテーテル3の3次元位置及び形状によって規定されるカテーテル3の3次元表現を供給するための表現供給ユニットとみなされ得る。
介入システム1は、この実施例において、X線C-アーム装置である投影装置2を更に含む。 投影装置2は、人25を横断するX線19を生成するためのX線源18、及び人25を横断した後のX線を検出するため、及び検出される放射線19に基づいて投影画像を生成するための検出面を備えるX線検出器21を有する。X線源18及びX線検出器21はC-アーム20に付けられ、異なる投影方向で投影画像を収集するために人25の回りに回転できる。 投影装置2は、投影画像を受信し、投影画像をたとえば、位置決定ユニット5及びディスプレイ17に供給する投影装置制御ユニット22によって制御される。
介入システム1は、ユーザが投影画像においてカテーテル3の先端23の位置を示すことを可能にするための入力ユニット16を更に含む。 特に、入力ユニット16は、ユーザが、たとえばコンピュータマウス、キーボード、タッチパッド等を介して投影画像を示すディスプレイ17上にカテーテル3の先端23の位置を示すことを可能にするグラフィカルユーザインタフェースを供給する。入力ユニット16がタッチパッドを含む場合、投影画像はタッチパッド上で示され、タッチパッドは投影画像においてカテーテル3の先端23の位置を示すために用いられ、すなわちこの場合、入力ユニット16及びディスプレイ17は一単一の装置に一体化される。
位置決定ユニット5は、供給される投影画像、供給される3次元表現及び投影画像におけるカテーテル3の先端23の示される位置に基づいて、投影画像においてカテーテル3が位置される位置を決定する。特に、位置決定ユニット5は、a) 検出器21の検出面上の空間変換表現の仮想投影及びb) 投影画像におけるカテーテル3の間の逸脱に依存する類似度が増加されるように、表現を空間変換し、空間変換は、変換表現の仮想投影の先端が投影画像におけるカテーテル3の先端23の示される位置に一致するように表現の変換を含む。優先的には、位置決定ユニット5は更に、空間変換表現に基づいて投影画像においてカテーテル3が位置される位置を決定する。
優先的には位置決定ユニット5によって実行される空間変換は、類似度が増やされるように、変換表現の回転を更に含み、回転は変換表現の先端のまわりの回転角によって規定される。投影画像においてカテーテル3が位置される位置は、優先的には、仮想投影空間変換表現に沿う曲率値に基づいて決定される。 特に、位置決定ユニット5は、優先的には、仮想投影空間変換表現をいくつかのセグメントに分割し、各々のセグメントのために最大曲率値を決定し、各々のセグメントのために決定される各々の最大曲率値の位置に基づいて投影画像においてカテーテル3が位置される位置を決定する。実施例において、位置決定ユニット5は、カテーテル3が投影画像に位置される位置として各々の最大曲率値の位置を各々のセグメントに供給する。
入力ユニット16は、ユーザが投影画像においてカテーテル3の先端23の位置を示すばかりでなく、投影画像におけるカテーテル3の更なる位置を示すことも可能にし、位置決定ユニット5は、供給される投影画像、供給される表現、投影画像におけるカテーテル3の先端の示される位置、及びユーザによって示される更なる位置に基づいて、投影画像においてカテーテル3が位置される位置を決定する。特に、位置決定ユニット5は、ユーザによって示される更なる位置の、投影画像においてカテーテル3が位置される位置の決定に対する寄与を重み付けし、重み付けはユーザによって示される更なる位置の数に依存する。たとえば類似度は、a) 検出器21の検出面上の空間変換表現の仮想投影及びb) 投影画像におけるカテーテル3の間の、第一の逸脱とみなされる、逸脱に依存するばかりでなく、類似度は更に、a) 検出器21の検出面上の空間変換表現の仮想投影及びb) ユーザによって示される更なる位置の間の第二の逸脱に依存する。このように、類似度は、第一の逸脱に依存する第一の類似性及び第二の逸脱に依存する第二の類似性の重み付け結合になることができ、第二の類似性のために使われる重み付けはユーザによって示される更なる位置の数に依存することができる。例えば、第二の類似度のための重み付けは、ユーザによって示される更なる位置の増加する数とともに増加し得る。
介入システム1は、トラッキング装置によって決定されるようにカテーテル3の位置及び形状によって規定される供給される表現、ユーザによって示される一つ又は複数の位置、及び投影画像においてカテーテル3が位置され、位置決定ユニット5によって決定されている位置に基づいて、トラッキング装置との、投影装置2のレジストレーションを規定するレジストレーションパラメータのためのレジストレーションユニット6を更に有する。位置決定ユニット5によって決定されている位置を表し、ユーザによって示される一つ又は複数の位置を表すマーカ及び投影画像はディスプレイ17上に示され、ユーザは入力ユニット16を介して位置を修正し、レジストレーションユニット6はそれから、修正位置に基づいてレジストレーションパラメータを決定する。このように、投影装置2をトラッキング装置にレジストレーションする前に、ユーザは、特に位置決定ユニット5によって決定されている位置を修正する可能性を有する。
レジストレーションユニット6は、投影画像及び表現を互いにレジストレーションするために、レジストレーションパラメータを投影画像及び/又は表現に適用する。レジストレーションされる投影画像及び表現は、カテーテル3が位置されるべき決定位置を表し、ユーザによって示される1つ又は複数の更なる位置を随意に表すマーカと共に、ディスプレイ17上に示される。ユーザは入力ユニット16を介して決定位置を修正し、レジストレーションユニット6は、修正位置に基づいて投影装置及びトラッキング装置の間のレジストレーション及びレジストレーションパラメータを更新し、ディスプレイ17は、修正位置を表すマーカ及び更新レジストレーションに従って投影画像及び表現を示す。このように、ユーザがレジストレーション結果に満足するまで、ユーザは所定の位置を修正する。
投影装置2、トラッキング装置3、4、入力ユニット16、ディスプレイ17、位置決定ユニット5及びレジストレーションユニット6は、投影画像においてカテーテル3が位置される位置を決定する位置決定装置のコンポーネントとみなされる。
以下、投影画像においてカテーテル3が位置される位置を決定する位置決定方法の実施例が、図2に示されるフローチャートに関し、記述される。
ステップ101において、カテーテル3を示す投影画像が投影装置2によって生成される。 さらに、ステップ101において、カテーテル3の3次元位置及び形状がトラッキング装置によって決定され、それによってカテーテル3の3次元表現が規定される。 このステージにおいて、トラッキング装置及び投影装置2は、互いにレジストレーションされない。
ステップ102において、ユーザは入力ユニット16を介して投影画像においてカテーテル3の先端23の位置を示すことが可能であり、ステップ103において、投影画像においてカテーテル3が位置される位置は、位置決定ユニット5によって投影画像におけるカテーテル3の先端23の示される位置、供給される表現及び供給される投影画像に基づいて決定される。ステップ104において、レジストレーションユニット6は、カテーテル3の位置及び形状によって規定される供給される表現及び投影画像においてカテーテル3が位置される決定位置に基づいて、トラッキング装置との、投影装置2のレジストレーションを規定するレジストレーションパラメータを決定する。ステップ105において、投影画像及び表現を互いにレジストレーションするために、レジストレーションパラメータはカテーテル3の投影画像及び/又は表現に適用され、ステップ106において、投影画像はディスプレイ17上にレジストレーションされる表現と共に示される。
投影装置2は、いくつかの投影画像を異なる投影方向に供給し、各々の投影画像において、カテーテル3は示される。入力ユニット16は、ユーザが各投影画像においてカテーテル3の先端23の位置を示すことを可能にし、位置決定ユニット5は、各投影画像に対して、各投影画像、カテーテル3の供給される表現及び各投影画像において示されるカテーテル3の先端23の位置に基づいて、カテーテル3が各投影画像において位置される位置を決定する。特に、位置決定ユニット5は、a) 各投影方向における検出器21の検出面上の空間変換表現の仮想投影及びb) 各投影画像におけるカテーテル3の間の逸脱に依存する類似度が増やされるように、特に最大化されるように表現を空間変換する。このように、各投影画像に対して逸脱は決定され、類似度を供給するために、これらの逸脱は結合、たとえば、線形結合され、類似度が最適化されるように、表現は空間変換される。各投影画像に対して、カテーテル3が各々の投影画像に位置される位置はそれから、各々の仮想投影空間変換表現に基づいて決定される。 特に、各々の仮想投影空間変換表現はいくつかのセグメントに分割され、各々のセグメントに対して最大曲率値が決定され、各々のセグメントのために決定される各々の最大曲率値の位置に基づいて投影画像においてカテーテル3が位置される位置が決定される。
介入システム、特に位置決定装置は、ユーザによって供給されるカテーテル先端位置及びOSSシステム、すなわちトラッキング装置によって生成されるOSSデータを用いることによって、優先的には、X線画像である投影画像においてカテーテルを位置させる。このように、OSSインテロゲータ、すなわちトラッキング装置が、トラッキング装置の座標系に対してカテーテル3の3次元位置及び形状を示すOSSデータを作り続ける一方、ユーザは、投影画像においてOSSイネーブルカテーテル3の先端位置を示す。このステージにおいて、トラッキング装置の座標系及び投影装置の座標系は互いにレジストレーションされないので、OSS決定座標系は、投影装置の座標系に対して知られている座標系と正確に重ね合わされることができない。投影画像においてカテーテル3が存在する位置を決定するために、点のセットが、空間変換され、仮想投影されるカテーテル3の高い湾曲領域から選択される。実施例において、ユーザが投影画像においてカテーテルの先端の位置を示した直後に、新たな点、すなわち更なる位置は決定され、ディスプレイを介して投影画像の上にオーバレイされるユーザにもたらされ、このステージにおいてレジストレーションプロシージャが実行されず、ユーザは、生成される新たな点をチェックすることができ、必要に応じてそれらを修正することができる。いくつかの投影画像が存在する場合、ユーザは必要に応じて他の投影画像において新たな点をここでもチェックすることができ、修正することができる。レジストレーションはそれから、生成される新たな点の位置のユーザの確認及び可能な修正の後に始まる。更なる実施例において、レジストレーションは、さらなる新たな点、すなわちカテーテル3が投影画像内において位置される位置が決定された後にすぐに始まる。トラッキング装置によって決定されるカテーテル3の位置及び形状によって規定されるカテーテル3のレジストレーションされる表現、レジストレーションされる投影画像、及び生成される新たな点を表すマーカはそれから、ディスプレイ上でユーザに示されることができ、ユーザはレジストレーションを受けることができる。代わりに、ユーザは、生成される新たな点の一つ又はそれより多くを修正することができ、及び/又はユーザはさらなる点を投影画像に加えることができ、それからレジストレーションプロシージャのみ、又はレジストレーションプロシージャと共に新たな点の決定は、ユーザによって修正されるか、若しくは新しく加えられた現在の点に基づいて繰り返され得る。いくつかの投影画像が使われる場合、各々の投影画像は、提案されるアルゴリズムが単一のビューレジストレーション更新のために使われるように、別個に処理される。
位置決定ユニット5は、優先的には、投影画像においてカテーテル3を特定するために、供給される投影画像を処理し、処理される供給投影画像は、カテーテル3が投影画像に位置される位置を決定するために、投影画像における、カテーテル3の先端23の示される位置及び供給される表現と共に使われる。特に位置決定ユニット5は、投影画像に基づいて脈管画像を生成し、脈管画像を正規化し、すなわち画像におけるカテーテルピクセルを強調する脈管画像は、例えば[1,10]になる所定の一定の画像値範囲にマッピングされる。脈管画像を生成するために、参照によってこれと共に取り入れられる、A. F. Frangi、W. J.ニーセン、K. L. Vincken、及びM. A. Viergeverによる記事「マルチスケール脈管強調フィルタリング」(医学画像計算及びコンピュータ支援介入(MICCAI)、コンピュータサイエンス講義ノート、第1496巻、130〜137頁 (1998))において開示される方法のようなよく知られている方法が使われることができる。
図3は、カテーテル3を示す投影画像57を例示する。 脈管画像を生成するために、この投影画像57は処理される。脈管画像を正規化するために、脈管画像は、優先的には、MxNブロックに分けられ、各々のブロック内において、最大画像値を備える画像要素、すなわちピクセルはシードとして検出され、シードは、それらの各々の画像値、すなわちそれらの各々の脈管値に従ってランク付けされる。このシードのランク付けに基づいて、何れの脈管値が何れの正規化値にマッピングされるべきかを規定する量子化レベルは決定される。特に、量子化レベルは、ランク付けられたシードを所望の量子化レベルの数に対応するいくつかのグループに細分化する境界シードを決定することによって決定される。境界シードは、優先的には、ランク付けられたシードに沿って等しく分布され、同じサイズを有するグループを規定する。量子化レベルはそれから、境界シードの強度によって規定される。 たとえば、100のシードがあり、9つの量子化レベルが所望される場合、第一の境界シードはランク付けられたリストの第10のシードになることができ、第二の境界シードはランク付けられたリストの第20のシードになることができる。第10のシードの強度はそれから、第一の量子化レベルを規定し、第20のシードの強度は第二の量子化レベルを規定する。 量子化レベルの数は、当然のことながら、9より大きくなるか、又は小さくなり得る。 たとえば、実施例において、量子化レベルL1… L4は、図4において図示されるように、画像値Iを五つのレンジに分割し、各々のレンジは対応する正規化画像値INにマッピングされる。正規化脈管画像59は、図5に図示される。
位置決定ユニット5は、優先的には、正規化脈管画像に基づいて距離マップを決定し、距離マップの画像値は、カテーテル3の最も近いピクセルに対する距離マップの各々のピクセルの距離を示す。カテーテル3のピクセルを推定するために、正規化脈管画像は、閾値化される。 たとえば、元の脈管画像を[1,10]のレンジにマッピングすることによって正規化脈管画像が生成される場合、6より大きいか、又は等しい画像値を示すことのみによって正規化脈管画像は閾値化される。それから、距離マップは閾値化画像に基づいて計算される。
位置決定ユニット5は、投影画像におけるカテーテル3の先端23の位置を知っていて、更にトラッキング装置によって決定されるように、カテーテル3の未レジストレーション3次元位置及び形状も知っている。 位置決定装置5は、投影画像においてカテーテル3をローカライズするためにこの情報を使う。ローカライゼーションは近似的であり、ピクセル単位の精度である必要はなく、すなわちショートカット及び近似が各々の投影画像においてカテーテル3をローカライズするために使われる。通常、検出器の検出面上へのその投影が投影画像に示されるカテーテル3に対応するように、カテーテル3の所定の3次元位置及び形状によって規定されるカテーテル3の表現を空間変換するためにリジッド変換パラメータを決定することは、6次元空間におけるサーチを必要とする。しかしながら、先端位置がユーザによって示される場合、サーチは3次元空間のみにおける回転パラメータを探すことに低減され得る。 それ故に、位置決定ユニット5は、投影画像上への表現の先端の投影が、ユーザによって示されるように投影画像におけるカテーテル3の先端の位置にアラインされるように、カテーテル3の3次元表現を変換する。特に、位置決定ユニット5は、優先的には、その先端の投影が距離マップにおけるカテーテルの先端に対応するように、カテーテル3の3次元表現を変換する。しかしながら、実施例において、変換は、元の投影画像に基づいて、又は投影画像におけるカテーテルの位置を推定するための他の方法で処理されている投影画像に基づいて実行されることもできる。
投影装置が異なる投影方向でカテーテル3を示すいくつかの投影画像を供給した場合、位置決定ユニット5は、変換される表現の仮想投影の先端が、異なる投影画像においてユーザによって示されるカテーテル3の先端23の位置に一致するように、トラッキング装置を用いて決定される3次元位置及び形状によって規定される、カテーテル3の3次元表現を変換することができる。
図6は、カテーテル3及び表現を変換する前のカテーテル3の3次元表現の仮想投影51を示す投影画像52を例示する。図7は、仮想投影51の先端が投影画像52におけるカテーテル3の先端と一致するように、表現が変換された後のカテーテル3の表現の仮想投影51を例示する。
位置決定ユニット5は、優先的には、a) 各々の投影ジオメトリーにおける検出器21の検出面上の変換及び回転表現の仮想投影及びb) 投影画像におけるカテーテル3の間の逸脱に依存する類似度が増加されるように、その変換される先端のまわりで表現を回転させる。逸脱は、たとえば、各々の仮想投影に関して示されるカテーテル3上、並びに変換及び回転表現の仮想投影上の最も近い点の間の二乗距離の和を計算することによって決定されることができる。他の距離測定が、検出器の検出面上の変換及び回転表現の仮想投影並びに投影画像におけるカテーテル3の間の類似の程度を示すためにも使われてもよい。逸脱を決定するために、元の投影画像又は処理投影画像、特に距離マップが使われ、投影画像内のカテーテル3の位置は、上記の閾値化されるセグメンテーションによって決定される。カテーテル3の表現の回転の決定は更に、ユーザによって入力され、投影画像におけるカテーテルの先端の位置以外の位置を示す、投影画像における位置に基づくことができる。 特に、表現の回転を決定するために、第一の画像に基づく類似度及び第二のユーザポイントに基づく類似度が使われることができ、これらの2つの度は、全類似度を提供するために線形結合されることができ、全類似度が増やされ、特に最大化されるように、変換される先端のまわりで回転されることができる。全類似度Stは、以下の等式
Figure 2018501834
Figure 2018501834
によって規定され、ここで、Wiは第一の画像に基づく類似度Siを重み付けするための第一の重み付けを示し、Wuは第二のユーザ入力に基づく類似度Suを重み付けするための第二の重み付けを示す。 重み付けWuは、投影画像における先端位置以外のカテーテルの位置を示すユーザ-入力位置の数と共に増加する。 たとえば、各々の更なるユーザ-入力位置は、0.7の最大値により重み付けWuを0.2だけ増やす。図8は、表現が変換及び回転された後の、処理される投影画像53上における表現の仮想投影51を例示する。
位置決定ユニット5は、優先的には、仮想的に投影並びに変換及び回転される表現に沿って非オーバーラップセグメントを規定し、各々のセグメントのために最大曲率値を決定し、各々のセグメントのために各々の最大曲率値の位置が、投影画像においてカテーテル3が位置される各々の候補位置として供給される。これらの決定位置は、投影画像に示されるカテーテル3を用いて絞り込まれる。 たとえば、各々の決定位置に対して、投影画像における最も近いカテーテルピクセルが決定され、この最も近いカテーテルピクセルの位置は絞り込み位置になる。 特に、各々の候補位置に対して、すなわち曲率値に基づいて決定される各々の位置に対して、ローカル曲線は、候補位置に先行及び後続する仮想投影表現の部分を用いることによって決定されることができる。それから、ローカル曲線と直角になり、候補位置と交差するサーチパスは規定されることができ、サーチパス上の各々の位置に対して、投影画像に示されるカテーテルまでの距離は決定される。最も低い距離を持つ位置は、優先的には、投影画像においてカテーテルが存在する、絞り込み位置を規定する。最も低い距離が所定の値より大きい場合、又は顕著な最小距離が存在しない場合、絞り込み位置は決定されることができず、対応する候補位置は拒絶される。 図9は、カテーテル3に関する候補位置54及び絞り込み位置55を備える、処理される投影画像58を示す。 図9は、絞り込み位置55を決定するために使われるサーチパス56をさらに示す。
絞り込み位置は、投影画像におけるカテーテルの先端の位置に最も遠い絞り込み位置を選ぶことによってさらに処理される。残りの絞り込み位置は、対応する候補位置のために決定される曲率値に従ってランク付けられる。 それから、最も高いランク付けの絞り込み位置から始めて、何れのさらなる絞り込み位置が選ばれるべきかが決められる。 絞り込み位置が選択のために考慮されるとき、すべての初期の選択絞り込み位置までのその距離は計算される。 最も近い距離が所定の最小距離より小さい場合、絞り込み位置は選ばれない。それから、選択プロセスは、たとえば、すべての絞り込み位置が処理されるまで、又は絞り込み位置の所望の数が選ばれるまで、ランク付けられた高い湾曲絞り込み位置のリストにおける次の絞り込み位置から進められる。他の実施例において、この種の選択は実行されず、すなわち、絞り込み位置は直接、投影画像においてカテーテルが位置される位置として、位置決定ユニット5によって決定される位置になる。さらに、一つの実施例において、この種の選択が実行されるが、絞り込みは実行されず、この場合、選択は、変換及び回転される表現の仮想投影の各々のセグメントの各々の最大曲率値の位置に適用される。
位置決定ユニット5は、仮想投影を、同じ長さを有する所定の数の部分に分割することによって変換及び回転される表現の仮想投影に沿って非オーバーラップセグメントを規定する。しかしながら、位置決定ユニットは、他の方法でも仮想投影を分割する。
レジストレーションユニットは、投影画像においてカテーテルが位置される決定位置に基づいて、レジストレーション表現とみなされる、二次元表現を生成する。 たとえば、二次元レジストレーション表現は、マルチラインセグメントにより決定位置をつなぐことによって、曲線を位置にフィッティングすること等によって生成される。この二次元レジストレーション表現は、異なる投影方向で生成される、異なる投影画像において決定され、レジストレーションユニットは、カテーテルのトラッキング位置及び異なる投影画像における二次元レジストレーション表現の位置に基づいてレジストレーションパラメータを決定する。特に、レジストレーションユニットは、異なる投影画像を生成するために投影装置により用いられる投影ジオメトリーを考慮して、カテーテルのトラッキング位置及び形状によって規定されるように、3次元カテーテル表現の二次元仮想投影を計算することによって、トラッキング装置によって規定される座標系及び投影装置によって規定される座標系の間の空間変換を計算することによってレジストレーションパラメータを決定し、a) トラッキング位置及び形状によって規定される3次元カテーテル表現の計算二次元仮想投影及びb) 二次元投影画像における二次元レジストレーション表現の位置の間の逸脱が最小化される。
上記実施例において、投影画像はカテーテルを示し、トラッキングデバイスはカテーテルの位置及び形状を決定するが、他の実施例において、投影画像は他の介入器具を示すことができ、トラッキングデバイスは他の介入器具の位置及び形状を決定することができる。 介入器具は、投影画像によって示され、3次元表現が供給されることができる、何れの介入器具にもなることができる。特に、介入器具は、位置及び形状を決定するために光学形状検出ファイバを有する何れの介入器具にもなることができ、OSSに基づいて3次元表現が規定される。
トラッキング装置がイメージング装置とレジストレーションされた後、投影装置及び更なるイメージング装置が互いにレジストレーションされる場合、介入器具のトラッキング位置は、投影装置によって収集されるか、又は他の更なるイメージング装置によって収集された更なる画像において示されることもできる。これらの更なる画像は、たとえば、介入プロシージャの前又は介入プロシージャの間に収集される、投影画像、コンピュータ断層撮影画像、磁気共鳴投影画像等になり得る。 さらに、図1に関して上述の介入システムはアブレーションプロシージャを実行するが、他の実施例において、介入システムは他の介入プロシージャを実行する。
上記の実施例において、投影画像供給ユニットはX線投影画像を供給するが、他の実施例において、投影画像供給ユニットは光投影画像、すなわちX線によって生成されないが、光、特に可視光によって生成される投影画像を供給することもできる。 たとえば、投影画像供給ユニットは、光学カメラ、特に可視光によって検出される光を用いることによって介入器具を電荷結合素子(CCD)カメラのような光学カメラの二次元の検出面に投影することによって生成される投影画像を供給することができる。この光投影画像は、優先的には、介入器具がたとえば人体内にない間、生成される。このように、介入器具が、人体内における介入プロシージャを実行するために人に導入される場合、光投影画像は、優先的には、介入器具を人に導入する前に生成される。
上記の実施例において、トラッキング装置はOSSによって介入器具の位置及び形状を決定するが、他の実施例において、トラッキングデバイスは電磁(EM)トラッキング技術のような他のトラッキング技術を用いて介入器具の位置及び形状を決定する。 特に、いくつかのEMセンサーは、介入器具の少なくともこの部分の位置及び形状を決定するために、少なくとも介入器具の一部に沿って配置される。優先的には、OSS及び/又はEMトラッキング技術のような非画像ベースのトラッキング技術が使われる。
開示の実施例に対する他のバリエーションは、図面、開示、及び従属請求項の検討から特許請求の範囲に記載の発明を実施する当業者によって理解され得ると共にもたらされ得る。
クレームにおいて、"有する"という語は他の要素若しくはステップを除外せず、不定冠詞"a"若しくは"an"は複数を除外しない。
単一のユニット若しくは装置がクレームに列挙される複数の項目の機能を満たしてもよい。特定の手段が相互に異なる従属クレームに列挙されているという単なる事実はこれら手段の組み合わせが有利に使用されることができないことを示すものではない。
1つ又は複数のユニット又は装置によって実行される、表現の空間変換のようなプロシージャ、類似度の決定、空間変換表現に基づく投影画像においてカテーテルが位置される位置の決定等は、他の何れの数のユニット又は装置によっても実行されることができる。位置決定方法に従う位置決定ユニットの制御は、コンピュータプログラムのプログラムコード手段及び/又は専用のハードウェアとして実行されることができる。
コンピュータプログラムは他のハードウェアと一緒に若しくはその一部として供給される光学記憶媒体若しくは固体媒体な何れの適切な媒体上に記憶及び/又は分配され得るが、インターネット又は有線若しくは無線通信システムなどを介して他の形式で分配されてもよい。
請求項の参照番号は、これらの請求項の保護範囲を限定するものではない。
本発明は、投影画像においてカテーテルのような介入器具が位置される位置を決定する位置決定装置に関する。 入力ユニットは、ユーザが投影画像において介入器具の先端の位置を示すことを可能にし、投影画像における介入器具が位置される位置は、OSS装置のようなトラッキング装置によって決定されるようにその位置及び形状によって規定される、投影画像、示される先端位置及び介入器具の3次元表現に基づいて決定される。投影画像、示される先端位置及び表現を用いることによって、介入器具が位置される投影画像における位置は、非常に正確に決定されることができる。 これらの決定位置に基づいて、投影装置及びトラッキング装置は、非常に正確に互いにレジストレーションされることができる。

Claims (14)

  1. 投影画像において介入器具が位置される位置を決定する位置決定装置であって、前記位置決定装置は、
    -前記介入器具を示し、投影装置によって生成される投影画像を供給する投影画像供給ユニットと、
    -前記介入器具の前記位置をトラッキングするトラッキング装置によって決定されるように前記介入器具の位置及び形状によって規定される前記介入器具の3次元表現を供給する表現供給ユニットと、
    -ユーザが前記投影画像における前記介入器具の先端の前記位置を示すことを可能にする入力ユニットと、
    -前記供給される投影画像、前記供給される表現、及び前記投影画像における前記介入器具の前記先端の前記示される位置に基づいて前記投影画像において前記介入器具が位置される位置を決定する位置決定ユニットと
    を有する、位置決定装置。
  2. 前記位置決定ユニットは、
    -a) 検出器の検出面上の空間変換表現の仮想投影及びb) 前記投影画像における前記介入器具の間の逸脱に依存する類似度が増加されるように、前記表現を空間変換し、前記空間変換は、前記変換表現の前記仮想投影の前記先端が前記投影画像における前記介入器具の前記先端の前記示される位置に一致するように前記表現の変換を含み、
    -前記空間変換表現に基づいて前記投影画像において前記介入器具が位置される前記位置を決定する、
    請求項1に記載の位置決定装置。
  3. 前記空間変換は、前記類似度が増やされるように、前記変換表現の回転を含む、請求項2に記載の位置決定装置。
  4. 前記位置決定ユニットは、前記仮想投影空間変換表現に沿って曲率値を決定し、前記曲率値に基づいて前記投影画像において前記介入器具が位置される前記位置を決定する、請求項2に記載の位置決定装置。
  5. 前記位置決定ユニットは、
    -前記仮想投影空間変換表現をいくつかのセグメントに分割し、
    -前記各々のセグメントのために最大曲率値を決定し、
    -前記各々のセグメントのために決定される前記各々の最大曲率値の前記位置に基づいて前記投影画像において前記介入器具が位置される前記位置を決定する、
    請求項4に記載の位置決定装置。
  6. 前記入力ユニットは、前記ユーザが前記投影画像において前記介入器具の更なる位置を示すことを可能にし、前記位置決定ユニットは、前記供給される投影画像、前記供給される表現、前記投影画像における前記介入器具の前記先端の前記示される位置、及び前記ユーザによって示される前記更なる位置に基づいて、前記投影画像において前記介入器具が位置される位置を決定する、請求項2に記載の位置決定装置。
  7. 前記位置決定ユニットは、前記投影画像において前記介入器具が位置される前記位置の前記決定に対する、前記ユーザによって示される前記更なる位置の寄与を重み付けし、前記重み付けは前記ユーザによって示される前記更なる位置の数に依存する、請求項6に記載の位置決定装置。
  8. 前記位置決定装置は、前記介入器具の前記位置及び形状によって規定される前記供給される表現及び前記投影画像において前記介入器具が位置される前記決定される位置に基づいて、前記トラッキング装置との、前記投影装置のレジストレーションを規定するレジストレーションパラメータを決定するレジストレーションユニットを更に有する、請求項1に記載の位置決定装置。
  9. 前記位置決定装置は、前記投影画像において前記介入器具が位置される前記決定される位置を表すマーカ及び前記投影画像を示すディスプレイを更に有し、前記入力ユニットは、前記ユーザが前記決定される位置を修正することを可能にし、前記レジストレーションユニットは、前記修正される位置に基づいて前記レジストレーションパラメータを決定する、請求項8に記載の位置決定装置。
  10. 前記レジストレーションユニットは、前記投影画像及び前記表現を互いにレジストレーションするために、前記レジストレーションパラメータを前記投影画像又は前記表現に適用し、前記位置決定装置は、前記投影画像において前記介入器具が位置される前記決定される位置を表すマーカ及び前記表現と共に前記投影画像を示すためのディスプレイを更に有し、前記入力ユニットは、前記ユーザが前記決定される位置を修正することを可能にし、前記レジストレーションユニットは、前記修正される位置に基づいて前記レジストレーションパラメータ並びに前記投影画像及び前記表現の間の前記レジストレーションを更新し、前記ディスプレイは、前記修正される位置を表すマーカ及び前記更新されるレジストレーションに従って前記介入器具の前記表現と共に前記投影画像を示す、請求項8に記載の位置決定装置。
  11. 前記レジストレーションユニットは、前記投影画像及び前記表現を互いにレジストレーションするために、前記投影画像供給ユニットによって供給される投影画像及び/又は前記表現供給ユニットによって供給される表現に前記レジストレーションパラメータを適用し、前記位置決定装置は、前記レジストレーションされる表現と共に前記投影画像を示すためのディスプレイを更に有する、請求項8に記載の位置決定装置。
  12. - 被験体内において介入プロシージャを実行するための介入器具と、
    - 前記介入器具のレジストレーションされる表現と共に前記被験体を示す投影画像を示すための、請求項11に記載の位置決定装置と
    を有する、介入システム。
  13. 介入器具を示す投影画像において前記介入器具が位置される位置を決定する位置決定方法であって、前記位置決定方法は、
    -投影画像供給ユニットにより、前記介入器具を示し、投影装置によって生成されている投影画像を供給するステップと、
    -表現供給ユニットにより、前記介入器具の前記位置をトラッキングするトラッキング装置によって決定されるように前記介入器具の位置及び形状によって規定される前記介入器具の3次元表現を供給するステップと、
    -入力ユニットにより、ユーザが前記投影画像における前記介入器具の先端の前記位置を示すことを可能にするステップと、
    - 位置決定ユニットにより、前記供給される投影画像、前記供給される表現、及び前記投影画像における前記介入器具の前記先端の前記示される位置に基づいて前記投影画像において前記介入器具が位置される位置を決定するステップと
    を有する、位置決定方法。
  14. 介入器具を示す投影画像において前記介入器具が位置される位置を決定するためのコンピュータプログラムであって、前記コンピュータプログラムは、前記位置決定装置を制御する前記コンピュータプログラムがコンピュータ上で実行されるとき、請求項1に記載の位置決定装置に、請求項13に記載の位置決定方法のステップを実行させるためのプログラムコード手段を有する、コンピュータプログラム。
JP2017526860A 2014-11-27 2015-11-23 投影画像における介入器具の位置を決定する装置 Ceased JP2018501834A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14195188 2014-11-27
EP14195188.9 2014-11-27
PCT/EP2015/077297 WO2016083275A1 (en) 2014-11-27 2015-11-23 Apparatus for determining positions of an interventional instrument in a projection image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020130259A Division JP7284736B2 (ja) 2014-11-27 2020-07-31 投影画像における介入器具の位置を決定する装置

Publications (2)

Publication Number Publication Date
JP2018501834A true JP2018501834A (ja) 2018-01-25
JP2018501834A5 JP2018501834A5 (ja) 2018-12-20

Family

ID=52002752

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017526860A Ceased JP2018501834A (ja) 2014-11-27 2015-11-23 投影画像における介入器具の位置を決定する装置
JP2020130259A Active JP7284736B2 (ja) 2014-11-27 2020-07-31 投影画像における介入器具の位置を決定する装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020130259A Active JP7284736B2 (ja) 2014-11-27 2020-07-31 投影画像における介入器具の位置を決定する装置

Country Status (5)

Country Link
US (1) US10586338B2 (ja)
EP (1) EP3224804B1 (ja)
JP (2) JP2018501834A (ja)
CN (1) CN106999130B (ja)
WO (1) WO2016083275A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10586338B2 (en) 2014-11-27 2020-03-10 Koninklijke Philips N.V. Apparatus for determining positions of an interventional instrument in a projection image
WO2017117369A1 (en) 2015-12-31 2017-07-06 Stryker Corporation System and methods for performing surgery on a patient at a target site defined by a virtual object
JP6637781B2 (ja) * 2016-02-15 2020-01-29 株式会社日立製作所 放射線撮像装置及び画像処理プログラム
JP2019522529A (ja) * 2016-06-22 2019-08-15 エスワイエヌシー−アールエックス、リミテッド 内腔に沿った管腔内デバイスの管腔内経路の推定
US10631798B2 (en) 2017-01-16 2020-04-28 Biosense Webster (Israel) Ltd. Seeing through mucus in an ENT procedure
EP3542747A1 (en) 2018-03-22 2019-09-25 Koninklijke Philips N.V. Visualization system for visualizing an alignment accuracy
DE102018108643A1 (de) * 2018-04-11 2019-11-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Positionsbestimmungsvorrichtung zum Bestimmen einer Position eines Gegenstands innerhalb einer tubulären Struktur
LU101009B1 (en) * 2018-11-26 2020-05-26 Metamorphosis Gmbh Artificial-intelligence-based determination of relative positions of objects in medical images
US20230088132A1 (en) 2021-09-22 2023-03-23 NewWave Medical, Inc. Systems and methods for real-time image-based device localization

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290192A (ja) * 2002-03-11 2003-10-14 Siemens Ag 患者の検査領域に導入された医療器具の画像描出方法
US20080095421A1 (en) * 2006-10-20 2008-04-24 Siemens Corporation Research, Inc. Registering 2d and 3d data using 3d ultrasound data
JP2011156321A (ja) * 2010-01-06 2011-08-18 Toshiba Corp X線透視装置及びx線透視画像処理方法
JP2011254847A (ja) * 2010-06-04 2011-12-22 Toshiba Corp X線撮影装置
JP2014518117A (ja) * 2011-06-27 2014-07-28 コーニンクレッカ フィリップス エヌ ヴェ X線画像に対する外科的ツールカーブの登録を用いたライブ3d血管造影

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6343936B1 (en) * 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
CN1836255A (zh) * 2003-08-14 2006-09-20 西门子共同研究公司 虚拟内窥镜图像的配准的方法和设备
US20050053270A1 (en) * 2003-09-05 2005-03-10 Konica Minolta Medical & Graphic, Inc. Image processing apparatus and signal processing apparatus
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
JP4153963B2 (ja) * 2006-06-12 2008-09-24 オリンパスメディカルシステムズ株式会社 内視鏡挿入形状検出装置
US7812050B2 (en) * 2006-07-07 2010-10-12 Cenerx Biopharma, Inc. Polymorphic form of fluoro-7-(2,2,2-trifluoroethoxy) phenoxathiin-10,10-dioxide
RU2464931C2 (ru) * 2006-11-28 2012-10-27 Конинклейке Филипс Электроникс Н.В. Устройство для определения положения первого объекта во втором объекте
EP2626027B1 (en) * 2007-08-14 2020-04-29 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
US7720322B2 (en) 2008-06-30 2010-05-18 Intuitive Surgical, Inc. Fiber optic shape sensor
CN102934126A (zh) * 2010-04-30 2013-02-13 沃康普公司 放射摄影图像中的微钙化检测和分级
US20130030363A1 (en) 2011-07-29 2013-01-31 Hansen Medical, Inc. Systems and methods utilizing shape sensing fibers
US9429696B2 (en) 2012-06-25 2016-08-30 Intuitive Surgical Operations, Inc. Systems and methods for reducing measurement error in optical fiber shape sensors
US20140027598A1 (en) * 2012-07-28 2014-01-30 Amelia GIROL Receptacle liquid extractor
US10588597B2 (en) 2012-12-31 2020-03-17 Intuitive Surgical Operations, Inc. Systems and methods for interventional procedure planning
US9629595B2 (en) * 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
JP6153366B2 (ja) * 2013-03-29 2017-06-28 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP6480938B2 (ja) * 2013-09-06 2019-03-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ナビゲーションシステム
US10586338B2 (en) 2014-11-27 2020-03-10 Koninklijke Philips N.V. Apparatus for determining positions of an interventional instrument in a projection image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290192A (ja) * 2002-03-11 2003-10-14 Siemens Ag 患者の検査領域に導入された医療器具の画像描出方法
US20080095421A1 (en) * 2006-10-20 2008-04-24 Siemens Corporation Research, Inc. Registering 2d and 3d data using 3d ultrasound data
JP2011156321A (ja) * 2010-01-06 2011-08-18 Toshiba Corp X線透視装置及びx線透視画像処理方法
JP2011254847A (ja) * 2010-06-04 2011-12-22 Toshiba Corp X線撮影装置
JP2014518117A (ja) * 2011-06-27 2014-07-28 コーニンクレッカ フィリップス エヌ ヴェ X線画像に対する外科的ツールカーブの登録を用いたライブ3d血管造影

Also Published As

Publication number Publication date
US20170358091A1 (en) 2017-12-14
CN106999130B (zh) 2022-03-01
US10586338B2 (en) 2020-03-10
WO2016083275A1 (en) 2016-06-02
EP3224804A1 (en) 2017-10-04
JP7284736B2 (ja) 2023-05-31
CN106999130A (zh) 2017-08-01
EP3224804B1 (en) 2021-02-24
JP2020189111A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
JP7284736B2 (ja) 投影画像における介入器具の位置を決定する装置
JP6511050B2 (ja) イメージング装置を追跡装置と位置合わせする位置合わせシステム、イメージングシステム、介入システム、位置合わせ方法、イメージングシステムの作動方法、位置合わせコンピュータプログラム、及びイメージングコンピュータプログラム
JP6130856B2 (ja) ポジション決定装置
JP2017217510A (ja) 手術中の位置調整および誘導を容易にするシステム
AU2015238800B2 (en) Real-time simulation of fluoroscopic images
JP2018526049A (ja) インピーダンス・シフトおよびドリフトの検出および補正
CN107106241A (zh) 用于对外科器械进行导航的系统
WO2017093034A1 (en) Method and apparatus for determining or predicting the position of a target
Dang et al. Robust methods for automatic image‐to‐world registration in cone‐beam CT interventional guidance
US10602959B2 (en) Position determination apparatus
JP2019511268A (ja) 脳深部刺激療法の電極の三次元画像における回転配向の決定
US20220277477A1 (en) Image-based guidance for navigating tubular networks
JP2018183582A (ja) 骨組織への視覚的近接性に基づく、解剖学的画像の位置追跡座標系との位置合わせの改善
JP2016534811A (ja) 位置及び形状決定装置に対する撮像装置の位置合せを支援するための支援機器
CN108430376B (zh) 提供投影数据集
US11657519B2 (en) Method for deformation correction
US20220096165A1 (en) Interventional device tracking
CN118037784A (en) Techniques for determining surface registration based on mechanically acquired tissue surface data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200702

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20201119