JP2022550876A - 追跡の不正確性の補償 - Google Patents
追跡の不正確性の補償 Download PDFInfo
- Publication number
- JP2022550876A JP2022550876A JP2022520571A JP2022520571A JP2022550876A JP 2022550876 A JP2022550876 A JP 2022550876A JP 2022520571 A JP2022520571 A JP 2022520571A JP 2022520571 A JP2022520571 A JP 2022520571A JP 2022550876 A JP2022550876 A JP 2022550876A
- Authority
- JP
- Japan
- Prior art keywords
- data
- spatial
- computer
- tracking
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 78
- 238000003384 imaging method Methods 0.000 claims description 66
- 238000013500 data storage Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000012795 verification Methods 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 5
- 238000002601 radiography Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000002594 fluoroscopy Methods 0.000 claims description 2
- 238000000968 medical method and process Methods 0.000 claims description 2
- 239000003550 marker Substances 0.000 description 40
- 238000012545 processing Methods 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 17
- 210000003484 anatomy Anatomy 0.000 description 16
- 238000001514 detection method Methods 0.000 description 14
- 238000002595 magnetic resonance imaging Methods 0.000 description 9
- 230000005855 radiation Effects 0.000 description 9
- 230000003190 augmentative effect Effects 0.000 description 8
- 206010028980 Neoplasm Diseases 0.000 description 7
- 238000002591 computed tomography Methods 0.000 description 7
- 238000002059 diagnostic imaging Methods 0.000 description 7
- 238000001356 surgical procedure Methods 0.000 description 7
- 239000011521 glass Substances 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000002604 ultrasonography Methods 0.000 description 6
- 230000005670 electromagnetic radiation Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 5
- 208000003174 Brain Neoplasms Diseases 0.000 description 3
- 238000007408 cone-beam computed tomography Methods 0.000 description 3
- 239000007943 implant Substances 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 239000002872 contrast media Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012829 orthopaedic surgery Methods 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- JBRZTFJDHDCESZ-UHFFFAOYSA-N AsGa Chemical compound [As]#[Ga] JBRZTFJDHDCESZ-UHFFFAOYSA-N 0.000 description 1
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002091 elastography Methods 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000002673 radiosurgery Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002211 ultraviolet spectrum Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/12—Devices for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/486—Diagnostic techniques involving generating temporal series of image data
- A61B6/487—Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10064—Fluorescence image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
Abstract
Description
次に、本発明の特定の特徴を簡単に説明する。この説明は、本発明を、この節において説明される1つの特徴または複数の特徴の組み合わせのみに限定するものではない。
この節では、例えば、本発明の可能な実施形態を参照することによって、本発明の一般的な特徴を説明する。
- 追跡可能な装置の単一の空間的配置または複数の空間的配置、
- 追跡可能な装置の空間的配置の範囲、および、
- 追跡可能な装置の軌道、
のうちの少なくとも1つを含む。
- 投影画像における身体部位の投影を、空間画像データから再構築された身体部位の二次元表現に適合させること、および/または、
- 投影画像における追跡可能な装置の投影を、追跡装置の三次元形状を記述するデータから再構築された追跡装置の二次元表現に適合させること、を含んでいる。
- 追跡可能な装置の三次元空間における空間的配置に対して、特に追跡可能な装置を保持する原動機付き支持構造を対応して制御することによって、適用されるものであってもよく、または、
- 医用追跡システムによって検出された追跡可能な器具の空間的配置に対して、特に医用ナビゲーションシステムのグラフィカルユーザインターフェース上に示される追跡可能な装置の表現の空間的位置に対して、適用されるものであってもよい。
追跡可能な装置に結合された1つまたは複数の追跡マーカーの空間的配置を決定するために適合された、
- 光学的追跡システム、特にIR追跡システム、
- 電磁的(EM)追跡システム、および
- 超音波追跡システム、
からなるグループから選択された医用追跡システムにより取得されるものであってもよく、
特に、これらの追跡システムまたは追加の追跡システムはさらに、少なくとも
- 解剖学的身体部位、および
- 投影撮像装置、特に、その放射部および/または検出器、
の空間的配置を決定するために適合されているものであってもよい。
a)第4の態様に従う少なくとも1つのコンピュータ、
b)少なくとも空間画像データを保存する少なくとも1つの電子データストレージ装置(3)、および、
c)患者に対して医療手順を行うための追跡可能な装置(4)であって、少なくとも1つのコンピュータが動作可能に結合されている追跡可能な装置、
を含む医用システムに関する。
また、本発明は、医療手順を実行するための装置/システムまたはその任意の実施形態の使用に関するものである。
この節では、本開示の一部として、本開示で使用される特有の用語の定義が提供される。
本発明に従う方法は、コンピュータが実行する方法である。例えば、コンピュータ(例えば、少なくとも1つのコンピュータ)は、本発明に従う方法の全てのステップまたは幾つかのステップのみ(すなわち、全てのステップよりも少数のステップ)を実行することができる。コンピュータが実行する方法の一実施形態は、データ処理方法を実行するためにコンピュータを使用することである。コンピュータが実行する方法の一実施形態は、コンピュータが本方法の1つの、複数の、または全てのステップを実行するように操作されるようなコンピュータの操作に関する方法である。
「データを取得する」という表現には、例えば、(コンピュータが実行する方法のフレームワークにおいて)コンピュータが実行する方法またはプログラムがデータを決定する(特定する、定める、判定する)ことが含まれる。データを決定することには、例えば、物理量を測定し、その測定値を、例えばデジタルデータのような、データに変換すること、および/または、そのデータをコンピュータにより計算すること、特に、本発明に従う方法のフレームワークにおいてデータを計算する(および、例えば、出力する)ことが含まれる。本明細書に記載されている「決定する」ステップは、例えば、本明細書に記載されている決定を実行するためのコマンドを発行することを含むか、またはそのコマンドを発行することから構成される。例えば、このステップは、コンピュータ、例えばリモートコンピュータ、例えばリモートサーバ、例えばクラウドに、決定を実行させるためのコマンドを発行することを含むか、またはそのコマンドを発行することから構成される。その代わりにまたはそれに加えて、本明細書に記載されている「決定する」ステップは、例えば、本明細書に記載されている決定の結果としてのデータを受信すること、例えば、決定を実行させたそのリモートコンピュータから結果としてのデータを受信すること、を含むか、またはそのデータを受信することから構成される。例えば、「データを取得する」の意味には、コンピュータが実行する方法またはプログラムが、例えば別のプログラム、該方法の先行するステップ、またはデータ記憶媒体からのデータを、例えばコンピュータが実行する方法またはプログラムによる後の処理のために、受け取ることまたは取り出すこと(例えば、そのデータがプログラムに入力されること)も含まれる。本発明に従う方法において、取得されるデータの生成は、本発明に従う方法の一部であってもよいが、そうである必要はない。したがって、「データを取得する」という表現は、例えば、データを受け取るために待機すること、および/またはそのデータを受け取ることを意味する場合もある。受け取られたデータは、例えば、インターフェースを介して入力されるものであってもよい。また、「データを取得する」という表現は、コンピュータが実行する方法またはプログラムが、例えばデータ記憶媒体(例えば、ROM、RAM、データベース、ハードドライブ等)のようなデータ源から、または(例えば、別のコンピュータまたはネットワークから)インターフェースを介して、データを(能動的に)受け取るまたは取り出すためのステップを実行することを意味する場合もある。
身体のn次元画像は、実際の物体(例えば、手術室内の身体部位)の空間内の各点の空間的位置が、ナビゲーションシステムに保存されている画像(CT、MR、等々)の画像データポイントに割り当てられるとき、照合(レジスタリング)される。
画像の照合(レジストレーション)は、様々なデータの集合を、1つの座標系に変換する処理である。データは、複数の写真、および/または、様々なセンサー、様々な時刻、もしくは様々な視点からのデータであってもよい。画像の照合は、コンピュータビジョン、医用イメージング、および、人工衛星からの画像およびデータの編集または解析において使用される。照合は、これらの様々な測定によって取得されたデータを比較または統合することを可能にするために必要となるものである。
マーカーの機能は、その空間的配置(すなわち、その空間的位置および/または配向)が確認できるように、マーカー検出装置(例えば、カメラ、または超音波受信器、あるいは、CT装置またはMRI装置のような解析装置)によって検出されることである。検出装置は、例えば、ナビゲーションシステムの一部である。マーカーは能動マーカーであってもよい。能動マーカーは、例えば、電磁放射および/または電磁波を放射するものであってもよく、この場合、このような輻射は、赤外線、可視光線、おおよび/または紫外線のスクペトル範囲にあるものであってもよい。また、マーカーは、受動マーカーであってもよい。すなわち、マーカーは、例えば、赤外線、可視光線、および/または紫外線のスペクトル範囲にある電磁放射を反射するか、あるいは、X線を阻止することが可能なものであってもよい。このため、マーカーは、対応する反射特性を有する表面を備えるものであってもよく、および/または、X線を阻止するための金属からなるものであってもよい。マーカーは、無線周波数域または超音波波長の電磁放射および/または電磁波を反射および/または放射するものであってもよい。マーカーは、好ましくは、球形および/または回転楕円形を有し、したがって、マーカー球と呼ぶことができるものである。但し、マーカーは、例えば立方体のように、角のある形状を有していてもよい。
マーカーデバイスは、例えば、基準星、またはポインター、または単一のマーカー、または複数の(個別の)マーカーであってもよく、複数のマーカーは、好ましくは、既定の空間的関係を有するものである。マーカーデバイスは、1つ、2つ、3つ、またはそれより多くのマーカーを含み、2以上のマーカーを含む場合には、既定の空間的関係を有している。この既定の空間的関係は、例えば、ナビゲーションシステムにとって既知のものであり、例えば、ナビゲーションシステムのコンピュータに保存される。
マーカーホルダーは、マーカーを器具、身体の一部、および/または基準星の保持要素に取り付ける役割を果たす、個々のマーカーのための取り付け装置を意味すると理解される。マーカーは静止しているように取り付けることができ、有利には、取り外すことができるように取り付けることができる。マーカーホルダーは、例えば、棒状および/または円筒状であってもよい。マーカーデバイスのための固定装置(例えばラッチ機構など)は、マーカーホルダーのマーカーに対面する端部に設けることができ、マーカーデバイスをマーカーホルダー上に圧力嵌めおよび/または形状嵌めで配置することを補助するものである。
ポインターは、1つまたは複数の(有利には2つの)マーカーを含み、それらのマーカーが固定された棒である。ポインターは、身体の一部上の個々の座標、例えば空間座標(すなわち、三次元座標)、を測定するために使用することができる。ユーザは、ポインター(例えば、ポインターに取り付けられた少なくとも1つのマーカーに対して定められ、かつ有利には固定された位置を有するポインターの部分)を、手術用ナビゲーションシステムを使用してポインター上のマーカーを検出することによってポインターの位置が決定され得るように、座標に対応する位置に案内する。ポインター上のマーカーと、座標を測定するために使用されたポインターの部分(例えば、ポインターの先端)との間の相対位置は、例えば、既知である。次いで、手術用ナビゲーションシステムによって、所定の身体構造に(三次元座標における)位置が割り当てられることが可能となる。ここで、この割り当ては、自動的に行われるものであってもよく、または、ユーザの介入によって行われるものであってもよい。
「基準星」は、多数のマーカー、有利には3つのマーカー、が取り付けられた装置をいうものである。ここで、マーカーは、静止するように基準星に(例えば、取り外し可能に)取り付けられ、したがって、互いに対するマーカーの既知の(有利には、固定された)位置が提供される。マーカーの互いに対する位置は、手術用ナビゲーション方法のフレームワーク内において、手術用ナビゲーションシステムがそのマーカーの互いに対する位置に基づいて対応する基準星を識別することを可能にするために、使用されるそれぞれの基準星に対して個別に異なるものであってもよい。したがって、基準星が取り付けられている物体(例えば、器具および/または身体部位)を、それに応じて識別および/または区別することも可能となる。手術用ナビゲーション方法において、基準星は、物体の配置(すなわち、その空間的位置および/または配向)を検出できるようにするために、物体(例えば、骨または医療器具)に複数のマーカーを取り付けるのに役立つ。このような基準星は、例えば、物体に取り付けられる方法(例えば、クランプおよび/またはネジ)、および/または、マーカーと物体の間の距離を確保する保持要素(例えば、マーカー検出装置に対してマーカーの可視性を補助するため)、および/または、保持要素に機械的に結合され、マーカーが取り付けられ得るマーカーホルダーを特徴とする。
本発明はまた、コンピュータ支援手術のためのナビゲーションシステムにも関する。このナビゲーションシステムは、好ましくは、本明細書に記載された実施形態のいずれか1つに記載されたようなコンピュータが実行する方法に従って提供されるデータを処理するための上述したコンピュータを含んでいる。このナビゲーションシステムは、好ましくは、コンピュータが、受信した検出信号に基づいて絶対主要点データおよび絶対補助点データを決定できるように、検出信号を生成し、生成した検出信号をコンピュータに供給するために、主要点および補助点を表す検出点の位置を検出するための検出装置を含む。例えば、検出点は、例えばポインターによって検出される、解剖学的構造の表面上の点である。このようにして、絶対点データをコンピュータに提供することができる。ナビゲーションシステムはまた、好ましくは、コンピュータから計算結果(例えば、主平面の配置、補助平面の配置、および/または、標準平面の配置)を受け取るためのユーザインタフェースを含む。このユーザインタフェースは、受信したデータを情報としてユーザに提供する。ユーザインタフェースの例には、モニターなどの表示装置、またはスピーカーが含まれる。ユーザインタフェースは、任意の種類の指示信号(例えば、視覚信号、音響信号、および/または、振動信号)を使用することができる。表示装置の一例は、ナビゲーションのためのいわゆる「ゴーグル」として使用することができる拡張現実デバイス(拡張現実メガネとも呼ばれる)である。このような拡張現実メガネの特定の例は、グーグル社製のグーグル・グラス(登録商標)である。拡張現実デバイスは、ユーザ相互作用によるナビゲーションシステムのコンピュータへの情報の入力と、コンピュータが出力した情報の表示の両方に使用することができる。
絶対点データおよび相対点データを処理するためのコンピュータ、
絶対点データを生成し、絶対点データをコンピュータに供給するために、主要点および補助点の位置を検出するための検出装置、
相対点データを受信し、相対点データをコンピュータに供給するためのデータインタフェース、および、
ユーザに情報を提供するためにコンピュータからデータを受け取るためのユーザインタフェースであって、受け取られるデータは、コンピュータが実行した処理の結果に基づいて、コンピュータによって生成される、ユーザインタフェース、
を含むナビゲーションシステムにも関する。
手術用ナビゲーションシステムなどのナビゲーションシステムは、少なくとも1つのマーカーデバイスと、電磁波および/または電磁放射、および/または超音波を送信する送信器と、電磁波および/または電磁放射、および/または超音波を受信する受信器と、受信器および/または送信器に接続される電子的なデータ処理装置と、を含み得るシステムであって、データ処理装置(例えば、コンピュータ)は、例えばプロセッサ(CPU)および作業メモリーおよび有利には指示信号を発するための指示装置(例えば、モニターなどの視覚指示装置、および/またはスピーカーなどの音響指示装置、および/または振動器などの触覚指示装置)および永続的データメモリーを含み、データ処理装置は、受信器により転送されたナビゲーションデータを処理し、有利には指示装置を介してユーザに案内情報を出力できる、システムであると理解される。ナビゲーションデータは、永続的データメモリーに保存され、例えば、前記メモリーに事前に保存されたデータと比較されるものであってもよい。
撮像(イメージング)ジオメトリに関する情報は、好ましくは、撮像ジオメトリ解析装置とX線放射により解析される解析物体(解剖学的身体部位)との間の既知の相対配置が与えられた場合に、解析される解析物体が既知であれば、解析画像(X線画像)を算出可能な情報を含んでいる。ここで、「既知」とは、解析物体の空間ジオメトリ(大きさおよび形状)が既知であるということである。これは、例えば、解析物体(解剖学的身体部位)と解析放射線(X線放射)との間の相互作用に関する三次元の「空間分解」情報が既知であることを意味する。「相互作用」は、例えば、解析放射線が解析物体によって阻止されるか、あるいは、部分的または完全に通過可能であるかを意味する。撮像ジオメトリの位置および特に向きは、例えばX線装置の配置、例えばX線源およびX線検出器の配置位置によって、および/または、例えば解析物体を通過してX線検出器により検出される多重のX線ビームの配置によって、定められる。撮影ジオメトリは、例えば、前記多重のX線ビームの配置(すなわち、位置および特に向き)および形状(例えば、特定の傾斜角を呈する円錐形状)を記述する。この配置は、例えば、前記多重のX線ビームの中心を通過するX線ビームの配置、または多重のX線ビームを表す幾何学的オブジェクト(例えば、円錐台)の配置によって表すことができる。上記の相互作用に関する情報は、好ましくは、例えば三次元CTから、三次元において既知であり、解析物体の点および/または領域について、例えば解析物体の全ての点および/または領域について、空間分解された方法で相互作用を記述する。撮像ジオメトリの知識によって、例えば、平面(例えば、X線検出器の平面)に対する放射線源(例えば、X線源)の位置を計算することが可能となる。撮像ジオメトリによって定められる三次元の解析物体と二次元の解析画像との間の接続に関しては、例えば以下の文献を参照されたい。
1."An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision", Roger Y. Tsai, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Miami Beach, Florida, 1986, pages 364-374
2."A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses", Roger Y. Tsai, IEEE Journal of Robotics and Automation, Volume RA-3, No. 4, August 1987, pages 323- 344.
3.“Fluoroscopic image processing for computer-aided orthopaedic surgery”, Yaniv Z., Joskowicz L., Simkin A., Garza-Jinich M., Milgrom C. (1998) Fluoroscopic image processing for computer-aided orthopaedic surgery. In: Wells W.M., Colchester A., Delp S. (eds) Medical Image Computing and Computer-Assisted Intervention - MICCAI’98. MICCAI 1998. Lecture Notes in Computer Science, vol 1496. Springer, Berlin, Heidelberg.
4.欧州特許出願第08156293.6号
5.米国特許仮出願第61/054187号
医学分野において、撮像法(撮像モダリティおよび/または医用撮像モダリティとも呼ばれる)は、人の身体の解剖学的構造(例えば、柔組織、骨、臓器等)の画像データ(例えば、二次元画像データまたは三次元画像データ)を生成するために使用される。「医用撮像法」という用語は、(有利には装置に基づく)撮像法(例えば、いわゆる医用撮像モダリティおよび/または放射線撮像法)を意味するものとして理解される。それらは、例えば、コンピュータトモグラフィー(CT)及びコーンビーム・コンピュータトモグラフィー(CBCT、例えばボリューメトリックCBCT)、X線トモグラフィー、磁気共鳴トモグラフィー(MRTまたはMRI)、従来のX線、ソノグラフィーおよび/または超音波検査、並びに、陽電子放射トモグラフィーである。例えば、医用撮像法は、解析装置によって実行される。医用撮像法によって適用される医用撮像モダリティの例は、X線撮影、磁気共鳴イメージング、医用超音波検査または超音波、内視鏡検査、エラストグラフィー、触覚イメージング、サーモグラフィー、医用写真、および、Wikipediaで言及されているように、陽電子放出断層撮影(PET)および単光子放出コンピュータ断層撮影(SPECT)のような核医学機能イメージング技術である。
Claims (16)
- コンピュータが実行する、追跡の不正確性を補償する医学的方法であって、
a)解剖学的身体部位(8)の三次元表現を記述する空間画像データが取得されるステップ(S11)と、
b)身体部位(8)の三次元表現に関する追跡可能な装置(7)の所望の空間的配置(9)を記述する目標配置データが取得されるステップ(S12)と、
c)追跡可能な装置(7)の所望の空間的配置(9)を備える身体部位(8)の三次元表現と身体部位(8)との空間的な照合を記述する空間照合データが取得されるステップ(S13)と、
d)追跡可能な装置(7)の現在の空間的配置(10)を記述する追跡配置データが取得されるステップ(S14)と、
e)空間照合データおよび追跡配置データに基づいて、追跡可能な装置(7)を身体部位(8)に対して所望の配置(9)に配置決めするための指示を記述する制御データが決定されるステップ(S15)と、
f)制御データに基づいて所望の空間的配置(9)に配置された追跡可能な装置(7)および身体部位(8)の二次元投影画像(12)を取得するための投影撮像装置(11)の配置設定を記述する撮像設定データが取得されるステップ(S16)と、
g)二次元投影画像(12)を記述する投影画像データが取得されるステップ(S17)と、
h)撮像設定データ、投影画像データ、および空間照合データに基づいて、二次元投影画像(12)に示される追跡可能な装置(7)の空間的配置と、追跡可能な装置(7)の所望の空間的配置(9)との間の偏差(13)を記述する配置検証データが決定されるステップ(S18)と、
i)配置検証データに基づいて、追跡可能な装置(7)の空間的配置の偏差(13)の配置補償を記述する配置訂正データが決定されるステップ(S19)と、
を含む方法。 - 前記所望の空間的配置(9)は、
- 追跡可能な装置の単一の空間的配置または複数の空間的配置、
- 追跡可能な装置の空間的配置の範囲、および、
- 追跡可能な装置の軌道、
のうちの少なくとも1つを含む、ことを特徴とする請求項1に記載の方法。 - 投影画像データを取得することは、実質的に同じ撮像方向を有する少なくとも2つの投影画像(12)を取得することを含み、特に、身体部位(8)および追跡可能な装置(7)に対してそれぞれ別の投影画像が取得され、具体的には、投影画像(12)は身体部位(8)および追跡可能な装置(7)のそれぞれの投影に限定されている、ことを特徴とする請求項1または2に記載の方法。
- 投影画像データを取得することは、異なる撮像方向を有する少なくとも2つの投影画像(12)を取得することを含み、配置訂正データは、取得された複数の投影画像(12)の異なる画像平面において決定される、ことを特徴とする請求項1から3のいずれか1項に記載の方法。
- 配置検証データを決定することは、
- 投影画像(12)における身体部位(8)の投影を、空間画像データから再構築された身体部位(8)の二次元表現に適合させること、および/または、
- 投影画像(12)における追跡可能な装置(7)の投影を、追跡装置(7)の三次元形状を記述するデータから再構築された追跡装置(7)の二次元表現に適合させること、を含むことを特徴とする請求項1から4のいずれか1項に記載の方法。 - 配置検証データを決定することは、投影画像(12)の二次元画像空間から身体部位(8)の三次元空間への配置データの変換を含み、特に、該変換は、空間照合データおよび追跡配置データからそれぞれ導出される身体部位(8)の三次元空間における追跡可能な装置(7)の所望の空間的配置(9)および/または現在の空間的配置(10)に基づいている、ことを特徴とする請求項1から5のいずれか1項に記載の方法。
- 撮像設定データを取得することは、空間照合データおよび/または追跡配置データに基づいており、特に、投影撮像装置(11)の配置設定が複数の可能な配置設定から選択され、該配置設定は、追跡可能な装置(7)の生じている可能性のある所望の空間的配置(9)からの空間的偏差(13)に関する情報を提供することが期待されるものであり、特に、追跡可能な装置(7)の所望の空間的配置(9)および/または追跡可能な装置(7)の予想される空間的偏差(13)の空間的方向に対して実質的に平行な画像平面を有する投影画像を提供する、投影撮像装置の配置設定が選択される、ことを特徴とする請求項1から6のいずれか1項に記載の方法。
- 投影撮像装置(11)の配置設定を選択することは、投影画像(12)の投影経路(14)を回避する必要がある少なくとも1つの物体および/または少なくとも1つの体積の空間的配置にさらに基づいている、ことを特徴とする請求項7に記載の方法。
- 追跡可能な装置の空間的配置(10)の偏差(13)の配置補償が、
- 追跡可能な装置(7)の三次元空間における空間的配置(10)に対して、特に追跡可能な装置(7)または器具(6)を保持する原動機付き支持構造(5)を対応して制御することによって、適用されるか、または、
- 医用追跡システム(4)によって検出された追跡可能な装置(7)の空間的配置に対して、特に医用ナビゲーションシステムのグラフィカルユーザインターフェース上に示される追跡可能な装置(8)の表現の空間的位置に対して、適用される、ことを特徴とする請求項1から8のいずれか1項に記載の方法。 - 少なくとも1つの投影画像(12)は、蛍光透視法および/またはX線撮影法により取得される、ことを特徴とする請求項1から9のいずれか1項に記載の方法。
- 追跡配置データは、
追跡可能な装置に結合された1つまたは複数の追跡マーカー(15)の空間的配置を決定するために適合された、
- 光学的追跡システム、特にIR追跡システム、
- 電磁的(EM)追跡システム、および
- 超音波追跡システム、
からなるグループから選択された医用追跡システムにより取得され、特に、これらの追跡システム(4)または追加の追跡システムはさらに、少なくとも
- 解剖学的身体部位(8)、および
- 投影撮像装置(11)、特に、その放射部(17)および/または検出器(18)、
の空間的配置を決定するために適合されている、ことを特徴とする請求項1から10のいずれか1項に記載の方法。 - コンピュータプログラムであって、該コンピュータプログラムがコンピュータ(2)によって実行されるとき、コンピュータ(2)に請求項1から11のいずれか1項に記載の方法を実行させる命令を含むコンピュータプログラム、
および/または、前記プログラムが格納されたコンピュータ可読なストレージ媒体、
および/または、少なくとも1つのプロセッサおよび/またはプログラムストレージ媒体を含み、前記プログラムがプロセッサによって実行されるコンピュータ(2)、
および/または、前記プログラムを搬送するデータ搬送信号、
および/または、前記プログラムを含むデータストリーム。 - a)請求項12に記載された少なくとも1つのコンピュータと、
b)少なくとも空間画像データを保存する少なくとも1つの電子データストレージ装置(3)と、
c)少なくとも追跡配置データを取得するための追跡システム(4)であって、制御データを送信するためのインターフェースを含み、特に、撮像設定データを取得するために投影撮像装置(11)に接続されたインターフェースを含む、追跡システム(4)と、
を含む医用システム(1)。 - 患者に医療手順を行うための追跡可能な装置(7)をさらに含み、前記少なくとも1つのコンピュータは、
- 少なくとも1つのデータストレージ装置(3)から、少なくとも空間画像データを取得するための少なくとも1つの電子データストレージ装置(3)、および、
-制御データに基づいて追跡可能な装置(7)の動作を制御するために追跡可能な装置(7)に対して制御信号を発するための追跡可能な装置(7)に、
動作可能に結合されていること、を特徴とする請求項13に記載のシステム。 - 前記追跡可能な装置(7)は、医療手順を行うための医療器具(6)を保持する調整可能な支持構造(5)、特に多関節支持アーム、を含み、前記少なくとも1つのコンピュータ(2)は、制御データに基づく調整可能な支持構造(5)の動作の制御用として調整可能な支持構造(5)に制御信号を発するために、調整可能な支持構造に動作可能に結合されている、ことを特徴とする請求項13または14に記載のシステム。
- 医療手順を行うための請求項13から15のいずれか1項に記載のシステムの使用であって、追跡の不正確性を補償するための請求項1から11のいずれか1項に記載の方法のステップを実行することを含んでいる使用。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2020/053989 WO2021160294A1 (en) | 2020-02-14 | 2020-02-14 | Compensation of tracking inaccuracies |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022550876A true JP2022550876A (ja) | 2022-12-05 |
JP7375182B2 JP7375182B2 (ja) | 2023-11-07 |
Family
ID=69630303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022520571A Active JP7375182B2 (ja) | 2020-02-14 | 2020-02-14 | 追跡の不正確性の補償 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11596484B2 (ja) |
EP (1) | EP3886723B1 (ja) |
JP (1) | JP7375182B2 (ja) |
CN (1) | CN114340539A (ja) |
DE (1) | DE112020006721T5 (ja) |
WO (1) | WO2021160294A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050281385A1 (en) * | 2004-06-02 | 2005-12-22 | Johnson Douglas K | Method and system for improved correction of registration error in a fluoroscopic image |
US20140364807A1 (en) * | 2013-06-11 | 2014-12-11 | Orthosoft, Inc. | Computer assisted subchondral injection |
JP2015504721A (ja) * | 2012-01-03 | 2015-02-16 | コーニンクレッカ フィリップス エヌ ヴェ | ポジション決定装置 |
CN108030551A (zh) * | 2017-12-06 | 2018-05-15 | 上海波城医疗科技有限公司 | 手术机械臂行程校正系统及方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050228270A1 (en) | 2004-04-02 | 2005-10-13 | Lloyd Charles F | Method and system for geometric distortion free tracking of 3-dimensional objects from 2-dimensional measurements |
US20050222793A1 (en) * | 2004-04-02 | 2005-10-06 | Lloyd Charles F | Method and system for calibrating deformed instruments |
DE102005061952B4 (de) * | 2005-12-23 | 2008-09-11 | Metaio Gmbh | Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System |
DE502006004198D1 (de) * | 2006-10-17 | 2009-08-20 | Brainlab Ag | Markernavigationssystem zum Erfassen und Darstellen der Lage von Markereinrichtungen |
EP2082686B1 (de) * | 2008-01-22 | 2015-01-21 | Brainlab AG | Orientierte Wiedergabe von Aufnahmen |
EP2135575A1 (de) * | 2008-06-16 | 2009-12-23 | BrainLAB AG | Instrumentenausrichtungsverfahren mit freier Referenz |
EP2861173B1 (en) * | 2012-06-19 | 2016-04-06 | Brainlab AG | Method and apparatus for detecting undesirable rotation of medical markers |
US20140107390A1 (en) * | 2012-10-12 | 2014-04-17 | Elekta Ab (Publ) | Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch) |
EP3108266B1 (en) * | 2014-01-13 | 2020-03-18 | Brainlab AG | Estimation and compensation of tracking inaccuracies |
-
2020
- 2020-02-14 CN CN202080060040.9A patent/CN114340539A/zh active Pending
- 2020-02-14 JP JP2022520571A patent/JP7375182B2/ja active Active
- 2020-02-14 DE DE112020006721.1T patent/DE112020006721T5/de active Pending
- 2020-02-14 EP EP20705939.5A patent/EP3886723B1/en active Active
- 2020-02-14 WO PCT/EP2020/053989 patent/WO2021160294A1/en unknown
- 2020-02-14 US US17/630,790 patent/US11596484B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050281385A1 (en) * | 2004-06-02 | 2005-12-22 | Johnson Douglas K | Method and system for improved correction of registration error in a fluoroscopic image |
JP2015504721A (ja) * | 2012-01-03 | 2015-02-16 | コーニンクレッカ フィリップス エヌ ヴェ | ポジション決定装置 |
US20140364807A1 (en) * | 2013-06-11 | 2014-12-11 | Orthosoft, Inc. | Computer assisted subchondral injection |
CN108030551A (zh) * | 2017-12-06 | 2018-05-15 | 上海波城医疗科技有限公司 | 手术机械臂行程校正系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114340539A (zh) | 2022-04-12 |
JP7375182B2 (ja) | 2023-11-07 |
US11596484B2 (en) | 2023-03-07 |
US20220265363A1 (en) | 2022-08-25 |
WO2021160294A1 (en) | 2021-08-19 |
EP3886723A1 (en) | 2021-10-06 |
DE112020006721T5 (de) | 2022-12-15 |
EP3886723B1 (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20080119712A1 (en) | Systems and Methods for Automated Image Registration | |
JP2008126075A (ja) | Ctレジストレーション及びフィードバックの視覚的検証のためのシステム及び方法 | |
US20210343396A1 (en) | Automatic setting of imaging parameters | |
US20220142599A1 (en) | Determining a target position of an x-ray device | |
US20230293248A1 (en) | Efficient positioning of a mechatronic arm | |
US9818175B2 (en) | Removing image distortions based on movement of an imaging device | |
JP7375182B2 (ja) | 追跡の不正確性の補償 | |
US20230263500A1 (en) | Determining a configuration of a medical x-ray imaging system for detecting a marker device | |
US10028790B2 (en) | Wrong level surgery prevention | |
US11694363B2 (en) | Intra-operative determination of a focal length of a camera for medical applications | |
US20230360334A1 (en) | Positioning medical views in augmented reality | |
WO2023011924A1 (en) | 2d/3d image registration using 2d raw images of 3d scan | |
WO2023179875A1 (en) | Method for registration of a virtual image in an augmented reality system | |
WO2023227200A1 (en) | Robotic calibration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375182 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |