JP6243533B2 - イメージングシステムへの光学形状検知システムの放射線のないレジストレーション - Google Patents

イメージングシステムへの光学形状検知システムの放射線のないレジストレーション Download PDF

Info

Publication number
JP6243533B2
JP6243533B2 JP2016536998A JP2016536998A JP6243533B2 JP 6243533 B2 JP6243533 B2 JP 6243533B2 JP 2016536998 A JP2016536998 A JP 2016536998A JP 2016536998 A JP2016536998 A JP 2016536998A JP 6243533 B2 JP6243533 B2 JP 6243533B2
Authority
JP
Japan
Prior art keywords
registration
image
patient
imaging device
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016536998A
Other languages
English (en)
Other versions
JP2016539713A (ja
JP2016539713A5 (ja
Inventor
エキン,アフメト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2016539713A publication Critical patent/JP2016539713A/ja
Publication of JP2016539713A5 publication Critical patent/JP2016539713A5/ja
Application granted granted Critical
Publication of JP6243533B2 publication Critical patent/JP6243533B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B18/1492Probes or electrodes therefor having a flexible, catheter-like structure, e.g. for heart ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00243Type of minimally invasive operation cardiac
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00315Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
    • A61B2018/00345Vascular system
    • A61B2018/00351Heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3954Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Plasma & Fusion (AREA)
  • Otolaryngology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、トラッキングシステムをイメージングシステムにレジストレーションするためのレジストレーションシステム、レジストレーション方法及びレジストレーションコンピュータプログラムの分野に関する。本発明は、物体を撮像するためのイメージングシステム及びイメージング方法の分野に更に関する。本発明はまた、イメージングシステムを有するインターベンショナルシステム(interventional system)の分野に関し、インターベンショナルシステムで使用されるインターベンショナルデバイスに関する。
WO2007/115825A1は、画像によりガイドされる手術のために、カメラの画像を手術中の画像にレジストレーションする増強デバイス(augmentation device)を開示している。増強デバイスは、カメラと、3次元又は4次元画像を手術中に生成するイメージングデバイスと、カメラ及びイメージングデバイスをトラッキングするトラッキングシステムとを有する。イメージングデバイス及びカメラをトラッキングすることにより、これらは、カメラにより生成された画像と、イメージングデバイスにより生成された画像とが同じ座標系で同時に視覚化され得るようにレジストレーションされることができる。
WO2013/102827A1は、対象内のインターベンショナル機器の位置を決定する位置決定装置を開示している。インターベンショナル機器は、第1の部分が対象の中に差し込まれる場合、対象の中に差し込まれる第1の部分と、対象の外部の第2の部分とを有する。画像データセット提供ユニットは、対象の内部の画像データセットを提供し、機器位置提供ユニットは、インターベンショナル機器の第2の部分の位置を決定し、実画像提供ユニットは、対象内のインターベンショナル機器の実画像を提供する。空間関係決定ユニットは、実画像と、第2の部分の位置とに基づいて、対象の外部の第2の部分及び対象内の第1の部分の位置の間の空間関係を決定し、位置決定ユニットは、第2の部分の位置及び第1の部分と第2の部分との間の空間関係に応じて、提供された画像データセット内の第1の部分の位置を決定する。
US2011/0098553A1は、画像をレジストレーションする方法を開示している。患者の身体の部分及び第1のマーカの画像は、画像座標系を規定するイメージングシステムにより取得される。画像ガイドシステムは、第1のマーカの位置に対して既知の位置に配置された第2のマーカを示す位置画像を取得するために使用される。画像ガイドシステムは、位置座標系を規定し、画像座標系及び位置座標系は、画像における第1及び第2のマーカの位置と、これらのマーカの既知の相対位置とに基づいて自動的にレジストレーションされる。
US2010/0056904A1は、患者内で挿入場所から処置場所にナビゲーションされるカテーテルのようなインターベンショナル機器を有するインターベンショナルシステムを開示している。ナビゲーション処置の間に、光ファイバ部材を備えたインターベンショナル機器は、光学形状検知(OSS:optical shape sensing)を使用することによりトラッキングされる。トラッキングされた位置は、患者の磁気共鳴画像に示される。患者の磁気共鳴画像においてOSSによりトラッキングされたインターベンショナル機器の位置を示すために、インターベンショナル機器をトラッキングするOSSトラッキングシステムと、磁気共鳴画像を生成する磁気共鳴イメージング(MRI:magnetic resonance imaging)システムとが、相互にレジストレーションされる必要がある。従って、OSSデバイス(例えば、OSSに統合されたガイドワイヤ又はカテーテル)は、MRI画像にレジストレーションされなければならない。前述の従来技術のシステムでは、MR画像レジストレーションは、磁気共鳴画像内でインターベンショナル機器の光ファイバ部材の複数の既知の点をマークすることにより実行される。既知の点は、磁気共鳴画像内に見えるマーカを保持する。
従来のレジストレーションシステムは、画像に対する形状のレジストレーション問題の多くを解決するが、異なる種類のレジストレーションが必要になり得る異なるシナリオが存在し得る。例えば、特定の場合には自動レジストレーションが望ましい場合があり、放射線の更なる低減が好ましい場合があり、或いは、イメージングデバイス(例えば、Cアーム(C-arm)デバイス)が可動式である可能性があり、デバイスが動かされると常にレジストレーションが再適用される必要がある場合があり、或いは、形状検知システムが可動式である可能性があり、システムが手術室の他の位置に動かされるとレジストレーションが複数回更新される必要がある場合がある。更に、X線イメージングシステムが使用される場合、ユーザは、1つの視界のみを使用することを好む可能性があり、他の角度からX線画像を取得しようと思わず、或いは、ユーザは、X線画像が取得される前にレジストレーションされた形状可能デバイス(shape-enabled device)を見たいと思うことがある。
物体の画像を生成するイメージングデバイスを、物体の位置をトラッキングするトラッキングデバイスにレジストレーションし、レジストレーションのために放射線が必要ない自動レジストレーションシステム、レジストレーション方法及びレジストレーションコンピュータプログラムを提供することが、本発明の目的である。
物体の画像を生成するイメージングデバイスを、物体の位置をトラッキングするトラッキングデバイスにレジストレーションし、単一のCアーム位置又は視界がレジストレーションのために十分である自動レジストレーションシステム、レジストレーション方法及びレジストレーションコンピュータプログラムを提供することが、本発明の他の目的である。
物体の画像を生成するイメージングデバイスを、物体の位置をトラッキングするトラッキングデバイスにレジストレーションし、イメージングデバイス及び/又はOSSデバイスの移動が効率的に扱われることができる自動レジストレーションシステム、レジストレーション方法及びレジストレーションコンピュータプログラムを提供することが、本発明の更なる目的である。
この目的は、請求項1に記載のレジストレーションシステム、請求項9に記載のイメージングシステム、請求項10に記載のインターベンショナルシステム、請求項11に記載のレジストレーション方法、請求項12に記載のイメージング方法、及び請求項13に記載のレジストレーションコンピュータプログラムにより実現される。
従って、少なくとも1つの光学カメラが、画像への形状のレジストレーションのために使用されることが示唆される。物体(例えば、OSSデバイス)の位置は、イメージングデバイスで較正(calibrate)された位置に配置されてもよい少なくとも1つの光学カメラにより生成された物体の少なくとも1つの画像に基づいて検出され得る。光学カメラを使用することにより、物体は、イメージングデバイスの座標系に予めレジストレーションされたカメラ座標系で検出され得る。その後、トラッキングシステムから取得された形状データは、イメージングシステムの座標系で既に較正された光学カメラ座標系で検出されたデバイス又は物体にレジストレーションされ得る。
提案の対策は、イメージングシステム(例えば、X線システム)への物体の放射線のないレジストレーションを可能にし、トラッキングシステム又はイメージングシステムが移動したときのレジストレーションパラメータの容易な更新を可能にする。これは、可動式CアームシステムへのOSSの適用を可能にする。更に、レジストレーションは、トラッキングシステムが可動式であり、外科手術中に動かされた場合に、迅速に更新される。
更に、単一のCアーム位置は、トラッキングシステムをイメージングシステムにレジストレーションするのに十分である。X線に基づくレジストレーションでは、3次元(3D)における正確なレジストレーションパラメータを計算するために、複数の視界が必要なってもよい。この場合、複数の光学カメラがCアームの1つの設定で3D情報を取得することができるため、イメージングシステムのCアームを他の位置に動かす必要はない。
第1の選択肢によれば、物体検出ユニットは、物体に提供されたマーカに基づいて物体の位置データを提供するように適合されてもよい。このようなマーカは、物体の再構成の更なる精度の利点を提供する。更に提案の物体のマーカは、放射線不透過性である必要はない。異なる光特性で十分である。従って、これらは、例えば、プラスチック、シリコーン等のデバイスの周囲に配置されることができ、このことはコストを節約する。
前述の第1の選択肢と結合可能な第2の選択肢によれば、トラッキングシステムにより生成された光学形状データがイメージングデバイスの座標系に直接変換され得るように、少なくとも1つの光学カメラデバイスの座標系は、イメージングデバイスの座標系と予め較正されてもよい。
前述の第1又は第2の選択肢と結合可能な第3の選択肢によれば、少なくとも1つの光学カメラデバイスは、イメージングデバイスのCアームで較正された位置に配置されてもよい。より具体的な例では、少なくとも1つのカメラは、イメージングデバイスの検出枠(detector rim)の側に組み込まれてもよい。これにより、光学カメラデバイスとCアームとの間の所定の位置関係が実現可能になり、このことはレジストレーションを容易にする。
第1〜第3の選択肢のいずれかと結合可能な第4の選択肢によれば、物体は、医療行為で使用されるように適合され、レジストレーションシステムは、物体が患者の身体の外部にある場合且つ患者の身体への物体の挿入前にレジストレーションを実行するように適合されてもよい。これにより、レジストレーションは、単に物体を少なくとも1つのカメラデバイスの視野に配置することにより、簡略化され得る。
第1〜第4の選択肢のいずれかと結合可能な第5の選択肢によれば、レジストレーションシステムは、物体の取得されたレジストレーションパラメータを他の物体に波及するように適合されてもよい。これにより、挿入される物体は、少なくとも1つの光学カメラデバイスの視野に配置することなくレジストレーションされ得る。
第1〜第5の選択肢のいずれかと結合可能な第6の選択肢によれば、物体検出ユニットは、トラッキングシステムの光ファイバを内部に有するインターベンショナルデバイスの位置を取得するために、検出及び再構成のために物体の予め規定された形状を使用するように適合されてもよい。これは、物体のより正確な検出及び再構成を可能にする。
第1〜第6の選択肢のいずれかと結合可能な第7の選択肢によれば、レジストレーションユニットは、イメージングデバイスの画像と、放射される患者に提供されたトラッキングマーカとのうち少なくとも1つに基づいて、レジストレーションを更新又は改善するように適合されてもよい。これにより、レジストレーションは、イメージングデバイスの動作中に絶えず更新又は改善され得る。
請求項1に記載のレジストレーションシステム、インターベンショナルデバイス、請求項9に記載のイメージングシステム、請求項10に記載のインターベンショナルシステム、請求項11に記載のレジストレーションシステム、請求項12に記載のイメージング方法、及び請求項13に記載のレジストレーションコンピュータプログラムは、特に従属請求項に記載のように、同様及び/又は同一の好ましい実施例を有することが分かる。
本発明の好ましい実施例はまた、各独立請求項と従属請求項又は前述の実施例との組み合わせでもよいことが分かる。
本発明の前記及び他の態様は、以下に説明する実施例から明らかになり、実施例を参照して説明する。
第1の実施例によるインターベンショナルシステムの実施例を概略的且つ例示的に示す図 ガイドワイヤを撮像するイメージング方法の第2の実施例を例示的に示すフローチャートを示す図
本発明の様々な実施例について、固定又は可動式Cアームを有するX線イメージングシステムと、OSS可能な形状検知インターベンショナルデバイス又は機器(例えば、カテーテル、ガイドワイヤ、ステント移植皮弁等)とを備えたインターベンショナルシステムに基づいて説明する。
図1は、インターベンショナル処置を実行するインターベンショナル機器を有するインターベンショナルシステム1の第1の実施例を概略的且つ例示的に示している。この実施例では、インターベンショナル機器は、カテーテル33であり、カテーテル33は、カテーテル制御ユニット15により制御される。カテーテル制御ユニット15及びカテーテル33は、例えば、患者台26のような支持手段に横になる患者25の心臓24内でアブレーション(ablation)処置を実行するように適合されてもよい。しかし、カテーテル33及びカテーテル制御ユニット15はまた、他のインターベンショナル処置を実行するように適合されてもよい。更に、インターベンショナルシステム1はまた、ニードルのような他のインターベンショナル機器を有してもよい。この実施例では、カテーテル33は、無線周波数(RF:radio frequency)アブレーション処置を適用するように適合され、カテーテル制御ユニット15は、RFエネルギーをカテーテル33の先端部23に配置されたアブレーション電極に提供するように適合される。より具体的には、カテーテル33の先端部23は、心筋の内部表面に対して、異常なリズムの起源の場所にできるだけ近く配置され、カテーテル制御ユニット15は、異常な心拍の原因である細胞を焼灼(焼く)して静めるために、カテーテル33の先端部23を通じてその領域にRF電流を通すように適合される。
カテーテル33を心臓24に挿入するために、ガイドワイヤが使用される。ガイドワイヤは、更なるインターベンショナル機器であり、OSSにより患者25内でガイドワイヤの位置を決定する(すなわち、患者25内でガイドワイヤの位置及び形状を決定する)トラッキング制御ユニット4に接続されたOSSファイバを備える。患者25内でガイドワイヤの位置を決定するために、US7,772,541B2に開示された技術のような既知のOSS技術が使用されてもよい。OSSファイバを備えたガイドワイヤ及びトラッキング制御ユニット4(特に、OSSファイバ及びトラッキング制御ユニット4)は、患者25内でガイドワイヤの位置をトラッキングするトラッキングデバイス又はOSSシステムと考えられてもよい。
インターベンショナルシステム1は、この実施例ではX線Cアームシステムであるイメージングデバイス2を更に有する。イメージングデバイス2は、患者25を横断するX線19を生成するX線源18と、患者25を横断した後のX線を検出するX線検出器21とを有する。X線源18及びX線検出器21は、Cアーム20に取り付けられ、Cアーム20は、異なる投影方向におけるX線投影画像を取得するために、患者25の周囲で回転可能である。
更に、1つ以上の光学カメラ27は、インターベンショナル機器の形状座標系を、X線イメージングシステムの形状座標系にレジストレーションするために使用される。カメラシステムにおける検出された情報がX線イメージングシステムに直接変換され得るように、光学カメラは、X線イメージングシステムと予め較正される。従って、少なくとも1つの光学カメラ27は、Cアーム20と較正される。少なくとも1つのカメラ27は、検出枠のそれぞれの側に配置され、身体において使用される前にインターベンショナル機器(例えば、ガイドワイヤ)をレジストレーションするため、或いは、イメージングシステム又はOSSシステムの一方又は双方の位置が変更されるときにレジストレーションを更新するため(すなわち、再レジストレーション)に使用されてもよい。従って、OSSシステムは、可動式でもよく、固定されてもよい。
図1のOSSシステムのトラッキング制御ユニット4は、光学形状データを提供し、少なくとも1つの光学カメラ27を備えたカメラシステムは、その視野内のOSSデバイス(例えば、ガイドワイヤ)の少なくとも1つの画像を提供するように適合される。この少なくとも1つの画像に基づいて、物体検出ユニット5は、2次元投影画像におけるOSSデバイスの位置を検出し、場合によって、カメラ座標系又は他の基準系において3Dデバイス位置を生成するために複数の視界の検出結果を結合する。2つのデータセット(すなわち、トラッキング制御ユニット4の光学形状データ及び少なくとも1つのカメラ27の画像から導出された3Dデバイス位置)は、レジストレーションユニット6への入力として供給される。
従って、少なくとも1つの光学カメラ27は、OSSデバイスが見える少なくとも1つの画像を提供する。物体検出ユニット5は、少なくとも1つの画像におけるOSSデバイスの座標を見つけるために、少なくとも1つの画像を分析する物体検出アルゴリズムを使用してもよい。複数のカメラ27が使用される場合、物体検出処理は、カメラ画像毎に提供されてもよい。複数のカメラの場合、光学カメラ27は、事前に相互に較正されている。各カメラの視界における検出結果から、物体検出ユニット5は、光学カメラ27において見えるOSSデバイスのその部分の3D位置を計算してもよい。この3D位置データは、トラッキング制御ユニット4から取得された形状データにレジストレーションするために使用されてもよい。更に、各光学カメラ27とイメージングシステム2との間の幾何学変換が既知であるため、取得された座標は変換されてもよく、レジストレーションからの最終の変換値がイメージングシステム2に関係してもよい。
別の実施例では、双方のOSSデバイス(すなわち、カテーテル33及びガイドワイヤ)の光学形状データを有することも可能でもよい。
OSS可能なインターベンショナル機器(例えば、ガイドワイヤ)は、少なくとも1つのカメラ27で検出可能なマーカ28を有してもよい。これらのマーカ28及び複数のカメラの視界に基づいて、インターベンショナル機器(例えば、ガイドワイヤ)の3D位置が再構成されてもよい。
図1において、マーカ28はカテーテル33に示されている点に留意すべきである。この場合、カテーテル33は、内部にOSSファイバを備えたOSS可能なインターベンショナル機器である。しかし、記載の実施例では、OSS可能なインターベンショナル機器は、図1に示されていないガイドワイヤに対応する。前述のように、双方のインターベンショナル機器(すなわち、カテーテル33及びガイドワイヤ)ですら、OSS可能な機器でもよい。
イメージングデバイス2は、イメージングデバイス制御ユニット22により制御される。イメージングデバイス制御ユニット22は、X線検出器21から検出値を受信し、受信した検出値に基づいて2次元投影画像を生成する。少なくとも1つの光学カメラ27の画像に基づいた初期レジストレーションが改善され得るように、2次元投影画像は、2次元投影画像においてガイドワイヤを検出するために物体検出ユニット5に提供される。
更に、インターベンショナルシステム1は、ユーザがキーボード、コンピュータマウス、タッチスクリーン等のような入力ユニット16とディスプレイ17とを使用することによりシステムと相互作用することを可能にするユーザインタフェースを有する。
少なくとも1つの光学カメラ27は、見通し線の視界を必要とするため、レジストレーションされるデバイス(すなわち、ガイドワイヤ)は、カメラ27により見えなければならない。これは、レジストレーションされるデバイスが身体の内部にある場合、レジストレーションは、患者25の身体の外部にある他のデバイスを介してのみ行われることができることを意味する。従って、身体の外部に1つのOSSデバイスを保持することが検討されてもよい。以下の説明では、OSSデバイスがX線イメージングシステムにレジストレーションされると、身体にあっても外部であっても、OSSデバイスの間の空間関係の知識を使用することにより、特にOSSシステムにおける固定具(fixture)の相対位置の知識を使用することにより、そのレジストレーションが他のOSSデバイスに波及され得ることが想定される。従って、OSSシステムは、複数のOSSデバイスを有してもよく、OSSデバイスの間の空間関係は既知である。少なくとも1つのOSSデバイスは、身体の外部にあり、光学カメラデバイスを使用することにより、OSSデバイスをイメージングデバイスにレジストレーションするために使用されてもよい。OSSデバイスの間の空間関係は既知であるため、外部のOSSデバイスとイメージングシステムとの間のレジストレーションは、身体内の1つ又は複数の他のOSSデバイスに波及されてもよい。OSSデバイスの間の空間関係は、較正測定から知られてもよい。特に、OSSシステムは、複数のスロットを備えた取り付け要素を有してもよく、これらは、OSSデバイスが取り付けられ得る固定具として考えられてもよい。相互に対するスロットの位置は、較正測定から知られてもよい。更に、OSSデバイスのファイバ軸は、スロットの位置において同じように位置合わせされていない可能性があるため、OSSデバイスの回転位置、特にファイバ軸の回転位置も較正測定により決定されてもよい。この情報は、OSSデバイスの間の空間関係を規定してもよく、1つのOSSデバイスから他のOSSデバイスへのイメージングシステムへのレジストレーションを波及するために使用されてもよい。
インターベンショナルシステム1は、イメージングデバイス2へのOSSデバイスのレジストレーションを規定するレジストレーションパラメータを決定するレジストレーションユニット6を更に有する。レジストレーションユニット6は、トラッキングシステム(すなわち、OSSシステム)により規定された形状座標系と、イメージングデバイス2の座標系との間の空間変換を計算することにより、レジストレーションパラメータを決定するように適合される。
レジストレーションが完了した後に、ガイドワイヤは、患者25内で動かされてもよく、移動中に、トラッキング制御ユニット4は、患者25内のガイドワイヤの位置をトラッキングしてもよく、ガイドワイヤのトラッキングされた位置は、必ずしもこれらの投影画像を再び取得する必要なく、2次元投影画像に示されてもよい。従って、患者25の内部組織に対する患者25内のガイドワイヤの位置を決定するために2次元投影画像を絶えず取得する必要はない。
物体検出ユニット5及びレジストレーションユニット6は、イメージングデバイス2を、トラッキングシステムから取得されたOSSデバイスの3D光学形状検知データにレジストレーションするためのレジストレーションシステム13を形成するものと考えられてもよい。
以下では、第2の実施例によるインターベンショナル処置を監視するイメージング方法について、図2に示すフローチャートを参照して例示的に説明する。
ステップ201において、OSSデバイス(すなわち、実施例ではガイドワイヤ)は、少なくとも1つの光学カメラ27の視野に配置され、光学カメラ27は、OSSデバイスの少なくとも1つの画像を生成する。ステップ202において、物体検出ユニット5は、画像においてOSSデバイスを検出し、ガイドワイヤの(3D)再構成のための(3D)位置データを生成し、光学カメラ27により生成された画像と、トラッキング制御ユニット4から取得された形状データとに基づいてガイドワイヤの表現を提供する。ステップ203において、レジストレーションユニット6は、OSSデバイスの3D光学形状検知データへのイメージングデバイス2のレジストレーションを規定するレジストレーションパラメータを決定する。ステップ201〜203は、レジストレーション方法を形成するものとして考えられてもよく、レジストレーション方法は、ガイドワイヤが患者25に挿入される前に、インターベンショナルシステムが較正される較正手順の間に実行されてもよい。
レジストレーションパラメータが決定された後、ステップ204において、イメージングデバイス2が患者25内の関心のある領域の2次元投影画像を生成し得るように、患者25は、イメージングデバイス2の視野内の支持手段26に配置されてもよい。関心のある領域は、好ましくはガイドワイヤが動かされるべき患者25内の領域である。次に、ステップ205において、ガイドワイヤは、患者25内に差し込まれてもよく、ガイドワイヤの差し込み中及び患者25内でのガイドワイヤの移動中に、ガイドワイヤの位置は、トラッキング制御ユニット4によりトラッキングされる。ステップ206において、ステップ204で取得された2次元投影画像内のガイドワイヤの位置は、ガイドワイヤのトラッキングされた位置と、位置決定ユニット14による決定されたレジストレーションパラメータとに基づいて決定され、ディスプレイ17は、2次元投影画像内のガイドワイヤの決定された位置を示す。ステップ207において、2次元投影画像内のガイドワイヤの位置の撮像が停止されるべきであるか否かが検査される。例えば、ユーザが入力ユニット16を介して2次元投影画像内のガイドワイヤの位置の撮像が停止されるべきであることをインターベンショナルシステムに入力したか否かが検査される。そうである場合、この方法はステップ208で終了する。そうでない場合、この方法はステップ205に続く。特に、ステップ205及び206は、2次元投影画像内のガイドワイヤの位置の撮像が停止すべきまで、ループ状に絶えず実行される。患者25内のガイドワイヤの移動中に、ループ状にステップ205及び206を実行することにより、ユーザは、必ずしもリアルタイムのX線画像を取得する必要なく、リアルタイムで患者25内のガイドワイヤの移動を監視することができる。更なる実施例では、ステップ207において、イメージングデバイスの視野が変更されたか否かが更に検査されてもよい。この場合、方法はステップ204に続いてもよい。
例えば、イメージングシステムの動き及び/又はOSSシステムの動きのため、再レジストレーションが必要であるべき場合、またレジストレーション処理を繰り返すために、手順はステップ201にループバックしてもよい。これは、ステップ207からステップ205への後方への分岐に他の判定ステップ(例えば、“再レジストレーションが必要であるか?”)を追加することにより実現されてもよい。再レジストレーションが必要ない場合、手順はステップ205に続く。そうでなく再レジストレーションが必要である場合、手順はステップ201に続く。
OSSデバイス(例えば、ガイドワイヤ)のレジストレーションに基づいて光学カメラを完了させる様々な方法が存在する。第1の選択肢として、ユーザ(例えば、医療スタッフのメンバ)は、光学カメラ27のもとでOSSデバイスを保持し、OSSデバイスは、物体検出ユニット5により検出される。検出結果は、図1のユーザインタフェースのディスプレイ17に表示されてもよく、検出が満足できる場合、レジストレーションは、トラッキングシステム及びイメージングシステムの座標系の間の変換を計算することにより実行される。
可動式OSSシステム又は可動式Cアームが動かされる場合、同様の手順が実行されてもよい。身体の外部にあるOSS可能なデバイスは、少なくとも1つの光学カメラ27により取得され、イメージングシステムにレジストレーションされる。
他の選択肢として、少なくとも1つの光学カメラ27のもとでOSSデバイスを保持する代わりに、OSSデバイスは、患者台26又は患者25に置かれてもよく、レジストレーションはそこから行われてもよい。
より正確な3D再構成のためにOSSデバイスが光学カメラに見えるマーカ28を有する場合、これらのマーカ28は、デバイス製造中にデバイスの周囲に配置されてもよく、例えば、プラスチック又はシリコーンから作られてもよい。これらは、放射線不透過性を有する必要はない。これは、全く処理特性を変更せず、更なるコストを追加しないため、利点である。マーカは、光学カメラ27により取得されるカメラ画像において検出を可能にするアルゴリズムにより使用可能な、予め規定された距離を有する単なる色付きのバーでもよい。
更なる選択肢として、OSSデバイスは、予め規定された形状に配置されてもよく、物体検出ユニット5は、OSSデバイスを検出してこれを3Dにより正確に再構成するために、この予め規定された形状を使用する。
可動式Cアームが固定のOSSシステムで使用される場合、光学形状及びX線システムは、手術室のいずれかの場所にレジストレーションされてもよく、可動式Cアームの位置は、自動的に見つけられてもよい。この位置情報は、可動式Cアームシステムが部屋の他の位置にあったときにインターベンションの開始時に行われていてもよいX線/CT(コンピュータ断層撮影)のレジストレーションのような他のパラメータを更新するために使用されてもよい。この選択肢は、可動式Cアーム環境においてOSSを使用する可能性を開く。
光学カメラ27の視界に複数のOSSデバイスが存在すらしてもよい。このような場合、異なる視界におけるマーカの対応関係は、物体を区別するために使用されてもよく、或いは、各OSSデバイスが異なる種類のマーカを有する場合、この情報は、OSSデバイスを分離するために使用されてもよい。
提案されるレジストレーションシステムは、2次元X線画像への3次元OSSのレジストレーションのための完全に自動的な対策を提供する。
マーカ28が使用される場合、マーカに基づく再構成は、曲線当てはめ手順により決定されてもよい。デバイスの高次近似が使用されてもよい。結果の曲線が、好ましくはピクセルである、曲線の画素に隣接する画素からの最高の強度差を実現するように、曲線は、追加されたマーカに当てはめられてもよい。また、他の尺度も曲線を当てはめるために使用されてもよい。曲線は、それぞれの尺度が最適化(すなわち、最小化又は最大化)されるように決定される。例えば、各曲線の全ての画素の原因となる血管(vesselness)の和と、全ての隣接する画素の原因となる血管の和との間の差が、曲線を当てはめる尺度として使用されてもよい。更に別の尺度は、例えば、第1の導関数、エッジ応答等である。血管の応答は、例えば、K. Krissian他による文献“Model-Based Detection of Tubular Structures in 3D images”, Computer Vision and Image Understanding, volume 80, number 2, pages 130〜171 (2000)、又はA. F. Frangi他による文献“Multiscale vessel enhancement filtering”, Medical Image Computing and Computer-Assisted Intervention - MICCAI’98, Lecture Notes in Computer Science, volume 1496, pages 130〜137 (1998)に開示されたヘッセ行列の関数として規定されてもよい。これらの文献を参照により援用する。エッジ応答は、J. Cannyによる文献“A Computational Approach To Edge Detection”, IEEE Transactions on Pattern Analysis and Machine Intelligence, volume 8, number 6, pages 679〜698 (1986)に開示されたように決定されてもよい。この文献も参照により援用する。
従って、3Dにおいてデバイスのカメラに見える部分は、複数のカメラ画像から再構成され、3D OSSデータに直接レジストレーションされる。デバイスの一部のみが少なくとも1つのカメラ27により見える必要がある。このように、レジストレーションは、デバイスの特性と実質的に独立して、すなわち、OSSトラッキングされるデバイスの特性と実質的に独立して実現されてもよい。更に、レジストレーション手順は、特定のイメージング様式に限定されない。従って、前述の実施例では、イメージングデバイスはX線Cアームデバイスであるが、他の実施例では、他のレントゲン写真(radiographic)イメージングデバイス、超音波イメージングデバイス、磁気共鳴イメージングデバイス等のような他のイメージングデバイスもレジストレーションされてもよい。
従って、表現は、各画像に追加されたマーカ28に基づいて決定されるだけでなく、更に、少なくとも1つの光学カメラ27から取得された各画像の画素の画像値に基づいて決定されてもよい。
更なる選択肢として、図1のレジストレーションユニット6は、ガイドワイヤ又はカテーテル33の挿入後に利用可能になる場合には、イメージングデバイス2の画像に基づいてレジストレーションを更新又は改善するように適合されてもよい。
更なる選択肢又は別の選択肢として、患者25がトラッキング可能なマーカを有する場合、形状及びイメージング座標系がレジストレーションされると、イメージングデバイス2が動かされたときに患者25のマーカをトラッキングすることにより、初期レジストレーションが改善又は更新されてもよい。特に、患者に対するイメージングデバイスの特定の位置についてレジストレーション処理が完了している場合、イメージングデバイス−OSSデバイス、イメージングデバイス−マーカ、及びマーカ−OSSデバイスの空間関係が知られ得るように、患者25のマーカは、光学カメラデバイスを使用することによりトラッキングされてもよい。イメージングデバイスが患者に対して動かされる場合、イメージングデバイス−OSSデバイスの空間関係が決定されてもよい。すなわち、光学カメラデバイスによりトラッキングされる患者のマーカの現在位置と、イメージングデバイスと光学カメラデバイスとの間の既知の空間関係とに基づいてイメージングデバイス−マーカの現在の空間関係を決定し、依然として既知のマーカ−OSSデバイスの空間関係と共にイメージングデバイス−マーカのこの現在の空間関係を使用することにより、レジストレーションは改善又は更新されてもよい。
前述の実施例では、トラッキングデバイスは、OSSを使用することによりデバイスをトラッキングするように適合されるが、他の実施例では、電磁気トラッキング技術のような他のトラッキング技術も使用されてもよい。更に、前述の実施例では、レジストレーションは、インターベンショナル用途に使用されるが、他の実施例では、レジストレーションは、物体をトラッキングするトラッキングデバイスと物体を撮像するイメージングデバイスとの間のレジストレーションを必要とする他の用途にも使用されてもよい。
トラッキングデバイス(すなわち、OSSデバイス)がイメージングデバイスにレジストレーションされた後に、トラッキングデバイスにレジストレーションされたイメージングデバイスと更なるイメージングデバイスとが相互にレジストレーションされている場合、物体のトラッキングされた位置は、イメージングデバイスにより取得されていないが、更なるイメージングデバイスにより取得された更なる画像にも示されてもよい。これらの更なる画像は、例えば、インターベンショナル処置の前又はインターベンショナル処置の間に取得されてもよいCT画像、磁気共鳴画像等でもよい。
図1を参照して前述したインターベンショナルシステムは、アブレーション処置を実行するように適合されるが、他の実施例では、インターベンショナルシステムは、他のインターベンショナル処置を実行するように適合されてもよい。更に、レジストレーションシステム及びレジストレーション方法はまた、トラッキングデバイスへのイメージングデバイスのレジストレーションを必要とする他の非インターベンショナル処置において使用されてもよい。
要するに、光学形状検知トラッキングデバイスのようなトラッキングデバイスを用いたX線Cアームデバイスのようなイメージングデバイスによって、光学形状をイメージングシステムにレジストレーションするためのレジストレーションシステムについて説明した。1つ以上のカメラは、形状座標系をX線の座標系にレジストレーションするために使用される。カメラシステムでの検出された位置情報がX線システムに直接変換できるように、光学カメラは、X線システムと予め較正される。
本発明は、X線画像への形状のレジストレーションに限定されない点に留意すべきである。他の種類の医療画像は、MR画像、CT画像、超音波画像等でもよい。
開示の実施例に対する他の変更は、図面、この開示、及び特許請求の範囲の検討から、本発明を実施する際に当業者により理解され実施され得る。
特許請求の範囲において、“有する”という用語は他の要素又はステップを除外せず、単数は複数を除外しない。
単一のユニット又はデバイスは、特許請求の範囲に記載の複数の項目の機能を実現してもよい。特定の手段が相互に異なる従属項に記載されているという単なる事実は、これらの手段の組み合わせが有利に使用できないことを示すものではない。
1つ又は複数のユニット又はデバイスにより実行される、追加されたマーカに基づく画像における物体の表示の決定等のような手順は、他の数のユニット又はデバイスにより実行されてもよい。レジストレーション方法に従ったレジストレーションシステムの制御及び/又はイメージング方法に従ったイメージングシステムの制御は、コンピュータプログラムのプログラムコード手段及び/又は専用ハードウェアとして実現されてもよい。
コンピュータプログラムは、他のハードウェアの一部と共に或いは他のハードウェアの一部として与えられる光記憶媒体又はソリッドステート媒体のような適切な媒体に記憶/分配されてもよいが、インターネット又は他の有線若しくは無線通信システムを介したような他の形式で分配されてもよい。
特許請求の範囲におけるいずれかの参照符号は、その範囲を限定するものとして解釈されるべきではない。

Claims (13)

  1. 患者の身体の内部における物体の画像を生成するイメージングデバイス、前記イメージングデバイスの視野内で前記患者の身体の内部における前記物体の位置をトラッキングするトラッキングデバイスレジストレーションするレジストレーションシステムであって、
    前記患者の身体の表面上の前記物体の少なくとも1つの画像を生成する少なくとも1つの光学カメラデバイスと、
    前記少なくとも1つの画像において前記物体を検出する物体検出ユニットであり、前記物体検出ユニットは、前記少なくとも1つの画像における前記物体の位置データを取得するために、前記物体の前記少なくとも1つの画像を分析するように適合された物体検出ユニットと
    を有し、
    前記イメージングデバイスへの前記トラッキングデバイスのレジストレーションを規定するレジストレーションパラメータを決定するレジストレーションユニットであり、前記レジストレーションユニットは、前記物体の前記取得された位置データと、前記少なくとも1つの光学カメラデバイスと前記イメージングデバイスとの間の幾何学変換とに基づいて、前記レジストレーションパラメータを決定するように適合されたレジストレーションユニットを有することを特徴とするレジストレーションシステム。
  2. 前記物体検出ユニットは、前記物体に提供されたマーカに基づいて前記物体の前記位置データを提供するように適合される、請求項1に記載のレジストレーションシステム。
  3. 前記物体は、医療行為で使用されるように適合され、前記レジストレーションシステムは、前記物体が患者の身体の外部にある場合且つ前記患者の前記身体への前記物体の挿入前に前記レジストレーションを実行するように適合される、請求項1に記載のレジストレーションシステム。
  4. 前記レジストレーションシステムは、前記物体に対して既知の空間関係を有する他の物体が用いられる場合、当該空間関係を使用することにより、前記物体の前記取得されたレジストレーションパラメータに基づいて、前記他の物体のレジストレーションパラメータを取得するように適合される、請求項1に記載のレジストレーションシステム。
  5. 前記物体検出ユニットは、前記位置データを取得するために前記物体の予め規定された形状を使用するように適合される、請求項1に記載のレジストレーションシステム。
  6. 前記レジストレーションユニットは、前記イメージングデバイスの画像と、前記患者に提供されたトラッキングマーカとのうち少なくとも1つに基づいて、レジストレーションを更新又は改善するように適合される、請求項1に記載のレジストレーションシステム。
  7. 物体を撮像するイメージングシステムであって、
    患者の身体の内部における関心のある領域の画像を生成するイメージングデバイスと、
    前記関心のある領域の前記患者の身体の内部における前記物体の位置をトラッキングするトラッキングデバイスと、
    レジストレーションパラメータを決定する請求項1に記載のレジストレーションシステムと、
    前記物体の前記トラッキングされた位置と、前記決定されたレジストレーションパラメータとに基づいて、前記関心のある領域の前記画像内の前記物体の前記位置を決定する位置決定ユニットと
    を有するイメージングシステム。
  8. インターベンショナル処置を実行するインターベンショナル機器と、
    前記インターベンショナル機器を撮像する請求項7に記載のイメージングシステムと
    を有するインターベンショナルシステム。
  9. 前記インターベンショナル機器は、イメージングデバイスの視野内で前記インターベンショナル機器の前記位置をトラッキングするトラッキングデバイスへの前記インターベンショナル機器の画像を生成するイメージングデバイスのレジストレーション中に、レジストレーションマーカが光学カメラデバイスにより撮影される画像に基づいて検出可能であるように、前記インターベンショナル機器の光特性と異なる光特性を有する複数のレジストレーションマーカを有する、請求項8に記載のインターベンショナルシステム。
  10. 前記レジストレーションマーカは、プラスチック材料又はシリコーンで作られる、請求項9に記載のインターベンショナルシステム。
  11. 患者の身体の内部における物体の画像を生成するイメージングデバイス、前記イメージングデバイスの視野内で前記患者の身体の内部における前記物体の位置をトラッキングするトラッキングデバイスレジストレーションするレジストレーション方法であって、
    前記患者の身体の表面上の前記物体の少なくとも1つの画像を生成する少なくとも1つのカメラデバイスを使用することにより、前記物体の少なくとも1つの画像を生成するステップと、
    前記少なくとも1つの画像における前記物体の位置データを取得するために、前記物体の前記少なくとも1つの画像を分析するステップと
    を有し、
    前記物体の前記取得された位置データと、前記少なくとも1つの光学カメラデバイスと前記イメージングデバイスとの間の幾何学変換とに基づいて、前記イメージングデバイスへの前記トラッキングデバイスのレジストレーションを規定するレジストレーションパラメータを決定するステップを有することを特徴とするレジストレーション方法。
  12. 患者の身体の内部における物体の画像を生成するイメージングデバイスにより、関心のある領域の画像を生成するステップと、
    前記患者の身体の内部における前記物体の位置をトラッキングするトラッキングデバイスにより、前記関心のある領域の前記物体の位置をトラッキングするステップと、
    請求項11に記載のレジストレーション方法により、レジストレーションパラメータを決定するステップと、
    前記物体の前記トラッキングされた位置と、前記関心のある領域の前記画像と、前記決定されたレジストレーションパラメータとに基づいて、前記関心のある領域の前記画像内の前記物体の前記位置を示す位置画像を生成するステップと
    を有するレジストレーション方法。
  13. 患者の身体の内部における物体の画像を生成するイメージングデバイス、前記イメージングデバイスの視野内で前記患者の身体の内部における前記物体の位置をトラッキングするトラッキングデバイスレジストレーションするレジストレーションコンピュータプログラムであって、
    前記レジストレーションコンピュータプログラムがレジストレーションシステムを制御するコンピュータで実行された場合、請求項1に記載のレジストレーションシステムに対して請求項11に記載のレジストレーション方法のステップを実行させるプログラムコード手段を有することを特徴とするレジストレーションコンピュータプログラム。
JP2016536998A 2013-12-10 2014-12-02 イメージングシステムへの光学形状検知システムの放射線のないレジストレーション Active JP6243533B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13196480 2013-12-10
EP13196480.1 2013-12-10
PCT/EP2014/076156 WO2015086364A1 (en) 2013-12-10 2014-12-02 Radiation-free registration of an optical shape sensing system to an imaging system

Publications (3)

Publication Number Publication Date
JP2016539713A JP2016539713A (ja) 2016-12-22
JP2016539713A5 JP2016539713A5 (ja) 2017-04-20
JP6243533B2 true JP6243533B2 (ja) 2017-12-06

Family

ID=49884906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016536998A Active JP6243533B2 (ja) 2013-12-10 2014-12-02 イメージングシステムへの光学形状検知システムの放射線のないレジストレーション

Country Status (5)

Country Link
US (1) US10786309B2 (ja)
EP (1) EP3079622B1 (ja)
JP (1) JP6243533B2 (ja)
CN (1) CN105873538B (ja)
WO (1) WO2015086364A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013213761A1 (de) * 2013-07-15 2015-01-15 Sirona Dental Systems Gmbh Verfahren zur Erzeugung einer Röntgenaufnahme
US10842453B2 (en) * 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
KR102488295B1 (ko) 2016-05-23 2023-01-16 마코 서지컬 코포레이션 로봇 수술 절차 동안 물리적 오브젝트를 식별하고 추적하기 위한 시스템 및 방법
WO2018104162A1 (en) * 2016-12-05 2018-06-14 Koninklijke Philips N.V. Systems and methods for determining the length of a non-shape-sensed interventional device with a shape-sensed guidewire and determining a state of the guidewire with respect to an interventional device
EP3508130A1 (en) * 2018-01-03 2019-07-10 Koninklijke Philips N.V. Field of view adjustment
JP7511555B2 (ja) * 2018-11-18 2024-07-05 トリグ メディカル リミテッド 画像装置のための空間的位置合わせ方法
EP3682836A1 (en) * 2019-01-21 2020-07-22 Koninklijke Philips N.V. Assisting in moving an insertion element within an object
CN113905682A (zh) * 2019-03-25 2022-01-07 福斯移动有限公司 用于在x射线设备或超声设备环境中瞄准和对准治疗工具的系统和方法
CA3131071A1 (en) * 2019-04-04 2020-10-08 Centerline Biomedical, Inc. Spatial registration of tracking system with an image using two-dimensional image projections
CN111134702B (zh) * 2019-12-17 2024-04-12 佗道医疗科技有限公司 一种c臂机自动控制系统及方法
CN115429431A (zh) * 2022-11-07 2022-12-06 中南大学 一种可定位介入导丝尖端的轨迹追踪装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US6473489B2 (en) 1999-09-30 2002-10-29 Siemens Corporate Research, Inc Apparatus for superimposition of X-ray and video images
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
WO2007115825A1 (en) * 2006-04-12 2007-10-18 Nassir Navab Registration-free augmentation device and method
US8022990B2 (en) 2006-08-18 2011-09-20 General Electric Company Systems and methods for on-line marker-less camera calibration using a position tracking system
US20080319491A1 (en) * 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
EP2072012A1 (en) 2007-12-18 2009-06-24 Siemens Aktiengesellschaft Method for calibration of a camera augmented C-arm
US20100056904A1 (en) * 2008-09-02 2010-03-04 Saunders John K Image guided intervention
US20110098553A1 (en) 2009-10-28 2011-04-28 Steven Robbins Automatic registration of images for image guided surgery
DE102010015633B4 (de) 2010-04-20 2017-02-16 Siemens Healthcare Gmbh Verfahren zum Einsatz einer Markervorrichtung bei einem bildgebenden Durchleuchtungssystem, Markervorrichtung und bildgebendes Durchleuchtungssystem
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
WO2012149548A2 (en) 2011-04-29 2012-11-01 The Johns Hopkins University System and method for tracking and navigation
US20130033700A1 (en) * 2011-08-05 2013-02-07 Abdelbasset Hallil Radiation dosimeter with localization means and methods
WO2013102827A1 (en) * 2012-01-03 2013-07-11 Koninklijke Philips Electronics N.V. Position determining apparatus

Also Published As

Publication number Publication date
WO2015086364A1 (en) 2015-06-18
JP2016539713A (ja) 2016-12-22
CN105873538A (zh) 2016-08-17
US20160296292A1 (en) 2016-10-13
US10786309B2 (en) 2020-09-29
EP3079622B1 (en) 2017-08-02
EP3079622A1 (en) 2016-10-19
CN105873538B (zh) 2019-07-02

Similar Documents

Publication Publication Date Title
JP6243533B2 (ja) イメージングシステムへの光学形状検知システムの放射線のないレジストレーション
JP7093801B2 (ja) 手術中の位置調整および誘導を容易にするシステム
RU2634296C2 (ru) Устройство для определения положения
JP5207795B2 (ja) 撮像対象中の対象物をナビゲーションするシステム及び方法
JP2016539713A5 (ja) イメージングシステムへの光学形状検知システムの放射線のないレジストレーション
US10762380B2 (en) Registration system for registering an imaging device with a tracking device
US8275445B2 (en) System and method for determining the position of an instrument
JP6559532B2 (ja) X線透視画像のリアルタイムシミュレーション
RU2687826C2 (ru) Устройство оказания помощи пользователю во время хирургической процедуры
US20160161575A1 (en) Combined field location and mri tracking
Bourier et al. Accuracy assessment of catheter guidance technology in electrophysiology procedures: a comparison of a new 3D‐based fluoroscopy navigation system to current electroanatomic mapping systems
US20160157887A1 (en) Apparatus For Generating Needle Insertion Path For Interventional Robot
Dang et al. Robust methods for automatic image‐to‐world registration in cone‐beam CT interventional guidance
JP7049325B6 (ja) 体外画像における器具に関連する画像オブジェクトの可視化
Elayaperumal et al. Autonomous real-time interventional scan plane control with a 3-D shape-sensing needle
Lin et al. Real-time automatic registration in optical surgical navigation
JP7463625B2 (ja) ナビゲーションサポート
JP6703470B2 (ja) データ処理装置及びデータ処理方法
US20210145372A1 (en) Image acquisition based on treatment device position
EP4193908A1 (en) Improving mapping of an anatomical cavity and/or location tracking in the anatomical cavity
JP2023510852A (ja) 光ファイバ形状感知に基づく画像強調
RU2574374C2 (ru) Определение конкретной ориентации объекта

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170317

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170317

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171109

R150 Certificate of patent or registration of utility model

Ref document number: 6243533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250