JP7214390B2 - ダミーデバイス及び物理3dモデルを使用して患者の器官内の医療デバイスのナビゲーションを可視化すること - Google Patents

ダミーデバイス及び物理3dモデルを使用して患者の器官内の医療デバイスのナビゲーションを可視化すること Download PDF

Info

Publication number
JP7214390B2
JP7214390B2 JP2018148200A JP2018148200A JP7214390B2 JP 7214390 B2 JP7214390 B2 JP 7214390B2 JP 2018148200 A JP2018148200 A JP 2018148200A JP 2018148200 A JP2018148200 A JP 2018148200A JP 7214390 B2 JP7214390 B2 JP 7214390B2
Authority
JP
Japan
Prior art keywords
physical
model
patient
dummy
medical device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018148200A
Other languages
English (en)
Other versions
JP2019048044A (ja
Inventor
ツビ・デケル
バディム・グリナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Publication of JP2019048044A publication Critical patent/JP2019048044A/ja
Application granted granted Critical
Publication of JP7214390B2 publication Critical patent/JP7214390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/24Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/30Anatomical models
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00707Dummies, phantoms; Devices simulating patient or parts of patient
    • A61B2017/00716Dummies, phantoms; Devices simulating patient or parts of patient simulating physical properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Description

本発明は、概して、患者の器官内の医療デバイスを追跡することに関し、より具体的には、ダミーデバイス及び三次元(3D)物理モデルを使用して医療デバイスのナビゲーションを補助するための方法及びシステムに関する。
様々な医療処置において、視覚3Dモデルは、医師が患者の器官内の医療用ツールをナビゲートするのを補助するために表示される。
例えば、米国特許出願公開第2010/0268068号は、心腔の画像データを得るための、かつその画像データから3Dモデルを作成するための、撮像システムを有する心腔内の医療介入処置のためのシステム及び方法を記載する。その特許出願は、3Dモデルを心腔のリアルタイム画像と位置合わせするための、かつ3Dモデルを表示するための介入システムと、介入システム上に表示されるように、かつ位置合わせされた3Dモデル上をリアルタイムでナビゲートされるように、心腔内に位置付けられた介入ツールとを更に記載する。
米国特許出願公開第2012/0280988号は、対象の内部の又は隠れた特徴の仮想3Dモデルと、相互作用されている物理モデル又は対象と、物理対象と相互作用するために使用される追跡器具とを含む、対話型複合現実シミュレータを記載する。
本明細書に記載される本発明の一実施形態は、患者の身体内で動く医療デバイスの第1の位置の第1の配列を受信することを含む方法を提供する。医療デバイスの第1の位置は、第1の配列を模倣する第2の位置の第2の配列において、身体の外部のダミーデバイスを自動的に動かすことによって、ユーザに可視化される。
いくつかの実施形態では、第1の配列を受信することは、それぞれの第1の位置における医療デバイスの第1の配向を受信することを含み、ダミーデバイスを動かすことは、それぞれの第2の位置における第2の配向にダミーデバイスを配向させて、第1の配向を模倣することを更に含む。他の実施形態では、医療デバイスは、耳鼻咽喉(ENT)ツール又はガイドワイヤを含む。更に他の実施形態では、ダミーデバイスを自動的に動かすことは、患者の身体の少なくとも一部をモデル化する物理三次元(3D)モデルにおいてダミーデバイスを動かすことを含み、物理3Dモデルは、身体の外部にある。
一実施形態では、方法は、身体の少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、1つ又は2つ以上の解剖学的画像に基づき、物理3Dモデルを生成するための命令を導出することによって、物理3Dモデルを生成することを含む。別の実施形態では、物理3Dモデルを生成することは、命令に基づき、3Dプリンタを使用して物理3Dモデルを印刷することを含む。別の実施形態では、ダミーデバイスを自動的に動かすことは、ダミーデバイスに連結されたロボットを制御して、ダミーデバイスを第2の位置に動かすことを含む。
いくつかの実施形態では、ダミーデバイスを自動的に動かすことは、第2の位置においてマーカを投影するプロジェクタを制御することを含む。他の実施形態では、第1の位置は、第1の座標系内に提供され、第2の位置は、第2の座標系内に提供され、方法は、第1の座標系と第2の座標系との間で位置合わせすることを含む。
一実施形態では、ダミーデバイスを自動的に動かすことは、患者の身体の少なくとも一部をモデル化する、身体の外部の三次元(3D)シーン内のダミーデバイスを動かすことを含む。別の実施形態では、方法は、器官の少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、1つ又は2つ以上の解剖学的画像に基づき、3Dシーンを構築するための命令を導出することによって、3Dシーンを構築することを含む。
本発明の一実施形態に従って、インターフェース及びプロセッサを含む装置が更に提供される。インターフェースは、患者の身体内を動く医療デバイスの第1の位置の第1の配列を受信するように構成されている。プロセッサは、第1の配列を模倣する第2の位置の第2の配列において、身体の外部のダミーデバイスを自動的に動かすことによって、医療デバイスの第1の位置をユーザに可視化するように構成されている。
本発明は、以下の発明を実施するための形態を図面と併せて考慮すると、より完全に理解されよう。
本発明の一実施形態による、副鼻腔形成外科システムの概略的な絵画図である。 本発明の一実施形態による、器官内の医療デバイスの位置及び配向を可視化するための方法を概略的に図示するフローチャートである。
概略
副鼻腔形成術などのいくつかの医療処置は、医療デバイスが挿入される患者の器官に対する医療デバイスの可視化を必要とする。
本明細書で以下に記載される本発明の実施形態は、患者の器官に対する医療デバイス、例えば、副鼻腔形成処置における患者の頭部の副鼻腔に対する耳鼻咽喉(ENT)ツールを可視化するための改良された技術を提供する。開示される技術は、ENTツールの動きを模倣するが、医療的な機能性は有しない、ダミーデバイスを利用する。本開示の文脈及び特許請求の範囲において、「ツール」及び「デバイス」という用語は、互換的に使用され、任意の好適な医療及び/又はダミーデバイスを指す。
いくつかの実施形態では、典型的には副鼻腔形成処置の前に適用される準備手順において、副鼻腔形成術システムのプロセッサは、患者の頭部のそれぞれのスライスを表す描写する複数の二次元(2D)コンピュータ断層撮影(CT)画像を受信する。プロセッサは、CT画像に基づき、患者のENT器官、例えば、患者の副鼻腔の仮想三次元(3D)モデルを導出するように構成されている。プロセッサは、副鼻腔を含む患者の頭部の少なくとも一部の物理3Dモデルを生成するための命令を生成するように更に構成されている。3Dプリンタは、印刷命令に基づき、物理3Dモデルを生成し、これにより、物理3Dモデルの全てのボリュームピクセル(ボクセル)が、CT画像の仮想3Dモデルの対応するボクセルと位置合わせされる。
本文脈において、「仮想3Dモデル」という用語は、典型的には、プロセッサにアクセス可能な好適なメモリに記憶された、器官のコンピュータ化された表示を指す。「物理3Dモデル」という用語は、器官の有形の物質複製を指す。
いくつかの実施形態では、位置追跡システムの第1及び第2の位置センサは、ENTツール及びダミーツールのそれぞれの遠位先端に連結されている。一実施形態では、プロセッサは、CTシステム及び位置追跡システムによって使用される座標系間で位置合わせするように構成されている。この実施形態では、ENTツール及びダミーツールの位置の両方が、位置追跡システムの座標系において測定され、副鼻腔形成術システムのディスプレイ上及び物理3Dモデル上に表示される。
医療処置の適用において、医師は、患者の鼻にENTツールを挿入する。ENTツールは、患者の身体内で第1の位置及び配向の第1の配列で動くと見なされ得る。いくつかの実施形態では、ダミーツールに連結されたロボットが、ダミーツールを物理3Dモデルに挿入する。ロボットは、医療デバイスのそれぞれの第1の位置及び配向を模倣する第2の位置及び配向の第2の配列で、物理3Dモデル内でダミーツールを動かす。このように、視界から隠れている医療用ツールの位置及び配向は、物理3Dモデル内のダミーツールの動きによって、自動的かつ連続的に医師に可視化される。
開示される技術は、非常に分岐した器官内で実行される副鼻腔形成術などの医療処置において特に重要である。そのような処置において、開示される技術は、標的位置への正確なナビゲーションを可能にし、ナビゲーションエラーの低減に役立ち、それにより、処置の全体的なサイクル時間を短縮する。
更に、開示される技術は、対象となっている器官に対する医療用ツールの位置及び配向を検証するために、処置中に有害なX線照射を患者に照射する必要性を取り除く。
システムの説明
図1は、本発明の実施形態による、副鼻腔形成外科システム10の概略的な絵画図である。一実施形態では、システム20は、プロセッサ34と、入力デバイス39と、ユーザディスプレイ36とを備える、コンソール33を備える。
一実施形態では、準備手順において、プロセッサ34は、外部CTシステム(図示せず)を使用して得られた患者22の頭部41のそれぞれのセグメント化された二次元(2D)スライスを描写する1つ又は2つ以上のコンピュータ断層撮影(CT)画像を受信するように構成されている。「セグメント化」という用語は、CTシステム内の組織のそれぞれの減衰を測定することによって、各スライス内で識別される様々な種類の組織を表示することを指す。
いくつかの実施形態では、プロセッサ34は、CT画像に基づき、頭部41の仮想三次元(3D)モデルを構築するように構成されている。他の実施形態では、CTシステムのプロセッサは、仮想3Dモデルを構築してもよい。いくつかの実施形態では、プロセッサ34は、CT画像の中から画像35などの1つ又は2つ以上の選択されたスライスをディスプレイ36上に表示するように構成されている。図1の例では、画像35は、副鼻腔58及び頭部41の鼻甲介組織内の鼻道などの前頭洞及び上顎洞の断面図である。
一実施形態では、プロセッサ34は、CT画像に基づき、頭部41の少なくとも一部の物理三次元(3D)モデル60を生成するための命令を導出するように更に構成されている。物理3Dモデルは、3Dプリンタ又は他の任意の好適な生成技術を使用して生成されてもよい。両方のモデルが頭部41のCT画像に基づいているため、物理3Dモデル60の全てのボリュームピクセル(ボクセル)が、仮想3Dモデルの対応するボクセルと位置合わせされることに留意されたい。
いくつかの実施形態では、モデル60は、画像35内に表示される断面図を含む頭部41の複数の隣接するスライスの積み重ねの物理モデルを含んでもよく、これにより、物理3Dモデル60の副鼻腔68は、副鼻腔58の断面図を物理的にモデル化する。他の実施形態では、物理3Dモデル60は、副鼻腔58などの患者のENT系の関心領域(ROI)のみ、及び任意にROIの周辺数ミリメートル又は数センチメートルに位置する組織を含む。
いくつかの実施形態では、システム20は、ハンドル30によって制御され、例えば、頭部41の副鼻腔58内の副鼻腔形成処置を実施するように構成されている、ガイドワイヤ又は外科用耳鼻咽喉(ENT)ツール52などの医療デバイスを備える。
物理3Dモデルにおけるダミーデバイスを使用した医療デバイスナビゲーションの可視化
副鼻腔形成処置中、医師24は、鼻26を通してENTツール52を挿入して、ENTツール52の遠位先端を副鼻腔58内にナビゲートしてもよい。一実施形態では、医師24は、座標系51を使用する位置追跡システムを使用して、ツール52を副鼻腔58内にナビゲートしてもよい。この実施形態では、プロセッサ34は、CTシステムの座標系51と座標系61との間で位置合わせするように構成されている。本実施形態では、ENTツールの位置は、例えば、画像35上に重ね合わされたマーカとして、ディスプレイ36上に表示されてもよい。
画像35がROIの2Dスライス(例えば、副鼻腔58の断面図)のみを描写し、したがって、副鼻腔58内の正確な所望の位置において副鼻腔形成処置を実施するために必要とされるよりも少ない情報を含み得ることに留意されたい。いくつかの実施形態では、システム20は、ENTツール52(図1に示されるような)に似たサイズ及び形状、若しくは任意の他の好適なサイズ及び形状を有する物理デバイスなどのダミーツール62、又は物理3Dモデル60上に投影されるマーカ、又は任意の他の好適な種類のダミーツールを備える。
いくつかの実施形態では、ダミーツール62は、ロボット70のアーム72に連結され、ロボット70は、ダミーツール62の遠位先端を、物理3Dモデル60の副鼻腔68内の標的位置にナビゲートするために、アーム72を動かすように構成されている。
いくつかの実施形態では、システム20は、磁気位置追跡システムを含み、それは、位置センサ56及び66などの1つ又は2つ以上の位置センサの位置及び配向を追跡するように構成されている。図1の例では、位置センサ56は、ENTツール52に連結され、位置センサ66は、ダミーツール62に連結されている。
いくつかの実施形態では、磁気位置追跡システムは、磁場発生器44と、位置センサ56及び66とを備える。センサ56及び66は、磁界発生器44からの検知された外部磁界に応答して位置信号を生成するように構成されている。一実施形態では、プロセッサ34は、磁気位置システムの座標系51内のセンサ56及び66の位置をマッピングするように構成されている。
この位置検知方法は、様々な医療用途において、例えば、Biosense Webster Inc.(Diamond Bar、Calif.)により製造されているCARTO(商標)システムにおいて実施されており、米国特許第5,391,199号、同第6,690,963号、同第6,484,118号、同第6,239,724号、同第6,618,612号及び同第6,332,089号、国際公開第96/05768号、並びに米国特許出願公開第2002/0065455(A1)号、同第2003/0120150(A1)号及び同第2004/0068178(A1)号に詳述されており、これらの開示は全て、参照により本明細書に組み込まれている。
いくつかの実施形態では、ENTツール52の遠位先端に連結された位置センサ56は、患者22の頭部41において追跡され、これにより、センサ56の座標が、位置追跡システムの座標系51において報告される。いくつかの実施形態では、ダミーツール62の遠位先端に連結されたセンサ66は、座標系51を参照して報告され、物理3Dモデル60において追跡され、それは、CTシステムの座標系61と位置合わせされる。いくつかの実施形態では、プロセッサ34は、頭部41内のツール52のそれぞれの位置及び配向を模倣する位置及び配向に、物理3Dモデル60内でダミーツール62を動かすことを可能にするために、座標系51と61との間で位置合わせするように構成されている。
本実施例では、システム20は、ロケーションパッド40を備え、ロケーションパッドは、フレーム46上に固定された複数の磁場発生器44を備える。図1に示される例示的な構成では、パッド40は、5つの磁場発生器44を備えるが、任意の他の好適な数の磁場発生器44が使用され得る。
いくつかの実施形態では、パッド40は、磁場発生器44が患者の外部の固定された既知の位置に位置するように、患者22の頭部41の下に配置されている。一実施形態では、コンソール33は、頭部41の周りに既定の動作容積で磁場を生成するように、好適な信号で磁場発生器44を駆動させるように構成された駆動回路(図示せず)を更に備える。
一実施形態では、プロセッサ34は、典型的には、CT撮像システムなどの外部源からデータを受信するための好適なフロントエンド回路及びインターフェース回路を備える汎用コンピュータである。プロセッサ34は、それぞれがハンドル30及びロボット70に接続され、かつシステム20の他の構成要素を制御するためのそれぞれのケーブル32及び74を介して、センサ56及び66から位置信号を受信するように更に構成されている。
いくつかの実施形態では、プロセッサ34は、頭部41内を動くツール52の遠位先端の位置及び配向の第1の配列を、センサ56から受信するように構成されている。第1の配列に基づき、プロセッサ34は、ダミーツール62の各位置及び配向が、ENTツール52のそれぞれの位置及び配向を模倣するように、物理3Dモデル60内の位置及び配向の第2の配列で、ダミーツール62を自動的に動かすようにロボット70を設定するように構成されている。
いくつかの実施形態では、プロセッサ34は、例えば、座標系51において、ダミーツール62とENTツール52との間で位置合わせするように構成されている。これらの実施形態では、位置センサ66は、システム20の構成から省略されてもよく、又は代替的に、ダミーツール62の位置を検証するための制御手段として使用されてもよい。
いくつかの実施形態では、プロセッサ34は、画像35及び物理3Dモデル60におけるセンサ56及び66のそれぞれの位置を同時に表示するように構成されている。一実施形態では、プロセッサ34は、画像35上及び/又はディスプレイ36上の他の場所で重ね合わされた、仮想マーカ及び様々な測定値などのデータを表示するように更に構成されている。この実施形態では、医師24は、ツール52をナビゲートするための物理3Dモデル60と、ディスプレイ36上に表示されたデータとを使用して、副鼻腔形成処置を実施することができる。
代替的な実施形態では、1つ又は2つ以上のCT画像を受信する代わりに、プロセッサ34は、磁気共鳴画像法(MRI)などの別の好適な解剖学的撮像技術を使用して取得される1つ又は2つ以上の画像を受信するように、かつ上記のように、MRIシステムと位置追跡システムの座標系間で位置合わせするように構成されている。
代替的な実施形態では、物理3Dモデル60は、印刷された3D物理モデルの代わりに、任意の種類の3Dモデルを含んでもよい。例えば、一実施形態では、プロセッサ34は、CT画像に基づき構築されたホログラムなどの3Dシーンを構築するように、かつ好適なホログラフィックディスプレイ上にホログラムを表示するように構成されている。これらの実施形態では、プロセッサ34は、マーカがダミーツールの遠位先端又は任意の他の好適な部分を示すように、3Dシーン上にマーカを投影することによって、ENTツール52の位置を模倣するように更に構成されている。代替的に、ダミーツール62などの物理ダミーツールが、シーン内のENTツール52の位置及び配向を模倣するために使用されてもよい。
図1は、簡潔性かつ明瞭性のため、開示技法に関連する要素のみを示す。システム20は、典型的に、開示技法に直接には関連せず、したがって図1及び対応する説明から意図的に省略されている付加的なモジュール及び要素を備える。
プロセッサ34は、システムによって使用される機能を実行するように、かつソフトウェアによって処理されるか、又は別様に使用されるデータをメモリ(図示せず)に記憶するようにプログラムされ得る。このソフトウェアは、例えばネットワークを介して電子的形態でプロセッサにダウンロードされてもよく、又は光学的、磁気的、若しくは電子的メモリ媒体など、持続性の有形媒体上に提供されてもよい。代替的に、プロセッサ34の機能の一部又は全ては、専用の又はプログラム可能なデジタルハードウェア構成要素によって実行されてもよい。
図2は、本発明の一実施形態による、頭部41内のENTツール52の位置及び配向を可視化するための方法を概略的に図示するフローチャートである。いくつかの実施形態では、方法は、医療処置の前に実行される準備手順、及び医療処置中に実行される操作を含む。
準備手順は、画像取得ステップ100において、プロセッサ34が頭部41の1つ又は2つ以上の解剖学的画像を受信することから始まる。いくつかの実施形態では、CTシステムなどの解剖学的撮像システムは、頭部41の断面視画像の複数の2Dスライスを取得する。いくつかの実施形態では、2Dスライスは、各スライス内の様々な種類の組織を識別するようにセグメント化される。
いくつかの実施形態では、プロセッサ34は、2Dスライスに基づき、頭部41の仮想3Dモデルを構築するように、又はCTシステムから頭部41の仮想3Dモデルを受信するように構成されている。
物理3Dモデル形成ステップ102において、プロセッサ34は、受信されたCT画像に基づき、3Dプリンタ又は任意の他の好適な生成技術を使用して生成される、頭部41の少なくとも一部の物理3Dモデル60を生成するための命令を導出する。両方のモデルが頭部41の同じCT画像から導出されるため、物理3Dモデル60の全てのボクセルが、画像取得ステップ100において記載される仮想3Dモデルの対応するボクセルと位置合わせされることに留意されたい。したがって、物理3Dモデル60は、CTシステムの座標系61と位置合わせされる。
いくつかの実施形態では、物理3Dモデル60は、モデル60の副鼻腔68が副鼻腔58の断面図の物理3Dモデルであるように、画像35に表示される断面図の物理モデルを含む。
準備手順を完了する位置合わせステップ104において、プロセッサ34は、位置追跡システムの座標系51とCTシステムの座標系61との間で位置合わせする。この位置合わせスキームは、物理3Dモデル60(座標系61と位置合わせされる)における、ダミーツール62の位置及び配向(座標系51において報告される)を追跡することを支持する。この位置合わせスキームは、センサ56及び66から受信された位置信号を使用して、ENTツール52及びダミーツール62の位置及び配向をそれぞれ、かつ典型的には同時に報告することを更に支持する。
図2の方法の医療処置の第1のステップであるENTツール挿入ステップ106において、医師24は、その遠位先端に位置センサ56が連結されたENTツール52を、患者22の頭部41に挿入する。
配列取得ステップ108において、プロセッサ34は、頭部41内のENTツール52の遠位先端の位置及び配向を示す位置信号の第1の配列を、ハンドル30及びケーブル32を介してセンサ56から受信する。この方法を完了する3D可視化ステップ110において、プロセッサ34は、ENTツール52の位置及び配向の第1の配列を模倣する位置及び配向の第2の配列において、3Dモデル60内のダミーツール62を自動的に動かすことによって、ENTツール52の位置及び配向を医師24に可視化するようにロボット70を設定する。
他の実施形態では、ダミーツール62は、上記の図1に示されるロボット70、アーム72、物理ダミーツール62、及びセンサ66に代わるプロジェクタ(図示せず)を備えてもよい。プロセッサ34によって制御されるプロジェクタは、プロセッサ34から位置及び命令を受信するように、かつENTツール52の位置の第1の配列を模倣する位置の第3の配列において、3Dモデル60上に投影されたマーカを自動的に動かすことによって、ENTツール52の位置を可視化するように構成されている。
更に他の実施形態では、システム20は、ホログラムなどの3Dシーンを表示するように構成されたホログラフィックディスプレイ(図示せず)を備える。ホログラフィックディスプレイは、印刷された物理3Dモデル60などの物理3Dモデルに代わることができる。これらの実施形態では、3DシーンがCT画像に基づき構築された少なくともROI(例えば、副鼻腔58)を含むように、プロセッサ34は、ホログラフィックディスプレイ上に3Dシーンを表示する。
一実施形態では、プロセッサ34(例えば、プロジェクタを使用する)は、ホログラフィック物体として、又はマーカとして、3Dシーン上に投影される(例えば、異なる光の色を使用して)、ダミーツール62を投影する。別の実施形態では、プロセッサ34は、上記の図1に示される構成を使用して、ホログラムにおいてダミーツール62などの物理ダミーツールを動かす。
代替的な実施形態では、位置センサ56及び66のうちの少なくとも1つが、遠位先端とは異なる任意の好適な位置において、それぞれのツール52及び62に連結されてもよい。例えば、ENTツール52は、副鼻腔58から物質を引き出すように構成された中空管を備えてもよい。この構成において、オフセットが上記の操作のためにプロセッサ34内で保持されるように、センサ56は、遠位先端から既定のオフセットでツール52の遠位端上に取り付けられてもよい。これらの実施形態では、プロセッサ34は、このオフセット、及び場合によっては、ツール62の遠位先端に対するセンサ66の位置に対する追加のオフセットを使用して、ツール52と62との間で位置合わせするように構成されている。
本明細書に記載される実施形態において、ダミーデバイス(例えば、ダミーツール62)は、医療デバイス(例えば、ENTツール52)の位置及び配向の両方を模倣する。代替的な実施形態では、ダミーデバイスは、医療デバイスの(配向ではなく)位置のみを模倣してもよい。この実装は、低減された機能性を有するが、システム(例えば、ロボット)を大幅に簡素化し得る。
本明細書に記載される実施形態は、主として副鼻腔形成処置に対処するが、本明細書に記載される方法及びシステムは、他の用途でも使用され得る。
したがって、上記に述べた実施形態は、例として引用したものであり、また本発明は、上記に具体的に示し説明したものに限定されないことが理解されよう。むしろ本発明の範囲は、上述の様々な特徴の組み合わせ及びその一部の組み合わせの両方、並びに上述の説明を読むことで当業者により想到されるであろう、また従来技術において開示されていないそれらの変形及び修正を含むものである。参照により本特許出願に援用される文献は、これらの援用文献において、いずれかの用語が本明細書において明示的又は暗示的になされた定義と矛盾して定義されている場合には、本明細書における定義のみを考慮するものとする点を除き、本出願の一部とみなすものとする。
〔実施の態様〕
(1) 方法であって、
患者の身体内で動く医療デバイスの第1の位置の第1の配列を受信することと、
前記第1の配列を模倣する第2の位置の第2の配列において、前記身体の外部のダミーデバイスを自動的に動かすことによって、前記医療デバイスの前記第1の位置をユーザに可視化することと、を含む、方法。
(2) 前記第1の配列を受信することが、前記それぞれの第1の位置における前記医療デバイスの第1の配向を受信することを含み、前記ダミーデバイスを動かすことが、前記それぞれの第2の位置における第2の配向に前記ダミーデバイスを配向させて、前記第1の配向を模倣することを更に含む、実施態様1に記載の方法。
(3) 前記医療デバイスが、耳鼻咽喉(ENT)ツール又はガイドワイヤを備える、実施態様1に記載の方法。
(4) 前記ダミーデバイスを自動的に動かすことが、前記患者の前記身体の少なくとも一部をモデル化する物理三次元(3D)モデルにおいて前記ダミーデバイスを動かすことを含み、前記物理3Dモデルが、前記身体の外部にある、実施態様1に記載の方法。
(5) 前記身体の前記少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、前記1つ又は2つ以上の解剖学的画像に基づき、前記物理3Dモデルを生成するための命令を導出することによって、前記物理3Dモデルを生成することを含む、実施態様4に記載の方法。
(6) 前記物理3Dモデルを生成することが、前記命令に基づき、3Dプリンタを使用して前記物理3Dモデルを印刷することを含む、実施態様5に記載の方法。
(7) 前記ダミーデバイスを自動的に動かすことが、前記ダミーデバイスに連結されたロボットを制御して、前記ダミーデバイスを前記第2の位置に動かすことを含む、実施態様1に記載の方法。
(8) 前記ダミーデバイスを自動的に動かすことが、前記第2の位置においてマーカを投影するプロジェクタを制御することを含む、実施態様1に記載の方法。
(9) 前記第1の位置が、第1の座標系内に提供され、前記第2の位置が、第2の座標系内に提供され、前記第1の座標系と前記第2の座標系との間で位置合わせすることを含む、実施態様1に記載の方法。
(10) 前記ダミーデバイスを自動的に動かすことが、前記患者の前記身体の少なくとも一部をモデル化する、前記身体の外部の三次元(3D)シーン内の前記ダミーデバイスを動かすことを含む、実施態様1に記載の方法。
(11) 器官の前記少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、前記1つ又は2つ以上の解剖学的画像に基づき、前記3Dシーンを構築するための命令を導出することによって、前記3Dシーンを構築することを含む、実施態様10に記載の方法。
(12) 装置であって、
患者の身体内で動く医療デバイスの第1の位置の第1の配列を受信するように構成されたインターフェースと、
前記第1の配列を模倣する第2の位置の第2の配列において、前記身体の外部のダミーデバイスを自動的に動かすことによって、前記医療デバイスの前記第1の位置をユーザに可視化するように構成されたプロセッサと、を備える、装置。
(13) 前記インターフェースが、位置追跡システムの位置センサから、前記それぞれの第1の位置における前記医療デバイスの第1の配向を受信するように構成され、前記プロセッサが、前記それぞれの第2の位置における第2の配向に前記ダミーデバイスを配向させて、前記第1の配向を模倣するように更に構成されている、実施態様12に記載の装置。
(14) 前記医療デバイスが、耳鼻咽喉(ENT)ツール又はガイドワイヤを備える、実施態様12に記載の装置。
(15) 前記プロセッサが、前記患者の前記身体の少なくとも一部をモデル化する物理三次元(3D)モデルにおいて前記ダミーデバイスを動かすように構成され、前記物理3Dモデルが、前記身体の外部にある、実施態様12に記載の装置。
(16) 前記プロセッサが、前記ダミーデバイスに連結され、かつ前記ダミーデバイスを前記第2の位置に動かすように構成されたロボットを制御するように構成されている、実施態様12に記載の装置。
(17) 前記プロセッサが、前記第2の位置においてマーカを投影するように構成されたプロジェクタを制御するように構成されている、実施態様12に記載の装置。
(18) 前記第1の位置が、第1の座標系内に提供され、前記第2の位置が、第2の座標系内に提供され、前記プロセッサが、前記第1の座標系と前記第2の座標系との間で位置合わせするように構成されている、実施態様12に記載の装置。
(19) 前記プロセッサが、前記患者の前記身体の少なくとも一部をモデル化する三次元(3D)シーン内の前記ダミーデバイスを自動的に動かすように構成され、前記3Dシーンが、前記身体の外部にある、実施態様12に記載の装置。
(20) 前記プロセッサが、前記身体の前記少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、前記1つ又は2つ以上の解剖学的画像に基づき、前記3Dシーンを構築するための命令を導出することによって、前記3Dシーンを構築するように構成されている、実施態様19に記載の装置。

Claims (18)

  1. 方法であって、
    患者の身体内で動く医療デバイスの前記患者の身体内での位置である第1の位置を受信することと、
    前記患者の身体の少なくとも一部を物理三次元モデル化した物理3Dモデルにおける前記第1の位置に対応する位置である第2の位置において、前記身体の外部に配置した、前記医療デバイスを模倣したダミーデバイスを自動的に動かすことによって、前記医療デバイスの前記第1の位置をユーザに可視化することと、を含
    前記第1の位置が、前記医療デバイスの座標系である第1の座標系内に提供され、前記第2の位置が、前記物理3Dモデルの座標系である第2の座標系内に提供され、前記第1の座標系と前記第2の座標系との間で位置合わせすることを含む、方法。
  2. 前記第1の位置を受信することが、前記それぞれの第1の位置における前記医療デバイスの第1の配向を受信することを含み、前記ダミーデバイスを動かすことが、前記それぞれの第2の位置における第2の配向に前記ダミーデバイスを配向させて、前記第1の配向を模倣することを更に含む、請求項1に記載の方法。
  3. 前記医療デバイスが、耳鼻咽喉(ENT)ツール又はガイドワイヤを備える、請求項1に記載の方法。
  4. 前記ダミーデバイスを自動的に動かすことが、前記理3Dモデルにおいて前記ダミーデバイスを動かすことを含み、前記物理3Dモデルが、前記身体の外部にある、請求項1に記載の方法。
  5. 前記身体の前記少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、前記1つ又は2つ以上の解剖学的画像に基づき、前記物理3Dモデルを生成するための命令を導出することによって、前記物理3Dモデルを生成することを含む、請求項4に記載の方法。
  6. 前記物理3Dモデルを生成することが、前記命令に基づき、3Dプリンタを使用して前記物理3Dモデルを印刷することを含む、請求項5に記載の方法。
  7. 前記ダミーデバイスを自動的に動かすことが、前記ダミーデバイスに連結されたロボットを制御して、前記ダミーデバイスを前記第2の位置に動かすことを含む、請求項1に記載の方法。
  8. 前記ダミーデバイスを自動的に動かすことが、前記第2の位置においてマーカを投影するプロジェクタを制御することを含む、請求項1に記載の方法。
  9. 装置であって、
    患者の身体内で動く医療デバイスの前記患者の身体内での位置である第1の位置を受信するように構成されたインターフェースと、
    前記患者の身体の少なくとも一部を物理三次元モデル化した物理3Dモデルにおける前記第1の位置に対応する位置である第2の位置において、前記身体の外部に配置した、前記医療デバイスを模倣したダミーデバイスを自動的に動かすことによって、前記医療デバイスの前記第1の位置をユーザに可視化するように構成されたプロセッサと、を備え
    前記第1の位置が、前記医療デバイスの座標系である第1の座標系内に提供され、前記第2の位置が、前記物理3Dモデルの座標系である第2の座標系内に提供され、前記プロセッサが、前記第1の座標系と前記第2の座標系との間で位置合わせするように構成されている、装置。
  10. 前記インターフェースが、位置追跡システムの位置センサから、前記それぞれの第1の位置における前記医療デバイスの第1の配向を受信するように構成され、前記プロセッサが、前記それぞれの第2の位置における第2の配向に前記ダミーデバイスを配向させて、前記第1の配向を模倣するように更に構成されている、請求項に記載の装置。
  11. 前記医療デバイスが、耳鼻咽喉(ENT)ツール又はガイドワイヤを備える、請求項に記載の装置。
  12. 前記プロセッサが、前記物理3Dモデルにおいて前記ダミーデバイスを動かすように構成され、前記物理3Dモデルが、前記身体の外部にある、請求項に記載の装置。
  13. 前記プロセッサが、前記ダミーデバイスに連結され、かつ前記ダミーデバイスを前記第2の位置に動かすように構成されたロボットを制御するように構成されている、請求項に記載の装置。
  14. 前記プロセッサが、前記第2の位置においてマーカを投影するように構成されたプロジェクタを制御するように構成されている、請求項に記載の装置。
  15. 方法であって、
    患者の身体内で動く医療デバイスの前記患者の身体内での位置である第1の位置を受信することと、
    前記患者の身体の少なくとも一部を物理三次元モデル化した物理3Dモデルにおける前記第1の位置に対応する位置である第2の位置において、前記身体の外部に配置した、前記医療デバイスを模倣したダミーデバイスを自動的に動かすことによって、前記医療デバイスの前記第1の位置をユーザに可視化することと、を含み、
    前記ダミーデバイスを自動的に動かすことが、前記患者の身体の少なくとも一部をモデル化する、前記身体の外部の三次元(3D)シーン内の前記ダミーデバイスを動かすことを含む、方法。
  16. 装置であって、
    患者の身体内で動く医療デバイスの前記患者の身体内での位置である第1の位置を受信するように構成されたインターフェースと、
    前記患者の身体の少なくとも一部を物理三次元モデル化した物理3Dモデルにおける前記第1の位置に対応する位置である第2の位置において、前記身体の外部に配置した、前記医療デバイスを模倣したダミーデバイスを自動的に動かすことによって、前記医療デバイスの前記第1の位置をユーザに可視化するように構成されたプロセッサと、を備え、
    前記プロセッサが、前記患者の身体の少なくとも一部をモデル化する三次元(3D)シーン内の前記ダミーデバイスを自動的に動かすように構成され、前記3Dシーンが、前記身体の外部にある、装置。
  17. 前記身体の少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、前記1つ又は2つ以上の解剖学的画像に基づき、前記3Dシーンを構築するための命令を導出することによって、前記3Dシーンを構築することを含む、請求項15に記載の方法。
  18. 前記プロセッサが、前記身体の少なくとも一部の1つ又は2つ以上の解剖学的画像を受信し、前記1つ又は2つ以上の解剖学的画像に基づき、前記3Dシーンを構築するための命令を導出することによって、前記3Dシーンを構築するように構成されている、請求項16に記載の装置。
JP2018148200A 2017-08-08 2018-08-07 ダミーデバイス及び物理3dモデルを使用して患者の器官内の医療デバイスのナビゲーションを可視化すること Active JP7214390B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/671,979 2017-08-08
US15/671,979 US10898272B2 (en) 2017-08-08 2017-08-08 Visualizing navigation of a medical device in a patient organ using a dummy device and a physical 3D model

Publications (2)

Publication Number Publication Date
JP2019048044A JP2019048044A (ja) 2019-03-28
JP7214390B2 true JP7214390B2 (ja) 2023-01-30

Family

ID=63168305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018148200A Active JP7214390B2 (ja) 2017-08-08 2018-08-07 ダミーデバイス及び物理3dモデルを使用して患者の器官内の医療デバイスのナビゲーションを可視化すること

Country Status (7)

Country Link
US (1) US10898272B2 (ja)
EP (1) EP3440988A1 (ja)
JP (1) JP7214390B2 (ja)
CN (1) CN109381260A (ja)
AU (1) AU2018211316A1 (ja)
CA (1) CA3012522A1 (ja)
IL (1) IL260781B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6499273B2 (ja) * 2015-03-20 2019-04-10 株式会社Fuji ティーチング装置及び制御情報の生成方法
CN110136522A (zh) * 2019-05-07 2019-08-16 艾瑞迈迪科技石家庄有限公司 颅底手术模拟教学培训系统
TWI741536B (zh) * 2020-03-20 2021-10-01 台灣骨王生技股份有限公司 基於混合實境的手術導航影像成像方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348091A (ja) 2003-03-26 2004-12-09 National Institute Of Advanced Industrial & Technology 実体模型及びこれを用いた手術支援システム
US20110301760A1 (en) 2010-06-07 2011-12-08 Gary Stephen Shuster Creation and use of virtual places
US20120280988A1 (en) 2010-04-09 2012-11-08 University Of Florida Research Foundation, Inc. Interactive mixed reality system and uses thereof
US20150093734A1 (en) 2013-09-27 2015-04-02 The Cleveland Clinic Foundation Surgical assistance using physical model of patient tissue
JP2017134170A (ja) 2016-01-26 2017-08-03 大日本印刷株式会社 模型および模型投影システム
JP2017529116A (ja) 2014-07-09 2017-10-05 アクラレント インコーポレイテッドAcclarent, 副鼻腔手術用のガイドワイヤ操縦法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5391199A (en) 1993-07-20 1995-02-21 Biosense, Inc. Apparatus and method for treating cardiac arrhythmias
ES2210662T3 (es) 1994-08-19 2004-07-01 Biosense, Inc. Sistemas medicos de diagnosis, de tratamiento y de imagen.
JP3634416B2 (ja) * 1994-11-22 2005-03-30 徹 早川 手術器具の位置表示装置
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6618612B1 (en) 1996-02-15 2003-09-09 Biosense, Inc. Independently positionable transducers for location system
IL125757A (en) 1996-02-15 2003-09-17 Biosense Inc Medical procedures and apparatus using intrabody probes
US6239724B1 (en) 1997-12-30 2001-05-29 Remon Medical Technologies, Ltd. System and method for telemetrically providing intrabody spatial position
US6484118B1 (en) 2000-07-20 2002-11-19 Biosense, Inc. Electromagnetic position single axis system
US7729742B2 (en) 2001-12-21 2010-06-01 Biosense, Inc. Wireless position sensor
US7778686B2 (en) 2002-06-04 2010-08-17 General Electric Company Method and apparatus for medical intervention procedure planning and location and navigation of an intervention tool
US20040068178A1 (en) 2002-09-17 2004-04-08 Assaf Govari High-gradient recursive locating system
EP2537149B1 (en) 2010-02-18 2017-10-25 University Of Virginia Patent Foundation System, method, and computer program product for simulating epicardial electrophysiology procedures
US9888973B2 (en) * 2010-03-31 2018-02-13 St. Jude Medical, Atrial Fibrillation Division, Inc. Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems
CN103959179B (zh) * 2011-10-20 2017-09-15 皇家飞利浦有限公司 用于医疗程序的全息用户界面
US9424761B2 (en) 2012-01-23 2016-08-23 Virtamed Ag Medical simulation system and method with configurable anatomy model manufacturing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348091A (ja) 2003-03-26 2004-12-09 National Institute Of Advanced Industrial & Technology 実体模型及びこれを用いた手術支援システム
US20120280988A1 (en) 2010-04-09 2012-11-08 University Of Florida Research Foundation, Inc. Interactive mixed reality system and uses thereof
US20110301760A1 (en) 2010-06-07 2011-12-08 Gary Stephen Shuster Creation and use of virtual places
US20150093734A1 (en) 2013-09-27 2015-04-02 The Cleveland Clinic Foundation Surgical assistance using physical model of patient tissue
JP2017529116A (ja) 2014-07-09 2017-10-05 アクラレント インコーポレイテッドAcclarent, 副鼻腔手術用のガイドワイヤ操縦法
JP2017134170A (ja) 2016-01-26 2017-08-03 大日本印刷株式会社 模型および模型投影システム

Also Published As

Publication number Publication date
CN109381260A (zh) 2019-02-26
US10898272B2 (en) 2021-01-26
JP2019048044A (ja) 2019-03-28
AU2018211316A1 (en) 2019-02-28
US20190046271A1 (en) 2019-02-14
CA3012522A1 (en) 2019-02-08
IL260781A (en) 2019-01-31
IL260781B (en) 2022-07-01
EP3440988A1 (en) 2019-02-13

Similar Documents

Publication Publication Date Title
RU2714665C2 (ru) Направляющая система для позиционирования пациента для медицинской визуализации
US10624701B2 (en) Apparatuses and methods for registering a real-time image feed from an imaging device to a steerable catheter
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
CN101268967B (zh) 用于提供校正信息的方法和装置
US8696549B2 (en) Apparatus and method for four dimensional soft tissue navigation in endoscopic applications
US7761135B2 (en) Method and device for correction motion in imaging during a medical intervention
JP7350470B2 (ja) 解剖学的画像における内視鏡の位置及び光軸の表示
JP2023053108A (ja) 同時x平面撮像を用いた画像レジストレーション及び誘導
US20150305650A1 (en) Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN108472089A (zh) 电磁传感器跟踪系统的运动框可视化
WO2012062482A1 (en) Visualization of anatomical data by augmented reality
CN103607958A (zh) 具有3d可视化的超声引导下对心脏置换瓣膜的定位
EP3392835B1 (en) Improving registration of an anatomical image with a position-tracking coordinate system based on visual proximity to bone tissue
JP7214390B2 (ja) ダミーデバイス及び物理3dモデルを使用して患者の器官内の医療デバイスのナビゲーションを可視化すること
AU2015238800A1 (en) Real-time simulation of fluoroscopic images
JP2020096783A (ja) 挿入装置位置決め案内システム及び方法
Feuerstein et al. Automatic Patient Registration for Port Placement in Minimally Invasixe Endoscopic Surgery
Wang et al. Real-time marker-free patient registration and image-based navigation using stereovision for dental surgery
JP2022517807A (ja) 医療用ナビゲーションのためのシステムおよび方法
Wengert et al. Endoscopic navigation for minimally invasive suturing
JP2022526540A (ja) 整形外科的固定制御及び可視化
CN111028326A (zh) 用于使3d对象的空间表面曲率可视化的方法、系统和介质
Kumar et al. Stereoscopic augmented reality for single camera endoscope using optical tracker: a study on phantom
CN117677358A (zh) 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R150 Certificate of patent or registration of utility model

Ref document number: 7214390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150