JP6905535B2 - 患者の体内に手術器具を位置調整するための誘導、追跡および案内システム - Google Patents

患者の体内に手術器具を位置調整するための誘導、追跡および案内システム Download PDF

Info

Publication number
JP6905535B2
JP6905535B2 JP2018545714A JP2018545714A JP6905535B2 JP 6905535 B2 JP6905535 B2 JP 6905535B2 JP 2018545714 A JP2018545714 A JP 2018545714A JP 2018545714 A JP2018545714 A JP 2018545714A JP 6905535 B2 JP6905535 B2 JP 6905535B2
Authority
JP
Japan
Prior art keywords
patient
viewer
probe
control unit
detection means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018545714A
Other languages
English (en)
Other versions
JP2019503820A5 (ja
JP2019503820A (ja
Inventor
ロティリオ,アレッサンドロ
ソルビアッティ,マルコ
ミラビレ,マウリツィオ
ゼニ,ルイジ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RAW Srl
Original Assignee
RAW Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RAW Srl filed Critical RAW Srl
Publication of JP2019503820A publication Critical patent/JP2019503820A/ja
Publication of JP2019503820A5 publication Critical patent/JP2019503820A5/ja
Application granted granted Critical
Publication of JP6905535B2 publication Critical patent/JP6905535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/066Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Description

本発明は、拡張現実が手術医インタフェースとして用いられる、患者の体内に手術器具を配置するための誘導、追跡および案内システムに関する。
本発明のシステムは、診断放射線医学、腫瘍外科放射線医学、脈管外科放射線医学、プローブおよび/または針の挿入によって実行される手順(生検や液体の吸引など)、ならびに神経外科などの用途に特に適している。
現在に至るまで、外科および手術ナビゲーションの分野において、放射線画像を用いるとともにそれら放射線画像を超音波プローブ移動と結びつけるシステムを使用することが知られている。
例えば、これらのタイプの手術ナビゲーションの際に、リアルタイムにかつ手術(術中(intraoperatory)CTスキャン)中に放射線画像を提供するコンピュータ断層撮影(CT)装置を備えたシステムが用いられる。
また、アブレーション・プローブの仮想追跡を提供することができる他のシステムも知られているが、変形に関するどのような情報も与えることができない。
一方、画像を見るためのディスプレイを備える手術室眼鏡を使用することも知られている。このために、欧州特許出願公開第2737868号明細書(EP2737868A1)には、処置を実行する際にワイヤレス・レンズを用いるユーザが、ワイヤレス・レンズから取得される情報を送信でき、ディスプレイにおいて患者情報を見ることができる、ワイヤレス外科用拡大レンズを有するシステムが開示されている。このように、送信される情報を、手術室において処置を支援するとともに指示を向上させ、かつ後の使用のために記録するよう用いることができる。
さらに、米国特許第6847336号明細書(US6,847,336B1)には、ユーザの通常の視野において装着される透過性スクリーン上にデータを表示するためのシステムおよび方法が開示されている。スクリーンを、ユーザの頭部に装着できる、または移動可能な構造に装着しユーザの前方に配置することができる。移動可能なカーソルとコンピュータ機制御アイコンのメニューとを含むユーザ・インターフェースが、スクリーンに表示される。「アイ・トラッキング」システムが、ユーザの近傍に装着され、カーソルの移動を制御するよう用いられる。
さらに、米国特許第7501995号明細書(US7501995B2)には、観察支援ナビゲーションを用いる臨床的支援情報を表現するためのシステムおよび方法が開示されている。
さらに、国際特許出願公開第2009/083191号(WO2009083191A1)には、眼鏡に装着される表示装置にデータおよび情報を選択的に表示することができる選択的ディスプレイシステムが開示されている。
一方、患者の立体的情報(volume)の三次元的な追跡、加えて場合によっては内科および外科用途分野における針の追跡をも提供する3D立体表示による医療用画像の再現さえ知られている。
例えば、米国特許第5526812号明細書(US5526812A)には、医療処置の際に身体構造の表示を拡大し改善することができるディスプレイシステムが開示されている。
メディカル・インターベンションに関連する処置において拡張現実によるナビゲーションのシステムおよび方法の他の例は、米国特許第7774044号明細書(US7,774,044B2)、米国特許出願公開第2002/0082498号明細書(US2002/0082498A1)および米国特許出願公開第2013/0267838号明細書(US2013/0267838A1)に開示されている。
上に挙げたシステムはすべて、手術の際の種々の手術医支援方法を開示しているが、それでも最小限の侵襲性インターベンションの場合にはいくつかの制約がある。
実際、最小限の侵襲性インターベンションの場合には、患者の身体を開くことなく手術を実行することができるよう、患者の内部への外科用器具(つまりプローブ)の挿入が行われる。そのようなインターベンションは、手術を必要とする組織および挿入される器具の位置を正確に推定することが難しいので、厄介である。このように厄介であるので、外科手術完了の際に、ときに手違いが生じる。
これらのシステムは、空間分解能が低いという特徴がある超音波の使用と、空間分解能が高いという特徴がある放射線画像の表示と、を組み合わせ、その組み合わせは、電磁気センサまたは光学系を用いて最小限の侵襲性インターベンションのための超音波プローブの追跡を通じて行われるが、その追跡は空間分解能がないまたは低い。
したがって、本発明の基本的な技術的課題は、上述した従来技術の一以上の欠点を克服する患者の体内の手術器具の位置調整のためのナビゲーション、追跡および案内システム/方法を提案することにある。
特に、本発明の目的は、精密で、信頼でき、安全で、効率的に手術医が患者に手術を行うことができるよう拡張現実が手術医インタフェースとして用いられる手術器具の位置調整のためのナビゲーション、追跡および案内システム/方法ならびにガイドを提供することにある。
好適には、本発明は、任意のタイプの装置に、患者の身体の(生物医学的、生理的および病理学のタイプの)内部構造と関連する画像を表示できるようかつ患者の体内に部分的に挿入される手術器具を参照できるよう(したがって内部構造および手術器具は両方とも患者の身体を開かれなければ手術医には外部から見えない)、異なる技術をすべて一体的にまたはそれらを組み合わせて集合的に用いるシステムおよび方法に関する。これらの画像は、それらが表す構造の空間における実際の位置に対応する位置に、手術医に2次元、3次元または4次元で見えるようにする。
好適には、本発明では、また、表示は、特に人体内の病変の「ターゲッティング(targeting)」に焦点を当てるための外科用器具の使用、追跡および位置調整に関係する。
したがって、本発明は、患者の正確な実際の外部位置においてリアル・タイムに患者の内部手術領域を見るために拡張現実が手術医インタフェースとして用いられる、患者内に手術器具を配置するための誘導、追跡および案内システムならびに方法を提供する。
本発明の第一面では、上述の技術的課題および特定した目的は、添付の特許請求の範囲における請求項の一以上に記載の技術的特徴を備える、患者内の手術器具の位置調整のための誘導、追跡および案内システムによって十分に達成される。
詳細には、本発明は、制御ユニットとビューアと第一検出手段とを備える、患者の体内の手術器具の位置調整のための誘導、追跡および案内システムを提供する。
制御ユニットは、患者の身体の内部状態と関連する複数の情報を受信するよう構成される。
ビューアを通して患者の身体の少なくとも一つの内部部分を手術医が見ることができるよう、ビューアは構成される。
第一検出手段は、ビューアの空間的位置を決定する。
制御ユニットは、ビューア上に患者の身体の内部部分の内部状態の画像を投影するよう構成される。画像は、ビューアの空間的位置に基づいて、複数の情報を処理することにより取得される。
好適には、システムはさらに、手術器具に関連付けられるとともに患者の身体の部分内に挿入可能なプローブを備える。プローブは、少なくとも一つの光学的ガイドと、光束の散乱の検出手段と、を備える。少なくとも一つの光学的ガイドは、光学的ガイドの内部に生成される光束の散乱領域を有する。検出手段は、患者の内部に挿入された場合のプローブの空間的配置を特定するために光束の散乱を検出する。
好適には、制御ユニットはまた、特定された空間的配置に基づいてプローブの画像をビューアに投影するよう構成される。
参考にここに含まれる従属項は、本発明の種々の態様に対応する。
本発明の第二面では、上述の技術的課題および特定した目的は、添付の特許請求の範囲における請求項の一以上に記載の技術的特徴を備える、患者内の手術器具の位置調整のための誘導、追跡および案内方法によって十分に達成される。
本発明にかかる方法は、
ビューアを通して患者の身体の少なくとも一つの内部部分を手術医が見ることができるよう構成されたビューアを提供する工程と、
ビューアの空間的位置を決定する第一検出手段を提供する工程と、
制御ユニットを提供する工程とを含み、
制御ユニットは、
患者の身体の内部状態と関連する複数の情報を受信する工程と、
ビューアの空間的位置に基づいて複数の情報を処理する工程と、
ビューア上に、患者の身体の少なくとも一つの内部部分の内部状態の画像を、実行された処理に基づいて、投影する工程と、
を実行する。
好適には、本方法は、プローブを提供する工程と、さらに、プローブの画像をビューア上に投影する工程と、を含む。
プローブは、手術器具に関連付けられるとともに、患者の身体の部分内に挿入可能である。プローブは、少なくとも一つの光学的ガイドと、光束の散乱の検出手段と、を備える。少なくとも一つの光学的ガイドは、前記光学的ガイドの内部に生成される光束の散乱領域を有する。検出手段は、患者の体内に挿入された場合のプローブの空間的配置を特定するために光束の散乱を検出する。
プローブの画像をビューア上にさらに投影する工程においては、制御ユニットによって、特定された空間的配置に基づいてプローブの画像をビューア上に投影する。
参考にここに含まれる従属項は、本発明の種々の態様に対応する。
本発明の第三面では、上述の技術的課題および特定した目的は、添付の特許請求の範囲における請求項に記載した、コンピュータによって実行される、患者内の手術器具の位置調整のための誘導、追跡および案内方法によって十分に達成される。
本発明の第四面では、上述の技術的課題および特定した目的は、コンピュータ上で実行された場合、上述した方法の工程を実行するコンピュータプログラムによって十分に達成される。
本発明のさらなる特徴および利点は、以下の添付図面に例示する、患者の体内の手術器具の位置調整のための誘導、追跡および案内システムの好ましい実施形態であるが他の形態を排除するものではない実施形態の例示的でありしたがって限定するものではない説明からより明瞭となろう。
手術構成中における、本発明にかかる、患者の体内の手術器具の位置調整のための誘導、追跡および案内システムの斜視概略図である。
添付図面を参照して、患者の体内の手術器具の位置調整のための誘導、追跡および案内システムを概略的に1で示し、以降では単にシステム1として示す。
システム1は、患者Pの身体の内部状態と関連する複数の情報を受信するよう構成される制御ユニット2を備える。
好ましくは、患者Pの身体の内部状態に関する複数の情報は、少なくとも一のスキャン、例えばRX(X線)、MRI(磁気共鳴画像)、CT(コンピュータ体軸断層撮影)、PET−CT(コンピュータ陽電子放出断層撮影)を用いて取得される。
スキャンを、現場で実行することも、または制御ユニット2に予め読み込んでおくこともできる。
システム1は、ビューア3を通して患者の身体の少なくとも一つの内部部分Piを手術医(図示せず)が見ることができるよう構成されるビューア3を備える。
また、システムは、ビューア3の空間的位置を決定するための第一検出手段4を備える。
制御ユニット2は、ビューア3上に患者Pの身体の内部部分Piの内部状態の画像を投影するよう構成される。特に、画像は、ビューア3の空間的位置に基づいて、複数の情報を展開することにより取得される。
言い換えれば、制御ユニット2は、ビューア3の空間的配置に応じて変化するビューア3上の患者Pの身体の内部の拡張現実画像を投影することができる。
好ましくは、手術医にとって人間工学的に最良の状態が確実に得られるよう、かつあらゆる連係問題を回避するよう、ビューア3は、手術医と患者Pの身体部分との間の視軸(visual axis)上に配置される。
好ましくは、図1に示す本発明の好ましい実施形態では、ビューア3は、手術医が着用可能な顔用ビューア(ヘッド・マウンテッド・ディスプレイHMDともいう)によって、例えば少なくとも部分的に透光性レンズを有する眼鏡によって、規定される。
好ましくは、ビューア3は、ジャイロスコープとコンパスと慣性計測ユニットとを備える。これらの要素は、ビューア3の空間的位置を正しく精密に特定できる利点がある。
また、好ましくは、ビューア3は、患者の再現されたボリュームを記録するよう構成される深度センサを備える。深度センサにより、手術医が患者Pの体内の器官および病変を調査すると同時に当該患者Pを見ることができる。
好適には、本発明にかかるシステム1はさらに、手術器具5に関連付けられる(つまり、内部に挿入される)とともに、患者Pの身体の部分Pi内に挿入可能なプローブ(図示せず)を備える。
プローブは、少なくとも一つの光学的ガイド(図示せず)と、光束の散乱(dispersion)を検出するための検出手段と、を備える。少なくとも一つの光学的ガイドは、光学的ガイドの内部に生成される光束の散乱領域を有する。検出手段は、患者Pの内部に挿入された場合のプローブの空間的配置を特定するために光束の散乱を検出する。
制御ユニット2はまた、実際には、特定された空間的配置に基づいてプローブの画像をディスプレイ3に投影するよう構成される。
したがって、本発明によって、手術医は、肉眼では見えないであろうものをビューア3上に表示することができる。実際、患者Pの身体の内部状態を示すことに加えて、当該患者Pの身体の内部部分Piの内部のプローブ(したがって関連する手術器具5)の運動を示す拡張現実画像を、制御ユニット2はビューア3上に送信する。
したがって、ビューア3を通じて見える患者Pの実際の画像は、透明に投影される仮想イメージ上に重ねられる。仮想イメージは、仮想イメージでなければ目に見えない患者Pの内部に挿入されるプローブ部分ととともに患者Pの器官および内部組織を示している。
したがって、本発明によって、手術医は、手術領域と手術器具5の位置/移動とを見える状態とするために患者Pの身体を開く必要なく、全く安全かつ高精度に病気に冒された部分に手術を行うことができる。
上述の通り、患者Pの内に挿入された場合のプローブの空間的配置を特定するために、内部に光束が通る光学的ガイドが提供される。散乱領域を通じて反射される光学パワー損失を変調し測定することによって、患者Pの内部のプローブの位置を、決定すること、したがって制御ユニット2を用いてビューア3上に表示することができる。
したがって、正確に信頼性高く手術するために、本発明の対象となるタイプのプローブを組み込んだ外科用器具5の正しい取り扱いをリアル・タイムにチェックし表示することができる。
言い換えれば、光学的ガイドが受ける湾曲の有無(entity)および方向に応じて変化する反射光学パワー損失を導入するために、光学的ガイドはその中心軸に沿って微細加工される。
散乱領域は、コア内の光の閉じ込めの程度を局所的に低減するためにガイドのアウターケーシング(いわゆる「クラッディング」)の直接的な機械的研磨(abrasion)で構成される、光学的ガイドの微細加工の手順を用いて好ましくは実現される。
クラッディングの選択的除去を受けた光学的ガイドの部分では、光はコア内に閉じ込められず、外部に漏れ出し、その結果、反射パワーの損失が生じる。
光学パワー損失は、光学的ガイドの湾曲の正の曲率または負の曲率にしたがって増加しまたは減少し、したがって、パワー損失が、光学的ガイドの感知可能な領域(いわゆる「コア」)の曲率に正比例して現れる。
したがって、本システム1の動作原理によって、ビューア3の空間的位置を決定するための第一検出手段4から発せられる位置データを用いて、プローブの曲がりの測定の総和が得られる。
本発明の実施可能な形態では、空間的基準システムは、「手術現場(operatory field)」基準システムに対してプローブのデカルト座標X,Y,Zを提供する五つの自由度を有する人間型アームで実現される。
好ましくは、散乱領域は、前記光学的ガイドの少なくとも一の部分に沿って順に配置される一連の第一散乱領域によって構成される。
好ましくは、散乱領域はさらに、前記光学的ガイドの少なくとも一つの部分に沿って順に配置されるとともにその光学的ガイドの中心軸に対して互い違いに径方向(radially)に配置される一連の第二散乱領域によっても構成される。
二つの一連の散乱領域の互い違い構成によって、プローブの空間的配置の精密な推定を得ることができる。
さらにより好ましくは、第二散乱領域は、一連の第一散乱領域に対して90°の角度で配置されており、その角度は、光学的ガイドの中心軸に対して測定される。
好ましくは、プローブは、二つの平行な光学的ガイドを備える。一連の第一散乱領域および一連の第二散乱領域は、その二つの光学的ガイドのうちの一つにそれぞれ構成される。
好ましくは、光学的ガイドは、光源に特にレーザ源(図示せず)に接続され、そして、自由端部に配置された反射壁を有する。レーザ源と反射壁との間に、オシロスコープに接続される方向性結合器(directional coupler)が配置される。
好適には、反射性材料で光ファイバの自由端を閉じることによって、反対向きに戻る光を生成することが可能である。
好ましくは、システムは、制御ユニット2に接続される映像変換アッセンブリ(図示せず)を備える。
好ましくは、映像変換アッセンブリは、少なくとも二つのVGA−HDMI(登録商標)コンバータと少なくとも一つのBNC−HDMI(登録商標)コンバータと少なくとも二つのHDMI(登録商標)ポートとを備える。さらに好ましくは、コンバータは単一の収容器に配置され、そして五つのビデオ信号によって、五つの入力による「スイッチャー(switcher)」および「スケーラー(scaler)」の入力が得られ、そして一つのHDMI(登録商標)出力が得られる。
ビデオ信号は、スイッチャーによって抽出され、HDMI(登録商標)標準でビューア3へと送信される。
ビデオ信号は、ミラーリング装置によってまたはエンコーダによってビューア3へ送信される。あるいは、ローカル・サーバーを用いることもできる。
本システムの実施可能な形態では、押圧装置(例えばペダル)を用いて手術医がビデオ信号を選択可能にすることが考えられる。
ペダルは、医者/手術医はいくつかのモニタを見なければならない手術の際に、手術および診断の両方の際に、加えて生検の分野におけるターゲッティングの際に、人間工学上有用である。
好ましくは、システム1は、制御ユニット2と接続されるとともにビューア3と好ましくは一体的な例えばカメラまたはステレオカメラを備えている図示しない患者Pの身体の外面を検出するための第二検出手段6を備える。
患者Pの身体の外面のための第二検出手段6は、手術医が手術を行っている間、手術を記録することができる利点がある。また、ビューア3に取り付けられている場合、直接臨床的な視界が得られるので、指示に関してと、手術全体を記録するので、法律面に関してと、の両方に関して特に有用である。
好ましくは、ビューア3は、好ましくはWi−Fiを介して、ビューア3の空間的位置を決定するための第一検出手段に接続される、かつ/または患者Pの身体の外面を検出するための第二検出手段6に接続されるデータ送受信ユニット(図示せず)を備える。
可能な限り忠実で安定した拡張現実画を患者Pの実際の内部状態とともに表示可能とするために、患者Pの生体パラメータ(呼吸、心臓の鼓動など)を考慮に入れることが必要である。実際、放射線走査は、患者Pの内部の静止画像だけを提供することができる。
このために、制御ユニット2によって処理された画像の正しいオーバーラップ/投影を、患者Pの実際の画像上に行うために、手術医がビューア3を通じて見る患者Pの身体の外面の空間構成の変化を特定することが必要である。
本発明は、制御ユニット2に接続される、患者Pの身体の外面を検出するための第二検出手段6を配置する工程を含む。
特に、本発明は、少なくとも三つの第一物理的マーカを配置する工程と、第一物理的マーカの動的な位置を検出する工程と、第一仮想マーカを第一物理的マーカと位置合わせする工程と、を含む。少なくとも三つの第一物理的マーカは、患者Pの身体部分Piの外面上に配置されるのに適している。少なくとも三つの第一物理的マーカは第二検出手段6自体によって検出可能である。第一物理的マーカの動的な位置を検出する工程において、制御ユニット2に複数の情報を送信するよう、第一物理的マーカの動的な位置が検出される。ビューア3に投影される内部状態の画像である第一仮想マーカを第一物理的マーカと位置合わせする工程において、制御ユニット2によって、第一仮想マーカは、患者Pの身体上に配置される第一物理的マーカと位置合わせされる。
言い換えれば、患者Pの身体の外面のための第二検出手段6は、患者Pの身体部分Piの外面上に配置されるのに適しているともに第二検出手段6自体によって検出可能である、添付の図面には図示しない、少なくとも三つの第一物理的マーカ(好ましくは電磁的または光学的なマーカ)を備える。患者Pの身体の外面のための第二検出手段6は、第一物理的マーカの動的な位置(dynamic positioning)を検出し、複数の情報を制御ユニット2に送信する。好適には、制御ユニット2は、ビューア3に投影される内部状態の画像の第一仮想マーカを、患者Pの身体上に配置される第一物理的マーカと位置合わせするように構成される。
これにより、患者の内部の実際の状態を即座に反映した精密かつ良好な品質の拡張現実画像を形成できる。静止画像は、患者Pの生体パラメータで「補正」されている。
本発明は、第二物理的マーカを配置する工程と、そしてまた第二マーカの物理的位置を検出する工程と、を含む。第二物理的マーカは、プローブに配置されるとともに、使用時に患者Pの身体の外部に配置されるのに適している。第二マーカの物理的位置を検出する工程において、第二マーカの物理的位置は、患者Pの身体の外面のための第二検出手段6を用いて、検出される。
言い換えれば、システム1は、プローブに配置されるとともに、使用時に患者Pの身体の外部に配置されるのに適した第二物理的マーカを備える。患者Pの身体の外面のための第二検出手段6はまた、第二マーカの物理的位置を検出するよう構成される。
このように、患者Pの体内のプローブの位置決めを正確に特定することができるとともに、それをビューア3上に投影された拡張現実で見ることができる利点がある。
空間的基準を、手術医によって使用される人間型アームの実際の状況によって提供することができるが、その場合でも、この構成においては、第二物理的マーカは、追加的な部分の情報(実質的に冗長な情報)を表すことでプローブ・ハンドルの位置に関するシステムの信頼性を高める点で有用であることをここで指摘することは理解に役立つであろう。
好ましくは、前記患者の生体パラメータをリアル・タイムで決定するために、患者の身体の外面のための第二検出手段6は、超音波振動子、慣性計測ユニットおよび測定エンコーダのうちの少なくとも一つを備える。
特に、測定エンコーダは、運動がエンコーダによって検出される関節によって連結される少なくとも二つのアームから構成されるシステムである。
二つのアームの端部は、患者の胸に固定されており、したがって患者の胸呼吸運動に応じて移動する。そうして、呼吸サイクルの動的なパターンを表現する。パターンの各瞬間をその時に検出される目標位置と対応させることになり、これにより、このように決定される呼吸サイクルのそれぞれのフェーズを結節の位置と対応させることができる。
好ましくは、システム1は、患者Pの内部組織の密度センサ(compactness sensor)を、好ましくは損失変調光ファイバ干渉測定センサ(loss−modulation optical fibre interferometric sensor)を備える。
センサの密度によって、いわゆる「剛性」の尺度も、検出された複数の情報に統合することができ、プローブが横断している組織の特徴パラメータを提供することが可能となる利点がある。
本システム1は、手術中に、手術の前に、または手術の後に用いることができる利点がある。実際、システム1によって、手術医が、実際の解剖学的構造と並んで配置される内部臓器と病変とのオーバーラップを3Dで示すことを可能にする。
さらに、本システム1によって、患者Pの体内の手術器具を表示し、異なる解剖学的構造を通じてそれらの変形を表すことができる。
システムを、最小限の侵襲性処置と標準的な外科インターベンションとの両方に用いることができる。その唯一の違いは、最小限の侵襲性処置においては、患者Pの身体の内部の再現されたボリュームはすべて患者Pの身体と並んで配置されるが、二番目の場合においては、その位置合わせが、器官の特定の部分と再現されたボリュームにおけるその器官の当該部分との間で行われることにある。例えば、図1は、肝臓の実際のセグメントと当該患者の身体の再現されたボリュームを概略的に示す。
本発明のシステムは、多くの利点を有する。
本発明の解決法により、画像が参照する構造が配置されている正確な位置において画像を、高空間分解能で、2次元、3次元または4次元で、手術医に対して主観的に見せること、そして手術器具5の正しい位置決めの解像度、正確さおよび認識性を向上させることができる。
さらに、本発明の解決法により、プローブおよび変形可能な器具の位置および曲がりを検出することができる。
本システムは、同じ問題を解決するために用いられる解決法とは異なり、たとえ電磁気システムがなくとも、機械システムおよび/またはコンピュータ・ビジョンをともにまたは別々に用いて、精度をより高めることができる。
本発明のシステムを、外科的、開腹術、内視鏡検査もしくは最小限の侵襲性インターベンション、経皮的もしくは経骨的(transosseous)準備または実行に、または開腹術もしくは内視鏡検査によるインターベンション中に、用いることができる。また、システムは、経皮的な診断手順または放射線ガイド診断手順の、例として生検または針吸引などの実行に有効である。
好適には、本発明では、ビューア3の空間的位置に基づく複数の情報を処理する工程は、器官と疾患のセグメント化(segmentation)を通じた処理を含む。
好ましくは、処理の工程は、放射線走査の3D描写の生成を含む。
また本発明は、実行されたセグメント化の関数として、病変がセグメント化されボリュームの他の部分から分離された状態で、3D表現を生成する工程を含む。
本発明は、さらに、ビューア3上に、患者Pの身体の少なくとも一つの内部部分Piの内部状態の画像を、実行された処理の関数として、投影する工程を含む。この投影工程は、器官と病変とを結合して視覚化したもの(joint visualization)を投影することにより実現される。
他の選択肢として、好適には、本発明では、ビューア3の空間的位置に基づく複数の情報を処理する工程は、器官および治療後壊死のセグメント化を通じた処理を含む。
また、本発明は、実行されたセグメント化の関数として、病変がセグメント化されボリュームの他の部分から分離された状態で、3D表現を生成する工程を含む。
好ましくは、処理の工程は、放射線走査の3D描写の生成を含む。
本発明は、さらに、ビューア3上に、患者Pの身体の少なくとも一つの内部部分Piの内部状態の画像を、実行された処理の関数として、投影する工程を含む。この投影工程は、病変と壊死とを結合して視覚化したものを投影することにより実現される。
言い換えれば、二つの選択肢の第一の選択肢においては、本発明は、器官および病変(例えば腫物など)のセグメント化と、放射線走査の3D描写と、を生成することができるコンピュータプログラムの使用を提供する。さらに、そのソフトウェアは、また異なる走査からの3D描写を比較することができる。そのソフトウェアは、セグメンテーション・アルゴリズムを有するソフトウェアコードから構成される。
プログラムは、特に異なる放射線走査(MRI、CT、PET−CT)からの画像を取得でき、そしてそれらを、病変をセグメント化しボリュームの他の部分から(例えば異なる色で)分離した状態で、3D表現に変換することができるウェブ・アプリケーションである。セグメント化は完全に自動化されており、つまり、ユーザが関与しないでよく、どのような補正も必要としない。
さらに、二つの選択肢の第二の選択肢において、プログラムは、また治療が成功したかどうか測定する。実際、このソフトウェアを用いて、器官および治療後壊死が、画像(CT−PET、MRIおよびCTスキャン)においてセグメント化され、そして治療前のまたは治療後のボリュームが記録され、そして病変と壊死との組み合わせ表示が実行される。
プログラムは、患者Pの身体の内部部分Piの画像処理要求を受け取り、その要求を表すデータを制御ユニット2へ送信するよう作成されている。
言い換えれば、ウェブ・クライアントは、スクリプトの実行を要求し、そのスクリプトは、サーバー上で実行されるスクリプトのキュー/命令を管理するスケジューラに置かれ、そして、スケジューラが許可(go−ahead)を与えると、サーバーは要求されたスクリプトでファイルを処理し、共用記憶装置にファイルを書き込むことになる。
プログラムは、先に定義したようなプローブの画像を受け取り、その画像を表示するよう作成されている。
言い換えれば、ウェブ・クライアントは、生成されるファイルまたは要求されるレイヤを探し、ビューア3上で特にHMD上でそれらを見せることになる。
本発明の他の実施態様は、深度センサを用いる患者の再現されたボリュームの登録を含んでいる。このセンサにより、手術医が患者Pの体内の器官および病変を、当該患者Pを見ながら、調査できる利点がある。
これは、いわゆる「コンピュータ・ビジョン」を実装するのに適した適切な手段に基づいた第二コンピュータプログラムの解決法である。
この第二解決法は、二つのボリュームが並んで配置されるよう深度センサとステレオカメラとを組み合わせてまたは別々に使用することを含んでいる。前記カメラは、AR認識においてと、場面(scene)の深度に関するより多くの情報を得ることを可能にする「視差マップ(disparity map)」の生成と、の両方で用いられる。この第二の理由で、カメラはまた、当該カメラの眼間距離を調節する機能を有する必要があり、この場合、それは、異なる深度範囲(例えば離れた範囲とより精密な近距離範囲のための二つの/三つの固定プリセットの設定)で手術を行うためである。
なお、前記深度センサが単独でシーンの深度マップを形成するのに十分であれば、ステレオカメラを用いて視差マップを計算することは不要であるが、このタイプのセンサは多くの場合強い光や赤外線光源に敏感であり、測定を邪魔する虞があるので、場合によっては、現実と拡張現実との間のより精密な位置合わせを得るためには両方の技術を結合することが必要であることをここで記載しておく。
以上、精密で、信頼でき、安全で、効率的に手術医が患者に手術を行うことができるよう、拡張現実が手術医インタフェースとして用いられる、患者の体内の手術器具の位置調整のための誘導、追跡ならびに案内システム/方法およびを説明した。
欧州特許出願公開第2737868号明細書(EP2737868A1) 米国特許第6847336号明細書(US6,847,336B1) 米国特許第7501995号明細書(US7501995B2) 国際特許出願公開第2009/083191号(WO2009083191A1) 米国特許第5526812号明細書(US5526812A) 米国特許第7774044号明細書(US7,774,044B2) 米国特許出願公開第2002/0082498号明細書(US2002/0082498A1) 米国特許出願公開第2013/0267838号明細書(US2013/0267838A1)

Claims (14)

  1. 患者(P)の体内の手術器具(5)の位置調整のための誘導、追跡および案内システム(1)であって、
    患者(P)の身体の内部状態と関連する複数の情報を受信するよう構成される制御ユニット(2)と、
    ビューア(3)であって、前記ビューア(3)を通して前記患者(P)の前記身体の少なくとも一の内部部分(Pi)を手術医が見ることができるよう構成されるビューア(3)と、
    前記ビューア(3)の空間的位置を決定するための第一検出手段(4)と、
    を備えており、
    前記制御ユニット(2)は、前記ビューア(3)上への、前記患者(P)の前記身体の前記少なくとも一の内部部分(Pi)の内部状態の画像の投影を制御するよう構成されており、前記画像は、前記ビューア(3)の前記空間的位置に基づいて、前記複数の情報を処理することにより取得されるシステムにおいて、
    前記システムは、手術器具(5)に関連付けられるとともに、前記患者(P)の前記身体の前記内部部分(Pi)内に挿入可能なプローブを備えており、
    前記プローブは、内部に生成される光束の散乱領域を有する少なくとも一つの光学的ガイドと、前記患者(P)の前記体内に挿入された場合の前記プローブの空間的配置を特定するために前記光束の散乱を検出する検出手段と、を備えており、
    前記制御ユニット(2)はまた、前記特定された空間的配置に基づいて前記プローブの画像の、前記ビューア(3)上への投影を制御するよう構成されており、
    前記散乱領域は、前記光学的ガイドの少なくとも一部に沿って順に配置される一連の第一散乱領域によって構成され
    前記散乱領域はまた、前記光学的ガイドの少なくとも一部に沿って順に配置されるとともに前記少なくとも一つの光学的ガイドの中心軸に対して互い違いに径方向に配置される一連の第二散乱領域によっても構成されるシステム。
  2. 請求項に記載のシステム(1)において、前記一連の第二散乱領域は、前記一連の第一散乱領域に対して90°の角度で配置されており、前記角度は、前記少なくとも一つの光学的ガイドの中心軸に対して測定されるシステム。
  3. 請求項またはに記載のシステム(1)において、前記プローブは二つの平行な光学的ガイドを備えており、前記一連の第一散乱領域と前記一連の第二散乱領域は、前記二つの光学的ガイドのうちの一つの上にそれぞれ構成されるシステム。
  4. 請求項1からのいずれか一項に記載のシステム(1)において、
    前記少なくとも一つの光学的ガイドは、光源に接続されるとともに、一の自由端部に配置される反射壁を有しており、
    オシロスコープに接続される方向性結合器が、前記光源と前記反射壁との間に配置されるシステム。
  5. 請求項1からのいずれか一項に記載のシステム(1)において、
    前記制御ユニット(2)に接続される映像変換アッセンブリを備えシステム。
  6. 請求項1からのいずれか一項に記載のシステムにおいて、患者の身体の前記内部状態と関連する前記複数の情報が、少なくとも一つのスキャンを用いて取得されるシステム。
  7. 請求項1からのいずれか一項に記載のシステム(1)において、前記ビューア(3)は、手術医と前記患者(P)の前記身体の部分との間の視軸上に配置されるシステム。
  8. 請求項1からのいずれか一項に記載のシステム(1)において、前記ビューア(3)は、手術医が顔に着用可能なビューアによって構成されるシステム。
  9. 請求項1からのいずれか一項に記載のシステム(1)において、
    前記制御ユニット(2)に接続される、前記患者(P)の前記身体の外面を検出するための第二検出手段(6)を備えており、
    前記第二検出手段(6)は、カメラまたはステレオカメラを備えるシステム。
  10. 請求項に記載のシステム(1)において、
    前記患者(P)の前記身体の前記外面を検出するための前記第二検出手段(6)は、前記患者(P)の前記身体の前記内部部分(Pi)の前記外面上に配置されるのに適した検出可能な少なくとも三つの第一物理的マーカを備えており、
    前記制御ユニット(2)は、前記ビューア(3)上に投影される画像の仮想マーカの第一内部状態を前記第一物理的マーカと位置合わせするよう構成されるシステム。
  11. 請求項または10に記載のシステム(1)において、前記患者(P)の前記身体の前記外面を検出するための前記第二検出手段(6)は、前記患者(P)の生体パラメータをリアル・タイムに決定するよう、超音波振動子、慣性計測ユニットおよび測定エンコーダのうちの少なくとも一つを備えるシステム。
  12. 請求項に記載のシステムにおいて、
    前記プローブに配置されるとともに、使用時に前記患者(P)の前記身体の外部に配置されるのに適した第二物理的マーカを備えており、
    前記患者(P)の前記身体の前記外面の前記第二検出手段(6)はまた、前記第二物理的マーカの物理的位置を検出するよう構成されるシステム。
  13. 請求項1から12のいずれか一項に記載のシステムにおいて、前記システム(1)によって予め決められる基準系に対する前記プローブのデカルト座標X,Y,Zを提供することができる五つの自由度を有する人間型ロボットアームを備えるシステム。
  14. 請求項1から13のいずれか一項に記載のシステム(1)において、前記患者の内部組織の密度を検出するように構成されたセンサを備えるシステム。
JP2018545714A 2015-11-23 2016-11-21 患者の体内に手術器具を位置調整するための誘導、追跡および案内システム Active JP6905535B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IT102015000075480 2015-11-23
ITUB2015A005830A ITUB20155830A1 (it) 2015-11-23 2015-11-23 "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
PCT/IB2016/057001 WO2017089941A1 (en) 2015-11-23 2016-11-21 Navigation, tracking and guiding system for the positioning of operatory instruments within the body of a patient

Publications (3)

Publication Number Publication Date
JP2019503820A JP2019503820A (ja) 2019-02-14
JP2019503820A5 JP2019503820A5 (ja) 2019-12-26
JP6905535B2 true JP6905535B2 (ja) 2021-07-21

Family

ID=55538379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545714A Active JP6905535B2 (ja) 2015-11-23 2016-11-21 患者の体内に手術器具を位置調整するための誘導、追跡および案内システム

Country Status (12)

Country Link
US (2) US20180344408A1 (ja)
EP (1) EP3380034B1 (ja)
JP (1) JP6905535B2 (ja)
CN (1) CN108601628B (ja)
AU (1) AU2016358472A1 (ja)
BR (1) BR112018010382B1 (ja)
CA (1) CA3005705A1 (ja)
DK (1) DK3380034T3 (ja)
ES (1) ES2815800T3 (ja)
IT (1) ITUB20155830A1 (ja)
RU (1) RU2746458C2 (ja)
WO (1) WO2017089941A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
DE102017108235A1 (de) * 2017-04-18 2018-10-18 Bredent Medical Gmbh & Co. Kg Brille mit wenigstens einem teiltransparenten Bildschirm und Verfahren zum Betrieb einer Brille
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2020181498A1 (zh) * 2019-03-12 2020-09-17 上海复拓知达医疗科技有限公司 体内导航系统和方法
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
CN111544115A (zh) * 2020-05-16 2020-08-18 中国人民解放军陆军军医大学第二附属医院 一种增强现实导航追踪显示器以及校准方法
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337758A (en) * 1991-01-11 1994-08-16 Orthopedic Systems, Inc. Spine motion analyzer and method
US5526812A (en) * 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US5577502A (en) * 1995-04-03 1996-11-26 General Electric Company Imaging of interventional devices during medical procedures
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6033415A (en) 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US20020082498A1 (en) 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
CA2486520A1 (en) 2001-06-13 2002-12-19 Volume Interactions Pte. Ltd. Guide systems for interacting with a subject, and methods therefor
WO2004000151A1 (en) * 2002-06-25 2003-12-31 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
US7001383B2 (en) 2002-10-21 2006-02-21 Biosense, Inc. Real-time monitoring and mapping of ablation lesion formation in the heart
US20050020910A1 (en) * 2003-04-30 2005-01-27 Henley Quadling Intra-oral imaging system
US7283572B2 (en) * 2004-01-15 2007-10-16 Ben Gurion University Of The Negey Measurement of wavelength transients in tunable lasers
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20060089626A1 (en) 2004-10-22 2006-04-27 Vlegele James W Surgical device guide for use with an imaging system
US7501995B2 (en) 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US8954134B2 (en) * 2005-09-13 2015-02-10 Children's Medical Center Corporation Light-guided transluminal catheter
CN101309725A (zh) * 2005-11-16 2008-11-19 眼科医疗公司 使用激光间接检眼镜的多光点光学医疗处理
US8314815B2 (en) * 2006-04-12 2012-11-20 Nassir Navab Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
CA2916780C (en) * 2007-04-02 2020-12-22 Esight Corp. An apparatus and method for augmenting sight
US8131379B2 (en) 2007-08-27 2012-03-06 St. Jude Medical Atrial Fibrillation Division, Inc. Cardiac tissue elasticity sensing
WO2009083191A1 (de) 2007-12-21 2009-07-09 Holger Essiger System zur selektiven anzeige von informationen, enthaltend eine brillenartige vorrichtung, insbesondere brille
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
WO2010067267A1 (en) * 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
DE102009025077A1 (de) 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
IT1401669B1 (it) * 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
JP2013061521A (ja) * 2011-09-14 2013-04-04 Brother Ind Ltd 画像表示装置および画像表示方法
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
US9729831B2 (en) 2012-11-29 2017-08-08 Sony Corporation Wireless surgical loupe
US9895055B2 (en) * 2013-02-28 2018-02-20 Cook Medical Technologies Llc Medical devices, systems, and methods for the visualization and treatment of bodily passages
WO2015066037A1 (en) * 2013-10-28 2015-05-07 Brown University Virtual reality methods and systems
US10152796B2 (en) 2014-02-24 2018-12-11 H. Lee Moffitt Cancer Center And Research Institute, Inc. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
WO2015133608A1 (ja) * 2014-03-07 2015-09-11 国立大学法人京都大学 手術支援システムおよびこれに用いるカメラユニット
US9538962B1 (en) * 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2017066373A1 (en) * 2015-10-14 2017-04-20 Surgical Theater LLC Augmented reality surgical navigation
ITUB20155830A1 (it) * 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"

Also Published As

Publication number Publication date
AU2016358472A1 (en) 2018-06-14
RU2746458C2 (ru) 2021-04-14
US11596480B2 (en) 2023-03-07
BR112018010382A2 (pt) 2018-12-04
CN108601628B (zh) 2022-09-09
BR112018010382B1 (pt) 2022-07-26
DK3380034T3 (da) 2020-08-24
RU2018117932A (ru) 2019-12-25
US20180344408A1 (en) 2018-12-06
EP3380034A1 (en) 2018-10-03
ITUB20155830A1 (it) 2017-05-23
US20190183586A1 (en) 2019-06-20
WO2017089941A1 (en) 2017-06-01
CN108601628A (zh) 2018-09-28
EP3380034B1 (en) 2020-06-03
CA3005705A1 (en) 2017-06-01
ES2815800T3 (es) 2021-03-30
JP2019503820A (ja) 2019-02-14
RU2018117932A3 (ja) 2020-04-20

Similar Documents

Publication Publication Date Title
JP6905535B2 (ja) 患者の体内に手術器具を位置調整するための誘導、追跡および案内システム
US20220192611A1 (en) Medical device approaches
JP6395995B2 (ja) 医療映像処理方法及び装置
JP6360052B2 (ja) 器具ガイダンスを可能にするイメージングシステム及び方法
CN103619278B (zh) 用于内窥镜手术期间的引导注射的系统
US9918798B2 (en) Accurate three-dimensional instrument positioning
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
JP4553551B2 (ja) 画像診断方法
KR20190058528A (ko) 가이드되는 시술을 위한 시스템
JP2005270652A (ja) インターベンションまたは外科手術時の画像形成方法および装置
JP6706576B2 (ja) 最小侵襲性のインターベンションのための形状センスされるロボット超音波
JP4717683B2 (ja) 医用画像表示装置
KR20220100613A (ko) 의료 기기의 삽입 지점을 재현하기 위한 방법 및 시스템
JP6952740B2 (ja) ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム
EP4203840A1 (fr) Système de navigation en réalité augmentée pour un robot médical
EP4062382A1 (en) Positioning medical views in augmented reality
CN117677358A (zh) 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210625

R150 Certificate of patent or registration of utility model

Ref document number: 6905535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150