JP2021505226A - 処置中の視覚化を支援するためのシステム及び方法 - Google Patents

処置中の視覚化を支援するためのシステム及び方法 Download PDF

Info

Publication number
JP2021505226A
JP2021505226A JP2020529296A JP2020529296A JP2021505226A JP 2021505226 A JP2021505226 A JP 2021505226A JP 2020529296 A JP2020529296 A JP 2020529296A JP 2020529296 A JP2020529296 A JP 2020529296A JP 2021505226 A JP2021505226 A JP 2021505226A
Authority
JP
Japan
Prior art keywords
camera
observation screen
instrument
user
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020529296A
Other languages
English (en)
Inventor
ゴドウィン,カイル・エイ
ヒッソン,ジェームズ・ブリットン
ケラー,クリストファー・エス
Original Assignee
メドトロニック・ゾーメド・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メドトロニック・ゾーメド・インコーポレーテッド filed Critical メドトロニック・ゾーメド・インコーポレーテッド
Publication of JP2021505226A publication Critical patent/JP2021505226A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/233Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the nose, i.e. nasoscopes, e.g. testing of patency of Eustachian tubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3954Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3991Markers, e.g. radio-opaque or breast lesions markers having specific anchoring means to fixate the marker to the tissue, e.g. hooks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Abstract

物理的対象の観察を可能にし、対象から分離された少なくともアイテムに関する情報がその上にオーバーレイされるように動作可能なシステム。システムは、観察スクリーンを含む。システムは、対象に関連するアイテムの位置を更に決定できる。

Description

[0001]対象の開示は、処置をプリフォームすることに関し、詳細には、画像空間を現実の又は対象の空間に位置合わせすることに関する。
[0002]選択された処置の間、使用者は、対象に応じた画像データに基づく対象の画像を取得することがある。一般に、画像データは、様々な画像化技法又はシステムを使用して取得されることがあり、画像データは、手術領域から離れて位置決めされるフラットパネルやフラットスクリーン、陰極線管、又は同種のものなどの表示デバイス上に、使用者による観察のために、再構築されることがある。手術領域は、選択された処置を実行するために、人間の患者などの対象に関連することがある。例えば、副鼻腔処置は、実行されることがあり、対象の副鼻腔の画像は、対象をオーバーレイしない表示デバイス上に表示されることがある。
[0003]処置は、内視鏡を用いてなど、目的領域の又は手術領域の少なくとも一部を直接観察することを更に含むことがある。内視鏡は、鼻、即ち、アクセス可能な洞キャビティの内部などの、カメラを選択した場所に位置決めすることがある。内視鏡は、選択された解剖学的エリアの内部の様々な場所における動き及び/又は視野について制限された範囲を有することがある。
本願発明の一実施例は、例えば、処置中の視覚化を支援するためのシステム及び方法に関する。
[0004]この項は、本開示の一般的な概要を提供し、それの完全な範囲やそれの特徴の全てについての包括的な開示ではない。
[0005]様々な実施形態では、器具は、処置を実行するために対象の一部に関連して位置決めされることがある。対象は、生きている対象又は生きていない対象を含むことがある。様々な実施形態では、生きている対象は、人間を含むことがあり、実行される処置は、鼻腔及び/又は洞キャビティに対して実行されることがある。例えば、バルーン副鼻腔拡張処置は、ミネソタ州に事業所を有するMedtronic,Inc.によって販売されるNuVent(登録商標)EMバルーン副鼻腔拡張システムを用いて実行されるものなど、起こることがある。理解されることは、副鼻腔の拡張が、電磁(EM)ナビゲート器具を用いて実行される必要はないが、膨張可能な器具を用いた副鼻腔の拡張が、NuVent(登録商標)副鼻腔拡張手術などの様々な膨張及び拡大機能を含む器具を含むことがあるということである。
[0006]様々な実施形態では、処置は、対象の手術領域で起こることがある。手術領域は、特定の又は限定されたエリア又は体積であることがあり、それに対して処置が実行され、又はそれに関連して処置が実行される。手術領域は、目的領域と呼ばれることもあり、或いは、その中に目的領域を含むこともある。様々な実施形態では、例えば、人間の対象の副鼻腔は、デブリードマン、拡張、又は他の適切な処置を実行するためなど、手術されることがある。処置は、手術領域の内部で起こることがあり、その間、目的領域は、患者の頭全体又は頭蓋を含むことがある。
[0007]副鼻腔に対して実行される手術は、一般に低侵襲性又は非開放性の処置であることがある。低侵襲性の処置では、鼻腔などの様々な自然の体腔は、副鼻腔にアクセスするために使用される。副鼻腔へのアクセスのとき、従って、器具の動作端部は、使用者にとって見えないことがある。
[0008]処置を実行するために使用されている器具は、追跡システムによって追跡されるように構成され又は動作できる追跡デバイスを含むことがある。様々な実施形態では、追跡システムは、観察又は記録することなどによって、器具上の追跡デバイスを追跡する視覚的又は光学的追跡システムを含むことがある。ナビゲーション又は追跡システムは、プロセッサシステムを含んでおり、次いで追跡デバイスに関連する動作端部の位置を決定することがあり、それは動作端部と追跡デバイスとの間の知られている及び/又は所定の幾何学的関係に基づく。
[0009]追跡システムは、表示デバイスに関連して位置決めされた1つ又は複数のカメラ又は光学追跡デバイスを含むことがある。表示デバイスは、透明又は半透明の観察スクリーンを含むことがある。観察スクリーンは、使用者が観察スクリーンを通して対象を観察するのを可能にするなど、使用者に関連して位置決めされることがある。観察スクリーンは、観察スクリーンが使用者の視野の全部又は相当な部分を充足するように、使用者の目の比較的近くで、使用者が観察スクリーンを着用するのを可能にする構造に実装されることがある。表示される画像は、その後に観察スクリーン上に表示されることがあり、使用者が画像を観察するのを可能にし、同時に同じく対象を観察する。器具の追跡された場所、又は、動作端部などの、それの少なくとも一部は、観察スクリーンを使用する表示器上に表示されることもある。従って、カメラは、使用者によって着用されるデバイスに関連付けられることがあり、手術領域及び/又は手術領域内の目的領域に対する器具の場所の決定を可能にし、また、器具の追跡された場所を表示することによる、画像に重ね合わせること、又は、対象についての使用者の観察を増強すること、を可能にする。
[0010]システムは、観察部分若しくはシステム及び追跡部分を含むことがある。観察部分は、現実のオブジェクト(例えば、対象)及び表示された画像を観察することがある。観察システムは、従って、拡張現実観察システムであることがある。それに加えて又はそれに代えて、観察システムは、対象から分離され又は離隔された観察スクリーン又はモニタを含むことがある。加えて、画像は、内視鏡などの選択された画像化システムでリアルタイムにキャプチャされることがある。内視鏡は、鼻腔及び/又は副鼻腔内などの対象に関連して位置決めされることがあり、内視鏡で取得された画像は、手術処置前に取得される対象の観察と同時に表示されることがある。従って、観察システムは、リアルタイム画像及び事前取得画像を表示及び観察するために使用されることがある。両タイプの画像は、本明細書で更に説明されるものなどの様々な技法を用いて、対象に位置合わせされることがある。
[0011]適用性の更なるエリアは、本明細書で提供される説明から明らかになるであろう。この概要での説明及び特定の例は、単なる例証目的を意図しており、本開示の範囲を限定することを意図していない。
[0012]本明細書で説明される図面は、全ての可能な実装ではなくて選択された実施形態についての単なる例証目的のためであり、本開示の範囲を限定することを意図していない。
[0013]使用者及び観察システムの環境図である。 [0014]様々な実施形態に係る器具を含む目的領域の現実の/物理的な世界の図である。 [0015]様々な実施形態に係る器具を含む目的領域の現実の/物理的な世界の図である。 [0016]様々な実施形態に係る現実の/物理的な世界及び少なくとも1つの表示されたアイコンを観察する使用者の視点の図である。 [0017]様々な実施形態に係る現実の/物理的な世界及び少なくとも1つの表示されたアイコンを観察する使用者の視点の図である。 [0018]様々な実施形態に係る表示デバイスによる少なくとも1つの表示されたアイコン及びリアルタイム画像を観察する使用者の視点の表示図である。 [0019]表示システムの作動を例証するフローチャート図である。
[0020]対応する参照番号は、図面の幾つかの図を通して対応する部分を示す。
[0021]例示の実施形態は、ここで添付の図面を参照してより完全に説明されるであろう。
[0022]図1を参照すると、オペレーティングシアタ即ち手術室10では、外科医などの使用者12は、寝ているか又は患者用ベッドやサポート15によって支持され得る患者14などの対象に対して処置を実行することができる。患者14は、患者縦軸14lを画定することがある。処置の実行を支援するために、使用者12は、画像化システム16を使用して、患者14の画像データを取得し、選択されたシステムが処置の実行を支援するための画像を生成又は作成するのを可能にすることができる。画像化システム16は、コンピュータ断層撮影(CT)画像化装置、Medtronic,Inc.によって販売されるO−Arm(登録商標)画像化システム、及び/又は、イタリア国ヴェローナに事業所を有するNewTomによって販売されるNewTom(登録商標)VGi evoコーンビーム画像化装置などの任意の適切な画像化システムを含むことがある。
[0023]モデル(3次元(3D)画像など)は、画像データを使用して生成される場合がある。生成されたモデルは、画像18として表示デバイス20上に表示されることがある。表示デバイス18に加えて又はその代わりに、投影画像(例えば、2D X線投影)は、画像化システム16でキャプチャされたとき、表示されることがある。その上、拡張観察スクリーン(AV)又は表示デバイス21は、使用者12に提供され又は使用者によって使用されることがある。本明細書で更に議論されるように、AV21は、使用者12によって着用されることがある。更に、本明細書で議論されるように、AV21は、統合システムである観察システム、又は、様々なアイテムを観察するためのシステムの一部、と呼ばれることもある。
[0024]表示デバイス20又は拡張観察スクリーン21のいずれか又は双方は、入力デバイス24(入力デバイスは、キーボード、マウス、口頭入力及びカメラからの入力のためのマイクロフォンを含むことがある)と、選択されたタイプの非一時的及び/又は一時的メモリ27と共に処理システム22に組み込まれた1つ又は複数のプロセッサ又はマイクロプロセッサを含む場合があるプロセッサ26と、を含むプロセッサシステム22の一部である及び/又はそれに連結される場合がある。連結部28は、表示デバイス20の駆動が画像18を表示又は例証するのを可能にするために、データ通信用に、プロセッサ26と表示デバイス20又は拡張観察スクリーン21との間に設けられる場合がある。
[0025]画像化システム16は、上で議論されたように、米国コロラド州ルイビルに事業所を有するMedtronic Navigation,Inc.によって販売されるO−Arm(登録商標)画像化システムを含む場合がある。画像化システム16は、米国特許第8,238,631号、米国特許第9,411,057号、及び、米国特許第9,807,860号(参照によって本明細書に全て組み込まれる)で説明された画像化システムなどの、O−Arm(登録商標)画像化システムや他の適切な画像化システムを含んでおり、選択された処置の間に使用されることがある。画像化システム16は、AV21の使用前又は使用中に患者14の画像データを取得するために使用されることがある。
[0026]画像化システム16は、例えば、O−Arm(登録商標)画像化システムを含むとき、制御器及び/又は制御システム32を含む移動式カート30を含むことがある。制御システムは、プロセッサ33a及びメモリ33b(例えば、非一時的メモリ)を含むことがある。メモリ33bは、画像化システム16の様々な部分を含む、画像化システムを制御するために、プロセッサ33aによって実行される様々な命令を含むことがある。
[0027]画像化ガントリ34は、ソースユニット36及び検出器38が位置決めされており、移動式カート30に連結されることがある。ガントリ34は、O形状又はトロイド形状であることがあり、ガントリ34は、実質上環状であり、体積を形成する壁を含み、ソースユニット36及び検出器38が移動することがある。本明細書で更に議論されるように、移動式カート30は、1つのオペレーティングシアタから別のオペレーティングシアタに移動する場合があり、ガントリ34は、カート30に関連して移動する場合がある。これは、画像化システム16が移動式であって対象14に関連して移動可能であるのを可能にし、従って、固定式の画像化システム専用の設備投資や空間を必要とせずに、複数の場所で複数の処置で使用されるのを可能にする。制御システムは、汎用プロセッサ又は特定用途プロセッサであり得るプロセッサ33aと、メモリシステム33b(例えば、回転ディスク又はソリッドステート不揮発性メモリなどの非一時的メモリ)と、を含むことがある。本明細書で議論されるように、例えば、メモリシステムは、プロセッサによって実行されるべき命令を含むことがあり、機能を実行して、結果を決定する。
[0028]ソースユニット36は、X線エミッタであることがあり、X線エミッタは検出器38によって検出されるように、患者14を介してX線を放出できる。当業者によって理解されるように、ソース36によって放出されたX線は、円錐状に放出されて検出器38によって検出することができる。ソース/検出器ユニット36/38は、ガントリ34の内部で概ね正反対に対向する。検出器38は、ガントリ34の内部で患者14のまわりを360度の動きで移動でき、ソース36は、検出器38に対して概ね180度対向したままである(固定式の内側ガントリ又は移動システムなどと共に)。また、ガントリ34は、患者用サポート又はテーブル15に配置することのできる対象14に関連して、図1に例証されたように、全体的に矢印40の方向に、アイソメトリックに移動できる。また、ガントリ34は、矢印42によって例証されたように患者14に関連して傾斜でき、患者14の縦軸14L及びカート30に関連して線44に沿って縦方向に移動でき、カート30に関連して全体的に線46に沿って上及び下に並びに患者14に対して横断的に移動でき、患者14に関連するソース/検出器36/38の位置決めを可能にする。画像化デバイス16は、正確に制御することができ、患者14に関連してソース/検出器36/38を移動させて、患者14の正確な画像データを生成する。画像化デバイス16は、有線又は無線の連結部、或いは、画像化システム16からプロセッサ26への物理的な媒体転送を含むことのできる連結部50を介してプロセッサ26と連結することができる。こうして、画像化システム16で収集された画像データは、ナビゲーション、表示、再構成等々のために処理システム22に転送することができる。
[0029]ソース36は、多出力のX線ソースなどの任意の適切なX線ソースであることがある。しかしながら、理解されることは、画像化システム16が、磁気共鳴画像化(MRI)システム、CアームX線画像化システム、コンピュータ断層撮影(CT)画像化システム等々などの任意の適切な画像化システムであり得るということである。しかしながら、選択された画像化システムで取得された画像データ及び/又は画像は、表示デバイス20、21のうちの1つ又は複数に表示されることがある。
[0030]更に理解されることは、画像化システム16が、患者14に対して処置を実行する前に、画像データ及び/又は画像を取得するために動作され得るということである。例えば、画像は、患者14のための処置を診断及び/又は計画するために、取得されて研究されることがある。こうして、使用者12は、患者14への処置を実行し、処置が実行されるのと同じ部屋で、画像化システム16を使用する必要がない。
[0031]様々な実施形態によれば、画像化システム16は、画像化デバイス16及び/又は他の部分の場所を追跡するために動作できる、本明細書で議論されるような様々な部分を含む、追跡システム及びナビゲーションシステムと共に使用される場合がある。追跡システムは、光学ローカライザ60及び電磁ローカライザ62のいずれか又は双方を含むローカライザ及び/又はデジタイザを含むことがあり、患者14に関連するナビゲーションドメイン内で、フィールドを生成するために、並びに/或いは、信号を受信及び/又は送信するために、使用される場合がある。患者14に関連するナビゲートされた空間又はナビゲーションドメインは、画像18に位置合わせされる場合がある。相関関係は、当技術分野で理解されるように、ナビゲーションドメイン内で規定されるナビゲーション空間と、画像18によって規定される画像空間と、の位置合わせを可能にすることである。
[0032]様々な実施形態では、患者追跡機又は動的基準フレーム64は、患者14に連結される場合があり、画像18への患者14の位置合わせの動的追跡及び保全を可能にする。患者追跡デバイス又は動的位置合わせデバイス64は、画像が位置合わせされること、次いで、選択された処置のために使用されることを可能にする。様々な実施形態では、ローカライザ60、62は、患者追跡機を追跡することがある。更なる通信ライン74は、ローカライザ60、62、画像化システム16、インターフェースシステム76、及び、ナビゲーションプロセッサシステムであり得るプロセッサシステム22などの様々な機能間に提供されることがある。様々な実施形態では、通信システム74は、有線、無線であり、又は、物理的媒体転送システム(例えば、メモリチップへの読み取り/書き込み)を使用することがある。
[0033]更に、ガントリ34は、光学ローカライザ60又は電磁ローカライザ62のうちの1つ又は複数などで追跡される光学追跡デバイス82又は電磁追跡デバイス84などの追跡デバイスを含む場合がある。従って、器具66が画像18に関連する患者14の初期位置合わせ、自動位置合わせ、又は、継続位置合わせを可能にすることができるように、画像化デバイス16は、患者14に関連して追跡することができる。位置合わせやナビゲートされた処置は、上で組み込まれた米国特許第8,238,631号で議論されており、参照によって本明細書に組み込まれる。
[0034]当業者が理解するであろうことは、器具66が、心室又は血管ステント、脊椎インプラント、神経学的ステント又は刺激器、アブレーションデバイス、拡張器、又は同種のものなどの任意の適切な器具であり得る、ということである。器具66は、介入器具である場合があり、或いは、埋込可能デバイスを含む場合があり、又は、埋込可能デバイスである場合がある。器具66を追跡することは、患者14の内部の器具66を直接観察することなく、位置合わせ画像18を使用して、患者14に関連する器具66の場所(x、y、z位置及び配向を含む)を観察することを可能にする。
[0035]図1を継続的に参照し、図2Aを補助的に参照すると、患者14は、患者追跡機64に加えて及び/又はそれに代えて、1つ又は複数の患者マーカ又は追跡機100(本明細書では100及び小文字で引用される)を含むことがある。患者追跡機100は、X線又はMRIなどの様々な画像化システムで不透明又は画像化可能であるなどの様々な特徴を含むことがある。様々な実施形態に係る追跡機100は、様々な実施形態に係る画像化システム16で取得される画像データ内で概して可視的であるか又はキャプチャされることがある。こうして、患者マーカ100は、対象14の画像又は画像データにおいて識別可能であることがある。
[0036]様々な実施形態では、患者マーカ100は、プロセッサシステム26及び/又は33a、或いは、任意の他の適切な画像化プロセッサ又はプロセッサシステムによって実質上自動的に識別されることがある。マーカ100は、画像又は画像データにおいて識別され得る選択された及び/又は一意の幾何形状を含むことがある。様々な技法は、選択された画像又は画像データ内のマーカ100をセグメント化して識別するために使用されることがある。しかしながら、同じく理解されることは、使用者12が、画像内の部分を選択すること、及び、その部分を、使用者入力24の1つ又は複数を用いて、マーカ100として識別すること、などによって、画像データ内のマーカを識別し得るということである。
[0037]マーカ100は、患者14に対して任意の適切なやり方で位置決めされることがある。例えば、マーカ100は、自己接着バッキング、マーカ100及び/又は患者14に加えられた適切な接着剤又は接着材料、或いは、他の適切な機構などによって患者14に接着されることがある。更に又はそれに加えて、マーカ100(例えば、マーカ100d及び100e)は、患者14の骨構造に固定されることがある。マーカ100は、ねじとして形成又は提供されることがあり、或いは、それらがねじ部分を有することがあり、ねじ部分はそれらが患者14の頭蓋などの骨構造に捩じ込まれて固定式に位置決めされることを可能にする。
[0038]連結技法にもかかわらず、マーカ100は、選択された時間に患者14に位置決めされる。一般に、マーカ100は、画像化システム16で患者14の画像データ又は画像を取得するなど、画像化の前に患者14に位置決めされる。従って、画像システム16が患者14の画像を取得するために動作すると、マーカ100は、患者14に位置決めされ、任意の取得された画像データ又は画像に現れるであろう。
[0039]マーカ100は、従って基準点として使用されることがある。理解されることは、患者14が鼻先、目尻、耳たぶ又は同種のものなどの様々な物理的及び解剖学的な基準点を含むこともあるということである。それにもかかわらず、基準点は、マーカ100及び/又は解剖学的な基準点によって患者14に提供されようと、画像化システム16で取得された画像の位置合わせのために使用されることがある。当業者によって理解されることは、患者14に対して取得される画像が画像空間を規定し得るということである。画像空間は、手術若しくは処置の領域(RO)、及び/又は、目的領域(ROI)と呼ばれるなどのROよりも大きいが少なくともROを含むエリア、であることがある。理解されることは、処置が目的領域の特定エリアで発生し得るということである。それにもかかわらず、画像データ又は空間の座標は、物理的又は現実の空間で患者14に相関付け又は位置合わせされることがある。マーカ100は、患者14及び/又は患者14内の若しくは患者14に関連する手術領域によって規定されるように、患者及び/又はナビゲーション空間に画像空間を位置合わせするために使用されることがある。
[0040]器具66は、上で述べられたように、任意の適切な器具であることがある。器具66は、鼻腔112などを通して患者14の一部の内部に、また、前頭洞などの患者14の1つ又は複数の副鼻腔の中に、位置決めされ得る遠位端部110を含む拡張器器具を含むことがある。器具66は、近位端部114を更に含むことがあり、近位端部114には、膨張システム(図示せず)が連結され得るコネクタ又はニップルなどのコネクタ116が備えられる。コネクタ116は、材料が、ハンドル120などの器具66を通過して、器具66の遠位端部110で又はその近くで、バルーン又は他の拡大可能部分122の中に入るのを可能にすることがある。バルーン122のインフレーションは、当業者によって一般に理解されるように、副鼻腔の一部を拡張又は拡大させるために、拡大することがある。
[0041]様々な実施形態では、使用者12は、手130などで器具66を把持することがある。使用者12は、次いで、器具の遠位端部110を上顎洞134などの副鼻腔の中に移動させるように、器具66を患者14の内部などの患者14に関連して移動させることがある。しかしながら、理解されることは、様々な構成に係る器具66を含む様々な器具が、前頭洞136及び/又は蝶形骨洞138などの患者14の他の副鼻腔の1つ又は複数の部分にアクセスするために使用されることもあるということである。
[0042]器具66は、追跡デバイス146を更に含むことがある。追跡デバイス146は、細長いハンドル部分120などの器具66に取り付けられることがある。一般に、追跡デバイス146は、使用者12によるハンドル120の動きが、使用者の手130などを用いて、ハンドル120及び追跡デバイス146を動かすように、ハンドル120に関連して実質上固定される。様々な実施形態によれば、追跡デバイス146は、同じく器具66の遠位端部110に関連して空間にしっかりと固定される。従って、追跡デバイス146の位置(例えば、場所及び/又は配向)を知ることは、遠位端部110の位置を知るのを可能にするであろう。更に、遠位端部110は、ハンドル120の軸120aに関連して角度150である軸110aに沿って延びることがある。従って、追跡デバイス146は、ハンドル120に取り付けられた追跡デバイス146に関連する遠位先端110の位置を決定するために、追跡されるべき遠位端部110に関連して、位置決めされて、知られている又は所定の位置及び幾何形状を有することがある。
[0043]使用者12によって使用され得る器具66に加えて、追加の器具が、対象14に関連して使用されることもある。例えば、図2Bに例証されたように、使用者12は、画像化システム137を含むか又は動作させることがある。画像化システム137は、カメラレンズ又はカメラなどの遠位画像キャプチャ部分139を含むことがある。画像化器具137は、一般に、Olympus Americaによって販売されるEVIS EXERA III内視鏡などの内視鏡であると理解されることがある。内視鏡137は、様々な一般に知られている技法及び実施形態に従って、使用者12によって対象14に関連して位置決めされることがある。画像収集部分139は、洞キャビティ134を含む対象14の内部部分又は鼻腔112を含む他の適切な部分など、対象14の様々な部分を画像化することがある。本明細書で更に議論されるように、内視鏡137は、対象14の内部の器具66の位置決め中など、実質上リアルタイムであり得る画像をキャプチャすることがある。内視鏡137でキャプチャされたリアルタイム画像は、表示デバイス20及び/又はAV21などの様々な表示デバイス又は観察システム上に表示されることがある。従って、内視鏡137は、一般に知られている技法に従って、画像化部分又は端部139で画像をキャプチャして画像を表示するために、使用されることがある。画像は、表示デバイス20及び/又はAV21を含む、選択された表示器又は観察システムに表示するために、無線で又は有線伝送システムなどの様々なシステムを介して、処理システム22に送信されることがある。内視鏡137からの信号は、デジタル信号及び/又はアナログ信号であることがあり、また、内視鏡から直接及び/又はインターフェースシステム76を介して送信されることがある。とにかく、内視鏡137の画像化部分139で取得された画像は、使用者12及び/又は任意の他の適切な個人によって観察されることがある。更に、画像は、様々な目的のために、キャプチャされて記録されることがある。
[0044]内視鏡137は、上で議論されたように、対象14の画像を取得するために使用されることがある。画像の取得又は処置の実行を支援するために、内視鏡の位置、特に、取得される画像の位置は、1つ又は複数の追跡デバイスによって決定されることがある。例えば、内視鏡追跡デバイス147は、上で議論されたように、器具66に連結された追跡デバイス146と同様に、内視鏡137に組み込まれることがある。追跡デバイス147は、追跡デバイス146のマーカ146aと同様に、1つ又は複数の観察可能マーカ又は部分147aを含むことがある。本明細書で議論されるように、従って、追跡デバイス147は、本明細書で更に議論されるような選択された追跡システムによって追跡されるべきAV21で観察又は画像化されることがある。追跡デバイス147は、患者14の内部の画像の場所を決定するのを支援するために、画像をキャプチャする端部139の位置を決定するために使用されることがある。内視鏡137は、使用者12によって直接観察可能ではない洞キャビティ134内などの対象14の内部に位置決めされることがある。追加及び/又は代替の追跡デバイスは、画像キャプチャ端部139で又はその近くで、内視鏡137の中に位置決め又は組込みされ得る端部追跡デバイス143を含むことがある。追跡デバイス143は、上で議論された追跡デバイス64と同様であることがある。追跡デバイス143は、光学追跡デバイス、EM追跡デバイス、超音波追跡デバイス、又は、他の適切な追跡デバイスであることがある。本明細書で更に議論されるように、追跡デバイス143や患者又は対象追跡機64などでの器具137の位置合わせは、対象14に関連する内視鏡137の位置合わせ及び位置合わせを維持するのを支援するために、使用されることがある。
[0045]使用者12は、処置中の使用のために、代替のもの又は拡張観察スクリーン若しくは観察システム21を有する及び/又は使用することもある。AV21は、少なくとも1つの観察スクリーン、一般には、第1の観察スクリーン160及び第2の観察スクリーン162を含む2つの観察スクリーン、を含む適切なデバイスであることがある。観察スクリーンは、AV21が使用者12によって眼鏡と同様のやり方で着用されるのを可能にするために、1つ又は複数のテンプル部材168を有し得るフレーム部材166に固定することができる。従って、観察スクリーン160、162は、使用者12の両目172及び174のそれぞれの概ね正面に位置決めされることがある。このようにして、画像は、使用者12が画像を観察するのを可能にするために、観察スクリーン160、162の一方又は双方に表示されることがある。AV21は、Microsoft Corporationによって販売されるHololens(登録商標)着用型コンピュータ周辺機器、カリフォルニア州サンフランシスコに事業所を有するOsterhout Design Groupによって販売されるR−9Smartglasses着用型コンピュータ周辺機器、及び/又は、カリフォルニア州ロサンゼルスに事業所を有するDAQRIによって販売されるDAQRI Smart Glasses(登録商標)着用型コンピュータ周辺機器、などの1つ又は複数の様々なデバイス及びシステムを含むことがある。
[0046]様々な実施形態では、観察スクリーン160、162は、画像(例えば、アイコンやレンダリング)を表示する部分を除いて、実質上透明であることもある。従って、使用者12は、患者14と、観察スクリーン160、162によって表示される任意の画像と、を観察することがある。その上、選択された画像を表示する2つの観察スクリーン160、162に起因して、表示器は患者14に関連する使用者12によって実質上立体的及び/又は3次元であると知覚されることがある。本明細書で更に議論されるように、従って、使用者12は、処置を実行するときに、患者14及び画像を観察することがある。
[0047]AV21は、第1のカメラ180及び第2のカメラ182などの1つ又は複数のカメラを含むこともある。2つのカメラ180、182は、患者14の頭などの目的領域を観察するために使用されることがある。図2Aに例証されたように、使用者12は、患者14の副鼻腔などの手術領域で処置を実行するときに、患者の頭部分及び首部分を実質上観察することがある。従って、本明細書で更に議論されるように、カメラ180、182は、様々な目的のために患者14を観察することもある。その上、カメラは、器具66の追跡デバイス146及び/又はマーカ100などの目的領域で他のオブジェクトを観察することがある。追跡デバイス146は、AV21による追跡デバイス146の斜視又は図を決定するために使用されるべきカメラ180、182によって観察可能である1つ又は複数の観察可能マーカ又は部分146aを含むことがある。
[0048]本明細書で議論されるように、2つのカメラ180、182の使用は、追跡デバイス146及び/又はマーカ100の場所を観察して決定するために本明細書で開示されて議論されているが、当業者によって理解されることは、カメラ180、182のうちの1つだけなどの1つのカメラだけが追跡に必要とされ得るということである。追跡デバイス146、追跡デバイス147、及び/又は、マーカ100についての様々な特徴(例えば、形状、画像等々)に基づいて、カメラ180などの単一のカメラは、カメラ180に関連して及び/又は他の追跡可能なアイテムに関連して場所(即ち、x座標、y座標、z座標及び配向)を決定するために使用されることがある。例えば、カメラ180は、マーカ100に関連する追跡デバイス146(及び、従って、器具66)の相対的な場所を決定するために使用されることがある。更に、カメラ180は、AV21から分離された使用者12の頭の上など、使用者12に関連して任意の場所に配置されることがある。カメラ180は、しかしながら、観察スクリーン160、162の1つ又は複数への様々な画像の表示のために、依然としてプロセッサシステム22と通信したままであることがある。
[0049]カメラ180、182を含むAV21は、従って、器具66の追跡デバイス146と組み合わせて、患者14のマーカ100を観察することがある。患者14のマーカ100は、カメラ180、182によって観察されることがあり、また、使用者12によって、及び/又は、プロセッサ26で命令を実行することによるなどプロセッサシステムへの命令を実行することによって実質上自動的に、識別されることがある。
[0050]上で議論されたように、プロセッサシステム22は、画像内のマーカ100を識別するのを支援するために、メモリ27にセーブされたものなどの命令にアクセスすることがある。カメラ180、182は、患者14の頭を含む目的領域を含んでマーカ100をも観察する視野を有することがある。命令は、選択されたソフトウェアに含まれることがあり、画像のセグメント化やマーカ100の選択された形状、密度、色、又は同種のものを識別することなどによって、観察画像内のマーカ100を識別することがある。
[0051]いったんマーカ100が識別されると、画像化システム14で取得される画像は、AV21のカメラ180、182の視野に、マーカ100をそれの中に含む画像を位置合わせするために、プロセッサシステム22などで位置合わせされることがある。位置合わせは、画像デバイス16によって取得された画像データ内の識別されたマーカ100と、AV21のカメラ180、182で取得された視野画像内のマーカ100と、をマッチングさせることによって起こることがある。マーカ100は、一般に、画像化システム16による画像データの取得中、及び、処置中のカメラ180、182の視野内にあるときに、患者について同じ位置に維持される。位置合わせは、内視鏡137上の追跡デバイス143と、患者追跡機又は動的基準フレーム64と、に起因して起こることもある。上で議論されたように、位置合わせは、参照によって本明細書に組み込まれる米国特許第8,238,631号に開示されたものなどの様々な位置合わせ技法に起因して起こることもある。位置合わせは、追跡デバイス143(内視鏡137に関連付けされる)及び/又は患者追跡機64を追跡することによって行われることがある。更に、AV21は、AV21が同一又は類似の追跡システム及び/又は対象若しくは動的基準フレーム64に関連する基準フレームで追跡されるのを可能にし得る追跡デバイス149、及び/又は、内視鏡137上の追跡機143、を含むことがある。こうして、AV21は、内視鏡137及び/又は対象14に関連して位置合わせされることがある。本明細書で更に議論されるように、内視鏡137で取得されたこの画像は、関連して表示されるために、又は、使用者12の観察に関連して使用者12による観察のために、使用されることがある。
[0052]上で議論されたように、図2A及び図2Bを参照すると、マーカ100が患者14に連結される画像化システム16で取得される画像データ及び/又は画像は、マーカ100のデータを含むであろう。マーカ100は、上で議論されたような画像化システム16で取得される画像データ又は画像において識別されることがある。マーカ100は、AV21に関連付けされたカメラ180、182によって観察されることもある。カメラ180、182は、解剖学的な基準マーカを識別する又は識別するのを支援するために患者14を観察することもある。それにもかかわらず、画像化システム18で取得された画像データで識別されたマーカ100は、カメラ180、182で取得される画像でも識別されることもある。当業者によって理解されることは、カメラ180、182で取得される画像がカラー画像、赤外光画像、又は同種のものなどの任意の適切なタイプの画像であり得るということである。それにもかかわらず、画像化システム16で取得された画像データで識別されるマーカ100のマッチングは、カメラ180、182で観察されたマーカの識別された場所にマッチングされ、AV21によって観察された空間又は視野を、画像化システム16で取得された画像の画像空間に、位置合わせすることがある。本明細書で更に議論されるように、従って、画像化システム16で取得された画像又は画像の一部は、患者14に重ね合わせられているように見えるように、観察スクリーン160、162で表示されることがある。
[0053]対象14は、内視鏡137の対象追跡機64及び追跡機143のために、内視鏡137で取得された現在取得された画像又はリアルタイム画像に関連して位置合わせされることもある。位置合わせは、基準マーカ100d及び/又は他の基準特徴などを用いて、対象14に対して行われることがある。こうして、内視鏡137で取得されたリアルタイム画像は、事前取得画像に位置合わせされることもある。こうして、事前取得画像は、カメラ180、182などを用いて器具66に、及び/又は、AV21追跡機149を介してAV21に、位置合わせされることがある。こうして、内視鏡137で取得された画像は、対象14の事前取得画像に位置合わせされ、AV21などでの使用者12による観察のためになることがある。
[0054]使用者12は、図3A及び図3Bに例証されたように、AV21を介して対象14を観察することがある。使用者12は、図3A及び図3Bに破線で例証されたように、視野21fを観察又は有することがある。視野21fは、対象14を観察したときのAV21を介した使用者12による眺め、又は、AV21を介した任意のエリア、を表すことがある。こうして、使用者12は、現実の又は物理的な対象14を観察することがあり、眺めは、AV21によって表示される図式表現(本明細書ではアイコンとも呼ばれる)によって増強されることもある。アイコン又は図式表現は、AV21を介して視野を観察するときに、使用者12による観察のために、視野21fに表示されることがある。
[0055]アイコンに加えて、本明細書で更に議論されるように、追加の画像又は画像エリア153は、使用者12によって観察されるべきAV視野21f内に表示されることがある。補足の観察エリア153は、使用者12による使用又は観察のための様々な画像又は情報を表示するために使用されることがある。例えば、内視鏡137によって取得されたリアルタイム画像は、補助又は拡張の観察エリア153に表示されることがある。こうして、使用者12は、対象14と、本明細書で更に議論されるような様々な図式表現と、補助若しくは追加の観察エリア153内の追加画像(例えば、内視鏡画像)と、を観察するために、視野21fで対象14を観察することがある。使用者12は、事前取得画像、内視鏡によるリアルタイム画像、又は、他の適切な情報などの補助表示エリア153に表示されるべき情報を選択式に選択又は選ぶこともある。
[0056]図3A及び図3Bを追加的に参照すると、例えば、上顎洞134などの副鼻腔は、上顎洞アイコン134’として表示されることがある。図3Aは、AV21を介して、患者14と、観察スクリーン160、162で表示される様々な部分と、を見ている使用者12の視点の例証である。上で議論されたように、従って、上顎洞アイコン134’は、使用者12が患者14を覗き込んで上顎洞134を観察できるかのように、使用者12による観察のために表示されることがある。上顎アイコン134’は、画像データのグラフィックレンダリング、又は、上顎洞を表すための人工的に作成されたアイコン、であることがある。
[0057]前頭洞136や蝶形骨洞138のうちの1つ又は複数など、患者14の解剖学的構造の他の部分を例証するために選択されることもある。使用者12は、患者14及び/又は患者14に取り付けられたマーカ100などの任意の現実世界のオブジェクトを観察することもある。使用者は、患者用サポート15などの他の現実世界の部分を観察することもある。従って、使用者12は、観察スクリーン160、162の透明部分を通して観察することによって、観察スクリーン160、162及び現実世界のアイテムのために、患者14に重ね合わされた両特徴を観察することがある。
[0058]更に、カメラ180、182は、追跡デバイス146を観察することがある。追跡デバイス146を観察することによって、カメラ180、182は、マーカ100に関連する追跡デバイス146の位置を決定することがある。マーカ100の位置は、患者14の場所を識別するために患者14に配置される。マーカ100の1つ又は複数に関連する器具追跡デバイス146の知られている位置は、追跡デバイス146及び患者14に関連する器具66の一部の決定を可能にする。上で議論されたように、器具の遠位端部110は、追跡デバイス146に関連して知られている固定の位置にあることがある。追跡デバイス146に関連する遠位端部110の知られている固定の相対位置(例えば、幾何形状)は、従って、メモリ27又は他の適切なメモリに記憶されることがある。
[0059]追跡デバイス146の追跡された場所は、カメラ180、182の1つ又は複数による追跡デバイスの「観察」に基づいて追跡デバイス146の場所を三角測量することによって決定されることがある。プロセッサシステム22は、当技術分野で一般に理解されているように、命令を実行し、次いで、遠位端部110及び/又は122の膨張可能部材などの作業部分の位置を決定することがあり、器具アイコンは、例証され、患者14に関連する様々な部分を、それを観察スクリーン160、162上に表示することによって、含む又は例証することがある。プロセッサシステム22によって実行される命令は、メモリ27から記憶されて呼び出される命令を含むことがある。命令は、2つのカメラ180、182からの別個の観察に基づいて、追跡デバイス146などの、観察された部分の場所を三角測量するためのアルゴリズムに基づくものを含むことがある。別個の観察は、2つのカメラ180、182(例えば、画像データを含む)から信号を生成するために使用されることがあり、信号は、プロセッサシステム22に送信されることがある。追跡デバイス146の場所の三角測量は、2つのカメラ180、182間の知られている距離と、2つのカメラ180、182の個々によってキャプチャされた各別個の観察と、に基づくことがある。
[0060]従って、観察スクリーン160、162は、遠位端部のアイコン110’、及び/又は、器具66の膨張可能な部分のアイコン122’とも呼ばれる図式表現を含むことがある。遠位アイコン110’などのアイコンは、患者14に関連して重ね合わされている又は表示されているように見えるなど、観察スクリーン160、162の1つ又は複数のアイコンとして例示されることがある。理解されることは、器具66の一部以上のアイコンが使用されることがあり、従って、器具アイコン66’が器具66の全ての部分を含む器具全体として例証されることがあるということである。
[0061]AV21は、プロセッサシステム22と通信することがある、並びに/或いは、他のプロセッサシステムと通信するための、オンボード処理及び/又は他の通信機能を含むことがある。従って、AV21のカメラ180、182による患者14の頭などの目的領域の観察は、プロセッサシステム22に送信されることがある。カメラ180、182の間隔に少なくとも起因して、三角測量は、カメラ180、182に関連して、マーカ100及び/又は追跡デバイス146などの空間内の各観察点のために決定されることがある。マーカ100の1つ又は複数に対する追跡デバイス146の相対的な場所は、プロセッサシステム22で命令を実行することなどによって、決定されることがある。
[0062]プロセッサシステム22は、2つのカメラ180、182の一方又は双方から画像を受信しており、マーカ100や追跡デバイス146などの、様々な追跡される又は任意の観察される部分間の距離を処理して決定することがある。プロセッサシステム22は、従って、メモリ27でアクセスされた命令を実行しており、そのとき、器具アイコン66’又はそれの一部分などの選択された及び/又は適切な画像部分、並びに/或いは、画像データからの前頭洞136’又は他の適切な部分を含む副鼻腔を表すアイコンなどの他の画像化された特徴、を観察スクリーン160、162に提供することがある。追跡デバイス146及び/又はマーカ100の追跡された場所に基づく、画像化システム16で取得されたものなどの事前取得画像の位置合わせは、参照によって本明細書に組み込まれる米国特許第8,238,631号に開示されるものなどの、知られている位置合わせ技法に基づくことがある。位置合わせは、実質上自動であることがある、並びに/或いは、画像18のマーカ100及び/又は患者14のマーカ100などの基準マーカの識別に基づくことがある。
[0063]使用者12は、従って、患者14と、観察スクリーン160、162に基づく、患者14に関連する、器具アイコン66’などの他の特徴と、の双方を観察することがある。カメラ180、182は、使用者12及び患者14に関連して追跡情報の全てを提供してもよく、それによって観察スクリーン160、162でそれらを表示するために遠位先端110などの、器具66の様々な部分の場所を決定する。使用者12の知覚は、たとえそれが患者14内にあるとしても、器具66が患者14に関連して観察可能であるということであり得る。更に、画像化システム16で取得される画像データは、患者14に関連して、観察スクリーン160、162で、アイコンなどの特徴として、表示されることがある。再度、患者14についての使用者12による知覚は、副鼻腔134、136、138などの様々な部分がAV21のおかげで使用者12によって観察可能であるということであり得る。従って、図3Aに例証されたように、患者14の観察は、使用者12の通常の視力を備えた使用者12によって別のやり方で観察することのできない特徴を例証するために増強されることがある。換言すると、使用者12は、物理的空間における図3Aに例証されたような患者14と、上で議論されたアイコン又はレンダリングなどによる患者14内のエリアの表現と、を観察することがある。この観察は、3Dであることもあり、また、使用者が患者14及び/又は器具66に関連して動くので斜視的に変化することもある。
[0064]患者14は、図3Aに具体的に例証されたように、観察スクリーン160、162を通して観察されることがある。上顎アイコン134’及び蝶形骨アイコン138’などの様々なアイコンは、器具66のアイコン66’に関連して表示されることがある。アイコンは、蝶形骨アイコン138’などの解剖学的構造アイコンに関連して、器具アイコン66’の観察のために、様々な選択された不透明度及び/又は切り取りを有することがある。従って、使用者12は、蝶形骨アイコン138’及び器具アイコン66’などのアイコンを含む視野を観察しており、両方のアイコンを同時に見ることがある。その上、使用者12は、器具アイコン66’と、蝶形骨洞アイコン138’などの副鼻腔アイコンと、を実質上同時に観察することによって、蝶形骨洞138などの選択された副鼻腔内の器具66の位置を知覚することがある。換言すると、副鼻腔アイコンなどの様々なアイコンの不透明度は、選択された解剖学的部分の内部に或いはあたかもその内部に、器具アイコンを観察することができるように、透明な観察を有するために選択されることがある。これは、図3Aに例証されたように、使用者12が、患者14と、器具及び解剖学的構造のアイコンと、を実質上同時に、あたかも患者14に存在するかのように、観察するのを可能にする。
[0065]それに加えて又はそれに代えて、様々なアイコンは、患者14から離れた位置に表示されることがある。例えば、図3Bに例証されたように、器具アイコン66’は、蝶形骨アイコン138’などの解剖学的部分アイコンに関連して追跡されて決定された場所とはいえ、患者14から離れて表示されることがある。それは選択されることがあり、相互作用しているか又は器具66によって通過されたそれらの解剖学的部分だけを例証し、従って、全てのアイコンは、必ずしも示されるべきではないことがある。器具66が鼻腔112内にあって使用者12の増強されていない観察から隠されているときでさえ、鼻腔112を通るなどの解剖学的構造の様々な部分間のアイコン経路139’(図3A及び図3B参照)などの様々な経路を理解されたい。従って、図3Bに例証されたように、理解されることは、患者14の取得された画像データで表されるか又はそれに基づく解剖学的構造の表示部分が、患者14のそれぞれの関連する物理的な場所から離れた場所に表示されることがある、ということである。従って、副鼻腔アイコンなどのアイコンは、患者14から離れた距離に表示されることがある。これは、使用者12が患者14のより多くの及び/又は実質上妨げのない観察を有することを可能にし、同時に、選択された解剖学的部分に関連する器具66の相対的な場所の観察を可能にすることもできる。
[0066]その上、観察スクリーン160、162は、選択された場合に、実質上同時に、また、リアルタイムで、取得され得る内視鏡画像などの他の画像を表示するために使用されることがある。即ち、使用者12は、内視鏡を鼻腔112にも配置することがあり、観察スクリーン160、162のうちの1つ又は複数は、内視鏡観察を表示することがある。従って、理解されることは、使用者12が、副鼻腔アイコン及び/又は器具アイコン66’などの選択されたアイコンに関連して、観察スクリーン160、162上に表示もされ得るリアルタイムの内視鏡的視点を提供するために、器具66を用いて鼻腔112を通して内視鏡を位置決めし得ることである。
[0067]その上、理解されることは、様々な画像が、観察スクリーン160及び162の双方に、又は、観察スクリーン160、162の一方だけに、表示され得るということである。理解されるであろうことは、2つの観察スクリーン160、162上に表示される画像が実質上同様であり得るが、画像データ及び/又はアイコンに基づくか、使用者12によるかのいずれかで、副鼻腔及び/又は器具66などの選択された部分の深度及び/又は3次元性の知覚を可能にするために、変更され得るということである。従って、表示器160、162は、同一の表示器、実質上異なる表示器、又は、観察スクリーン毎に1つの表示器だけ、を有することがある、或いは、使用者12による観察のための深度の知覚を提供するために同様であることがある。
[0068]上で議論されたように、補助画像153は、補助画像153に例証される遠位端部画像110”などの器具66の位置を示すか又は例証する図とすることができる。補助画像153は、内視鏡137で取得されたリアルタイム画像であることがあり、上で議論されたとおりである。遠位端部画像110”は、従って、器具66のリアルタイム画像であることもある。補助画像153は、選択された処置中の使用者12による観察のために、副鼻腔の内部などの解剖学的構造の表面を表示することもある。従って、視野21fは、使用者12が、対象14、対象14に関連して表示及び/又はそれに重ね合わされた器具の図式表現、それに関連して表示及び/又は対象14に重ね合わされた対象の事前取得画像、並びに/或いは、器具66のリアルタイム画像などの補助画像、を観察するのを可能にすることがある。こうして、使用者12は、視野21fでどの画像を観察するかを選択することがある。理解されることは、画像又は図式表現のどれもが、表示デバイス20などの他の様々な表示デバイス上に表示され得るということである。表示デバイス20は、器具66の場所の図式表現、事前取得画像、及びリアルタイム画像の双方を、単独で又は組合せで、観察又は表示することもある。
[0069]図3Cを参照すると、視野は、表示デバイス20で表示されることもある。様々な実施形態では、内視鏡の観察は、補助観察153’として表示器20上に表示されることがある。アイコン110’と、副鼻腔134’などの解剖学的構造の部分とは、表示デバイス20で表示されることもある。図式表現は、表示デバイス20に表示されるとき、実質上3次元(3D)であることがある。こうして、視野表示21fは、表示デバイス20上に実質上再現され得るが、患者14が表示されず、副鼻腔134’などの取得された画像、及び、内視鏡137などでリアルタイムで取得される画像だけが表示され得る。表示デバイス20は、理解されることは、移動式であって、使用者12の最良の観察のために位置決めされることがある。
[0070]表示器20上に及び/又はAV21での視野21f内に表示されるかにかかわらず、図式表現の表示(例えば、副鼻腔134’及び器具110’)は、使用者12の視点からであることがある。こうして、使用者12が対象12に関連して動くと、視野21f内の及び/又は表示デバイス20上の表示は、使用者12に表示を提供するために変化することがあり、あたかも使用者12が選択された位置で対象12内を見ているかのようである。換言すると、使用者12が上というよりも下を見て対象12の頭の位置まで移動した場合、図式表現の表示は、対象14に関連して使用者12の位置をマッチングさせるために変更されるであろう。使用者12の決定される位置は、様々な実施形態において、追跡機149及び/又はAV21に関連付けされた画像化デバイス180、182の観察によって決定されることがある。
[0071]図1〜図3Bを継続的に参照し、図4を補助的に参照すると、前頭洞136を含む副鼻腔の1つ又は複数に関連する処置などの処置を実行するのを支援するための使用者12によるAV21を使用する方法は、フローチャート210で説明される。一般にプロセスは、開始ブロック214で開始することがある。開始ブロック214でプロセスを開始後、対象14の画像データ又は画像の取得は、実行されることがある。画像データ又は画像の取得は、任意の適切なやり方で実行されることがある。例えば、対象14の画像は、器具66を患者14に導入するために患者14が準備されたときなどの処置を実行する前の選択された時間に、メモリシステム27及び/又はメモリシステム33bなどのメモリシステムに、取得されて記憶されることがある。画像は、CTスキャナ及び/又はMRIなどの選択された画像化システムで取得されることがあり、また、生データ及び/又は再構築された画像などの適切なフォーマットでセーブされることがある。再構築された画像は、表示デバイス20及び/又はAV21などの様々な表示デバイスでの使用者12による観察のために、3次元の様式でレンダリングされた画像を含むことがある。更に、画像又は画像データの様々な部分は、他の画像データから前頭洞136を含む副鼻腔をセグメント化することなど、セグメント化されることがある。その上、画像又は画像データ内のマーカ100の識別は、プロセッサ26及び/又は33aを含むプロセッサなどによって実行されることがある。前頭洞136などの解剖学的構造の様々な部分をセグメント化すること、及び/又は、マーカ100を識別することは、様々なセグメント化技法を用いて、実行されることがある。セグメント化技法は、Medtronic,Inc.によって販売されるFUSION(商標)ナビゲーションシステムなどの、様々な画像化及びナビゲーションシステムに組み込まれるものを含むことがある。
[0072]画像データは、実質上処置中(例えば、患者が処置のために準備できているとき)に使用され得る画像化デバイス14などで、実質上処置の間又は処置の直前に、取得されることもある。画像又は画像データの様々な部分は、上で議論されたように、セグメント化されることがあるが、選択された期間にわたって処置の前にメモリに記憶されるというより寧ろ、データは、処置中の使用のために、プロセッサシステム22に、実質上リアルタイムで、転送されることがある。それにもかかわらず、理解され得ることは、画像データが、処置中の使用のために画像データ又は画像を分析及び/又は処理するなどのために、選択された期間にわたって記憶され得るということである。
[0073]画像データの取得は、任意選択であり得るが、その理由は、AV21による表示のための画像の準備、及び/又は、処置中の使用が必要とされないからである。例えば、本明細書で議論されるように、AV21及びプロセッサシステム22を含むシステムは、患者14の画像データなしで器具の位置を表すために、マーカ100及び追跡デバイス146を追跡することがある。様々な実施形態では、画像は、AV21での表示のために、プロセッサシステム22によってアクセスされることがあり、上で議論されたとおりである。
[0074]本明細書で更に議論されるように、AV21は、ブロック224の処置のために配置されることがある。処置のためのAV21の配置は、AV21を使用者12に配置することを含むことがある。その上、AV21は、マーカ100及び/又は追跡デバイス146などの器具66などで、患者14を追跡するための処理能力を提供するなどのために、プロセッサシステム22と通信するように配置されることがある。AV21は、従って、ブロック226で目的領域を観察することがあり、使用者は、ブロック228で目的領域を観察できることを確認することがある。目的領域を観察するときに、カメラ180、182は、一般に頭部領域などの、処置が行われる患者14の少なくとも一部を観察できることがある。上で議論されたように、手術領域は、患者14の様々な外部組織を通して使用者12が実質上観察可能でないことがある。従って、手術領域は、前頭洞136などの副鼻腔を含むことがあり、目的領域は、患者14の頭全体を含むことがある。従って、カメラ180、182は、目的領域を観察するために位置決めされることがあり、使用者12は、観察スクリーン160、162を通して目的領域を観察することを確認することがある。観察スクリーン160、162は、アイコンが観察スクリーン160、162の一部に表示されていないときに、実質上透明である。
[0075]いったんAV21が目的領域の観察を有すると、AV21カメラでの目的領域の記録は、ブロック232で実行されることがある。ブロック232での目的領域の記録は、カメラ180、182による画像の収集を可能にすることがある(もっとも、理解されることは、2つよりも多い又は2つよりも少ないカメラが使用され得ることである)。目的領域の記録は、処置全体の間などの進行中のやり方で患者14の少なくとも一部を画像化することを含むことがある。患者14の目的領域を画像化することは、患者14のマーカ100及び/又は他の基準点若しくは基準部分を画像化することを含むことがある。従って、記録された目的領域は、ブロック236で患者マーカを識別することを含むことがある。
[0076]患者マーカの識別は、画像内の患者マーカ100を識別するために、ブロック232において目的領域に記録された画像データをセグメント化することを含むことがある。識別された患者マーカ100は、使用者12が観察したときに患者14のマーカ100a上に位置決めされた3次元立方体を含み得るアイコン100a’などによって観察スクリーン160、162でアイコンとして表示されることがあり、図3に例証されたとおりである。それにもかかわらず、本明細書で更に議論されるように、ブロック236で患者マーカを識別することは、アイコン100a’の表示を要求又は可能にし得ないが、マーカを識別するために単に実行され、器具66又は遠位端部110などのそれの一部の場所の識別などのために、プロセッサシステム22によって患者14の領域を識別することがある。
[0077]患者14のマーカ100を識別することは、マーカ100がAV21のカメラの視野内にあるときに、ナビゲーションシステムの一部などのプロセッサシステムが、患者14を追跡することを可能にする。マーカ100は、色、パターン、形状等々などの、カメラ180、182で取得された画像において識別可能である部分を含むことがある。更に、マーカ100は、AV21に関連するマーカのポーズ、場所及び配向を含む位置を決定するために識別可能である特徴を含むことがある。従って、患者14は、使用者12によって着用されるAV21に関連して追跡されることがある。
[0078]ブロック240では、器具追跡機146は、識別されることがある。器具追跡機146は、色、パターン、形状等々などの、カメラ180、182で取得された画像内で識別可能である部分を含むことがある。更に、器具追跡機146は、AV21に関連するマーカのポーズ、場所及び配向を含む、位置を決定するために識別可能である特徴を含むことがある。例えば、追跡デバイス146は、カメラ180、182によって観察可能であるパターンを含むことがある。追跡デバイス146上のパターンは、追跡デバイスに関連して異なる観点から実質上又は完全に一意であることがある。こうして、追跡デバイス146上の観察されたパターンは、器具追跡機146の、及び、従って、器具66の、位置を決定するために、使用されることがある。
[0079]器具追跡機146は、器具66に固定されることがあり、上で議論されたとおりである。遠位先端110及び/又は作動部分122などの器具66の様々な部分間の幾何学的関係は、プロセッサシステム22による処理のために予め決定されて入力されることがある。様々な実施形態では、幾何形状は、器具66の自動識別(例えば、カメラ180、182で器具を観察することによる)及び/又は使用者12による器具の識別の入力のおかげで、メモリ27にセーブされて呼び出されることがある。それにもかかわらず、AV21は、場所(例えば、3次元座標)及び様々な自由度(例えば、3自由度)での配向を含む位置を決定するために、追跡デバイス146を観察するために使用されることがある。器具66の追跡された位置は、様々な目的のために処理システム22によって使用されることがある。
[0080]例えば、図3に例証されたように、ブロック244で実行され、器具アイコン66’は、観察スクリーン160、162の1つ又は複数に表示されるなど、AV21で表示されることがある。観察スクリーン160、162は、アイコンを例証する部分を除いて、実質上透明であることがある。アイコン66’並びに/或いは遠位先端アイコン110’及び/又は作動部分122’などの器具の部分は、患者14に関連して観察スクリーン160、162上に例証されることがある。使用者12は、次いで観察スクリーン160、162を通して患者14及びアイコンを観察することがある。従って、使用者12は、患者14の一部を含む、患者14に関連する器具66の少なくとも一部の位置を観察することがある。
[0081]対象部分アイコンの表示は、ブロック248で選択的又は代替的に表示されることがある。例えば、図3A及び/又は図3Bに例証されたように、前頭洞136’アイコンは、表示されることがある。前頭洞アイコン136’は、器具アイコン66’及び患者14に関連して表示されることがある。従って、使用者12は、患者14、器具アイコン66’、及び前頭洞アイコン136’を観察することがある。患者14のマーカ100の追跡によって、器具66の相対位置は、器具アイコン66’で観察スクリーン160、162上に表示されることがある。更に、前頭洞136などの対象部分の相対位置は、マーカ100を使用して患者に事前取得画像を位置合わせすることによって、表示されることがあり、上で議論されたとおりである。
[0082]再度、AV21は、マーカ100のおかげで患者14を追跡できるので、器具66と、前頭洞136などの対象部分と、の相対位置は、実質上リアルタイムで更新されて、対象14と共に使用者12による観察のために観察スクリーン160、162上に表示されることがある。理解されることは、器具アイコン66’や対象部分アイコン136’などのアイコンが、生成されて観察スクリーン160、162上に表示されることがあり、同時に使用者が、観察スクリーン160、162を通してリアルタイムに物理的空間で患者14を観察できるということである。更に理解されることは、アイコンが、観察スクリーン160、162の一方のみ又は双方に表示されることがあり、使用者12によって選択されたとおりである、ということである。
[0083]上で議論されたように、使用者12は、任意選択で、ブロック252で、表示されたリアルタイム画像を有するために選択することもある。リアルタイム画像は、内視鏡137で取得された画像であることがあり、上で議論され当業者によって一般に理解されるとおりである。リアルタイム画像は、対象14の、内部表面などの、表面を含むことがある。更に又はそれに加えて、画像は、器具66の遠位端部110”表示などの器具66の表示又は画像を含むことがある。使用者12は、補助画像153を、視野21fに、又は、表示デバイス20などの任意の適切な表示器上に、表示させることを選択することがある。使用者12は、また、補助表示器153をスイッチオフにするか又は非表示にすることを選択することもあり、従って、使用者12は、対象14と、図式表現やアイコンなどの選択された拡張現実部分と、だけを使用し、上で議論されたとおりである。更に理解されることは、使用者12が、図式表現を補助表示エリア153に表示させること、及び、リアルタイム画像を重ね合わせて表示させるか又は視野21f内の対象14に関連して表示させること、を選択することがあるということである。上で議論されたように、内視鏡137で取得された画像は、選択された基準部分並びに/或いは対象上のマーカ及び患者又は対象追跡機64のおかげで、対象14に関連して位置合わせされることがある。こうして、使用者12は、器具66に関連するアイコン、選択された副鼻腔に若しくは部分的に内部部分に又は事前取得画像(例えば、MRI及び/又はCT画像)の理由から関連するアイコン、及び、内視鏡137で若しくは他の適切な画像化システムで取得されたリアルタイム画像を観察することがある。
[0084]ブロック262では、処置は、対象14と、AV21に起因する器具アイコン66’及び/又は前頭洞アイコン136’などの選択されたアイコンと、を観察することによって実行されることがある。更に理解されることは、上顎洞アイコン134’及び/又は蝶形骨洞アイコン138’など、他の適切なアイコンが、表示され得るということである。その上、追加器具アイコンは、器具に関連付けられた様々な追跡デバイスによって表示されることもある。更に異なった器具は、AV21を含む表示デバイス上にアイコンを表示する前に入力及び/又は呼び出しされることもある異なった幾何形状を有することがある。方法210は、次いで、様々な止血及び/又は閉鎖の処置などの様々な他の処置を含んで、ブロック272で終了することがある。
[0085]例示の実施形態は、本開示が徹底的であり、当業者にその範囲を完全に伝えるであろうように提供される。多数の特定の詳細は、本開示の実施形態の完全な理解を提供するために、特定の構成要素、デバイス、及び方法の例などが記載される。当業者に明らかであろうことは、特定の詳細が採用される必要のないこと、例示の実施形態が多くの異なる形態で具現化され得ること、しかも、どちらも本開示の範囲を限定するように解釈されるべきでないこと、である。幾つかの例示の実施形態では、よく知られているプロセス、よく知られているデバイス構造、及び、よく知られている技術は、詳細には説明されない。
[0086]実施形態の先の説明は、例証及び説明の目的のために提供されてきた。意図されていないのは、網羅的であること又は開示を限定することである。特定の実施形態の個々の要素又は特徴は、一般にその特定の実施形態に限定されないが、適用可能な場合、交換可能であり、選択された実施形態で使用でき、たとえ具体的に図示又は説明がなくてもそうである。同じことは、多くの仕方で変更されることもある。そういった変形例は、本開示からの逸脱とみなされるべきではなく、全てのそういった修正例は、本開示の範囲内に含まれることが意図される。

Claims (40)

  1. 手術を対象に実行するときに前記対象を観察するためのシステムであって、
    観察スクリーン及びカメラシステムであって、
    使用者の第1の目の近くに位置決めされるように構成された第1の観察スクリーンと、
    前記使用者の第2の目の近くに位置決めされるように構成された第2の観察スクリーンと、
    第1の視野を有するように構成された少なくとも第1のカメラと、を有する観察スクリーン及びカメラシステムと、
    前記第1のカメラによって観察可能な器具に固定可能な器具追跡デバイスと、
    前記第1のカメラによって観察可能な対象マーカと、
    命令を実行するように構成されたプロセッサシステムと、を含み、(i)前記第1のカメラからの第1の信号に基づいて前記対象マーカに関連する前記器具追跡デバイスの相対位置を決定するため、及び、(ii)前記第1の目又は前記第2の目の少なくとも一方によって観察されるべき前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方に表示されるべき器具表現(instrument representation)を生成するためである、システム。
  2. 前記観察スクリーン及びカメラシステムは、
    第2の視野を有するように構成された第2のカメラを更に含み、前記第2のカメラは、
    前記プロセッサシステムは、命令を実行するために更に動作でき、(i)前記対象マーカに関連する前記器具追跡デバイスの観察に関して、前記第1のカメラからの前記第1の信号と、前記第2のカメラからの第2の信号と、に基づいて、前記対象マーカに関連する前記器具追跡デバイスの相対位置を決定するためであり、
    前記観察スクリーン及びカメラシステムは、使用者着用型である、請求項1に記載のシステム。
  3. 前記器具表現は、前記第1の観察スクリーン及び前記第2の観察スクリーンの双方に表示されたときに、前記使用者によって単一の(single)表現として観察される、請求項1又は2に記載のシステム。
  4. 前記器具表現は、前記対象を含む前記使用者の視界内の前記器具の一部として前記使用者には見える、請求項1から3のいずれか一項に記載のシステム。
  5. 前記対象の手術領域の少なくとも一部の画像をそれに記憶したメモリを更に含み、
    前記画像は、前記対象マーカを表す画像部分を含み、
    前記プロセッサシステムは、更なる命令を実行して、(i)前記手術領域の少なくとも前記一部の前記画像を位置合わせするため、及び、(ii)前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方で解剖学的構造表現を表示するためであり、
    前記解剖学的構造表現は、前記対象に関連する前記使用者の視界に見えるように構成される、請求項1から4のいずれか一項に記載のシステム。
  6. 前記器具表現及び前記解剖学的構造表現は、前記対象に関連する前記使用者の視界に見えるように両方構成される、請求項1から5のいずれか一項に記載のシステム。
  7. 前記第1の視野及び前記第2の視野は、オーバーラップする、請求項1から6のいずれか一項に記載のシステム。
  8. 前記対象に関連して移動可能であり、前記器具追跡デバイスに連結可能である器具を更に含む、請求項1から7のいずれか一項に記載のシステム。
  9. 前記第1の観察スクリーン又は前記第2の観察スクリーンは、実質上透明であり、前記使用者が前記対象を観察するのを可能にするように構成される、請求項1から8のいずれか一項に記載のシステム。
  10. 手術を対象に実行するときに前記対象を観察するためのシステムであって、
    使用者の第1の目に関連して保持されるように構成された着用型観察スクリーン及びカメラシステムであって、
    実装(mounting)構造と、
    前記使用者の前記第1の目の近くに位置決めされて、前記実装構造に固定されるように構成された第1の観察スクリーンと、
    第1の視野を有するように構成された第1のカメラと、を有する着用型観察スクリーン及びカメラシステムと、
    前記第1のカメラによって観察可能な器具に固定された器具追跡デバイスと、
    前記第1のカメラによって観察可能な対象マーカと、
    命令を実行するように構成されたプロセッサシステムと、を含み、(i)前記対象マーカに関連する前記器具追跡デバイスの観察に関して、前記第1のカメラからの第1の信号に基づいて前記対象マーカに関連する前記器具追跡デバイスの相対位置を決定するため、及び、(ii)前記第1の目によって観察されるべき前記第1の観察スクリーンに表示されるべき器具アイコンを生成するためである、システム。
  11. 前記着用型観察スクリーン及びカメラは、
    第2の視野を有して、前記実装構造に固定されるように構成された第2のカメラであって、
    前記第1の視野が前記第2の視野と異なり、
    前記第1のカメラが前記実装構造に固定される、第2のカメラと、
    前記使用者の第2の目の近くに位置決めされるように構成された第2の観察スクリーンと、を更に含む、請求項10に記載のシステム。
  12. 前記着用型観察スクリーン及びカメラは、前記使用者が前記第1の観察スクリーン及び前記第2の観察スクリーンの双方を通して前記対象を同時に観察できるように構成される、請求項11に記載のシステム。
  13. 前記着用型観察スクリーン及びカメラは、前記使用者が前記対象及び前記器具アイコンの双方を同時に観察できるように構成される、請求項11に記載のシステム。
  14. 前記プロセッサシステムは、(i)前記対象の事前取得画像を、(ii)前記第1のカメラ及び前記第2のカメラでの前記対象の観察と、位置合わせするために、更なる命令を実行するように構成され、
    前記事前取得画像の少なくとも一部は、前記対象に位置合わせされた前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方で表示され、
    前記器具アイコンは、前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方での前記事前取得画像の少なくとも前記一部に関連する前記器具の決定された位置に例証される、請求項13に記載のシステム。
  15. 対象を観察するための方法であって、
    使用者の第1の目の近くに位置決めされるように構成された第1の観察スクリーンを位置決めするステップと、
    前記使用者の第2の目の近くに位置決めされるように構成された第2の観察スクリーンを位置決めするステップと、
    少なくとも、第1の視野を有するように構成された第1のカメラ、又は、第2の視野を有するように構成された第2のカメラを、前記第1の観察スクリーン及び前記第2の観察スクリーンに対して、固定するステップと、
    器具に固定された器具追跡デバイスを、少なくとも前記第1のカメラ又は第2のカメラの視野内に、配置するステップと、
    少なくとも前記第1のカメラ又は前記第2のカメラによって観察可能であるように対象マーカを配置するステップと、
    命令を実行するためにプロセッサシステムを動作させるステップと、を含み、(i)前記対象マーカに関連する前記器具追跡デバイスの観察に関して、前記第1のカメラからの第1の信号、又は前記第2のカメラからの第2の信号、に基づいて、前記対象マーカに関連する前記器具追跡デバイスの相対位置を決定するため、及び(ii)前記第1の目又は前記第2の目の少なくとも一方によって観察されるべき前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方に表示されるべき器具アイコンを生成するためである、方法。
  16. 前記対象に関連して位置決めされるように構成された端部を有するために前記器具を提供するステップを更に含む、請求項15に記載の方法。
  17. 命令を実行するために前記プロセッサシステムを動作させ、前記器具追跡デバイスに関連する動作端部の位置をメモリシステムから呼び出すステップを更に含む、請求項16に記載の方法。
  18. 前記使用者が前記対象及び前記器具アイコンを同時に観察するために、前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方を構成するステップを更に含む、請求項17に記載の方法。
  19. 前記器具を構成して、前記対象に関連して動かし、その間、前記使用者が前記対象及び前記器具アイコンを同時に観察できる、ステップを更に含む、請求項18に記載の方法。
  20. 処置を実行し、その間、前記対象及び前記器具アイコンを同時に観察するステップを更に含む、請求項19に記載の方法。
  21. 手術を対象に実行するときに前記対象を観察するためのシステムであって、
    使用者着用型観察スクリーン及びカメラシステムであって、
    使用者のための視野画像を生成するように構成された観察スクリーンと、
    前記対象の少なくとも一部を含むように動かされるように動作できる第1の視野を有する第1のカメラと、を有する使用者着用型観察スクリーン及びカメラシステムと、
    前記対象の画像を生成するために動作できる前記使用者着用型観察スクリーン及びカメラシステムから分離された画像化システムと、
    (i)前記画像化システム及び前記生成画像の位置を決定する、及び、(ii)前記生成画像を前記観察スクリーンで表示するように命令を実行するように構成されたプロセッサシステムと、を含む、システム。
  22. 前記使用者着用型観察スクリーン及びカメラシステムの前記観察スクリーンは、
    使用者の第1の目の近くに位置決めされるように構成された第1の観察スクリーンと、
    前記使用者の第2の目の近くに位置決めされるように構成された第2の観察スクリーンと、を更に含む、請求項21に記載のシステム。
  23. 前記使用者着用型観察スクリーン及びカメラシステムは、
    第2の視野を有するように構成された第2のカメラを更に含む、請求項21又は22に記載のシステム。
  24. 手術を前記対象に実行するために手術領域に位置決めされるように構成された動作端部を有する器具と、
    前記第1のカメラ及び前記第2のカメラによって観察可能な前記器具に固定された器具追跡デバイスと、を更に含む、請求項21から23のいずれか一項に記載のシステム。
  25. 前記プロセッサシステムは、命令を実行するために更に動作でき、(i)対象マーカに関連する前記器具追跡デバイスの観察に関して、前記第1のカメラからの第1の信号と、前記第2のカメラからの第2の信号と、に基づいて、前記対象マーカに関連する前記器具追跡デバイスの相対位置を決定するため、及び、(ii)前記第1の目又は前記第2の目の少なくとも一方によって観察されるべき前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方に表示されるべき器具アイコンを生成するためである、請求項24に記載のシステム。
  26. 対象マーカと、
    前記器具追跡デバイス、前記画像化システム、及び、前記対象マーカを追跡するように構成された追跡システムと、を更に含む、請求項24に記載のシステム。
  27. 前記観察スクリーンは、前記器具及び前記生成画像の追跡された位置で実質上同時に器具表現を表示するために動作できる、請求項26に記載のシステム。
  28. 前記対象の手術領域の少なくとも一部の画像をそれに記憶したメモリを更に含み、
    前記画像は、前記対象マーカを表す画像部分を含み、
    前記プロセッサシステムは、更なる命令を実行して、(i)前記手術領域の少なくとも前記一部の前記画像を位置合わせするため、及び、(ii)前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方で解剖学的構造アイコンを表示するためであり、
    前記解剖学的構造アイコンは、前記対象に関連する前記使用者の視界に見えるように構成される、請求項27に記載のシステム。
  29. 前記器具アイコン及び前記解剖学的構造アイコンは、前記対象に関連する前記使用者の視界に見えるように両方構成される、請求項28に記載のシステム。
  30. 手術を対象に実行するときに前記対象を観察するためのシステムであって、
    前記対象の画像を得るために動作できる第1のリアルタイム画像キャプチャシステムと、
    観察スクリーン及びカメラシステムであって、
    使用者の第1の目の近くに位置決めされるように構成された第1の観察スクリーンと、
    第1の視野を有するように構成された第2のリアルタイム画像キャプチャシステムと、を有する観察スクリーン及びカメラシステムと、
    前記第2のリアルタイム画像キャプチャシステムによって観察可能な器具に固定可能な器具追跡デバイスと、
    前記第2のリアルタイム画像キャプチャシステムによって観察可能な対象マーカと、
    少なくとも前記第1のリアルタイム画像キャプチャシステム及び対象追跡デバイスを追跡するように構成された追跡システムと、
    前記観察スクリーン及びカメラシステムから分離された補助表示デバイスであって、前記補助表示デバイスが前記第1の観察スクリーンから分離されて単独で観察可能である、補助表示デバイスと、
    命令を実行するように構成されたプロセッサシステムと、を含み、(i)前記第2のリアルタイム画像キャプチャシステムからの第1の信号に基づいて、前記対象マーカに関連する前記器具追跡デバイスの相対位置を決定するため、及び、(ii)少なくとも前記補助表示デバイスで表示されるべき器具表現を生成するためである、システム。
  31. 前記対象マーカ及び前記対象追跡デバイスは、単一のデバイスに統合される、請求項30に記載のシステム。
  32. 前記プロセッサシステムは、命令を実行するように更に構成され、
    前記第1のリアルタイム画像キャプチャシステムの追跡された位置と、前記対象の追跡された位置と、を位置合わせするため、及び、
    少なくとも前記補助表示デバイスで表示されるべき前記第1のリアルタイム画像キャプチャシステムの表現を生成するためである、請求項30又は31に記載のシステム。
  33. 前記第1のリアルタイム画像キャプチャシステムは、前記対象の内部で動かされるように構成され、
    少なくとも1つの前記補助表示デバイスは、前記得られた画像を表示するために動作できる、請求項30から32のいずれか一項に記載のシステム。
  34. 前記第1のリアルタイム画像キャプチャシステムは、前記対象の内部で動かされるように構成され、
    前記第1の観察スクリーン又は第2の観察スクリーンの少なくとも一方は、前記得られた画像を表示するために動作できる、請求項30から33のいずれか一項に記載のシステム。
  35. 前記表示された得られた画像は、前記生成された器具表現から分離表示されて離隔される、請求項33に記載のシステム。
  36. 前記得られた画像の前記表示をトグルオン及びトグルオフするための使用者入力を更に含む、請求項34に記載のシステム。
  37. 観察スクリーン及びカメラシステム追跡デバイスを更に含み、
    前記プロセッサシステムは、前記観察スクリーン及びカメラシステム追跡デバイスの基準フレームと、前記対象の前記追跡された位置の基準フレームと、を位置合わせするために、命令を実行するように更に構成され、
    前記補助表示デバイスでの前記表示は、前記観察スクリーン及びカメラシステム追跡デバイスの前記追跡された位置に少なくとも部分的に基づく、請求項30から36のいずれか一項に記載のシステム。
  38. 対象を観察するための方法であって、
    前記対象のリアルタイム画像をキャプチャするために、前記対象に関連して第1の画像キャプチャシステムを位置決めするステップと、
    使用者の第1の目の近くに第1の観察スクリーンを位置決めするステップと、
    前記使用者の第2の目の近くに第2の観察スクリーンを位置決めするステップと、
    少なくとも、第1の視野を有するように構成された第1のカメラ、又は、第2の視野を有するように構成された第2のカメラを、前記第1の観察スクリーン及び前記第2の観察スクリーンに対して、固定するステップと、
    (i)前記第1の目又は前記第2の目の少なくとも一方によって観察されるべき前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方に表示されるべき器具アイコンを生成する、及び、(ii)前記第1の目又は前記第2の目の少なくとも一方によって観察されるべき前記第1の観察スクリーン又は前記第2の観察スクリーンの少なくとも一方に、少なくとも1つのキャプチャされたリアルタイム画像を表示するように命令を実行するためにプロセッサシステムを動作させるステップと、を含む、方法。
  39. 器具に固定された器具追跡デバイスを、少なくとも前記第1のカメラ又は第2のカメラの視野内に、配置するステップと、
    少なくとも前記第1のカメラ又は前記第2のカメラによって観察可能であるように対象マーカを配置するステップと、
    命令を更に実行するために前記プロセッサシステムを動作させるステップと、を更に含み、(i)前記対象マーカに関連する前記器具追跡デバイスの観察に関して、前記第1のカメラからの第1の信号、又は前記第2のカメラからの第2の信号、に基づいて、前記対象マーカに関連する前記器具追跡デバイスの相対位置を決定するためであり、前記生成された器具アイコンは、前記決定された相対位置に基づいて表示される、請求項38に記載の方法。
  40. 処置を実行し、その間、前記対象、前記器具アイコン、又は、前記キャプチャされたリアルタイム画像のうちの少なくとも2つを同時に観察するステップを更に含む、請求項39に記載の方法。
JP2020529296A 2017-12-07 2018-12-06 処置中の視覚化を支援するためのシステム及び方法 Pending JP2021505226A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762595822P 2017-12-07 2017-12-07
US62/595,822 2017-12-07
US16/210,647 US11944272B2 (en) 2017-12-07 2018-12-05 System and method for assisting visualization during a procedure
US16/210,669 2018-12-05
US16/210,647 2018-12-05
US16/210,669 US20190175059A1 (en) 2017-12-07 2018-12-05 System and Method for Assisting Visualization During a Procedure
PCT/US2018/064280 WO2019113334A1 (en) 2017-12-07 2018-12-06 System and method for assisting visualization during a procedure

Publications (1)

Publication Number Publication Date
JP2021505226A true JP2021505226A (ja) 2021-02-18

Family

ID=66734354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020529296A Pending JP2021505226A (ja) 2017-12-07 2018-12-06 処置中の視覚化を支援するためのシステム及び方法

Country Status (8)

Country Link
US (2) US11944272B2 (ja)
EP (1) EP3720334A1 (ja)
JP (1) JP2021505226A (ja)
KR (1) KR20200097747A (ja)
CN (1) CN111356395A (ja)
AU (1) AU2018378696A1 (ja)
CA (1) CA3084998A1 (ja)
WO (1) WO2019113334A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US11058497B2 (en) * 2017-12-26 2021-07-13 Biosense Webster (Israel) Ltd. Use of augmented reality to assist navigation during medical procedures
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US20210169578A1 (en) * 2019-12-10 2021-06-10 Globus Medical, Inc. Augmented reality headset with varied opacity for navigated robotic surgery
US20230138666A1 (en) * 2020-01-24 2023-05-04 Memorial Sloan Kettering Cancer Center Intraoperative 2d/3d imaging platform
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) * 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
WO2022006586A1 (en) * 2020-06-29 2022-01-06 Regents Of The University Of Minnesota Extended-reality visualization of endovascular navigation
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4395731A (en) 1981-10-16 1983-07-26 Arnold Schoolman Television microscope surgical method and apparatus therefor
EP0909972A3 (en) 1992-03-13 1999-06-09 Kopin Corporation Method of forming a high resolution liquid crystal display device
US7343195B2 (en) 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US6891518B2 (en) * 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
US7493153B2 (en) 2001-06-13 2009-02-17 Volume Interactions Pte., Ltd. Augmented reality system controlled by probe position
US6947786B2 (en) * 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
DE60301619T2 (de) 2002-03-13 2006-06-22 Breakaway Imaging, LLC, Littleton Systeme und verfahren für die quasi-gleichzeitige multiplanare röntgendarstellung
EP2345370A3 (en) 2002-03-19 2012-05-09 Breakaway Imaging, Llc Computer tomography with a detector following the movement of a pivotable x-ray source
EP1511423B1 (en) 2002-06-11 2007-08-15 Breakaway Imaging, Llc Cantilevered gantry apparatus for x-ray imaging
US6901941B2 (en) 2002-07-10 2005-06-07 Air Products And Chemicals, Inc. Vessel with optimized purge gas flow and method using same
US7106825B2 (en) 2002-08-21 2006-09-12 Breakaway Imaging, Llc Apparatus and method for reconstruction of volumetric images in a divergent scanning computed tomography system
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US7367809B2 (en) 2004-03-26 2008-05-06 Atsushi Takahashi Three-dimensional digital entity mesoscope system equipped with three-dimensional visual instruction functions
US20050228270A1 (en) 2004-04-02 2005-10-13 Lloyd Charles F Method and system for geometric distortion free tracking of 3-dimensional objects from 2-dimensional measurements
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
US8073528B2 (en) 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
EP1919389A2 (de) 2005-06-09 2008-05-14 IFE Industrielle Forschung und Entwicklung GmbH Vorrichtung zum berührungslosen ermitteln und vermessen einer raumposition und/oder einer raumorientierung von körpern
US8060186B2 (en) 2007-02-15 2011-11-15 Siemens Aktiengesellschaft System and method for intraoperative guidance of stent placement during endovascular interventions
US8600478B2 (en) 2007-02-19 2013-12-03 Medtronic Navigation, Inc. Automatic identification of instruments used with a surgical navigation system
US9089256B2 (en) * 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
EP2331201B1 (en) 2008-10-01 2020-04-29 Inspire Medical Systems, Inc. System for treating sleep apnea transvenously
US9737235B2 (en) 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
WO2010117810A1 (en) 2009-03-31 2010-10-14 Inspire Medical Systems, Inc. Percutaneous access for systems of treating sleep-related disordered breathing
US8238631B2 (en) 2009-05-13 2012-08-07 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8467133B2 (en) * 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8842893B2 (en) 2010-04-30 2014-09-23 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US20120316486A1 (en) * 2010-08-20 2012-12-13 Andrew Cheung Surgical Component Navigation Systems And Methods
US9807860B2 (en) 2010-10-20 2017-10-31 Medtronic Navigation, Inc. Gated image acquisition and patient model construction
US20120099768A1 (en) 2010-10-20 2012-04-26 Medtronic Navigation, Inc. Method and Apparatus for Reconstructing Image Projections
US8768029B2 (en) 2010-10-20 2014-07-01 Medtronic Navigation, Inc. Selected image acquisition technique to optimize patient model construction
US9769912B2 (en) 2010-10-20 2017-09-19 Medtronic Navigation, Inc. Gated image acquisition and patient model construction
US9545188B2 (en) 2010-12-02 2017-01-17 Ultradent Products, Inc. System and method of viewing and tracking stereoscopic video images
US8562211B2 (en) 2011-03-30 2013-10-22 Medtronic Navigation, Inc. System and method for off-center imaging
US9411057B2 (en) 2011-04-01 2016-08-09 Medtronic Navigation, Inc. X-ray imaging system and method
EP2755591B1 (en) * 2011-09-16 2020-11-18 Auris Health, Inc. System for displaying an image of a patient anatomy on a movable display
US8891847B2 (en) 2012-01-23 2014-11-18 Medtronic Navigation, Inc. Automatic implant detection from image artifacts
WO2013116240A1 (en) 2012-01-30 2013-08-08 Inneroptic Technology, Inc. Multiple medical device guidance
CN104271046B (zh) 2012-03-07 2018-01-16 齐特奥股份有限公司 用于跟踪和引导传感器和仪器的方法和系统
US20130267833A1 (en) 2012-04-09 2013-10-10 General Electric Company, A New York Corporation Automatic instrument detection for surgical navigation
JP6017198B2 (ja) 2012-06-28 2016-10-26 オリンパス株式会社 内視鏡装置およびプログラム
US9192445B2 (en) 2012-12-13 2015-11-24 Mako Surgical Corp. Registration and navigation using a three-dimensional tracking sensor
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US20140221819A1 (en) 2013-02-01 2014-08-07 David SARMENT Apparatus, system and method for surgical navigation
EP2956814A1 (en) 2013-02-14 2015-12-23 Seiko Epson Corporation Head mounted display and control method for head mounted display
US9717442B2 (en) 2013-03-15 2017-08-01 Medtronic Navigation, Inc. Method and system for navigating an instrument
WO2015061793A1 (en) 2013-10-25 2015-04-30 The University Of Akron Multipurpose imaging and display system
CN106029000A (zh) 2014-02-21 2016-10-12 阿克伦大学 用于引导医疗干预的成像和显示系统
US10197803B2 (en) * 2014-03-28 2019-02-05 Alma Mater Studiorum—Universita' di Bologna Augmented reality glasses for medical applications and corresponding augmented reality system
DE102014206004A1 (de) 2014-03-31 2015-10-01 Siemens Aktiengesellschaft Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
US10639104B1 (en) 2014-11-07 2020-05-05 Verily Life Sciences Llc Surgery guidance system
US10702353B2 (en) 2014-12-05 2020-07-07 Camplex, Inc. Surgical visualizations systems and displays
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US20160242623A1 (en) 2015-02-20 2016-08-25 Cefla Societá Cooperativa Apparatus and method for visualizing data and images and for controlling a medical device through a wearable electronic device
JP2016158911A (ja) 2015-03-03 2016-09-05 株式会社クレッセント 画像表示装置を使った外科手術方法及び、その外科手術に用いる装置
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
WO2016162789A2 (en) 2015-04-07 2016-10-13 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
US10390890B2 (en) 2015-07-27 2019-08-27 Synaptive Medical (Barbados) Inc. Navigational feedback for intraoperative waypoint
US9675319B1 (en) * 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
JP2017164007A (ja) * 2016-03-14 2017-09-21 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
US20180049622A1 (en) * 2016-08-16 2018-02-22 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US20180092698A1 (en) * 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use

Also Published As

Publication number Publication date
EP3720334A1 (en) 2020-10-14
KR20200097747A (ko) 2020-08-19
AU2018378696A1 (en) 2020-05-07
WO2019113334A1 (en) 2019-06-13
US20190175058A1 (en) 2019-06-13
CA3084998A1 (en) 2019-06-13
US20190175059A1 (en) 2019-06-13
CN111356395A (zh) 2020-06-30
US11944272B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
JP2021505226A (ja) 処置中の視覚化を支援するためのシステム及び方法
US11883118B2 (en) Using augmented reality in surgical navigation
JP7341660B2 (ja) 医療手技におけるナビゲーションを補助するための拡張現実の使用
US11839433B2 (en) System for guided procedures
Baumhauer et al. Navigation in endoscopic soft tissue surgery: perspectives and limitations
TWI741359B (zh) 與手術導航系統整合之混合實境系統
Sielhorst et al. Advanced medical displays: A literature review of augmented reality
US20170296292A1 (en) Systems and Methods for Surgical Imaging
EP3422297B1 (en) System and method for glass state view in real-time three-dimensional (3d) cardiac imaging
JP7181298B2 (ja) 血管特徴を使用して異常な組織を検出するためのシステム及び方法
Yaniv et al. Applications of augmented reality in the operating room
Zhu et al. A neuroendoscopic navigation system based on dual-mode augmented reality for minimally invasive surgical treatment of hypertensive intracerebral hemorrhage
US20230120638A1 (en) Augmented reality soft tissue biopsy and surgery system
Galloway et al. Overview and history of image-guided interventions
CN111631814B (zh) 术中血管立体定位导航系统及方法
Vijayalakshmi Image-guided surgery through internet of things
US20240122650A1 (en) Virtual trajectory planning
EP3917430B1 (en) Virtual trajectory planning
Williamson et al. Image-guided microsurgery
WO2023049528A1 (en) Anatomical scanning, targeting, and visualization
Schoovaerts et al. Computer Assisted Radiology and Surgery

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200609