JP2022504151A - 位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正 - Google Patents

位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正 Download PDF

Info

Publication number
JP2022504151A
JP2022504151A JP2021518429A JP2021518429A JP2022504151A JP 2022504151 A JP2022504151 A JP 2022504151A JP 2021518429 A JP2021518429 A JP 2021518429A JP 2021518429 A JP2021518429 A JP 2021518429A JP 2022504151 A JP2022504151 A JP 2022504151A
Authority
JP
Japan
Prior art keywords
image
image data
viewpoint
images
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021518429A
Other languages
English (en)
Other versions
JP7443353B2 (ja
Inventor
エブラヒミ・ババク
シャメリ・エーサン
アクバリアン・ファテメ
パルシ・ジェットミア
ゴバリ・アサフ
グリナー・バディム
アルガウィ・イェフダ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Acclarent Inc
Original Assignee
Biosense Webster Israel Ltd
Acclarent Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd, Acclarent Inc filed Critical Biosense Webster Israel Ltd
Publication of JP2022504151A publication Critical patent/JP2022504151A/ja
Application granted granted Critical
Publication of JP7443353B2 publication Critical patent/JP7443353B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/233Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the nose, i.e. nasoscopes, e.g. testing of patency of Eustachian tubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/24Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Signal Processing (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Robotics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Otolaryngology (AREA)
  • Dentistry (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Figure 2022504151000001
システム(11)は、器官の腔への挿入のための医療用プローブ(36)を含み、該医療用プローブは、位置及び方向センサ(60)と、カメラ(45)と、を含み、位置及び方向センサ(60)もカメラ(45)もセンサ座標系(62)で動作する。システムは、プロセッサ(44)であって、画像座標系(28)で動作する撮像システム(21)から、開放空間及び組織を含む腔の三次元画像を受信することと、医療用プローブから、腔内部の医療用プローブの位置及びそれぞれの方向を示す信号を受信することと、カメラから、腔内部のそれぞれの視覚化された位置を受信することと、画像座標系をセンサ座標システムに位置合わせして、視覚化された位置で画像の1つ又は2つ以上のボクセルを識別することと、識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値を、開放空間に対応するように更新することと、を行うように構成されたプロセッサ(44)を更に含む。

Description

(関連出願の相互参照)
本出願は、2018年10月4日に出願された米国仮特許出願第62/741,403号の利益を主張するものであり、その開示は、参照により本明細書に組み込まれる。
(発明の分野)
本発明は、概して、医療用撮像に関し、特に、侵襲的医療処置を行いながら古い医療画像を更新することに関する。
医療処置中に、位置追跡システムによって追跡されるプローブなどの医療用装置によって調べられる解剖学的構造のリアルタイム表現は、先に取得された医療画像に重ね合わせて、解剖学的構造の表現を改善することができる。例えば、米国特許出願公開第2018/0146883号には、画像座標系で動作する撮像システムから、開放空間及び体組織を含む体腔の三次元画像を受信することと、位置センサを有する、体腔に挿入された医療用プローブから、センサ座標系での医療用プローブの遠位先端の位置を示す信号を受信することと、を含む、方法、機器、及びコンピュータプログラム製品が記載されている。画像座標系は、センサ座標系に位置合わせされ、示された位置で三次元画像の1つ又は2つ以上のボクセルを識別し、識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値は、開放空間に対応するように更新される。
別の例として、米国特許出願公開第2014/0147027号には、異なる位置から関心領域の撮像体積を生成するように構成された被追跡超音波撮像プローブを含む、撮像補正システムが記載されている。画像補償モジュールは、プローブと関連付けられた超音波撮像装置からの画像信号を処理し、1つ又は2つ以上の超音波画像体積とCT画像などの基準とを比較し、画像補償モジュールを使用して超音波撮像における収差を判定し、そして、収差に関する補償に基づいて、表示するための補正した超音波画像を生成するように構成されている。
上で説明したような画像誘導手術(image-guided surgery、IGS)は、コンピュータを使用して、一組の手術前に得られた画像(例えば、CT又はMRIスキャン、3Dマップなど)に対する、患者の身体内に挿入された器具の位置のリアルタイム相関を得ることによって、コンピュータシステムが、器具の現在位置を手術前に得た画像の上に重ね合わせることができる技術である。IGS処置で使用できる電磁IGSナビゲーションシステムの例は、Biosense-Webster,Inc.(Irvine,California)によるCARTO(登録商標)3システムである。
いくつかのIGS処置では、手術野のデジタル断層撮影スキャン(例えば、CT又はMRI、3Dマップなど)を手術の前に得る。次に、特別にプログラムされたコンピュータを用いて、デジタル断層撮影スキャンデータをデジタルマップに変換する。手術中、位置センサ(例えば、電磁場を放射する及び/又は外部で放射された電磁場に応答する電磁コイル)を有する特別な器具を使用して処置を実行し、同時に、センサがコンピュータに各手術用器具の現在位置を示すデータを送信する。コンピュータは、センサから受信されたデータを、術前断層撮影スキャンから作成されたデジタルマップと相関付ける。断層撮影スキャン画像は、スキャン画像内に示される解剖学的構造に対する各手術用器具のリアルタイム位置を示す指標(例えば、クロスヘア又は照明ドットなど)と共にビデオモニタ上に表示される。したがって、外科医が器具自体を身体内のその現在の位置において直接視覚化することができない場合であっても、ビデオモニタを見ることによって、各センサ搭載器具の正確な位置を知ることができる。
IGSナビゲーションシステムは、外科処置中に有用な視野及び情報を提供するが、外科医はまた、手術している解剖学的構造のリアルタイムの写真及びビデオを所望する場合もある。そのような場合、内視鏡は、解剖学的構造の画像を獲得するために、IGSナビゲーションを用いて手術部位に展開することができ、また、切断器具、アブレーション器具、拡張カテーテルなどの他の手術用器具と対にすること、又は別様にそれと共に展開することもできる。このようにして獲得された写真画像及びビデオは、一般化されてシミュレーションされた画像だけしか提供し得ないIGSナビゲーション画像よりも有用であり得る。代替的に、このようにして獲得された写真画像及びビデオは、有用な補足をIGSナビゲーション画像に提供することができる。
従来の内視鏡によって獲得された画像はまた、従来の内視鏡で獲得された画像が解剖学的構造の二次元(two-dimensional、2D)表現に制限され得るので、外科医による直視観察と比較していくらか制限され得る。切断、アブレーション、拡張などの手術は、2D内視鏡検査及びIGSナビゲーションの組み合わせを使用して行われ得るが、これらはどちらも、真の三次元(three-dimensional、3D)観察で利用可能な深度視点の感覚を提供することができない。3D観察の利益を伴うことなく手術用具を操作して手術することは、用具の位置決めに費やされる時間を増加させる場合があり、また、間違いの可能性を高める場合がある。いくつかの3D内視鏡カメラが存在するが、それらは、複雑さ及びコストが高く、また、それらをいくつかの処置に使用することを困難又は不可能にする剛性及び非可撓性部分を有する場合がある。可撓性及び3D特徴の両方を有する実装形態は、遠位のカメラから近位の視認者に獲得された画像を転送するために、高価で、脆弱な光ファイバ構成要素を必要とする場合がある。その結果、3D内視鏡検査のための従来のオプションは高価で、利用可能な特徴が制限され、また、高体積での使用及び廃棄性には不適当であり得る。
外科処置において、いくつかのシステム及び方法が製造及び使用されてきたが、本発明者ら以前に、添付の特許請求の範囲に記載される発明を製造又は使用した者はいないと考えられる。
本発明の一実施形態は、医療用プローブと、位置及び方向センサと、カメラと、プロセッサと、を含むシステムを提供する。医療用プローブは、患者の器官の腔に挿入されるように構成されている。位置及び方向センサは、医療用プローブ内にあり、センサ座標系で動作する。カメラは、医療用プローブの遠位縁部内にあり、センサ座標系で動作する。プロセッサは、(a)画像座標系で動作する撮像システムから、開放空間及び器官組織を含む腔の三次元画像を受信することと、(b)医療用プローブから、腔内部の医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、(c)プローブのカメラから、腔内部のそれぞれの視覚化された位置を受信することと、(d)画像座標系をセンサ座標系に位置合わせして、視覚化された位置で三次元画像の1つ又は2つ以上のボクセルを識別することと、(e)識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値を、開放空間に対応するように更新することと、を行うように構成されている。
いくつかの実施形態では、撮像システムはコンピュータ断層撮影スキャナを含む。
いくつかの実施形態では、位置及び方向センサは、磁場センサを含む。
一実施形態では、プロセッサは、密度値の視覚効果の間の対応関係を形成するように構成され、所与の視覚効果は、開放空間を示す所与の密度値に対応する。別の実施形態では、視覚効果は、色、陰影、及びパターンからなる群から選択される。
いくつかの実施形態では、プロセッサは、視覚効果を使用してディスプレイに三次元画像を提示するように構成されている。他の実施形態では、所与の視覚効果は、第1の所与の視覚効果を含み、密度値を更新する前に、プロセッサは、第1の所与の視覚効果とは異なる第2の所与の視覚効果を使用して、識別された1つ又は2つ以上のボクセルを提示することによって、三次元画像を提示するように構成されている。
一実施形態では、密度値を更新した時点で、プロセッサは、第1の所与の視覚効果を使用して、識別された1つ又は2つ以上のボクセルを提示することによって、三次元画像を提示するように構成されている。別の実施形態では、プロセッサは、多視点三角測量モデルを使用して、カメラからの位置の距離を視覚信号から抽出するように構成されている。
追加的に、本発明の一実施形態による、画像座標系で動作する撮像システムから、開放空間及び器官組織を含む患者の器官の腔の三次元画像を受信することを含む、方法を提供する。腔内部の医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号、並びに腔内部のそれぞれの視覚化された位置を示す信号は、センサ座標系で動作して、腔の中へ挿入される、位置及び方向センサ並びにカメラを有する医療用プローブから受信される。画像座標系は、センサ座標系に位置合わせされて、視覚化された位置で三次元画像の1つ又は2つ以上のボクセルを識別する。識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値が、開放空間に対応するように更新される。
本発明の一実施形態による、コンピュータソフトウェア製品を更に提供し、該製品は、プローブと連動して動作し、プローブは、患者の器官の腔の中へ挿入するように構成され、センサ座標系で動作する位置及び方向センサと、センサ座標系で動作する医療用プローブの遠位縁部のカメラと、を含み、該製品は、プログラム命令が格納された非一時的コンピュータ可読媒体を含み、該命令は、コンピュータによって読み出された場合、該コンピュータに、(a)画像座標系で動作する撮像システムから、開放空間及び器官組織を含む腔の三次元画像を受信することと、(b)医療用プローブから、腔内部の医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、(c)腔の壁のそれぞれの視覚化された位置を受信することと、(d)画像座標系をセンサ座標系に位置合わせして、視覚化された位置で三次元画像の1つ又は2つ以上のボクセルを識別することと、(e)識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値を、開放空間に対応するように更新することと、を行わせるように構成されている。
更に、本発明の一実施形態による、内視鏡及びプロセッサを含む三次元(3D)撮像システムを提供する。内視鏡は、(i)遠位先端を有するシャフトであって、患者の中へ挿入され、患者の手術部位に位置決めされるように適合された、シャフトと、(ii)遠位先端に近接し、使用中の内視鏡の位置に基づいて、一組の位置信号を生成するように構成されている位置センサと、(iii)遠位先端に位置決めされ、手術部位の一組の画像データを獲得するように動作可能である撮像モジュールであって、一組の画像データが、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、を含む。プロセッサは、内視鏡と通信可能に結合され、(i)内視鏡から一組の画像データ及び一組の位置信号を受信することと、(ii)一組の位置信号に基づいて、一組の視点データを決定することであって、一組の視点データは、1つ又は2つ以上の2D画像の各々の獲得中の内視鏡の位置を示す、決定することと、(iii)画像深度分析を行って、1つ又は2つ以上の2D画像の各々の一組の3D特性を決定することであって、一組の3D特性が、画素の深度を含む、決定することと、(iv)1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データを作成することと、(v)一組の視点データを一組の3D画像データと関連付けることと、を行うように構成され、画像深度分析は、(i)1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び(ii)1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われ、一組の2つの画像の各々が、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む。
いくつかの実施形態では、撮像モジュールは、(i)単一レンズと、(ii)単一レンズの第1の側と手術部位との間に位置決めされた開口プレートであって、単一レンズの光軸からオフセットされた1つ又は2つ以上の開口を含む、開口プレートと、(iii)1つ又は2つ以上の開口及び単一レンズを介して、手術部位から反射光を受信するように単一レンズの第2の側に位置決めされた画像ペインであって、反射光に基づいて、一組の画像データを生成するように構成されている、画像ペインと、を含む。
いくつかの実施形態では、(i)1つ又は2つ以上の開口が、開口プレートに位置決めされ、単一レンズの光軸からオフセットされた少なくとも2つの開口を含み、(ii)開口プレートが、レンズに対して固定された位置及び配向を有する。
一実施形態では、(i)1つ又は2つ以上の開口が、単一レンズの光軸からオフセットされた開口プレートに位置決めされた単一開口を含み、(ii)開口プレートが、画像獲得中に、レンズに対してその円形軸の周りを回転するように動作可能である。
別の実施形態では、プロセッサが、画像深度分析を行う場合、(i)一組の画像データ内で、手術部位の2つ又は3つ以上のボケ画像を識別することと、(ii)手術部位の2つ又は3つ以上のボケ画像の間の空間関係を決定することと、(iii)2つ又は3つ以上のボケ画像の間の空間関係に基づいて、一組の画像データの画素の深度を決定することと、を行うように構成されている。
いくつかの実施形態では、撮像モジュールは2つ又は3つ以上のカメラを含み、2つ又は3つ以上のカメラの各々は、(i)2つ又は3つ以上のカメラのうちの他のすべてのカメラに対して静的に位置決めされ、(ii)2つ又は3つ以上のカメラのうちの他のすべてのカメラと平行な光軸を有するように配向されている。
いくつかの実施形態では、プロセッサは、画像深度分析を行う場合、(i)一組の画像データの第1の画像の点を識別することであって、点は、2つ又は3つ以上のカメラのうちの第1のカメラによって捕獲された第1の画像内、及び2つ又は3つ以上のカメラのうちの第2のカメラによって捕獲された第2の画像内の両方に存在する、手術部位の一部分を含む、識別することと、(ii)第2の画像の点を識別することと、(iii)第1の画像から第2の画像までの点の変位を決定することと、(iv)変位に基づいて、点の画素の深度を決定することと、を行うように更に構成されている。
一実施形態では、プロセッサは、第2の画像の点を識別する場合、(i)第2のカメラに対する第1のカメラの静的位置に基づいて、第1の画像及び第2の画像のエピポーラ線を決定することと、(ii)エピポーラ線に沿った第2の画像の点を探し、同時に、エピポーラ線に沿っていない第2の画像の一部分を除外することと、を行うように更に構成されている。
別の実施形態では、プロセッサは、(i)3D画像データ及び一組の視点データを画像誘導手術システムの座標系と関連付けることと、(ii)座標系との関連付けに基づいて、画像誘導手術ナビゲーション手順中に一組の3D画像データを表示することと、を行うように更に構成されている。
一実施形態では、(i)位置センサは、使用中の内視鏡の位置及び配向に基づいて、一組の位置信号を生成するように構成され、(ii)一組の視点データは、一組の画像データの獲得中の、内視鏡の位置及び配向を示し、(iii)プロセッサは、一組の3D画像データ及び一組の視点データを画像誘導手術ナビゲーションシステムに提供するように更に構成されている。
別の実施形態では、プロセッサは、(i)手術部位に対する視点を定義する、ユーザからの入力を受信することと、(ii)一組の視点データ内の視点を識別することに基づいて、視点から手術部位を示す一組の3D画像データの第1の部分を決定することと、(iii)一組の3D画像データの第1の部分をディスプレイに表示することと、を行うように更に構成されている。
更に別の実施形態では、プロセッサは、(i)手術部位の間接3Dスキャン、及び間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、(ii)一組のスキャン視点データ内の視点を識別することに基づいて、視点から手術部位を示す間接3Dスキャンの第2の部分を決定することと、(iii)一組の3D画像データの第1の部分及び間接3Dスキャンの第2の部分をディスプレイに同時に表示することと、を行うように更に構成されている。
更なる一実施形態では、(i)手術部位の間接3Dスキャンは、手術前に獲得された画像データを含み、(ii)一組の3D画像データは、手術後に獲得された画像データを含む。
一実施形態では、(i)手術部位の間接3Dスキャンが、手術前に獲得された画像データを含み、(ii)一組の3D画像データは、手術前に獲得された画像データを含み、(iii)プロセッサは、(A)ユーザからスキャン調整入力を受信することと、(B)スキャン調整入力に基づいて、手術部位の間接3Dスキャンと一組のスキャン視点データとの関連付けを再構成することと、を行うように更に構成されている。
追加的に、本発明の一実施形態による、三次元(3D)撮像のための方法を提供し、該方法は、内視鏡の遠位先端を患者の手術部位に展開することであって、該遠位先端は、(i)手術部位の画像データを獲得するように動作可能な撮像モジュールであって、獲得された画像データが、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、(ii)遠位先端に近接し、内視鏡の位置に基づいて位置信号を生成するように構成された位置センサと、を含む。撮像モジュールから一組の画像データを、及び位置センサから一組の位置信号を受信する。一組の位置信号に基づいて、一組の視点データが決定され、一組の視点データは、1つ又は2つ以上の2D画像の各々の獲得中の内視鏡の位置を示す。1つ又は2つ以上の2D画像の各々について、画像深度分析を行って、一組の3D特性を決定し、一組の3D特性は、画素の深度を含む。1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データが作成され、一組の視点データは、一組の3D画像データと関連付けられ、画像深度分析は、(i)1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び(ii)1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われ、一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む。
本発明の別の実施形態は、プロセッサ、メモリ、及びディスプレイを含む画像誘導手術(image guided surgery、IGS)ナビゲーションシステムを提供し、該プロセッサは、(a)被追跡内視鏡によって生成された一組の画像データを受信することであって、一組の画像データが、1つ又は2つ以上の二次元(2D)画像を含む、受信することと、(b)被追跡内視鏡によって生成された一組の視点データを受信することであって、一組の視点データは、一組の画像データの獲得中の被追跡内視鏡の位置を示す、受信することと、(c)画像深度分析を行って、一組の画像データの一組の3D特性を決定することであって、一組の3D特性は、1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、(d)1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データを作成することと、(e)一組の視点データを一組の3D画像データと関連付けることと、(f)選択された視点を含む一組の視点データに基づいて、選択された視点から一組の3D画像データをディスプレイに表示させることと、を行うように構成されている。
本発明は、以下の「発明を実施するための形態」を図面と併せて考慮することで、より完全に理解されよう。
集合的に図1と称される、本発明の一実施形態による、侵襲的医療処置を行いながら、古いコンピュータ断層撮影(computerized tomography、CT)画像を補正するように構成された医療システムの概略描写図である。 集合的に図1と称される、本発明の一実施形態による、侵襲的医療処置を行いながら、古いコンピュータ断層撮影(CT)画像を補正するように構成された医療システムの概略描写図である。 本発明の一実施形態による、古いCT画像を補正する方法を概略的に例示するフローチャートである。 本発明の一実施形態による、三次元CT画像の画像スライスを示す概略描写図である。 本発明の一実施形態による、副鼻腔の中へ挿入されたプローブの遠位端を示す概略詳細図である。 本発明の一実施形態による、CT画像を更新する前の、図3のCT画像スライスの関心領域を示す概略描写図である。 本発明の一実施形態による、CT画像を更新した後の、図5のCT画像スライスの関心領域を示す概略描写図である。 本発明の別の実施形態による、例示的な医療処置椅子に着座した患者に使用されている例示的な手術ナビゲーションシステムの概略図を示す。 本発明の一実施形態による、図7の手術ナビゲーションシステムで使用可能な例示的な器具の斜視図を示す。 本発明の一実施形態による、単一の撮像装置を有する図8の器具の例示的な遠位先端の斜視図を示す。 本発明の一実施形態による、図9Aの遠位先端の立面図を示す。 本発明の一実施形態による、灌注チャネルを示すために灌注ダイバータを取り外した、図9Aの遠位先端の斜視図を示す。 本発明の一実施形態による、灌注チャネルを示すために灌注ダイバータを取り外した、図9Aの遠位先端の立面図を示す。 本発明の一実施形態による、図9Aの撮像装置のための例示的な静的サンプリング開口構成の概略図を示す。 図9Aの撮像装置のための例示的な能動サンプリング開口構成の概略図を示す。 本発明の一実施形態による、図9Aの撮像装置を使用して三次元画像モデルを生成するために行うことができる一組の例示的な工程を示す。 一組の撮像装置を有する図8の器具の例示的な代替的な遠位先端の斜視図を示す。 本発明の一実施形態による、図14Aの遠位先端の立面図を示す。 本発明の一実施形態による、図14Aの一組の撮像装置の重複する磁場の例示的な一組の側部概略図を示す。 本発明の一実施形態による、図14Aの一組の重複する磁場の上面図を示す。 本発明の一実施形態による、図14Aの一組の撮像装置を使用して三次元画像モデルを生成するために行うことができる一組の例示的な工程を示す。 ステレオ撮像における視差と深度の関係を例示する線図を示す。 本発明の一実施形態による、ステレオ撮像のエピポーラ線を例示する線図を示す。 図7の手術ナビゲーションシステムによって三次元画像モデルを生成し、使用するために行うことができる一組の工程のフローチャートを示す。
図面は、いかなる方式でも限定することを意図しておらず、本発明の様々な実施形態は、図面に必ずしも描写されていないものを含め、他の様々な方式で実施し得ることが企図される。本明細書に組み込まれ、その一部をなす添付図面は、本発明のいくつかの態様を図示したものであり、本説明文と共に本発明の原理を説明する役割を果たすものである。しかし、本発明が、示される正確な配置に限定されない点は理解される。
概論
本発明の一態様によれば、コンピュータ断層撮影(CT)撮像システムなどの、手術中の医療撮像システムは、典型的には、耳、鼻、喉(ear,nose and throat、ENT)処置を行うクリニックでは利用できないモダリティである。したがって、処置を行うENT医師は、通常、以前に取得されたCT画像などの医療画像に依存する。CT画像を使用して、リアルタイムのガイド(すなわち、「マップ」)を生成することができ、これは、ENT医療処置を行っている医師が、患者の頭部の腔内部の関心体積内で医療用プローブをナビゲートすることを可能にする。
しかしながら、いくつかの場合では、例えば、閉塞軟骨又は腔の壁の骨を削ることなどの外科ENT処置中に、CT画像は、もはや腔の真の解剖学的構造を反映しない。
以下に記載する本発明の実施形態は、患者の器官の腔の古いCT画像などの古い医療画像を更新するためのシステム及び方法を提供し、CT画像は、本明細書では、三次元画像とも称される。
いくつかの実施形態では、更新手順中に、医療用プローブの遠位先端に位置し、プローブ座標系で動作するカメラが、開放空間及び器官組織を含む腔内部の位置を視覚化する。プロセッサは、カメラが提供する異なる位置及び方向からの視覚化を使用して、位置を推定する。異なる位置及び方向は、医療用プローブの遠位先端に取り付けられた位置及び方向(position and direction、P&D)センサから受信された信号から、プロセッサによって導出される。
プロセッサは、多視点三角測量モデルを使用して、カメラからの位置の距離を再構築することによって、視覚化された位置を再構築する。そのような多視点三角測量モデルは、例えば、「triangulateMultiview」という名前のMATLAB(登録商標)機能を使用することができ、これは、P&D較正カメラによって撮影した複数の画像にわたって整合させた点に対応する3D世界点の位置を返す。
CT画像が、腔の最新の視覚化された(すなわち、真の)解剖学的構造を反映するために、プロセッサは、医療用プローブと関連付けられた座標系を有する(例えば、センサ座標系を有する)CT撮像システムと関連付けられた座標系に位置合わせする。位置合わせは、プロセッサが、示された位置で三次元画像の1つ又は2つ以上のボクセルを識別することを可能にし、識別されたボクセルが、カメラによって視覚化されたときに、及び多視点三角測量モデルを使用してプロセッサによって推定されたときに、受信された三次元画像に、新しく形成された(例えばENT削り処置によって、形成された)開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値が、新しい開放空間に対応するように更新される。
医療撮像システムは、通常、開放空間と体組織を提示するために異なる視覚効果を用いる。例えば、CTシステムは、開放空間を黒色で提示し、硬い体組織を白で提示し、軟かい体組織を(様々な陰影の)灰色で提示することができる。医療用プローブの遠位縁部に位置しているカメラは、開放空間を通して壁組織を光学的に撮像することだけしかできないので、本発明の実施形態を実装するシステムは、更新された三次元(3D)CT画像に、開放空間として提示されていない腔の任意の光学的に撮像された位置を補正することができる。加えて、カメラが、以前に開放空間でなかった位置に進入した場合、本発明の実施形態はまた、進入した位置を、更新された3D画像の開放空間として提示することもできる。
開示する発明の他の態様は、単一カメラ及びマルチカメラの2D撮像システムから3D画像データ及び3Dモデルを生成するために使用される、波面サンプリング及び受動ステレオビジョンなどの撮像技術を提供する。そのような技術は、独立した動的に焦点合わせするカメラを有する3D撮像システムと比較して小さいサイズ及び低い複雑性を有する、3Dが可能な撮像システムを生成するように実装される。サイズ及び電力要件を低減させることによって、そのような撮像技術(例えば、システム)は、静的又は可撓性シャフトを有する手術用器具の遠位先端に実装され、人体内の手術部位の3D撮像を生成するために使用することができる。そのような3D撮像を使用して、IGSナビゲーション中に使用可能な合成画像セットを生成し、手術前画像セットの比較を提供し、手術後の画像セットの比較を提供するために使用することができる。
いくつかの実施形態では、3D内視鏡検査撮像システムが提供され、該撮像システムは、(a)内視鏡であって、位置センサと、内視鏡の遠位先端に位置決めされ、手術部位の一組の画像データを獲得するように動作可能である撮像モジュールと、を備え、一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、内視鏡と、(b)プロセッサであって、内視鏡と通信可能に結合され、
(i)内視鏡から一組の画像データ及び一組の位置信号を受信することと、
(ii)一組の位置信号に基づいて、一組の視点データを決定することであって、一組の視点データが、1つ又は2つ以上の2D画像の各々の獲得中の内視鏡の位置を示す、決定することと、
(iii)画像深度分析を行って、1つ又は2つ以上の2D画像の各々の一組の3D特性を決定することであって、一組の3D特性が、画素の深度を含む、決定することと、
(iv)1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データを作成することと、
(v)一組の視点データを一組の3D画像データと関連付けることと、を行うように構成され、
画像深度分析が、
(i)1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる受動ステレオビジョン技術であって、一組の2つの画像の各々が、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、プロセッサと、を備える。
本発明の実施形態は、腔位置のP&D追跡支援の視覚化技術を使用する、CT画像などの医療画像の補正を開示する。実施形態を使用することは、典型的には大型で費用のかかる動作設備を必要とするCT撮像手順などの撮像手順を繰り返すことに対する必要性を排除することができる。
P&D追跡支援の光学的視覚化を使用したCT画像の補正
本発明の特定の実施例の以下の説明文は、本発明の範囲を限定する目的で用いられるべきではない。本発明の他の実施例、特徴、態様、実施形態、及び利点は、本発明を実施するために想到される最良の形態の1つを実例として示す以下の説明文より、当業者には明らかとなろう。理解されるように、本発明は、いずれも本発明から逸脱することなく、他の異なるかつ明白な態様が可能である。したがって、図面及び説明は、限定的な性質のものではなく、例示的な性質のものと見なされるべきである。
「近位」及び「遠位」という用語は、本明細書では、ハンドピースアセンブリを把持している臨床医に対して使用されることが理解されるであろう。すなわち、エンドエフェクタは、より近位のハンドピースアセンブリに対して遠位側にある。便宜上及び明確さのために、「上部」及び「下部」などの空間用語もまた、本明細書において、ハンドピースアセンブリを把持している臨床医を基準にして使用されていることが更に理解されよう。しかしながら、外科器具は、多くの向き及び位置で使用されるものであり、これらの用語は、限定的かつ絶対的なものであることを意図するものではない。
本明細書に記載の教示、表現、変形、実施例などのうちのいずれか1つ以上を、本明細書に記載の他の教示、表現、変形、実施例などのうちのいずれか1つ以上と組み合わせることができる点も更に理解される。したがって、以下に記載されている教示、表現、変形例、実施例などは、互いに独立して考慮されるべきではない。本明細書の教示に照らして、本明細書の教示を組み合わせることができる様々な好適な方式が、当業者には容易に明らかとなろう。このような修正及び変形は、「特許請求の範囲」内に含まれるものとする。
図1A及び図1Bは、集合的に図1と称され、本発明の一実施形態による、侵襲性医療処置を行う間に、古いコンピュータ断層撮影(CT)画像を補正するように構成された医療システム11の概略描写図である。図1に示す例では、医療システム11は、モバイルCTスキャナ21と、制御コンソール34と、医療用プローブ36と、を備える、医療用撮像システムを備える。本明細書に記載する実施形態では、医療用プローブ36は、患者26に対する最小侵襲性カテーテルベースの副鼻腔手術などの、ENT診断又は治療処置に使用される。代替的に、医療用プローブ36は、他の治療及び/又は診断目的のために、必要な変更を加えて使用することができる。
図1Aに示すように、患者26に対して侵襲的医療処置を行う前に、CTスキャナ21は、患者の内腔(例えば、鼻腔又は副鼻腔)の画像データを含む電気信号を発生し、生成された画像データを制御コンソール34に搬送する。コンピュータ断層撮影スキャナ21は、X軸31、Y軸33、及びZ軸35を備える画像座標系28で画像データを発生する。
図1Bに示すように、医療用プローブ36は、操作者43が把持して、医療用プローブの遠位端41を、患者26の鼻腔又は副鼻腔などの内腔の中へ挿入するために操縦することができる、ハンドル38を備える。
遠位端41は、カメラによって視認された光景に応じて画像データを発生させる、カメラ45を備える。遠位端41はまた、磁場センサ60も備え、これは、下で説明するように、遠位端の位置及び配向を提供する信号を発生する。図1に示す構成では、制御コンソール34は、カメラ45から受信された画像データを画像46に変換し、画像を医療処置に関する情報としてディスプレイ48に提示する、プロセッサ44を備える。
医療用プローブ36及び医療システム20の他の構成要素から受信された信号に基づいて、制御コンソール34は、患者の頭部の遠位端41の現在位置、並びに進行中である医療処置に関する状態情報及びガイダンスを提示するために、ディスプレイ48を駆動して画像46を更新する。プロセッサ44は、画像46を表すデータをメモリ50内に格納する。いくつかの実施形態では、操作者40は、1つ又は2つ以上の入力装置52を使用して、画像46を操作することができる。
プロセッサ44は、典型的には、医療用プローブ36から信号を受信し、制御コンソール34の他の構成要素を制御するための好適なフロントエンド回路及びインターフェース回路を有する、汎用コンピュータを備える。プロセッサ44は、本明細書に記載する機能を実行するようにソフトウェアにプログラムすることができる。このソフトウェアは、例えば、ネットワークを通じて電子形態で制御コンソール34にダウンロードすることができ、又は光記憶媒体、磁気記憶媒体、若しくは電子記憶媒体などの非一時的有形媒体で提供することができる。代替的に、プロセッサ44の機能のいくつか又はすべては、専用の構成要素又はプログラマブルデジタルハードウェア構成要素によって実行することができる。
本明細書に記載する実施形態では、医療システム11は、磁気位置感知を使用して、患者26内部の医療用プローブ36の遠位端41の位置座標及び方向座標を決定する。磁気ベースの位置及び方向感知を実現するために、制御コンソール34は、患者26の調べられる器官内で磁場を発生するように磁場発生器58を駆動する、駆動回路56を備える。典型的には、磁場発生器58はコイルを含み、コイルは患者の下方の、患者26の外部の既知の位置に設置される。これらのコイルは、副鼻腔のような内腔を含む所定の作業体積に磁場を生成する。医療用プローブ36の遠位端41内の磁場センサ60(本明細書では、位置及び方向(P&D)センサ60とも称される)は、コイルからの磁場に応じて電気信号を発生し、それによって、プロセッサ44が、作業体積内の遠位端41の位置及び方向を決定することを可能にする。
磁気位置追跡技術は、例えば、米国特許第5,391,199号、同第6,690,963号、同第5,443,489号、同第6,788,967号、同第5,558,091号、同第6,172,499号、及び同第6,177,792号に記載されており、これらの開示は、参照により本明細書に組み込まれる。磁場センサ60によって発生した信号は、発生器58の位置によって定義されたセンサ座標系62で遠位端41の現在の位置を示し、システム62は、X軸64、Y軸66、及びZ軸68を含むと見なされる。図1に示す例では、X軸64は、X軸31に概ね対応し、Y軸66は、Y軸33に概ね対応し、Z軸68は、Z軸35に概ね対応する。そのようなシステム及び技術は、図7に関連して説明する本発明の他の態様に関連して説明するものと同様又は同じである。
本明細書に記載する実施形態では、医療システム11は、カメラ45を使用して、腔の一部分を撮像する。上で説明したように、カメラ45が腔を撮像している位置、並びにカメラが向いているそれぞれの方向は、センサ60を使用して導出される。P&D追跡に基づいて、及び多視点三角測量モデルを使用して、プロセッサ44は、(i)遠位端が位置する腔の壁の一部分の位置、及び(ii)すべてが開放空間内にある、腔壁上の撮像位置と、カメラ45自体を含むカメラとの間の位置、を決定すること、並びにそれに応じてCT画像を更新することが可能である。
図2は、本発明の一実施形態による、古いCT画像を補正する方法を概略的に例示するフローチャートであり、図3、図4、図5、及び図6は、方法を例示する概略図である。取得工程80では、プロセッサ44は、CTスキャナ21から画像データを取得し、画像データをメモリ50に格納し、取得された画像データに基づいて、三次元画像を発生する。工程80は、典型的には、患者26に行われるCT画像手順を更新する前に行われる。
図3は、工程80で取得され得る三次元コンピュータ断層撮影画像の画像スライス101を示す概略描写図である。プロセッサ44は、CTスキャナ21から画像データを受信することに応じて、画像スライス101を発生する。動作中、プロセッサ44は、典型的には、画像スライス101を画像46に組み込む。
図3に示す例では、画像スライス101は、患者26の頭部103の二次元「スライス」を含む。凡例106によって示すように、画像スライス101は、頭部103のコンピュータ断層撮影画像の三次元位置に対応する、三次元画像のボクセル105を含む。プロセッサ44は、典型的には、所与のボクセルに対応する三次元位置で検出された密度に対応する異なる視覚効果を使用して、各所与のボクセル105を提示する。密度の例としては、限定されないが、開放空間、硬い体組織、及び軟かい体組織が挙げられ、視覚効果の例としては、限定されないが、色、陰影(例えば、異なる灰色の陰影)、及びパターン(例えば、グラデーション、ピクチャ、テクスチャ、線、点、及びボックス)が挙げられる。
凡例107によって示すように、ボクセル105は、識別番号に文字を付加することで区別することができ、ボクセルは、ボクセル105A~105Cを含む。図3に示す例では、ボクセル105Aは、開放空間を示して黒色で提示され、ボクセル105Bは、硬い器官組織(例えば、骨)を示して白色で提示され、ボクセル105Cは、軟組織(例えば、脂肪、筋肉軟骨、及び脳組織)を示して灰色で提示される。本明細書の実施形態は、3つの異なる視覚効果でボクセル105(すなわち、ボクセル105A~105C)を含む画像スライス101を説明しているが、任意の数の密度を表す任意の数の視覚効果を有するボクセルを提示することは、本発明趣旨及び範囲の範囲内にあると見なされる。
画像スライス101はまた、関心領域109も含む。以下の図5及び図6を参照する説明に記載するように、関心領域109は、プロセッサ44が本明細書に記載される実施形態を使用して更新することができる、古いCT値(すなわち、密度値)を有する腔壁47位置を含む。
フローチャートに戻ると、更新手順を開始するために、操作者43は、工程82で、遠位端41が患者26の器官の腔に進入するようにハンドル38を操作する。典型的には、工程80と82との間には、数日間、更には数週間であり得る遅延が存在することが理解されるであろう。
次に、位置合わせ工程84では、プロセッサ44は、センサ60座標系62を画像座標系28に位置合わせする。位置合わせは、当技術分野において既知の任意の適切な過程によって行うことができる。位置合わせを行った時点で、磁場センサ60によって発生された信号によって示される各三次元位置は、工程80で取得されたCT画像の1つ又は2つ以上のボクセルに対応する。
視覚信号受信工程86では、プロセッサ44は、カメラ45から腔壁47の位置を示す視覚信号を受信し、識別工程88では、プロセッサは、位置合わせ及び多視点三角測量モデルを使用して、示された位置に対応するCT画像の1つ又は2つ以上のボクセルを識別する。
図4は、副鼻腔111に挿入された遠位端41を示す概略詳細図である。遠位端41のカメラ45は、遠位端が移動するときに、異なる視点から腔壁47の画像を取得する。カメラ45が取得する壁47の視覚信号に基づいて、及び上述のように多視点三角測量モデルを使用して、プロセッサ44は、腔壁の位置47Aを推定する。位置49などの位置47Aに対するカメラ45のそれぞれの視線上の任意の位置、並びにカメラ45自体の位置は、腔内部の開放空間でなければならないことが理解されるであろう。
フローチャートに戻ると、第1の比較工程90では、識別された1つ又は2つ以上のボクセルのいずれか、すなわち(ENT手順によって新しく形成された)開放空間の代わりに組織のいずれかが古いCT密度値を有する場合、補正工程92で、プロセッサ44は、古いボクセル(複数可)値を補正して、ボクセルを(新しく形成された)開口空間として表す。例えば、所与の識別されたボクセルが硬組織又は軟組織に対応するCT密度の古い値を有する場合、プロセッサ44は、開放空間に対応するように密度値を更新することができる。工程90で識別された1つ又は2つ以上のボクセルのいずれも古いCT値を有しない場合、方法は、工程94を続ける。
本発明の実施形態では、画像スライスにおける1つ又は2つ以上の更新されたボクセルを更新することで、メモリ50に格納された三次元コンピュータ断層撮影画像を更新する。
工程92の完了後に、制御は、第2の比較工程94に進む。
第2の比較工程94では、操作者40が更新手順を完了した場合、すなわち、操作者が腔47又は他の腔を十分に検査した場合、方法は、終了する。しかしながら、操作者40が更新手順を未だ完了していない場合、方法は、工程86を続ける。
図5は、工程80で取得されるようなコンピュータ断層撮影画像を更新する前の、画像スライス101の関心領域118を示す概略描写図である。図5に示される例では、閉塞骨120は、ボクセル105Aの内部領域(すなわち、骨成長の中空領域)を取り囲むボクセル105B(すなわち、高密度の骨)を含み、ボクセル105Cは、軟組織を含む。
図6は、コンピュータ断層撮影画像を更新した後の、すなわち、図2のフローチャートの工程の完了後の、画像スライス101の関心領域118を示す概略描写図である。図6に示すように、関心領域118は、更新された領域150を含む。領域150は、プロセッサ44がカメラ45からの視覚化に基づいて、及び多視点三角測量モデルを使用して、推定し、新しく形成した開放空間である領域を含む。領域150は、例えば、図5の骨の閉塞120の一部を除去したENT削り処置によって形成された。
ディスプレイ48は、典型的には、プロセッサ44が、本明細書に記載する実施形態を使用して、更新手順中に更新することができるボクセル105のサブセットを提示する。上述のように、画像スライス101は、プロセッサ44がモバイルコンピュータ断層撮影スキャナ21から画像データを受信することに応じて発生する、三次元画像の二次元「スライス」を含む。操作者は、三次元空間(すなわち、三次元座標系28及び62)で遠位端41を移動させるので、(すなわち、現在ディスプレイ48に提示されている二次元画像スライスに含まれていない)追加のボクセル105が存在する場合があり、それぞれの密度値が、カメラ45によって検出された腔壁47の位置に応じて、プロセッサ44によって更新されることが理解されるであろう。
例示的な画像誘導手術ナビゲーションシステム
本発明の別の態様によれば、患者(P)の頭部(H)内の医療処置を行うとき、特に、患者(P)の頭部(H)内の器具の作業要素の内視鏡視野を得ることが困難又は不可能である位置に器具がある場合に、患者(P)の頭部(H)内の器具の位置に関する情報を有することが望ましい場合がある。
図7は、本発明の一実施形態による、画像ガイダンスを使用してENT処置を行うことを可能にする例示的なIGSナビゲーションシステム(10)を示す。本明細書に記載する構成要素及び動作性を有することに加えて、又はその代わりに、IGSナビゲーションシステム(10)は、以下の文献の教示の少なくとも一部に従って構築され、動作可能であり得る:米国特許第7,720,521号、発明の名称「Methods and Devices for Performing Procedures within the Ear,Nose,Throat and Paranasal Sinuses」(2010年5月18日発行)(開示内容は参照により本明細書に組み込まれる)、及び米国特許出願公開第2014/0364725号、発明の名称「Systems and Methods for Performing Image Guided Procedures within the Ear,Nose,Throat and Paranasal Sinuses」(2014年12月11日公開)(開示内容は参照により本明細書に組み込まれる)。
本例のIGSナビゲーションシステム(10)は、馬蹄形フレーム(22)に一体化された一組の磁場発生器(24)を備える磁場発生器アセンブリ(20)を備える。磁場発生器(24)は、患者(P)の頭部(H)の周りに異なる周波数の交流磁場を発生させるように動作可能である。この実施例では、ナビゲーションガイドワイヤ(40)が患者(P)の頭部(H)に挿入される。ナビゲーションガイドワイヤ(40)は、独立型装置であってもよく、又は外科用切断器具若しくは拡張器具などの医療器具のエンドエフェクタ又は他の位置に位置決めされてもよい。本例では、フレーム(22)は、椅子(30)に装着され、フレーム(22)が患者(P)の頭部(H)に隣接して位置するように、患者(P)は、椅子(30)に着座する。単に一例として、椅子(30)及び/又は磁場発生器アセンブリ(20)は、米国特許出願公開第2018/0310886号、発明の名称「Apparatus to Secure Field Generating Device to Chair」(2018年11月1日公開)(開示内容は参照により本明細書に組み込まれる)の教示の少なくとも一部に従って構成され、動作可能であり得る。
本例のIGSナビゲーションシステム(10)は、IGSナビゲーションシステム(10)の磁場発生器(24)及び他の要素を制御するプロセッサ(12)を更に備える。例えば、プロセッサ(12)は、磁場発生器(24)を駆動して交流電磁場を生成し、ナビゲーションガイドワイヤ(40)からの信号を処理して患者(P)の頭部(H)内におけるナビゲーションガイドワイヤ(40)内のセンサの位置を判定するように動作可能である。プロセッサ(12)は、1つ又は2つ以上のメモリと通信する処理ユニット(例えば、組み合わせ論理回路又は他の類似の回路を使用してソフトウェア命令を評価及び実行するように調整された一組の電子回路)を備える。本例のプロセッサ(12)は、キーパッド及び/又はマウス若しくはトラックボールなどのポインティング装置を含む動作制御部(14)を備えるコンソール(18)内に装着されている。医師は、外科処置を行いながら、動作制御部(14)を使用して、プロセッサ(12)と相互作用する。
ナビゲーションガイドワイヤ(40)は、磁場発生器(24)によって発生された交流磁場内の位置決めに応答するセンサ(図示せず)を含む。連結ユニット(42)はナビゲーションガイドワイヤ(40)の近位端に固定され、コンソール(18)とナビゲーションガイドワイヤ(40)との間のデータ及び他の信号の通信を提供するように構成されている。連結ユニット(42)は、データ及び他の信号の有線又は無線通信を提供することができる。
本例では、ナビゲーションガイドワイヤ(40)のセンサは、ナビゲーションガイドワイヤ(40)の遠位端に少なくとも1つのコイルを含む。かかるコイルが磁場発生器(24)によって生成された交流電磁場の中に位置決めされると、交流磁場がコイルの中に電流を生成し、この電流は、ナビゲーションガイドワイヤ(40)内の導電路(複数可)に沿って、連結ユニット(42)を介してプロセッサ(12)に更に伝送され得る。この現象により、IGSナビゲーションシステム(10)は、三次元空間内(すなわち、患者(P)の頭部(H)内)におけるナビゲーションガイドワイヤ(40)又は他の医療器具(拡張器具、外科用切断器具など)の遠位端の位置を判定することができる。これを達成するため、プロセッサ(12)は、ナビゲーションガイドワイヤ(40)の遠位端の位置座標を、ナビゲーションガイドワイヤ(40)内のコイル(複数可)の位置関連信号から計算するアルゴリズムを実行する。この例では、位置センサが、ガイドワイヤ(40)内に位置しているが、このような位置センサは、以下により詳細に記載されるものを含む、様々な他の種類の器具に統合されてもよい。
プロセッサ(12)は、プロセッサ(12)のメモリに格納されたソフトウェアを使用して、IGSナビゲーションシステム(10)を較正及び操作する。そのような動作は、磁場発生器(24)を駆動することと、ナビゲーションガイドワイヤ(40)からのデータを処理することと、動作制御部(14)からのデータを処理することと、ディスプレイスクリーン(16)を駆動することと、を含む。いくつかの実装形態では、動作はまた、IGSナビゲーションシステム(10)の1つ若しくは2つ以上の安全機構又は機能の監視及び施行も含み得る。プロセッサ(12)は、患者の頭部(H)のビデオカメラ画像、患者の頭部(H)のスキャン画像(例えば、CT、MRI、又は他のX線若しくは間接撮像法)、及び/又は患者の鼻腔内及び患者の鼻腔に隣接する解剖学的構造のコンピュータ生成三次元モデルに関するナビゲーションガイドワイヤ(40)の遠位端の位置を示すビデオを、ディスプレイスクリーン(16)を介してリアルタイムで提供するように更に動作可能である。ディスプレイスクリーン(16)は、外科処置中にそのような画像を同時に及び/又は互いに重ね合わせて表示することができる。そのような表示画像は、ナビゲーションガイドワイヤ(40)などの患者の頭部(H)に挿入された器具のグラフィック表現も含むことができ、よって、操作者は、その実際の位置で、リアルタイムで器具の仮想レンダリングを見ることができる。単に一例として、ディスプレイスクリーン(16)は、米国特許出願公開第2016/0008083号、発明の名称「Guidewire Navigation for Sinuplasty」(2016年1月14日公開)(開示内容は参照により本明細書に組み込まれる)の教示の少なくとも一部に従って画像を提供してもよい。操作者が内視鏡も使用している場合には、内視鏡画像をディスプレイスクリーン(16)に提供することもできる。
ディスプレイスクリーン(16)を介して提供される画像は、器具がナビゲーションワイヤ(40)を組み込んでいる場合、患者の頭部(H)内の器具の操縦、及び操作を行う際に操作者を誘導するのに役立ち得る。また、以下に記載するように、手術用器具の他の構成要素及び他の種類の手術用器具は、ナビゲーションガイドワイヤ(40)のセンサのようなセンサを組み込んでもよいことを理解されたい。
単一カメラ3D撮像を有する内視鏡
図8は、本発明の一実施形態による、IGSナビゲーションシステム(10)などの手術ナビゲーションシステム又は他の外科システムによって使用可能な例示的な内視鏡(100)を示す。内視鏡(100)は、使用中に把持することができる本体(102)を含む。一組の制御部(103)が、本体(102)の遠位端に位置決めされる。シャフト(104)が、本体(102)から遠位に延在する。シャフト(104)は、屈曲部分(108)と、遠位先端(106)と、を含む。下でより詳細に説明するように、遠位先端(106)は、カメラ、光源、灌注及び吸引、並びに/又は内部を通して可撓性用具を展開することができるチャネルなどの1つ又は2つ以上の特徴を含むことができる。内視鏡(100)はまた、屈曲部分(108)と遠位先端(106)との間に位置付けられた位置センサ(110)も含む。位置センサ(110)は、磁場発生器(24)によって発生された交流電磁場に応じて位置表示信号を発生するように構成された1つ又は2つ以上のコイルを備えることができ、よって、ナビゲーションシステム(10)は、上で説明したナビゲーションガイドワイヤ(40)の位置追跡と同様に、患者(P)の頭部(H)の遠位先端(106)の三次元位置をリアルタイムで追跡することができる。
制御部(103)は、シャフト(104)の縦軸を中心にシャフト(104)の回転を駆動するように動作可能である。制御部(103)はまた、屈曲部分(108)においてシャフト(104)の縦軸から離れる、遠位先端(106)の偏向を駆動するように動作可能である。単に一例として、制御部(103)は、米国特許出願公開第2019/0015645号、発明の名称「Adjustable Instrument for Dilation of Anatomical Passageway」(2019年1月17日公開)(開示内容は参照により本明細書に組み込まれる)の教示の少なくとも一部に従って構成され、動作可能であり得る。単に更なる一例として、内視鏡(100)はまた、内視鏡(100)の特徴を作動させるための、又は内視鏡(100)を介して外科部位に展開された可撓性用具を前進、後退、及び回転させるための、1つ又は2つ以上の制御部、並びに/又は本明細書の教示に鑑みて当業者には明らかであるように、様々な他の種類の制御部も含むことができる。
図9A及び図9Bは、各々、本発明の実施形態による、内視鏡(100)の遠位先端(106)として利用することができる、例示的な遠位先端(300)を示す。遠位先端(300)は、シャフト(104)の遠位端部に静的に位置決めすることができ、又はそこから延在する可撓性又は偏向可能なシャフトの遠位端部に位置決めすることができ、又は遠位先端(106)のチャネルを通して前進又は後退させることができる。遠位先端(300)は、器具チャネル(302)を含み、遠位先端(300)が所望の位置に位置決めされたら、器具チャネル(302)を通して可撓性器具及び用具を展開することができる。単に一例として、チャネル(302)は、拡張カテーテル、削り器具、アブレーション器具、及び/又は本明細書の教示を考慮することで当業者には明らかであるように、様々な他の種類の器具を収容するようにサイズ決定することができる。遠位先端(300)はまた、波面撮像装置(304)、及び一組の照明(306)(例えば、LED、光ファイバ、赤外光源など)も含む。遠位先端(300)はまた、一組の灌注ダイバータ(308)も含む。各灌注ダイバータ(308)は、対応する灌注チャネル(例えば、一方又は両方の灌注ダイバータ(308)を取り外した遠位先端(300)を各々が示す、図10A及び図10Bにおいて視認可能な灌注チャネル(310))に近接して位置決めされる。灌注ダイバータ(308)は、波面撮像装置(304)を洗浄するための灌注チャネル(310)からの水又は他の液体、照明(306)、又は両方を受容し、指向するように適合されている。
波面撮像装置(304)は、画像データを獲得し、プロセッサ(12)に送信することが可能なデジタルカメラ(例えば、1つ又は2つ以上の画像センサ)若しくは撮像装置、又は画像データを格納及び処理して、3D画像データを生成することが可能なIGSナビゲーションシステム(10)の別の装置を備えることができる。いくつかの従来の3D画像獲得装置は、能動的に、かつ独立して標的に合焦することが可能な2つ又は3つ以上のオフセットされた撮像装置を必要とする場合があるが、本例の波面撮像装置(304)は、波面サンプリング技術を使用して、単一のカメラ又は画像センサから3D画像データを生成することが可能である。波面サンプリング技術と互換性のある画像データを生成するために、波面撮像装置(304)は、標的とカメラレンズとの間に位置決めされ、及びレンズの光軸から軸外にある、又はオフセットされた1つ又は2つ以上の開口を含む。波面撮像装置(304)で標的を撮像すると、開口(複数可)の位置に基づいて互いからオフセットされた標的の複数のボケ描写を含む、単一の画像が生成される。各ボケ画像の間の距離を使用して、撮像された標的までの深度又は距離を計算することができる。波面撮像装置(304)によって獲得された画像は、Frigerioのマルチ画像処理などの波面サンプリングアルゴリズムへの入力として提供して、被撮像物体の3D深度マップ及び3Dモデルを生成することができる。
図11は、本発明の一実施形態による、静的光学的システム(320)を実装する、波面撮像装置(304)の一例を示す。静的光学的システム(320)は、レンズ(326)と標的(330)との間に位置決めされた第1の静的開口(328a)及び第2の静的開口(328b)を有する、レンズ(326)を含む。開口(328a、328b)は、直径方向に対向し、レンズの光軸(326)からオフセットされている。より多い数の開口は、結果として生じる3D画像の精度を向上させるので、2つ又は3つ以上の開口を使用することができるが、標的の撮像及び画像データの処理に更なる時間を必要とする。より少ない数の開口は、結果として生じる3D画像の精度を低下させる代わりに、撮像及び処理に必要とされる時間を短縮することができる。開口サイズは、獲得された画像の被写界深度を制御するために、増加又は減少させることができる。開口とレンズ(326)との間の距離を短くすることはまた、波面サンプリングの改善された結果を生成することもできる。
撮像中に、レンズ(326)は、開口(328a、328b)を通して標的(330)の第1のボケ画像(332a)及び第2のボケ画像(332b)を受信し、第1のボケ画像(332a)及び第2のボケ画像(332b)を画像平面(322)上へ指向する。画像平面(322)は、CCD、CMOS、又は他の画像センサによって提供することができる。次いで、結果として生じる画像(332a、332b)の間の画像オフセット(336)を、波面サンプリング技術の一部として決定し、使用して、標的(330)の画素深度を決定し、3Dモデルを生成することができる。
図12は、本発明の一実施形態による、能動光学的システム(340)として実装された波面撮像装置(304)の別の例を示す。能動光学的システム(340)は、レンズ(326)と標的(330)との間で回転可能な開口プレート(342)に位置決めされた単一の開口(344a)を有するレンズ(326)を含む。開口プレート(342)は、撮像中に電子的及び自動的に回転させて、単一開口(344a)をその示す位置から、回転を通して、第2の位置(344b)、第3の位置(344c)などまで移動させることができる。この例では、開口プレート(342)は、レンズの光軸(326)と同軸である回転軸を中心に回転する。静的光学的システム(320)と同様に、レンズ(326)は、開口プレート(342)の回転中に、標的(330)のボケ画像を受信する。したがって、第1のボケ画像(346a)、第2のボケ画像(346b)、第3のボケ画像(346c)などは、回転経路(348)に従うオフセット位置において、画像平面(322)の上へ投影される。次いで、画像平面(322)によって獲得されたこの画像データは、波面サンプリング技術によって使用して、標的(330)の3Dモデルを生成した画素深度を決定することができる。
図13は、本発明の一実施形態による、撮像装置(304)などの撮像装置を使用して三次元画像モデルを生成するために行うことができる一組の例示的な工程(400)を示す。画像データは、図11及び図12の文脈において上で説明したように獲得することができ(ブロック402)、波面サンプリングアルゴリズム(例えば、Frigerioのマルチ画像処理又は別の類似のアルゴリズム)を適用することによって、3D画像データに処理することができる。一例として、そのような過程は、他の画像のオフセットを決定するための基準として使用するアンカー画像を定義することを含むことができる(ブロック404)。アンカー画像は、任意に選択された画像、2つ又は3つ以上の他の画像に対して最も中央に位置付けられた画像とすることができ、又は他の基準に基づいて選択することができる。次いで、光学的フロー手法を使用して、アンカー画像と他の画像との間の画素変位を計算することができる(ブロック406)。画像全体にわたって円を点に適合させることができ(ブロック408)、回転直径(又は他のオフセット値)を決定することができる(ブロック410)。次いで、回転直径を使用して、画像の複数の画素の画素深度を計算することができる(ブロック412)。次いで、画素深度を使用して、被撮像物体又は標的の3Dモデルを構築することができる(ブロック414)。
遠位先端(300)及び波面撮像装置(304)は、それらが、(例えば、複数の独立して能動的に配向されたカメラを有する3Dカメラと比較して)相対的に低い複雑さを有する、遠位先端(106)などの器具の端部に装着することができる、又は可撓性若しくは偏向可能なシャフトに装着することができる、手術部位の3D撮像の解決策を提供する、という点で有利であり得る。複雑さを低減させる利点は、特に、波面撮像装置(304)が静的光学的システム(320)と共に実装されるときに実現することができ、これは、低い電力使用及び(例えば、開口プレート(342)又は独立して配向可能なカメラなどの)移動構成要素を含まないことによる少ない物理的寸法要件及び最小の支持要件によって実装することができる。
上述のように、本例の内視鏡(100)は、三次元空間の遠位先端(106)のリアルタイム位置を示す信号を提供するように動作可能である、位置センサ(110)を含む。撮像装置(304)が画像を獲得すると、撮像装置(304)からの画像データを、位置センサ(110)からの位置データと共に格納することができ、よって、IGSナビゲーションシステム(10)(及び/又はいくつかの他のコンピュータシステム)は、各獲得された画像を、三次元空間のその対応する位置と相関させることができる。これは、IGSナビゲーションシステム(10)が、撮像装置(304)によって獲得された画像を、1つ又は2つ以上の手術前に得られた画像(例えば、CT又はMRIスキャン、3Dマップなど)と相関させることを可能にする。本発明のこの態様は、下記のデュアルカメラ3D撮像と共に、上で説明した本発明の画像補正の態様と共に使用することができる。
デュアルカメラ3D撮像を有する内視鏡
図14A及び図14Bは、各々、本発明の他の実施形態による、内視鏡(100)の遠位先端(106)として利用することができる、別の例示的な遠位先端(500)を示す。遠位先端(500)は、シャフト(104)の遠位端に静的に位置決めすることができ、又はそこから延在する可撓性又は偏向可能なシャフトの遠位端部に位置決めすることができ、又は遠位先端(106)のチャネルを通して前進又は後退させることができる。遠位先端(500)は、器具チャネル(302)と類似の特徴及び機能を有する器具チャネル(502)と、照明(306)と類似の特徴及び機能を有する照明(506)と、灌注チャネル(310)と類似の特徴及び機能を有する一組の灌注チャネル(510)と、を含む。遠位先端(500)はまた、第1の撮像装置(504a)及び第2の撮像装置(504b)も含み、これらは、遠位先端(500)で画像データを獲得し、それをシャフト又は可撓性シャフトを介してプロセッサ(12)、結合ユニット(42)、又は獲得された画像を処理することが可能なIGSナビゲーションシステム(10)の別の装置に送信することが可能な、デジタルカメラ(例えば、1つ又は2つ以上の画像センサ)又は他のデジタル撮像装置を備えることができる。図8Bを参照すると、撮像装置(504a、504b)は、第1の寸法(512)に沿って、及び同じ位置で第2の寸法(514)に沿って互いからオフセットされることが分かる。
図15A及び図15Bは、本発明の実施形態による、受動ステレオビジョンで、すなわち、2つ又は3つ以上の撮像装置を使用して、2つ又は3つ以上の異なる視点から画像を得る三角法で標的を撮像するために使用されている遠位先端(500)の線図を示す。受動ステレオビジョンによって生成された画像は、エピポーラ幾何に基づいて画素深度を決定する写真測量アルゴリズムなどの3D画像データアルゴリズムに変換することができる。図15Aでは、第1の撮像装置(504a)及び第2の撮像装置(504b)が、平行な光軸を有するように遠位先端(500)に配設されていることが分かる。標的(520)に指向された場合、第1の撮像装置(504a)は、標的(520)の第1の視野(522)を獲得し、一方で、第2の撮像装置(504b)は、標的(520)の第2の視野(526)を獲得する。
2つの撮像装置(504a、504b)は、(例えば、収束点に向かって独立して合焦又は配向するのではなく)平行な光軸を有するので、装置によって獲得された画像は、標的(520)の重なり部分を含むことができる。例えば、図15A及び図15Bは、第1の視野(522)及び第2の視野(526)、並びに標的(520)が両方の撮像装置によって獲得される共有視野(524)を示す。図15Bを参照すると、標的(520)は、共有視野(524)の実質的に中央に位置することが分かる。しかしながら、標的(520)は、第1の視野(522)の右側、及び第2の視野(526)の左側に位置決めされている。この視差、すなわち、標的(520)が第1の視野(522)から第2の視野(526)までオフセットされた、又は変位した距離を使用して、撮像装置と標的との間の距離、次いで、獲得された画像の画素又は一部分の深度を決定することができる。
深度を決定するために視差を決定し、使用することは、受動三角測量の一例である。図16は、本発明の一実施形態による、受動三角測量を画像データに適用するために行うことができる、一組の例示的な工程(600)を示す。画像データは、第1の撮像装置(504a)及び第2の撮像装置(504b)などの2つ又は3つ以上の静的に配設されたカメラによって標的を獲得することができ(ブロック602)、2つの異なる位置からの標的の2つの異なる画像をもたらす。1つの画像内の点(例えば、画像の1つ又は2つ以上の画素又は一部分)を選択することができ(ブロック604)、第2の画像の整合点(例えば、図9Bに例示するように、2つの画像の間で共有された、標的(520)などの標的の一部分)を探す。第1の画像内の点の画像分析を行って、第2の画像の全体の中の整合点を見出すことは、非効率的及び不正確の両方である場合があり、高い処理要件及び偽の肯定的整合の可能性の増加をもたらす。
整合の速度及び精度を向上させるために、2つの画像と関連付けられたエピポーラ線の特性を決定することができる(ブロック606)。エピポーラ幾何は、整合について画像の全体を探すことなく画像の2つの整合画素又は点の間の視差又は距離を決定するために、平行な光軸を有するカメラによって獲得された2つの画像に適用することができる概念である。図17及び図19は、本発明の実施形態による、ステレオ撮像におけるエピポーラ幾何の使用を例示する線図を示す。
図17を参照すると、該図は、視差(例えば、画像の2つの整合点の間の距離)と深度(例えば、カメラから標的までの、又は標的の画素若しくは点までの距離)との関係を例示する線図(700)を示し、第1のカメラ(704)及び第2のカメラ(706)は、同じレンズ面(703)に配設されたそれぞれのレンズを通して、平行な光軸(例えば、線F-B及びG-D)を有するように配設されている。この配設では、標的A(702)は、各カメラの視野内にある。カメラの光軸間の距離は、BC+CDであり、三角形ACB及びBFEは、類似の特性を有するが、尺度が異なる。三角形幾何を図17に適用すると、画像の2つの整合点又は画素間の変位は、カメラ光軸の間の距離に、レンズ面(703)から画像センサまでの距離を乗算し、それを標的(702)までの深度又は距離によって除算したもの、すなわち、変位=(BD×BF)/ACとして表すことができる。この式を代替的に使用して、変位又は視差を決定した後に、標的(702)までの距離、すなわちACを決定又は解くことができる。
画像全体を探すことなく画像の点又は画素間の変位を決定するために、図18に例示するエピポーラ幾何の原理を適用することができる。カメラ(704、706)は、互いに対する固定された位置及び平行な光軸を有するので、第1の画像(708)及び第2の画像(710)を横断して走るエピポーラ線(712)を決定することができ、それに沿って、整合点又は画素を見出すことができる。その結果、第1の画像(708)上の点を第2の画像(710)上の点に整合させる場合、第2の画像(710)の全体ではなく、エピポーラ線(712)に沿っている第2の画像(710)の一部分を探すことだけしか必要としない。このように整合させることによって、画像全体にわたって点を整合させることができる速度及び精度を大幅に高めることができる。
点を整合させた(ブロック608)後に、エピポーラ幾何を適用するか、又は別の整合プロセスを使用することによって、整合させた点の間の変位又は視差を決定することができ(ブロック610)、次いで、それを使用して、撮像装置と標的との間の深度又は距離を決定することができる(ブロック612)。深度を決定する(ブロック612)能力によって、一組の3D画像データ及び3Dモデルを構築することができる(ブロック614)。
上述のように、本例の内視鏡(100)は、三次元空間の遠位先端(106)のリアルタイム位置を示す信号を提供するように動作可能である、位置センサ(110)を含む。撮像装置(504a、504b)が画像を獲得すると、撮像装置(504a、504b)からの画像データを、位置センサ(110)からの位置データと共に格納することができ、よって、IGSナビゲーションシステム(10)(及び/又はいくつかの他のコンピュータシステム)は、各獲得された画像を、三次元空間のその対応する位置と相関させることができる。これは、IGSナビゲーションシステム(10)が、撮像装置(504a、504b)によって獲得された画像を、1つ又は2つ以上の手術前に得られた画像(例えば、CT又はMRIスキャン、3Dマップなど)と相関させることを可能にする。
3D撮像をナビゲーションと一体化する方法
上で説明したように3D画像データを生成した後に、そのような画像データを使用して、IGSナビゲーション中に追加的な特徴を提供することができる。一例として、図19は、本発明の一実施形態による、3Dモデル又は3D画像データをIGSナビゲーションと一体化するために行うことができる、一組の工程(800)のフローチャートを示す。適切な撮像モジュール(例えば、遠位先端(300)の波形撮像装置(304)、遠位先端(500)の一組のカメラ(504a、504b))を使用して画像データを獲得し(ブロック802)、3Dモデル又は他の3D画像データセットを構築した(ブロック804)後に、そのようなデータを様々な方法で使用することができる。例えば、合成画像セットは、3D画像データを他の画像と組み合わせることによって、並びに位置及び配向などの位置データを使用して画像セットを互いに関連付けているデータ共に、作成すること(ブロック806)ができる。これは、例えば、複数の画像セットから手術部位の整合視点を同時に表示することができるように、構築された(ブロック804)3Dモデルを、一組の手術前に獲得されたCT画像、処置中の位置被追跡2D内視鏡によって獲得された一組の2D画像、又は他の類似の情報と関連付けることを含むことができる。
別の例として、手術前に獲得されたCTスキャン又は他の3Dモデルを構築された(ブロック804)3Dモデルと比較する、手術前の比較を作成する(ブロック808)ことができる。これは、外科処置のための計画若しくは準備を支援するのに、又は1つ若しくは2つ以上の3Dモデルの精度及び構成を検証するのに有用であり得る。例えば、構築された(ブロック804)3Dモデルと一組のCT画像との比較は、一方又は両方のモデルにおける失った又は誤った画像又は深度データを識別するのを、一方又は両方のモデルにおける誤って関連付けられた位置データを識別するのを、又は新しい3D画像データを生成するために再撮像することによって、又は位置データを補正するために再構成若しくは再調整することによって補正されることができる他の誤りを識別するのを補助することができる。
別の例として、処置後のCTスキャン、3Dモデル、又は他の画像データを、構築された(ブロック804)3Dモデルと比較して、外科処置の成功を評価するのを支援する、手術後の比較を作成する(ブロック810)ことができる。手術前に構築された(ブロック804)3Dモデルは、3Dと比較して、手術後に構築された(ブロック804)モデルと比較することができ、又は外科部位の手術後のCTスキャン又は2D撮像と比較することができる。そのような比較データは、3D撮像において利用可能な異なる視点からの解剖学的構造を物理的に比較することによって、臨床医が外科処置の成功又は完全性を評価するのを支援することができる。
単に更なる一例として、遠位先端(200)又は遠位先端(300)を用いて獲得された、又は生成された3D画像データは、以下の教示のうちの少なくとも一部に従って利用することができる:米国仮特許出願第62/782,608号、発明の名称「3D Scanning of Nasal Tract with Deflectable Endoscope」(2018年12月20日出願)(開示内容は参照により本明細書に組み込まれる)、米国特許第8,199,988号、発明の名称「Method and Apparatus for Combining 3D Dental Scans with Other 3D Data Sets」(2012年6月12日発行)(開示内容は参照により本明細書に組み込まれる)、及び/又は米国特許第8,821,158号、発明の名称「Method and Apparatus for Matching Digital Three-Dimensional Dental Models with Digital Three-Dimensional Cranio-Facial CAT Scan Records」(2014年9月2日発行)(開示内容は参照により本明細書に組み込まれる)。
例示的な組み合わせ
以下の実施例は、本明細書の教示を組み合わせるか又は適用することができる、様々な非網羅的な方法に関する。以下の実施例は、本出願における又は本出願の後の出願におけるどの時点でも提示され得る、いずれの請求項の適用範囲をも限定することを目的としたものではないと理解されよう。一切の棄権を意図するものではない。以下の実施例は、単なる例示の目的で与えられるものにすぎない。本明細書の様々な教示は、他の多くの方法で構成及び適用が可能であると考えられる。また、いくつかの変形では、以下の実施例において言及される特定の特徴を省略してよいことも考えられる。したがって、本発明者又は本発明者の利益の継承者により、後日、そうである旨が明示的に示されない限り、以下に言及される態様又は特徴のいずれも重要なものとして見なされるべきではない。以下に言及される特徴以外の更なる特徴を含む請求項が本出願において、又は本出願に関連する後の出願において示される場合、それらの更なる特徴は、特許性に関連するいかなる理由によっても追加されたものとして仮定されるべきではない。
三次元(3D)撮像システムであって、内視鏡であって、該内視鏡は、遠位先端を有するシャフトであって、患者の中へ挿入され、患者の手術部位に位置決めされるように適合された、シャフトと、遠位先端に近接し、使用中の内視鏡の位置に基づいて、一組の位置信号を生成するように構成されている位置センサと、遠位先端に位置決めされ、手術部位の一組の画像データを獲得するように動作可能である撮像モジュールであって、一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、を備える、内視鏡と、プロセッサであって、内視鏡と通信可能に結合され、該プロセッサは、内視鏡から一組の画像データ及び一組の位置信号を受信することと、一組の位置信号に基づいて、一組の視点データを決定することであって、一組の視点データは、一組の画像データの獲得中の内視鏡の位置を示す、決定することと、画像深度分析を行って、一組の画像データの一組の3D特性を決定することであって、一組の3D特性は、1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データを作成することと、一組の視点データを一組の3D画像データと関連付けることと、行うように構成されている、プロセッサと、を備える、三次元(3D)撮像システム。
撮像モジュールは、単一レンズと、単一レンズの第1の側と手術部位との間に位置決めされた開口プレートであって、単一レンズの光軸からオフセットされた1つ又は2つ以上の開口を備える、開口プレートと、1つ又は2つ以上の開口及び単一レンズを介して、手術部位から反射光を受信するように単一レンズの第2の側に位置決めされた画像ペインであって、反射光に基づいて、一組の画像データを生成するように構成されている、画像ペインと、を備える、実施例1に記載の3D撮像システム。
1つ又は2つ以上の開口は、開口プレートに位置決めされ、単一レンズの光軸からオフセットされた少なくとも2つの開口を備え、開口プレートは、レンズに対して固定された位置及び配向を有する、実施例2に記載の3D撮像システム。
1つ又は2つ以上の開口は、単一レンズの光軸からオフセットされた開口プレートに位置決めされた単一開口を備え、開口プレートは、画像獲得中に、レンズに対してその円形軸の周りを回転するように動作可能である、実施例2~3のいずれか一項又は二項以上に記載の3D撮像システム。
プロセッサは、画像深度分析を行う場合、一組の画像データ内で、手術部位の2つ又は3つ以上のボケ画像を識別することと、手術部位の2つ又は3つ以上のボケ画像の間の空間関係を決定することと、2つ又は3つ以上のボケ画像の間の空間関係に基づいて、一組の画像データの画素の深度を決定することと、を行うように構成されている、実施例2~4のいずれか一項又は二項以上に記載の3D撮像システム。
撮像モジュールは、2つ又は3つ以上のカメラを備え、2つ又は3つ以上のカメラの各々は、2つ又は3つ以上のカメラのうちの他のすべてのカメラに対して静的に位置決めされ、2つ又は3つ以上のカメラのうちの他のすべてのカメラと平行な光軸を有するように配向されている、実施例1~5のいずれか一項又は二項以上に記載の3D撮像システム。
プロセッサは、画像深度分析を行う場合、一組の画像データの第1の画像の点を識別することであって、点は、2つ又は3つ以上のカメラのうちの第1のカメラによって捕獲された第1の画像内、及び2つ又は3つ以上のカメラのうちの第2のカメラによって捕獲された第2の画像内の両方に存在する、手術部位の一部分を含む、識別することと、第2の画像の点を識別することと、第1の画像から第2の画像までの点の変位を決定することと、変位に基づいて、点の画素の深度を決定することと、を行うように更に構成されている、実施例6に記載の3D撮像システム。
プロセッサは、第2の画像の点を識別する場合、第2のカメラに対する第1のカメラの静的位置に基づいて、第1の画像及び第2の画像のエピポーラ線を決定することと、エピポーラ線に沿った第2の画像の点を探し、同時に、エピポーラ線に沿っていない第2の画像の一部分を除外することと、を行うように更に構成されている、実施例7に記載の3D撮像システム。
プロセッサは、3D画像データ及び一組の視点データを画像誘導手術システムの座標系と関連付けることと、座標系との関連付けに基づいて、画像誘導手術ナビゲーション手順中に一組の3D画像データを表示することと、を行うように更に構成されている、実施例1~8のいずれか一項又は二項以上に記載の3D撮像システム。
位置センサは、使用中の内視鏡の位置及び配向に基づいて、一組の位置信号を生成するように構成され、一組の視点データは、一組の画像データの獲得中の、内視鏡の位置及び配向を示し、プロセッサは、一組の3D画像データ及び一組の視点データを画像誘導手術ナビゲーションシステムに提供するように更に構成されている、実施例1~9のいずれか一項又は二項以上に記載の3D撮像システム。
プロセッサは、手術部位に対する視点を定義する、ユーザからの入力を受信することと、一組の視点データ内の視点を識別することに基づいて、視点から手術部位を示す一組の3D画像データの第1の部分を決定することと、一組の3D画像データの第1の部分をディスプレイに表示することと、を行うように更に構成されている、実施例1~10のいずれか一項又は二項以上に記載の3D撮像システム。
プロセッサは、手術部位の間接3Dスキャン、及び間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、一組のスキャン視点データ内の視点を識別することに基づいて、視点から手術部位を示す間接3Dスキャンの第2の部分を決定することと、一組の3D画像データの第1の部分及び間接3Dスキャンの第2の部分をディスプレイに同時に表示することと、を行うように更に構成されている、実施例11に記載の3D撮像システム。
手術部位の間接3Dスキャンは、手術前に獲得された画像データを含み、一組の3D画像データは、手術後に獲得された画像データを含む、実施例12に記載の3D撮像システム。
手術部位の間接3Dスキャンは、手術前に獲得された画像データを含み、一組の3D画像データは、手術前に獲得された画像データを含み、プロセッサは、ユーザからスキャン調整入力を受信することと、スキャン調整入力に基づいて、手術部位の間接3Dスキャンと一組のスキャン視点データとの関連付けを再構成することと、を行うように更に構成されている、実施例12~13のいずれか一項又は二項以上に記載の3D撮像システム。
三次元(3D)撮像のための方法であって、内視鏡の遠位先端を患者の手術部位に展開することであって、遠位先端は、手術部位の画像データを獲得するように動作可能な撮像モジュールであって、獲得された画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、遠位先端に近接し、内視鏡の位置に基づいて位置信号を生成するように構成された位置センサと、を備える、展開することと、撮像モジュールから一組の画像データを、及び位置センサから一組の位置信号を受信することと、一組の位置信号に基づいて、一組の視点データを決定することであって、一組の視点データは、一組の画像データの獲得中の内視鏡の位置を示す、決定することと、画像深度分析を行って、一組の画像データの一組の3D特性を決定することであって、3D特性のセットは、一組の画像データの1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、一組の画像データの1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データを作成することと、一組の視点データを一組の3D画像データと関連付けることと、を含む、方法。
一組の3D画像データ及び一組の視点データを、画像誘導手術システムの座標系と関連付けることと、座標系との関連付けに基づいて、画像誘導手術ナビゲーション手順中に一組の3D画像データを表示することと、を更に含む、実施例15に記載の方法。
手術部位に対する視点を定義する、ユーザからの入力を受信することと、一組の視点データ内の視点を識別することに基づいて、視点から手術部位を示す一組の3D画像データの第1の部分を決定することと、一組の3D画像データの第1の部分をディスプレイに表示することと、を更に含む、実施例15~16のいずれか一項又は二項以上に記載の方法。
手術部位の間接3Dスキャン、及び間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、一組のスキャン視点データ内の視点を識別することに基づいて、視点から手術部位を示す間接3Dスキャンの第2の部分を決定することと、一組の3D画像データの第1の部分及び間接3Dスキャンの第2の部分をディスプレイに同時に表示することと、を更に含む、実施例17に記載の方法。
ユーザからスキャン調整入力を受信することと、スキャン調整入力に基づいて、手術部位の間接3Dスキャンと一組のスキャン視点データとの関連付けを再構成することと、を更に含み、手術部位の間接3Dスキャンが、手術前に獲得された画像データを含み、一組の3D画像データは、手術前に獲得された画像データを含む、実施例18に記載の方法。
プロセッサ、メモリ、及びディスプレイを備える画像誘導手術(IGS)ナビゲーションシステムであって、プロセッサは、被追跡内視鏡によって生成された一組の画像データを受信することであって、一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、受信することと、被追跡内視鏡によって生成された一組の視点データを受信することであって、一組の視点データは、一組の画像データの獲得中の被追跡内視鏡の位置を示す、受信することと、画像深度分析を行って、一組の画像データの一組の3D特性を決定することであって、一組の3D特性は、1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データを作成することと、一組の視点データを一組の3D画像データと関連付けることと、選択された視点を含む一組の視点データに基づいて、選択された視点から一組の3D画像データをディスプレイに表示させることと、行うように構成されている、IGSナビゲーションシステム。
システムであって、患者の器官の腔に挿入されるように構成された医療用プローブと、センサ座標系で動作する医療用プローブの位置及び方向センサと、センサ座標系で動作する医療用プローブの遠位縁部のカメラと、プロセッサであって、画像座標系で動作する撮像システムから、開放空間及び器官組織を含む腔の三次元画像を受信することと、医療用プローブから、腔内部の医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、プローブのカメラから、腔内部のそれぞれの視覚化された位置を受信することと、画像座標系をセンサ座標系に位置合わせして、視覚化された位置で三次元画像の1つ又は2つ以上のボクセルを識別することと、識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値を、開放空間に対応するように更新することと、を行うように構成されたプロセッサと、を備える、システム。
撮像システムは、コンピュータ断層撮影スキャナを備える、実施例21に記載のシステム。
位置及び方向センサは、磁場センサを備える、実施例21に記載のシステム。
プロセッサは、密度値の視覚効果の間の対応関係を形成するように構成され、所与の視覚効果は、開放空間を示す所与の密度値に対応する、実施例21~23のいずれかに記載のシステム。
視覚効果は、色、陰影、及びパターンからなる群から選択される、実施例24に記載のシステム。
プロセッサは、視覚効果を使用してディスプレイに三次元画像を提示するように構成されている、実施例24に記載のシステム。
所与の視覚効果は、第1の所与の視覚効果を含み、密度値を更新する前に、プロセッサは、第1の所与の視覚効果とは異なる第2の所与の視覚効果を使用して、識別された1つ又は2つ以上のボクセルを提示することによって、三次元画像を提示するように構成されている、実施例26に記載のシステム。
密度値を更新した時点で、プロセッサは、第1の所与の視覚効果を使用して、識別された1つ又は2つ以上のボクセルを提示することによって、三次元画像を提示するように構成されている、実施例27に記載のシステム。
プロセッサは、多視点三角測量モデルを使用して、カメラからの位置の距離を視覚信号から抽出するように構成されている、実施例28に記載のシステム。
方法であって、画像座標系で動作する撮像システムから、開放空間及び器官組織を含む患者の器官の腔の三次元画像を受信することと、センサ座標系で動作して、腔の中へ挿入される、位置及び方向センサ並びにカメラを有する医療用プローブから、腔内部の医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号、並びに腔内部のそれぞれの視覚化された位置、を受信することと、画像座標系をセンサ座標系に位置合わせして、視覚化された位置で三次元画像の1つ又は2つ以上のボクセルを識別することと、識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値を、開放空間に対応するように更新することと、を含む、方法。
コンピュータソフトウェア製品であって、プローブと連動して動作し、プローブは、患者の器官の腔の中へ挿入するように構成され、センサ座標系で動作する位置及び方向センサと、センサ座標系で動作する医療用プローブの遠位縁部のカメラと、を含み、製品は、プログラム命令が格納された非一時的コンピュータ可読媒体を備え、該命令は、コンピュータによって読み出された場合、コンピュータに、画像座標系で動作する撮像システムから、開放空間及び器官組織を含む腔の三次元画像を受信することと、医療用プローブから、腔内部の医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、腔の壁のそれぞれの視覚化された位置を受信することと、画像座標系をセンサ座標系に位置合わせして、視覚化された位置で三次元画像の1つ又は2つ以上のボクセルを識別することと、識別されたボクセルが、受信された三次元画像に、開放空間に対応しない密度値を有する場合、識別されたボクセルの密度値を、開放空間に対応するように更新することと、を行わせる、コンピュータソフトウェア製品。
その他
本明細書の実施形態は、古いCT画像を補正するために適用された、カメラによる磁気P&D検知及び光学的視覚化を使用するプロセッサを記載しているが、他のタイプの位置感知及び視覚化を使用して、他のタイプの医療画像を補正することは、本発明の趣旨及び範囲内にあると見なされる。例えば、超音波視覚化は、カメラの代わりに超音波トランスデューサと共に使用することができる。加えて、本明細書に記載する実施形態は、主に、ENT処置に対処するものであるが、本明細書に記載されている方法及びシステムはまた、身体の他の器官の腔の解剖学的マッピングなどの他の用途にも使用することができる。
本明細書に記載の教示、表現、実施形態、実施例などのうちのいずれか1つ又は2つ以上を、本明細書に記載の他の教示、表現、実施形態、実施例などのうちのいずれか1つ又は2つ以上と組み合わせることができる点が理解されるべきである。したがって、上記の教示、表現、実施形態、実施例などは、互いに対して独立して考慮されるべきではない。本明細書の教示に照らして、本明細書の教示を組み合わせることができる様々な好適な方式が、当業者には容易に明らかとなろう。このような修正及び変形は、「特許請求の範囲」内に含まれるものとする。
本明細書に参照により組み込まれると言及されるいかなる特許、公報、又はその他の開示内容も、全体的に又は部分的に、組み込まれる内容が現行の定義、見解、又は本開示に記載されるその他の開示内容とあくまで矛盾しない範囲でのみ本明細書に組み込まれると理解されるべきである。それ自体、また必要な範囲で、本明細書に明瞭に記載される開示内容は、参照により本明細書に組み込まれるあらゆる矛盾する記載に優先するものとする。参照により本明細書に組み込まれると言及されているが、現行の定義、見解、又は本明細書に記載される他の開示内容と矛盾する任意の内容、又はそれらの部分は、組み込まれた内容と現行の開示内容との間に矛盾が生じない範囲においてのみ、組み込まれるものとする。
本明細書に開示される装置の変形形態は、1回の使用後に処分されるように設計するか又は複数回使用されるように設計することができる。変形形態は、いずれか又は両方の場合においても、少なくとも1回の使用後に再利用のために再調整され得る。再調整は、デバイスの分解工程、それに続く特定の部品の洗浄又は交換工程、及びその後の再組み立て工程の、任意の組み合わせを含み得る。特に、装置の変形形態は、分解することができ、かつ、装置の任意の数の特定の部品若しくは部分を、任意の組み合わせにおいて選択的に交換又は取り外してもよい。特定の部分を洗浄時及び/又は交換時に、装置の変形形態は、再調整用の施設において、又は外科処置の直前に外科チームによってのどちらかで、その後の使用のために再組み立てすることができる。当業者であれば、デバイスの再調整において、分解、洗浄/交換、及び再組み立てのための様々な技術を利用することができることを理解するであろう。かかる技術の使用、及び結果として得られる再調整されたデバイスは、すべて本発明の範囲内にある。
単に一例として、本明細書に記載の変形形態は、手術前に処理することができる。まず、新品又は使用済みの器具を入手し、必要に応じて洗浄することができる。次いで器具を滅菌することができる。1つの滅菌技術では、器具は、プラスチックバッグ又はTYVEKバッグなど、閉鎖され密封された容器に入れられる。次いで、容器及び器具を、γ線、X線、又は高エネルギー電子などの容器を透過し得る放射線野に置くことができる。放射線は、器具上及び容器内の細菌を死滅させることができる。この後、滅菌済みの器具を滅菌容器内で保管することができる。密封容器は、手術設備で開封されるまで器具を滅菌状態に保つことができる。β線若しくはγ線、エチレンオキシド、又は水蒸気が挙げられるがこれらに限定されない、当該技術分野で既知のその他の任意の技術を用いて、デバイスを滅菌してもよい。
本発明の種々の変形形態について図示し説明したが、本明細書で説明した方法及びシステムの更なる応用が、当業者による適切な改変形態により、本発明の範囲から逸脱することなく実現可能である。そのような可能な改変のうちのいくつかについて述べたが、他の改変も当業者には明らかになるであろう。例えば、上述の実施例、変形形態、幾何形状、材料、寸法、比率、工程などは例示的なものであって、必須ではない。したがって、本発明の範囲は、以下の特許請求の範囲の観点から考慮されるべきものであり、本明細書及び図面に示され記載された構造及び動作の細部に限定されないものとして理解される。
〔実施の態様〕
(1) システムであって、
患者の器官の腔に挿入されるように構成された医療用プローブと、
センサ座標系で動作する前記医療用プローブの位置及び方向センサと、
センサ座標系で動作する前記医療用プローブの遠位縁部のカメラと、
プロセッサであって、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
前記プローブの前記カメラから、前記腔内部のそれぞれの視覚化された位置を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行うように構成されたプロセッサと、を備える、システム。
(2) 前記撮像システムは、コンピュータ断層撮影スキャナを備える、実施態様1に記載のシステム。
(3) 前記位置及び方向センサは、磁場センサを備える、実施態様1に記載のシステム。
(4) 前記プロセッサは、前記密度値の視覚効果の間の対応関係を形成するように構成され、所与の視覚効果は、前記開放空間を示す所与の密度値に対応する、実施態様1~3のいずれかに記載のシステム。
(5) 前記視覚効果は、色、陰影、及びパターンからなる群から選択される、実施態様4に記載のシステム。
(6) 前記プロセッサは、前記視覚効果を使用してディスプレイに前記三次元画像を提示するように構成されている、実施態様4に記載のシステム。
(7) 前記所与の視覚効果は、第1の所与の視覚効果を含み、前記密度値を更新する前に、前記プロセッサは、前記第1の所与の視覚効果とは異なる第2の所与の視覚効果を使用して、識別された前記1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、実施態様6に記載のシステム。
(8) 前記密度値を更新した時点で、前記プロセッサは、前記第1の所与の視覚効果を使用して、前記識別された1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、実施態様7に記載のシステム。
(9) 前記プロセッサは、多視点三角測量モデルを使用して、前記カメラからの位置の距離を前記視覚信号から抽出するように構成されている、実施態様4に記載のシステム。
(10) 方法であって、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む患者の器官の腔の三次元画像を受信することと、
センサ座標系で動作して、前記腔の中へ挿入される、位置及び方向センサ並びにカメラを有する医療用プローブから、
前記腔内部の前記医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号、並びに
前記腔内部のそれぞれの視覚化された位置、を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、
を含む、方法。
(11) コンピュータソフトウェア製品であって、プローブと連動して動作し、前記プローブは、患者の器官の腔の中へ挿入するように構成され、センサ座標系で動作する位置及び方向センサと、センサ座標系で動作する前記医療用プローブの遠位縁部のカメラと、を含み、前記製品は、プログラム命令が格納された非一時的コンピュータ可読媒体を備え、該命令は、コンピュータによって読み出された場合、前記コンピュータに、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
前記腔の壁のそれぞれの視覚化された位置を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、前記視覚化された位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行わせる、
コンピュータソフトウェア製品。
(12) 三次元(3D)撮像システムであって、
(a)内視鏡であって、前記内視鏡は、
(i)遠位先端を有するシャフトであって、患者の中へ挿入され、前記患者の手術部位に位置決めされるように適合された、シャフトと、
(ii)前記遠位先端に近接し、使用中の前記内視鏡の位置に基づいて、一組の位置信号を生成するように構成されている位置センサと、
(iii)前記遠位先端に位置決めされ、前記手術部位の一組の画像データを獲得するように動作可能である撮像モジュールであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、を備える、内視鏡と、
(b)プロセッサであって、前記内視鏡と通信可能に結合され、前記プロセッサは、
(i)前記内視鏡から前記一組の画像データ及び前記一組の位置信号を受信することと、
(ii)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
(iii)画像深度分析を行って、前記1つ又は2つ以上の2D画像の各々の一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
(iv)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(v)前記一組の視点データを前記一組の3D画像データと関連付けることと、を行うように構成され、
前記画像深度分析は、
(i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる、受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、プロセッサと、を備える、3D撮像システム。
(13) 前記撮像モジュールは、
(i)単一レンズと、
(ii)前記単一レンズの第1の側と前記手術部位との間に位置決めされた開口プレートであって、前記単一レンズの光軸からオフセットされた1つ又は2つ以上の開口を備える、開口プレートと、
(iii)前記1つ又は2つ以上の開口及び前記単一レンズを介して、前記手術部位から反射光を受信するように前記単一レンズの第2の側に位置決めされた画像ペインであって、前記反射光に基づいて、前記一組の画像データを生成するように構成されている、画像ペインと、を備える、実施態様12に記載の3D撮像システム。
(14) (i)前記1つ又は2つ以上の開口は、前記開口プレートに位置決めされ、前記単一レンズの前記光軸からオフセットされた少なくとも2つの開口を備え、
(ii)前記開口プレートは、前記レンズに対して固定された位置及び配向を有する、実施態様13に記載の3D撮像システム。
(15) (i)前記1つ又は2つ以上の開口は、前記単一レンズの前記光軸からオフセットされた前記開口プレートに位置決めされた単一開口を備え、
(ii)前記開口プレートは、画像獲得中に、前記レンズに対してその円形軸の周りを回転するように動作可能である、実施態様13に記載の3D撮像システム。
(16) 前記プロセッサは、前記画像深度分析を行う場合、
(i)前記一組の画像データ内で、前記手術部位の2つ又は3つ以上のボケ画像を識別することと、
(ii)前記手術部位の前記2つ又は3つ以上のボケ画像の間の空間関係を決定することと、
(iii)前記2つ又は3つ以上のボケ画像の間の前記空間関係に基づいて、前記一組の画像データの前記画素の深度を決定することと、を行うように構成されている、実施態様13に記載の3D撮像システム。
(17) 前記撮像モジュールは、2つ又は3つ以上のカメラを備え、前記2つ又は3つ以上のカメラの各々は、
(i)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラに対して静的に位置決めされ、
(ii)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラと平行な光軸を有するように配向されている、実施態様12に記載の3D撮像システム。
(18) 前記プロセッサは、前記画像深度分析を行う場合、
(i)前記一組の画像データの第1の画像の点を識別することであって、前記点は、前記2つ又は3つ以上のカメラのうちの第1のカメラによって捕獲された前記第1の画像内、及び前記2つ又は3つ以上のカメラのうちの第2のカメラによって捕獲された第2の画像内の両方に存在する、前記手術部位の一部分を含む、識別することと、
(ii)前記第2の画像の前記点を識別することと、
(iii)前記第1の画像から前記第2の画像までの前記点の変位を決定することと、
(iv)前記変位に基づいて、前記点の前記画素の深度を決定することと、を行うように更に構成されている、実施態様17に記載の3D撮像システム。
(19) 前記プロセッサは、前記第2の画像の前記点を識別する場合、
(i)前記第2のカメラに対する前記第1のカメラの前記静的位置に基づいて、前記第1の画像及び前記第2の画像のエピポーラ線を決定することと、
(ii)前記エピポーラ線に沿った前記第2の画像の前記点を探し、同時に、前記エピポーラ線に沿っていない前記第2の画像の一部分を除外することと、を行うように更に構成されている、実施態様18に記載の3D撮像システム。
(20) 前記プロセッサは、
(i)前記一組の3D画像データ及び前記一組の視点データを画像誘導手術システムの座標系と関連付けることと、
(ii)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を行うように更に構成されている、実施態様12~19のいずれか一つ又は二つ以上に記載の3D撮像システム。
(21) (i)前記位置センサは、使用中の前記内視鏡の前記位置及び配向に基づいて、前記一組の位置信号を生成するように構成され、
(ii)前記一組の視点データは、前記一組の画像データの獲得中の、前記内視鏡の前記位置及び配向を示し、
(iii)前記プロセッサは、前記一組の3D画像データ及び前記一組の視点データを画像誘導手術ナビゲーションシステムに提供するように更に構成されている、実施態様12~20のいずれか一つ又は二つ以上に記載の3D撮像システム。
(22) 前記プロセッサは、
(i)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
(ii)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
(iii)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を行うように更に構成されている、実施態様12~21のいずれか一つ又は二つ以上に記載の3D撮像システム。
(23) 前記プロセッサは、
(i)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
(ii)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
(iii)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を行うように更に構成されている、実施態様22に記載の3D撮像システム。
(24) (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術後に獲得された画像データを含む、実施態様23に記載の3D撮像システム。
(25) (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術前に獲得された画像データを含み、
(iii)前記プロセッサは、
(A)ユーザからスキャン調整入力を受信することと、
(B)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を行うように更に構成されている、実施態様23~24のいずれか一つ又は二つ以上に記載の3D撮像システム。
(26) 三次元(3D)撮像のための方法であって、
(a)内視鏡の遠位先端を患者の手術部位に展開することであって、前記遠位先端は、
(i)前記手術部位の画像データを獲得するように動作可能な撮像モジュールであって、獲得された画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、
(ii)前記遠位先端に近接し、前記内視鏡の前記位置に基づいて位置信号を生成するように構成された位置センサと、を備える、展開することと、
(b)前記撮像モジュールから一組の画像データを、及び前記位置センサから一組の位置信号を受信することと、
(c)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
(d)前記1つ又は2つ以上の2D画像の各々について、画像深度分析を行って、一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
(e)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(f)前記一組の視点データを前記一組の3D画像データと関連付けることと、を含み、
前記画像深度分析は、
(i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、方法。
(27) (a)前記一組の3D画像データ及び前記一組の視点データを、画像誘導手術システムの座標系と関連付けることと、
(b)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を更に含む、実施態様26に記載の方法。
(28) (a)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
(b)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
(c)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を更に含む、実施態様27に記載の方法。
(29) (a)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
(b)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
(c)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を更に含む、実施態様28に記載の方法。
(30) (a)ユーザからスキャン調整入力を受信することと、
(b)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を更に含み、
(i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術前に獲得された画像データを含む、実施態様29に記載の方法。
(31) プロセッサ、メモリ、及びディスプレイを備える画像誘導手術(IGS)ナビゲーションシステムであって、前記プロセッサは、
(a)被追跡内視鏡によって生成された一組の画像データを受信することであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、受信することと、
(b)前記被追跡内視鏡によって生成された一組の視点データを受信することであって、前記一組の視点データは、前記一組の画像データの獲得中の前記被追跡内視鏡の位置を示す、受信することと、
(c)画像深度分析を行って、前記一組の画像データの一組の3D特性を決定することであって、前記一組の3D特性は、前記1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、
(d)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(e)前記一組の視点データを前記一組の3D画像データと関連付けることと、
(f)選択された視点を含む前記一組の視点データに基づいて、前記選択された視点から前記一組の3D画像データを前記ディスプレイに表示させることと、行うように構成されている、IGSナビゲーションシステム。

Claims (31)

  1. システムであって、
    患者の器官の腔に挿入されるように構成された医療用プローブと、
    センサ座標系で動作する前記医療用プローブの位置及び方向センサと、
    センサ座標系で動作する前記医療用プローブの遠位縁部のカメラと、
    プロセッサであって、
    画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
    前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
    前記プローブの前記カメラから、前記腔内部のそれぞれの視覚化された位置を受信することと、
    前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
    識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行うように構成されたプロセッサと、を備える、システム。
  2. 前記撮像システムは、コンピュータ断層撮影スキャナを備える、請求項1に記載のシステム。
  3. 前記位置及び方向センサは、磁場センサを備える、請求項1に記載のシステム。
  4. 前記プロセッサは、前記密度値の視覚効果の間の対応関係を形成するように構成され、所与の視覚効果は、前記開放空間を示す所与の密度値に対応する、請求項1~3のいずれか一項に記載のシステム。
  5. 前記視覚効果は、色、陰影、及びパターンからなる群から選択される、請求項4に記載のシステム。
  6. 前記プロセッサは、前記視覚効果を使用してディスプレイに前記三次元画像を提示するように構成されている、請求項4に記載のシステム。
  7. 前記所与の視覚効果は、第1の所与の視覚効果を含み、前記密度値を更新する前に、前記プロセッサは、前記第1の所与の視覚効果とは異なる第2の所与の視覚効果を使用して、識別された前記1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、請求項6に記載のシステム。
  8. 前記密度値を更新した時点で、前記プロセッサは、前記第1の所与の視覚効果を使用して、前記識別された1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、請求項7に記載のシステム。
  9. 前記プロセッサは、多視点三角測量モデルを使用して、前記カメラからの位置の距離を前記視覚信号から抽出するように構成されている、請求項4に記載のシステム。
  10. 方法であって、
    画像座標系で動作する撮像システムから、開放空間及び器官組織を含む患者の器官の腔の三次元画像を受信することと、
    センサ座標系で動作して、前記腔の中へ挿入される、位置及び方向センサ並びにカメラを有する医療用プローブから、
    前記腔内部の前記医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号、並びに
    前記腔内部のそれぞれの視覚化された位置、を受信することと、
    前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
    識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、
    を含む、方法。
  11. コンピュータソフトウェア製品であって、プローブと連動して動作し、前記プローブは、患者の器官の腔の中へ挿入するように構成され、センサ座標系で動作する位置及び方向センサと、センサ座標系で動作する前記医療用プローブの遠位縁部のカメラと、を含み、前記製品は、プログラム命令が格納された非一時的コンピュータ可読媒体を備え、該命令は、コンピュータによって読み出された場合、前記コンピュータに、
    画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
    前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
    前記腔の壁のそれぞれの視覚化された位置を受信することと、
    前記画像座標系を前記センサ座標系に位置合わせして、前記視覚化された位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
    識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行わせる、
    コンピュータソフトウェア製品。
  12. 三次元(3D)撮像システムであって、
    (a)内視鏡であって、前記内視鏡は、
    (i)遠位先端を有するシャフトであって、患者の中へ挿入され、前記患者の手術部位に位置決めされるように適合された、シャフトと、
    (ii)前記遠位先端に近接し、使用中の前記内視鏡の位置に基づいて、一組の位置信号を生成するように構成されている位置センサと、
    (iii)前記遠位先端に位置決めされ、前記手術部位の一組の画像データを獲得するように動作可能である撮像モジュールであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、を備える、内視鏡と、
    (b)プロセッサであって、前記内視鏡と通信可能に結合され、前記プロセッサは、
    (i)前記内視鏡から前記一組の画像データ及び前記一組の位置信号を受信することと、
    (ii)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
    (iii)画像深度分析を行って、前記1つ又は2つ以上の2D画像の各々の一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
    (iv)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
    (v)前記一組の視点データを前記一組の3D画像データと関連付けることと、を行うように構成され、
    前記画像深度分析は、
    (i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
    (ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる、受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、プロセッサと、を備える、3D撮像システム。
  13. 前記撮像モジュールは、
    (i)単一レンズと、
    (ii)前記単一レンズの第1の側と前記手術部位との間に位置決めされた開口プレートであって、前記単一レンズの光軸からオフセットされた1つ又は2つ以上の開口を備える、開口プレートと、
    (iii)前記1つ又は2つ以上の開口及び前記単一レンズを介して、前記手術部位から反射光を受信するように前記単一レンズの第2の側に位置決めされた画像ペインであって、前記反射光に基づいて、前記一組の画像データを生成するように構成されている、画像ペインと、を備える、請求項12に記載の3D撮像システム。
  14. (i)前記1つ又は2つ以上の開口は、前記開口プレートに位置決めされ、前記単一レンズの前記光軸からオフセットされた少なくとも2つの開口を備え、
    (ii)前記開口プレートは、前記レンズに対して固定された位置及び配向を有する、請求項13に記載の3D撮像システム。
  15. (i)前記1つ又は2つ以上の開口は、前記単一レンズの前記光軸からオフセットされた前記開口プレートに位置決めされた単一開口を備え、
    (ii)前記開口プレートは、画像獲得中に、前記レンズに対してその円形軸の周りを回転するように動作可能である、請求項13に記載の3D撮像システム。
  16. 前記プロセッサは、前記画像深度分析を行う場合、
    (i)前記一組の画像データ内で、前記手術部位の2つ又は3つ以上のボケ画像を識別することと、
    (ii)前記手術部位の前記2つ又は3つ以上のボケ画像の間の空間関係を決定することと、
    (iii)前記2つ又は3つ以上のボケ画像の間の前記空間関係に基づいて、前記一組の画像データの前記画素の深度を決定することと、を行うように構成されている、請求項13に記載の3D撮像システム。
  17. 前記撮像モジュールは、2つ又は3つ以上のカメラを備え、前記2つ又は3つ以上のカメラの各々は、
    (i)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラに対して静的に位置決めされ、
    (ii)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラと平行な光軸を有するように配向されている、請求項12に記載の3D撮像システム。
  18. 前記プロセッサは、前記画像深度分析を行う場合、
    (i)前記一組の画像データの第1の画像の点を識別することであって、前記点は、前記2つ又は3つ以上のカメラのうちの第1のカメラによって捕獲された前記第1の画像内、及び前記2つ又は3つ以上のカメラのうちの第2のカメラによって捕獲された第2の画像内の両方に存在する、前記手術部位の一部分を含む、識別することと、
    (ii)前記第2の画像の前記点を識別することと、
    (iii)前記第1の画像から前記第2の画像までの前記点の変位を決定することと、
    (iv)前記変位に基づいて、前記点の前記画素の深度を決定することと、を行うように更に構成されている、請求項17に記載の3D撮像システム。
  19. 前記プロセッサは、前記第2の画像の前記点を識別する場合、
    (i)前記第2のカメラに対する前記第1のカメラの前記静的位置に基づいて、前記第1の画像及び前記第2の画像のエピポーラ線を決定することと、
    (ii)前記エピポーラ線に沿った前記第2の画像の前記点を探し、同時に、前記エピポーラ線に沿っていない前記第2の画像の一部分を除外することと、を行うように更に構成されている、請求項18に記載の3D撮像システム。
  20. 前記プロセッサは、
    (i)前記一組の3D画像データ及び前記一組の視点データを画像誘導手術システムの座標系と関連付けることと、
    (ii)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を行うように更に構成されている、請求項12~19のいずれか一項又は二項以上に記載の3D撮像システム。
  21. (i)前記位置センサは、使用中の前記内視鏡の前記位置及び配向に基づいて、前記一組の位置信号を生成するように構成され、
    (ii)前記一組の視点データは、前記一組の画像データの獲得中の、前記内視鏡の前記位置及び配向を示し、
    (iii)前記プロセッサは、前記一組の3D画像データ及び前記一組の視点データを画像誘導手術ナビゲーションシステムに提供するように更に構成されている、請求項12~20のいずれか一項又は二項以上に記載の3D撮像システム。
  22. 前記プロセッサは、
    (i)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
    (ii)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
    (iii)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を行うように更に構成されている、請求項12~21のいずれか一項又は二項以上に記載の3D撮像システム。
  23. 前記プロセッサは、
    (i)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
    (ii)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
    (iii)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を行うように更に構成されている、請求項22に記載の3D撮像システム。
  24. (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
    (ii)前記一組の3D画像データは、手術後に獲得された画像データを含む、請求項23に記載の3D撮像システム。
  25. (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
    (ii)前記一組の3D画像データは、手術前に獲得された画像データを含み、
    (iii)前記プロセッサは、
    (A)ユーザからスキャン調整入力を受信することと、
    (B)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を行うように更に構成されている、請求項23~24のいずれか一項又は二項以上に記載の3D撮像システム。
  26. 三次元(3D)撮像のための方法であって、
    (a)内視鏡の遠位先端を患者の手術部位に展開することであって、前記遠位先端は、
    (i)前記手術部位の画像データを獲得するように動作可能な撮像モジュールであって、獲得された画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、
    (ii)前記遠位先端に近接し、前記内視鏡の前記位置に基づいて位置信号を生成するように構成された位置センサと、を備える、展開することと、
    (b)前記撮像モジュールから一組の画像データを、及び前記位置センサから一組の位置信号を受信することと、
    (c)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
    (d)前記1つ又は2つ以上の2D画像の各々について、画像深度分析を行って、一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
    (e)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
    (f)前記一組の視点データを前記一組の3D画像データと関連付けることと、を含み、
    前記画像深度分析は、
    (i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
    (ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、方法。
  27. (a)前記一組の3D画像データ及び前記一組の視点データを、画像誘導手術システムの座標系と関連付けることと、
    (b)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を更に含む、請求項26に記載の方法。
  28. (a)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
    (b)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
    (c)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を更に含む、請求項27に記載の方法。
  29. (a)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
    (b)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
    (c)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を更に含む、請求項28に記載の方法。
  30. (a)ユーザからスキャン調整入力を受信することと、
    (b)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を更に含み、
    (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
    (ii)前記一組の3D画像データは、手術前に獲得された画像データを含む、請求項29に記載の方法。
  31. プロセッサ、メモリ、及びディスプレイを備える画像誘導手術(IGS)ナビゲーションシステムであって、前記プロセッサは、
    (a)被追跡内視鏡によって生成された一組の画像データを受信することであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、受信することと、
    (b)前記被追跡内視鏡によって生成された一組の視点データを受信することであって、前記一組の視点データは、前記一組の画像データの獲得中の前記被追跡内視鏡の位置を示す、受信することと、
    (c)画像深度分析を行って、前記一組の画像データの一組の3D特性を決定することであって、前記一組の3D特性は、前記1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、
    (d)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
    (e)前記一組の視点データを前記一組の3D画像データと関連付けることと、
    (f)選択された視点を含む前記一組の視点データに基づいて、前記選択された視点から前記一組の3D画像データを前記ディスプレイに表示させることと、行うように構成されている、IGSナビゲーションシステム。
JP2021518429A 2018-10-04 2019-10-01 位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正 Active JP7443353B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862741403P 2018-10-04 2018-10-04
US62/741,403 2018-10-04
US16/588,955 2019-09-30
US16/588,955 US11457981B2 (en) 2018-10-04 2019-09-30 Computerized tomography (CT) image correction using position and direction (P andD) tracking assisted optical visualization
PCT/IB2019/058348 WO2020070647A1 (en) 2018-10-04 2019-10-01 Computerized tomography (ct) image correction using position and direction (p&d) tracking assisted optical visualization

Publications (2)

Publication Number Publication Date
JP2022504151A true JP2022504151A (ja) 2022-01-13
JP7443353B2 JP7443353B2 (ja) 2024-03-05

Family

ID=70050899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021518429A Active JP7443353B2 (ja) 2018-10-04 2019-10-01 位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正

Country Status (6)

Country Link
US (2) US11457981B2 (ja)
EP (1) EP3860423B1 (ja)
JP (1) JP7443353B2 (ja)
CN (1) CN112867427A (ja)
IL (1) IL281915B1 (ja)
WO (1) WO2020070647A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034995A1 (ko) * 2022-08-12 2024-02-15 아주대학교산학협력단 수술 영상데이터를 녹화하는 방법 및 장치

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US11172184B2 (en) 2018-12-13 2021-11-09 Covidien Lp Systems and methods for imaging a patient
US11801113B2 (en) * 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US10955657B2 (en) * 2018-12-20 2021-03-23 Acclarent, Inc. Endoscope with dual image sensors
US20210287434A1 (en) * 2020-03-16 2021-09-16 Covidien Lp System and methods for updating an anatomical 3d model
US20220031400A1 (en) * 2020-07-31 2022-02-03 Biosense Webster (Israel) Ltd. Systems and methods for tracking a surgical device
US20220092805A1 (en) * 2020-09-23 2022-03-24 Smith & Nephew, Inc. Optical caliper for 3-d endoscopic imaging and measurement
CN215192193U (zh) * 2020-12-31 2021-12-17 杭州堃博生物科技有限公司 体内导航装置、体内导航系统与医疗处理系统
JPWO2022202520A1 (ja) * 2021-03-26 2022-09-29
CN114176779B (zh) * 2021-12-31 2023-12-26 杭州三坛医疗科技有限公司 一种手术机器人导航定位方法及装置
WO2023187511A2 (en) 2022-03-31 2023-10-05 Acclarent, Inc. Ent guide shaft with deflectable tip and distal endoscope cap
US20240000420A1 (en) * 2022-06-29 2024-01-04 Biosense Webster (Israel) Ltd. Systems and methods for cavity imaging in patient organ based on position of 4d ultrasound catheter
WO2024008490A1 (en) * 2022-07-07 2024-01-11 Koninklijke Philips N.V. Apparatus for tracing a catheter
EP4360533A1 (en) * 2022-10-24 2024-05-01 Covidien LP Surgical robotic system and method with multiple cameras

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011087357A1 (de) * 2011-11-29 2013-05-29 Karl Storz Gmbh & Co. Kg Aktualisierung von präoperativ aufgenommenen 3D-Bilddaten eines Körpers

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5391199A (en) 1993-07-20 1995-02-21 Biosense, Inc. Apparatus and method for treating cardiac arrhythmias
US5558091A (en) 1993-10-06 1996-09-24 Biosense, Inc. Magnetic determination of position and orientation
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6177792B1 (en) 1996-03-26 2001-01-23 Bisense, Inc. Mutual induction correction for radiator coils of an objects tracking system
US8821158B1 (en) 1999-10-14 2014-09-02 Geodigm Corporation Method and apparatus for matching digital three-dimensional dental models with digital three-dimensional cranio-facial CAT scan records
US6172499B1 (en) 1999-10-29 2001-01-09 Ascension Technology Corporation Eddy current error-reduced AC magnetic position measurement system
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US20070161854A1 (en) * 2005-10-26 2007-07-12 Moshe Alamaro System and method for endoscopic measurement and mapping of internal organs, tumors and other objects
WO2008079301A2 (en) * 2006-12-21 2008-07-03 Massachusetts Institute Of Technology Methods and apparatus for 3d surface imaging using active wave-front sampling
US8199988B2 (en) 2008-05-16 2012-06-12 Geodigm Corporation Method and apparatus for combining 3D dental scans with other 3D data sets
US9330490B2 (en) * 2011-04-29 2016-05-03 University Health Network Methods and systems for visualization of 3D parametric data during 2D imaging
CN103765239B (zh) 2011-07-01 2017-04-19 皇家飞利浦有限公司 用于图像引导的介入的术中图像校正
US9028424B2 (en) * 2011-12-02 2015-05-12 Interscope, Inc. Endoscope including a torque generation component or torque delivery component disposed within an insertable portion of the endoscope and a surgical cutting assembly insertable within the endoscope
US9108318B2 (en) * 2012-02-15 2015-08-18 Intuitive Surgical Operations, Inc. Switching control of an instrument to an input device upon the instrument entering a display area viewable by an operator of the input device
JP6150583B2 (ja) 2013-03-27 2017-06-21 オリンパス株式会社 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6270026B2 (ja) 2013-12-05 2018-01-31 国立大学法人名古屋大学 内視鏡観察支援装置
US10463242B2 (en) 2014-07-09 2019-11-05 Acclarent, Inc. Guidewire navigation for sinuplasty
US10849483B2 (en) * 2014-09-15 2020-12-01 Vivid Medical, Inc. Single-use, port deployable articulating endoscope
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
US10299699B2 (en) 2016-11-28 2019-05-28 Biosense Webster (Israel) Ltd. Computerized tomography image correction
US10561370B2 (en) 2017-04-26 2020-02-18 Accalrent, Inc. Apparatus to secure field generating device to chair
US11027105B2 (en) 2017-07-13 2021-06-08 Biosense Webster (Israel) Ltd. Adjustable instrument for dilation of anatomical passageway

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011087357A1 (de) * 2011-11-29 2013-05-29 Karl Storz Gmbh & Co. Kg Aktualisierung von präoperativ aufgenommenen 3D-Bilddaten eines Körpers

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034995A1 (ko) * 2022-08-12 2024-02-15 아주대학교산학협력단 수술 영상데이터를 녹화하는 방법 및 장치

Also Published As

Publication number Publication date
US20200107886A1 (en) 2020-04-09
WO2020070647A1 (en) 2020-04-09
IL281915A (en) 2021-05-31
EP3860423A1 (en) 2021-08-11
EP3860423B1 (en) 2023-12-20
IL281915B1 (en) 2024-01-01
US11457981B2 (en) 2022-10-04
JP7443353B2 (ja) 2024-03-05
US11800970B2 (en) 2023-10-31
CN112867427A (zh) 2021-05-28
US20230023881A1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
JP7443353B2 (ja) 位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
JP2022512420A (ja) センサベースのナビゲーションと内視鏡検査との組み合わせを用いた外科用システム
US10543045B2 (en) System and method for providing a contour video with a 3D surface in a medical navigation system
US6019724A (en) Method for ultrasound guidance during clinical procedures
EP3666218A1 (en) Systems for imaging a patient
CN111419152A (zh) 增强视差的内镜成像
US20160015469A1 (en) Surgical tissue recognition and navigation apparatus and method
US20050054895A1 (en) Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
US20110230710A1 (en) Method For Using Variable Direction Of View Endoscopy In Conjunction With Image Guided Surgical Systems
WO1996025881A1 (en) Method for ultrasound guidance during clinical procedures
WO2005092198A1 (en) System for guiding a medical instrument in a patient body
CN110709894A (zh) 用于增强深度感知的虚拟阴影
WO2007115825A1 (en) Registration-free augmentation device and method
CN112741692A (zh) 实现将器件导航至目标组织位置的快速导航方法及系统
CN114727848A (zh) 用于ent规程的可视化系统和方法
JP2021525609A (ja) 一体型ナビゲーションセンサを有する内視鏡
Hummel et al. 2D/3D registration of endoscopic ultrasound to CT volume data
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP6952740B2 (ja) ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム
JP2022508801A (ja) フライスルーカメラ配置のリアルタイム更新のための方法及びシステム
EP3666166A1 (en) System and method for generating a three-dimensional model of a surgical site
Liu et al. Augmented Reality in Image-Guided Robotic Surgery
WO2023161848A1 (en) Three-dimensional reconstruction of an instrument and procedure site
Keil et al. A real-time online video overlay navigation system for minimally invasive laparoscopic tumor resection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7443353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150