JP2022504151A - 位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正 - Google Patents
位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正 Download PDFInfo
- Publication number
- JP2022504151A JP2022504151A JP2021518429A JP2021518429A JP2022504151A JP 2022504151 A JP2022504151 A JP 2022504151A JP 2021518429 A JP2021518429 A JP 2021518429A JP 2021518429 A JP2021518429 A JP 2021518429A JP 2022504151 A JP2022504151 A JP 2022504151A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- viewpoint
- images
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 title claims description 37
- 238000002591 computed tomography Methods 0.000 title claims description 22
- 238000012800 visualization Methods 0.000 title description 6
- 238000003702 image correction Methods 0.000 title description 2
- 238000003384 imaging method Methods 0.000 claims abstract description 131
- 239000000523 sample Substances 0.000 claims abstract description 76
- 210000000056 organ Anatomy 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims description 124
- 238000002675 image-guided surgery Methods 0.000 claims description 49
- 230000000007 visual effect Effects 0.000 claims description 49
- 238000001356 surgical procedure Methods 0.000 claims description 40
- 238000004458 analytical method Methods 0.000 claims description 28
- 238000005070 sampling Methods 0.000 claims description 17
- 238000006073 displacement reaction Methods 0.000 claims description 14
- 230000003068 static effect Effects 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 5
- 230000037431 insertion Effects 0.000 abstract 1
- 238000003780 insertion Methods 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 17
- 210000001519 tissue Anatomy 0.000 description 17
- 230000002262 irrigation Effects 0.000 description 13
- 238000003973 irrigation Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 210000003484 anatomy Anatomy 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 5
- 230000005672 electromagnetic field Effects 0.000 description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000002059 diagnostic imaging Methods 0.000 description 4
- 238000001839 endoscopy Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 210000004872 soft tissue Anatomy 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 238000002679 ablation Methods 0.000 description 3
- 238000013170 computed tomography imaging Methods 0.000 description 3
- 230000010339 dilation Effects 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 210000003695 paranasal sinus Anatomy 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000002266 amputation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000002980 postoperative effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 238000012285 ultrasound imaging Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000894006 Bacteria Species 0.000 description 1
- IAYPIBMASNFSPL-UHFFFAOYSA-N Ethylene oxide Chemical compound C1CO1 IAYPIBMASNFSPL-UHFFFAOYSA-N 0.000 description 1
- 239000004775 Tyvek Substances 0.000 description 1
- 229920000690 Tyvek Polymers 0.000 description 1
- 230000008468 bone growth Effects 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- 210000000845 cartilage Anatomy 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 210000003800 pharynx Anatomy 0.000 description 1
- 238000007790 scraping Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/0004—Operational features of endoscopes provided with input arrangements for the user for electronic operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
- A61B1/00096—Optical elements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
- A61B1/00097—Sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00193—Optical arrangements adapted for stereoscopic vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/233—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the nose, i.e. nasoscopes, e.g. testing of patency of Eustachian tubes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/24—Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/306—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/309—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Gynecology & Obstetrics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pulmonology (AREA)
- Signal Processing (AREA)
- High Energy & Nuclear Physics (AREA)
- Robotics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Otolaryngology (AREA)
- Dentistry (AREA)
- Endoscopes (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本出願は、2018年10月4日に出願された米国仮特許出願第62/741,403号の利益を主張するものであり、その開示は、参照により本明細書に組み込まれる。
本発明は、概して、医療用撮像に関し、特に、侵襲的医療処置を行いながら古い医療画像を更新することに関する。
本発明の一態様によれば、コンピュータ断層撮影(CT)撮像システムなどの、手術中の医療撮像システムは、典型的には、耳、鼻、喉(ear,nose and throat、ENT)処置を行うクリニックでは利用できないモダリティである。したがって、処置を行うENT医師は、通常、以前に取得されたCT画像などの医療画像に依存する。CT画像を使用して、リアルタイムのガイド(すなわち、「マップ」)を生成することができ、これは、ENT医療処置を行っている医師が、患者の頭部の腔内部の関心体積内で医療用プローブをナビゲートすることを可能にする。
(i)内視鏡から一組の画像データ及び一組の位置信号を受信することと、
(ii)一組の位置信号に基づいて、一組の視点データを決定することであって、一組の視点データが、1つ又は2つ以上の2D画像の各々の獲得中の内視鏡の位置を示す、決定することと、
(iii)画像深度分析を行って、1つ又は2つ以上の2D画像の各々の一組の3D特性を決定することであって、一組の3D特性が、画素の深度を含む、決定することと、
(iv)1つ又は2つ以上の2D画像及び一組の3D特性に基づいて、一組の3D画像データを作成することと、
(v)一組の視点データを一組の3D画像データと関連付けることと、を行うように構成され、
画像深度分析が、
(i)1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる受動ステレオビジョン技術であって、一組の2つの画像の各々が、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、プロセッサと、を備える。
本発明の特定の実施例の以下の説明文は、本発明の範囲を限定する目的で用いられるべきではない。本発明の他の実施例、特徴、態様、実施形態、及び利点は、本発明を実施するために想到される最良の形態の1つを実例として示す以下の説明文より、当業者には明らかとなろう。理解されるように、本発明は、いずれも本発明から逸脱することなく、他の異なるかつ明白な態様が可能である。したがって、図面及び説明は、限定的な性質のものではなく、例示的な性質のものと見なされるべきである。
本発明の別の態様によれば、患者(P)の頭部(H)内の医療処置を行うとき、特に、患者(P)の頭部(H)内の器具の作業要素の内視鏡視野を得ることが困難又は不可能である位置に器具がある場合に、患者(P)の頭部(H)内の器具の位置に関する情報を有することが望ましい場合がある。
図8は、本発明の一実施形態による、IGSナビゲーションシステム(10)などの手術ナビゲーションシステム又は他の外科システムによって使用可能な例示的な内視鏡(100)を示す。内視鏡(100)は、使用中に把持することができる本体(102)を含む。一組の制御部(103)が、本体(102)の遠位端に位置決めされる。シャフト(104)が、本体(102)から遠位に延在する。シャフト(104)は、屈曲部分(108)と、遠位先端(106)と、を含む。下でより詳細に説明するように、遠位先端(106)は、カメラ、光源、灌注及び吸引、並びに/又は内部を通して可撓性用具を展開することができるチャネルなどの1つ又は2つ以上の特徴を含むことができる。内視鏡(100)はまた、屈曲部分(108)と遠位先端(106)との間に位置付けられた位置センサ(110)も含む。位置センサ(110)は、磁場発生器(24)によって発生された交流電磁場に応じて位置表示信号を発生するように構成された1つ又は2つ以上のコイルを備えることができ、よって、ナビゲーションシステム(10)は、上で説明したナビゲーションガイドワイヤ(40)の位置追跡と同様に、患者(P)の頭部(H)の遠位先端(106)の三次元位置をリアルタイムで追跡することができる。
図14A及び図14Bは、各々、本発明の他の実施形態による、内視鏡(100)の遠位先端(106)として利用することができる、別の例示的な遠位先端(500)を示す。遠位先端(500)は、シャフト(104)の遠位端に静的に位置決めすることができ、又はそこから延在する可撓性又は偏向可能なシャフトの遠位端部に位置決めすることができ、又は遠位先端(106)のチャネルを通して前進又は後退させることができる。遠位先端(500)は、器具チャネル(302)と類似の特徴及び機能を有する器具チャネル(502)と、照明(306)と類似の特徴及び機能を有する照明(506)と、灌注チャネル(310)と類似の特徴及び機能を有する一組の灌注チャネル(510)と、を含む。遠位先端(500)はまた、第1の撮像装置(504a)及び第2の撮像装置(504b)も含み、これらは、遠位先端(500)で画像データを獲得し、それをシャフト又は可撓性シャフトを介してプロセッサ(12)、結合ユニット(42)、又は獲得された画像を処理することが可能なIGSナビゲーションシステム(10)の別の装置に送信することが可能な、デジタルカメラ(例えば、1つ又は2つ以上の画像センサ)又は他のデジタル撮像装置を備えることができる。図8Bを参照すると、撮像装置(504a、504b)は、第1の寸法(512)に沿って、及び同じ位置で第2の寸法(514)に沿って互いからオフセットされることが分かる。
上で説明したように3D画像データを生成した後に、そのような画像データを使用して、IGSナビゲーション中に追加的な特徴を提供することができる。一例として、図19は、本発明の一実施形態による、3Dモデル又は3D画像データをIGSナビゲーションと一体化するために行うことができる、一組の工程(800)のフローチャートを示す。適切な撮像モジュール(例えば、遠位先端(300)の波形撮像装置(304)、遠位先端(500)の一組のカメラ(504a、504b))を使用して画像データを獲得し(ブロック802)、3Dモデル又は他の3D画像データセットを構築した(ブロック804)後に、そのようなデータを様々な方法で使用することができる。例えば、合成画像セットは、3D画像データを他の画像と組み合わせることによって、並びに位置及び配向などの位置データを使用して画像セットを互いに関連付けているデータ共に、作成すること(ブロック806)ができる。これは、例えば、複数の画像セットから手術部位の整合視点を同時に表示することができるように、構築された(ブロック804)3Dモデルを、一組の手術前に獲得されたCT画像、処置中の位置被追跡2D内視鏡によって獲得された一組の2D画像、又は他の類似の情報と関連付けることを含むことができる。
以下の実施例は、本明細書の教示を組み合わせるか又は適用することができる、様々な非網羅的な方法に関する。以下の実施例は、本出願における又は本出願の後の出願におけるどの時点でも提示され得る、いずれの請求項の適用範囲をも限定することを目的としたものではないと理解されよう。一切の棄権を意図するものではない。以下の実施例は、単なる例示の目的で与えられるものにすぎない。本明細書の様々な教示は、他の多くの方法で構成及び適用が可能であると考えられる。また、いくつかの変形では、以下の実施例において言及される特定の特徴を省略してよいことも考えられる。したがって、本発明者又は本発明者の利益の継承者により、後日、そうである旨が明示的に示されない限り、以下に言及される態様又は特徴のいずれも重要なものとして見なされるべきではない。以下に言及される特徴以外の更なる特徴を含む請求項が本出願において、又は本出願に関連する後の出願において示される場合、それらの更なる特徴は、特許性に関連するいかなる理由によっても追加されたものとして仮定されるべきではない。
本明細書の実施形態は、古いCT画像を補正するために適用された、カメラによる磁気P&D検知及び光学的視覚化を使用するプロセッサを記載しているが、他のタイプの位置感知及び視覚化を使用して、他のタイプの医療画像を補正することは、本発明の趣旨及び範囲内にあると見なされる。例えば、超音波視覚化は、カメラの代わりに超音波トランスデューサと共に使用することができる。加えて、本明細書に記載する実施形態は、主に、ENT処置に対処するものであるが、本明細書に記載されている方法及びシステムはまた、身体の他の器官の腔の解剖学的マッピングなどの他の用途にも使用することができる。
(1) システムであって、
患者の器官の腔に挿入されるように構成された医療用プローブと、
センサ座標系で動作する前記医療用プローブの位置及び方向センサと、
センサ座標系で動作する前記医療用プローブの遠位縁部のカメラと、
プロセッサであって、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
前記プローブの前記カメラから、前記腔内部のそれぞれの視覚化された位置を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行うように構成されたプロセッサと、を備える、システム。
(2) 前記撮像システムは、コンピュータ断層撮影スキャナを備える、実施態様1に記載のシステム。
(3) 前記位置及び方向センサは、磁場センサを備える、実施態様1に記載のシステム。
(4) 前記プロセッサは、前記密度値の視覚効果の間の対応関係を形成するように構成され、所与の視覚効果は、前記開放空間を示す所与の密度値に対応する、実施態様1~3のいずれかに記載のシステム。
(5) 前記視覚効果は、色、陰影、及びパターンからなる群から選択される、実施態様4に記載のシステム。
(7) 前記所与の視覚効果は、第1の所与の視覚効果を含み、前記密度値を更新する前に、前記プロセッサは、前記第1の所与の視覚効果とは異なる第2の所与の視覚効果を使用して、識別された前記1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、実施態様6に記載のシステム。
(8) 前記密度値を更新した時点で、前記プロセッサは、前記第1の所与の視覚効果を使用して、前記識別された1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、実施態様7に記載のシステム。
(9) 前記プロセッサは、多視点三角測量モデルを使用して、前記カメラからの位置の距離を前記視覚信号から抽出するように構成されている、実施態様4に記載のシステム。
(10) 方法であって、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む患者の器官の腔の三次元画像を受信することと、
センサ座標系で動作して、前記腔の中へ挿入される、位置及び方向センサ並びにカメラを有する医療用プローブから、
前記腔内部の前記医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号、並びに
前記腔内部のそれぞれの視覚化された位置、を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、
を含む、方法。
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
前記腔の壁のそれぞれの視覚化された位置を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、前記視覚化された位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行わせる、
コンピュータソフトウェア製品。
(12) 三次元(3D)撮像システムであって、
(a)内視鏡であって、前記内視鏡は、
(i)遠位先端を有するシャフトであって、患者の中へ挿入され、前記患者の手術部位に位置決めされるように適合された、シャフトと、
(ii)前記遠位先端に近接し、使用中の前記内視鏡の位置に基づいて、一組の位置信号を生成するように構成されている位置センサと、
(iii)前記遠位先端に位置決めされ、前記手術部位の一組の画像データを獲得するように動作可能である撮像モジュールであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、を備える、内視鏡と、
(b)プロセッサであって、前記内視鏡と通信可能に結合され、前記プロセッサは、
(i)前記内視鏡から前記一組の画像データ及び前記一組の位置信号を受信することと、
(ii)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
(iii)画像深度分析を行って、前記1つ又は2つ以上の2D画像の各々の一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
(iv)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(v)前記一組の視点データを前記一組の3D画像データと関連付けることと、を行うように構成され、
前記画像深度分析は、
(i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる、受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、プロセッサと、を備える、3D撮像システム。
(13) 前記撮像モジュールは、
(i)単一レンズと、
(ii)前記単一レンズの第1の側と前記手術部位との間に位置決めされた開口プレートであって、前記単一レンズの光軸からオフセットされた1つ又は2つ以上の開口を備える、開口プレートと、
(iii)前記1つ又は2つ以上の開口及び前記単一レンズを介して、前記手術部位から反射光を受信するように前記単一レンズの第2の側に位置決めされた画像ペインであって、前記反射光に基づいて、前記一組の画像データを生成するように構成されている、画像ペインと、を備える、実施態様12に記載の3D撮像システム。
(14) (i)前記1つ又は2つ以上の開口は、前記開口プレートに位置決めされ、前記単一レンズの前記光軸からオフセットされた少なくとも2つの開口を備え、
(ii)前記開口プレートは、前記レンズに対して固定された位置及び配向を有する、実施態様13に記載の3D撮像システム。
(15) (i)前記1つ又は2つ以上の開口は、前記単一レンズの前記光軸からオフセットされた前記開口プレートに位置決めされた単一開口を備え、
(ii)前記開口プレートは、画像獲得中に、前記レンズに対してその円形軸の周りを回転するように動作可能である、実施態様13に記載の3D撮像システム。
(i)前記一組の画像データ内で、前記手術部位の2つ又は3つ以上のボケ画像を識別することと、
(ii)前記手術部位の前記2つ又は3つ以上のボケ画像の間の空間関係を決定することと、
(iii)前記2つ又は3つ以上のボケ画像の間の前記空間関係に基づいて、前記一組の画像データの前記画素の深度を決定することと、を行うように構成されている、実施態様13に記載の3D撮像システム。
(17) 前記撮像モジュールは、2つ又は3つ以上のカメラを備え、前記2つ又は3つ以上のカメラの各々は、
(i)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラに対して静的に位置決めされ、
(ii)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラと平行な光軸を有するように配向されている、実施態様12に記載の3D撮像システム。
(18) 前記プロセッサは、前記画像深度分析を行う場合、
(i)前記一組の画像データの第1の画像の点を識別することであって、前記点は、前記2つ又は3つ以上のカメラのうちの第1のカメラによって捕獲された前記第1の画像内、及び前記2つ又は3つ以上のカメラのうちの第2のカメラによって捕獲された第2の画像内の両方に存在する、前記手術部位の一部分を含む、識別することと、
(ii)前記第2の画像の前記点を識別することと、
(iii)前記第1の画像から前記第2の画像までの前記点の変位を決定することと、
(iv)前記変位に基づいて、前記点の前記画素の深度を決定することと、を行うように更に構成されている、実施態様17に記載の3D撮像システム。
(19) 前記プロセッサは、前記第2の画像の前記点を識別する場合、
(i)前記第2のカメラに対する前記第1のカメラの前記静的位置に基づいて、前記第1の画像及び前記第2の画像のエピポーラ線を決定することと、
(ii)前記エピポーラ線に沿った前記第2の画像の前記点を探し、同時に、前記エピポーラ線に沿っていない前記第2の画像の一部分を除外することと、を行うように更に構成されている、実施態様18に記載の3D撮像システム。
(20) 前記プロセッサは、
(i)前記一組の3D画像データ及び前記一組の視点データを画像誘導手術システムの座標系と関連付けることと、
(ii)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を行うように更に構成されている、実施態様12~19のいずれか一つ又は二つ以上に記載の3D撮像システム。
(ii)前記一組の視点データは、前記一組の画像データの獲得中の、前記内視鏡の前記位置及び配向を示し、
(iii)前記プロセッサは、前記一組の3D画像データ及び前記一組の視点データを画像誘導手術ナビゲーションシステムに提供するように更に構成されている、実施態様12~20のいずれか一つ又は二つ以上に記載の3D撮像システム。
(22) 前記プロセッサは、
(i)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
(ii)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
(iii)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を行うように更に構成されている、実施態様12~21のいずれか一つ又は二つ以上に記載の3D撮像システム。
(23) 前記プロセッサは、
(i)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
(ii)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
(iii)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を行うように更に構成されている、実施態様22に記載の3D撮像システム。
(24) (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術後に獲得された画像データを含む、実施態様23に記載の3D撮像システム。
(25) (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術前に獲得された画像データを含み、
(iii)前記プロセッサは、
(A)ユーザからスキャン調整入力を受信することと、
(B)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を行うように更に構成されている、実施態様23~24のいずれか一つ又は二つ以上に記載の3D撮像システム。
(a)内視鏡の遠位先端を患者の手術部位に展開することであって、前記遠位先端は、
(i)前記手術部位の画像データを獲得するように動作可能な撮像モジュールであって、獲得された画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、
(ii)前記遠位先端に近接し、前記内視鏡の前記位置に基づいて位置信号を生成するように構成された位置センサと、を備える、展開することと、
(b)前記撮像モジュールから一組の画像データを、及び前記位置センサから一組の位置信号を受信することと、
(c)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
(d)前記1つ又は2つ以上の2D画像の各々について、画像深度分析を行って、一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
(e)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(f)前記一組の視点データを前記一組の3D画像データと関連付けることと、を含み、
前記画像深度分析は、
(i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、方法。
(27) (a)前記一組の3D画像データ及び前記一組の視点データを、画像誘導手術システムの座標系と関連付けることと、
(b)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を更に含む、実施態様26に記載の方法。
(28) (a)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
(b)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
(c)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を更に含む、実施態様27に記載の方法。
(29) (a)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
(b)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
(c)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を更に含む、実施態様28に記載の方法。
(30) (a)ユーザからスキャン調整入力を受信することと、
(b)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を更に含み、
(i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術前に獲得された画像データを含む、実施態様29に記載の方法。
(a)被追跡内視鏡によって生成された一組の画像データを受信することであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、受信することと、
(b)前記被追跡内視鏡によって生成された一組の視点データを受信することであって、前記一組の視点データは、前記一組の画像データの獲得中の前記被追跡内視鏡の位置を示す、受信することと、
(c)画像深度分析を行って、前記一組の画像データの一組の3D特性を決定することであって、前記一組の3D特性は、前記1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、
(d)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(e)前記一組の視点データを前記一組の3D画像データと関連付けることと、
(f)選択された視点を含む前記一組の視点データに基づいて、前記選択された視点から前記一組の3D画像データを前記ディスプレイに表示させることと、行うように構成されている、IGSナビゲーションシステム。
Claims (31)
- システムであって、
患者の器官の腔に挿入されるように構成された医療用プローブと、
センサ座標系で動作する前記医療用プローブの位置及び方向センサと、
センサ座標系で動作する前記医療用プローブの遠位縁部のカメラと、
プロセッサであって、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
前記プローブの前記カメラから、前記腔内部のそれぞれの視覚化された位置を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行うように構成されたプロセッサと、を備える、システム。 - 前記撮像システムは、コンピュータ断層撮影スキャナを備える、請求項1に記載のシステム。
- 前記位置及び方向センサは、磁場センサを備える、請求項1に記載のシステム。
- 前記プロセッサは、前記密度値の視覚効果の間の対応関係を形成するように構成され、所与の視覚効果は、前記開放空間を示す所与の密度値に対応する、請求項1~3のいずれか一項に記載のシステム。
- 前記視覚効果は、色、陰影、及びパターンからなる群から選択される、請求項4に記載のシステム。
- 前記プロセッサは、前記視覚効果を使用してディスプレイに前記三次元画像を提示するように構成されている、請求項4に記載のシステム。
- 前記所与の視覚効果は、第1の所与の視覚効果を含み、前記密度値を更新する前に、前記プロセッサは、前記第1の所与の視覚効果とは異なる第2の所与の視覚効果を使用して、識別された前記1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、請求項6に記載のシステム。
- 前記密度値を更新した時点で、前記プロセッサは、前記第1の所与の視覚効果を使用して、前記識別された1つ又は2つ以上のボクセルを提示することによって、前記三次元画像を提示するように構成されている、請求項7に記載のシステム。
- 前記プロセッサは、多視点三角測量モデルを使用して、前記カメラからの位置の距離を前記視覚信号から抽出するように構成されている、請求項4に記載のシステム。
- 方法であって、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む患者の器官の腔の三次元画像を受信することと、
センサ座標系で動作して、前記腔の中へ挿入される、位置及び方向センサ並びにカメラを有する医療用プローブから、
前記腔内部の前記医療用プローブの遠位縁部の位置及びそれぞれの方向を示す信号、並びに
前記腔内部のそれぞれの視覚化された位置、を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、視覚化された前記位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、
を含む、方法。 - コンピュータソフトウェア製品であって、プローブと連動して動作し、前記プローブは、患者の器官の腔の中へ挿入するように構成され、センサ座標系で動作する位置及び方向センサと、センサ座標系で動作する前記医療用プローブの遠位縁部のカメラと、を含み、前記製品は、プログラム命令が格納された非一時的コンピュータ可読媒体を備え、該命令は、コンピュータによって読み出された場合、前記コンピュータに、
画像座標系で動作する撮像システムから、開放空間及び器官組織を含む前記腔の三次元画像を受信することと、
前記医療用プローブから、前記腔内部の前記医療用プローブの前記遠位縁部の位置及びそれぞれの方向を示す信号を受信することと、
前記腔の壁のそれぞれの視覚化された位置を受信することと、
前記画像座標系を前記センサ座標系に位置合わせして、前記視覚化された位置で前記三次元画像の1つ又は2つ以上のボクセルを識別することと、
識別された前記ボクセルが、受信された前記三次元画像に、前記開放空間に対応しない密度値を有する場合、前記識別されたボクセルの前記密度値を、前記開放空間に対応するように更新することと、を行わせる、
コンピュータソフトウェア製品。 - 三次元(3D)撮像システムであって、
(a)内視鏡であって、前記内視鏡は、
(i)遠位先端を有するシャフトであって、患者の中へ挿入され、前記患者の手術部位に位置決めされるように適合された、シャフトと、
(ii)前記遠位先端に近接し、使用中の前記内視鏡の位置に基づいて、一組の位置信号を生成するように構成されている位置センサと、
(iii)前記遠位先端に位置決めされ、前記手術部位の一組の画像データを獲得するように動作可能である撮像モジュールであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、を備える、内視鏡と、
(b)プロセッサであって、前記内視鏡と通信可能に結合され、前記プロセッサは、
(i)前記内視鏡から前記一組の画像データ及び前記一組の位置信号を受信することと、
(ii)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
(iii)画像深度分析を行って、前記1つ又は2つ以上の2D画像の各々の一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
(iv)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(v)前記一組の視点データを前記一組の3D画像データと関連付けることと、を行うように構成され、
前記画像深度分析は、
(i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる、受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、プロセッサと、を備える、3D撮像システム。 - 前記撮像モジュールは、
(i)単一レンズと、
(ii)前記単一レンズの第1の側と前記手術部位との間に位置決めされた開口プレートであって、前記単一レンズの光軸からオフセットされた1つ又は2つ以上の開口を備える、開口プレートと、
(iii)前記1つ又は2つ以上の開口及び前記単一レンズを介して、前記手術部位から反射光を受信するように前記単一レンズの第2の側に位置決めされた画像ペインであって、前記反射光に基づいて、前記一組の画像データを生成するように構成されている、画像ペインと、を備える、請求項12に記載の3D撮像システム。 - (i)前記1つ又は2つ以上の開口は、前記開口プレートに位置決めされ、前記単一レンズの前記光軸からオフセットされた少なくとも2つの開口を備え、
(ii)前記開口プレートは、前記レンズに対して固定された位置及び配向を有する、請求項13に記載の3D撮像システム。 - (i)前記1つ又は2つ以上の開口は、前記単一レンズの前記光軸からオフセットされた前記開口プレートに位置決めされた単一開口を備え、
(ii)前記開口プレートは、画像獲得中に、前記レンズに対してその円形軸の周りを回転するように動作可能である、請求項13に記載の3D撮像システム。 - 前記プロセッサは、前記画像深度分析を行う場合、
(i)前記一組の画像データ内で、前記手術部位の2つ又は3つ以上のボケ画像を識別することと、
(ii)前記手術部位の前記2つ又は3つ以上のボケ画像の間の空間関係を決定することと、
(iii)前記2つ又は3つ以上のボケ画像の間の前記空間関係に基づいて、前記一組の画像データの前記画素の深度を決定することと、を行うように構成されている、請求項13に記載の3D撮像システム。 - 前記撮像モジュールは、2つ又は3つ以上のカメラを備え、前記2つ又は3つ以上のカメラの各々は、
(i)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラに対して静的に位置決めされ、
(ii)前記2つ又は3つ以上のカメラのうちの他のすべてのカメラと平行な光軸を有するように配向されている、請求項12に記載の3D撮像システム。 - 前記プロセッサは、前記画像深度分析を行う場合、
(i)前記一組の画像データの第1の画像の点を識別することであって、前記点は、前記2つ又は3つ以上のカメラのうちの第1のカメラによって捕獲された前記第1の画像内、及び前記2つ又は3つ以上のカメラのうちの第2のカメラによって捕獲された第2の画像内の両方に存在する、前記手術部位の一部分を含む、識別することと、
(ii)前記第2の画像の前記点を識別することと、
(iii)前記第1の画像から前記第2の画像までの前記点の変位を決定することと、
(iv)前記変位に基づいて、前記点の前記画素の深度を決定することと、を行うように更に構成されている、請求項17に記載の3D撮像システム。 - 前記プロセッサは、前記第2の画像の前記点を識別する場合、
(i)前記第2のカメラに対する前記第1のカメラの前記静的位置に基づいて、前記第1の画像及び前記第2の画像のエピポーラ線を決定することと、
(ii)前記エピポーラ線に沿った前記第2の画像の前記点を探し、同時に、前記エピポーラ線に沿っていない前記第2の画像の一部分を除外することと、を行うように更に構成されている、請求項18に記載の3D撮像システム。 - 前記プロセッサは、
(i)前記一組の3D画像データ及び前記一組の視点データを画像誘導手術システムの座標系と関連付けることと、
(ii)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を行うように更に構成されている、請求項12~19のいずれか一項又は二項以上に記載の3D撮像システム。 - (i)前記位置センサは、使用中の前記内視鏡の前記位置及び配向に基づいて、前記一組の位置信号を生成するように構成され、
(ii)前記一組の視点データは、前記一組の画像データの獲得中の、前記内視鏡の前記位置及び配向を示し、
(iii)前記プロセッサは、前記一組の3D画像データ及び前記一組の視点データを画像誘導手術ナビゲーションシステムに提供するように更に構成されている、請求項12~20のいずれか一項又は二項以上に記載の3D撮像システム。 - 前記プロセッサは、
(i)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
(ii)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
(iii)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を行うように更に構成されている、請求項12~21のいずれか一項又は二項以上に記載の3D撮像システム。 - 前記プロセッサは、
(i)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
(ii)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
(iii)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を行うように更に構成されている、請求項22に記載の3D撮像システム。 - (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術後に獲得された画像データを含む、請求項23に記載の3D撮像システム。 - (i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術前に獲得された画像データを含み、
(iii)前記プロセッサは、
(A)ユーザからスキャン調整入力を受信することと、
(B)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を行うように更に構成されている、請求項23~24のいずれか一項又は二項以上に記載の3D撮像システム。 - 三次元(3D)撮像のための方法であって、
(a)内視鏡の遠位先端を患者の手術部位に展開することであって、前記遠位先端は、
(i)前記手術部位の画像データを獲得するように動作可能な撮像モジュールであって、獲得された画像データは、1つ又は2つ以上の二次元(2D)画像を含む、撮像モジュールと、
(ii)前記遠位先端に近接し、前記内視鏡の前記位置に基づいて位置信号を生成するように構成された位置センサと、を備える、展開することと、
(b)前記撮像モジュールから一組の画像データを、及び前記位置センサから一組の位置信号を受信することと、
(c)前記一組の位置信号に基づいて、一組の視点データを決定することであって、前記一組の視点データは、前記1つ又は2つ以上の2D画像の各々の獲得中の前記内視鏡の前記位置を示す、決定することと、
(d)前記1つ又は2つ以上の2D画像の各々について、画像深度分析を行って、一組の3D特性を決定することであって、前記一組の3D特性は、画素の深度を含む、決定することと、
(e)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(f)前記一組の視点データを前記一組の3D画像データと関連付けることと、を含み、
前記画像深度分析は、
(i)前記1つ又は2つ以上の2D画像のうちの単一の画像に行われる波面サンプリング技術、及び
(ii)前記1つ又は2つ以上の2D画像のうちの一組の2つの画像に行われる受動ステレオビジョン技術であって、前記一組の2つの画像の各々は、同じ視点データと関連付けられる、受動ステレオビジョン技術、からなる群から選択される技術を含む、方法。 - (a)前記一組の3D画像データ及び前記一組の視点データを、画像誘導手術システムの座標系と関連付けることと、
(b)前記座標系との前記関連付けに基づいて、画像誘導手術ナビゲーション手順中に前記一組の3D画像データを表示することと、を更に含む、請求項26に記載の方法。 - (a)前記手術部位に対する視点を定義する、ユーザからの入力を受信することと、
(b)前記一組の視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記一組の3D画像データの第1の部分を決定することと、
(c)前記一組の3D画像データの前記第1の部分をディスプレイに表示することと、を更に含む、請求項27に記載の方法。 - (a)前記手術部位の間接3Dスキャン、及び前記間接3Dスキャンと関連付けられた一組のスキャン視点データを受信することと、
(b)前記一組のスキャン視点データ内の前記視点を識別することに基づいて、前記視点から前記手術部位を示す前記間接3Dスキャンの第2の部分を決定することと、
(c)前記一組の3D画像データの前記第1の部分及び前記間接3Dスキャンの前記第2の部分を前記ディスプレイに同時に表示することと、を更に含む、請求項28に記載の方法。 - (a)ユーザからスキャン調整入力を受信することと、
(b)前記スキャン調整入力に基づいて、前記手術部位の前記間接3Dスキャンと前記一組のスキャン視点データとの前記関連付けを再構成することと、を更に含み、
(i)前記手術部位の前記間接3Dスキャンは、手術前に獲得された画像データを含み、
(ii)前記一組の3D画像データは、手術前に獲得された画像データを含む、請求項29に記載の方法。 - プロセッサ、メモリ、及びディスプレイを備える画像誘導手術(IGS)ナビゲーションシステムであって、前記プロセッサは、
(a)被追跡内視鏡によって生成された一組の画像データを受信することであって、前記一組の画像データは、1つ又は2つ以上の二次元(2D)画像を含む、受信することと、
(b)前記被追跡内視鏡によって生成された一組の視点データを受信することであって、前記一組の視点データは、前記一組の画像データの獲得中の前記被追跡内視鏡の位置を示す、受信することと、
(c)画像深度分析を行って、前記一組の画像データの一組の3D特性を決定することであって、前記一組の3D特性は、前記1つ又は2つ以上の2D画像の画素の深度を含む、決定することと、
(d)前記1つ又は2つ以上の2D画像及び前記一組の3D特性に基づいて、一組の3D画像データを作成することと、
(e)前記一組の視点データを前記一組の3D画像データと関連付けることと、
(f)選択された視点を含む前記一組の視点データに基づいて、前記選択された視点から前記一組の3D画像データを前記ディスプレイに表示させることと、行うように構成されている、IGSナビゲーションシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862741403P | 2018-10-04 | 2018-10-04 | |
US62/741,403 | 2018-10-04 | ||
US16/588,955 | 2019-09-30 | ||
US16/588,955 US11457981B2 (en) | 2018-10-04 | 2019-09-30 | Computerized tomography (CT) image correction using position and direction (P andD) tracking assisted optical visualization |
PCT/IB2019/058348 WO2020070647A1 (en) | 2018-10-04 | 2019-10-01 | Computerized tomography (ct) image correction using position and direction (p&d) tracking assisted optical visualization |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022504151A true JP2022504151A (ja) | 2022-01-13 |
JP7443353B2 JP7443353B2 (ja) | 2024-03-05 |
Family
ID=70050899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021518429A Active JP7443353B2 (ja) | 2018-10-04 | 2019-10-01 | 位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11457981B2 (ja) |
EP (1) | EP3860423B1 (ja) |
JP (1) | JP7443353B2 (ja) |
CN (1) | CN112867427A (ja) |
IL (1) | IL281915B1 (ja) |
WO (1) | WO2020070647A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024034995A1 (ko) * | 2022-08-12 | 2024-02-15 | 아주대학교산학협력단 | 수술 영상데이터를 녹화하는 방법 및 장치 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
US11172184B2 (en) | 2018-12-13 | 2021-11-09 | Covidien Lp | Systems and methods for imaging a patient |
US11801113B2 (en) * | 2018-12-13 | 2023-10-31 | Covidien Lp | Thoracic imaging, distance measuring, and notification system and method |
US11617493B2 (en) | 2018-12-13 | 2023-04-04 | Covidien Lp | Thoracic imaging, distance measuring, surgical awareness, and notification system and method |
US10955657B2 (en) * | 2018-12-20 | 2021-03-23 | Acclarent, Inc. | Endoscope with dual image sensors |
US20210287434A1 (en) * | 2020-03-16 | 2021-09-16 | Covidien Lp | System and methods for updating an anatomical 3d model |
US20220031400A1 (en) * | 2020-07-31 | 2022-02-03 | Biosense Webster (Israel) Ltd. | Systems and methods for tracking a surgical device |
US20220092805A1 (en) * | 2020-09-23 | 2022-03-24 | Smith & Nephew, Inc. | Optical caliper for 3-d endoscopic imaging and measurement |
CN215192193U (zh) * | 2020-12-31 | 2021-12-17 | 杭州堃博生物科技有限公司 | 体内导航装置、体内导航系统与医疗处理系统 |
JPWO2022202520A1 (ja) * | 2021-03-26 | 2022-09-29 | ||
CN114176779B (zh) * | 2021-12-31 | 2023-12-26 | 杭州三坛医疗科技有限公司 | 一种手术机器人导航定位方法及装置 |
WO2023187511A2 (en) | 2022-03-31 | 2023-10-05 | Acclarent, Inc. | Ent guide shaft with deflectable tip and distal endoscope cap |
US20240000420A1 (en) * | 2022-06-29 | 2024-01-04 | Biosense Webster (Israel) Ltd. | Systems and methods for cavity imaging in patient organ based on position of 4d ultrasound catheter |
WO2024008490A1 (en) * | 2022-07-07 | 2024-01-11 | Koninklijke Philips N.V. | Apparatus for tracing a catheter |
EP4360533A1 (en) * | 2022-10-24 | 2024-05-01 | Covidien LP | Surgical robotic system and method with multiple cameras |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011087357A1 (de) * | 2011-11-29 | 2013-05-29 | Karl Storz Gmbh & Co. Kg | Aktualisierung von präoperativ aufgenommenen 3D-Bilddaten eines Körpers |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5391199A (en) | 1993-07-20 | 1995-02-21 | Biosense, Inc. | Apparatus and method for treating cardiac arrhythmias |
US5558091A (en) | 1993-10-06 | 1996-09-24 | Biosense, Inc. | Magnetic determination of position and orientation |
US6690963B2 (en) | 1995-01-24 | 2004-02-10 | Biosense, Inc. | System for determining the location and orientation of an invasive medical instrument |
US6177792B1 (en) | 1996-03-26 | 2001-01-23 | Bisense, Inc. | Mutual induction correction for radiator coils of an objects tracking system |
US8821158B1 (en) | 1999-10-14 | 2014-09-02 | Geodigm Corporation | Method and apparatus for matching digital three-dimensional dental models with digital three-dimensional cranio-facial CAT scan records |
US6172499B1 (en) | 1999-10-29 | 2001-01-09 | Ascension Technology Corporation | Eddy current error-reduced AC magnetic position measurement system |
US7720521B2 (en) | 2004-04-21 | 2010-05-18 | Acclarent, Inc. | Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses |
US20070208252A1 (en) | 2004-04-21 | 2007-09-06 | Acclarent, Inc. | Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses |
US20070161854A1 (en) * | 2005-10-26 | 2007-07-12 | Moshe Alamaro | System and method for endoscopic measurement and mapping of internal organs, tumors and other objects |
WO2008079301A2 (en) * | 2006-12-21 | 2008-07-03 | Massachusetts Institute Of Technology | Methods and apparatus for 3d surface imaging using active wave-front sampling |
US8199988B2 (en) | 2008-05-16 | 2012-06-12 | Geodigm Corporation | Method and apparatus for combining 3D dental scans with other 3D data sets |
US9330490B2 (en) * | 2011-04-29 | 2016-05-03 | University Health Network | Methods and systems for visualization of 3D parametric data during 2D imaging |
CN103765239B (zh) | 2011-07-01 | 2017-04-19 | 皇家飞利浦有限公司 | 用于图像引导的介入的术中图像校正 |
US9028424B2 (en) * | 2011-12-02 | 2015-05-12 | Interscope, Inc. | Endoscope including a torque generation component or torque delivery component disposed within an insertable portion of the endoscope and a surgical cutting assembly insertable within the endoscope |
US9108318B2 (en) * | 2012-02-15 | 2015-08-18 | Intuitive Surgical Operations, Inc. | Switching control of an instrument to an input device upon the instrument entering a display area viewable by an operator of the input device |
JP6150583B2 (ja) | 2013-03-27 | 2017-06-21 | オリンパス株式会社 | 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法 |
JP6270026B2 (ja) | 2013-12-05 | 2018-01-31 | 国立大学法人名古屋大学 | 内視鏡観察支援装置 |
US10463242B2 (en) | 2014-07-09 | 2019-11-05 | Acclarent, Inc. | Guidewire navigation for sinuplasty |
US10849483B2 (en) * | 2014-09-15 | 2020-12-01 | Vivid Medical, Inc. | Single-use, port deployable articulating endoscope |
US20170084036A1 (en) * | 2015-09-21 | 2017-03-23 | Siemens Aktiengesellschaft | Registration of video camera with medical imaging |
US10299699B2 (en) | 2016-11-28 | 2019-05-28 | Biosense Webster (Israel) Ltd. | Computerized tomography image correction |
US10561370B2 (en) | 2017-04-26 | 2020-02-18 | Accalrent, Inc. | Apparatus to secure field generating device to chair |
US11027105B2 (en) | 2017-07-13 | 2021-06-08 | Biosense Webster (Israel) Ltd. | Adjustable instrument for dilation of anatomical passageway |
-
2019
- 2019-09-30 US US16/588,955 patent/US11457981B2/en active Active
- 2019-10-01 WO PCT/IB2019/058348 patent/WO2020070647A1/en unknown
- 2019-10-01 EP EP19782752.0A patent/EP3860423B1/en active Active
- 2019-10-01 IL IL281915A patent/IL281915B1/en unknown
- 2019-10-01 CN CN201980065108.XA patent/CN112867427A/zh active Pending
- 2019-10-01 JP JP2021518429A patent/JP7443353B2/ja active Active
-
2022
- 2022-08-05 US US17/881,755 patent/US11800970B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011087357A1 (de) * | 2011-11-29 | 2013-05-29 | Karl Storz Gmbh & Co. Kg | Aktualisierung von präoperativ aufgenommenen 3D-Bilddaten eines Körpers |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024034995A1 (ko) * | 2022-08-12 | 2024-02-15 | 아주대학교산학협력단 | 수술 영상데이터를 녹화하는 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20200107886A1 (en) | 2020-04-09 |
WO2020070647A1 (en) | 2020-04-09 |
IL281915A (en) | 2021-05-31 |
EP3860423A1 (en) | 2021-08-11 |
EP3860423B1 (en) | 2023-12-20 |
IL281915B1 (en) | 2024-01-01 |
US11457981B2 (en) | 2022-10-04 |
JP7443353B2 (ja) | 2024-03-05 |
US11800970B2 (en) | 2023-10-31 |
CN112867427A (zh) | 2021-05-28 |
US20230023881A1 (en) | 2023-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7443353B2 (ja) | 位置及び方向(p&d)追跡支援の光学的視覚化を使用したコンピュータ断層撮影(ct)画像の補正 | |
US11026747B2 (en) | Endoscopic view of invasive procedures in narrow passages | |
JP2022512420A (ja) | センサベースのナビゲーションと内視鏡検査との組み合わせを用いた外科用システム | |
US10543045B2 (en) | System and method for providing a contour video with a 3D surface in a medical navigation system | |
US6019724A (en) | Method for ultrasound guidance during clinical procedures | |
EP3666218A1 (en) | Systems for imaging a patient | |
CN111419152A (zh) | 增强视差的内镜成像 | |
US20160015469A1 (en) | Surgical tissue recognition and navigation apparatus and method | |
US20050054895A1 (en) | Method for using variable direction of view endoscopy in conjunction with image guided surgical systems | |
US20110230710A1 (en) | Method For Using Variable Direction Of View Endoscopy In Conjunction With Image Guided Surgical Systems | |
WO1996025881A1 (en) | Method for ultrasound guidance during clinical procedures | |
WO2005092198A1 (en) | System for guiding a medical instrument in a patient body | |
CN110709894A (zh) | 用于增强深度感知的虚拟阴影 | |
WO2007115825A1 (en) | Registration-free augmentation device and method | |
CN112741692A (zh) | 实现将器件导航至目标组织位置的快速导航方法及系统 | |
CN114727848A (zh) | 用于ent规程的可视化系统和方法 | |
JP2021525609A (ja) | 一体型ナビゲーションセンサを有する内視鏡 | |
Hummel et al. | 2D/3D registration of endoscopic ultrasound to CT volume data | |
WO2015091226A1 (en) | Laparoscopic view extended with x-ray vision | |
JP6952740B2 (ja) | ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム | |
JP2022508801A (ja) | フライスルーカメラ配置のリアルタイム更新のための方法及びシステム | |
EP3666166A1 (en) | System and method for generating a three-dimensional model of a surgical site | |
Liu et al. | Augmented Reality in Image-Guided Robotic Surgery | |
WO2023161848A1 (en) | Three-dimensional reconstruction of an instrument and procedure site | |
Keil et al. | A real-time online video overlay navigation system for minimally invasive laparoscopic tumor resection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7443353 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |