CN107016662A - 向ct图像中局部施加透明性 - Google Patents
向ct图像中局部施加透明性 Download PDFInfo
- Publication number
- CN107016662A CN107016662A CN201611030502.4A CN201611030502A CN107016662A CN 107016662 A CN107016662 A CN 107016662A CN 201611030502 A CN201611030502 A CN 201611030502A CN 107016662 A CN107016662 A CN 107016662A
- Authority
- CN
- China
- Prior art keywords
- expression
- region
- plane
- boundary plane
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 39
- 230000036651 mood Effects 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims abstract description 20
- 238000002591 computed tomography Methods 0.000 claims description 26
- 210000003695 paranasal sinus Anatomy 0.000 claims description 12
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 6
- 210000001331 nose Anatomy 0.000 claims description 4
- 238000002600 positron emission tomography Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000002603 single-photon emission computed tomography Methods 0.000 claims 1
- 238000007689 inspection Methods 0.000 description 53
- 210000003128 head Anatomy 0.000 description 14
- 238000001356 surgical procedure Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000003325 tomography Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/24—Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
- A61B6/469—Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5252—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/008—Cut plane or projection plane definition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Pulmonology (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Robotics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本发明题为向CT图像中局部施加透明性。本发明公开了一种方法,所述方法包括:接收关于活体受检者的身体的三维断层成像数据,并且使用所述数据产生所述身体的外表面的表示并将所述表示显示在屏幕上。所述方法还包括将侵入式器械插入所述身体的区域中,并识别所述器械在所述身体中的位置。所述方法还包括在所显示的表示中致使包围所述器械的所识别位置的所述外表面的区域局部透明,以便使所识别位置附近的所述身体的内部结构在所述屏幕上可见。
Description
技术领域
本发明整体涉及图像呈现,并且具体地讲,涉及用于侵入式医疗程序的图像呈现。
背景技术
断层成像系统,诸如磁共振成像(MRI)和X射线计算机断层成像(CT)的面世已使得医师能够执行侵入式程序,以使得接受程序的受检者的内部元素可视化。
断层成像系统为医师提供三维图像,并且是针对先前可用的简单X射线系统的显著改进。然而,由断层成像数据产生的受检者内部结构的图像在一些情况下可为医师提供过多的视觉信息,因此需要对所呈现的视觉信息进行限制。
以引用方式并入本专利申请的文献将视为本专利申请的整体部分,不同的是如果在这些并入的文献中定义的任何术语与在本说明书中明确或隐含地给出的定义在某种程度上相冲突,则应只考虑本说明书中的定义。
发明内容
本发明的一个实施方案提供一种方法,该方法包括,
接收关于活体受检者的身体的三维断层成像数据;
使用该数据产生身体的外表面的表示,并在屏幕上显示该表示;
将侵入式器械插入身体的区域中,并识别该器械在身体中的位置;以及
在所显示的表示中致使包围器械的所识别位置的外表面的区域局部透明,以便使所识别位置附近的身体的内部结构在屏幕上可见。
通常,断层成像数据来源于以下各项中的至少一项:使用X射线的计算机断层成像、磁共振成像、正电子发射断层成像、单光子发射计算机断层成像以及超声波断层成像。
在所公开的实施方案中,侵入式器械包括传感器,该传感器被配置成响应于横贯该传感器的磁场而产生信号,并且其中识别器械的位置包括使用信号来识别位置。
该方法可包括将表示侵入式器械的图标并入所显示的表示中。除此之外或作为另外一种选择,该方法可包括将表示的成像参照系与跟踪器械的位置中使用的跟踪参照系配准。
在另一个公开的实施方案中,该方法包括相对于器械的所识别位置限定边界平面,其中该外表面区域位于边界平面的第一侧上,并且其中变得可见的内部结构位于边界平面中与第一侧相对的第二侧上。
该方法可包括在边界平面内限定包围所识别位置的边界区域,以使得外部区域的区域和变得可见的内部结构在正交投影到边界平面时位于边界区域内。通常,外表面的表示包括外部在图像平面上的投影,并且其中边界平面平行于图像平面。作为另外一种选择,外表面的表示包括外表面在图像平面上的投影,并且其中边界平面不平行于图像平面。
边界平面可包含器械的所识别位置。作为另外一种选择,边界平面可不包含器械的所识别位置。
断层成像数据可包括来源于活体受检者的身体的X射线的计算机断层成像(CT)数据,并且在所显示的表示中可致使具有X射线的低衰减的身体的内部结构的区域透明。
在又一个公开的实施方案中,所显示的表示中的内部结构包括来源于断层成像数据的未分割图像。
在一个可供选择的实施方案中,身体的区域包括活体受检者的鼻窦。侵入式器械可以是插入鼻窦中的导丝。
根据本发明的一个实施方案,还提供了一种设备,该设备包括:
侵入式器械,该侵入式器械被配置成插入活体受检者的身体的区域中;
屏幕,该屏幕被配置成显示身体的外表面的表示;以及
处理器,该处理器被配置成:
接收关于身体的三维断层成像数据,
使用数据产生外表面的表示,
识别器械在身体中的位置,以及
在所显示的表示中致使包围器械的所识别位置的外表面的区域局部透明,以便使所识别位置附近的身体的内部结构在屏幕上可见。
结合附图,根据下文对本公开的实施方案的详细说明,将更全面地理解本公开,其中:
附图说明
图1是根据本发明的一个实施方案的鼻窦外科手术系统的示意图;
图2是根据本发明的一个实施方案利用图1的系统进行外科手术的受检者头部的示意图;
图3是根据本发明的一个实施方案的系统的操作中所实施步骤的流程图;
图4示意性地示出了根据本发明的一个实施方案显示在系统屏幕上的图像;
图5示意性地示出了根据本发明的一个实施方案的边界平面和边界区域;
图6示意性地示出了根据本发明的一个实施方案在致使图像元素局部透明之后显示在屏幕上的图像;以及
图7示意性地示出了根据本发明的可供选择的实施方案显示在屏幕上的图像。
具体实施方式
综述
在活体受检者的身体上进行侵入式医疗程序(尤其是微创手术)期间,对于执行该程序的医师而言,接受程序的内部元素或该元素附近的内部元素通常是不可见的。虽然可跟踪程序中使用的侵入式器械,并叠加受检者的图像,但是医师可能难以解读这种合成图像,通常尤其是因为合成图像中可能呈现相对大量的视觉信息。
本发明的实施方案提供了这一问题的解决方案。由操作系统的处理器接收受检者身体的三维断层成像数据,该系统被配置成识别程序中所用侵入式器械的位置。可在执行实际程序之前一段时间内(甚至可能几天内)接收断层成像数据。数据用于产生身体的外表面(通常靠近受检者皮肤)的表示,并将该表示显示在屏幕上。
在程序期间,医师将侵入式器械(诸如导丝)插入受检者的身体区域中。处理器操作器械跟踪系统,诸如跟踪器械中的磁传感器的磁跟踪系统,以识别器械在受检者身体内的位置。
处理器描绘出所识别位置周围的外表面的区域,并在表面的所显示表示中致使该区域局部透明。被致使局部透明的区域可根据外表面的观察者的位置来选择。通常,该区域平行于其上成像外表面的屏幕,以使得该屏幕用作观察者的“虚拟相机”。致使该区域局部透明使得所识别位置附近的身体内部结构在屏幕上可见。该内部结构之前被外表面遮蔽。
通常,变得局部透明的区域的尺寸可由医师调节。作为另外一种选择或除此之外,可预先设定尺寸,以使得处理器至少部分自动地描绘出该区域。
通过显示身体的内部结构,但将所显示区域限制到侵入式器械的位置周围的区域,本发明的实施方案在不产生视觉“过载”的情况下向医师提供有用信息。
系统描述
现在参考图1,其为根据本发明的一个实施方案的鼻窦外科手术系统20的示意图,并参考图2,其为根据本发明的一个实施方案利用该系统进行外科手术的受检者22头部的示意图。在医疗程序期间,系统20通常用于受检者22的鼻窦上。进行该程序之前,通常通过将一组磁场发生器24并入夹持到受检者头部的框架26中来将该发生器固定到受检者头部。如下文所解释,场发生器使得能够跟踪插入受检者(假定受检者具有外表面34)鼻窦中的器械28的位置。
在下文描述中,除非另外指明,否则为清楚起见,假定器械28包括在其远侧端部32中具有线圈30的导丝,该导丝在鼻窦扩张程序(sinuplasty procedure)之前被插入鼻窦中。线圈30用作跟踪传感器,并且下文进一步描述一种使用线圈跟踪的方法。作为另外一种选择,另一种类型的传感器诸如霍尔器件(Hall device)可用于取代线圈30。转让给本发明受让人的美国专利申请14/792,823中描述了与导丝28类似的导丝,该专利申请以引用的方式并入本文。然而,对于器械不是被插入和跟踪的导丝的情况,本领域的普通技术人员将能够加以必要的变更修改该描述。
包括发生器24的系统20的元件可由系统处理器40控制,该系统处理器包括与一个或多个存储器通信的处理单元。处理器40可安装于控制台50中,该控制台包括操作控制件51,该操作控制件通常包括键盘和/或指向装置,诸如鼠标或轨迹球。控制台50还连接到系统20的其他元件,诸如导丝28的近侧端部52。医师54在执行程序的同时使用操作控制件与处理器交互,并且处理器可将由系统20产生的结果呈现在屏幕56上。通常,来源于结果的不同图像可呈现在屏幕56上。下文进一步描述可被呈现的图像的更多细节。
处理器40使用存储在所述处理器的存储器中的软件来操作系统20。例如,软件可以电子形式通过网络下载到处理器40,或者作为另外一种选择或除此之外,软件可被提供和/或存储在非临时性有形介质(诸如磁存储器、光学存储器、或电子存储器)上。
处理器40尤其使用软件来操作和校准磁发生器24。操作该发生器以便将不同频率的交变磁场发射到接近框架26的区域中。在放置到受检者体内之前,可通过将线圈定位在区域中相对于框架已知的位置和取向来校准框架中的发生器。通过交变磁场在线圈中诱导信号,并且处理器获取和记录该信号。(由Biosense Webster,Diamond Bar,CA生产的系统使用类似于本文所述的系统的系统来寻找线圈在被磁场辐照的区域中的位置和取向。)然后,处理器将线圈的位置和取向与这些位置和取向的记录信号之间的校准关系公式化。应当理解,处理器40可使用校准关系来跟踪线圈30以及由此导丝28的远侧端部32的位置和取向。
一旦校准关系被公式化,就可将框架放置于受检者头部上。放置之后,将框架固定在合适的位置,并且例如通过利用附接框架从多个不同角度对受检者的头部成像来与受检者头部的外部特征配准。框架配准还使磁场发生器与受检者的外部特征配准。作为另外一种选择或除此之外,配准可包括相对于受检者的外部特征以及框架将线圈放置在一个或多个已知位置和取向上。
关于与受检者的外部特征配准,该配准通常包括使用通常在上文所提及的投影的鼻窦扩张程序之前获取的头部图像与受检者的鼻窦配准。因此,框架26与受检者的鼻窦以及受检者的外部特征配准。所使用的图像形成于从受检者接收的断层成像数据,并且断层成像数据可来源于断层成像程序,所述断层成像程序包括但不限于使用X射线的计算机断层成像(CT)、MRI(磁共振成像)、正电子发射断层成像(PET)、单光子发射计算机断层成像(SPECT)或超声波断层成像。虽然作为另外一种选择或除此之外,图像可包括这类图像的组合,在下文描述中,为简单起见,假定图像来源于CT数据,并且本领域的普通技术人员将能够针对来源于其他断层成像数据的图像改变描述。
上文描述的配准确保相应地由发生器24、受检者头部的特征和CT图像限定的单独的参照系被一起配准,以使得在提及来源于所有三个实体的元件时有效地存在可使用的一个公共参照系64。举例来说,在本说明书中,假定参照系64由受检者22的矢状平面和冠状平面限定,平面的交叉限定y轴的方向,本文假定为相对于受检者向上的方向;x轴的方向正交于y轴,位于冠状平面中且朝向受检者的左侧;并且z-轴的方向正交于x轴和y轴且位于受检者前方。
所提及的CT图像来源于一组体素,每个体素包括有序三元组,该有序三元组表示体素在诸如可由参照系64限定的三维(3D)空间中的位置。每个体素还包括表示体素特征(通常为其对X射线的衰减作用)的值。体素组通常通过将不同的灰度级分配至每个体素的衰减值用来产生CT图像。如本领域已知的,衰减值通常以亨氏单位(HU)测量,其中空气对应于实质上无X射线衰减为-1000HU,并且密质骨对应于高X射线衰减为大约+3000HU。医疗环境中使用的典型灰度级CT图像将值为-1000HU的体素呈现为黑色,并且将值为+3000的体素呈现为白色。
图3是根据本发明的一个实施方案的系统20的操作中所实施步骤的流程图,并且图4至图7示出步骤。流程图描述了在屏幕56上向医师54呈现由医师执行的鼻窦外科手术过程图像的方法。
在初始步骤100中,通过计算机断层成像(CT)扫描受检者22的头部,并由处理器40获取来自扫描的CT数据。可独立于流程图中对应于鼻窦外科手术过程的其余步骤的实施来对受检者22执行CT扫描。通常,可在程序的以下外科手术步骤之前几天执行步骤100。
在第一外科手术步骤102(其通常在受检者22被麻醉之后执行)中,通常通过将框架26夹持到受检者头部来相对于受检者22的头部固定地安装磁发生器24。然后操作发生器,并且在配准步骤104中,将发生器的跟踪参照系与受检者头部的参照系配准。配准通常如同上文所述,即,通过从不同角度对受检者的头部成像和/或通过相对于受检者的外部特征以及固持发生器的框架将线圈放置在一个或多个已知位置和取向上。配准产生公共参照系,本文假定为包括参照系64。
在初始显示步骤106中,处理器40使用步骤100中接收的CT数据来产生受检者外表面34的表示150,在本文中又称为图像150,并在屏幕56上显示该图像。图4示意性地示出了显示在屏幕56上的图像150。假定图像150形成在平行于受检者的冠状平面(即平行于参照系64的xy平面)的平面上,图4中还绘制了该参照系的多个轴。
在器械操作步骤108中,医师例如通过靠近受检者的鼻孔定位器械的远侧尖端而将器械28带到受检者的鼻窦附近。响应于来自发生器24的磁场,线圈30向处理器40提供信号,这使得处理器能够确定线圈以及由此导丝28的远侧尖端32的位置和取向。如图4所示,处理器使用远侧尖端的位置和取向将图标152叠加到图像150上,该图标具有表示远侧尖端位置和取向的位置和取向。
在一些实施方案中,医师54可在该阶段视觉验证步骤104的配准,并且如果必要,则使用控制件51对配准作出调节。可由观察远侧尖端32相对于受检者鼻孔的放置的医师来进行验证,并确认图标152的表示相对于图像150可视为正确的。如果该表示不能视为正确的,那么医师可使用控制件51以相对于图像150手动调节图标152,并且处理器40可将所作的调节并入发生器24的参照系与图像150的配准中。
在侵入步骤110中,医师将器械28插入受检者的鼻孔中,以使得器械远侧尖端不再对医师可见。处理器40继续跟踪远侧尖端,并移动图标152,以使得远侧尖端的跟踪的位置和取向由图像150中的图标的位置和取向表示。
在一些实施方案中,器械28的表示也被并入到图像150中。如果器械28是刚性的,那么该表示可来源于线圈30与器械的几何关系,所利用的方法是本领域已知的。如果器械28是柔性的,那么该表示可使用安装到器械中的另外的跟踪线圈(大体类似于线圈30)来产生。作为另外一种选择,可记录线圈30的位置,并且可将器械的表示假定为对应于记录的轨迹。
图5示意性地示出了边界平面160和边界区域170。远侧尖端32的位置用于描绘图像150的将被致使透明的区域,以及将被“保持原状”的区域。为了进行描绘,远侧尖端的位置用于限定边界平面160以及包围远侧尖端且处于边界平面中的边界区域170。如下文所述,处理器40使用边界平面和边界区域来确定图像150的哪些元素将被致使局部透明,以及哪些元素将不如此被致使。
在一个实施方案中,边界平面160是经过远侧尖端32的位置的平面,并且边界平面的方向可由处理器40自动设定。作为另外一种选择或除此之外,边界平面的方向和/或位置可由医师54使用控制件51来设定。为清楚起见,下文描述中假定边界平面和远侧尖端的位置根据参照系64限定,该参照系假定其原点位于受检者22。假定远侧尖端具有正的z值zbp,并且举例来说,假定边界平面160平行于参照系64的xy平面,即平行于受检者的冠状平面,并且经过远侧尖端的位置,如图5示意性所示。由于边界平面160经过远侧尖端的位置,边界平面的等式为:
z=zbp (1)
边界区域170还可由处理器40自动设定和/或至少部分地由医师54手动设定。边界区域170可以是边界平面中具有周长172且包围远侧尖端32的位置的任何封闭区域。为简单起见,在下文描述中,假定区域170是圆形的,其中心位于远侧尖端的位置处并且其半径由医师54设定,但是本领域的普通技术人员将能够针对包围远侧尖端的位置的任何规则的或不规则的封闭区域改变描述。
处理器40确定图像150中具有z≥zbp的值并且在沿z轴投影时位于区域170内的元素。然后处理器致使该元素透明,因此以使得这些元素在图像150中变得不再可见。例如,在图5中,受检者22的鼻尖176具有z≥zbp的值,因此,受检者鼻尖附近的虚线180示出了外表面34中在图像150中变得不再可见的部分。
由于上文限定的元素被致使透明,图像150中具有z<zbp的值且在沿z轴投影时位于区域170内的元素现在是可见的,因此显示在图像中。在致使局部透明之前,“现在可见的”元素是不可见的,因为它们被表面元素遮蔽。
图6示意性地示出了致使位于区域170内的图像的元素局部透明之后显示在屏幕56上的图像150。为清楚起见,对应于周长172(图5)的虚线圆172A叠加在图像上,并且图中还绘制了参照系64。由于致使圆172A内的元素透明,圆内的区域190现在示出了受检者22的内部结构,该内部结构来源于步骤100中接收的CT断层成像数据。
应当了解,在图6所示的情况下,屏幕56处于xy平面,以使得屏幕用作观察者沿z轴朝向图像150观察的“虚拟相机”。
以上描述提供了向来源于断层成像数据的图像施加局部透明性的一个实施例,该图像在此情况下形成在平行于受检者的冠状平面的平面上。应当理解,由于断层成像数据的三维性质,可操纵该数据以使得本发明的实施方案可使用形成于贯穿受检者22的基本上任何平面上并且可限定在参照系64中的图像。
图7示意性地示出了根据本发明的可供选择的实施方案显示在屏幕56上的图像150。在图7中,假定使用平行于受检者22的矢状平面(即参照系64的yz平面)的边界平面来形成图像150。假定yz平面的位置对应于远侧尖端32的x值,本文中称为xbp,以使得边界平面的等式通过以下等式(2)给出:
x=xbp (2)
针对上文参考图5和图6描述的实施例,为简单起见且举例来说,假定包围远侧尖端且位于边界平面上的边界区域是圆形的,其中心位于远侧尖端32的位置处并且半径由医师54设定。在图7中,虚线圆172B(图标152位于其中心)对应于边界区域的周长。
对于图7所示的实施方案,处理器40确定图像150中具有x≥xbp的值且在沿x轴投影时位于边界区域内的元素。然后处理器致使这些元素透明,以使得它们在图像150中变得不再可见。由于被致使局部透明,图像150中位于圆172B内具有x<xbp的值且在沿x轴投影时位于边界区域内的元素194现在在图像150中是可见的。
在图7中,与图6相对比,屏幕56现在处于yz平面,并且屏幕用作观察者沿x轴朝向图像150观察的虚拟相机。
应当理解,一般而言,对于任何给定的边界平面和边界区域,处理器确定图像150中高于该平面且在正交投影到边界平面上时位于边界区域内的元素。处理器致使这些元素透明,以使得低于该平面且正交投影到边界平面上的元素在图像150中变得可见。
还应当理解,图6和图7仅示出了本发明实施方案的两个实施例,并且对于本领域的普通技术人员而言,其他实施方案将是显而易见的。下文呈现了一些实施例。
平面可高于或低于远侧尖端,而不是上文所述器械远侧尖端的位置位于边界平面上。在一些实施方案中,通常在由医师执行程序的过程中,可由医师54改变平面与远侧尖端之间的距离,从而使得医师能够观察到受检者22的所需内部结构的图像,上文列举的那些除外。
可改变边界区域的尺寸,以使得医师还能够观察内部结构的其他所需图像。
医师可改变边界平面的方向,例如以增强特定内部结构的可见度。虽然边界平面通常平行于呈现在屏幕56上的图像的平面,但这并不是必需的,以使得如果例如医师想要看见特定结构的更多细节,她/他可旋转边界平面,以使该边界平面不再平行于图像平面。
在CT图像的情况下,如上所述通过施加局部透明性变得可见的受检者22的内部结构基于具有测量的衰减值的CT体素数据。虽然内部结构图像通常利用由屏幕56上的黑色或白色不透明像素表示的低衰减体素(例如用于空气的那些体素)来产生,但是在本发明的一些实施方案中,致使内部结构的低衰减体素的像素透明。致使对应于低衰减体素的像素透明使得被这些体素遮蔽的内部结构变得可见。因此,由于低衰减体素通常对应于空气(其对于可见光而言是透明的),使得通常被体素遮蔽的结构变得可见,这为图像150提供了更为逼真的显示。
断层成像数据的一些显示使用分割以便使所产生的图像更具意义。然而,本发明人已经观察到这种分割可产生混乱或者甚至是不正确的图像。因此,在本发明的一些实施方案中,来源于断层成像数据的未分割的“原始”图像(包括受检者的外表面和内部结构的图像)而不是分割图像显示在屏幕56上。
虽然以上描述提及导丝的一个远侧尖端和相关联的局部透明区域,但是本领域的普通技术人员将能够改变描述以覆盖除导丝之外的工具的情况,以及同时跟踪多个工具的情况,所述工具中的每一者均具有相应的局部透明区域。
因此,应当理解,上文所述的实施方案以举例的方式引用,并且本发明不限于上文已具体示出和描述的内容。相反,本发明的范围包括上述各种特征的组合和子组合以及它们的变型和修改,本领域的技术人员在阅读上述说明时将会想到所述变型和修改,并且所述变型和修改并未在现有技术中公开。
Claims (30)
1.一种方法,所述方法包括:
接收关于活体受检者的身体的三维断层成像数据;
使用所述数据产生所述身体的外表面的表示,并在屏幕上显示所述表示;
将侵入式器械插入所述身体的区域中,并识别所述器械在所述身体中的位置;以及
在所显示的表示中致使包围所述器械的所识别位置的所述外表面的区域局部透明,以便使所识别位置附近的所述身体的内部结构在所述屏幕上可见。
2.根据权利要求1所述的方法,其中所述断层成像数据来源于以下各项中的至少一项:使用X射线的计算机断层成像、磁共振成像、正电子发射断层成像、单光子发射计算机断层成像以及超声波断层成像。
3.根据权利要求1所述的方法,其中所述侵入式器械包括传感器,所述传感器被配置成响应于横贯所述传感器的磁场而产生信号,并且其中识别所述器械的所述位置包括使用所述信号来识别所述位置。
4.根据权利要求1所述的方法,所述方法包括将表示所述侵入式器械的图标并入所显示的表示中。
5.根据权利要求1所述的方法,所述方法包括将所述表示的成像参照系与跟踪所述器械的所述位置中使用的跟踪参照系配准。
6.根据权利要求1所述的方法,所述方法包括相对于所述器械的所识别位置限定边界平面,其中所述外表面的区域位于所述边界平面的第一侧上,并且其中变得可见的内部结构位于所述边界平面中与所述第一侧相对的第二侧上。
7.根据权利要求6所述的方法,所述方法包括在所述边界平面内限定包围所识别位置的边界区域,以使得所述外部区域的区域和所述变得可见的内部结构在正交投影到所述边界平面时位于所述边界区域内。
8.根据权利要求6所述的方法,其中所述外表面的所述表示包括所述外部在图像平面上的投影,并且其中所述边界平面平行于所述图像平面。
9.根据权利要求6所述的方法,其中所述外表面的所述表示包括所述外表面在图像平面上的投影,并且其中所述边界平面不平行于所述图像平面。
10.根据权利要求6所述的方法,其中所述边界平面包含所述器械的所识别位置。
11.根据权利要求6所述的方法,其中所述边界平面不包含所述器械的所识别位置。
12.根据权利要求1所述的方法,其中所述断层成像数据包括来源于所述活体受检者的所述身体的X射线的计算机断层成像(CT)数据,并且其中在所显示的表示中致使具有所述X射线的低衰减的所述身体的所述内部结构的区域透明。
13.根据权利要求1所述的方法,其中所显示的表示中的所述内部结构包括来源于所述断层成像数据的未分割图像。
14.根据权利要求1所述的方法,其中所述身体的所述区域包括所述活体受检者的鼻窦。
15.根据权利要求14所述的方法,其中所述侵入式器械包括插入所述鼻窦中的导丝。
16.设备,所述设备包括:
侵入式器械,所述侵入式器械被配置成插入活体受检者的身体的区域中;
屏幕,所述屏幕被配置成显示所述身体的外表面的表示;以及
处理器,所述处理器被配置成:
接收关于所述身体的三维断层成像数据,
使用所述数据产生所述外表面的所述表示,
识别所述器械在所述身体中的位置,以及
在所显示的表示中致使包围所述器械的所识别位置的所述外表面的区域局部透明,以便使所识别位置附近的所述身体的内部结构在所述屏幕上可见。
17.根据权利要求16所述的设备,其中所述断层成像数据来源于以下各项中的至少一项:使用X射线的计算机断层成像、磁共振成像、正电子发射断层成像、单光子发射计算机断层成像以及超声波断层成像。
18.根据权利要求16所述的设备,其中所述侵入式器械包括传感器,所述传感器被配置成响应于横贯所述传感器的磁场而产生信号,并且其中识别所述器械的所述位置包括使用所述信号来识别所述位置。
19.根据权利要求16所述的设备,其中所述处理器被配置成将表示所述侵入式器械的图标并入所显示的表示中。
20.根据权利要求16所述的设备,其中所述处理器被配置成将所述表示的成像参照系与跟踪所述器械的所述位置中使用的跟踪参照系配准。
21.根据权利要求16所述的设备,其中所述处理器被配置成相对于所述器械的所识别位置限定边界平面,其中所述外表面的区域位于所述边界平面的第一侧上,并且其中变得可见的内部结构位于所述边界平面中与所述第一侧相对的第二侧上。
22.根据权利要求21所述的设备,其中所述处理器被配置成在所述边界平面内限定包围所识别位置的边界区域,以使得所述外部区域的区域和所述变得可见的内部结构在正交投影到所述边界平面时位于所述边界区域内。
23.根据权利要求21所述的设备,其中所述外表面的所述表示包括所述外表面在图像平面上的投影,并且其中所述边界平面平行于所述图像平面。
24.根据权利要求21所述的设备,其中所述外表面的所述表示包括所述外表面在图像平面上的投影,并且其中所述边界平面不平行于所述图像平面。
25.根据权利要求21所述的设备,其中所述边界平面包含所述器械的所识别位置。
26.根据权利要求21所述的设备,其中所述边界平面不包含所述器械的所识别位置。
27.根据权利要求16所述的设备,其中所述断层成像数据包括来源于所述活体受检者的所述身体的X射线的计算机断层成像(CT)数据,并且其中在所显示的表示中致使具有所述X射线的低衰减的所述身体的所述内部结构的区域透明。
28.根据权利要求16所述的设备,其中所显示的表示中的所述内部结构包括来源于所述断层成像数据的未分割图像。
29.根据权利要求16所述的设备,其中所述身体的所述区域包括所述活体受检者的鼻窦。
30.根据权利要求29所述的设备,其中所述侵入式器械包括插入所述鼻窦中的导丝。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/942,455 US9947091B2 (en) | 2015-11-16 | 2015-11-16 | Locally applied transparency for a CT image |
US14/942455 | 2015-11-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107016662A true CN107016662A (zh) | 2017-08-04 |
CN107016662B CN107016662B (zh) | 2022-05-24 |
Family
ID=57345733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611030502.4A Active CN107016662B (zh) | 2015-11-16 | 2016-11-16 | 向ct图像中局部施加透明性 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9947091B2 (zh) |
EP (1) | EP3173023B1 (zh) |
JP (1) | JP7051286B2 (zh) |
KR (1) | KR20170057141A (zh) |
CN (1) | CN107016662B (zh) |
AU (1) | AU2016253613A1 (zh) |
CA (1) | CA2947873A1 (zh) |
IL (1) | IL248535B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111317562A (zh) * | 2018-12-13 | 2020-06-23 | 韦伯斯特生物官能(以色列)有限公司 | 身体部位的合成可视化 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6619456B2 (ja) * | 2016-01-14 | 2019-12-11 | オリンパス株式会社 | 医療用マニピュレータシステムおよび医療用マニピュレータシステムの作動方法 |
US11154363B1 (en) * | 2016-05-24 | 2021-10-26 | Paul A. Lovoi | Terminal guidance for improving the accuracy of the position and orientation of an object |
US11026747B2 (en) * | 2017-04-25 | 2021-06-08 | Biosense Webster (Israel) Ltd. | Endoscopic view of invasive procedures in narrow passages |
US10561370B2 (en) * | 2017-04-26 | 2020-02-18 | Accalrent, Inc. | Apparatus to secure field generating device to chair |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
US20190159843A1 (en) * | 2017-11-28 | 2019-05-30 | Biosense Webster (Israel) Ltd. | Low profile dual pad magnetic field location system with self tracking |
JP7235519B2 (ja) * | 2019-01-29 | 2023-03-08 | ザイオソフト株式会社 | 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5558091A (en) * | 1993-10-06 | 1996-09-24 | Biosense, Inc. | Magnetic determination of position and orientation |
US20030032878A1 (en) * | 1996-06-28 | 2003-02-13 | The Board Of Trustees Of The Leland Stanford Junior University | Method and apparatus for volumetric image navigation |
US7225012B1 (en) * | 2000-09-18 | 2007-05-29 | The Johns Hopkins University | Methods and systems for image-guided surgical interventions |
US20070197896A1 (en) * | 2005-12-09 | 2007-08-23 | Hansen Medical, Inc | Robotic catheter system and methods |
US20090262979A1 (en) * | 2008-04-18 | 2009-10-22 | Markowitz H Toby | Determining a Material Flow Characteristic in a Structure |
US20120253200A1 (en) * | 2009-11-19 | 2012-10-04 | The Johns Hopkins University | Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors |
CN103379853A (zh) * | 2010-12-23 | 2013-10-30 | 巴德阿克塞斯系统股份有限公司 | 用于引导医疗器械的系统和方法 |
CN104605855A (zh) * | 2008-02-29 | 2015-05-13 | 韦伯斯特生物官能公司 | 具有虚拟触摸屏的定位系统 |
CN105050525A (zh) * | 2013-03-15 | 2015-11-11 | 直观外科手术操作公司 | 用于跟踪介入器械的形状传感器系统以及使用方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3232612B2 (ja) * | 1992-01-10 | 2001-11-26 | 株式会社日立製作所 | 三次元画像情報提示方法 |
JP2002510230A (ja) * | 1997-06-27 | 2002-04-02 | ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ | 立体的画像ナビゲーション方法及び装置 |
US7006085B1 (en) * | 2000-10-30 | 2006-02-28 | Magic Earth, Inc. | System and method for analyzing and imaging three-dimensional volume data sets |
JP4171833B2 (ja) * | 2002-03-19 | 2008-10-29 | 国立大学法人東京工業大学 | 内視鏡誘導装置および方法 |
CN100445488C (zh) * | 2005-08-01 | 2008-12-24 | 邱则有 | 一种现浇砼成型用空腔构件 |
WO2008093517A1 (ja) * | 2007-01-31 | 2008-08-07 | National University Corporation Hamamatsu University School Of Medicine | 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム |
EP2294454B1 (en) * | 2008-06-04 | 2014-04-30 | Check-Cap Ltd. | Apparatus and method for imaging tissue |
US8690776B2 (en) * | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
US9301733B2 (en) * | 2012-12-31 | 2016-04-05 | General Electric Company | Systems and methods for ultrasound image rendering |
-
2015
- 2015-11-16 US US14/942,455 patent/US9947091B2/en active Active
-
2016
- 2016-10-26 IL IL248535A patent/IL248535B/en active IP Right Grant
- 2016-11-03 AU AU2016253613A patent/AU2016253613A1/en not_active Abandoned
- 2016-11-08 CA CA2947873A patent/CA2947873A1/en not_active Abandoned
- 2016-11-10 KR KR1020160149364A patent/KR20170057141A/ko unknown
- 2016-11-15 EP EP16198933.0A patent/EP3173023B1/en active Active
- 2016-11-15 JP JP2016222216A patent/JP7051286B2/ja active Active
- 2016-11-16 CN CN201611030502.4A patent/CN107016662B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5558091A (en) * | 1993-10-06 | 1996-09-24 | Biosense, Inc. | Magnetic determination of position and orientation |
US20030032878A1 (en) * | 1996-06-28 | 2003-02-13 | The Board Of Trustees Of The Leland Stanford Junior University | Method and apparatus for volumetric image navigation |
US7225012B1 (en) * | 2000-09-18 | 2007-05-29 | The Johns Hopkins University | Methods and systems for image-guided surgical interventions |
US20070197896A1 (en) * | 2005-12-09 | 2007-08-23 | Hansen Medical, Inc | Robotic catheter system and methods |
CN104605855A (zh) * | 2008-02-29 | 2015-05-13 | 韦伯斯特生物官能公司 | 具有虚拟触摸屏的定位系统 |
US20090262979A1 (en) * | 2008-04-18 | 2009-10-22 | Markowitz H Toby | Determining a Material Flow Characteristic in a Structure |
US20120253200A1 (en) * | 2009-11-19 | 2012-10-04 | The Johns Hopkins University | Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors |
CN103379853A (zh) * | 2010-12-23 | 2013-10-30 | 巴德阿克塞斯系统股份有限公司 | 用于引导医疗器械的系统和方法 |
CN105050525A (zh) * | 2013-03-15 | 2015-11-11 | 直观外科手术操作公司 | 用于跟踪介入器械的形状传感器系统以及使用方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111317562A (zh) * | 2018-12-13 | 2020-06-23 | 韦伯斯特生物官能(以色列)有限公司 | 身体部位的合成可视化 |
CN111317562B (zh) * | 2018-12-13 | 2024-06-11 | 韦伯斯特生物官能(以色列)有限公司 | 身体部位的合成可视化 |
Also Published As
Publication number | Publication date |
---|---|
IL248535B (en) | 2019-02-28 |
IL248535A0 (en) | 2017-01-31 |
US9947091B2 (en) | 2018-04-17 |
EP3173023B1 (en) | 2023-06-07 |
JP7051286B2 (ja) | 2022-04-11 |
CN107016662B (zh) | 2022-05-24 |
AU2016253613A1 (en) | 2017-06-01 |
KR20170057141A (ko) | 2017-05-24 |
US20170140527A1 (en) | 2017-05-18 |
EP3173023C0 (en) | 2023-06-07 |
JP2017086917A (ja) | 2017-05-25 |
CA2947873A1 (en) | 2017-05-16 |
EP3173023A1 (en) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107016662A (zh) | 向ct图像中局部施加透明性 | |
Montúfar et al. | Automatic 3-dimensional cephalometric landmarking based on active shape models in related projections | |
US5526812A (en) | Display system for enhancing visualization of body structures during medical procedures | |
Tran et al. | Augmented reality system for oral surgery using 3D auto stereoscopic visualization | |
EP3501398B1 (en) | Ent bone distance color coded face maps | |
WO2021130569A1 (en) | 2d pathfinder visualization | |
WO2021130572A1 (en) | 3d pathfinder visualization | |
EP3440988A1 (en) | Visualizing navigation of a medical device in a patient organ using a dummy device and a physical 3d model | |
CN110478042B (zh) | 一种基于人工智能技术的介入手术导航装置 | |
US11941765B2 (en) | Representation apparatus for displaying a graphical representation of an augmented reality | |
Hawkes et al. | Three-dimensional multimodal imaging in image-guided interventions | |
US20180150983A1 (en) | Visualization of Anatomical Cavities | |
US11132830B2 (en) | Static virtual camera positioning | |
US20220395328A1 (en) | Augmented reality-assisted method for performing surgery | |
US11653853B2 (en) | Visualization of distances to walls of anatomical cavities | |
DE102021206568A1 (de) | Darstellungsvorrichtung zur Anzeige einer graphischen Darstellung einer erweiterten Realität | |
Hawkes et al. | 3D multimodal imaging in image guided interventions | |
Manning et al. | Surgical navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |