CN113645896A - 手术计划、手术导航和成像用系统 - Google Patents

手术计划、手术导航和成像用系统 Download PDF

Info

Publication number
CN113645896A
CN113645896A CN202080026560.8A CN202080026560A CN113645896A CN 113645896 A CN113645896 A CN 113645896A CN 202080026560 A CN202080026560 A CN 202080026560A CN 113645896 A CN113645896 A CN 113645896A
Authority
CN
China
Prior art keywords
computer
implemented method
image
surgical
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080026560.8A
Other languages
English (en)
Inventor
寇志锋
钟毅
曾哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yingshi Medical Imaging Co ltd
Original Assignee
Yingshi Medical Imaging Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yingshi Medical Imaging Co ltd filed Critical Yingshi Medical Imaging Co ltd
Publication of CN113645896A publication Critical patent/CN113645896A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/56341Diffusion imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Abstract

一种用于对象中的位置的可调节的三维(3D)渲染的计算机实施的方法,其包括接收具有离散空间分辨率的用于对象中的白质束的图像数据的步骤,其中通过弥散成像来形成该图像数据。通过该图像数据在显示器上渲染出第一立体图像。该第一立体图像包括图像视差,其允许三维观看。接收来自指点设备或手势的允许在保持正确的三维空间关系的同时操纵第一立体图像的输入信号。指点设备在具有六个自由度的三维空间中与第一立体图像交互。

Description

手术计划、手术导航和成像用系统
相关申请的交叉引用
本申请要求2019年3月29日提交的美国临时申请第62/826,857号的权益,其公开内容在此通过引用整体并入本文。
技术领域
在至少一个方面中,本公开涉及医疗成像系统以及它们针对手术计划和手术导航的应用。
背景技术
使用诸如磁共振成像、CAT扫描和p的技术的医疗成像是一种重要的诊断工具。随着成像和计算机技术的发展,可以通过这些技术得到额外的诊断信息。
发明内容
在至少一个方面中,本发明提供了一种用于对象中的位置的可调节的三维(3D)渲染的计算机实施的方法。该计算机实施的方法包括接收具有离散空间分辨率的用于对象中的白质束的图像数据的步骤,其中通过弥散成像来形成该图像数据。通过该图像数据在显示器或一个或多个头戴式显示器上渲染出第一立体图像。该第一立体图像包括图像视差,其允许三维观看。接收来自指点设备或手势的允许在保持正确的三维空间关系的同时操纵第一立体图像的输入信号。指点设备在具有六个自由度的三维空间中与第一立体图像交互。
在另一个方面中,提供了一种用于对象中的位置的可调节的渲染的计算机实施的方法。该计算机实施的方法包括接收具有离散空间分辨率的用于对象中的位置的图像数据的步骤。通过该图像数据在显示器或一个或多个头戴式显示器上渲染出一个或多个立体图像,其中该立体图像包括图像视差。还在显示器上渲染出与第一立体图像中的预定切片对应的一个或多个二维图像。对立体图像进行更新,从而反映出对二维图像做出的更改。类似地,对二维图像进行更新,从而反映出对立体图像做出的更改。特有地,借助于在具有六个自由度的三维空间中与第一立体图像交互的指点设备对第一立体图像做出更改。
在另一个方面中,提供了一种用于辅助手术的可调节的三维(3D)渲染的计算机实施的方法。该计算机实施的方法包括接收具有离散空间分辨率的用于对象中的医疗图像的图像数据的步骤。通过该图像数据在显示器或一个或多个头戴式显示器上渲染出至少一个立体图像。该立体图像包括图像视差,以允许3D观看。接收来自探针的允许在立体图像中对该探针进行渲染的输入信号。该探针还允许在保持正确的三维空间关系的同时在三维空间中操纵立体图像。特有地,探针与第一立体图像在具有六个自由度的三维空间中交互。
在又一个方面中,还提供了一种用于实施本文阐述的计算机实施的方法的计算机成像系统。该计算机成像系统包括计算机处理组件和显示器。该计算机处理组件可操作性地执行所述计算机实施的方法的步骤。
在又一个方面中,通过本文的方法渲染出的立体图像可通过用于虚拟或增强现实或者立体显示的头戴式显示器和/或立体眼镜观看,该立体眼镜具有允许对该立体眼镜进行位置和取向追踪的基准点。
附图说明
图1是用于实施提供对象中的位置的可调节的三维(3D)渲染的方法的计算机系统的示意图。
图2提供了相对于图1的立体图像进行旋转的立体图像的渲染内容。
图3A、3B和3C表示用户对参考平面进行平移的渲染内容。
图4A和4B示出了对可进行突出显示、分割来形成可在体素层面上独立编辑的立体子图像的第一立体图像的子组件进行的选择。
图5A和5B表示在渲染出的立体图像上执行操作的追踪容器的使用。图5B示出了矩形盒体形式的定向容器的应用。
图6A和6B示出了在两个容器601、602被放置在图像上时的“AND”操作的结果。
图7A和7B示出了用于限定所示的“OR”操作的两个容器的组合动作。
图7C示出了“NOT”操作。
图8A表示容器被固定至第三参考平面的场景。
图8B表示容器被固定在三个参考平面的交点处的场景。
图9是表示出额外的容器对纤维70的部分进行删除的场景的示意图。
图10提供了用于实施提供对象中的位置的同时存在的可调节的二维视图和三维立体渲染的方法的成像系统的示意图。
图11提供了手术导航系统的示意图。
图12A提供了用于表示3D场景中的白质纤维可视化的工作流程的流程图。
图12B提供了具有结构成像数据的成像数据的视图。
图12C提供了表示通过提供具有坐标和颜色的管线来渲染纤维(线集)的流程图。
图13A提供了表示使用触控笔进行纤维追踪的视图。
图13B提供了渲染出的场景的层次转换。
图14示出了将结构和纤维数据都渲染到场景中的混合渲染的流程图。
图15示出了表示结构和纤维数据如何进行共同配准和共同渲染的程序的流程图。
具体实施方式
现在将详细地参考本发明的当前优选的实施方式和方法,它们构成了发明人当前已知的用于实现本发明的最佳方式。附图不一定按比例绘制。然而,应理解的是,所公开的实施方式仅仅是可以通过不同的和替代的形式实施的本发明的例子。因此,本文公开的特定的细节不应认为是限制性的,而仅仅是作为用于本发明的任何方面的代表性基础和/或用于教导本领域技术人员以各种方式使用本发明的代表性基础。
还应理解的是,本发明并非限制于下文所述的特定的实施方式和方法,因为特定的组件和/或情况必然可以发生变化。此外,本文使用的术语仅针对描述本发明的特定实施方式的目的进行使用,而并非是以任何方式进行限制。
还必须理解的是,在说明书和所附权利要求书中使用时,单数形式“一”、“该”、“所述”包括复数表示,除非上下文另有明确说明。例如,单数形式提及的组件应包括多个组件。
词语“包括”与“包含”、“具有”、“含有”、“或特征在于”同义。这些词语是包含性的和开放式的,并且不排除额外的、未引用的元件或方法步骤。
短语“由……构成”排除了没有在权利要求中列举的任何元件、步骤或成分。当该短语出现在权利要求的主体的从句中而不是紧接在序言之后时,其仅限制该从句中阐述的元件;其他元件在整体上没有从该权利要求中排除。
短语“基本上由……构成”将权利要求的范围限制于特定的材料或步骤以及没有实质上影响所要求保护的主题的基础和(多个)新颖特征的那些材料或步骤。
针对词语“包括”、“由……构成”和“基本上由……构成”,在这些词语中的一个在本文中使用的情况下,当前公开和要求保护的主题可以包含另外两个词语中的任一个的使用。
词语“服务器”指的是适于执行本文阐述的方法和功能的任何计算机、计算设备、移动电话、台式电脑、笔记本电脑或便携式电脑、分布式系统、刀片服务器、网关、交换机、处理设备或它们的组合。
当计算设备被描述为执行某种动作或方法步骤时,应理解的是,该计算设备通常可通过执行一行或多行源代码而操作性地执行该动作或方法步骤。该动作或方法步骤可被编写到非暂时性存储器中(例如,硬盘驱动器、光驱、闪存驱动器等等)。
词语“计算设备”总体上指的是可以执行包括与另一个计算设备进行通信的至少一种功能的任何设备(例如,计算机)。
在本申请文件中,在参考公布文献的情况下,这些公布文献的公开内容通过引用而整体并入到本申请文件中,从而更全面地描述本发明所属的技术领域。
词语“立体(stereoscopic)图像”指的是具有至少两种视图的图像,其中一种对应于左眼视图并且另一种对应于右眼视图。当使用适当的设备观看这些图像时,在用户脑中实现三维渲染。
应理解的是,可对一组或多个立体图像中的每个图像应用立体图像的任何操纵。
本文公开的程序、方法或算法可被发送至可包括任何现有的可编程电子控制单元或专用电子控制单元的计算设备、控制器或计算机/通过它们来实施。类似地,程序、方法或算法可作为可由控制器或计算机执行的数据和指令被存储为任何形式,包括但不限于被永久地存储在诸如ROM设备的不可写存储介质上的信息以及被可变地存储在诸如软盘、磁带、CD、RAM设备以及其他磁性和光学介质的可写存储介质上的信息。程序、方法或算法还可在软件可执行对象中实施。替代地,程序、方法或算法可整体或部分地使用适当的硬件组件来实施,例如专用集成电路(ASIC)、场可编程门阵列(FPGA)、状态机、控制器或其他的硬件组件或设备,或者硬件、软件和固件组件的组合。
在本申请文件中,在参考公布文献的情况下,这些公布文献的公开内容通过引用而整体并入到本申请文件中,从而更全面地描述本发明所属的技术领域。
缩写:
“AR”是指增强现实。
“DTI”是指弥散张量成像。
“CPU”是指中央处理单元。
“CT”是指计算机断层扫描。
“CTA”是指计算机断层血管造影。
“ID”是指身份证明。
“fMRI”是指功能磁共振成像。
“MRA”是指磁共振血管造影。
“MRI”是指磁共振成像。
“PET”是指正电子发射断层扫描。
“PWI”是指灌注加权成像。
“SWI”是指磁敏感加权成像
“VR”是指虚拟现实。
参考图1和2,示意性示出了计算机成像系统以及通过该计算机成像系统实施的提供对象中的位置的可调节的三维(3D)渲染的方法。图1提供了可以实施计算机实施的方法的成像系统的示意图。计算机成像系统10包括显示器12,其用于显示可通过立体观看眼镜16观看的对象(例如,患者)的一部分的渲染立体图像14。替代地,可使用AR或VR头戴设备来观看该立体图像。应理解的是,虽然此处中的图像被显示为黑白的,但是实际的立体图像可以渲染有颜色。白质纤维可以根据用户需要基于它们的纤维取向、位置或顺序编号而被编辑为任何颜色。白质束和纤维的常用颜色编码对于主要沿着前/后方向对齐的束和纤维为绿色、对于主要沿着左/右方向对齐的束和纤维为红色并且对于主要沿着上/下方向对齐的束和纤维为蓝色。
计算机成像系统10还包括计算机处理器组件18,其包括CPU20、输入/输出接口22、存储器24以及存储设备26。计算机处理器组件18操作性地执行所述计算机实施的方法的步骤。在一种改进中,计算机系统10还包括被可选地安装至显示器12的追踪系统28,其可以监控立体观看眼镜16、指点设备30以及来自用户的可选手势的位置和取向。指点设备30的运动和动作作为指针光标32被反映在显示器12上。可以使用键盘34将指令和其他信息输入到计算机成像系统中。所述计算机实施的方法包括接收具有离散空间分辨率的用于对象(例如,患者)中的白质束和/或纤维的图像数据的步骤。通常,通过弥散成像、特别是通过磁共振弥散成像来生成图像数据。通过这种成像,第一立体图像14提供了脑和脊髓组织的白质纤维追踪。第一立体图像14基于图像数据被渲染在显示器12上。第一立体图像包括图像视差,以提供3D渲染。因此,第一立体图像可通过选择性地具有允许进行立体眼镜的位置和取向追踪的基准点的立体或偏光眼镜16来观看。在眼镜移动的同时,立体图像将会动态地更新,以显示所渲染的视图的不同的视角,从而实现3D观看效果。替代地,可通过能够进行眼部追踪或头部运动追踪的头戴式AR或VR显示器来观看立体图像。在用户视觉焦点移动或头部移动的同时,立体图像将会动态地更新,以反映出所渲染的视图的对应的视角,从而实现3D观看效果。对允许在保持正确的三维空间关系的同时操纵第一立体图像的、来自指点设备30的输入信号进行接收。特有地,指点设备30与第一立体图像在具有六个自由度(即,三个平移自由度以及三个欧拉角)的三维空间中交互。指点设备30与六个自由度交互的能力允许用户触及立体图像14的后部并且执行操纵,这在下文中更详细地阐述。在这方面,指点设备30帮助对第一立体图像进行旋转、缩放、平移、编辑、突出显示、添加(例如,增加)、分段和/或删除。通常,指点设备30包括用于启动指令的一个或多个按钮35。图2提供了通过应用指点设备30进行旋转的立体图像14的渲染内容。
在一种变型中,第一参考平面36和第二参考平面38也被渲染在显示器14上。第一参考平面36和第二参考平面38分别独立地与第一立体图像14相交,从而在第一参考平面36上渲染出第一参考图像40并且在第二参考平面38上渲染出第二参考图像42。因此,第一参考平面36和第二参考平面38与第一立体图像14组合为第二立体图像。第一参考平面36相对于第二参考平面38被定向为通常为30至150度的第一角度A1。可以接收来自指点设备30的对第一参考平面或第二参考平面的位置进行选择或以任何角度对其进行旋转的输入信号,其中第一二维图像和第二二维图像在它们的位置或取向改变(例如,以任何角度旋转)时进行更新。
参考图1、2、3A和3B,与第一立体图像14相交的第三参考平面44也可被显示为与第一立体图像14相交。特有地,在第三参考平面44上渲染出第三参考图像46。第三参考平面相对于第一参考平面36被定向为第二角度A2并且相对于第二参考平面38被定向为第三角度A3。在一种改进中,第二角度A2和第三角度A3各自约为30至150度。可以接收来自指点设备30的对第一参考平面36或第二参考平面38或第三参考平面44的位置进行选择或以任何角度对其进行旋转的输入信号。当参考平面以这种方式移动或旋转时(即,当位置或取向改变时),参考平面进行更新。有利地,用户可以(通过指点设备)沿着第一轴线50对第一参考平面36进行平移或旋转或者沿着第二轴线52对第二参考平面38进行平移或旋转或者沿着第三轴线对第三参考平面44进行平移或旋转,其中与平移的参考平面关联的二维参考图像在平移期间进行更新。图3A和3B示出了用户已沿着轴线52对第二参考平面38进行了平移之后的渲染内容。应观察到,第二参考图像已经在参考平面38从位置P1移动到位置P2时进行了改变。还应理解的是,参考图像随着参考平面移动而连续且动态地更新。图3C提供了在图3A和3B中突出显示的纤维束选项的立体图像。在下文中阐述进行这种选择的细节。
如上所述,在第一参考平面36上渲染出第一参考图像40、在第二参考平面38上渲染出第二参考图像42并且在第三参考平面44上渲染出第三参考图像46。总体上,参考图像分别独立地为对象的器官、解剖结构或病理特征(例如,肿瘤、动脉瘤等等)的二维图像或三维图像。在一种改进中,这些参考图像各自的显示内容对应于由参考平面与第一立体图像14相交形成的第一立体图像14的切片。这些参考图像可以是例如通过CT数据、MRI数据、数字减影血管造影、白质追踪数据、超声、乳房造影、PET、光声图像或从这些数据集中进一步得出的任何数据所形成的对象的解剖结构的二维图像。在另一种改进中,用户可启动对与第一立体图像一起显示的、基于先前生成的图像数据的参考图像进行显示的程序。先前生成的图像数据的例子还包括但不限于CT数据、MRI数据、数字减影血管造影、白质追踪数据、超声、乳房造影、PET、光声图像或从这些数据集中进一步得出的任何数据。
图4A和4B示出了对第一立体图像的分割出的子组件进行突出显示和选择,以形成可在体素层面上独立编辑、操纵或测量的立体子图像。立体图像14’包括子组件66,其可通过指点设备32进行选择(反映出指点设备的运动)。子组件50可随后进行渲染,使得其与立体图像14’的余下部分隔离开。这个隔离的子组件50现在可在体素层面上进行编辑。
参考图5A和5B,提供了表示使用追踪容器在渲染出的立体图像上执行操作的屏幕截图。用户通过指点设备30或手势在第一立体图像14上启动三维追踪容器60的渲染。图5A表示已经进入了编辑模式,因为已在光标32的头端渲染有容器60。图5A还表示容器60’已通过这种方式被放置在立体图像14上。穿过三维追踪容器601的白质束和/或纤维62被突出显示。在一种改进中,将没有穿过三维追踪容器60的白质束和/或纤维从第一立体图像14中移除或隐藏。当前的变型不受到三维追踪容器50的形状的限制。合适的形状包括但不限于球体、圆盘、圆柱体、椭球体、管体、立方体、平行六面体、图像切片、3D解剖器官的块体、手绘的形状或手术廊道或者是从其他来源输入的任何形状。在另一种改进中,三维追踪容器60响应于用户输入(例如,通过指点设备30)而移动,使得被突出显示的穿过容器的纤维随着三维追踪容器移动而动态地更新。
在一种改进中,所述方法还包括对一个或多个三维追踪容器的应用结果进行冻结。
图5B示出了矩形盒体形式的容器的应用。在这个例子中,应用容器60来选择性地对穿过该矩形盒体的纤维62进行突出显示。当矩形盒体的厚度减小至成为薄切片或平面时,主取向跨过切片的那些纤维将被显示。这种矩形盒体还可以是解剖结构的块体或切片。通过调节切片或平面的取向,用户可以选择不同的纤维取向。
可以在第一立体图像14上渲染出多个三维追踪容器,以执行对渲染出的立体图像的复杂操纵。在一种改进中,根据与多个三维追踪容器中的每个三维追踪容器关联的布尔运算的任何组合对纤维进行显示或突出显示。图6A和6B示出了在两个容器601、602被放置在图像上时的“AND”操作的结果。由于每个容器仅对从其中穿过的纤维进行突出显示,因此“AND”操作的结果是仅有穿过两个容器的纤维64被突出显示。图7A和7B示出了两个容器的用于限定所示的“OR”操作的组合动作。在这种情况下,穿过容器601或602的纤维66被突出显示。在一种改进中,根据与多个三维追踪容器中的每个三维追踪容器关联的布尔运算的任何组合在第一立体图像中对纤维进行显示或突出显示。应理解的是,可以通过应用“AND”和“OR”操作的组合在立体图像14上实现复杂布尔运算。图7C示出了“NOT”操作的结构。在这种变型中,穿过容器60的纤维66不进行显示或被删除。
在一种改进中,三维追踪容器60被固定至第一参考平面36和/或第二参考平面38,使得三维追踪容器60可与第一参考平面38和/或第二参考平面38和/或第三参考平面44的用户引导的运动(例如,借助于指点设备30或手势)一致地移动。图8A提供了容器601被固定至第三参考平面44的例子。此外,三维追踪容器60可被固定在第一参考平面36、第二参考平面38和第三参考平面44的交点处,使得三维追踪容器60可与第一参考平面36、第二参考平面38和第三参考平面44中的任何一个的用户引导的运动(例如,借助于指点设备30或手势)一致地移动。图8B示出了容器601被固定在第一参考平面36、第二参考平面38和第三参考平面44的交点处。类似地,在这些情况中的每一个中,参考平面将会与三维追踪容器60的用户引导的运动一致地移动。
在另一种改进中,可对一个或多个三维纤维束的操作结果进行冻结(即,在执行其他编辑功能的同时被锁定)。被冻结的纤维还可以被解冻,使得用户可以进一步对该纤维进行编辑。被冻结的纤维组可被保存到文件中并且进行输出。此外,先前保存或输入的被冻结的纤维也可以被加载到计算机中。
在图9所示的另一种改进中,一旦应用容器601来生成纤维70的子组,就也可以进一步应用其他的容器602和603来生成用于在更精细的层面上操纵纤维的子组。图9表示额外的容器将纤维70的一些部分删除的情况。在另一种改进中,用户可以选择性地显示或隐藏主要在特定的方向上(例如前后方向、左右方向、上下方向)延伸的纤维,以生成纤维的子组。
应理解的是,本文所述的纤维追踪场景(包括所有的纤维和它们的取向)可被保存到文件中并且进行输出。先前保存或输入的纤维追踪场景也可被加载到计算机中来重现与先前完全一致的场景。
在另一种改进中,在对对象的脑或脊髓的特定纤维路径进行追踪期间,所述系统可为用户提供参考纤维路径来识别纤维的形状、取向和位置。在一种有利的应用中,纤维追踪环境还可以与对象的CT、MRI、DSA、PET、超声、乳房造影或光声数据共同配准,以形成合成器官图像。用户可在合成3D器官中规划手术路径或手术廊道。在对手术路径或手术廊道进行移动或调节期间,穿过手术路径的所有的纤维都可被动态地突出显示。上文所述的提供对象中的位置的可调节的三维(3D)渲染的计算机实施的方法可被有利地整合到将在下文详细描述的手术导航系统中。
在另一个实施方式中,提供了一种计算机成像系统以及一种通过该计算机成像系统实施的、同时提供对象中的位置的可调节的二维和三维(3D)渲染的方法。图10提供了可以实施所述计算机实施的方法的成像系统的示意图。计算机系统10包括显示器12或一个或多个头戴式显示器,其用于显示可通过立体镜或偏光观看眼镜16进行观看的对象的一部分的渲染出的立体图像14。应理解的是,虽然此处的图像被显示为黑白的,但是实际的立体图像可以像如上所述那样渲染有颜色。计算机系统10还包括计算机处理器组件18,其包括CPU20、输入/输出接口22、存储器24和存储装置26。在一种改进中,计算机系统10还包括被选择性地安装至显示器12的追踪系统28,其可以监控立体观看眼镜16、指点设备30以及来自用户的可选手势的位置和取向。指点设备30的运动和动作作为指针光标32被反映在显示器12上。可以使用键盘34将指令和其他信息输入到计算机系统中。通过计算机系统10实施的方法包括接收具有离散空间分辨率的用于对象(例如,白质束)中的位置的图像数据的步骤。至少一个立体图像90基于图像数据被渲染在显示器12上。图10示出了渲染出两个立体图像90、92。立体图像包括图像视差,以提供3D渲染。因此,立体图像可通过具有允许进行立体眼镜的位置和取向追踪的基准点的立体眼镜16或立体显示器来观看。在一种改进中,立体图像可被显示在偏光立体屏幕或头戴式显示器上。替代地,可以使用头戴式VR或AR显示器。头戴式显示器具有用于追踪视觉焦点或者头部位置或者交互的指针或手势的取向或位置的摄像机。与第一立体图像中的预定切片对应的一个或多个二维图像94、96也被渲染在(多个)显示器12上(例如,偏光立体屏幕或头戴式显示器)。接收来自指点设备或手势的、允许在保持正确的三维空间关系的同时操纵立体图像和二维图像的输入信号。
仍然参考图10,指点设备30或手势与第一立体图像在具有六个自由度(例如,三个平移自由度以及三个欧拉角)的三维空间中交互。指点设备30或手势帮助对立体图像(即,在3D空间中)和/或二维图像进行旋转、缩放、平移、编辑、突出显示、配准、添加、分段和/或删除。当立体图像(即,在3D空间中)发生改变时,对应的2D切片也会动态地更新并且反映出这些改变。相反地,当一个或多个2D切片发生改变时,对应的3D图像也会动态地更新并且反映出这些改变。例如,可使用指点设备对与3D空间中模拟出的虚拟手术路径交互的图像进行突出显示。用户还可选择被独立地透明化或半透明化或者被独立地切割或打孔形成为用于模拟手术程序的形状的不同的解剖组件。有利地,可对解剖结构的微观视角与切割或打孔路径进行模拟。通常,指点设备30包括用于启动指令的一个或多个按钮35。在一种改进中,指点设备30具有允许对指点设备进行位置和取向追踪的基准点。
在一种变型中,使用指点设备30或手势对立体图像和/或二维图像进行编辑或操纵。例如,用户可对立体图像的分割出的子组件进行突出显示和/或选择,以形成可在体素层面上独立编辑的立体子图像。在一种改进中,用户通过指点设备或手势在第一立体图像上启动三维容器的渲染,从而可在体素层面上将包括突出显示、分段和删除的编辑功能应用于立体图像的位于容器内部的部分或者立体图像的位于容器外部的部分。有利地,用户对两个立体图像一起进行选择、操纵和对齐,以帮助它们一起共同配准,从而形成校正后的立体图像。
在一种改进中,通过功能磁共振成像、T1或T2加权磁共振成像、计算机断层扫描、弥散张量成像、计算机断层血管造影、磁共振血管造影、灌注加权成像、磁敏感加权成像、数字减影血管造影、超声、乳房造影、光声图像、正电子发射断层扫描和它们的组合来收集图像数据。在另一种改进中,第一立体图像是根据通过包括功能磁共振成像、T1或T2加权磁共振成像、计算机断层扫描、弥散张量成像、计算机断层血管造影、磁共振血管造影、灌注加权成像、磁敏感加权成像、超声、乳房造影、光声图像和正电子发射断层扫描的两种以上的成像技术收集的图像数据渲染的合成图像。
在一种变型中,可以如上所述那样构造合成图像。合成图像包括器官的被共同配准的不同的节段的渲染结果。来自不同的成像方法的图像数据被共同配准和/或分段,以形成合成图像,使得不同的解剖结构来自于不同的成像方法。每种成像方法的贡献都可进行调节,以形成合成图像。在一种改进中,用户选择性地调节合成立体图像的任何特定的部分或图层的不透明度或者对其进行切割,以形成校正后的立体图像。如上所述的同时提供对象中的位置的可调节的二维和三维(3D)渲染的方法可以有利地被整合到手术导航系统中,例如将在下文详细描述的系统。在这方面,用户可选择性地调节合成立体图像的任何特定的部分或图层的不透明度或者对其进行切割,以形成校正后的立体图像。在一种改进中,用户单独地或组合地应用(多个)切片平面、模拟手术电钻、手术刀或任何模拟手术工具将合成立体图像的除了其他部分之外的任何特定的部分切割成任何形状。特别地,可以对解剖结构的微观视角和切割或钻孔路径一起进行模拟。
在又一个实施方式中,提供了一种手术导航系统以及一种通过该手术导航系统实施的、提供用于辅助手术的可调节的三维(3D)渲染的方法。图11提供了手术导航系统的示意图。手术导航系统100包括显示器102,其用于对可通过立体观看眼镜112观看的对象105(例如,患者)的一部分的立体图像104(或一个或多个立体图像)进行渲染。手术导航系统100还包括计算机处理器组件108,其包括上文所述的CPU、输入/输出接口、存储器以及存储设备。在一种改进中,手术导航系统100还包括可选地安装至显示器102的追踪系统110,其可以监控立体观看眼镜112、探针120以及来自用户122(例如,外科医生或其他医护专业人员)的可选手势的位置和取向。指点设备120的运动和动作作为指针光标被反映在显示器102上,这将在下文中描述。可使用键盘124将指令和其他信息输入到计算机系统中。手术导航方法包括接收具有离散空间分辨率的用于对象105中的医疗图像的图像数据的步骤。该图像数据可包括CT、MRI、PET、乳房造影、超声或光声图像数据。根据图像数据将第一立体图像104(或一个或多个立体图像)渲染在显示器102上。第一立体图像(或一个或多个立体图像)包括图像视差。来自探针120的输入信号允许将探针定位在第一立体图像104中。应理解的是,探针120是一类指点设备。探针120还允许在保持正确的三维空间关系的同时在三维空间中操纵第一立体图像104,探针与第一立体图像在具有六个自由度的三维空间中交互且对其进行操纵,以观察其与不同器官结构的空间关系。在一种改进中,探针120包括允许确定探针的位置和取向的基准点,或者系统使用手势作为指点设备。探针120还可具有用于通过有线或无线连接与计算机直接进行通信的(多个)按钮和/或其他装置。在另一种改进中,将对操作者的头部运动和/或眼部运动进行追踪并且立体图像将相应地进行更新。在另一种改进中,3D立体图像可在立体显示器或头戴式显示器上被配准到实际对象的图像上并且被叠加在实际对象的图像上。
在一种变型中,对手术程序进行模拟的用户能够确定最优的手术路径。在这方面,用户还可在第一立体图像104(或一个或多个立体图像)中限定潜在的手术路径或手术廊道。有利地,穿过手术路径或廊道的白质纤维将被突出显示。随着用户调节手术路径或手术廊道的位置,对穿过手术路径或廊道的纤维的突出显示进行更新。在另一种改进中,系统通过声音或监视器102上的运动报警器105提醒用户手术路径或手术廊道与预限定的白质束、血管或目标区域相交。在一种改进中,在手术操作偏离预定的手术路径或手术廊道的情况下启动警告操作者(例如,用户)的程序。此外,在手术操作与叠加在手术视图上的预定结构交互的情况下启动警告操作者的程序。在规划手术路径期间,用户可以跟随手术路径或手术廊道来模仿患者的身体和/或器官内部的微观视角。有利地,在规划手术路径期间,用户可在3D空间中测量器官的任何部分的尺寸、距离、体积、直径和面积。
在一种变型中,所述方法还包括检测对象的位置、取向和身体姿态从而将第一立体图像配准到对象中与第一立体图像对应的实际物理位置的步骤。对象的位置可通过本领域技术人员已知的任何技术被配准到立体图像中的位置。例如,可将基准点标志附接在对象头部上并且随后进行CT扫描。追踪系统110实时地检测这些基准点标志的位置并且随后将这些基准点标志配准到所显示的图像上。为此目的,追踪系统110包括摄像机。对象身体在实际空间中的位置被映射到成像空间中所显示的图像上。在另一种配准方法中,摄像机检测对象身体的位置和取向。随后使用头戴式扫描仪来扫描前额或其他的解剖标志位置,使得计算机可以将对象的图像与他/她的实际位置配准。
在另一种改进中,探针120在外科手术期间被定位在对象中,以访问探针在对象中的实际位置并且将该位置进一步配准到立体图像上。立体图像被叠加在实际手术视图的图像上,以形成校正后的立体图像。这些校正后的立体图像被显示在通过偏光眼镜、头戴式显示器或外科显微镜观看的立体屏幕上。在外科手术期间,用户可与3D立体对象交互且对其进行操纵,以查看不同的器官结构之间的空间关系。此外,用户还可在3D立体对象上模拟外科手术,以确定最优手术路径。借助于探针,所采用的实际手术路径被确定并且被重新构建在立体图像上。因此,可以提供对预先规划或建议的手术路径的调节。为了克服实际身体形状与3D立体图像之间由于外科手术期间的身体结构变形而产生的重合失调,探针120允许用户将实际对象上的实际解剖位置映射到3D立体图像上的位置,以帮助计算机将3D立体图像配准到实际对象。在一种改进中,解剖位置包括解剖标志、重要的骨结构、典型的血管结构、典型的脑沟以及脑回。
随着手术程序的进行,可以重复地进行这种配准校正。例如,当患者的身体或颅骨被打开时,脑或身体器官会发生变形,由此导致偏离原始图像。在实际位置上的不同点处应用探针120允许映射到图像上的对应点。导航系统100可以随后使图像变形来配准到实际身体形状。
在一种变型中,探针可以是允许确定手和手指的手势和位置的(多个)自然手。
在一种变型中,探针具有用于与计算机通信的有线或无线式的按钮和电源,从而进行双工通信。
在另一种变型中,用户可启动与外科显微镜通信的程序,以实时地检索手术视图。通常,手术视图与立体图像或者预定的手术路径或手术廊道共同配准,以形成一组校正后的立体图像。在一种改进中,用户在具有六个自由度的3D空间中对手术程序进行模拟来确定手术路径或手术廊道或者在所述一组校正后的立体图像中加载预限定的手术路径或手术廊道。在另一种改进中,可以针对第一立体图像或任何另外的立体图像将手术路径或手术廊道叠加在所述一组校正后的立体图像上。在另一种改进中,用户选择包括血管、白质束纤维的关注的重要结构,以将它们与手术路径或手术廊道一起叠加在校正后的立体图像上,从而形成一组整合的立体图像。在又一种改进中,在用户调节第二或第三立体图像中的手术路径或手术廊道的位置或形状的同时,对穿过该手术路径或廊道的白质束和纤维和/或血管的突出显示进行更新。校正后的立体图像被显示在通过偏光眼镜、头戴式显示器或外科显微镜观看的立体屏幕上。
在另一种变型中,用户启动从显微镜中实时地提取手术视图的程序并且将进一步处理的手术视图送回到显微镜126,以在3D立体空间中实时地进行显示。
在又一种变型中,用户可以将第三组或第二组整合的图像的一部分送回到外科显微镜或外窥镜,以在3D立体镜中进行显示。
在另一种变型中,用户启动与现有手术导航系统进行通信的程序,以检索外科手术和手术进程的当前位置的信息。
在一些变型中,用户启动将对象的医疗图像与从手术导航系统中提取的同一个人的外科手术位置信息和从显微镜中提取的手术视图进行共同配准和整合的程序,以形成新的图像组。在一种改进中,用户对手术程序进行模拟或对预加载的手术廊道进行调节,从而确定最优的手术路径或手术廊道并且将该手术廊道叠加在现有的立体图像上。
以下例子表示本发明的多个实施方式。本领域技术人员将理解多种变型都处于本发明的精神和权利要求的范围内。
1.将纤维可视化实现为3D立体图像
图12A示出了白质纤维可视化在3D场景中的工作流程。该程序在下文中描述。在这方面,“线集”是3D空间中的一组白质纤维或纤维束。在框200表示的步骤1中,将弥散成像数据与结构成像数据共同配准,随后基于每个体素和体素连通性之间的水分子弥散特征来重新构建整个脑或中枢神经系统的白质纤维束。这些纤维束将被限定为用于后续3D可视化的线集。纤维束的位置或坐标与其对应的结构图像(例如T1/T2/FLAIR/SWI/PWI数据)完全对齐。
Figure BDA0003288302470000161
如框202所示,在步骤2中从重构建的纤维束文件中加载线集并且将数据存储到专用数据结构中。每个线集与所有的顶点一起被加载到限定的数据结构中。表1提供了用于加载重构建的纤维的伪代码。
图12B提供了数据结构的示意图。在这个数据结构中,存储有多个线集、取向矩阵、每个顶点的坐标等等。如框204所示,在步骤3中基于每条线的取向来计算每个线集(白质纤维)的颜色。这里,白质纤维可基于它们的空间取向来编写颜色。线集的每个节段的取向(方向)被计算为:
Figure BDA0003288302470000162
所有节段中的平均方向被计算为:
Figure BDA0003288302470000163
每个线集方向与平均方向之间的差被计算为:
Figure BDA0003288302470000164
最后,当前线集(纤维)的颜色被计算为:
Figure BDA0003288302470000171
表2提供了计算纤维颜色的伪代码的例子。
Figure BDA0003288302470000172
参考图12C,通过提供具有步骤2处加载的坐标和步骤3处加载的颜色的管线来渲染纤维(线集),如框206所示。纤维的坐标已经与诸如T1体积、MRI数据的结构图像或任何其他结构图像共同配准。如框208所示,根据表3的伪代码将结果渲染在显示器屏幕上。
Figure BDA0003288302470000173
Figure BDA0003288302470000181
2.使用触控笔在3D立体镜中实施纤维追踪
参考图13A,示出了表示使用触控笔进行纤维追踪的示意图。总是通过两个摄像机来追踪物理触控笔的局部变换,可通过对触控笔的位置进行追踪来提取数据。触控笔具有可通过摄像机红外识别的标记。在显示器的前部空间处限定虚拟3D空间。触控笔的位置被转换到该虚拟空间中,以确定其与同一个空间中的其他对象的交互。在图13B中限定了场景的层次转换。在这方面,工作流程如下:
1.通过提取摄像机追踪信息来获得触控笔的局部变换矩阵。
Figure BDA0003288302470000182
2.计算从摄像机空间到纤维的局部空间的变换矩阵。
Mresult=Mstylus*Mwindow*Mscene*Mfibers
3.基于触控笔光束的长度计算其顶部和头端。
Coordinatetip=Mresult*CoordinateinitialTip
4.使用计算出的触控笔光束的位置来确定该光束是否与场景中的任何纤维交互,如果是,则触发对应的事件。在表4中提供了用于交互测试和触发事件的算法。
Figure BDA0003288302470000183
Figure BDA0003288302470000191
3.在3D立体镜中实施纤维追踪的布尔运算(AND、OR、NOT)
如下所述实施纤维追踪的布尔运算(AND、OR、NOT):
i)当加载时,每个线集都与其坐标一起被分配给唯一的ID
Figure BDA0003288302470000192
ii)当通过关注区域(ROI)提取出纤维时,其可以是球形或任何形状的容器。ROI在其数据结构中具有用于从其中穿过的线集的ID。
Figure BDA0003288302470000193
iii)每个ROI将具有针对整个纤维数据集(all_uIds)的引用。
3.1OR运算
图7B示出了将在场景上共同地突出显示/显示穿过任一个ROI的纤维。
在表5中提供的算法实施中,程序将来自两个RoI的ID组合成为新的对象。
Figure BDA0003288302470000194
Figure BDA0003288302470000201
3.2 AND运算
图6A示出了将在场景中对仅穿过两个ROI的纤维进行可视化。在表6中提供的算法实施中,可以找到两个RoI之间的公共ID并且通过这些ID生成新的RoI。
Figure BDA0003288302470000211
3.3 NOT运算
图7A示出了纤维追踪的NOT运算。在左侧面板上,深色纤维和浅色纤维(在实际应用中,这些纤维具有不同的颜色)都穿过第一ROI。在右侧面板上,从场景中删除穿过第二ROI的纤维,意味着穿过第一ROI但是不穿过第二ROI的纤维将被显示在场景中。在表7中提供的算法实施中,程序将计算一个ROI中而不是另一个ROI中的ID,随后生成具有这些ID的RoI。
Figure BDA0003288302470000212
Figure BDA0003288302470000221
3.4二元运算的概要
如图5A所示,用户可通过使用追踪触控笔在以下步骤中对白质纤维进行追踪。
1.在3D空间中将纤维移动到所需位置。
2.使用功能键将当前的关注区域(ROI)类型改变为特定的布尔函数,包括AND、OR或NOT。
3.通过使用二元运算中提及的算法来计算当前的束(其实际是ROI)与当前的标记(其是另一个ROI)之间的结果。
4.生成用于预览的一组临时提取的纤维。
5.在用户点击主按钮后将临时提取的纤维添加至结果。
在图5A中,穿过追踪球的纤维被突出显示为白色;右侧:用于放置追踪球的触控笔光束(红色)。
4.结构图像和白质纤维的共同可视化
通过使用体积渲染和光线投射技术对结构成像数据(例如,T1/T2/FLAIR/SWI/PWI图像)进行可视化。使用传统的光栅化管线对白质纤维进行渲染。可使用混合渲染技术在3D空间的场景中对结构成像数据和纤维进行渲染。由于纤维数据和结构图像预先被共同配准,因此这两个数据集将在3D场景中被完全对准和可视化。因此,纤维被叠加在结构图像上。图14示出了在场景中对结构和纤维数据进行的混合渲染。
4.1使用结构图像作为纤维追踪的参考
由于可在共同配准之后通过完全对齐的方式将纤维叠加在结构图像上,因此用户可以使用结构标志作为执行纤维追踪的参考。图15表示如何将结构和纤维数据共同配准并渲染在一起的程序。
4.2在3D正交平面(正交切片)中使用2D图像切片作为用于纤维追踪的参考平面
图3A和3B所示的正交切片的工作流程如下。
1.渲染正交切片
a.定位器官的图像采集中心,其也将用作为正交切片的中心。这将作为x,y,z坐标的起点。
b.基于中心的坐标向xz平面、xy平面和yz平面渲染切片。
算法:渲染正交切片
Figure BDA0003288302470000231
Figure BDA0003288302470000241
2.如上所述那样渲染纤维。
3.一起渲染正交切片和纤维(参见图3A和3B)。由于纤维和结构图像被共同配准,因此纤维被叠加在3D正交切片上。
4.移动正交切片。当用户将触控笔指向任何正交切片时,用户可拖动正交切片从而使其沿着其与平面垂直的轴线移动。纤维与正交切片之间的交点表示纤维的位置。因此,正交切片可用于帮助定位纤维追踪的解剖标志。
虽然上文描述了示例性实施方式,但不应认为这些实施方式描述了本发明的所有可能的形式。相反,说明书中使用的词语是描述性而非限制性词语,并且应理解的是可在不脱离本发明的精神和范围的情况下做出多种更改。另外,实施的多个实施方式的特征可组合形成本发明的另外的实施方式。

Claims (70)

1.一种提供位置的可调节的三维(3D)渲染的计算机实施的方法,所述方法包括:
接收具有离散空间分辨率的用于对象中的白质束的图像数据,所述图像数据通过弥散成像来形成;
通过所述图像数据在显示器上渲染出第一立体图像,所述第一立体图像包括图像视差;以及
接收来自指点设备或手势的允许在保持正确的三维空间关系的同时操纵所述第一立体图像的输入信号,所述指点设备在具有六个自由度的三维空间中与所述第一立体图像交互。
2.根据权利要求1所述的计算机实施的方法,其中,所述弥散成像是磁共振弥散成像。
3.根据权利要求1所述的计算机实施的方法,其还分割出所述第一立体图像的组件,以形成可在体素层面上独立编辑的立体子图像。
4.根据权利要求1所述的计算机实施的方法,其中,所述指点设备帮助对所述第一立体图像进行旋转、缩放、平移、编辑、突出显示、切割、删除、分段和/或添加。
5.根据权利要求1所述的计算机实施的方法,其还包括:
显示分别独立地与所述第一立体图像相交的第一参考平面和第二参考平面,从而在所述第一参考平面上渲染出第一参考图像并且在所述第二参考平面上渲染出第二参考图像;以及
接收来自所述指点设备或手势的对所述第一参考平面或所述第二参考平面进行选择的输入信号,其中所述第一参考图像和所述第二参考图像在它们的位置或取向改变时进行更新。
6.根据权利要求5所述的计算机实施的方法,其还包括:
显示与所述第一立体图像相交的第三参考平面,从而在所述第三参考平面上渲染出与所述第三参考平面相交的对象的解剖结构的第三参考图像;以及
接收来自所述指点设备或手势的对所述第三参考平面或所述第二参考平面的位置或取向进行选择的输入信号,其中所述第三参考图像在它们的位置或取向改变时进行更新。
7.根据权利要求6所述的计算机实施的方法,其中,所述第一参考图像、所述第二参考图像和所述第三参考图像分别独立地作为对象的器官、解剖结构或病理特征的二维图像或三维图像。
8.根据权利要求7所述的计算机实施的方法,其中,所述第一参考图像是与所述第一参考平面相交的对象的解剖结构的第一二维图像,所述第二参考图像是与所述第二参考平面相交的所述对象的解剖结构的第二二维图像,并且所述第三参考图像是与所述第三参考平面相交的所述对象的解剖结构的第三二维图像。
9.根据权利要求6所述的计算机实施的方法,其中,所述第一参考平面相对于所述第二参考平面定向为第一角度,并且所述第三参考平面相对于所述第一参考平面定向为第二角度并且相对于所述第二参考平面定向为第三角度。
10.根据权利要求6所述的计算机实施的方法,其中,用户可以沿着第一轴线移动或旋转所述第一参考平面、沿着第二轴线移动或旋转所述第二参考平面并且沿着第三轴线移动或旋转所述第三参考平面。
11.根据权利要求6所述的计算机实施的方法,其中,用户启动对与所述第一立体图像一起显示的、基于先前生成的图像数据的参考图像进行显示的程序。
12.根据权利要求11所述的计算机实施的方法,其中,所述先前生成的图像数据包括CT数据、MRI数据、数字减影血管造影、白质追踪数据、超声、乳房造影、PET、光声图像或从这些数据集中进一步得出的任何数据。
13.根据权利要求6所述的计算机实施的方法,其还包括用户通过所述指点设备或手势启动所述第一立体图像上的三维追踪容器的渲染。
14.根据权利要求13所述的计算机实施的方法,其中,所述三维追踪容器是球体、圆盘、圆柱体、椭球体、管体、立方体、平行六面体、图像切片、3D解剖器官的块体、手绘的形状或手术廊道或者是从其他来源输入的任何形状。
15.根据权利要求13所述的计算机实施的方法,其中,将穿过所述三维追踪容器的白质束和/或纤维和/或血管突出显示。
16.根据权利要求13所述的计算机实施的方法,其还包括响应于用户输入信号使所述三维追踪容器移动,其中被突出显示的所述纤维或血管随着所述三维追踪容器移动而动态地更新。
17.根据权利要求13所述的计算机实施的方法,其中,将没有穿过所述三维追踪容器的白质束和/或纤维从所述第一立体图像中移除或隐藏。
18.根据权利要求13所述的计算机实施的方法,其中,在所述第一立体图像上渲染出多个所述三维追踪容器。
19.根据权利要求18所述的计算机实施的方法,其中,根据与多个所述三维追踪容器中的每个所述三维追踪容器关联的布尔运算的任何组合在所述第一立体图像中显示或突出显示纤维。
20.根据权利要求13所述的计算机实施的方法,其中,将所述三维追踪容器固定至所述第一参考平面和/或所述第二参考平面,使得所述三维追踪容器可与所述第一参考平面和/或所述第二参考平面的用户引导的运动一致地移动。
21.根据权利要求13所述的计算机实施的方法,其中,将所述三维追踪容器固定在所述第一参考平面、所述第二参考平面和所述第三参考平面的交叉点处,使得所述三维追踪容器可与所述第一参考平面、所述第二参考平面和所述第三参考平面中的任一个的用户引导的运动一致地移动。
22.根据权利要求13所述的计算机实施的方法,其还包括对一个或多个所述三维追踪容器的应用结果进行冻结。
23.根据权利要求1所述的计算机实施的方法,其中,所述白质束来自于对象的脑或脊髓。
24.一种提供位置的可调节的渲染的计算机实施的方法,所述方法包括:
接收具有离散空间分辨率的用于对象中的位置的图像数据;
通过所述图像数据在显示器上渲染出至少一个立体图像,至少一个所述立体图像包括图像视差;
渲染出与所述立体图像中的预定切片对应的一个或多个二维图像;以及
更新所述立体图像从而反映出对一个或多个所述二维图像做出的更改和/或更新所述二维图像从而反映出对所述立体图像做出的更改,借助于在具有六个自由度的三维空间中与所述立体图像交互的指点设备对所述立体图像做出所述更改。
25.根据权利要求24所述的计算机实施的方法,其中,通过功能磁共振成像、T1或T2加权磁共振成像、计算机断层扫描、弥散张量成像、计算机断层血管造影、磁共振血管造影、灌注加权成像、磁敏感加权成像、数字减影血管造影、超声、乳房造影、光声图像、正电子发射断层扫描和它们的组合来收集所述图像数据。
26.根据权利要求24所述的计算机实施的方法,其中,所述立体图像是根据通过功能磁共振成像、T1或T2加权磁共振成像、计算机断层扫描、弥散张量成像、计算机断层血管造影、磁共振血管造影、灌注加权成像、磁敏感加权成像、数字减影血管造影、超声、乳房造影、光声图像和正电子发射断层扫描收集的两个以上的所述图像数据中收集的图像数据渲染出的合成图像。
27.根据权利要求24所述的计算机实施的方法,其中,对所述图像数据进行配准和/或分段来形成合成图像,使得不同的解剖结构来自于不同的成像方法,每个图像的贡献都是可调节的,以形成合成立体图像。
28.根据权利要求27所述的计算机实施的方法,其中,用户选择性地调节所述合成立体图像的任何特定的部分或图层的不透明度或者对其进行切割,以形成校正后的立体图像。
29.根据权利要求28所述的计算机实施的方法,其中,用户单独地或组合地应用一个或多个切片平面、模拟手术钻头、手术刀或任何模拟手术工具将所述合成立体图像的除了其他部分之外的任何特定的部分切割成任何形状。
30.根据权利要求24所述的计算机实施的方法,其中,所述立体图像可通过头戴式显示器和/或立体眼镜观看,所述头戴式显示器用于虚拟或增强现实或者立体显示,所述立体眼镜具有允许对所述立体眼镜进行位置和取向追踪的基准点。
31.根据权利要求30所述的计算机实施的方法,其中,一个或多个所述头戴式显示器具有用于追踪眼部运动和头部的运动或位置的摄像机,从而使3D立体图像相应地进行更新。
32.根据权利要求24所述的计算机实施的方法,其中,所述指点设备或手势用于对至少一个所述立体图像和/或所述二维图像进行编辑或操纵。
33.根据权利要求32所述的计算机实施的方法,其中,所述指点设备具有允许对所述指点设备进行位置和取向追踪的基准点。
34.根据权利要求32所述的计算机实施的方法,其中,用户对所述立体图像的分割出的子组件进行突出显示和/或选择,以形成可在体素层面上独立编辑的立体子图像。
35.根据权利要求32所述的计算机实施的方法,其还包括用户通过所述指点设备或手势启动所述立体图像上的三维容器的渲染,使得包括突出显示、分段和删除的编辑功能可在体素层面上被应用于所述立体图像的位于所述三维容器内部的部分或者所述立体图像的位于所述三维容器外部的部分。
36.根据权利要求32所述的计算机实施的方法,其中,用户对两个立体图像一起进行选择、操纵和对齐,从而帮助对它们一起进行共同配准,以形成校正后的立体图像。
37.根据权利要求24所述的计算机实施的方法,其中,所述立体图像对白质纤维束进行渲染。
38.根据权利要求24所述的计算机实施的方法,其中,合成图像包括对器官的不同节段的共同配准的渲染内容。
39.根据权利要求24所述的计算机实施的方法,其还包括对在3D空间中与模拟的虚拟手术路径交互的图像节段进行突出显示。
40.根据权利要求24所述的计算机实施的方法,其中,用户对被独立地透明化或半透明化或者被独立地切割或打孔形成为用于模拟手术程序的形状的不同的解剖组件进行选择。
41.根据权利要求40所述的计算机实施的方法,其中,对对象的解剖结构的微观视角和切割或钻孔路径一起进行模拟。
42.一种提供用于辅助手术的可调节的三维(3D)渲染的计算机实施的方法,所述方法包括:
接收具有离散空间分辨率的用于对象中的医疗图像的图像数据;
通过所述图像数据在显示器上渲染出第一立体图像,所述第一立体图像包括图像视差;以及
接收来自探针的允许在所述第一立体图像中对所述探针进行渲染的输入信号,所述探针还允许在保持正确的三维空间关系的同时在三维空间中操纵所述第一立体图像,所述探针与所述第一立体图像在具有六个自由度的三维空间中交互。
43.根据权利要求42所述的计算机实施的方法,其中,所述图像数据可包括CT、MRI、PET、乳房造影、超声或光声图像数据。
44.根据权利要求42所述的计算机实施的方法,其中,所述探针包括允许确定所述探针的位置和取向的基准点。
45.根据权利要求42所述的计算机实施的方法,其中,所述探针还可以是允许确定手和手指的手势和位置的一个或多个自然手。
46.根据权利要求42所述的计算机实施的方法,其还包括用户对手术程序进行模拟,以在所述第一立体图像中确定手术路径或手术廊道。
47.根据权利要求46所述的计算机实施的方法,其中,对穿过所述手术路径或所述手术廊道的白质束和纤维和/或血管进行突出显示。
48.根据权利要求46所述的计算机实施的方法,其中,随着用户对所述手术路径或所述手术廊道的位置进行调节,对穿过所述手术路径或所述手术廊道的突出显示的白质束和纤维和/或血管进行更新。
49.根据权利要求46所述的计算机实施的方法,其中,在用户跟随所述手术路径或所述手术廊道的同时,对所述对象的身体和/或器官的微观视角进行模拟。
50.根据权利要求42所述的计算机实施的方法,其还包括检测所述对象的位置、取向和身体姿态,以将所述第一立体图像配准到所述对象中与所述第一立体图像对应的实际物理位置。
51.根据权利要求42所述的计算机实施的方法,其中,在手术期间将所述探针定位在所述对象中,从而在所述对象中访问所述探针的实际位置并且将所述位置进一步配准到所述第一立体图像或任何额外的立体图像上。
52.根据权利要求42所述的计算机实施的方法,其中,所述探针允许用户将所述对象上的实际解剖位置映射到立体图像上的位置上,以对所述立体图像进行配准。
53.根据权利要求51所述的计算机实施的方法,其中,解剖位置包括解剖标志、重要的骨结构、典型的血管结构、典型的脑沟以及脑回。
54.根据权利要求42所述的计算机实施的方法,其中,可以将所述第一立体图像显示在偏光立体屏幕或头戴式显示器上。
55.根据权利要求42所述的计算机实施的方法,其中,作为所述显示器的一部分或独立地设置摄像机,以追踪所述探针的位置、取向和运动以及接受手术的所述对象的身体姿态、取向和位置。
56.根据权利要求42所述的计算机实施的方法,其中,所述探针具有用于与计算机通信的有线或无线式的按钮和电源,从而进行双工通信。
57.根据权利要求42所述的计算机实施的方法,其中,用户可启动与外科显微镜通信的程序,以实时地检索手术视图。
58.根据权利要求57所述的计算机实施的方法,其中,将所述手术视图与立体图像或者预定的手术路径或手术廊道进行共同配准,以形成校正后的立体图像组。
59.根据权利要求58所述的计算机实施的方法,其还包括用户对手术程序进行模拟,以在具有六个自由度的3D空间中在所述校正后的立体图像组中确定手术路径或手术廊道或者加载预定的手术路径或手术廊道。
60.根据权利要求59所述的计算机实施的方法,其中,所述手术路径或所述手术廊道可被叠加在所述校正后的立体图像组上。
61.根据权利要求59所述的计算机实施的方法,其还包括用户对包括血管、白质束纤维的感兴趣的重要结构进行选择,以将它们与所述手术路径或所述手术廊道一起叠加在所述校正后的立体图像组上,从而形成整合的立体图像组。
62.根据权利要求59所述的计算机实施的方法,其中,在用户在所述校正后的立体图像组或第三整合的立体图像组中调节所述手术路径或所述手术廊道的位置或形状的同时,对穿过所述手术路径或所述手术廊道的突出显示的白质束和纤维和/或血管进行更新。
63.根据权利要求60所述的计算机实施的方法,其中,将所述校正后的立体图像组显示在立体屏幕上,从而通过偏光眼镜、头戴式显示器或外科显微镜进行观看。
64.根据权利要求61所述的计算机实施的方法,其中,用户可将所述校正后的立体图像组或所述整合的3D立体图像组中的一部分送回到所述外科显微镜或外窥镜,以在3D立体镜中进行显示。
65.根据权利要求42所述的计算机实施的方法,其中,如果手术操作脱离了预定的手术路径或手术廊道,就启动警告用户的程序。
66.根据权利要求42所述的计算机实施的方法,其中,如果手术操作与叠加在手术视图上的预定结构交互,就启动警告用户的程序。
67.根据权利要求45所述的计算机实施的方法,其中,用户启动与现有手术导航系统进行通信的程序,以检索外科手术和手术进程的当前位置的信息。
68.根据权利要求45所述的计算机实施的方法,其中,用户启动将对象的医疗图像与从手术导航系统中提取的外科手术位置信息和从显微镜中提取的手术视图进行共同配准和整合的程序,以形成新的图像组。
69.根据权利要求68所述的计算机实施的方法,其还包括用户对手术程序进行模拟或对预加载的手术廊道进行调节,从而确定最优的手术路径或手术廊道并且将所述手术廊道叠加在现有的立体图像上。
70.根据权利要求42所述的计算机实施的方法,其中,用户启动从显微镜中实时地提取手术视图的程序并且将进一步处理的手术视图送回到显微镜,以在3D立体空间中实时地进行显示。
CN202080026560.8A 2019-03-29 2020-03-30 手术计划、手术导航和成像用系统 Pending CN113645896A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962826857P 2019-03-29 2019-03-29
US62/826,857 2019-03-29
PCT/US2020/025677 WO2020205714A1 (en) 2019-03-29 2020-03-30 Surgical planning, surgical navigation and imaging system

Publications (1)

Publication Number Publication Date
CN113645896A true CN113645896A (zh) 2021-11-12

Family

ID=72667466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080026560.8A Pending CN113645896A (zh) 2019-03-29 2020-03-30 手术计划、手术导航和成像用系统

Country Status (3)

Country Link
US (2) US20210353371A1 (zh)
CN (1) CN113645896A (zh)
WO (1) WO2020205714A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112155595B (zh) * 2020-10-10 2023-07-07 达闼机器人股份有限公司 超声波诊断设备、超声探头、图像的生成方法及存储介质
CN112618026B (zh) * 2020-12-15 2022-05-31 清华大学 远程手术数据融合交互显示系统及方法
EP4163874A1 (en) * 2021-10-06 2023-04-12 MinMaxMedical Method and device for an improved display in a manual or a robot assisted intervention in a region of interest of the patient

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2486520A1 (en) * 2001-06-13 2002-12-19 Volume Interactions Pte. Ltd. Guide systems for interacting with a subject, and methods therefor
JP5661453B2 (ja) * 2010-02-04 2015-01-28 株式会社東芝 画像処理装置、超音波診断装置、及び画像処理方法
US8206307B2 (en) * 2010-03-10 2012-06-26 Dbmedx Inc. Ultrasound imaging probe and method
CN104507410B (zh) * 2012-02-29 2018-03-06 史密夫和内修有限公司 确定解剖取向
WO2014138571A2 (en) * 2013-03-07 2014-09-12 Adventist Health System/Sunbelt, Inc. Surgical navigation planning system and associated methods
US9956054B2 (en) * 2015-06-25 2018-05-01 EchoPixel, Inc. Dynamic minimally invasive surgical-aware assistant
US10019131B2 (en) * 2016-05-10 2018-07-10 Google Llc Two-handed object manipulations in virtual reality

Also Published As

Publication number Publication date
WO2020205714A1 (en) 2020-10-08
US20210353371A1 (en) 2021-11-18
US20210353361A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
US11730545B2 (en) System and method for multi-client deployment of augmented reality instrument tracking
US20220291741A1 (en) Using Optical Codes with Augmented Reality Displays
US6049622A (en) Graphic navigational guides for accurate image orientation and navigation
US10347033B2 (en) Three-dimensional image display apparatus, method, and program
US10758212B2 (en) Automatic depth scrolling and orientation adjustment for semi-automated path planning
JP5427179B2 (ja) 解剖学的データの視覚化
US20070279436A1 (en) Method and system for selective visualization and interaction with 3D image data, in a tunnel viewer
US8077948B2 (en) Method for editing 3D image segmentation maps
US20060020204A1 (en) System and method for three-dimensional space management and visualization of ultrasound data ("SonoDEX")
US20210353371A1 (en) Surgical planning, surgical navigation and imaging system
US20100123715A1 (en) Method and system for navigating volumetric images
US20070279435A1 (en) Method and system for selective visualization and interaction with 3D image data
US20070237369A1 (en) Method for displaying a number of images as well as an imaging system for executing the method
JP2020506452A (ja) Hmdsに基づく医学画像形成装置
US10977787B2 (en) Feedback for multi-modality auto-registration
CN112740285A (zh) 在虚拟环境中对医学图像的叠加和操纵
CN108369736A (zh) 用于根据2d/2.5d术中图像数据计算切除的组织体积的方法和系统
US11961193B2 (en) Method for controlling a display, computer program and mixed reality display device
CN109313698A (zh) 同步的表面和内部肿瘤检测
JP2007512064A (ja) 3次元画像データにおけるナビゲーションのための方法
WO2024037109A1 (zh) 显示方法、装置、设备和存储介质
CN114391158A (zh) 用于在虚拟多用户协作中分析医学图像数据的方法、计算机程序、用户接口和系统
WO2020173054A1 (zh) Vrds 4d医学影像处理方法及产品
US20160205390A1 (en) Method for displaying on a screen an object shown in a 3d data set

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination