CN116563379B - 一种基于模型融合的标志物定位方法、装置及系统 - Google Patents

一种基于模型融合的标志物定位方法、装置及系统 Download PDF

Info

Publication number
CN116563379B
CN116563379B CN202310825931.4A CN202310825931A CN116563379B CN 116563379 B CN116563379 B CN 116563379B CN 202310825931 A CN202310825931 A CN 202310825931A CN 116563379 B CN116563379 B CN 116563379B
Authority
CN
China
Prior art keywords
body surface
model
patient
marker
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310825931.4A
Other languages
English (en)
Other versions
CN116563379A (zh
Inventor
唐丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Zhuoshi Chuangshi Technology Co ltd
Original Assignee
Hunan Zhuoshi Chuangshi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Zhuoshi Chuangshi Technology Co ltd filed Critical Hunan Zhuoshi Chuangshi Technology Co ltd
Priority to CN202310825931.4A priority Critical patent/CN116563379B/zh
Publication of CN116563379A publication Critical patent/CN116563379A/zh
Application granted granted Critical
Publication of CN116563379B publication Critical patent/CN116563379B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本公开提供一种基于模型融合的标志物定位方法、装置及系统,可应用于智能制造技术领域。所述方法包括:获取对应于患者目标部位的预扫描数据;利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征;获取对应于患者目标部位的体表扫描数据;基于所述体表扫描数据构建体表轮廓模型;融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。上述方法不仅能够确定体内组织的空间位姿,也能够确定体表标志物的位置,从而能够通过手术指导模型对标志物和病灶进行有效定位,进而有效对手术过程进行指导,保证了手术的精确性和操作性。

Description

一种基于模型融合的标志物定位方法、装置及系统
技术领域
本说明书实施例涉及智能制造技术领域,特别涉及一种基于模型融合的标志物定位方法、装置及系统。
背景技术
在执行外科手术时,对于患者深部结构的位置确定极其重要,通过CT或MR扫描等方式能够获取扫描部位的断层图像,再通过三维重建技术能够获取体内深部机构与体表标志性结构之间的相对位置关系,进而在手术过程中基于体表可识别结构的位置来定位深度结构的位置,例如,通过外耳孔、眼睛等体表标志的位置定位至体内血肿的位置,从而规划手术路径。
而在实际应用中,由于部分手术部位缺乏明显的可识别结构,例如颅脑表面不存在标志性结构,以及部位体表可识别结构分辨精度低等因素的影响,导致在部分应用场景中直接利用体表可识别结构进行定位的效果较差、精确度低。针对这一问题,可以通过在患者手术部位的体表设置人工标志物,例如电极片、定位标记贴、骨钉、定位框架等,再针对人工标志物进行识别定位。
目前在利用标志物时,一般是先在患者手术部位的特定位置贴标志物后,再针对患者进行CT扫描,最终所获取的CT扫描结果中同时包含手术部位的整体扫描结果和标志物的位置信息。但是,这样的方式对于标志物装置以及放射科扫描之间的配合要求较高,在急诊手术时甚至无法完成;此外,这一方式下需要保证从设置标志物到执行手术的流程中,标志物位置必须固定不变,而无创性标志物难以满足这一要求,有创性标志物又会给患者带来额外创伤。目前基于标志物进行深度结构定位的方式并不具有较好的应用效果。因此,目前亟需一种能够方便有效地基于标志物进行定位的方法。
发明内容
本说明书实施例的目的是提供一种基于模型融合的标志物定位方法、装置及系统,以解决如何方便有效地基于标志物进行定位的问题。
为了解决上述技术问题,本说明书实施例提出了一种基于模型融合的标志物定位方法,包括:获取对应于患者目标部位的预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据;利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征;获取对应于患者目标部位的体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据;基于所述体表扫描数据构建体表轮廓模型;融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。
在一些实施方式中,所述预扫描数据包括CT/MR扫描数据;所述体表扫描数据包括利用三维扫描仪获取的扫描数据。
在一些实施方式中,所述预扫描数据包括断层扫描图像;所述利用所述预扫描数据构建对应于所述患者目标部位的结构模型,包括:根据断层扫描图像的外围形状确定体表轮廓结构;根据断层扫描图像的内部特征确定内部组织结构;综合所述体表轮廓结构和内部组织结构构建对应于所述患者目标部位的结构模型。
在一些实施方式中,所述基于所述体表扫描数据构建体表轮廓模型,包括:根据所述体表扫描数据构建候选扫描模型;从所述候选扫描模型中识别并去除背景区域,得到体表轮廓模型。
在一些实施方式中,所述融合所述结构模型和体表轮廓模型得到手术指导模型,包括:确定体表轮廓模型的外部轮廓特征;基于所述体表轮廓模型的外部轮廓特征和所述结构模型的体表特征,融合所述结构模型和体表轮廓模型得到手术指导模型。
在一些实施方式中,所述融合所述结构模型和体表轮廓模型得到手术指导模型之后,还包括:根据手术指导模型中的体内特征确定病灶位置参数;利用所述病灶位置参数和标志物位置参数构建手术路径;所述手术路径具有对应于各个标志物位置参数的位姿关系。
在一些实施方式中,所述融合所述结构模型和体表轮廓模型得到手术指导模型之后,还包括:根据所述手术指导模型确定模型配准精度;在所述模型配准精度符合模型融合需求的情况下,将所述手术指导模型应用于智能制造,或,在所述模型配准精度不符合模型融合需求的情况下,对所述手术指导模型进行调整。
在一些实施方式中,所述标志物包括电极片、定位标记贴、骨钉、涂画标记中的至少一种。
本说明书实施例还提出一种基于模型融合的标志物定位装置,包括:预扫描数据获取模块,用于获取对应于患者目标部位的预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据;结构模型构建模块,用于利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征;体表扫描数据获取模块,用于获取对应于患者目标部位的体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据;体表轮廓模型构建模块,用于基于所述体表扫描数据构建体表轮廓模型;模型融合模块,用于融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。
本说明书实施例还提出一种基于模型融合的标志物定位系统,包括预扫描设备、三维扫描设备和计算设备;所述预扫描设备用于扫描患者目标部位得到预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据;所述预扫描数据包括针对体表和体内扫描得到的数据;所述三维扫描设备用于扫描患者目标部位得到体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据;所述计算设备上存储有计算机程序/指令,所述计算设备用于获取所述预扫描数据和体表扫描数据,并执行所述计算机程序/指令以实现上述基于模型融合的标志物定位方法的步骤。
本说明书实施例还提出一种计算机存储介质,其上存储有计算机程序/指令,所述计算机程序/指令在被执行时用于实现上述基于模型融合的标志物定位方法的步骤。
由以上本说明书实施例提供的技术方案可见,上述基于模型融合的标志物定位方法、装置及系统,在患者体表设置标志物之前获取预扫描数据,在设置标志物之后获取体表扫描数据。根据预扫描数据构建结构模型,根据体表扫描数据构建体表轮廓模型,最终通过融合结构模型和体表轮廓模型得到手术指导模型。在设置标志物之前扫描并构建模型无需考虑标志物的设置需求;而设置标志物后仅仅获取体表扫描数据不仅能够加快扫描速度,也能够保证标志物位置的稳定性。最终通过融合模型得到手术指导模型,不仅能够确定体内组织的空间位姿,也能够确定体表标志物的位置,从而能够通过手术指导模型对标志物和病灶进行有效定位,进而有效对手术过程进行指导,保证了手术的精确性和操作性。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例一种基于模型融合的标志物定位系统的结构图;
图2为本说明书实施例一种基于模型融合的标志物定位方法的流程图;
图3为本说明书实施例一种基于模型融合的定位手术实施过程的流程示意图;
图4为本说明书实施例一种基于模型融合的标志物定位装置的模块图。
具体实施方式
下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
为了更好地理解本申请的发明构思,首先介绍本说明书实施例一种基于模型融合的标志物定位系统。如图1所示,所述基于模型融合的标志物定位系统100包括预扫描设备110、三维扫描设备120和计算设备130。
预扫描设备110可以对患者进行扫描,从而获取对特定部位的预扫描数据。例如,预扫描设备110针对患者头颅进行扫描时,不仅能够确定患者的头颅外部形状,也能够确定脑内组织分布状况和病灶在头颅内的位置。
具体的,所述预扫描设备110例如可以是CT扫描设备或MR扫描设备或核磁共振设备,所获取到的扫描数据可以是CT/MR扫描数据或是核磁共振检测数据。实际应用中将其他具备对患者部位深层次进行扫描的功能的设备作为预扫描设备110,对此不做限制。
由于预扫描设备110的扫描功能较为强大,在实际应用中,预扫描设备110的体积也偏大,往往固定在放射科室内。而基于现有技术设置标志物的方式,需要先设置标志物,再连同标志物一同对患者进行扫描,在利用扫描数据构建模型时使得模型上同时包含有标志物的位置参数,进而规划手术方案。但是,由于标志物是用于在手术过程中进行定位,在设置标志物后需要在较短时间内进行手术,则对于放射科和手术室之间的时间配合要求程度较高,且存在一定的标志物脱落的风险。上述情况使得直接应用预扫描设备110针对标志物和患者获取扫描数据进行应用时,存在较大的不便。
三维扫描设备120用于获取物体的外表轮廓结构。例如,三维扫描设备120可以针对相应场景获取对应的点云数据,通过点云数据能够确定物体表面各个位置相较于扫描设备的距离,进而能够根据点云数据确定物体的表面轮廓。由于三维扫描设备120只用于获取外部轮廓,三维扫描设备120可以具有较小的体积,例如可以是手持式的设备,即三维扫描设备120可以应用在手术室内,直接在手术之前对患者进行扫描。
具体的,所述三维扫描设备120可以是三维扫描仪,能够直接获取物体外部轮廓的三维扫描数据。实际应用中也可以根据需求将其他设备应用为三维扫描设备120,对此不做限制。
计算设备130可以与所述预扫描设备110和三维扫描设备120之间进行通信,接收所述预扫描设备110和三维扫描设备120所生成的扫描数据,并基于所获取的扫描数据进行处理,实现模型构建、模型融合等操作。
具体的,所述计算设备130中可以包括存储器和处理器。在本实施例中,所述存储器可以按任何适当的方式实现。例如,所述存储器可以为只读存储器、机械硬盘、固态硬盘、或U盘等。所述存储器可以用于存储计算机程序/指令,以实现对扫描数据的处理、模型构建和模型融合等操作。
在本实施例中,所述处理器可以按任何适当的方式实现。例如,处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。所述处理器可以执行计算机程序/指令以实现:获取对应于患者目标部位的预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据;利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征;获取对应于患者目标部位的体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据;基于所述体表扫描数据构建体表轮廓模型;融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。。关于所执行内容的具体介绍在后续执行方法步骤进行详细描述,在此先不做赘述。
基于上述基于模型融合的标志物定位系统,本说明书实施例提出一种基于模型融合的标志物定位方法。所述基于模型融合的标志物定位方法的执行主体可以为上述基于模型融合的标志物定位系统中的计算设备。如图2所示,所述基于模型融合的标志物定位方法包括以下具体实施步骤。
S210:获取对应于患者目标部位的预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据。
预扫描数据即为上述预扫描设备针对患者目标部位的扫描数据,在本说明书实施例中,所述预扫描数据是在患者目标部位的体表设置标志物之前所获取的扫描数据。在患者体表未设置标志物时,不存在固定标志物的需求,即可以在手术前任意时间通过预扫描设备获取预扫描数据。
患者的目标部位即为需要在手术过程中设置标志物进行定位的部位。例如,在针对头颅执行手术时,由于头颅较为光滑缺乏明显标识点,因此需要在头颅表面设置标识点进行定位。实际应用中也可以将其他需要设置标志物的部位确定为所述目标部位,对此不做限制。
预扫描数据不仅包含针对目标部位外部轮廓的扫描,也包含针对目标部位深层组织结构的扫描。扫描数据中可以对不同的组织进行区分,相应的,在后续步骤中根据扫描数据构建模型时,能够同时体现出模型内部的组织分布状况。
在一些实施方式中,所述预扫描数据还可以是断层扫描图像,断层扫描图像可以是针对目标部位按照特定间隔扫描得到的断层图像,基于断层扫描图像同样能够构建对应于目标部位的模型。
在一些示例中,所述预扫描数据还可以是DICOM数据。DICOM数据可以是医学数字成像和通信数据,对应于X射线,CT,核磁共振,超声等放射诊疗手段,能够有效通过扫描影像来反映扫描部位的状况。
S220:利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征。
根据所获取的预扫描数据,可以构建对应的结构模型。结构模型能够反映目标部位的外部轮廓以及内部的组织分布情况和病灶分布情况。针对结构模型,能够规划相应的手术路径,例如,在需要穿刺至病灶位置时,可以基于不伤害到内部组织的情况下,规划相应的穿刺路径,进而确定穿刺路径在目标部位表面的穿刺点,用于指导相应的手术操作。
因此,所述结构模型中可以包含目标部位的体表特征和体内特征。体表特征可以是目标部位的外部轮廓,也可以包含体表的相应特征点。例如,在目标部位为头颅时,体表特征包括头颅的外部形状和头颅上的眼睛、鼻子、外耳孔等特征的形状和位置。体内特征可以目标部位内部的组织、器官等的分布情况,还可以是体内病灶的位置和分布范围,例如,在目标部位为头颅时,体内特征可以是脑部组织的空间分布状况以及病变的脑组织的位置。
一般情况下,预扫描数据中体现出相应部位的特征,根据所展示的特征能够反推出该处对应的组织或器官,进而能够完成结构模型的构建。
在一些实施方式中,在预扫描数据为断层扫描图像的情况下,由于不同的断层扫描图像对应于不同位置的切面扫描结果,且不同的断层扫描图像之间的距离确定,因此可以先在断层扫描图像中区分出目标部位外围形状和内部特征。内部特征可以包括各个器官、组织的切面形状和位置,再根据各个断层扫描图像的外围形状拟合出体表轮廓结构,根据内部特征拟合出内部组织结构,综合所述体表轮廓结构和内部组织结构即可完成对于患者目标部位的结构模型的构建。
在一些实施方式中,若预扫描数据位CT/MR扫描数据,也可以利用DICOM数据处理模块将术前完成的CT/MR扫描数据处理成头面部皮肤外轮廓模型和内部兴趣结构模型的影像学来源模型(dicom数据模型),同样能够完成结构模型的构建。具体的,可以先针对预扫描数据煀DICOM数据,通过读取DICOM数据,依次进行表面轮廓分割和内部结构分割,最终生成对应的dicom来源模型。
实际应用中可以根据需求设置其他根据预扫描数据生成结构模型的方式,并不限于上述示例,在此不再赘述。
需要说明的是,对于实际应用中该步骤的执行顺序不做限制,可以是在患者体表设置标志物之前即进行结构模型的构建,也可以在患者体表设置标志物之后再构建结构模型,具体可以根据实际应用需求确定。
S230:获取对应于患者目标部位的体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据。
在针对患者目标部位的体表设置标志物后,可以获取对应于患者目标部位的体表扫描数据。体表扫描数据仅仅针对患者体表进行扫描,并不涉及深层次的结构扫描。结合前述对于三维扫描设备的介绍,由于其方便易用的特性,可以在手术开始之前对患者进行快速扫描,或是直接设置在手术室内,在手术执行之前直接进行扫描。由于三维扫描设备的这一特性,使得可以在手术开始之前再在患者体表设置标志物,快速完成扫描后即可执行手术。
在实际应用中,可以在任意时间执行步骤S210,获取患者的预扫描数据。由于短时间内,患者的体表以及内部不会产生明显变化,因此预扫描数据对应的目标部位结构能够在较长时间内维持稳定。步骤S230可以在手术执行之前实施,即在手术中需要利用标志物进行定位的情况下,先设置标志物位置,再连同标志物一同对患者体表进行扫描。
在具体的应用场景中,所述标志物可以是具有一定几何特征的装置,所述几何特征可以为立体特征,也可以是能够被扫描设备识别的平面特征。所述标志物例如可以是电极片、定位标记贴、骨钉、涂画标记等,实际应用中可以将其他能够有效固定在患者体表且能够被所述三维扫描设备扫描到的装置作为标志物,对此不做限制。
S240:基于所述体表扫描数据构建体表轮廓模型。
由于体表扫描数据能够反映目标部位体表的轮廓和形状等特征,因此可以根据体表扫描数据构建体表轮廓模型。体表轮廓模型即用于反映目标部位的外部特征以及标志物的位置参数。
具体的构建过程例如可以如前述示例中的方式,在体表扫描数据为点云数据的情况下,根据点云数据所反映的距离构建对应的体表轮廓模型。也可以是获得对于目标部位多角度的图像后,综合这些图像中的目标部位特征构建出对应的体表轮廓模型。实际应用中可以根据需求选取相应的方式完成体表轮廓模型的构建,在此不再赘述。
在利用三维扫描设备扫描目标部位时,可能难免会将背景物品一同扫描。为了保证最终构建的模型即对应于目标部位的外部轮廓,在一些实施方式中,根据体表扫描数据可以先构建候选扫描模型。候选扫描模型即为根据所有体表扫描数据构建得到的模型,其中可能不仅包含有患者目标部位,还包括背景物,例如枕头、平台等物体对应的模型。
针对候选扫描模型,可以识别并去除其中的背景区域,得到体表轮廓模型。去除过程可以由操作人员手动实现,也可以预先获取背景区域的特征,通过比对背景区域和候选扫描模型实现背景区域的去除,例如预先单纯扫描背景区域,再通过比对实现背景区域的去除和体表轮廓模型的构建。
S250:融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。
在获取到结构模型和体表轮廓模型后,可以融合这两个模型得到手术指导模型。由于结构模型包含目标部位内部的相关特征,而体表轮廓模型包含有目标部位体表的标志物设置状况,融合后的手术指导模型既能够体现体表轮廓以及标志物分布情况,又能够体现内部组织分布情况,从而能够为手术过程提供有效的指导。
具体的,手术指导模型上指示有标志物位置参数,标志物位置参数用于指示标志物在手术指导模型表面的位置,通过标志物位置参数能够有效对标志物进行定位,并能够基于特定点相对于标志物的位置在患者体表对特定点进行定位。
由于结构模型和体表轮廓模型中均包含有目标部位的外部轮廓,且一般情况下,这两个模型中的外部轮廓是相同的,因此可以通过匹配外部轮廓来实现模型的融合。具体的,可以确定体表轮廓模型的外部轮廓特征,外部轮廓特征可以包括模型外部的形状以及体表特征点的位置、形状等,基于所述体表轮廓模型的外部轮廓特征和所述结构模型的体表特征,确定之间的匹配关系,使得特征能够相互对应,从而完成模型的融合过程。
实际应用中也可以通过其他方式或算法实现模型之间的融合,并不限于上述示例,在此不再赘述。
相应的,可以根据手术指导模型确定手术路径。根据手术指导模型的体内特征可以确定其中的病灶区域,进而确定病灶区域的病灶位置参数。基于病灶位置参数以及内部组织的分布情况,结合手术需求,可以规划出针对目标部位的手术路径。在手术路径投射至手术指导模型上时,同时具有相对于各个标志物的空间位置关系,即手术路径具有对应于各个标志物位置参数的位姿关系。基于这一位姿关系能够有效在患者体表根据标志物位置确定手术执行路径,例如,在手术路径为穿刺路径时,穿刺路径对应有在患者体表的穿刺点,穿刺点的位置可以根据标志物的位置进行确定,穿刺方向同样能够基于相较于多个标志物的位置关系而确定,从而能够有效实施穿刺操作。
在一些实施方式中,在完成结构模型的构建后,由于结构模型已经能够体现内部组织和病灶的分布情况,因此可以直接根据结构模型设置手术方案,包括基于结构模型的手术路径确定。在完成模型融合生成手术指导模型后,可以根据手术路径在结构模型上的位置关系将手术路径直接移植至手术指导模型上,并确定手术路径相较于标志物的位置关系,同样能够实现手术指导的效果。
在一些实施方式中,在完成模型融合操作之后,还可以针对手术指导模型进行配准精度评价。具体的,可以先根据手术指导模型确定模型配准精度,模型配准精度可以是通过比对手术指导模型和结构模型/体表轮廓模型,确定模型之间的差异,并将差异程度量化后所得到的参数。
将模型配准精度与预先设定的模型融合需求进行比对,模型融合需求可以是预先设定的限定模型融合效果的条件,若模型配准精度符合模型融合需求,则手术指导模型可以应用于手术过程中完成对应的手术指导操作;若模型配准精度不符合模型融合需求,可以对手术指导模型进行调整,调整可以是针对差异部位重新进行模型融合操作,也可以是针对差异部位手动调整。具体的调整手术指导模型的方式可以根据实际应用的需求进行设置,对此不做限制。
下面结合附图3中的场景示例,对上述基于模型融合的标志物定位方法的流程进行示例性介绍。如图3所示,患者首先进行CT检查,并获取DICOM数据。通过DICOM数据处理模块中的dicom读取单元、表面轮廓分割单元、内部结构分割单元,生成dicom来源模型,即为结构模型。同时,在另一流程中,针对患者进行备皮(剃头)后进入手术室,在头皮上装置标志点,并进行现场3D扫描,得到3D扫描数据。针对3D扫描数据,通过3D扫描数据处理模块中的3D扫描数据读取单元、3D扫描模型生成单元、3D模型背景去除单元,生成3D扫描模型,即为体表轮廓模型。
针对dicom来源模型和3D扫描模型,一同输入轮廓配准融合模块中,通过dicom模型轮廓与3D扫描模型轮廓配准单元进行配准,通过配准精度评价单元进行配准精度评价,最终生成融合模型,即为手术指导模型。通过融合模型,能够分析标志点与内部结构的位置关系,并最终有效实施定位手术。
基于上述实施例和场景示例的介绍,可以看出,所述基于模型融合的标志物定位方法在患者体表设置标志物之前获取预扫描数据,在设置标志物之后获取体表扫描数据。根据预扫描数据构建结构模型,根据体表扫描数据构建体表轮廓模型,最终通过融合结构模型和体表轮廓模型得到手术指导模型。在设置标志物之前扫描并构建模型无需考虑标志物的设置需求;而设置标志物后仅仅获取体表扫描数据不仅能够加快扫描速度,也能够保证标志物位置的稳定性。最终通过融合模型得到手术指导模型,不仅能够确定体内组织的空间位姿,也能够确定体表标志物的位置,从而能够通过手术指导模型对标志物和病灶进行有效定位,进而有效对手术过程进行指导,保证了手术的精确性和操作性。
基于图2所对应的基于模型融合的标志物定位方法,本说明书实施例还提出一种基于模型融合的标志物定位装置。所述基于模型融合的标志物定位装置可以设置在所述计算设备上。如图4所示,所述基于模型融合的标志物定位装置包括以下具体模块。
预扫描数据获取模块410,用于获取对应于患者目标部位的预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据。
结构模型构建模块420,用于利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征。
体表扫描数据获取模块430,用于获取对应于患者目标部位的体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据。
体表轮廓模型构建模块440,用于基于所述体表扫描数据构建体表轮廓模型。
模型融合模块450,用于融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。
基于图2所对应的基于模型融合的标志物定位方法,本说明书实施例提供一种计算机可读存储介质,其上存储有计算机程序/指令。所述计算机可读存储介质可以基于计算设备的内部总线被处理器所读取,进而通过处理器实现所述计算机可读存储介质中的程序指令。
在本实施例中,所述计算机可读存储介质可以按任何适当的方式实现。所述计算机可读存储介质包括但不限于随机存取存储器(Random Access Memory, RAM)、只读存储器(Read-Only Memory, ROM)、缓存(Cache)、硬盘(Hard Disk Drive, HDD)、存储卡(Memory Card)等等。所述计算机存储介质存储有计算机程序指令。在所述计算机程序指令被执行时实现本说明书图2所对应实施例的程序指令或模块。
需要说明的是,上述基于模型融合的标志物定位方法、装置及系统可以应用于智能制造技术领域,也可以应用至其他技术领域,对此不做限制。
虽然上文描述的过程流程包括以特定顺序出现的多个操作,但是,应当清楚了解,这些过程可以包括更多或更少的操作,这些操作可以顺序执行或并行执行(例如使用并行处理器或多线程环境)。
本申请是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书实施例的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种基于模型融合的标志物定位方法,其特征在于,包括:
获取对应于患者目标部位的预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据;所述标志物包括在体表所设置的人工标志物;
利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征;
获取对应于患者目标部位的体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据;
基于所述体表扫描数据构建体表轮廓模型;所述体表轮廓模型包括体表特征和标志物位置参数;
融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。
2.如权利要求1所述的方法,其特征在于,所述预扫描数据包括CT/MR扫描数据;所述体表扫描数据包括利用三维扫描仪获取的扫描数据。
3.如权利要求1所述的方法,其特征在于,所述预扫描数据包括断层扫描图像;所述利用所述预扫描数据构建对应于所述患者目标部位的结构模型,包括:
根据断层扫描图像的外围形状确定体表轮廓结构;
根据断层扫描图像的内部特征确定内部组织结构;
综合所述体表轮廓结构和内部组织结构构建对应于所述患者目标部位的结构模型。
4.如权利要求1所述的方法,其特征在于,所述基于所述体表扫描数据构建体表轮廓模型,包括:
根据所述体表扫描数据构建候选扫描模型;
从所述候选扫描模型中识别并去除背景区域,得到体表轮廓模型。
5.如权利要求1所述的方法,其特征在于,所述融合所述结构模型和体表轮廓模型得到手术指导模型,包括:
确定体表轮廓模型的外部轮廓特征;
基于所述体表轮廓模型的外部轮廓特征和所述结构模型的体表特征,融合所述结构模型和体表轮廓模型得到手术指导模型。
6.如权利要求1所述的方法,其特征在于,所述融合所述结构模型和体表轮廓模型得到手术指导模型之后,还包括:
根据手术指导模型中的体内特征确定病灶位置参数;
利用所述病灶位置参数构建手术路径;所述手术路径具有对应于各个标志物位置参数的位姿关系。
7.如权利要求1所述的方法,其特征在于,所述融合所述结构模型和体表轮廓模型得到手术指导模型之后,还包括:
根据所述手术指导模型确定模型配准精度;
在所述模型配准精度符合模型融合需求的情况下,将所述手术指导模型应用于手术,或,在所述模型配准精度不符合模型融合需求的情况下,对所述手术指导模型进行调整。
8.一种基于模型融合的标志物定位装置,其特征在于,包括:
预扫描数据获取模块,用于获取对应于患者目标部位的预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据;所述标志物包括在体表所设置的人工标志物;
结构模型构建模块,用于利用所述预扫描数据构建对应于所述患者目标部位的结构模型;所述结构模型包含目标部位的体表特征和体内特征;
体表扫描数据获取模块,用于获取对应于患者目标部位的体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据;
体表轮廓模型构建模块,用于基于所述体表扫描数据构建体表轮廓模型;所述体表轮廓模型包括体表特征和标志物位置参数;
模型融合模块,用于融合所述结构模型和体表轮廓模型得到手术指导模型;所述手术指导模型指示有标志物位置参数。
9.一种基于模型融合的标志物定位系统,其特征在于,包括预扫描设备、三维扫描设备和计算设备;
所述预扫描设备用于扫描患者目标部位得到预扫描数据;所述预扫描数据为在所述患者目标部位的体表设置标志物前所获取的扫描数据;所述预扫描数据包括针对体表和体内扫描得到的数据;所述标志物包括在体表所设置的人工标志物;
所述三维扫描设备用于扫描患者目标部位得到体表扫描数据;所述体表扫描数据为在所述患者目标部位的体表设置标志物后,针对所述患者目标部位的体表的扫描数据;
所述计算设备上存储有计算机程序/指令,所述计算设备用于获取所述预扫描数据和体表扫描数据,并执行所述计算机程序/指令以实现如权利要求1-7中任一项所述方法的步骤。
10.一种计算机存储介质,其上存储有计算机程序/指令,其特征在于,所述计算机程序/指令在被执行时用于实现如权利要求1-7中任一项所述方法的步骤。
CN202310825931.4A 2023-07-06 2023-07-06 一种基于模型融合的标志物定位方法、装置及系统 Active CN116563379B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310825931.4A CN116563379B (zh) 2023-07-06 2023-07-06 一种基于模型融合的标志物定位方法、装置及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310825931.4A CN116563379B (zh) 2023-07-06 2023-07-06 一种基于模型融合的标志物定位方法、装置及系统

Publications (2)

Publication Number Publication Date
CN116563379A CN116563379A (zh) 2023-08-08
CN116563379B true CN116563379B (zh) 2023-09-29

Family

ID=87490157

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310825931.4A Active CN116563379B (zh) 2023-07-06 2023-07-06 一种基于模型融合的标志物定位方法、装置及系统

Country Status (1)

Country Link
CN (1) CN116563379B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1723859A (zh) * 2004-07-22 2006-01-25 上海英迈吉东影图像设备有限公司 手术导航方法
CN105919684A (zh) * 2016-05-27 2016-09-07 穆檬檬 一种建立三维牙颌融合模型的方法
CN108805976A (zh) * 2018-05-31 2018-11-13 武汉中观自动化科技有限公司 一种三维扫描系统及方法
CN109785374A (zh) * 2019-01-23 2019-05-21 北京航空航天大学 一种牙科增强现实手术导航的自动实时无标记图像配准方法
CN112155732A (zh) * 2020-09-29 2021-01-01 苏州微创畅行机器人有限公司 可读存储介质、骨建模配准系统及骨科手术系统
CN112220557A (zh) * 2019-06-30 2021-01-15 苏州理禾医疗技术有限公司 用于颅脑穿刺的手术导航及机器臂装置及定位方法
CN113057734A (zh) * 2021-03-12 2021-07-02 上海微创医疗机器人(集团)股份有限公司 一种手术系统
CN113409456A (zh) * 2021-08-19 2021-09-17 江苏集萃苏科思科技有限公司 颅脑穿刺术前三维模型的建模方法、系统、装置、介质
CN114010314A (zh) * 2021-10-27 2022-02-08 北京航空航天大学 一种针对经内镜逆行性胰胆管造影术的增强现实导航方法及系统
CN114145846A (zh) * 2021-12-06 2022-03-08 北京理工大学 基于增强现实辅助的手术导航方法及系统
CN115005981A (zh) * 2022-06-07 2022-09-06 武汉联影智融医疗科技有限公司 手术路径规划方法、系统、设备、介质和手术操作系统
CN115105207A (zh) * 2022-06-28 2022-09-27 北京触幻科技有限公司 基于混合现实的手术全息导航方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331850B2 (en) * 2014-01-28 2019-06-25 Siemens Healthcare Gmbh Estimating body surface models of patients
US11432878B2 (en) * 2016-04-28 2022-09-06 Intellijoint Surgical Inc. Systems, methods and devices to scan 3D surfaces for intra-operative localization
KR101877895B1 (ko) * 2016-10-06 2018-07-12 주식회사 메가젠임플란트 임플란트 진단용 영상 생성 시스템 및 그 생성방법
CN107595387B (zh) * 2017-07-28 2020-08-07 浙江大学 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1723859A (zh) * 2004-07-22 2006-01-25 上海英迈吉东影图像设备有限公司 手术导航方法
CN105919684A (zh) * 2016-05-27 2016-09-07 穆檬檬 一种建立三维牙颌融合模型的方法
CN108805976A (zh) * 2018-05-31 2018-11-13 武汉中观自动化科技有限公司 一种三维扫描系统及方法
CN109785374A (zh) * 2019-01-23 2019-05-21 北京航空航天大学 一种牙科增强现实手术导航的自动实时无标记图像配准方法
CN112220557A (zh) * 2019-06-30 2021-01-15 苏州理禾医疗技术有限公司 用于颅脑穿刺的手术导航及机器臂装置及定位方法
CN112155732A (zh) * 2020-09-29 2021-01-01 苏州微创畅行机器人有限公司 可读存储介质、骨建模配准系统及骨科手术系统
CN113057734A (zh) * 2021-03-12 2021-07-02 上海微创医疗机器人(集团)股份有限公司 一种手术系统
CN113409456A (zh) * 2021-08-19 2021-09-17 江苏集萃苏科思科技有限公司 颅脑穿刺术前三维模型的建模方法、系统、装置、介质
CN114010314A (zh) * 2021-10-27 2022-02-08 北京航空航天大学 一种针对经内镜逆行性胰胆管造影术的增强现实导航方法及系统
CN114145846A (zh) * 2021-12-06 2022-03-08 北京理工大学 基于增强现实辅助的手术导航方法及系统
CN115005981A (zh) * 2022-06-07 2022-09-06 武汉联影智融医疗科技有限公司 手术路径规划方法、系统、设备、介质和手术操作系统
CN115105207A (zh) * 2022-06-28 2022-09-27 北京触幻科技有限公司 基于混合现实的手术全息导航方法及系统

Also Published As

Publication number Publication date
CN116563379A (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
JP7120584B2 (ja) 被検体の位置決め装置、被検体の位置決め方法、被検体の位置決めプログラムおよび放射線治療システム
CN108883294B (zh) 用于在整个放射治疗中监视结构运动的系统和方法
US5531520A (en) System and method of registration of three-dimensional data sets including anatomical body data
CN107038728B (zh) 基于迭代重建的轮廓自动化确定
US10055848B2 (en) Three-dimensional image segmentation based on a two-dimensional image information
US5999840A (en) System and method of registration of three-dimensional data sets
US11210780B2 (en) Automatic image registration of scans for image-guided surgery
US8463005B2 (en) Stent and method for determining the position of a stent
WO2019020048A1 (zh) 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统
CN110960241A (zh) 医学影像扫描的扫描参数确定方法、装置和计算机设备
CN112022191B (zh) 一种摆位方法和系统
US20160135776A1 (en) Method and system for intraoperative imaging of soft tissue in the dorsal cavity
US8688409B2 (en) Method for determining an arrangement of measurement points on an anatomical structure
US9254106B2 (en) Method for completing a medical image data set
Stolka et al. A 3D-elastography-guided system for laparoscopic partial nephrectomies
WO2001057805A2 (en) Image data processing method and apparatus
WO2002061680A2 (en) Surface imaging
KR100346363B1 (ko) 자동 의료 영상 분할을 통한 3차원 영상 데이터 구축방법/장치, 및 그를 이용한 영상유도 수술 장치
CN116563379B (zh) 一种基于模型融合的标志物定位方法、装置及系统
Brudfors et al. ConoSurf: Open‐source 3D scanning system based on a conoscopic holography device for acquiring surgical surfaces
CN115908479A (zh) 一种脑组织漂变校正方法和手术导航系统
CA2976320C (en) Method, system and apparatus for adjusting image data to compensate for modality-induced distortion
CN107092774B (zh) 一种提供参考信息的方法及装置
CN111127531A (zh) 一种基于在线影像的放疗患者摆位质量保证软件
CN110975173A (zh) 一种基于在线影像的放疗患者摆位质量保证软件

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant