CN114129240A - 一种引导信息生成方法、系统、装置及电子设备 - Google Patents

一种引导信息生成方法、系统、装置及电子设备 Download PDF

Info

Publication number
CN114129240A
CN114129240A CN202111473893.8A CN202111473893A CN114129240A CN 114129240 A CN114129240 A CN 114129240A CN 202111473893 A CN202111473893 A CN 202111473893A CN 114129240 A CN114129240 A CN 114129240A
Authority
CN
China
Prior art keywords
image data
puncture
site
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111473893.8A
Other languages
English (en)
Other versions
CN114129240B (zh
Inventor
秦春霞
杨逸
陈杰
麦永锋
张华杰
王少康
陈宽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Longdianjing Intelligent Technology Co ltd
Original Assignee
Infervision Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infervision Medical Technology Co Ltd filed Critical Infervision Medical Technology Co Ltd
Priority to CN202111473893.8A priority Critical patent/CN114129240B/zh
Publication of CN114129240A publication Critical patent/CN114129240A/zh
Application granted granted Critical
Publication of CN114129240B publication Critical patent/CN114129240B/zh
Priority to US18/072,923 priority patent/US20230177696A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本申请公开了一种引导信息生成方法、系统、装置及电子设备。该方法包括:通过获取检测目标的待识别图像数据;采用训练完成的图像分割模型对待识别图像数据进行分割,得到分割后的目标图像数据;将目标图像数据中设置于检测目标体表的定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;基于该映射关系,生成引导信息,以引导穿刺针对所述检测目标进行穿刺。能够极大地缩短穿刺手术操作时间,提高穿刺效率以及穿刺精度。

Description

一种引导信息生成方法、系统、装置及电子设备
技术领域
本申请涉及图像处理技术领域,具体涉及一种引导信息生成方法、系统、装置及电子设备。
背景技术
结节可以指肿块或影像学表现实体阴影直径小于3cm的病变,结节可以发生在身体的任何部位,多见于甲状腺、乳腺、肝胆、肺、胰腺、肾脏等实质性器官的实质内或表面。例如:肺结节,为一种病因未明的多系统多器官的肉芽肿性疾病,常侵犯肺、双侧肺门淋巴结、眼、皮肤等器官,其胸部受侵率高达80%~90%。结节分实性结节、部分实性结节和磨玻璃结节。部分实性结节恶性概率最高,其次为磨玻璃结节和实性结节。
为了能够早期对于结节定性,病理穿刺是确定结节为良性,还是恶性的一种检查手段,操作相对安全。目前,CT引导下经皮肺穿刺活检是临床上确诊结节良恶性的重要方法,该方法对明确结节的性质断定有非同寻常的诊断价值。CT引导下经皮穿刺术已成为临床工作中CT引导下经皮穿刺引流、定位、活检、射频消融、粒子植入等医疗诊治措施中一项基础的、重要的、必不可少的医疗技能,需要穿刺医生熟练的掌握穿刺技巧,准确进行靶病灶部位的穿刺,精准、安全的CT引导下穿刺术提高了病人精准的诊断与治疗,减少了病人的风险。
因此,亟需提供一种更为可靠的穿刺引导方案。
发明内容
有鉴于此,本申请的实施例致力于提供一种引导信息生成方法、系统、装置及电子设备,能够克服现有技术中穿刺手术精度差、辐射伤害大以及靶区不可见等缺陷,从而提高穿刺效率以及穿刺精度。
根据本申请实施例的第一方面,提供了一种引导信息生成方法,包括:
获取检测目标的待识别图像数据;
采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据;所述目标图像数据中至少包括设置于所述检测目标体表的定位贴片的图像数据;
将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;
基于所述映射关系,生成引导信息;所述引导信息用于引导穿刺针对所述检测目标进行穿刺。
根据本申请实施例的第二方面,提供了一种引导信息生成系统,包括:
穿刺引导设备和定位贴片;
所述穿刺引导设备与图像采集设备通讯连接,接收所述图像采集设备采集到的所述检测目标的待识别图像数据;
所述定位贴片与所述穿刺引导设备通讯连接;所述穿刺引导设备用于执行上述任一实施例所述的方法。
根据本申请实施例的第三方面,提供了一种引导信息生成装置,包括:
待识别图像数据获取模块,用于获取检测目标的待识别图像数据;
图像分割模块,用于采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据;所述目标图像数据中至少包括设置于所述检测目标体表的定位贴片的图像数据;
映射关系建立模块,用于将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;
引导信息生成模块,用于基于所述映射关系,生成引导信息;所述引导信息用于引导穿刺针对所述检测目标进行穿刺。
根据本申请实施例的第四方面,提供了一种电子设备,包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器用于执行上述任一实施例所述的方法。
根据本申请实施例的第五方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述任一实施例所述的方法。
本申请的实施例所提供的一种引导信息生成方法,通过获取检测目标的待识别图像数据;采用训练完成的图像分割模型对待识别图像数据进行分割,得到分割后的目标图像数据;将目标图像数据中设置于检测目标体表的定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;基于该映射关系,生成引导信息,以引导穿刺针对所述检测目标进行穿刺。通过上述方法,使用多个定位贴片跟踪检测目标的位姿,使用图像分割模型自动检测分割待识别图像数据,并基于分割出的定位贴片的图像数据作为特征点,实现DICOM图像空间和导航定位空间的高效快速配准,生成的引导信息可以对穿刺针与检测目标的解剖结构以及穿刺针与规划路径相对位置实现直观反馈,极大地缩短手术操作时间,提高穿刺效率以及穿刺精度。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为本说明书实施例提供的一种引导信息生成方法的流程示意图;
图2为本说明书实施例提供的引导信息生成方法中穿刺针实时位置确定示意图;
图3为本说明书实施例提供的一种引导信息生成系统中硬件装置示意图;
图4为本说明书实施例提供的一种引导信息生成系统中软件结构示意图;
图5为本说明书实施例提供的图像预测与处理模块示意图;
图6为本说明书实施例提供的一种引导信息生成装置的结构示意图;
图7所示为本说明书实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
申请概述
CT引导下经皮肺穿刺活检术即在CT引导下给予进行准确的定位,来进行经皮肺穿刺活检的技术。CT引导经皮穿刺术目前已经成为结节或肿块等诊断和鉴别的重要手段。尤其对病变位于肺周围区而纤维支气管镜检查不能达到的病灶,CT引导下经皮穿刺尤其独到的价值。其中,经皮穿刺,是一种损伤较小的微创手术,主要是用细针通过局部的皮肤和组织器官抽取标本或注射药物,从而达到诊断和治疗目的。穿刺手术对于感染性疾病、出血性疾病、肿瘤等疾病的诊断具有重大的价值,同时还可用于术前麻醉、浆膜腔抽气及抽液、鞘内注药等治疗。而且穿刺创伤小、恢复快,因而广泛的用于临床之中。
胸部或腹部CT(Computed Tomography)是通过X线计算机体层摄影(CT)对胸部或腹部进行检查的一种方法。以胸部CT为例,正常胸部CT层面较多,每一层面结构所表现的图像不同。如果无异常,医生会在报告单中写“平扫肺窗显示两肺纹理清晰,走向分布无异常,肺实质未见渗出或占位性病变。纵隔窗显示两肺门无增大,气管支气管通畅,强化血管及脂肪间隙清晰,纵隔未见肿大淋巴结。胸膜﹑肋骨及胸壁软组织未见异常。”意见:胸部CT扫描未见异常。病毒性肺炎病变初期:一般可仅见肺纹理增重,模糊。病变进展:两肺弥漫网状及小结节状阴影。严重病例有斑片或大片状阴影,呈单发或多发,或两肺弥漫分布。阴影多为磨玻璃密度,也可进展为肺泡实变影像。由于细小支气管炎症性狭窄,发生两肺弥漫性肺气肿。
例如,现有肺结节穿刺方案中,采用徒手标记穿刺或激光器辅助穿刺。其中,徒手标记穿刺方案的大概流程是:患者取俯卧位,触诊患者髂嵴和腰椎棘突并用记号笔标记划线,找到髂嵴最高点并划线连接,作为进针点的参考;以体表骨性标志为参考,估测目标穿刺间隙。将网格状定位器置于体表,C形臂X线机正位透视观察目标间隙在定位器中的位置并进行标记,目标间隙与椎间孔外侧缘的交点即为目标靶点体表投影点;进针点距棘突中线10~14cm,具体与个体差异和不同间隙相关;目标靶点体表投影点、进针点之间的连线即为穿刺路线的体表投影。
激光器辅助穿刺的大概流程是:支架为倒“L”形铝合金结构,底部为三脚支座,上有竖直杆相连,支架高度可调节(1.2~1.7m),可通过扳手锁定高度,亦可拆卸以方便携带;横向杆末端为转筒式角度盘(0°~360°),可调节角度盘(0°~40°)及激光光源;激光光源开关和充电插口位于转筒式角度盘侧面,背侧的滚轮可调节激光光源的角度,光源正中有刻度线,作为角度调节的基准线。
目前出现的相关技术,主要依赖外部设备进行物理空间的标记,其标记位置的确认,仍需要大量的人工验证环节。结节靶点无法直视,穿刺过程中需要进行反复的确认,来保证准确地触及结节。因此,产生了需要提高穿刺精度以及效率的需求。
为了解决上述技术缺陷,本说明书实施例提供一种引导信息生成方案,与特定电磁工具配套使用,采用人工智能技术,分析胸部和腹部CT图像,自动进行图像三维重建,辅助执业医师分析目标病灶与重要解剖结构之间的空间关系,并进行外科手术的术前规划,用于成人肺及腹部等实体器官穿刺手术的导航。
接下来,对本说明书提供的实施例进行说明:
示例性方法
接下来,将针对说明书实施例提供的一种引导信息生成方法结合附图进行具体说明:
图1为本说明书实施例提供的一种引导信息生成方法的流程示意图。从程序角度而言,流程的执行主体可以为搭载于应用服务器的程序或应用客户端。在本实施例中,流程的执行主体可以是引导信息生成设备中的服务器集群,该服务器集群可以接收扫描的患者的图像数据,并对患者的图像数据进行处理,还可以生成用于进行穿刺引导的引导信息。
如图1所示,该流程可以包括以下步骤:
步骤110:获取检测目标的待识别图像数据。
检测目标,在本说明书的实施例中可以表示待检测患者,在实际应用场景中,医院中可以配备引导信息生成设备,待检测患者根据医生要求体位(正卧、侧卧、俯卧)躺卧在磁场发生器上;定位贴片固定到患者体表,进行监测。
待识别图像数据可以是图像采集设备采集的待检测患者的图像数据,例如:待识别图像数据可以是图像采集设备采集到的待检测患者在穿刺前的CT影像数据。图像采集设备在本说明书实施例中可以表示医疗影像采集设备。
步骤120:采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据;所述目标图像数据中至少包括设置于所述检测目标体表的定位贴片的图像数据。
其中,训练完成的图像分割模型可以是已经训练完成的深度学习模型,该深度学习模型用于对待识别图像数据进行图像分割。对于该图像分割模型,在识别过程中,输入的数据来源可以是医疗影像采集设备采集到的待检测患者的图像数据,输出结果可以是分割后的图像数据。在训练过程中,训练样本数据来源可以是医院信息系统中完备的患者医疗影像数据,医院信息系统中可以包括全部患者的医疗影像数据。
需要说明的是,本说明书实施例中的图像分割模型,在训练过程中,能够学习到不同的器官类型、不同的病灶区域类型以及不同定位贴片类型的特征,在识别过程中,可以提取待识别图像数据中的器官特征、病灶区域特征以及定位贴片的特征,基于这些特征识别出不同的器官、病灶区域、非病灶区域以及不同特征的定位贴片,从而进行分割。
其中,定位贴片可以用于对患者体位进行辅助固定,使监测过程中的摆位、复位精确,固定坚固,从而提高治疗效果,减少对人体正常组织的损害。
步骤130:将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系。
实际检测过程中,定位贴片会贴于患者体表,在术前进行图像采集时,患者体表的图像信息中会包含定位贴片的信息,在手术过程中,穿刺导航图像中也会包含定位贴片的图像数据,基于定位贴片的术前空间三维图像坐标系与术中空间定位坐标系可以建立检测目标的术前图像数据与术中空间定位数据的映射关系。
步骤140:基于所述映射关系,生成引导信息;所述引导信息用于引导穿刺针对所述检测目标进行穿刺。
引导信息可以表示用于引导穿刺针对检测目标进行穿刺的信息,具体地,引导信息可以是图像信息、文字信息以及语音信息中的一种或多种。引导信息中至少可以包含穿刺路径,穿刺路径中可以包括进针点、进针方向和进针距离等。
图1中的方法,通过获取检测目标的待识别图像数据;采用训练完成的图像分割模型对待识别图像数据进行分割,得到分割后的目标图像数据;将目标图像数据中设置于检测目标体表的定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;基于该映射关系,生成引导信息,以引导穿刺针对所述检测目标进行穿刺。通过上述方法,使用多个定位贴片跟踪检测目标的位姿,使用图像分割模型自动检测分割待识别图像数据,并基于分割出的定位贴片的图像数据作为特征点,实现DICOM图像空间和导航定位空间的高效快速配准,生成的引导信息可以对穿刺针与检测目标的解剖结构以及穿刺针与规划路径相对位置实现直观反馈,极大地缩短手术操作时间,提高穿刺效率以及穿刺精度。
基于图1的方法,本说明书实施例还提供了该方法的一些具体实施方案,下面进行说明。
本说明书实施例中所使用定位贴片具有不同的特征,具体地,可以是形状不同,也可以是大小不同,还可以是发射的信号强度不同等等,例如:使用A、B、C三块定位贴片,其中,A贴片为圆柱形、贴片B为正方体,贴片C为棱柱形。定位贴片中还可以安装有信号发射器或传感器,信号发射强度可以不同,以此表示各个定位贴片的不同特征。
现有技术中,一般都需要人工标记患者图像中的器官位置或者定位贴片位置,根据术前图像与术中图像的位置对应关系生成引导信息,但是由于人工标记工作量大,标记准确度低,导致穿刺效率以及精确度不够。基于此,本说明书实施例中采用具有不同特征的定位贴片作为特征点建立术前图像数据与术后图像数据的映射关系,具体可以采用以下方式实现:
获取所述定位贴片的术前图像数据以及所述定位贴片的术中空间定位数据;
获取各个所述定位贴片在所述术前图像数据中的第一位置信息;
获取各个所述定位贴片在所述术中空间定位数据中的第二位置信息;
基于所述第一位置信息以及所述第二位置信息,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系。
实际应用场景中,定位贴片在患者体表的位置信息,在手术过程中,可以转换至术中空间定位数据中的空间坐标系中,因此,术中空间定位数据中定位贴片的第二位置信息可以表示用于定位贴片设置于患者体表中的实际位置信息。术前图像数据中定位贴片的第一位置信息可以表示定位贴片在空间三维图像中的坐标系位置信息,通过定位贴片的第一位置信息以及第二位置信息,可以建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系。
定位贴片中可以设置有传感器,各个定位贴片中的传感器可以将对应的定位贴片的位置信息传送给服务器集群,服务器集群在接收到术前的待识别图像数据之后,可以结合各定位贴片的位置信息,确定术前的待识别图像数据中的各个定位贴片的位置信息,该位置信息可以确定为上述的第一位置信息。
当然,在实际应用中,定位贴片的位置信息也可以通过其他方式进行获取,在本说明书实施例中对此不作具体限定。
相对于人工标记器官作为特征点来说,本说明书实施例中的技术方案能够提到建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系的效率,对于人工标记相同定位贴片的方案来说,本说明书实施例中采用不同特征的定位贴片作为特征点的技术方案,能够提高建立映射关系的效率以及准确度,进一步提高穿刺效率以及精度。
在建立了上述映射关系之后,可以根据映射关系,生成引导信息,具体可以包括:
基于所述映射关系,根据预设穿刺规则,确定对所述检测目标进行穿刺的穿刺路径;所述穿刺路径中至少包括进针点、进针方向和进针距离。
在医疗场景中,在设置穿刺路径时,应该满足穿刺规则,在本说明书实施例中,穿刺规则可以确保穿刺路径避开肋骨和重要脏器。穿刺规则可以包括:
a)穿刺路径应尽量短,避免出血;
b)穿刺路径应避开肋骨、血管、气管等重要解剖结构;
c)穿刺路径应避开肋间血管,尽量沿下肋上缘进针;
d)穿刺路径应避开叶间裂,减小气胸风险;
e)穿刺路径应避开明显感染性病变。
基于上述穿刺规则,设置穿刺路径,穿刺路径可以表示穿刺针在对患者进行穿刺时所走的路径,穿刺针在穿刺过程中,按照穿刺路径完成穿刺。
进行穿刺手术时,为了保证穿刺精度,需要基于定位贴片的映射关系,定位术中穿刺针的位置,引导术中穿刺针进行穿刺
更进一步地,在生成引导信息时,可以采用以下步骤实现:
获取所述术前图像数据中的穿刺针的第三位置信息;
根据所述第一位置信息以及所述第三位置信息,确定所述穿刺针与所述定位贴片的相对位置信息;
基于所述相对位置信息以及所述映射关系,生成引导信息。
定位贴片在设置时,一般设置在需要进行穿刺的部位附近,进行定位穿刺,因此,在生成引导信息时,可以基于穿刺针与定位贴片的相对位置关系,生成引导信息,以引导穿刺针对患者进行穿刺。
上述步骤中,在进行生成引导信息时,可以采用以下步骤:
将所述术前图像数据中的任意一个定位贴片确定为参考定位贴片;
获取所述参考定位贴片的位置坐标;
以所述参考定位贴片的位置坐标为基准,计算所述术前图像数据中的其他定位贴片相对于所述参考定位贴片的第一位置对应关系;
计算所述术前图像数据中的所述参考定位贴片与所述术中空间定位数据中的参考定位贴片之间的第二位置对应关系;
基于所述第一位置对应关系以及所述第二位置对应关系,计算术中穿刺针在所述术中空间定位数据中的位置信息;
根据所述映射关系以及所述术中穿刺针在所述术中空间定位数据中的位置信息,生成引导信息。
在进行确定穿刺针在术中实时位置时,上述方法步骤可以结合图2进行说明:
图2为本说明书实施例提供的引导信息生成方法中穿刺针实时位置确定示意图。如图2所示,包含多个定位贴片201、计算机202、CT床203以及穿刺针204。其中,定位贴片201用于跟踪患者术中的位姿,如图2所示,患者可以躺在CT床203上,可以使用特征不同的定位贴片201设置于患者体表,旨在实现影像数据中各个定位贴片201的识别与定位;各定位贴片201与导航追踪仪控制单元接口一一对应。如图2所示,穿刺针204在针尾位置安装传感器适配卡扣,用于连接定位传感器,定位贴片201以及穿刺针204的图像信息可以在计算机202的屏幕中显示。
在进行确定穿刺针在术中实时位置时,假设定位贴片201中包含p、q、r三个定位贴片。选定定位贴片r为参考定位贴片Or,以参考定位贴片Or的位置坐标为基准,计算所述术前图像数据中的其他定位贴片p、q相对于参考定位贴片Or的第一位置对应关系。该步骤可以通过以下公式(1)进行计算:
Figure BDA0003389565200000091
该公式(1)表示各定位贴片在参考坐标系中的相对位置。其中,在电磁导航仪开始工作后,磁场发生器产生的空间坐标系定义为OTracker
Figure BDA0003389565200000092
(i=1,2…n)为各个定位贴片在OTracker的位姿;
Figure BDA0003389565200000093
为穿刺针在OTracker的空间位姿;参考定位贴片记作Ref,该参考坐标系为ORef
Figure BDA0003389565200000094
Figure BDA0003389565200000095
的平移分量。
然后计算参考定位贴片Or与参考定位贴片Oi之间的第二位置对应关系,可以通过以下公式(2)进行计算:
Figure BDA0003389565200000096
该公式(2)表示穿刺针在患者影像坐标系OLPS中的实时位置。其中,
Figure BDA0003389565200000097
(i=1,2…n)表示各定位贴片穿刺前DICOM影像LPS坐标系OLPS中的坐标位置,n表示定位贴片数量;
Figure BDA0003389565200000098
Figure BDA0003389565200000099
的平移分量;
Figure BDA00033895652000000910
为ORef到OLPS坐标系的转换矩阵,由坐标集
Figure BDA00033895652000000911
Figure BDA00033895652000000912
(i=1,2…n)刚性配准计算得到。
当然,在实际应用中,还可以以参考定位贴片Or的位置坐标为基准,计算穿刺针t相对于参考定位贴片Or的位置对应关系,再计算参考定位贴片Or与参考定位贴片Oi之间的位置对应关系,从而定位术中穿刺针。
通过上述方法,基于患者穿刺前的影像数据,利用深度学习技术快速分割患者关键解剖结构、病灶区域及空间定位贴片,进一步重建可视化到图形界面;进一步利用空间配准技术,基于空间定位贴片信息对齐穿刺前病人影像坐标系和病人实际物理坐标系,将穿刺针相对于病人的空间位姿信息实时映射到影像空间,从而给医生提供患者皮下手术的可视化直观反馈,规划的手术路径为医生进一步提供操作引导。
在实际应用中,穿刺一般可以分为诊断性穿刺和治疗性穿刺,常见的穿刺包括胸腔穿刺、腹腔穿刺、腰椎穿刺、硬膜外穿刺、骨髓穿刺、肺穿刺、关节腔穿刺、阴道后穹窿穿刺、淋巴结穿刺以及体表肿块穿刺等。本说明书实施例提供的方案适用于所有穿刺场景。接下来,采用以下实施方式,分别说明不同的穿刺场景中对于本说明书实施例提供的技术方案的实现:
实施方式一
以肺穿刺为例,说明本说明书实施例提供的技术方案:
在肺结节穿刺中,目标图像数据中除了定位贴片的图像数据,还可以包括检测目标的关键器官图像数据以及病灶区域图像数据;其中,所述病灶区域图像数据可以包括:肺结节图像数据;所述关键器官图像数据可以包括:体表图像数据、骨骼图像数据、支气管图像数据、肺叶图像数据以及肺血管图像数据。
可选的,所述采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据,具体可以包括:
将所述待识别图像数据输入所述训练完成的图像分割模型中,得到所述待识别图像数据中的所述检测目标的关键器官图像数据、病灶区域图像数据以及所述不同特征的定位贴片的图像数据。
在进行分割时,可以包括:患者整体分割、肺部分割、肺结节检测以及定位贴片分类与定位。各关键器官的分割可以采用以下方式进行分别论述:
体表分割:可以采用传统阈值法、分水岭法或深度学习法实现,提取患者体表图像数据。
骨骼分割:可以基于UNet模型提取影像骨骼,进一步可以分为6类:肋骨、椎骨、肩胛骨、锁骨、胸椎以及盆骨,其中肋骨可以再划分为24子类。其中,一个unet网络模型可以由一个编码器(下采样器)和解码器(上采样器)组成,编码器可以是训练好的MobileNetV2模型,解码器可以使用上采样模块。
支气管分割:将肺区影像裁剪成小块,利用ResUNet网络进行初分割,再利用区域生长法连接初分割得到的所有小块,形成完整的支气管分割结果,最后结合支气管拓扑结构,将支气管分成18个段和42个亚段。
肺叶分割:将肺区影像裁剪成小块,采用ResUNet进行分肺叶提取,其中全部block采用bottleneck结构;输出与输入的尺寸一致并根据输入数据和输出标签的尺寸,引入长短时记忆网络(Long Short Term Memory Network,简称LSTM)模块进行叶间裂平滑;再利用区域生长法连接所有小块,形成三块完整的肺裂。最终结合肺部分割结果和肺裂分割结果,将全肺分割为5个肺叶;同时结合流域的特点和18个段支气管,将肺分割为18个肺段。其中,DICOM数据经过裁剪之后的输入到网络的长宽高为尺寸,分割结果的输出是初步肺叶分割结果,需要引入lstm模块进行后处理。
肺结节检测:采用FCOS一阶段全卷积检测目标检测网络算法检测肺结节,进一步利用ResUNet网络提取结节目标区域。其中,FCOS可以是一种one-stage的、全卷积的、以每个像素预测物体的方式的目标检测算法,类似于语义分割。
肺血管分割:可以采用一级分割分类结合二级深层血管修复方案(deep fixvessel solution)。一级分割分类可以采取类unet网络结构,结合patch-based的方法。一级网络后加入联通检查模块用于检查血管分类的结果,如果联通检查结果与血流趋势相反,则启动二级深层血管修复;反之,则保留一级网络的结果。通过该方法,利用血管连通性特征,可以有效解决一级模型种动脉静脉分类错误问题。
定位贴片提取:可以基于深度学习模型来实现。深度学习模型学习到不同定位贴片的特征,训练完成后,采用训练完成的深度学习模型识别待识别图像数据中的定位贴片的特征,从而对定位贴片进行检测和分类。
具体地,定位贴片的特征可以包括:形状特征、大小特征、信号强度特征等等。在训练时,可以根据实际应用场景以及识别需求,采用对应的特征进行深度学习模型训练。对此,本说明书实施例不作具体限定。
本说明书实施例提供的深度学习模型,在进行图像分割时,不仅可以分割得到关键器官图像数据,还可以识别到病灶区域数据,例如:肺结节图像数据,以及识别到具有不同特征的定位贴片的图像数据。在训练时,可以基于以下过程实现:
获取已知图像类型的图像数据训练样本集合;所述图像类型至少包括器官类型、病灶类型以及定位贴片类型;
针对所述训练样本集合中的每个训练样本,将所述训练样本输入初始深度学习模型中,输出识别结果;
根据所述识别结果与所述已知的图像类型之间的差异,调整所述初始深度学习模型的模型参数,得到训练完成的图像分割模型。
可以使用自下上升非监督学习:采用有标定(标定图像类型)的图像数据分层训练各层参数,训练时先学习第一层的参数,由于模型能力的限制以及稀疏性约束,使得得到的模型能够学习到数据本身的结构,从而得到比输入更具有表示能力的特征;在学习得到第n-1层后,将n-1层的输出作为第n层的输入,训练第n层,由此分别得到各层的参数。还可以采用自顶向下的监督学习进行训练:基于第一步得到的各层参数进一步微调整个多层模型的参数,类似神经网络的随机初始化初值过程。
在一种实施方式中,图像分割模型可以为全连接的深度神经网络模型(DeepNeuralNetworks,DNN);全连接的深度神经网络模型可以包括输入层及多个全连接层;其中,输入层可以与所述编码器的输出连接,所输入层还可以与所述全连接层连接;该输入层用于接收所述编码器输出的所述编码向量;全连接层,用于对所述编码向量进行特征提取,得到所述待检测目标的图像类型向量。全连接的深度神经网络模型还可以包括输出层,输出层可以与全连接层连接;输出层可以用于根据所述全连接层输出的图像类型向量,生成图像分割结果;其中,全连接层输出的图像类型向量为与所述输出层相邻的全连接层的输出向量。
在本说明书实施例中,由于自编码器的训练目标为将待识别图像数据进行分割,深度神经网络模型可以用于分类场景,因此,当将待检测目标的待识别图像数据输入该深度神经网络模型后,该深度神经网络模型的输出向量可以是分割后的各图像的图像向量。当然,在本说明书实施例中,引导信息生成设备中搭载的深度神经网络模型既可以是全连接的深度神经网络模型,也可以是非全连接的深度神经网络模型。其中,全连接的深度神经网络模型是指模型中的第i层的任意一个神经元与第i+1层的各个神经元均相连,而非全连接的深度神经网络模型是指模型中的第i层的任意一个神经元可以与第i+1层中的部分神经元相连。全连接的深度神经网络模型相较于非全连接的深度神经网络模型的可以提取更多的图像特征信息,但是计算量也较大,容易影响计算效率。因此,第二设备中搭载的深度神经网络模型可以根据实际需求去确定。
本说明书实施例中,全连接层(fully connected layers,FC)可以起到“分类器”的作用。深度神经网络模型中的全连接层的层数与该模型的非线性表达能力成正比。因此,当深度神经网络模型包含多个全连接层时,可以提升基于该深度神经网络模型生成的各分割图像特征的准确性。在实际应用中,所述分割图像的特征向量既可以为与所述输出层相邻的全连接层的输出向量,也可以为与所述输出层间隔N个网络层的全连接层的输出向量;对此不做具体限定。
实施方式二
以肝穿刺为例,说明本说明书实施例提供的技术方案:
目标图像数据中可以包括:检测目标的关键器官图像数据、病灶区域图像数据以及定位贴片图像数据;其中,病灶区域图像数据可以包括:占位性病变或者肿瘤区域;关键器官图像数据可以包括:胆囊图像数据、胆管图像数据以及肝动静脉图像数据。可以基于深度学习模型对待识别图像数据进行处理,得到需要避开的胆囊图像数据、胆管图像数据以及肝动静脉图像数据。还可以识别出占位性病变或者肿瘤区域图像数据以及定位贴片图像数据。具体实现过程与上述实施方式一相比,仅在于识别对象不同,在分割各重要器官或者病灶区域时,可以选择深度学习网络中适宜的网络结构进行处理。其余实现方式均与实施方式一相同,此处不再赘述。
实施方式三
以颅内穿刺为例,说明本说明书实施例提供的技术方案:
目标图像数据中可以包括:检测目标的关键器官图像数据、病灶区域图像数据以及定位贴片图像数据;其中,病灶区域图像数据可以包括:血肿或病变区域;关键器官图像数据可以包括:血管图像数据、神经图像数据等。可以基于深度学习模型对待识别图像数据进行处理,得到需要避开的血管图像数据、神经图像数据等。还可以识别出占位性病变或者肿瘤区域图像数据以及定位贴片图像数据。具体实现过程与上述实施方式一相比,仅在于识别对象不同,在分割各重要器官或者病灶区域时,可以选择深度学习网络中适宜的网络结构进行处理。其余实现方式均与实施方式一相同,此处不再赘述。
需要说明的是,上述实施方式一至三分别给出三种穿刺实施方式,但是,在实际应用场景,其应用范围不仅限于上述三种实施方式。只要需要采用病理穿刺确定结节良恶性的场景都适用于本说明书实施例中提供的技术方案。
通过上述实施例中的引导信息生成方法,至少可以实现以下技术效果:
1)可以克服传统穿刺术中多次CT肺结节穿刺方法导致手术精度差、辐射伤害大、靶区不可见等缺陷,使用多个定位贴片跟踪患者位姿,并将定位贴片用作特征点,实现DICOM图像空间和导航定位空间的高效快速配准。
2)定位贴片具有不同特征,图像检测流程中,使用图像分割模型能够实现自动区分,从而实现与电磁导航系统定位信息一一匹配。
3)基于深度学习技术,结合高精度电磁定位系统,实现手术中实时进针追踪、姿态检查,配合术前的结节、胸腔组织分割,进行导航规划,有助于穿刺手术顺利进行。
4)将深度学习与手术导航技术结合,全自动检测分割,速度更快;路径自动规划,医生使用更直观;患者及穿刺针全手术定位,可以极大地缩短手术操作时间。
基于同样的思路,本说明书实施例还提供了实施上述实施例中的方法对应的系统。
示例性系统
接下来,将针对说明书实施例提供的一种引导信息生成系统进行具体说明:
该系统可以包括:
穿刺引导设备和定位贴片;
所述穿刺引导设备与图像采集设备通讯连接,接收所述图像采集设备采集到的所述检测目标的待识别图像数据;
所述定位贴片与所述穿刺引导设备通讯连接,所述定位贴片中设置有传感器,所述传感器将所述定位贴片的位置信息传送给所述穿刺引导设备;
所述穿刺引导设备采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据;所述目标图像数据中至少包括设置于所述检测目标体表的定位贴片的图像数据;
将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;
基于所述映射关系,生成引导信息;所述引导信息用于引导穿刺针对所述检测目标进行穿刺。
其中,该引导信息生成系统可以分为软件部分和硬件部分,接下来将结合附图分别进行说明:
硬件部分可以结合图3进行说明:图3为本说明书实施例提供的一种引导信息生成系统中硬件装置示意图。如图3所示,该硬件装置中可以包括:穿刺针301、定位贴片302(数量≥3)、磁场发生器303、CT机304、可视化图形界面305、键盘鼠标外设306、导航追踪仪控制单元307、服务器及电源308。其中穿刺针301和各个定位贴片302内部均固定6DOF(Degreeof Freedom)电磁传感器,导航追踪仪控制单元307可以定位其空间位姿;磁场发生器303在穿刺手术过程中平放于CT床304上,通过连接线与导航追踪仪控制单元307通讯;服务器及电源部分308中不间断电源可保证在突发停电后保持整套系统的正常工作,服务器则部署操作系统和整套穿刺软件。需要说明的是,虽然图3中的定位贴片看上去形状相同,但是并不表示定位贴片特征相同,在实际应用中,定位贴片的形状可以不相同,即使形状相同,各个定位贴片的其他特征也可不同,例如:发射信号强度不同。
需要说明的是,虽然在图3中,为例清楚表示各结构之间的连接通讯关系,穿刺针301、定位贴片302以及磁场发生器303均通过连接线与导航追踪仪控制单元307相连,但是在实际应用中,也可以通过无线连接,例如:在穿刺针301、定位贴片302安装信号发射器,通过信号传送的方式实现与导航追踪仪控制单元进行通讯。
软件部分可以结合图4进行说明:图4为本说明书实施例提供的一种引导信息生成系统中软件结构示意图。如图4所示,该软件部分中可以包括:影像数据管理模块401、影像预测及处理模块402、手术方案规划模块403、导航追踪模块404、空间自动配准模块405、手术器械校准模块406以及可视化手术引导模块407。
其中,影像数据管理模块401可以是DS(Docking Station)模块,该模块中可以包括信息拉取组件、预处理组件以及数据发送组件。信息拉取组件,可以接收医院信息系统推送的DICOM影像数据;预处理组件,可以根据DS服务配置文件部署的规则,对拉取组件获得的影像数据进行过滤和筛选;数据发送组件,可以接收预处理组件筛选后的序列,并且用HTTP的POST请求,将数据发送到InferX数据中心。
影像预测及处理模块402,可以结合图5进行说明:
图5为本说明书实施例提供的图像预测与处理模块示意图。如图5所示,以肺结节穿刺为例。影像预测及处理模块402可以根据DS部署的预测任务,对影像数据管理模块输出的患者DICOM影像进行处理。预测任务包括四个部分:患者整体分割、肺部分割、肺结节检测以及定位贴片分类与定位。其中,整体分割可以包括体表分割和骨骼分割;肺部分割可以包括肺叶分割、支气管分割和肺血管分割;目标检测可以是肺结节检测。患者整体分割、肺部分割与肺结节检测为穿刺路径规划模块的输入。
手术方案规划模块403,可以根据临床肺部穿刺规则,为影像预测及处理模块检测出的肺结节自动设计穿刺路径,每个结节的穿刺路径可以包括进针点、进针方向和进针距离。穿刺路径的规划依赖于影像预测及处理模块各种器官分割结果,确保穿刺路径避开肋骨和重要脏器。穿刺规则在前述实施例中已经进行了说明,此处不再赘述。
导航追踪模块404,可以用于追踪穿刺手术过程中的定位贴片以及穿刺针的位置信息。在本说明书实施例中的术前图像数据中可以包含患者、定位贴片和磁场发生器等图像信息。对于定位贴片,可以使用至少3个定位贴片;在进行穿刺手术之前,具体地,在获取穿刺影像数据之前,磁场发生器平置于CT床上,患者根据医生要求体位(正卧、侧卧、俯卧)躺卧在磁场发生器上;定位贴片固定到患者体表,避免任意三个贴片呈线性分布,避免在行穿刺术过程中存在贴片位移。位移指贴片相对于患者局部体表的位置移动。
定位贴片用于跟踪患者术中的位姿,可以使用形状各异的定位贴片以实现影像数据中各个定位贴片的识别与定位;各形状贴片与导航追踪仪控制单元(7)接口一一对应。穿刺针在针尾位置可以安装传感器适配卡扣,用于连接定位传感器。
空间自动配准模块405可以实现导航追踪仪的定位空间的配准。
手术器械校准模块406可以用于校准手术器械,例如:穿刺针。
可视化手术引导模块407可以包括影像显示区和信息列表区。其中,信息列表区可以用于显示肺结节病灶区域的相关信息以及所有解剖结构。影像显示区可以用于显示多次随访影像,具有所有医学影像存档与通讯系统(Picture archiving and communicationsystems,简称PACS)的影像操作功能,包括但不限于窗宽窗位调整,测量,位置探针,多影像联动功能,多影像联动的逻辑来自于图像配准输出的两次影像的映射关系。
在手术开始时,探测针、定位贴片都需置于磁场发生器的磁场范围内,术内导航追踪模块会根据探测针与定位贴片的相对位置与角度变换,构建出探测针在ct影像空间中的位置与姿态,计算出探测针沿当前角度距离病灶、胸膜等的距离,并通过显示器在三维组织界面中展示出来。因此,引导信息生成系统中还可以包括显示设备,所述显示设备可以用于接收所述图像采集设备发送的所述引导信息,并将所述引导信息显示在所述显示设备的显示屏上。除此之外,引导信息生成系统中还可以包括图像采集设备,用于患者的图像数据。
与前述方法实施例对应,示例性系统同样适用于肺部或腹部等穿刺的应用场景。通过上述引导信息生成系统,结合深度学习技术以及高精度定位,可以实现DICOM图像空间和导航定位空间的高效快速配准,生成的引导信息可以对穿刺针与检测目标的解剖结构以及穿刺针与规划路径相对位置实现直观反馈,医生能够直观患者胸腔部或腹部解剖结构,制定合理的手术方案;并在行穿刺术时,获得穿刺针与患者解剖结构以及穿刺针与规划路径相对位置的直观反馈。极大地缩短手术操作时间,提高穿刺效率以及穿刺精度。
示例性装置
基于同样的思路,本说明书实施例还提供了上述实施例中的方法对应的装置。图6为本说明书实施例提供的一种引导信息生成装置的结构示意图。如图6所示,该装置可以包括:
待识别图像数据获取模块610,用于获取检测目标的待识别图像数据;
图像分割模块620,用于采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据;所述目标图像数据中至少包括设置于所述检测目标体表的定位贴片的图像数据;
映射关系建立模块630,用于将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;
引导信息生成模块640,用于基于所述映射关系,生成引导信息;所述引导信息用于引导穿刺针对所述检测目标进行穿刺。
基于图6的装置,本说明书实施例还提供了该装置的一些具体实施方案,下面进行说明。
可选的,所述定位贴片可以具有不同特征。
可选的,所述映射关系建立模块630,具体可以包括:
定位贴片图像数据获取单元,用于获取所述定位贴片的术前图像数据以及所述定位贴片的术中空间定位数据;
空间位置信息获取单元,用于获取各个所述定位贴片在所述术前图像数据中的第一位置信息;
实际位置信息获取单元,用于获取各个所述定位贴片在所述术中空间定位数据中的第二位置信息;
映射关系建立单元,用于基于所述第一位置信息以及所述第二位置信息,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系。
可选的,所述引导信息生成模块640,具体可以包括:
穿刺路径确定单元,用于基于所述映射关系,根据预设穿刺规则,确定对所述检测目标进行穿刺的穿刺路径;所述穿刺路径中至少包括进针点、进针方向和进针距离。
可选的,所述引导信息生成模块640,具体可以包括:
第三位置信息确定单元,用于获取所述术前图像数据中的穿刺针的第三位置信息;
相对位置信息确定单元,用于根据所述第一位置信息以及所述第三位置信息,确定所述穿刺针与所述定位贴片的相对位置信息;
引导信息生成单元,用于基于所述相对位置信息以及所述映射关系,生成引导信息。
可选的,所述引导信息生成单元,具体可以包括:
参考定位贴片确定子单元,用于将所述术前图像数据中的任意一个定位贴片确定为参考定位贴片;
位置坐标获取子单元,用于获取所述参考定位贴片的位置坐标;
第一位置对应关系计算子单元,用于以所述参考定位贴片的位置坐标为基准,计算所述术前图像数据中的其他定位贴片相对于所述参考定位贴片的第一位置对应关系;
第二位置对应关系计算子单元,用于计算所述术前图像数据中的所述参考定位贴片与所述术中空间定位数据中的参考定位贴片之间的第二位置对应关系;
穿刺针位置信息计算子单元,用于基于所述第一位置对应关系以及所述第二位置对应关系,计算术中穿刺针在所述术中空间定位数据中的位置信息;
引导信息生成子单元,用于根据所述映射关系以及所述术中穿刺针在所述术中空间定位数据中的位置信息,生成引导信息。
可选的,所述目标图像数据中还可以包括所述检测目标的关键器官图像数据以及病灶区域图像数据;其中,所述病灶区域图像数据可以包括:肺结节图像数据;所述关键器官图像数据可以包括:体表图像数据、骨骼图像数据、支气管图像数据、肺叶图像数据以及肺血管图像数据;
所述图像分割模块620,具体可以包括:
图像分割单元,用于将所述待识别图像数据输入所述训练完成的图像分割模型中,得到所述待识别图像数据中的所述检测目标的关键器官图像数据、病灶区域图像数据以及所述不同特征的定位贴片的图像数据。
可选的,所述骨骼图像数据可以基于UNet网络结构进行提取得到的。
可选的,所述图像分割单元,具体可以用于:
采用ResUNet网络对所述待识别图像数据进行初分割,得到第一分割结果;所述第一分割结果中包括多个块图像数据;
通过区域生长算法,连接所述第一分割结果中的多个块图像数据,得到所述支气管图像数据。
可选的,所述图像分割单元,具体可以用于:
利用长短时记忆网络对所述第一分割结果进行处理;
将处理后的分割结果利用区域生长算法进行连接,得到所述肺叶图像数据。
可选的,所述图像分割单元,具体可以用于:
采用FCOS算法从所述待识别图像数据中检测肺结节信息;
在检测到所述肺结节信息之后,采用ResUNet网络提取肺结节图像数据。
可选的,所述定位贴片可以具有不同形状;所述图像分割单元,具体可以用于:
从所述待识别图像数据中识别不同形状的定位贴片信息;
在识别到所述待识别图像数据中的所述定位贴片信息之后,提取所述定位贴片图像数据。
可选的,所述定位贴片可以具有不同强度的信号;所述图像分割单元,具体可以用于:
从所述待识别图像数据中识别不同强度信号对应的定位贴片信息;
在识别到所述待识别图像数据中的所述定位贴片信息之后,提取所述定位贴片图像数据。
可选的,所述待识别图像数据获取模块610,具体可以包括:
影像数据获取单元,用于获取医院信息系统推送的所述检测目标的DICOM影像数据。
可选的,所述装置,还可以包括:
训练样本集合获取模块,用于获取已知图像类型的图像数据训练样本集合;所述图像类型至少包括器官类型、病灶类型以及定位贴片类型;
训练模块,用于针对所述训练样本集合中的每个训练样本,将所述训练样本输入初始深度学习模型中,输出识别结果;
参数调整模块,用于根据所述识别结果与所述已知的图像类型之间的差异,调整所述初始深度学习模型的模型参数,得到训练完成的图像分割模型。
可选的,所述待识别图像数据可以是按照预设预处理规则进行筛选后的图像数据。
可选的,所述定位贴片固定于所述检测目标的体表;所述定位贴片的数量大于或等于3。
可选的,所述骨骼图像数据中可以包括肋骨、椎骨、肩胛骨、锁骨、胸椎以及盆骨中的至少一种骨骼的图像数据。
可选的,所述目标图像数据中还可以包括所述检测目标的关键器官图像数据以及病灶区域图像数据;其中,所述病灶区域图像数据可以包括:占位性病变或者肿瘤区域;所述关键器官图像数据可以包括:胆囊图像数据、胆管图像数据以及肝动静脉图像数据。
基于同样的思路,本说明书实施例还提供了上述方法对应的设备。
示例性设备
图7所示为本说明书实施例提供的电子设备的结构示意图。如图7所示,电子设备700包括一个或多个处理器701和存储器702。
处理器701可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备700中的其他组件以执行期望的功能。
存储器702可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器701可以运行所述程序指令,以实现上文所述的本申请的各个实施例的图像处理方法以及/或者其他期望的功能。
在一个示例中,电子设备700还可以包括:输入装置703和输出装置704,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,该输入装置703可以是上述的进行平扫CT图像序列检测的仪器。
该输出装置704可以向外部输出各种信息,例如冠脉分割图像对应的第一冠脉钙化数据等等,该输出装置704可以包括例如显示器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图7中仅示出了该电子设备700中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备700还可以包括任何其他适当的组件。
与前述方法实施例对应,示例性装置、示例性设备以及示例性计算机程序产品和计算机可读存储介质同样适用于肺部或腹部等穿刺的应用场景。例如:肺部穿刺、腹部穿刺、颅脑穿刺等场景均可以采用本说明书实施例中的方案进行实现,对此,本说明书实施例不作具体限定。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的图像处理方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的引导信息生成方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (33)

1.一种引导信息生成方法,其特征在于,包括:
获取检测目标的待识别图像数据;
采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据;所述目标图像数据中至少包括设置于所述检测目标体表的定位贴片的图像数据;
将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;
基于所述映射关系,生成引导信息;所述引导信息用于引导穿刺针对所述检测目标进行穿刺。
2.根据权利要求1所述的方法,其特征在于,所述定位贴片具有不同特征。
3.根据权利要求1所述的方法,其特征在于,所述将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系,具体包括:
获取所述定位贴片的术前图像数据以及所述定位贴片的术中空间定位数据;
获取各个所述定位贴片在所述术前图像数据中的第一位置信息;
获取各个所述定位贴片在所述术中空间定位数据中的第二位置信息;
基于所述第一位置信息以及所述第二位置信息,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系。
4.根据权利要求1所述的方法,其特征在于,所述基于所述映射关系,生成引导信息,具体包括:
基于所述映射关系,根据预设穿刺规则,确定对所述检测目标进行穿刺的穿刺路径;所述穿刺路径中至少包括进针点、进针方向和进针距离。
5.根据权利要求3所述的方法,其特征在于,所述基于所述映射关系,生成引导信息,具体包括:
获取所述术前图像数据中的穿刺针的第三位置信息;
根据所述第一位置信息以及所述第三位置信息,确定所述穿刺针与所述定位贴片的相对位置信息;
基于所述相对位置信息以及所述映射关系,生成引导信息。
6.根据权利要求5所述的方法,其特征在于,所述基于所述相对位置信息以及所述映射关系,生成引导信息,具体包括:
将所述术前图像数据中的任意一个定位贴片确定为参考定位贴片;
获取所述参考定位贴片的位置坐标;
以所述参考定位贴片的位置坐标为基准,计算所述术前图像数据中的其他定位贴片相对于所述参考定位贴片的第一位置对应关系;
计算所述术前图像数据中的参考定位贴片与所述术中空间定位数据中的参考定位贴片之间的第二位置对应关系;
基于所述第一位置对应关系以及所述第二位置对应关系,计算术中穿刺针在所述术中空间定位数据中的位置信息;
根据所述映射关系以及所述术中穿刺针在所述术中空间定位数据中的位置信息,生成引导信息。
7.根据权利要求2所述的方法,其特征在于,所述目标图像数据中还包括所述检测目标的关键器官图像数据以及病灶区域图像数据;其中,所述病灶区域图像数据包括:肺结节图像数据;所述关键器官图像数据包括:体表图像数据、骨骼图像数据、支气管图像数据、肺叶图像数据以及肺血管图像数据;
所述采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据,具体包括:
将所述待识别图像数据输入所述训练完成的图像分割模型中,得到所述待识别图像数据中的所述检测目标的关键器官图像数据、病灶区域图像数据以及所述不同特征的定位贴片的图像数据。
8.根据权利要求7所述的方法,其特征在于,所述骨骼图像数据是基于UNet网络结构进行提取得到的。
9.根据权利要求7所述的方法,其特征在于,所述支气管图像数据的提取,具体包括:
采用ResUNet网络对所述待识别图像数据进行初分割,得到第一分割结果;所述第一分割结果中包括多个块图像数据;
通过区域生长算法,连接所述第一分割结果中的多个块图像数据,得到所述支气管图像数据。
10.根据权利要求9所述的方法,其特征在于,所述肺叶图像数据的提取,具体包括:
利用长短时记忆网络对所述第一分割结果进行处理;
将处理后的分割结果利用区域生长算法进行连接,得到所述肺叶图像数据。
11.根据权利要求7所述的方法,其特征在于,所述肺结节图像数据的提取,具体包括:
采用FCOS算法从所述待识别图像数据中检测肺结节信息;
在检测到所述肺结节信息之后,采用ResUNet网络提取肺结节图像数据。
12.根据权利要求7所述的方法,其特征在于,所述定位贴片具有不同特征,具体包括:所述定位贴片具有不同形状;
所述定位贴片图像数据的提取,具体包括:
从所述待识别图像数据中识别不同形状的定位贴片信息;
在识别到所述待识别图像数据中的所述定位贴片信息之后,提取所述定位贴片图像数据。
13.根据权利要求7所述的方法,其特征在于,所述定位贴片具有不同特征,具体包括:所述定位贴片具有不同强度的信号;
所述定位贴片图像数据的提取,具体包括:
从所述待识别图像数据中识别不同强度信号对应的定位贴片信息;
在识别到所述待识别图像数据中的所述定位贴片信息之后,提取所述定位贴片图像数据。
14.根据权利要求1所述的方法,其特征在于,所述获取检测目标的待识别图像数据,具体包括:
获取医院信息系统推送的所述检测目标的DICOM影像数据。
15.根据权利要求1所述的方法,其特征在于,所述采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据之前,还包括:
获取已知图像类型的图像数据训练样本集合;所述图像类型至少包括器官类型、病灶类型以及定位贴片类型;
针对所述训练样本集合中的每个训练样本,将所述训练样本输入初始深度学习模型中,输出识别结果;
根据所述识别结果与所述已知的图像类型之间的差异,调整所述初始深度学习模型的模型参数,得到训练完成的图像分割模型。
16.根据权利要求1所述的方法,其特征在于,所述待识别图像数据是按照预设预处理规则进行筛选后的图像数据。
17.根据权利要求1所述的方法,其特征在于,所述定位贴片固定于所述检测目标的体表;所述定位贴片的数量大于或等于3。
18.根据权利要求7所述的方法,其特征在于,所述骨骼图像数据中包括肋骨、椎骨、肩胛骨、锁骨、胸椎以及盆骨中的至少一种骨骼的图像数据。
19.根据权利要求2所述的方法,其特征在于,所述目标图像数据中还包括所述检测目标的关键器官图像数据以及病灶区域图像数据;其中,所述病灶区域图像数据包括:占位性病变或者肿瘤区域;所述关键器官图像数据包括:胆囊图像数据、胆管图像数据以及肝动静脉图像数据。
20.一种引导信息生成系统,其特征在于,包括:
穿刺引导设备和定位贴片;
所述穿刺引导设备与图像采集设备通讯连接,接收所述图像采集设备采集到的所述检测目标的待识别图像数据;
所述定位贴片与所述穿刺引导设备通讯连接;所述穿刺引导设备用于执行上述权利要求1至19中任一项所述的方法。
21.根据权利要求20所述的系统,其特征在于,还包括:
显示设备,所述显示设备用于接收所述图像采集设备发送的所述引导信息,并将所述引导信息显示在所述显示设备的显示屏上。
22.根据权利要求20所述的系统,其特征在于,所述穿刺引导设备与图像采集设备之间的连接方式包括:有线连接或无线连接。
23.根据权利要求20所述的系统,其特征在于,所述定位贴片固定于所述检测目标的体表;所述定位贴片的数量大于或等于3。
24.根据权利要求20所述的系统,其特征在于,所述定位贴片具有不同特征。
25.根据权利要求20所述的系统,其特征在于,任意三个所述定位贴片呈非线性分布。
26.一种引导信息生成装置,其特征在于,包括:
待识别图像数据获取模块,用于获取检测目标的待识别图像数据;
图像分割模块,用于采用训练完成的图像分割模型对所述待识别图像数据进行分割,得到分割后的目标图像数据;所述目标图像数据中至少包括设置于所述检测目标体表的定位贴片的图像数据;
映射关系建立模块,用于将所述定位贴片的图像数据确定为特征点,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系;
引导信息生成模块,用于基于所述映射关系,生成引导信息;所述引导信息用于引导穿刺针对所述检测目标进行穿刺。
27.根据权利要求26所述的装置,其特征在于,所述映射关系建立模块,具体包括:
定位贴片图像数据获取单元,用于获取所述定位贴片的术前图像数据以及所述定位贴片的术中空间定位数据;
空间位置信息获取单元,用于获取各个所述定位贴片在所述术前图像数据中的第一位置信息;
实际位置信息获取单元,用于获取各个所述定位贴片在所述术中空间定位数据中的第二位置信息;
映射关系建立单元,用于基于所述第一位置信息以及所述第二位置信息,建立术前空间三维图像坐标系与术中空间定位坐标系之间的映射关系。
28.根据权利要求27所述的装置,其特征在于,所述引导信息生成模块,具体包括:
穿刺路径确定单元,用于基于所述映射关系,根据预设穿刺规则,确定对所述检测目标进行穿刺的穿刺路径;所述穿刺路径中至少包括进针点、进针方向和进针距离。
29.根据权利要求27所述的装置,其特征在于,所述引导信息生成模块,具体包括:
第三位置信息确定单元,用于获取所述术前图像数据中的穿刺针的第三位置信息;
相对位置信息确定单元,用于根据所述第一位置信息以及所述第三位置信息,确定所述穿刺针与所述定位贴片的相对位置信息;
引导信息生成单元,用于基于所述相对位置信息以及所述映射关系,生成引导信息。
30.根据权利要求29所述的装置,其特征在于,所述引导信息生成单元,具体包括:
参考定位贴片确定子单元,用于将所述术前图像数据中的任意一个定位贴片确定为参考定位贴片;
位置坐标获取子单元,用于获取所述参考定位贴片的位置坐标;
第一位置对应关系计算子单元,用于以所述参考定位贴片的位置坐标为基准,计算所述术前图像数据中的其他定位贴片相对于所述参考定位贴片的第一位置对应关系;
第二位置对应关系计算子单元,用于计算所述术前图像数据中的所述参考定位贴片与所述术中空间定位数据中的参考定位贴片之间的第二位置对应关系;
穿刺针位置信息计算子单元,用于基于所述第一位置对应关系以及所述第二位置对应关系,计算术中穿刺针在所述术中空间定位数据中的位置信息;
引导信息生成子单元,用于根据所述映射关系以及所述术中穿刺针在所述术中空间定位数据中的位置信息,生成引导信息。
31.根据权利要求28所述的装置,其特征在于,所述装置,还包括:
训练样本集合获取模块,用于获取已知图像类型的图像数据训练样本集合;所述图像类型至少包括器官类型、病灶类型以及定位贴片类型;
训练模块,用于针对所述训练样本集合中的每个训练样本,将所述训练样本输入初始深度学习模型中,输出识别结果;
参数调整模块,用于根据所述识别结果与所述已知的图像类型之间的差异,调整所述初始深度学习模型的模型参数,得到训练完成的图像分割模型。
32.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于执行上述权利要求1至19中任一项所述的方法。
33.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如权利要求1至19中任一项所述的方法。
CN202111473893.8A 2021-12-02 2021-12-02 一种引导信息生成方法、系统、装置及电子设备 Active CN114129240B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111473893.8A CN114129240B (zh) 2021-12-02 2021-12-02 一种引导信息生成方法、系统、装置及电子设备
US18/072,923 US20230177696A1 (en) 2021-12-02 2022-12-01 Method and system for generating guide information, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111473893.8A CN114129240B (zh) 2021-12-02 2021-12-02 一种引导信息生成方法、系统、装置及电子设备

Publications (2)

Publication Number Publication Date
CN114129240A true CN114129240A (zh) 2022-03-04
CN114129240B CN114129240B (zh) 2022-11-01

Family

ID=80383864

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111473893.8A Active CN114129240B (zh) 2021-12-02 2021-12-02 一种引导信息生成方法、系统、装置及电子设备

Country Status (2)

Country Link
US (1) US20230177696A1 (zh)
CN (1) CN114129240B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114587533A (zh) * 2022-03-25 2022-06-07 深圳市华屹医疗科技有限公司 穿刺位置引导方法、装置、设备、存储介质和程序产品
CN115005851A (zh) * 2022-06-09 2022-09-06 上海市胸科医院 基于三角定位的结节定位方法、装置和电子设备
CN117017496A (zh) * 2023-09-28 2023-11-10 真健康(北京)医疗科技有限公司 柔性体表定位装置及穿刺手术导航定位系统
CN117058135A (zh) * 2023-10-11 2023-11-14 卡本(深圳)医疗器械有限公司 基于系统模板的前列腺系统穿刺点分布方法、设备及介质
CN117338387A (zh) * 2023-10-09 2024-01-05 上海市胸科医院 一种激光引导的肺部穿刺定位方法
WO2024021637A1 (zh) * 2022-07-26 2024-02-01 湖南卓世创思科技有限公司 针对脑部病灶的穿刺路径确定系统、方法、装置及介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116616876B (zh) * 2023-06-15 2024-01-09 中国人民解放军总医院第一医学中心 Pvp手术中穿刺路径智能规划方法、装置、设备及介质
CN117195335B (zh) * 2023-11-03 2024-02-02 北京集度科技有限公司 一种定位件的生成方法、生成装置及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109259806A (zh) * 2017-07-17 2019-01-25 云南师范大学 一种用于图像引导的肿瘤精准穿刺活检的方法
CN109549689A (zh) * 2018-08-21 2019-04-02 池嘉昌 一种穿刺辅助引导装置、系统及方法
CN110464459A (zh) * 2019-07-10 2019-11-19 丽水市中心医院 基于ct-mri融合的介入计划导航系统及其导航方法
WO2020100015A1 (en) * 2018-11-15 2020-05-22 Comofi Medtech Private Limited System for renal puncturing assistance
CN113100935A (zh) * 2021-04-13 2021-07-13 上海大学 一种肺部穿刺手术术前穿刺路径规划方法及训练系统
CN113610826A (zh) * 2021-08-13 2021-11-05 推想医疗科技股份有限公司 穿刺定位方法及装置,电子设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109259806A (zh) * 2017-07-17 2019-01-25 云南师范大学 一种用于图像引导的肿瘤精准穿刺活检的方法
CN109549689A (zh) * 2018-08-21 2019-04-02 池嘉昌 一种穿刺辅助引导装置、系统及方法
WO2020100015A1 (en) * 2018-11-15 2020-05-22 Comofi Medtech Private Limited System for renal puncturing assistance
CN110464459A (zh) * 2019-07-10 2019-11-19 丽水市中心医院 基于ct-mri融合的介入计划导航系统及其导航方法
CN113100935A (zh) * 2021-04-13 2021-07-13 上海大学 一种肺部穿刺手术术前穿刺路径规划方法及训练系统
CN113610826A (zh) * 2021-08-13 2021-11-05 推想医疗科技股份有限公司 穿刺定位方法及装置,电子设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114587533A (zh) * 2022-03-25 2022-06-07 深圳市华屹医疗科技有限公司 穿刺位置引导方法、装置、设备、存储介质和程序产品
CN115005851A (zh) * 2022-06-09 2022-09-06 上海市胸科医院 基于三角定位的结节定位方法、装置和电子设备
WO2024021637A1 (zh) * 2022-07-26 2024-02-01 湖南卓世创思科技有限公司 针对脑部病灶的穿刺路径确定系统、方法、装置及介质
CN117017496A (zh) * 2023-09-28 2023-11-10 真健康(北京)医疗科技有限公司 柔性体表定位装置及穿刺手术导航定位系统
CN117017496B (zh) * 2023-09-28 2023-12-26 真健康(北京)医疗科技有限公司 柔性体表定位装置及穿刺手术导航定位系统
CN117338387A (zh) * 2023-10-09 2024-01-05 上海市胸科医院 一种激光引导的肺部穿刺定位方法
CN117058135A (zh) * 2023-10-11 2023-11-14 卡本(深圳)医疗器械有限公司 基于系统模板的前列腺系统穿刺点分布方法、设备及介质

Also Published As

Publication number Publication date
CN114129240B (zh) 2022-11-01
US20230177696A1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
CN114129240B (zh) 一种引导信息生成方法、系统、装置及电子设备
US11925452B2 (en) System and method for lung visualization using ultrasound
US11896414B2 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US20200246076A1 (en) Pathway planning for use with a navigation planning and procedure system
CN106232011B (zh) 气管标记
US20120249546A1 (en) Methods and systems for visualization and analysis of sublobar regions of the lung
CN108451639B (zh) 用于定位与导航的多数据源集成
US20230103969A1 (en) Systems and methods for correlating regions of interest in multiple imaging modalities
US11847730B2 (en) Orientation detection in fluoroscopic images
CN111281533A (zh) 计算机生成的气道模型到气道树的可变形配准
JP2017143872A (ja) 放射線撮像装置、画像処理方法及びプログラム
US20230316550A1 (en) Image processing device, method, and program
CN114283179A (zh) 基于超声图像的骨折远近端空间位姿实时获取与配准系统
KR20210086871A (ko) 의료 영상을 이용하는 중재시술 시스템 및 방법
US20240016365A1 (en) Image processing device, method, and program
US20240005495A1 (en) Image processing device, method, and program
WO2024079639A1 (en) Systems and methods for confirming position or orientation of medical device relative to target
WO2022248982A1 (en) Volumetric filter of fluoroscopic sweep video
WO2023097279A1 (en) Systems and methods for correlating objects of interest
CN113971683A (zh) 用解剖组织的通用变形模型估计目标的运动的系统和方法
Hu Intraoperative Pulmonary Nodule Localization with Cone-Beam Computed Tomography and Deformable Image Registration
Brounstein Towards real-time registration of ultrasound and CT in computer aided orthopaedic surgery applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240221

Address after: No. 288 Xingcheng Avenue, Hannan District, Wuhan City, Hubei Province (019)

Patentee after: Wuhan Longdianjing Intelligent Technology Co.,Ltd.

Country or region after: China

Address before: Room B401, 4 / F, building 1, No. 12, shangdixin Road, Haidian District, Beijing 100085

Patentee before: Tuxiang Medical Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right