CN115187596B - 用于腹腔镜结直肠癌手术的神经智能辅助识别系统 - Google Patents
用于腹腔镜结直肠癌手术的神经智能辅助识别系统 Download PDFInfo
- Publication number
- CN115187596B CN115187596B CN202211098727.9A CN202211098727A CN115187596B CN 115187596 B CN115187596 B CN 115187596B CN 202211098727 A CN202211098727 A CN 202211098727A CN 115187596 B CN115187596 B CN 115187596B
- Authority
- CN
- China
- Prior art keywords
- detection
- frame
- image
- model
- image frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/3132—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Artificial Intelligence (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种用于腹腔镜结直肠癌手术的神经智能辅助识别系统,涉及人工智能领域。神经智能辅助识别系统与腹腔镜系统连接,包括:视频信号转换模块,用于将腹腔镜系统形成的电信号转换为视频信号;视频图像帧抽取模块,用于从视频信号获得图像帧,并将当前图像帧与缓存内的前序N张图像帧组成图像序列;识别模型计算处理模块,用于利用识别模型根据图像序列得到当前图像帧中的相关神经的检测框表示;以及显示模块,用于显示图像帧,并将识别模型输出的结果显示在当前显示的图像帧上。从而,达到了提高医生在手术过程中对于神经的注意力程度,以期降低术中神经损伤的发生风险的技术效果。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种用于腹腔镜结直肠癌手术的神经智能辅助识别系统。
背景技术
结直肠癌是一种常见的恶性消化道肿瘤。该肿瘤在多数发达国家高发,在社会老龄化、生活习惯改变等诸多因素的影响下,我国结直肠癌发病率呈现逐年上升的趋势。根据2020年最新发布的数据,我国结直肠癌估算新发病例数为55.5万,死亡病例数为28.6万,分别位于第二和第五位,严重危害国民健康。尽管放化疗在结直肠癌治疗中广泛应用,以手术为主的综合治疗仍然是治疗结直肠癌的主要手段。与传统的开放结直肠手术对比,腹腔镜手术具有创伤更小,患者术后的应激和炎症反应更低,术后恢复更快等诸多优势。腹腔镜下直肠癌根治手术与开腹手术可以获得相同的近、远期临床疗效,已经成为治疗结直肠癌的重要手术方式。
任何手术过程中,操作者都有可能对相关神经造成损伤。由腹盆腔自主神经系统损害引起的排尿及生殖功能障碍是结直肠癌手术最常见的并发症,据文献报道,结直肠癌手术后排尿和性功能障碍率分别为5%~35%和10%~60%,严重影响患者的生存质量,且一旦发生自主神经系统损伤,缺乏有效的治疗手段。已有大量研究表明,在结直肠手术中对盆腔自主神经的识别和保护对于降低排尿及生殖功能障碍的发生风险具有重要作用。随着直肠癌早期发现率的增加和临床疗效的提高,外科医生也逐渐关注到对结直肠癌患者的远期功能保护,从而提高患者术后生活质量。直肠癌根治手术中自主神经系统损伤的预防越发得到重视。
根据医生经验,自主神经损伤常发生于:1)清扫肠系膜下动脉根部淋巴结时可能损伤上腹下神经丛;2)分离直肠系膜时可能损伤骶骨前方的左、右两支腹下神经,以及支配直肠、泌尿、生殖器官的副交感盆神经丛等。
近年来,基于人工智能的计算机视觉技术迅猛发展,在某些领域已经达到了与人类认知相当的程度。该技术能够给予计算机理解和感知图像信息的能力,从而实现自动化任务,在医疗领域中的早期筛查、病灶勾画、辅助诊断方面已开展了广泛的应用研究工作。腹腔镜本身可为术者提供高清、放大的操作视野,增加狭窄盆腔内环境可视性、使得解剖结构层次更清晰显示,具有丰富的可挖掘信息;此外,腹腔镜系统天然具有的数据采集及保存的特点,为基于手术视频开展视觉识别任务提供了丰富的数据来源。
参考文件1:一种新生儿坏死性小肠结肠炎手术干预时机辅助识别系统。公开号为(CN114898863A)。其主要公开了一种新生儿坏死性小肠结肠炎手术干预时机辅助识别系统,采用手术干预时机辅助识别模型,利用该模型的具体工作过程如下:将新生儿坏死性小肠结肠炎患者的影像数据和临床数据输入数据预处理模块分别进行预处理;将预处理后的影像数据和临床数据输入特征提取模块进行特征提取;然后加入超图约束,选取不同特征之间相关联的高阶特征;最后加入两种数据特征的邻接矩阵作为网络正则化约束,得到最终特征矩阵;根据临床指征选取模块选择的临床指征,将最终特征矩阵中的临床指征输入预测分类模块进行分类,得到是否需要手术的二分类结果。本发明可以对新生儿坏死性小肠结肠炎外科手术干预时机进行判断,提高患儿的诊治效率。
参考文件2:一种内镜下辅助识别粘膜下血管的方法及系统。公开号为(CN112842285A)。其主要公开了一种内镜下辅助识别粘膜下血管的方法及系统,属于血管识别技术领域,对实时采集的待检测部位的时序图像进行预处理,将时序图像的像素值转化为零均值和单位方差;基于成像式光电容积描记技术,从预处理后的时序图像中,提取血液容积波,并确定对应的血液容积波动频率;基于成像式光电容积描记技术,从预处理后的时序图像中,提取各像素点的像素变化值,并确定对应的像素点的像素波动频率;根据血液容积波、血液容积波动频率、像素变化值以及像素波动频率,确定粘膜下血管覆盖区域。本发明能够在内窥镜操作过程中,在不借助额外设备且不延长操作时间的前提下,实时准确提取消化道血流信息,准确识别粘膜下血管,保证了手术安全。
综上所述,本公开的具体实施方式采用基于人工智能的计算机视觉技术,通过在腹腔镜手术环境中嵌入智能识别装置,实现对上述与术后不良预后相关神经的检测框的突出显示,提高医生在手术过程中对于神经的注意力程度,以期降低术中神经损伤的发生风险。此外,通过对已有的腹腔镜手术视频展开回顾性分析,提供自动化的相关神经检测,可以为外科医师技能培训提供基于视频的学习路径,帮助提高对手术过程中潜在神经损伤机制的认识,提高医师手术技能。
发明内容
本公开的实施例提供了一种用于腹腔镜结直肠癌手术的神经智能辅助识别系统,采用基于人工智能的计算机视觉技术,构建腹腔镜结直肠癌手术术中神经智能识别模型,对手术过程中视野内的神经进行实时检测框的突出显示。
根据本公开实施例的一个方面,提供了一种用于腹腔镜结直肠癌手术的神经智能辅助识别系统,神经智能辅助识别系统与腹腔镜系统连接,包括:视频信号转换模块,用于将腹腔镜系统形成的电信号转换为视频信号;视频图像帧抽取模块,用于从视频信号获得图像帧,并将当前图像帧与缓存内的前序N张图像帧组成图像序列;识别模型计算处理模块,用于利用识别模型根据图像序列得到当前图像帧中相关神经的检测框表示;以及显示模块,用于显示图像帧,并将识别模型输出的结果显示在当前显示的图像帧上。
其中神经智能识别模型所涉技术包括:面向手术阶段特点的目标检测算法、视频目标检测修正算法。基于以上系统流程及算法设计,本公开的技术方案可实现对腹腔镜结直肠癌手术术中神经的准确、稳定和实时识别要求。
并且,本公开的技术方案能够解决复杂场景下腹腔镜术中神经准确识别的问题。患者的肥胖程度与腹腔内的脂肪组织分布相关,过多的脂肪组织将隐匿神经、血管等重要组织结构,增加识别难度。手术全程涉及各类复杂操作包括固定、牵拉、分离以及止血等,手术器械、纱布以及出血情况将影响相关组织结构的可视程度。由此可见术中神经识别任务非常困难,本专利需采取针对性设计,使得识别模型可适用于各类场景,具有稳健的效果。
此外,从考虑医生使用体验的角度,本公开的技术方案还能够解决腹腔镜视频识别结果稳定性及实时性需求。实时识别即将处理的手术视频,通过监视器显示后无人眼可感知的掉帧、闪烁情况,对处理速度有所要求;稳定识别则意味着突出显示的位置框在帧间的连续性,在目标位置无明显变化时,定位框的尺寸和位置也无明显变化,减少闪烁和抖动。
附图说明
此处所说明的附图用来提供对本公开的进一步理解,构成本申请的一部分,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。在附图中:
图1是根据本公开具体实施方式所述的神经智能辅助识别系统的示意图;
图2A~图2C是根据本公开具体实施方式所述的神经智能辅助识别系统的识别模型的三种不同形式的结构示意图;以及
图3是根据本公开具体实施方式对识别模型中的目标检测模型进行训练的流程示意图;以及
图4是根据本公开具体实施方式所述的对图像序列建立链接的示意图;以及
图5是根据本公开具体实施方式所述检测框的特征的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本公开的技术方案,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
图1是根据本实施例所述的用于腹腔镜结直肠癌手术的神经智能辅助识别系统200的示意图。参照图1所示,该神经智能辅助识别系统200与腹腔镜系统100连接,包括:视频信号转换模块210,用于将腹腔镜系统100形成的电信号转换为视频信号;视频图像帧抽取模块230,用于从视频信号获得图像帧,并将当前图像帧与缓存内的前序N张图像帧组成图像序列;识别模型计算处理模块240,用于利用识别模型根据图像序列得到当前图像帧中相关神经的检测框表示;以及显示模块250,用于显示图像帧,并将识别模型输出的结果显示在当前显示的图像帧上。
此外,进一步参考图1所示,在视频信号转换模块210和视频图像帧抽取模块230之间例如还可以设置交互触发模块220,用于根据医生的操作判定是否对当前图像帧进行相关神经的识别操作。
具体地,尽管图中未示出,在腹腔镜系统100中,前端摄像头与腹腔镜镜头连接,形成的电信号经视频信号转换模块210转换为视频信号,该视频分辨率一般为1080*1920。并且,医生在进行手术操作时可根据需求,通过交互触发模块220选择是否触发神经智能辅助识别系统200对相关神经进行识别。当神经智能辅助识别系统200被触发后,视频信号经图像帧抽取模块230获得图像帧,并且图像帧抽取模块230将当前图像帧与缓存内的前序N张图像帧组成图像序列,并将图像序列输入识别模型计算处理模块240。图像序列经识别模型计算处理模块240推理得到当前图像帧中相关神经的检测框表示。此外,为提高系统整体处理的速度,满足实时性需求,神经智能辅助识别系统200在显示模式上采用并行处理的方式:由于在一定时间范围内图像信息变化并不大,神经智能辅助识别系统200可将图像帧抽取和识别模型并行计算,将识别模型输出的结果直接显示在当前显示的图像帧上,从而减少级联运算的时延。也就是说,视频图像帧抽取模块230在将图像序列传输至识别模型计算处理模块240的同时将当前图像帧传输至显示模块250显示。而不是等到识别模型计算处理模块240计算得到相关神经的检测框表示之后才将当前图像帧以及检测框表示传输至显示模块250。从而显示模块250可以没有时延地显示腹腔镜系统100所采集的图像。并且当显示模块250从识别模型计算处理模块240接收到作为输出结果的检测框表示时,将该检测框表示在当前显示的图像帧上显示。
其中该检测框表示例如可以是检测框的图形,用于在图像帧中提示相关神经的位置。
在直肠癌手术过程中涉及神经保护的阶段可分为以下三个手术阶段:从剪开腹膜至解剖肠系膜下血管之前(后文简称手术阶段1)、从解剖肠系膜下血管至游离直肠之前(后文简称手术阶段2)以及游离直肠(后文简称手术阶段3)。每个手术阶段具有不同的操作内容和解剖结构特点,本专利所涉识别模型采用分而治之的方式,首先识别当前图像帧所属的手术阶段,然后根据识别结果自适应选择与所识别手术阶段的对应目标检测子模型,从而更好地应对不同的场景变化。从而本实施例中的识别模型包含两个部分:手术阶段识别模型以及目标检测模型。
图2A~图2C示出了识别模型的三种不同形式的结构示意图。
参考图2A所示,识别模型包括:手术阶段识别模型以及目标检测模型。其中手术阶段识别模型用于识别图像帧所属的手术阶段,并且根据所识别的手术阶段向目标检测模型传输选择相应的目标检测子模型的指令。目标检测模型包含3个目标检测子模型1~3,分别用于检测三个不同手术阶段的图像帧中的相关神经,并得到相关神经的检测框表示。其中目标检测子模型1用于针对手术阶段1的图像帧进行相关神经的目标检测;目标检测子模型2用于针对手术阶段2的图像帧进行相关神经的目标检测;目标检测子模型3用于针对手术阶段3的图像帧进行相关神经的目标检测。从而目标检测模型根据从手术阶段识别模型传输的选择相应的目标检测子模型的指令,利用相应的目标检测子模型对图像帧进行目标检测。从而通过图2A示出的识别模型,能够根据图像帧所属的手术阶段自适应地选择相应的目标检测子模型对图像帧进行目标检测,从而能够提高目标检测的准确性。
并且其中,参考图2A所示,目标检测子模型1~3采用YOLOv5作为目标检测框架。从而目标检测子模型1~3均包含输入端、骨干网络、颈部连接层以及输出检测头四个部分。其中输入端以及骨干网络构成目标检测子模型的特征提取单元。此外目标检测子模型1~3的输入端引入mosaic数据增强、自适应锚框计算以及矩形填充方式;骨干网络采用CSP-Darknet53以及focus模块,在保证卷积神经网络学习能力的同时使得网络轻量化;颈部连接层采用FPN结合PAN的结构,可实现多尺度特征聚合,提高网络的特征提取能力。
此外,图3示出了图2A中的目标检测模型的训练方法流程。
首先从腹腔镜手术视频中抽取图像以便构建对目标检测模型进行训练的样本集(S302)。
其中,腹腔镜系统100可导出mp4格式的视频,每一帧的分辨率为1080*1920。并且本实施例在病人层面上进行训练集以及测试集划分,并充分考虑患者肥胖情况、肿瘤分期、术中出血情况等因素,使得训练集与测试集的病人情况的分布保持一致。
对以上视频数据进行如下处理从而获得标注:首先从完整的手术视频中剪辑提取关键视频片段。其中,所截取的视频片段充分涵盖器械及纱布分布情况、患者出血情况、组织牵拉等各类情况,从而获得包括了各类情况的视频片段。按照1s间隔从上述视频片段中抽取相应图像,并采用常规的相似性比对算法去除冗余图像获得图像集。然后,采用LabelImg、Labelme或vott等开源标注软件对图像集进行标注。标注内容包括:视野内神经的检测框;该检测框所表示的神经的复杂度(0,1);以及图像所属手术阶段(1,2,3)。其中用于表示图像所属手术阶段的数字1~3分别用于表示手术阶段1~3这三个手术阶段。并且,初始标注需经高年资医生复核保证标注的可靠性。
然后,对抽取的图像进行增强处理(S304)。
腹腔镜场景多变,且为避免数据量较少导致的过拟合问题,可采用合理的数据增强方法,包括几何变换、颜色空间变换、像素点操作、多图组合操作等对训练集图像进行扩增。本专利应用上述方法,采用在线数据增强的方式,获得丰富多变的图像输入。
然后,采用全阶段数据,结合困难样本挖掘的思路获取基线模型(S306)。
本实施例的技术方案采用YOLOv5作为目标检测模型的框架,并进行参数初始化后得到初始化模型。为了得到针对三个不同手术阶段的目标检测子模型,首先采用覆盖三个不同手术阶段的全阶段标注数据对初始化模型进行训练从而得到基线模型。并且其中,得到基线模型的训练过程使用了神经复杂性的标注以及结合了困难样本挖掘的思想。
然后,采用分阶段数据,微调网络结构,获得分阶段目标检测子模型(S308)。
具体地,在得到基线模型之后,进一步采用分阶段的标注数据对基线模型进行微调获得分别与不同手术阶段对应的目标检测子模型1~3。例如,可以通过与手术阶段1对应的标注数据对基线模型进行微调,从而得到用于对手术阶段1的图像帧进行相关神经检测的目标检测子模型1;可以通过与手术阶段2对应的标注数据对基线模型进行微调,从而得到用于对手术阶段2的图像帧进行相关神经检测的目标检测子模型2;以及可以通过与手术阶段3对应的标注数据对基线模型进行微调,从而得到用于对手术阶段3的图像帧进行相关神经检测的目标检测子模型3。
从而通过以上方法,可以训练得到用于对三个不同手术阶段的图像帧进行相关神经检测的目标检测子模型。
进一步地,图2A中也示出了的手术阶段识别模型的结构。参考图2A所示,手术阶段识别模型包括以下三个单元:图像特征提取单元、识别分类单元以及后处理单元。
其中,图像特征提取单元可以采取与前述目标检测子模型1~3的特征提取单元相同的网络架构,图像帧经过图像特征提取单元后表示为多个特征图,作为识别分类单元的输入。
此外,识别分类单元可采用LSTM序列处理模型或树模型(如LightGBM)。
此外,为提高阶段识别结果的连续性,减少识别异常情况,后处理单元采用如下后处理方法:1)在未识别出当前图像帧的手术阶段的情况下,将前序图像帧的手术阶段识别结果作为当前图像帧的手术阶段识别结果。2)消除短时间内手术阶段识别结果的高频率波动(即在短时间内,对于各个图像帧的手术阶段识别结果出现高频率的不一致情形,主要是由于识别错误造成的),例如可以采用滑动窗口去噪的方法,并根据实际情况调整窗口大小。例如,可以通过以下所述的至少一种方式进行去噪处理:
1) 当窗口内的各个图像帧出现手术阶段识别结果不一致的情况时,将窗口内的各个图像帧的识别结果统一调整为该数量最多的识别结果。并且进一步优选地,要在数量最多的识别结果的图像帧与其他识别结果的图像帧的数量的差值大于预定阈值时,将窗口内的各个图像帧的识别结果统一调整为该数量最多的识别结果。
2) 当后序的图像帧所识别的手术阶段为在先的图像帧所识别的手术阶段的前序手术阶段时,将后序的图像帧所对应的手术阶段调整为在先的图像帧所识别的手术阶段。例如当在先的图像帧所识别的手术阶段为手术阶段2,并且后序的图像帧所识别的手术阶段为手术阶段1时,将后序图像帧所对应的手术阶段调整为手术阶段2。
经后处理的分类结果,作为该当前图像帧最终的阶段识别结果。
然后,目标检测模型根据阶段识别的结果,自适应选择相应的目标检测子模型,从而获得当前图像帧上相关关键神经的检测框表示。其中识别模型的表达式如下所示:
其中是与手术阶段i对应的目标检测子模型i的函数。当输入图片x时,用于表示当前图像帧中所含神经的检测框坐标。为与不同的手术阶段对应的阶段系数,当识别当前图像帧所属的手术阶段为第i个手术阶段(i=1,2,3)时,。
此外,图2B示出了识别模型的另一种结构。其中与图2A所示的识别模型的主要区别,在于目标检测模型的三个目标检测子模型1~3共用相同的特征提取单元和颈部连接器,而三个目标检测子模型1~3仅保留各自的输出检测头。从而待识别的图像帧输入至识别模型之后,可以利用三个目标检测子模型1~3共同的特征提取单元提取特征,并且利用与手术阶段识别模型传输的指令相应的目标检测子模型中的输出检测头进行相关神经的目标检测。
其中,对该目标检测模型的训练方法可以仍然参考图3所示的方法。只不过在步骤S306获取基线模型之后,将基线模型的特征提取单元和颈部连接器作为识别模型的特征提取单元和颈部连接器。从而在步骤S308中,冻结特征提取单元和颈部连接器的参数,而仅仅对各个目标检测子模型1~3的输出检测头的参数进行微调。从而通过这种方式,不仅简化了目标检测模型的神经网络的架构,而且也缩短了对目标检测模型进行训练的时间,提高了训练的效率。
此外,进一步优选地,为了提高识别网络整体的推理速度,手术阶段识别模型的图像特征提取单元的网络参数可与前述目标检测模型的特征提取单元的网络参数保持一致,训练时不需要进行反向梯度传播,只需要对识别分类单元进行微调即可。
此外,图2C示出了识别模型的另一种结构,其中该结构在图2B的基础上,进一步将目标检测模型与手术阶段识别模型的特征提取单元抽取出来,从而使得目标检测模型与手术阶段识别模型共用同一个特征提取单元。从而待识别的图像帧在输入至识别模型之后,先通过共同的特征提取单元提取特征(该特征表示为多个特征图),然后将提取的特征分别输入至手术阶段识别模型和目标检测模型进行手术阶段识别以及相关神经的目标检测。
其中,图2C示出的目标检测模型的训练方法以及手术阶段识别模型的训练方法参考图2B中示出的目标检测模型和手术阶段识别模型的训练方法。只是其中,在目标检测模型训练完成后将特征提取单元部分作为目标检测模型与手术阶段识别模型的共同的特征提取单元。对手术阶段识别模型的训练只需要针对识别分类单元进行微调即可。
此外,参考图2A~图2C所示,神经智能辅助识别系统200还可以基于连续性对识别模型的输出结果进行修正。
不同于图像目标检测,视频目标检测可利用连续图像帧中目标的连续性变化特点,对单帧目标检测的结果进行修正。本专利所涉修正算法包括:链接建立、检测框重估以及平滑补充。
链接建立:图4示出了在多个图像帧序列中建立了一个链接的多个检测框的示意图。参考图4所示,本实施例基于指定图像帧序列中i时刻的图像帧(其中图像帧例如可以是当前图像帧;或者在当前图像帧检测不到检测框的情况下,图像帧可以是当前图像帧前序的能够检测到检测框的图像帧)建立链接。图像帧序列还包括图像帧之前的各个图像帧。并且进一步参考图4所述,图像帧中的检测框、图像帧中的检测框以及图像帧I i-n 中的检测框为同一链接内的检测框。即,检测框、检测框以及检测框为图4所示的图像帧序列的各个图像帧中最优匹配的检测框。从而,该链接可以视为各个图像帧中关联目标的链接。
根据本实施例的技术方案,可以通过目标追踪算法或相似性度量方法建立图像帧序列中关联目标的链接。其中可采用的目标追踪算法包括相关滤波、卡尔曼滤波等方法。而可以采用的相似性度量方法则通过三个维度来建立图像帧序列中关联目标的链接:1)IOU阈值筛选;2)语义相似性度量,如余弦相似性;3)形状相似性,该形状相似性度量检测框的尺度以及位置。并且,本实施例的技术方案在建立链接后,可以删除未纳入链接的检测框,从而减少游离的错检框。
其中根据相似性度量方法建立链接的具体过程如下所示:
即,图像帧中最佳匹配的第个检测框符合以下定义:当时,的值最大。其中,为根
据实际情况设置的IOU阈值,一般设置较小值,如0.1。表示图像帧中的第个检
测框。是与检测框对应的特征;是与检测框对应的特征。
其中,特征和可以通过以下方式获取:根据检测框和的坐标,在特
征提取单元的骨干网络中获取特征图中对应的特征图区域,然后将获取的特征图区域输入
至ROI pooling中得到相应的特征和。从而特征和以特征图区域的形式
表示。其中,图5示出了特征的示例性示意图。参考图5所示,特征表现为多层的特征
图区域。至于特征也参考特征,此处不再赘述。
其中,函数s()和l() 分别为语义相似性度量和形状相似性度量。例如,若语义相似性选择余弦相似度,则表示如下:
其中R为与和对应的特征图区域在二维平面内的所有坐标的集合(参考
图5所示,R为遍历所有行和列的坐标的集合);p为与和对应的特征图区域在二维
平面内的一个坐标。从而和分别为与坐标p对应的特征向量,向量中的元素
为多层特征图区域与该坐标p对应的像素点的数值(参考图5所示,的元素为各个特征
图中与坐标p对应的像素点的数值。也参考,此处不再赘述)。
形状相似性可采用如下方式度量:
建立链接后,对链接内的检测框进行重估:
1)置信度重估,针对各个图像帧在同一个链接内关联的各个检测框的置信度计算平均值,作为该链接内的各个检测框的置信度,从而减少置信度歧义造成的错误检测情况;
2)检测框坐标重估,将各个相邻图像帧在同一个链接内关联的各个检测框的坐标值视为含有噪声的时间序列,并且对该时间序列进行平滑操作。例如,各个检测框的坐标可以表示为,其中x center 和y center 为各个检测框的中心点的横坐标和纵坐标,w为检测框的宽度,h为检测框的高度。从而同一链接内关联的各个检测框的坐标值可以视为含有噪声的4个时间序列分别与检测框中心点的横坐标和纵坐标以及检测框的宽度和高度对应。然后可以采用高斯滤波的方法对这4个时间序列进行平滑操作,从而获得更稳健的检测结果。
具体地,重估的操作可以参照以下公式:
完成检测框重估后,对未检测出检测框的错误图像帧,根据前序帧(例如,该前序帧可以是该错误图像帧的前序图像帧,并且是检测出检测框并且最接近该错误图像帧的图像帧)的检测结果保持显示检测框,进而减少检测框闪烁情况。
从而在对图像序列内的各个图像帧的检测框进行修改正后,将当前图像帧中修改正后的检测框的检测框表示显示在当前显示的图像帧上。
从而根据本实施例,神经智能识别模型所涉技术包括:面向手术阶段特点的目标检测算法、视频目标检测修正算法。基于以上系统流程及算法设计,本公开的技术方案可实现对腹腔镜结直肠癌手术术中神经的准确、稳定和实时识别要求。
并且,本公开的技术方案能够解决复杂场景下腹腔镜术中神经准确识别的问题。患者的肥胖程度与腹腔内的脂肪组织分布相关,过多的脂肪组织将隐匿神经、血管等重要组织结构,增加识别难度。手术全程涉及各类复杂操作包括固定、牵拉、分离以及止血等,手术器械、纱布以及出血情况将影响相关组织结构的可视程度。由此可见术中神经识别任务非常困难,本专利需采取针对性设计,使得识别模型可适用于各类场景,具有稳健的效果。
此外,从考虑医生使用体验的角度,本公开的技术方案还能够解决腹腔镜视频识别结果稳定性及实时性需求。实时识别即经处理的手术视频,通过监视器显示后无人眼可感知的掉帧、闪烁情况,对处理速度有所要求;稳定识别则意味着突出显示的位置框在帧间的连续性,在目标位置无明显变化时,定位框的尺寸和位置也无明显变化,减少闪烁和抖动。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种用于腹腔镜结直肠癌手术的神经智能辅助识别系统,所述神经智能辅助识别系统与腹腔镜系统连接,包括:
视频信号转换模块,用于将所述腹腔镜系统形成的电信号转换为视频信号;
视频图像帧抽取模块,用于从所述视频信号获得图像帧,并将当前图像帧与缓存内的前序N张图像帧组成图像序列;
识别模型计算处理模块,用于利用识别模型根据所述图像序列得到当前图像帧中的相关神经的检测框的检测框表示;以及
显示模块,用于显示图像帧,并将所述识别模型输出的结果显示在当前显示的图像帧上;
所述识别模型包括手术阶段识别模型和目标检测模型,其中所述手术阶段识别模型用于识别当前图像帧所属的手术阶段,所述目标检测模型用于根据所述手术阶段识别模型的识别结果自适应选择针对所述的手术阶段的目标检测子模型得到所述检测框表示;
所述识别模型计算处理模块还配置用于利用所述图像序列中目标的连续性变化特点,对所述当前图像帧的目标检测的结果进行修正,并且其中,所述修正的修正算法包括:
建立链接:针对所述图像序列的各个图像帧中的检测框建立链接,其中所述链接包含所述各个图像帧中与指定图像帧中的检测框最佳匹配的检测框;
检测框重估:修正所述链接内的检测框的检测框表示;以及
平滑补充:针对所述图像序列中未检测出检测框的图像帧,将前序帧的检测框的检测框表示作为所述未检测出检测框的图像帧的检测框表示;
所述链接建立包括:通过目标追踪算法或相似性度量方法建立所述图像序列中关联目标的链接,其中所述相似性度量包括以下三个维度的相似性度量:IOU阈值筛选、语义相似性度量和形状相似性度量,其中所述形状相似性度量包括所述图像序列中检测框的尺度以及位置的度量;
所述检测框重估,包括置信度重估和检测框坐标重估,其中
所述置信度重估用于同一链接内检测框的置信度;
所述检测框坐标重估用于将链接内关联的检测框的坐标视为含有噪声的时间序列,并对该时间序列进行平滑噪声的操作;
完成检测框重估后,对未检测出检测框的图像帧,根据前序帧的检测框作为所述未检测出检测框的图像帧中的检测框。
2.如权利要求1所述的系统,其特征在于,还包括:交互触发模块,用于选择是否触发所述神经智能辅助识别系统。
3.如权利要求1所述的系统,其特征在于:所述手术阶段包括从剪开腹膜至解剖肠系膜下血管前、从解剖肠系膜下血管至游离直肠之前和游离直肠这三个手术阶段,并且其中
所述目标检测模型基于YOLOv5模型,并且包括采用不同手术阶段的数据训练得到的对应于所述三个手术阶段的目标检测子模型,并且其中
所述手术阶段识别模型包括:图像特征提取单元、识别分类单元和后处理单元。
4.如权利要求3所述的系统,其特征在于:
所述图像特征提取单元的网络参数与所述目标检测模型中的特征提取单元保持一致,训练时不进行反向梯度传播,并且所述当前图像帧经所述图像特征提取单元提取后表示为多个特征图,作为所述识别分类单元的输入;
所述识别分类单元采用LSTM序列处理模型或树模型根据多维特征向量确定所述当前图像帧所属的手术阶段;并且
所述后处理单元采用以下方法进行后处理,并将后处理的分类结果作为所述当前图像帧最终的手术阶段识别结果:在未识别出所述当前图像帧的手术阶段的情况下,将所述当前图像帧前序的图像帧的手术阶段识别结果作为所述当前图像帧的手术阶段识别结果;以及采用滑动窗口消除所述图像序列中各个图像帧的手术阶段识别结果的波动,并根据实际情况调整所述滑动窗口的大小。
6.如权利要求1所述的系统,其特征在于,
所述修正算法还包括在建立所述链接后,删除未纳入所述链接的检测框,并且其中
所述链接建立的过程如下所示:
其中, 为根据实际情况设置的IOU阈值;函数s
()和l()分别为语义相似性度量和形状相似性度量,表示图像帧中的第个检
测框,是与检测框对应的特征,是与检测框对应的特征,并且在所述语义
相似性为余弦相似度的情况下,所述语义相似度根据如下公式计算:
所述形状相似性根据如下公式计算:
8.如权利要求1所述的系统,其特征在于:还包括对手术视频数据进行如下处理从而获得对所述识别模型进行训练的标注数据:
从手术视频中剪辑提取关键视频片段,其中所述关键视频片段包括以下情况的视频片段:器械及纱布的不同分布情况下的视频片段、患者出血的不同情况下的视频片段以及组织牵拉情况下的视频片段;
按照1s间隔从上述视频片段中抽取相应图像,并采用常规的相似性比对算法去除冗余图像获得图像集;以及
采用LabelImg、Labelme或vott标注软件对图像集进行标注,标注内容包括:视野内神经的检测框、该检测框所表示的神经的复杂度以及图像所属手术阶段。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211098727.9A CN115187596B (zh) | 2022-09-09 | 2022-09-09 | 用于腹腔镜结直肠癌手术的神经智能辅助识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211098727.9A CN115187596B (zh) | 2022-09-09 | 2022-09-09 | 用于腹腔镜结直肠癌手术的神经智能辅助识别系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115187596A CN115187596A (zh) | 2022-10-14 |
CN115187596B true CN115187596B (zh) | 2023-02-10 |
Family
ID=83523938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211098727.9A Active CN115187596B (zh) | 2022-09-09 | 2022-09-09 | 用于腹腔镜结直肠癌手术的神经智能辅助识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115187596B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116269749B (zh) * | 2023-03-06 | 2023-10-10 | 东莞市东部中心医院 | 一种改良保留性神经的腹腔镜下膀胱癌手术系统 |
CN116761075B (zh) * | 2023-05-09 | 2024-05-24 | 深圳显融医疗科技有限公司 | 基于内窥镜的图像处理方法、装置、电子设备及存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8083685B2 (en) * | 2007-05-08 | 2011-12-27 | Propep, Llc | System and method for laparoscopic nerve detection |
WO2016014444A1 (en) * | 2014-07-21 | 2016-01-28 | ProPep Surgical, LLC | System and method for laparoscopic nerve identification, nerve location marking, and nerve location recognition |
AU2017339255B2 (en) * | 2016-10-05 | 2022-04-14 | Innovative Surgical Solutions, Llc | Neural locating and mapping |
TWI681752B (zh) * | 2018-11-16 | 2020-01-11 | 財團法人金屬工業研究發展中心 | 神經辨識定位方法 |
US20200187854A1 (en) * | 2018-12-14 | 2020-06-18 | Metal Industries Research & Development Centre | Method for identifying and locating nerves |
CN110021014A (zh) * | 2019-03-29 | 2019-07-16 | 无锡祥生医疗科技股份有限公司 | 基于神经网络的神经组织识别方法、系统及存储介质 |
US20220240852A1 (en) * | 2019-05-22 | 2022-08-04 | Dio Corporation | Nerve detection method and device |
CN110796151A (zh) * | 2019-11-18 | 2020-02-14 | 付宪伟 | 一种神经系统影像交互信息处理系统及方法 |
CN110974306B (zh) * | 2019-12-17 | 2021-02-05 | 山东大学齐鲁医院 | 一种超声内镜下识别和定位胰腺神经内分泌肿瘤的系统 |
KR102457585B1 (ko) * | 2020-04-10 | 2022-10-21 | (주)휴톰 | 수술 중 혈관 네비게이션 방법 및 시스템 |
CN111783520A (zh) * | 2020-05-18 | 2020-10-16 | 北京理工大学 | 基于双流网络的腹腔镜手术阶段自动识别方法及装置 |
US20240087113A1 (en) * | 2021-01-19 | 2024-03-14 | Anaut Inc. | Recording Medium, Learning Model Generation Method, and Support Apparatus |
CN113317874B (zh) * | 2021-04-30 | 2022-11-29 | 上海友脉科技有限责任公司 | 一种医学图像处理装置及介质 |
CN113813053A (zh) * | 2021-09-18 | 2021-12-21 | 长春理工大学 | 一种基于腹腔镜内窥影像的手术进程分析方法 |
CN113888541B (zh) * | 2021-12-07 | 2022-03-25 | 南方医科大学南方医院 | 一种腹腔镜手术阶段的图像识别方法、装置及存储介质 |
CN114372962B (zh) * | 2021-12-27 | 2024-06-18 | 华南理工大学 | 基于双粒度时间卷积的腹腔镜手术阶段识别方法与系统 |
CN114724682B (zh) * | 2022-06-08 | 2022-08-16 | 成都与睿创新科技有限公司 | 用于微创手术的辅助决策装置 |
-
2022
- 2022-09-09 CN CN202211098727.9A patent/CN115187596B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115187596A (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115187596B (zh) | 用于腹腔镜结直肠癌手术的神经智能辅助识别系统 | |
Torrents-Barrena et al. | Segmentation and classification in MRI and US fetal imaging: recent trends and future prospects | |
Münzer et al. | Content-based processing and analysis of endoscopic images and videos: A survey | |
Pogorelov et al. | Deep learning and hand-crafted feature based approaches for polyp detection in medical videos | |
CN111655116A (zh) | 图像诊断辅助装置、资料收集方法、图像诊断辅助方法及图像诊断辅助程序 | |
KR20210051141A (ko) | 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램 | |
US20220172828A1 (en) | Endoscopic image display method, apparatus, computer device, and storage medium | |
US10178941B2 (en) | Image processing apparatus, image processing method, and computer-readable recording device | |
JP2016531709A (ja) | 疾患を診断するための画像解析技術 | |
CN114299072B (zh) | 一种基于人工智能的解剖变异识别提示方法及系统 | |
US20220125280A1 (en) | Apparatuses and methods involving multi-modal imaging of a sample | |
US20130028485A1 (en) | Image processing apparatus, image processing method, and computer readable recording device | |
Amir-Khalili et al. | Automatic segmentation of occluded vasculature via pulsatile motion analysis in endoscopic robot-assisted partial nephrectomy video | |
WO2023095492A1 (ja) | 手術支援システム、手術支援方法、及び手術支援プログラム | |
KR20210052270A (ko) | 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램 | |
CN109241898A (zh) | 腔镜视像的目标定位方法和系统、存储介质 | |
Bejakovic et al. | Analysis of Crohn's disease lesions in capsule endoscopy images | |
JP7493285B2 (ja) | 情報処理装置、情報処理方法、及びコンピュータプログラム | |
CN112089438B (zh) | 基于二维超声图像的四维重建方法及装置 | |
Song et al. | A novel endoscope system for position detection and depth estimation of the ureter | |
JP7376677B2 (ja) | 画像処理システム、内視鏡システム及び内視鏡システムの作動方法 | |
CN116993805A (zh) | 面向手术规划辅助的术中剩余器官体积估计系统 | |
KR102619729B1 (ko) | 임상 기록 데이터 생성 방법 및 장치 | |
Sadikine et al. | Semi-overcomplete convolutional auto-encoder embedding as shape priors for deep vessel segmentation | |
Zhang et al. | A 3D reconstruction based on an unsupervised domain adaptive for binocular endoscopy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |