CN112869829B - 一种智能镜下腕管切割器 - Google Patents

一种智能镜下腕管切割器 Download PDF

Info

Publication number
CN112869829B
CN112869829B CN202110227185.XA CN202110227185A CN112869829B CN 112869829 B CN112869829 B CN 112869829B CN 202110227185 A CN202110227185 A CN 202110227185A CN 112869829 B CN112869829 B CN 112869829B
Authority
CN
China
Prior art keywords
knife
image
carpal tunnel
cutter
guide plate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110227185.XA
Other languages
English (en)
Other versions
CN112869829A (zh
Inventor
苏彦农
于洋
刘阳
杨旭波
芦铭
董国庆
武竞衡
屠锋
王充
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jishuitan Hospital
Original Assignee
Beijing Jishuitan Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jishuitan Hospital filed Critical Beijing Jishuitan Hospital
Publication of CN112869829A publication Critical patent/CN112869829A/zh
Application granted granted Critical
Publication of CN112869829B publication Critical patent/CN112869829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/32Surgical cutting instruments
    • A61B17/320016Endoscopic cutting instruments, e.g. arthroscopes, resectoscopes
    • A61B17/320036Endoscopic cutting instruments, e.g. arthroscopes, resectoscopes adapted for use within the carpal tunnel
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例公开一种智能镜下腕管切割器,涉及医疗器械技术领域,为实现以较小的手术切口实现腕横韧带的切断手术,并提高腕横韧带手术切割的安全性而发明。所述智能镜下腕管切割器,包括:刀架、图像传感器和微刀;其中,所述微刀设在所述刀架上,用于对腕管内的腕横韧带进行切割;所述图像传感器,设在所述刀架上和/或设在所述微刀上,用于采集腕管内部的图像信息,并将采集的所述图像信息传给图像处理装置,以使所述图像处理装置对所述图像信息进行分析,对腕管中的正中神经进行识别,并将识别出的正中神经的图像进行显示。本发明适用于腕横韧带的切割手术。

Description

一种智能镜下腕管切割器
技术领域
本发明涉及医疗器械技术领域,尤其涉及一种智能镜下腕管切割器。
背景技术
腕管综合症是临床上一种常见疾病,因腕管变窄等因素,造成腕管内的正中神经和屈指肌腱收到挤压,使得拇指、食指及中指麻涨、疼痛及运动受限。现行外科常规手术术式为“腕管综合症减压术”,即在手掌腕关节处行纵向大弧形切口,充分暴露腕横韧带和正中神经及屈指肌腱,继而安全切断腕横韧带,以达彻底松解腕管。这样的手术切口大,恢复慢,术后手掌底部的大瘢痕更是长久令人不适。
发明内容
有鉴于此,本发明实施例提供一种智能镜下腕管切割器,能够以较小的手术切口实现腕横韧带的切断手术,并可提高腕横韧带手术切割的安全性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明一实施例智能镜下腕管切割器立体结构示意图;
图2为本发明一实施例中导板端部结构示意图;
图3为本发明一实施例智能镜下腕管切割器另一立体结构示意图;
图4为图1中刀架本体后端结构示意图;
图5为本发明一实施例中双线性差值。
具体实施方式
下面结合附图对本发明实施例进行详细描述。应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
参看图1至图4,本发明实施例提供一种智能镜下腕管切割器,包括:刀架10、图像传感器20和微刀30;其中,
微刀30,也可称为手术刀,设在刀架10上,用于对腕管内的腕横韧带进行切割;
图像传感器20,设在刀架10上和/或设在微刀30上,用于采集腕管内部的图像信息,并将采集的图像信息传给图像处理装置(图中未示出),以使图像处理装置对图像信息进行分析,对腕管中的正中神经进行识别,并可将识别出的正中神经的图像进行显示。
本发明实施例智能镜下腕管切割器,也可简称为腕管切割器。在手术时,可在手掌侧,腕横纹中点偏尺侧顺着横纹切割形成一个1cm的水平小切口,该切口可称为腕部横切口。可将刀架10的一部分伸入到该腕部横切口内。由于在刀架10上和/或设在微刀30上设有图像传感器20,可通过图像传感器20采集腕管内部的图像信息,并将采集的图像信息传给图像处理装置,以使图像处理装置对图像信息进行分析,对腕管中的正中神经进行识别,并可将识别出的正中神经的图像进行显示。
这样,只需在患者的腕部形成一个腕部横切口即可进行腕横韧带切割手术,手术切口较小,容易恢复。并且,通过该腕部横切口进行腕横韧带切割手术时,手术操作人员可通过图像传感器20采集并由图像处理装置处理和显示的正中神经的图像,观察到正中神经当前所处的位置,以免在利用微刀30对腕横韧带进行手术切割时,误伤正中神经,提高腕横韧带手术切割的安全性。
参看图1,在一实施例中,图像传感器20设在刀架10上,具体地,刀架10可包括刀架本体101和连接在刀架本体101上的导板102;
在刀架本体101上设有第一导槽103,在导板102上设有第二导槽104,第二导槽104沿导板102的长度方向延伸设置;微刀30设在第一导槽103中并能沿第一导槽103移动,且微刀30的第一端能够自第一导槽103中伸出;微刀30的第一端自第一导槽103中伸出后,微刀30的第一端的底部位于第二导槽104中,并能沿第二导槽104移动;图像传感器20设在导板102的第一端;其中,导板102的第一端为导板102远离刀架本体101的一端。
手术时,可在腕部横切口下找到正中神经,同时,将导板102的前端伸入皮下脂肪与腕横韧带之间,将腕横韧带与皮下脂肪进行分离,在腕横韧带与皮下脂肪之间创造出一隧道,从而便于采用微刀30对腕横韧带进行顺利切割。
在利用导板102在腕横韧带与皮下脂肪之间创造出一隧道之后,将导板102从腕横韧带与皮下脂肪之间抽出;然后,在腕横切口下找到正中神经,并把它压在导板102的底面下,顺着腕管轴向,慢慢插进导板102至预定位置处,这时,可通过图像传感器20采集的图像,以及图像处理装置进行图像识别后所显示图像,观察正中神经是否处于导板102下方,如确定正中神经处于导板102下方,则可推进处于导板102上方的微刀30,对腕横韧带进行安全切割。
图像传感器20可设在导板102的底部,以对导板102下方的图像进行采集。图像传感器20还可设在导板102的端部。参看图2及图3,在一个例子中,导板102的第一端的端面上设有图像传感器容纳腔105,图像传感器容纳腔105开口于导板102的第一端的端面上;图像传感器20设在图像传感器容纳腔105中。
在导板102顺着腕管轴向,慢慢插入时,为使正中神经顺利地压靠在导板102底部,导板102的第一端的端面106,可为自导板102的第一端的上表面,向导板102的第一端的下表面倾斜的斜面,通过该斜面可对正中神经起到平滑的引导及压制作用。
在一个例子中,图像传感器容纳腔105开口处可设有透明玻璃挡片。图像传感器20的光轴方向可与所述斜面相垂直,这样使得图像传感器20的视场范围位于导板102下方,更有利于通过图像传感器20直接观察正中神经是否处于导板102下方。
为便于对图像传感器20的视场范围提供照明,参看图2,在一个例子中,在图像传感器20的侧部设有光纤40,光源发出的光,通过光纤40入射到图像传感器20的视场范围内。在另一个例子中,可在图像传感器20的侧部设置LED灯,通过LED灯对图像传感器20的视场范围提供照明。
参看图1及图3,在一实施例中,微刀30可包括刀杆301和设在刀杆301第一端的刀头302;刀杆301的横截面呈“工”字型;刀架本体101上,于第一导槽103的两侧相对设有第一导向块107和第二导向块108,刀杆301夹持在第一导向块107和第二导向块108之间,且第一导向块107部有部分位于刀杆301第一侧的凹槽中,第二导向块108有部分位于刀杆301第二侧的凹槽中。
刀杆301夹持在第一导向块107和第二导向块108之间,使得刀杆301的前后移动更加平稳,不会发生侧向晃动,有利于提高刀头302对腕横韧带的切割精度。
在一实施例中,刀头302呈燕尾型,这样既便于获得较长的切割刃部,也便于将腕横韧带定位在燕尾型刀头302的燕尾型凹槽中进行切割。在一个例子中,刀头302包括上刀头302a和下刀头302b,下刀头302b位于上刀头302a的下方;在上刀头302a下方设有第一刀刃部303a,下刀头302b上方设有第二刀刃部303b,第一刀刃部303a和第二刀刃部303b形成V型切割部;微刀30的第一端自第一导槽103中伸出后,下刀头302b位于第二导槽104中,并能沿第二导槽104移动。下刀头302b卡设于第二导槽104中,通过第二导槽104对下刀头302b提供上下方向和左右方向上的两个自由度的限位,使得刀头302的行进更平稳。
进一步地,在一个例子中,上刀头302a的长度大于下刀头302b的长度;第一刀刃部303a与上刀头302a之间的连接部,与上刀头302a的端部之间具有预定距离。
在导板102顺着腕管轴向,慢慢插入时,在第一刀刃部303a和第二刀刃部303b切割腕横韧带之前,由于第一刀刃部303a与上刀头302a之间的连接部与上刀头302a的端部之间具有预定距离,可使得上刀头302a的端部先行进入腕横韧带与皮下脂肪之间的所述隧道中,这样既可将腕横韧带与皮下脂肪相分离,又可通过上刀头302a的端部下侧将腕横韧带导引到上刀头302a和下刀头302b之间,以便通过第一刀刃部303a和第二刀刃部303b对腕横韧带进行准确切割。
参看图1及图3,为便于对微刀30进行推动操作,在一实施例中,微刀30还包括设在刀杆301上的微刀操作部304,微刀操作部304上具有防滑纹路或凸起。
在利用微刀30对腕横韧带进行切割之前,为对微刀30的刀头302起到防护作用,在一实施例中,微刀30的长度小于或等于第二导槽104的长度,这样,可在手术完成后,将微刀30完全推进第二导槽104中,以对微刀30的刀头302起到防护作用。
在一个例子中,图像传感器20可为CCD(Charge-coupled Device,电荷耦合元件)图像传感器。参看图4,在刀架本体101的后端设有走线孔305,数据线通过走线孔305可将图像传感器20与图像处理装置相连。
图像处理装置,对图像传感器20采集的图像信息进行分析,对腕管中的正中神经进行识别,并将识别出的正中神经的图像在显示屏上进行显示。
其中,对图像传感器20采集的图像信息进行分析,对腕管中的正中神经进行识别可包括:采用Mask R-CNN算法进行图像中的正中神经检测识别。
Mask R-CNN算法是目标检测算法Faster R-CNN和语义分割算法FCN的融合和创新。Faster R-CNN算法可以既快又准的完成目标检测的功能;FCN算法可以精准的完成语义分割的功能。而Mask R-CNN在选用Faster R-CNN和FCN的同时又创新性地提出了对应的ROIAlign策略,加上FCN精准的像素mask,使其能够获得很高的准确率。
Mask R-CNN算法的主要构建模块包括:主干架构、区域建议网络、ROI分类器和边界框回归器、分割掩码四个部分。
(1)主干架构
Mask R-CNN的主干是一个标准的卷积神经网络(通常来说是ResNet50和ResNet101),作为特征抽取器。底层检测的是低级特征,较高层检测的是更高级的特征。
以ResNet50为例,取其中若干层的输出组合作为图像的特征,由于在不同深度所提取的特征维度不同,将他们在Z轴方向组合后,可形成形似金字塔的组合特征,故又称此特征为特征金字塔。
经过主干网络的前向传播,将原始图像转换为特征图。该特征图将作为下一个阶段的输入。
(2)区域建议网络(RPN)
区域建议网络(RPN,Region Proposal Network)对特征金字塔进行分析,得到可能的实体位置建议(proposals)。RPN是一个轻量的神经网络,它用滑动窗口来扫描图像,并寻找存在目标的区域。RPN扫描的区域被称为anchor,这是在图像区域上分布的矩形。实际上,在不同的尺寸和长宽比下,图像上会有将近20万个anchor,并且它们互相重叠以尽可能地覆盖图像。
滑动窗口是由RPN的卷积过程实现的,可以使用GPU并行地扫描所有区域。此外,RPN并不会直接扫描图像,而是扫描主干特征图。这使得RPN可以有效地复用抽取的特征,并避免重复计算。
特征建议网络为每个anchor生成两个输出:
anchor类别:前景或背景。前景类别意味着可能存在一个目标在anchor box中。
边框精调:前景anchor(或称正anchor)可能并没有完美地位于目标的中心。因此,特征建议网络评估了delta输出(x、y、宽、高的变化百分数)以精调anchor box来更好地拟合目标。
使用RPN的预测,可以选出最好地包含了目标的anchor,并对其位置和尺寸进行精调。如果有多个anchor互相重叠,保留拥有最高前景分数的anchor,并舍弃余下的(非极大值抑制)。然后就得到了最终的区域建议,并将其传递到下一个阶段。
(3)ROI分类器和边界框回归器
这个阶段是在由RPN提出的ROI上运行的。正如RPN一样,它为每个ROI生成了两个输出:
类别:ROI中的目标的类别。和RPN不同,这个网络更深并且可以将区域分类为具体的类别(血管、神经等)。它还可以生成一个背景类别。
边框精调:和RPN的原理类似,它的目标是进一步精调边框的位置和尺寸以将目标封装。
但是,分类器并不能很好地处理多种输入尺寸,它们通常只能处理固定的输入尺寸,需要用ROI池化来解决这个问题。ROI池化是指裁剪出特征图的一部分,然后将其重新调整为固定的尺寸。这个过程实际上和裁剪图片并将其缩放是相似的。
为解决ROIPOOL粗略空间量化,损失大量的空间信息的问题。Mask R-CNN使用了ROIAlign层,利用双线性插值的方法来解决对齐问题,如图5所示,假设想得到P点的插值,可以先在x方向上,对Q11和Q21之间做线性插值得到R1,R2同理可得。然后在y方向上对R1和R2进行线性插值就可以得到最终的P。用公式表达则如下:
首先,在x方向进行线性差值,得到:
Figure BDA0002956893510000071
从下图可以得到,公式(1)中的R1的值为R1=(x,y1),同理如下所示公式(2)中R2的值为R2=(x,y2)。
Figure BDA0002956893510000081
然后,在y方向上进行线性插值,得到:
Figure BDA0002956893510000082
最后,将公式(1)和(2)代入公式(3)即可得到所要的结果f(x,y)。
(4)分割掩码
掩码分支是一个卷积网络,取ROI分类器选择的正区域为输入,并生成它们的掩码。其生成的掩码是低分辨率的:28x28像素。但它们是由浮点数表示的软掩码,相对于二进制掩码有更多的细节。掩码的小尺寸属性有助于保持掩码分支网络的轻量性。在训练过程中,将真实的掩码缩小为28x28来计算损失函数,在推断过程中,将预测的掩码放大为ROI边框的尺寸以给出最终的掩码结果。
检测步骤可包括:
第一步:输入图像并提取底层特征
将图像输入到Mask R-CNN的主干网络。Mask R-CNN的主干是一个标准的卷积神经网络,由ResNet和FPN组成,作为特征抽取器。底层检测的是低级特征如边缘和角点等。
在此过程中,Mask R-CNN取其中若干层的输出组合作为图像的特征,由于在不同深度所提取的特征维度不同,将他们在Z轴方向组合后,可形成形似金字塔的组合特征。采用ResNet得到图像的特征金字塔后,则利用特征金字塔网络对得到的特征金字塔进行进一步的融合处理,得到输入图像的最终特征金字塔。
第二步:将底层特征输入区域建议网络
由区域建议网络(RPN,Region Proposal Network)对特征金字塔进行分析,得到可能的实体位置建议(proposals)。RPN是一个轻量的神经网络,它用滑动窗口来扫描图像,并寻找存在目标的区域,滑动窗口是由RPN的卷积过程实现的,可以使用GPU并行地扫描所有区域。此外,RPN并不会直接扫描图像,而是扫描主干特征图。这使得RPN可以有效地复用抽取的特征,并避免重复计算。
如果有多个anchor互相重叠,将保留拥有最高前景分数的anchor,并舍弃余下的(非极大值抑制)。然后我们就得到了最终的区域建议(ROI,Region of Interest),并将其传递到下一个阶段,
第三步:对候选区域进行分类和边框位置微调
将第二步中得到的目标候选区域作为输入,使用ROI分类器和边界框回归器对候选区域进行分类,去除非目标区域,并对剩余候选区域的边界框位置进行微调。
这个阶段是在由RPN提出的ROI上运行的。正如RPN一样,它为每个ROI生成了两个输出:
类别:ROI中的目标的类别。和RPN不同,这个网络更深并且可以将区域分类为具体的类别(血管、神经等)。它还可以生成一个背景类别,然后就可以弃用ROI了。
边框精调:和RPN的原理类似,它的目标是进一步精调边框的位置和尺寸以将目标封装。
双线性插值本质上就是在两个方向上做线性插值,在特征图的不同点采样,并应用双线性插值。
第四步:生成分割掩码
掩码分支是一个卷积网络,取ROI分类器选择的正区域为输入,并生成它们的掩码,但其为由浮点数表示的软掩码,相对于二进制掩码有更多的细节。掩码的小尺寸属性有助于保持掩码分支网络的轻量性。
在训练过程中,将真实的掩码缩小为28x28来计算损失函数,在推断过程中,将预测的掩码放大为ROI边框的尺寸以给出最终的掩码结果,每个目标有且仅有一个掩码。
本申请实施例中,第三步中,对候选区域进行了分类和边框位置微调,即得到了候选区域所属的类别(如血管、神经等)以及精确的边框位置;第四步得到的分割掩码,标记出了边框中属于物体(如血管、神经等)的所有像素。对于不同的物体,可以用不同的色彩标记出边框中属于物体的所有像素,以便更快速直观地观察出正中神经、屈指肌腱等所在的位置。
本实施例中,通过图像传感器获取的图像,除了可作为机器学习样本进行学习得到识别结果之外,也可作为训练样本,对机器学习模型(Mask R-CNN算法)进行不断的训练,不断提高机器学习的准确度。
在手术操作过程中,通过机器学习识别出正中神经和屈指肌腱之后,图像处理装置可将识别出的图像信息在显示屏中显示供直接观察。若识别出的正中神经或屈指肌腱处于导板102上方,此时存在被微刀30损伤的可能,图像处理装置处理还可向报警装置发出报警信号,报警装置可根据报警信号发出声光报警,也可进行语音报警。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (7)

1.一种智能镜下腕管切割器,其特征在于,包括:刀架、图像传感器和微刀;其中,
所述微刀设在所述刀架上,用于对腕管内的腕横韧带进行切割;
所述图像传感器,设在所述刀架上,用于采集腕管内部的图像信息,并将采集的所述图像信息传给图像处理装置,以使所述图像处理装置对所述图像信息进行分析,对腕管中的正中神经进行识别;
所述微刀可包括刀杆和设在刀杆第一端的刀头;所述刀杆的横截面呈“工”字型;所述刀架包括刀架本体,在所述刀架本体上设有第一导槽,于所述第一导槽的两侧相对设有第一导向块和第二导向块,所述刀杆夹持在所述第一导向块和所述第二导向块之间,且所述第一导向块有部分位于所述刀杆第一侧的凹槽中,所述第二导向块有部分位于所述刀杆第二侧的凹槽中;
所述刀架还包括连接在所述刀架本体上的导板,所述导板的第一端的端面上设有图像传感器容纳腔,所述图像传感器容纳腔开口于所述导板的第一端的端面上;所述图像传感器设在所述图像传感器容纳腔中;其中,导板的第一端为导板远离刀架本体的一端,所述导板的第一端的端面,为自所述导板的第一端的上表面,向所述导板的第一端的下表面倾斜的斜面;
其中,所述图像处理装置对所述图像信息进行分析,对腕管中的正中神经进行识别,包括:采用Mask R-CNN算法进行图像中的正中神经检测识别;
其中的检测识别步骤包括:
第一步:将图像输入到Mask R-CNN的主干网络;Mask R-CNN取其中若干层的输出组合作为图像的特征,由于在不同深度所提取的特征维度不同,将他们在Z轴方向组合后,形成特征金字塔,其中,所述主干网络是一个标准的卷积神经网络;
第二步:由区域建议网络Region Proposal Network对特征金字塔进行分析,得到可能的实体位置建议;其中,Region Proposal Network是一个轻量的神经网络,它用滑动窗口来扫描图像,并寻找存在目标的区域,滑动窗口是由Region Proposal Network的卷积过程实现的,使用GPU并行地扫描所有区域anchor;如果有多个anchor互相重叠,保留拥有最高前景分数的anchor,并舍弃余下的;然后得到最终的区域建议,并将其传递到下一个阶段;
第三步:将第二步中得到的目标候选区域作为输入,使用ROI分类器和边界框回归器对候选区域进行分类,去除非目标区域,并对剩余候选区域的边界框位置进行微调;
第四步:取ROI分类器选择的正区域为输入,并生成它们的掩码,标记出边框中属于物体的所有像素;其中,对于不同的物体,用不同的色彩标记出边界框中属于物体的所有像素,以便更快速直观地观察出正中神经、屈指肌腱所在的位置;通过图像传感器获取的图像,除了可作为机器学习样本进行学习得到识别结果之外,也可作为训练样本,对Mask R-CNN算法进行不断的训练,不断提高机器学习的准确度。
2.根据权利要求1所述的智能镜下腕管切割器,其特征在于,所述刀架包括刀架本体和连接在所述刀架本体上的导板;
在所述刀架本体上设有第一导槽,在所述导板上设有第二导槽,所述第二导槽沿所述导板的长度方向延伸设置;
所述微刀设在所述第一导槽中并能沿所述第一导槽移动,且所述微刀的第一端能够自所述第一导槽中伸出;所述微刀的第一端自所述第一导槽中伸出后,所述微刀的第一端的底部位于所述第二导槽中,并能沿所述第二导槽移动;
所述图像传感器设在所述导板的第一端;其中,所述导板的第一端为所述导板远离所述刀架本体的一端。
3.根据权利要求1所述的智能镜下腕管切割器,其特征在于,所述刀头呈燕尾型。
4.根据权利要求3所述的智能镜下腕管切割器,其特征在于,所述刀头包括上刀头和下刀头,所述下刀头位于所述上刀头的下方;
在所述上刀头下方设有第一刀刃部,所述下刀头上方设有第二刀刃部,所述第一刀刃部和所述第二刀刃部形成V型切割部;
所述微刀的第一端自所述第一导槽中伸出后,所述下刀头位于第二导槽中,并能沿所述第二导槽移动。
5.根据权利要求4所述的智能镜下腕管切割器,其特征在于,所述上刀头的长度大于所述下刀头的长度;
所述第一刀刃部与所述上刀头之间的连接部,与所述上刀头的端部之间具有预定距离。
6.根据权利要求4所述的智能镜下腕管切割器,其特征在于,所述微刀还包括设在所述刀杆上的微刀操作部。
7.根据权利要求2所述的智能镜下腕管切割器,其特征在于,所述微刀的长度小于或等于所述第二导槽的长度。
CN202110227185.XA 2021-02-25 2021-03-01 一种智能镜下腕管切割器 Active CN112869829B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110213325 2021-02-25
CN2021102133258 2021-02-25

Publications (2)

Publication Number Publication Date
CN112869829A CN112869829A (zh) 2021-06-01
CN112869829B true CN112869829B (zh) 2022-10-21

Family

ID=76055137

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110227185.XA Active CN112869829B (zh) 2021-02-25 2021-03-01 一种智能镜下腕管切割器

Country Status (1)

Country Link
CN (1) CN112869829B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101878490B1 (ko) * 2017-03-10 2018-07-13 만도헬라일렉트로닉스(주) 차선 인식 시스템 및 방법
CN108985229A (zh) * 2018-07-17 2018-12-11 北京果盟科技有限公司 一种基于深度神经网络的智能广告替换方法及系统
CN110246120A (zh) * 2019-05-13 2019-09-17 中国科学院深圳先进技术研究院 一种目标图像提取方法、系统及终端设备
WO2020244653A1 (zh) * 2019-06-06 2020-12-10 华为技术有限公司 物体识别方法及装置
CN112215217A (zh) * 2020-12-03 2021-01-12 印迹信息科技(北京)有限公司 模拟医师阅片的数字图像识别方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5620454A (en) * 1994-10-25 1997-04-15 Becton, Dickinson And Company Guarded surgical scalpel
US8257379B2 (en) * 2010-07-29 2012-09-04 Kyphon Sarl Tissue structure perforation system and method
ITPI20100032U1 (it) * 2010-12-30 2012-07-01 Marcello Stampacchia Innovativo tenotomo caratterizzato dal fatto che grazie alla sua particolare conformazione puo' effettuare con estrema precisione e sicurezza il taglio del legamento traverso del carpo senza ledere minimamente i tessuti adiacenti.
CN203436371U (zh) * 2013-08-01 2014-02-19 刘荣东 腕管综合症手术用刀具
US9720515B2 (en) * 2015-01-02 2017-08-01 Wearable Devices Ltd. Method and apparatus for a gesture controlled interface for wearable devices
CN106539612A (zh) * 2017-01-10 2017-03-29 深圳市邦沃科技有限公司 一种腕管微创刀具
CN107638204A (zh) * 2017-09-12 2018-01-30 武汉大学 基于模态坐标的膝关节内侧副韧带损伤自动诊治装置及方法
CN107818326B (zh) * 2017-12-11 2018-07-20 珠海大横琴科技发展有限公司 一种基于场景多维特征的船只检测方法及系统
US11544928B2 (en) * 2019-06-17 2023-01-03 The Regents Of The University Of California Athlete style recognition system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101878490B1 (ko) * 2017-03-10 2018-07-13 만도헬라일렉트로닉스(주) 차선 인식 시스템 및 방법
CN108985229A (zh) * 2018-07-17 2018-12-11 北京果盟科技有限公司 一种基于深度神经网络的智能广告替换方法及系统
CN110246120A (zh) * 2019-05-13 2019-09-17 中国科学院深圳先进技术研究院 一种目标图像提取方法、系统及终端设备
WO2020244653A1 (zh) * 2019-06-06 2020-12-10 华为技术有限公司 物体识别方法及装置
CN112215217A (zh) * 2020-12-03 2021-01-12 印迹信息科技(北京)有限公司 模拟医师阅片的数字图像识别方法及装置

Also Published As

Publication number Publication date
CN112869829A (zh) 2021-06-01

Similar Documents

Publication Publication Date Title
US10997465B2 (en) Information processing device, information processing method, and storage medium
CN109558840A (zh) 一种特征融合的活体检测方法
CN105828703A (zh) 基于标记的工具跟踪
US11298012B2 (en) Image processing device, endoscope system, image processing method, and program
US8958621B2 (en) Corneal graft evaluation based on optical coherence tomography image
CN106791263A (zh) 一类图文采集识别装置
CN108272437A (zh) 用于皮肤病诊断的光谱检测系统和分类器模型构建方法
KR101265466B1 (ko) 얼굴표정을 이용한 감정인식 장치, 감정인식 방법 및 그 기록매체
CN102629321B (zh) 基于证据理论的人脸表情识别方法
CN111145865A (zh) 一种基于视觉的手部精细动作训练指导系统及方法
CN108596174A (zh) 一种皮肤病影像的病灶定位方法
CN114004969A (zh) 一种内镜图像病灶区检测方法、装置、设备及存储介质
CN112869829B (zh) 一种智能镜下腕管切割器
CN104156650A (zh) 一种基于手部运动的用户身份识别方法
CN111126143A (zh) 一种基于深度学习的运动评判指导方法及系统
CN110265142A (zh) 一种用于病变区域复原图的辅助诊断系统和方法
CN106652112A (zh) 一种智能化多功能门锁及控制系统和控制方法
CN104504161B (zh) 一种基于机器人视觉平台的图像检索方法
CN112543940B (zh) 针对外科手术视频的主导工具检测系统
JP2012164026A (ja) 画像認識装置及び車両用表示装置
Graf et al. Robust recognition of faces and facial features with a multi-modal system
JP3889361B2 (ja) 核領域認識法および細胞系譜作成法
US11337432B1 (en) Automated crab meat picking system and method
Aitpayev et al. Semi-automatic annotation tool for sign languages
CN110032980B (zh) 一种基于深度学习的器官检测与识别定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant