CN117392703A - 一种高泛化力的辅助排便方法及系统 - Google Patents

一种高泛化力的辅助排便方法及系统 Download PDF

Info

Publication number
CN117392703A
CN117392703A CN202311388549.8A CN202311388549A CN117392703A CN 117392703 A CN117392703 A CN 117392703A CN 202311388549 A CN202311388549 A CN 202311388549A CN 117392703 A CN117392703 A CN 117392703A
Authority
CN
China
Prior art keywords
defecation
training
mechanical arm
image
anus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311388549.8A
Other languages
English (en)
Inventor
苟莉
杨波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Peoples Hospital of Sichuan Academy of Medical Sciences
Original Assignee
Sichuan Peoples Hospital of Sichuan Academy of Medical Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Peoples Hospital of Sichuan Academy of Medical Sciences filed Critical Sichuan Peoples Hospital of Sichuan Academy of Medical Sciences
Priority to CN202311388549.8A priority Critical patent/CN117392703A/zh
Publication of CN117392703A publication Critical patent/CN117392703A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/22Implements for squeezing-off ulcers or the like on the inside of inner organs of the body; Implements for scraping-out cavities of body organs, e.g. bones; Calculus removers; Calculus smashing apparatus; Apparatus for removing obstructions in blood vessels, not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/22Implements for squeezing-off ulcers or the like on the inside of inner organs of the body; Implements for scraping-out cavities of body organs, e.g. bones; Calculus removers; Calculus smashing apparatus; Apparatus for removing obstructions in blood vessels, not otherwise provided for
    • A61B2017/22037Fecal impaction removal

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Vascular Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

本发明请求保护一种高泛化力的辅助排便方法和系统,采集预训练图像和任务图像,对预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;采用奖励‑惩罚训练方法构建机械臂协调控制模型,对多个机械臂的盾构探头进行控制测试,优化机械臂协调控制模型;获得待检测肛门图像,依据肛门位置自动识别模型对待检测肛门进行定位识别,控制机械臂的盾构探头对待检测肛门进行辅助排便;获取排便结果,对排便结果进行实时检测,依据排便结果的实时检测结果控制机械臂做出调整。本发明帮助便秘人群在排便困难、行动不便、无陪护等情况下能有效、舒适地辅助排便,与现有便秘治疗方法相比,更加智能、自动地协助患者排便。

Description

一种高泛化力的辅助排便方法及系统
技术领域
本发明涉及计算机辅助医学的技术领域,特别涉及一种高泛化力的辅助排便方法和系统。
背景技术
功能性便秘(Functional Constipation,FC)是排除了胃肠道器质性疾病、内分泌疾病及药物等继发性因素所致的便秘,为常见的胃肠道疾病之一。普通人群FC患病率为3%-17%,其中,女性是男性的两倍[4]。在养老院,80% 65岁以上的居民患有慢性便秘[4]。FC临床表现为持续性排便困难、排便次数减少或排便不尽,症状包括大便硬结、腹胀、腹痛等。随着现代人生活压力变大,生活作息不规律以及饮食习惯影响,越来越多的人具有功能性便秘的表现。长期便秘不仅会引起肛裂、痔疮、直肠脱垂等肛肠疾病,还会诱发心脑血管意外甚至猝死,也会导致结直肠癌、肝性脑病的发生,严重影响人们的身心健康。
当前的辅助排便方案从一定程度上协助解决患者便秘问题,但存在患者体验感差、使用不方便、排便不尽等不足,原因如下:
(1)设备探头结构和材质未根据人体肠道结构设计,患者使用体验感差;
(2)智能化性能差,肛门内辅助排便需要在他人协助下完成操作,在缺少陪护的情况下,患者自己难以使用。
(3)未对干结粪便硬度进行评价,导致导出粪便不彻底,有排便不尽感。
发明内容
针对肛门口位置自动识别模型泛化能力不强,训练困难的问题,本发明请求保护一种高泛化力的辅助排便方法和系统。
根据本发明第一方面,本发明请求保护一种高泛化力的辅助排便方法,包括:
采集预训练图像和任务图像,对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;
采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型;
获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便;
获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整。
进一步的,所述采集预训练图像和任务图像,对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型,具体包括:
所述预训练图像来源于互联网开源数据或来源于医院收集的数据,所述医院收集的数据有对应的文字诊断报告,将诊断数据和图像数据构建成文本图像对进行收集;
所述预训练图像的收集比例为10%任意医疗数据+5%肛门图像数据+85%其它任意数据;
所述任务图像是肛门图片位置数据,并使用LabelImage工具对所述任务图像进行人工标注;
所述对所述预训练图像和任务图像预处理为数据增强,具体包括:
通过Albumentations软件对数据进行增强,所述数据增强手段包括:
形状变换:仿射变换,透视变换,所述仿射变换包括:旋转,错且,镜像,缩放,平移
颜色空间变换:明暗,饱和度,色彩;
加噪与模糊:高斯模糊,高斯噪音,椒盐噪音,水波纹,揉搓;
马赛克;
图像拼接:将多张图像拼接为一张图片;
所述经过上游任务训练和下游任务训练得到肛门位置自动识别模型,具体包括:
上游任务训练通过所述预训练图像对肛门位置自动识别模型进行预训练,下游任务训练是用所述任务图像对肛门位置自动识别模型进行迁移训练,对肛门位置进行定位;
所述上游任务训练采用多模态无监督训练模式进行训练和掩码训练:
收集多幅所述预训练图像,将所述预训练图像的文本和图像内容输入到网络中提取特征,文本是简单Transfomer网络,使用Google BERT生成的词向量作为Token,图像内容通过Patach作为Token;
分别提取所述文本和图像内容的特征,将所述文本和图像内容的特征的相似度作为训练损失函数;
如果是同一图像的图像内容和文本内容符合,则神经网络对提取的图像内容特征和文本提取的特征,将所述图像内容特征和文本提取的特征的相似度设计为神经网络训练的损失函数;
所述掩码训练收集不带文本描述的预训练图像,通过掩码方式进行数据训练,掩码训练过程中将预训练图像Patch后,随机掩盖图像的部分Patch,使用掩盖的Patch还原整幅图像;
所述下游任务训练包括:
使用所述任务图像,按上游任务训练方法,进行无监督预训练;
加入肛门位置输出头和位置损失函数,进行定位损失;
所述定位损失使用DERT模型中的损失函数,所述位置输出头一共输出100个框,每个框是一个5+N维度向量;
计算100个框中,哪个框和目标框的IOU指标衡量更接近,该框的执行度目标为1,其它框置信度目标为0,其它位置信息坐标和真实框位置坐标做回归训练,使用时,选择置信度最大的框和相关的关键点坐标。
进一步的,所述采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型,具体包括:
构建与训练所述机械臂协调控制模型:通过控制理论,建立控制方程,强化学习框架,构建训练过程,依据反向传播算法,求解出控制方程的各个参数;
对所述机械臂进行多轴连续控制训练:每个节点的模型Actor输出为连续高斯分布N(u,v);智能体的输出为机械臂各个轴在高斯分布上的随机采样,使用便秘患者假体模型的便秘改善情况作为强化学习的回报G,若情况改善则回报为正,若情况未改善或者改善不佳则回报为负,进行惩罚;
以G的相反数作为模型的目标函数,通过动作重复采样,收集数据训练模型,直至模型可为六个机械臂轴输出准确的动作集合;
对每个动作进行重采样得到选取的动作和动作执行的概率P;那么所有节点的输出联合概率为P1*P2*P3*P4…;
目标是最大化总奖励G,等价于最大化G*logP1+G*logP2+G*logP3+G*logP4…公式,将该公式加个负号作为损失,训练所述Actor;
对所述机械臂协调控制模型进行环境训练与环境测试:采用SAC强化学习模型中的损失函数,将仿真环境中训练的模型迁移到现实场景中,在所述Actor的损失上加一个正则化项:H=-,其中p为Actor输出的动作概率。
进一步的,所述获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便,具体包括:
获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,得到待检测肛门;
控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便,并实时获取所述待检测肛门的肠道段特征和肠道蠕动特征;
分析待深入肠道段的肠道段特征,所述肠道段特征用于表示所述待深入肠道段的肠道段属性和盾构探头在所述待深入肠道段上的辅助排便行为;
获取网格肠道段集合的网格肠道段特征,所述网格肠道段集合包括位于所述待深入肠道段的同一网格内的多条肠道段,所述网格肠道段特征用于表示网格肠道段集合内各个肠道段的整体肠道段属性和盾构探头在各个肠道段不同采样位置上的辅助排便行为;
根据所述待深入肠道段的肠道段特征和所述网格肠道段集合的网格肠道段特征,确定所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值;
根据所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值和所述待深入肠道段的肠道段特征,评价所述待深入肠道段的粪便堵塞硬度;
依据所述待深入肠道段的粪便堵塞硬度和所述和肠道蠕动特征控制所述机械臂的盾构探头调整所述待检测肛门的辅助排便行为。
进一步的,所述获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整,具体包括:
获取所述排便结果,机械臂控制单元设置排便结果量感应单元和排便结果硬度感应单元,排便结果量感应单元感应排便结果量,排便结果硬度感应单元获得当前时刻排便结果硬度情况,建立一一映射;
当二者不满足映射关系时,确定可能涉及的若干排便结果检测单元,机械臂控制单元发送指令至所述排便结果检测单元,其中排便结果检测单元安装设置机械臂定位单元,通讯单元,摄像单元,三者均与控制单元连接;
控制排便结果检测单元拍照获取排便结果照片信息;
控制单元将排便结果照片信息附带机械臂定位单元所采集的位置信息,回传至机械臂控制单元;
机械臂控制单元对排便结果照片信息,制定机械臂调整方案。
根据本发明第二方面,本发明请求保护一种高泛化力的辅助排便系统,包括:机械臂、双目深度相机、主控系统、污桶传感器;
所述机械臂包括硅胶盾构探头、注水控制器;
所述污桶传感器包括排便结果量感应单元和排便结果硬度感应单元;
所述主控系统包括图像处理单元和机械臂控制单元;
所述双目深度相机采集预训练图像和任务图像,所述图像处理单元对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;
所述机械臂控制单元采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型;
所述双目深度相机获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便;
所述污桶传感器获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整;
所述一种高泛化力的辅助排便系统用于实现如权利要求1-5所述的一种高泛化力的辅助排便方法。
进一步的,具体包括:
所述硅胶盾构探头表面具有特定纹理,内置隐藏探针齿轮,探针未接受到粉碎功能命令时,探针齿轮隐藏,在探针接受到粉碎功能命令时,探针齿轮伸出,执行相应的粉碎功能;
探针齿轮隐藏时,探头为逆向竖立结构,使得探头在润滑后能够快速进入肛门;
机械臂末端设置送液设备,将润滑液送到探头内部,润滑液可从探头顶端和经探针打孔位置流出,用于润滑和软化粪便。
进一步的,具体包括:
机械臂采用后三轴Z轴相交于一点的结构,同时机械臂关节长度相同且取整。
进一步的,具体包括:
协助机械臂的操作由双轴机械手、舵机、伺服电机和直线模组组成的一个六自由度机械臂,双目深度相机获取肛门口三维坐标信息后将坐标传递给主机 CPU 进行处理,盾构型探头的机械臂末端控制是 CPU 获得坐标信息后的反馈运动。
进一步的,具体包括:
所述双目深度相机在图像中自动找到机械臂的末端坐标,将ArUco标签粘贴到机械臂末端,并将粘贴好的机械臂末端置于相机拍摄范围内;
标定点覆盖机械臂末端的整个运动空间,选择工作空间中的一个立方体的八个顶点作为标定点。
本发明请求保护一种高泛化力的辅助排便方法和系统,采集预训练图像和任务图像,对预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个机械臂的盾构探头进行控制测试,优化机械臂协调控制模型;获得待检测肛门图像,依据肛门位置自动识别模型对待检测肛门进行定位识别,控制机械臂的盾构探头对待检测肛门进行辅助排便;获取排便结果,对排便结果进行实时检测,依据排便结果的实时检测结果控制机械臂做出调整。本发明帮助便秘人群在排便困难、行动不便、无陪护等情况下能有效、舒适地辅助排便,与现有便秘治疗方法相比,更加智能、自动地协助患者排便。
附图说明
图1为本发明所请求保护的一种高泛化力的辅助排便方法的工作流程图;
图2为本发明所请求保护的一种高泛化力的辅助排便方法的第二工作流程图;
图3为本发明所请求保护的一种高泛化力的辅助排便方法的第三工作流程图;
图4为本发明所请求保护的一种高泛化力的辅助排便系统的结构模块图。
具体实施方式
根据本发明第一实施例,参照附图1,本发明请求保护一种高泛化力的辅助排便方法,包括:
采集预训练图像和任务图像,对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;
采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型;
获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便;
获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整。
其中,在该实施例中,使用Swin-TransformerV2.0算法建立肛门口自动识别模型,来提高模型的泛化能力和准确度;Swin-TransformerV2.0算法是一种新型图像识别算法框架。该框架使用以Transformer作为网络结构单元替代卷积神经网络(GNN)中的卷积核。因使用了注意力机制,并融合了传统深度卷积算法(Convolutional Neural Network, CNN)的先验知识,Swin-Transformer V2.0算法框架比经典的CNN网络在图像识别的准确度、稳定性等方面有显著的提升。
此外,本实施例还拟采用多模态训练(文本+图像)方法对数据进行训练,提高模型对肛门图像结构的理解,提高模型的泛化能力与精准度,完成机器人对肛门位置的自动识别。
深度学习是机器学习领域中一个新的研究方向,深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得了很多成果。本研究在最优控制理论基础上,该控制方程修改为非线性控制方程,再采用经典的AC模型(Actor-Critic模型)构建学习框架和训练模型,已实现机械臂的多轴连续最优控制。
进一步的,所述采集预训练图像和任务图像,对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型,具体包括:
所述预训练图像来源于互联网开源数据或来源于医院收集的数据,所述医院收集的数据有对应的文字诊断报告,将诊断数据和图像数据构建成文本图像对进行收集;
所述预训练图像的收集比例为10%任意医疗数据+5%肛门图像数据+85%其它任意数据;
其中,在该实施例中拟共收集图像12000张,其中在口腔门诊收集带有文本的口腔图像1200张,在某三甲医院康复科收集肛门图像600张,在Object 365 v2数据集和ImageNet22K-ext数据集收集图像10200张。
所述任务图像是肛门图片位置数据,并使用LabelImage工具对所述任务图像进行人工标注;
所述对所述预训练图像和任务图像预处理为数据增强,具体包括:
通过Albumentations软件对数据进行增强,所述数据增强手段包括:
形状变换:仿射变换,透视变换,所述仿射变换包括:旋转,错且,镜像,缩放,平移
颜色空间变换:明暗,饱和度,色彩;
加噪与模糊:高斯模糊,高斯噪音,椒盐噪音,水波纹,揉搓;
马赛克;
图像拼接:将多张图像拼接为一张图片;
所述经过上游任务训练和下游任务训练得到肛门位置自动识别模型,具体包括:
上游任务训练通过所述预训练图像对肛门位置自动识别模型进行预训练,下游任务训练是用所述任务图像对肛门位置自动识别模型进行迁移训练,对肛门位置进行定位;
所述上游任务训练采用多模态无监督训练模式进行训练和掩码训练:
采用Text Encoder和Image Encoder进行文本和图像的编码;
收集多幅所述预训练图像,将所述预训练图像的文本和图像内容输入到网络中提取特征,文本是简单Transfomer网络,使用Google BERT生成的词向量作为Token,图像内容通过Patach作为Token;
分别提取所述文本和图像内容的特征,将所述文本和图像内容的特征的相似度作为训练损失函数;
如果是同一图像的图像内容和文本内容符合,则神经网络对提取的图像内容特征和文本提取的特征,将所述图像内容特征和文本提取的特征的相似度设计为神经网络训练的损失函数;
所述掩码训练收集不带文本描述的预训练图像,通过掩码方式进行数据训练,预训练图像作为输入Input经过encoder编码器至decoder解码器,得到target目标;
掩码训练过程中将预训练图像Patch后,随机掩盖图像的部分Patch,使用掩盖的Patch还原整幅图像;
所述下游任务训练包括:
使用所述任务图像,按上游任务训练方法,进行无监督预训练;
加入肛门位置输出头和位置损失函数,进行定位损失;
所述定位损失使用DERT模型中的损失函数,所述位置输出头一共输出100个框,每个框是一个5+N维度向量;
计算100个框中,哪个框和目标框的IOU指标衡量更接近,该框的执行度目标为1,其它框置信度目标为0,其它位置信息坐标和真实框位置坐标做回归训练,使用时,选择置信度最大的框和相关的关键点坐标。
进一步的,所述采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型,具体包括:
构建与训练所述机械臂协调控制模型:通过控制理论,建立控制方程,强化学习框架,构建训练过程,依据反向传播算法,求解出控制方程的各个参数;
对所述机械臂进行多轴连续控制训练:每个节点的模型Actor输出为连续高斯分布N(u,v);智能体的输出为机械臂各个轴在高斯分布上的随机采样,使用便秘患者假体模型的便秘改善情况作为强化学习的回报G,若情况改善则回报为正,若情况未改善或者改善不佳则回报为负,进行惩罚;
以G的相反数作为模型的目标函数,通过动作重复采样,收集数据训练模型,直至模型可为六个机械臂轴输出准确的动作集合;
对每个动作进行重采样得到选取的动作和动作执行的概率P;那么所有节点的输出联合概率为P1*P2*P3*P4…;
目标是最大化总奖励G,等价于最大化G*logP1+G*logP2+G*logP3+G*logP4…公式,将该公式加个负号作为损失,训练所述Actor;
对所述机械臂协调控制模型进行环境训练与环境测试:采用SAC强化学习模型中的损失函数,将仿真环境中训练的模型迁移到现实场景中,在所述Actor的损失上加一个正则化项:H=-,其中p为Actor输出的动作概率。
其中,在该实施例中通过控制理论,建立控制方程包括:
研究将控制方程修改为非线性控制方程,并且把输出修改为高斯分布的参数(期望,方差),使用时直接选取期望作为动作值。训练时通过重采样进行动作选取,并将控制方程中的所有参数设置为可学习变量;
通过强化学习框架,构建训练过程包括:
采用经典的Actor-Critic模型构建训练过程,A为Actor,即控制方程;C为Critic,即评价者,用于评价Actor执行的效果。如果Actor执行的动作正确,则给与正奖励,否则给与负奖励。最终目标为最大化总奖励,即损失为最小化负总奖励;
进一步的,参照图2,所述获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便,具体包括:
获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,得到待检测肛门;
控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便,并实时获取所述待检测肛门的肠道段特征和肠道蠕动特征;
分析待深入肠道段的肠道段特征,所述肠道段特征用于表示所述待深入肠道段的肠道段属性和盾构探头在所述待深入肠道段上的辅助排便行为;
获取网格肠道段集合的网格肠道段特征,所述网格肠道段集合包括位于所述待深入肠道段的同一网格内的多条肠道段,所述网格肠道段特征用于表示网格肠道段集合内各个肠道段的整体肠道段属性和盾构探头在各个肠道段不同采样位置上的辅助排便行为;
根据所述待深入肠道段的肠道段特征和所述网格肠道段集合的网格肠道段特征,确定所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值;
根据所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值和所述待深入肠道段的肠道段特征,评价所述待深入肠道段的粪便堵塞硬度;
依据所述待深入肠道段的粪便堵塞硬度和所述和肠道蠕动特征控制所述机械臂的盾构探头调整所述待检测肛门的辅助排便行为。
其中,在该实施例中,所述获取网格肠道段集合的网格肠道段特征之前,还包括:
以所述待深入肠道段的中心点为中心,以预设长度为网格长度,分别向所述待深入肠道段的上游肠道段和下游肠道段进行扩展,得到中心网格;
将所述中心网格沿着所述待深入肠道段的上游肠道段和下游肠道段进行表示,得到多个表示网格;
以所述待深入肠道段的边缘为起点,以所述预设长度为网格长度,分别向所述待深入肠道段的上游肠道段和下游肠道段进行扩展,得到两个边缘网格;
将位于所述中心网格、每个表示网格或每个边缘网格内的各个肠道段组成一个网格肠道段集合。
所述根据所述待深入肠道段的肠道段特征和所述网格肠道段集合的网格肠道段特征,确定所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值,包括:
根据所述网格肠道段集合所属的网格,将所述待深入肠道段的肠道段特征和所述网格肠道段集合的网格肠道段特征输入到每个网格的网格肠道段模型中,输出所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值;
其中,所述网格肠道段模型用于基于肠道段特征和网格肠道段特征,确定肠道段以当前网格为参照时处于不同粪便堵塞硬度的概率值。
所述根据所述网格肠道段集合所属的网格,将所述待深入肠道段的肠道段特征和所述网格肠道段集合的网格肠道段特征输入到每个网格的网格肠道段模型中之前,还包括:
获取多个训练样本肠道段的肠道段特征;
获取每个训练样本肠道段的每个网格训练样本肠道段的网格肠道段特征,每个网格训练样本包括位于每个训练样本肠道段的不同网格内的多条肠道段;
获取每个训练样本肠道段的真实粪便堵塞硬度;
根据所述多个训练样本肠道段的肠道段特征、每个训练样本肠道段的每个网格训练样本肠道段的网格肠道段特征及每个训练样本肠道段的真实粪便堵塞硬度,对每个网格的初始网格肠道段模型进行训练,得到每个网格的网格肠道段模型。
所述根据所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值和所述待深入肠道段的肠道段特征,预测所述待深入肠道段的粪便堵塞硬度,包括:
将所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值和所述待深入肠道段的肠道段特征输入到粪便堵塞决策模型中,输出所述待深入肠道段的粪便堵塞硬度;
其中,所述粪便堵塞决策模型用于基于肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值和肠道段特征,确定肠道段的粪便堵塞硬度。
所述将所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值和所述待深入肠道段的肠道段特征输入到粪便堵塞决策模型中之前,还包括:
获取多个训练样本肠道段的肠道段特征;
获取每个训练样本肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值;
获取每个训练样本肠道段的真实粪便堵塞硬度;
根据所述多个训练样本肠道段的肠道段特征、每个训练样本肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值及每个训练样本肠道段的真实粪便堵塞硬度,训练初始粪便堵塞决策模型,得到所述粪便堵塞决策模型
进一步的,参照图3,所述获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整,具体包括:
获取所述排便结果,机械臂控制单元设置排便结果量感应单元和排便结果硬度感应单元,排便结果量感应单元感应排便结果量,排便结果硬度感应单元获得当前时刻排便结果硬度情况,建立一一映射;
当二者不满足映射关系时,确定可能涉及的若干排便结果检测单元,机械臂控制单元发送指令至所述排便结果检测单元,其中排便结果检测单元安装设置机械臂定位单元,通讯单元,摄像单元,三者均与控制单元连接;
控制排便结果检测单元拍照获取排便结果照片信息;
控制单元将排便结果照片信息附带机械臂定位单元所采集的位置信息,回传至机械臂控制单元;
机械臂控制单元对排便结果照片信息,制定机械臂调整方案。
根据本发明第二实施例,参照图4,本发明请求保护一种高泛化力的辅助排便系统,包括:机械臂、双目深度相机、主控系统、污桶传感器;
所述机械臂包括硅胶盾构探头、注水控制器;
所述污桶传感器包括排便结果量感应单元和排便结果硬度感应单元;
所述主控系统包括图像处理单元和机械臂控制单元;
所述双目深度相机采集预训练图像和任务图像,所述图像处理单元对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;
所述机械臂控制单元采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型;
所述双目深度相机获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便;
所述污桶传感器获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整;
所述一种高泛化力的辅助排便系统用于实现所述的一种高泛化力的辅助排便方法。
进一步的,具体包括:
所述硅胶盾构探头表面具有特定纹理,内置隐藏探针齿轮,探针未接受到粉碎功能命令时,探针齿轮隐藏,在探针接受到粉碎功能命令时,探针齿轮伸出,执行相应的粉碎功能;
探针齿轮隐藏时,探头为逆向竖立结构,使得探头在润滑后能够快速进入肛门;
机械臂末端设置送液设备,将润滑液送到探头内部,润滑液可从探头顶端和经探针打孔位置流出,用于润滑和软化粪便。
进一步的,具体包括:
机械臂采用后三轴Z轴相交于一点的结构,同时机械臂关节长度相同且取整。
进一步的,具体包括:
协助机械臂的操作由双轴机械手、舵机、伺服电机和直线模组组成的一个六自由度机械臂,双目深度相机获取肛门口三维坐标信息后将坐标传递给主机 CPU 进行处理,盾构型探头的机械臂末端控制是 CPU 获得坐标信息后的反馈运动。
进一步的,具体包括:
所述双目深度相机在图像中自动找到机械臂的末端坐标,将ArUco标签粘贴到机械臂末端,并将粘贴好的机械臂末端置于相机拍摄范围内;
标定点覆盖机械臂末端的整个运动空间,选择工作空间中的一个立方体的八个顶点作为标定点。
通过深度相机捕获患者的肛门口深度信息和图像纹路信息。进行了双目深度相机测距代码的单独运行调试,原始输出深度图通过设置阈值并自定义 cmap 色彩,使得深度信息的梯度变换更加明显,使肛门位置清晰可见。当center设置小于数据的均值时,生成的图片颜色要向0值代表的颜色一段偏移。cmap="YlGnBu":数字越大,颜色越深。cmap="YlGnBu_r":数字越大,颜色越浅。 cmap="hot":黄色到红色,数字越大,颜色越浅。cmap="hot_r":红色到黄色,数字越大,颜色越深。
本领域技术人员能够理解,本公开所披露的内容可以出现多种变型和改进。例如,以上所描述的各种设备或组件可以通过硬件实现,也可以通过软件、固件、或者三者中的一些或全部的组合实现。
本公开中使用了流程图用来说明根据本公开的实施例的方法的步骤。应当理解的是,前面或后面的步骤不一定按照顺序来精确的进行。相反,可以按照倒序或同时处理各种步骤。同时,也可以将其他操作添加到这些过程中。
本领域普通技术人员可以理解上述方法中的全部或部分的步骤可通过计算机程序来指令相关硬件完成,程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现。相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本公开并不限制于任何特定形式的硬件和软件的结合。
除非另有定义,这里使用的所有术语具有与本公开所属领域的普通技术人员共同理解的相同含义。还应当理解,诸如在通常字典里定义的那些术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
以上是对本公开的说明,而不应被认为是对其的限制。尽管描述了本公开的若干示例性实施例,但本领域技术人员将容易地理解,在不背离本公开的新颖教学和优点的前提下可以对示例性实施例进行许多修改。因此,所有这些修改都意图包含在权利要求书所限定的本公开范围内。应当理解,上面是对本公开的说明,而不应被认为是限于所公开的特定实施例,并且对所公开的实施例以及其他实施例的修改意图包含在所附权利要求书的范围内。本公开由权利要求书及其等效物限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (10)

1.一种高泛化力的辅助排便方法,其特征在于,包括:
采集预训练图像和任务图像,对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;
采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型;
获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便;
获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整。
2.如权利要求1所述的一种高泛化力的辅助排便方法,其特征在于,所述采集预训练图像和任务图像,对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型,具体包括:
所述预训练图像来源于互联网开源数据或来源于医院收集的数据,所述医院收集的数据有对应的文字诊断报告,将诊断数据和图像数据构建成文本图像对进行收集;
所述预训练图像的收集比例为10%任意医疗数据+5%肛门图像数据+85%其它任意数据;
所述任务图像是肛门图片位置数据,并使用LabelImage工具对所述任务图像进行人工标注;
所述对所述预训练图像和任务图像预处理为数据增强,具体包括:
通过Albumentations软件对数据进行增强,所述数据增强手段包括:
形状变换:仿射变换,透视变换,所述仿射变换包括:旋转,错且,镜像,缩放,平移
颜色空间变换:明暗,饱和度,色彩;
加噪与模糊:高斯模糊,高斯噪音,椒盐噪音,水波纹,揉搓;
马赛克;
图像拼接:将多张图像拼接为一张图片;
所述经过上游任务训练和下游任务训练得到肛门位置自动识别模型,具体包括:
上游任务训练通过所述预训练图像对肛门位置自动识别模型进行预训练,下游任务训练是用所述任务图像对肛门位置自动识别模型进行迁移训练,对肛门位置进行定位;
所述上游任务训练采用多模态无监督训练模式进行训练和掩码训练:
收集多幅所述预训练图像,将所述预训练图像的文本和图像内容输入到网络中提取特征,文本是简单Transfomer网络,使用Google BERT生成的词向量作为Token,图像内容通过Patach作为Token;
分别提取所述文本和图像内容的特征,将所述文本和图像内容的特征的相似度作为训练损失函数;
如果是同一图像的图像内容和文本内容符合,则神经网络对提取的图像内容特征和文本提取的特征,将所述图像内容特征和文本提取的特征的相似度设计为神经网络训练的损失函数;
所述掩码训练收集不带文本描述的预训练图像,通过掩码方式进行数据训练,掩码训练过程中将预训练图像Patch后,随机掩盖图像的部分Patch,使用掩盖的Patch还原整幅图像;
所述下游任务训练包括:
使用所述任务图像,按上游任务训练方法,进行无监督预训练;
加入肛门位置输出头和位置损失函数,进行定位损失;
所述定位损失使用DERT模型中的损失函数,所述位置输出头一共输出100个框,每个框是一个5+N维度向量;
计算100个框中,哪个框和目标框的IOU指标衡量更接近,该框的执行度目标为1,其它框置信度目标为0,其它位置信息坐标和真实框位置坐标做回归训练,使用时,选择置信度最大的框和相关的关键点坐标。
3.如权利要求1所述的一种高泛化力的辅助排便方法,其特征在于,所述采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型,具体包括:
构建与训练所述机械臂协调控制模型:通过控制理论,建立控制方程,强化学习框架,构建训练过程,依据反向传播算法,求解出控制方程的各个参数;
对所述机械臂进行多轴连续控制训练:每个节点的模型Actor输出为连续高斯分布N(u,v);智能体的输出为机械臂各个轴在高斯分布上的随机采样,使用便秘患者假体模型的便秘改善情况作为强化学习的回报G,若情况改善则回报为正,若情况未改善或者改善不佳则回报为负,进行惩罚;
以G的相反数作为模型的目标函数,通过动作重复采样,收集数据训练模型,直至模型可为六个机械臂轴输出准确的动作集合;
对每个动作进行重采样得到选取的动作和动作执行的概率P;那么所有节点的输出联合概率为P1*P2*P3*P4…;
目标是最大化总奖励G,等价于最大化G*logP1+G*logP2+G*logP3+G*logP4…公式,将该公式加个负号作为损失,训练所述Actor;
对所述机械臂协调控制模型进行环境训练与环境测试:采用SAC强化学习模型中的损失函数,将仿真环境中训练的模型迁移到现实场景中,在所述Actor的损失上加一个正则化项:H=-,其中p为Actor输出的动作概率。
4.如权利要求1所述的一种高泛化力的辅助排便方法,其特征在于,所述获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便,具体包括:
获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,得到待检测肛门;
控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便,并实时获取所述待检测肛门的肠道段特征和肠道蠕动特征;
分析待深入肠道段的肠道段特征,所述肠道段特征用于表示所述待深入肠道段的肠道段属性和盾构探头在所述待深入肠道段上的辅助排便行为;
获取网格肠道段集合的网格肠道段特征,所述网格肠道段集合包括位于所述待深入肠道段的同一网格内的多条肠道段,所述网格肠道段特征用于表示网格肠道段集合内各个肠道段的整体肠道段属性和盾构探头在各个肠道段不同采样位置上的辅助排便行为;
根据所述待深入肠道段的肠道段特征和所述网格肠道段集合的网格肠道段特征,确定所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值;
根据所述待深入肠道段以每个网格为参照时处于不同粪便堵塞硬度的概率值和所述待深入肠道段的肠道段特征,评价所述待深入肠道段的粪便堵塞硬度;
依据所述待深入肠道段的粪便堵塞硬度和所述和肠道蠕动特征控制所述机械臂的盾构探头调整所述待检测肛门的辅助排便行为。
5.如权利要求1所述的一种高泛化力的辅助排便方法,其特征在于,所述获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整,具体包括:
获取所述排便结果,机械臂控制单元设置排便结果量感应单元和排便结果硬度感应单元,排便结果量感应单元感应排便结果量,排便结果硬度感应单元获得当前时刻排便结果硬度情况,建立一一映射;
当二者不满足映射关系时,确定可能涉及的若干排便结果检测单元,机械臂控制单元发送指令至所述排便结果检测单元,其中排便结果检测单元安装设置机械臂定位单元,通讯单元,摄像单元,三者均与控制单元连接;
控制排便结果检测单元拍照获取排便结果照片信息;
控制单元将排便结果照片信息附带机械臂定位单元所采集的位置信息,回传至机械臂控制单元;
机械臂控制单元对排便结果照片信息,制定机械臂调整方案。
6.一种高泛化力的辅助排便系统,其特征在于,包括:机械臂、双目深度相机、主控系统、污桶传感器;
所述机械臂包括硅胶盾构探头、注水控制器;
所述污桶传感器包括排便结果量感应单元和排便结果硬度感应单元;
所述主控系统包括图像处理单元和机械臂控制单元;
所述双目深度相机采集预训练图像和任务图像,所述图像处理单元对所述预训练图像和任务图像预处理后,经过上游任务训练和下游任务训练得到肛门位置自动识别模型;
所述机械臂控制单元采用奖励-惩罚训练方法构建机械臂协调控制模型,对多个所述机械臂的盾构探头进行控制测试,优化所述机械臂协调控制模型;
所述双目深度相机获得待检测肛门图像,依据所述肛门位置自动识别模型对待检测肛门进行定位识别,控制所述机械臂的盾构探头对所述待检测肛门进行辅助排便;
所述污桶传感器获取排便结果,对所述排便结果进行实时检测,依据所述排便结果的实时检测结果控制所述机械臂做出调整;
所述一种高泛化力的辅助排便系统用于实现如权利要求1-5所述的一种高泛化力的辅助排便方法。
7.如权利要求6所述的一种高泛化力的辅助排便系统,其特征在于,具体包括:
所述硅胶盾构探头表面具有特定纹理,内置隐藏探针齿轮,探针未接受到粉碎功能命令时,探针齿轮隐藏,在探针接受到粉碎功能命令时,探针齿轮伸出,执行相应的粉碎功能;
探针齿轮隐藏时,探头为逆向竖立结构,使得探头在润滑后能够快速进入肛门;
机械臂末端设置送液设备,将润滑液送到探头内部,润滑液可从探头顶端和经探针打孔位置流出,用于润滑和软化粪便。
8.如权利要求6所述的一种高泛化力的辅助排便系统,其特征在于,具体包括:
机械臂采用后三轴Z轴相交于一点的结构,同时机械臂关节长度相同且取整。
9.如权利要求6所述的一种高泛化力的辅助排便系统,其特征在于,具体包括:
协助机械臂的操作由双轴机械手、舵机、伺服电机和直线模组组成的一个六自由度机械臂,双目深度相机获取肛门口三维坐标信息后将坐标传递给主机 CPU 进行处理,盾构型探头的机械臂末端控制是 CPU 获得坐标信息后的反馈运动。
10.如权利要求6所述的一种高泛化力的辅助排便系统,其特征在于,具体包括:
所述双目深度相机在图像中自动找到机械臂的末端坐标,将ArUco标签粘贴到机械臂末端,并将粘贴好的机械臂末端置于相机拍摄范围内;
标定点覆盖机械臂末端的整个运动空间,选择工作空间中的一个立方体的八个顶点作为标定点。
CN202311388549.8A 2023-10-25 2023-10-25 一种高泛化力的辅助排便方法及系统 Pending CN117392703A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311388549.8A CN117392703A (zh) 2023-10-25 2023-10-25 一种高泛化力的辅助排便方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311388549.8A CN117392703A (zh) 2023-10-25 2023-10-25 一种高泛化力的辅助排便方法及系统

Publications (1)

Publication Number Publication Date
CN117392703A true CN117392703A (zh) 2024-01-12

Family

ID=89438727

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311388549.8A Pending CN117392703A (zh) 2023-10-25 2023-10-25 一种高泛化力的辅助排便方法及系统

Country Status (1)

Country Link
CN (1) CN117392703A (zh)

Similar Documents

Publication Publication Date Title
Liu et al. Deep learning framework based on integration of S-Mask R-CNN and Inception-v3 for ultrasound image-aided diagnosis of prostate cancer
JP7152513B2 (ja) 画像認識方法、装置、端末機器及び医療システム、並びにそのコンピュータプログラム
CN107730489A (zh) 无线胶囊内窥镜小肠病变计算机辅助检测系统及检测方法
CN111430025B (zh) 一种基于医疗影像数据扩增的疾病诊断模型训练方法
CN112465905A (zh) 基于深度学习的磁共振成像数据的特征脑区定位方法
CN113662664B (zh) 一种基于仪器追踪的外科手术质量客观自动化评估方法
Wang et al. Real-time burn depth assessment using artificial networks: a large-scale, multicentre study
Ye et al. Medical image diagnosis of prostate tumor based on PSP-Net+ VGG16 deep learning network
Ji et al. A multi-scale recurrent fully convolution neural network for laryngeal leukoplakia segmentation
CN111462082A (zh) 一种病灶图片识别装置、方法、设备及可读存储介质
CN109003280A (zh) 一种双通道血管内超声影像的血管中内膜分割方法
CN113570592B (zh) 肠胃病检测和模型训练方法、装置、设备及介质
Liu et al. A study on the auxiliary diagnosis of thyroid disease images based on multiple dimensional deep learning algorithms
Ji et al. Automated vein segmentation from NIR images using a mixer-UNet model
CN117392703A (zh) 一种高泛化力的辅助排便方法及系统
Ni et al. Automatic cystocele severity grading in transperineal ultrasound by random forest regression
CN112634291A (zh) 一种基于神经网络的烧伤创面区域自动分割方法
CN110705615A (zh) 一种基于TV模型与GoogLeNet模型的甲状腺结节检测和分类方法
Mei et al. Detection of suture needle using deep learning
CN111920430A (zh) 一种弱监督深度学习自动骨龄评估方法
CN113902738A (zh) 一种心脏mri分割方法及系统
Kumar et al. Gannet devil optimization-based deep learning for skin lesion segmentation and identification
CN114330484A (zh) 弱监督学习糖尿病视网膜病变分级与病灶识别方法及系统
CN111768845A (zh) 一种基于最优多尺度感知的肺结节辅助检测方法
CN113744844B (zh) 基于深度卷积神经网络的甲状腺超声影像处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination