CN112734704A - 基于神经网络机器学习识别实物镜下技能训练评价方法 - Google Patents
基于神经网络机器学习识别实物镜下技能训练评价方法 Download PDFInfo
- Publication number
- CN112734704A CN112734704A CN202011591147.4A CN202011591147A CN112734704A CN 112734704 A CN112734704 A CN 112734704A CN 202011591147 A CN202011591147 A CN 202011591147A CN 112734704 A CN112734704 A CN 112734704A
- Authority
- CN
- China
- Prior art keywords
- training
- objects
- neural network
- machine learning
- scored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络机器学习识别实物镜下技能训练评价方法,其包括:采用基于神经网络的机器学习方法来对训练场景中的物体进行识别,得到多个物体、多个物体的包围框坐标和对应的物体类别,即将训练场景拆解;技能训练时,根据训练场景首次输入的图像定位训练场景中需要评分的物体,根据需要评分的物体识别对应的物体类别,根据物体类别判断执行对应的训练类别;持续追踪已经定位出来的每一个物体并且检测状态变化;当检测到物体的状态发生变化的时候,根据训练类别设定的规则对物体的变化状态进行评分,即当前操作的情况评分。本发明能够快速有效的得到训练操作评价,快速提升技能。
Description
技术领域
本发明涉及腹腔镜手术技术领域,具体涉及一种基于神经网络机器学习识别实物镜下技能训练评价方法。
背景技术
腹腔镜手术是一门新发展起来的微创方法,是未来手术方法发展的一个必然趋势。随着工业制造技术的突飞猛进,相关学科的融合为开展新技术、新方法奠定了坚定的基础,加上医生越来越娴熟的操作,使得许多过去的开放性手术现在已被腔内手术取而代之,大大增加了手术选择机会。
为了保障手术质量,医生需要经过大量的理论学习和模拟训练才能够进行临床手术操作,现有腹腔镜手术在技能培训阶段,通常使用实物训练箱或者动物实验进行练习,之后在临床手术中实践学习。
但是训练箱方法只能够对训练结果作出有效评价,对于训练过程只能够凭借自身经验或者老师指导操作评价,动物实验则耗费人力物力较多,不易经常开展,不适合作为日常训练方法,因此上述两种训练方法极大限制了医生在技能培训阶段的提升,并且也大大增加了临床实践学习的时间。
发明内容
本发明要解决的技术问题是提供一种基于神经网络机器学习识别实物镜下技能训练评价方法,能够快速有效的得到训练操作评价,快速提升技能。
为了解决上述技术问题,本发明提供了一种基于神经网络机器学习识别实物镜下技能训练评价方法,其包括:
采用基于神经网络的机器学习方法来对训练场景中的物体进行识别,训练场景为单帧图像输入,通过多个卷积层、池化层和yolo回归层识别出多个物体、多个物体的包围框坐标和对应的物体类别,即将训练场景拆解;
技能训练时,根据训练场景首次输入的图像定位训练场景中需要评分的物体,根据需要评分的物体识别对应的物体类别,根据物体类别判断执行对应的训练类别;
持续追踪已经定位出来的每一个物体并且检测状态变化;
当检测到物体的状态发生变化的时候,根据训练类别设定的规则对物体的变化状态进行评分,即当前操作的情况评分。
进一步地,神经网络采用darknet框架构建。
进一步地,机器通过大量已经标记好的各种物体进行识别学习,采用Yolo-v3算法从图像的像素输出识别出的物体、物体数量和物体类别,算法使用随机梯度下降的优化方式进行学习训练,同时在学习训练用的数据中引入噪声。
进一步地,使用相关滤波法来追踪所有已经被识别出的物体以及物体接下来的所有运动。
进一步地,对于已经被识别出的物体即有了第一帧的图像,根据物体的位置构造出物体的回归目标图用来计算出滤波模板的值,计算过程中模板和回归响应图做循环卷积,其中转换到傅里叶频域计算,将卷积简化成点积操作,最后使用卷积模板和下一帧的图形进行卷积操作得到新的响应图,选择其中响应值最大的点就是物体移动的下一帧图像中的位置。
本发明的有益效果:
通过基于神经网络的机器学习方法实现对物体的识别,通过识别能够快速定义训练场景,并且通过识别还能够追踪物体的移动情况,根据移动情况以及训练场景的规则,可以实时得到操作者每个操作步骤的评价,通过操作评价能够让整个技能训练过程得到分解,使得医生能够认识到某些步骤方面的不足,从而快速提升自己的技能。
附图说明
图1是本发明的逻辑框图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
参照图1所示,本发明的基于神经网络机器学习识别实物镜下技能训练评价方法的一实施例,首先在训练评价前,需要进行学习识别,机器采用基于神经网络的机器学习方法进行学习,神经网络采用darknet框架构建,通过大量已经标记好的各种物体进行识别学习,采用Yolo-v3算法从图像的像素输出识别出的物体、物体数量和物体类别,算法使用随机梯度下降的优化方式进行学习训练,同时为了防止过拟合,我们在学习训练的训练数据中引入了一些噪声,可以增加网络的强壮性。具体的,这些物体均为训练场景单帧图像输入的内容,通过对单帧图像识别,通过多个卷积层、池化层和yolo回归层识别出多个物体、多个物体的包围框坐标和对应的物体类别,即将训练场景拆解;
技能训练时,根据训练场景首次输入的图像可以定位训练场景中需要评分的物体,根据需要评分的物体识别对应的物体类别,根据物体类别判断执行对应的训练类别,实现自动识别判断的效果;根据具体物体的数量和类别,可以有效判断具体的训练类别,例如识别有小球和桩子,那么就是定位摆豆子训练;识别到绳子以及供绳子穿过的孔洞,那么就是双手合作穿孔道训练;识别到橡皮筋和操作桩,那么就是牵拉训练;
随后持续追踪已经定位出来的每一个物体并且检测状态变化,具体为使用相关滤波法来追踪所有已经被识别出的物体以及物体接下来的所有运动,对于已经被识别出的物体即有了第一帧的图像,根据物体的位置构造出物体的回归目标图用来计算出滤波模板的值,计算过程中模板和回归响应图做循环卷积,其中转换到傅里叶频域计算,将卷积简化成点积操作,最后使用卷积模板和下一帧的图形进行卷积操作得到新的响应图,选择其中响应值最大的点就是物体移动的下一帧图像中的位置。
当检测到物体的状态发生变化的时候,根据训练类别设定的规则对物体的变化状态进行评分,即当前操作的情况评分,根据所有操作的评分汇总即可得到整体操作的评价报告,根据整个评价报告,医生能够快速的认知到每个动作的问题所在,从而快速发现技能薄弱处,能够快速提高职业技能。
上述所述的训练场景可以为实体场景,通过对实体场景内多个实体的物体进行识别,操作时,训练时,训练对象为实体的物体;
在一实施例中,上述所述的训练场景可以为虚拟场景,在虚拟场景中,识别的物体则为训练器械,且虚拟场景由实体环境和虚拟环境配合形成,具体的,以抓取小球为例,需要具有预设模型场景单元,用于存储虚拟场景和操作对象,虚拟场景为底面和侧壁形成的空间,底面及侧壁为弧形,虚拟场景内还布置有标本袋,操作对象为训练器械,实体环境内随机布置有小球,虚拟环境根据训练场景与实体环境进行拟合,通过模拟人体腹腔形状及大小以及三维逆向重构形成训练模型,训练模型内还模拟有软体组织,从而真实的模拟操作环境;通过模拟系统配置单元加载和显示虚拟场景和操作对象,操作者即可在屏幕上看到初始画面;在操作过程中,由于操作者本身技术能力不高,通过设置模拟系统引导提示单元,在操作过程中提供流程提示和操作提示,流程提示为根据训练设计提示每一个操作步骤,并通过文字和语音播报展现,操作提示为在训练过程中每一个操作步骤内提示具体的动作,因此在操作过程中能够对操作者进行引导,形成智能教学的效果;
并且在操作过程中,还具有模拟系统操作效果单元,能够有效且真实的反馈出真实的操作效果,训练器械夹持小球时,具有夹持反馈力,小球在每一个操作步骤中的颜色可变换,训练器械移动碰触训练模型内的软体组织、场景内壁阻碍物时,具有碰撞反馈力,特别是软体组织。
具体的,训练器械碰触到实体环境时本身就具有阻挡反馈,并且根据图像识别可以提前预估进行提醒。
操作时,通过图像识别训练器械在使用过程中的转向和插入深度,同时模拟出是否与软体组织之间发生碰撞。在操作过程中,还需要模拟系统训练判断单元,用于判断训练过程中每个动作的操作完成度;具体为是否根据训练设计,一手器械夹起小球,空中双手器械交换小球,完成交换后投放至对应颜色标本袋,以及小球是否掉落,夹起次数,投放是否成功,是否有进行双手器械传递,是否有无效移动,操作稳定性等。通过模拟系统训练判断单元得到的判断数据通过模拟系统操作记录评价单元判断、记录、显示操作记录及分析评价;操作记录及分析评价为以训练时间为记录时间轴,通过记录操作的动作和操作完成度通过数据分析提供训练评价报告。
还可以通过提示音和文字加强训练效果,标本袋至少为2,且在训练模型内采用颜色标识,每个标本袋颜色均不一致,将小球夹取后,通过提示音和文字,提示将小球在空中传递给另外一只手的器械,在空中将小球左手器械或右手器械传递交换一次;传递完成后,小球改变颜色,传递完成后的小球颜色与其中一个标本袋的颜色需要一致,通过提示音和文字,将传递过的小球投放至对应颜色的标本袋中;
在小球夹取、传递以及投递过程中,如果小球掉落,通过提示音和文字,需要重新夹取,并进行传递交换,即需要重新开始动作;只有按照如上步骤操作才可顺利完成训练,训练内容符合训练目的,即协调传递训练。
若投放成功,小球消失,继续使用左手器械或右手器械夹取一个小球操作,在规定时间内完成所有投放次数,则训练成功;若在规定时间内未完成投放则终止训练,训练失败;
通过图像数据的分析,还可以得到训练器械的移动速度、移动距离,根据移动速度判断训练器械移动是否过快而影响病人安全,根据移动距离判断训练器械使用是否运用熟练,查看训练的动作和训练评价报告,完成训练。通过模拟系统器械运动数据采集计算存储单元采集训练器械的夹闭次数和时间节点,用以综合分析操作者使用习惯。可以提高医生培训训练效率及质量。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。
Claims (5)
1.一种基于神经网络机器学习识别实物镜下技能训练评价方法,其特征在于,其包括:
采用基于神经网络的机器学习方法来对训练场景中的物体进行识别,训练场景为单帧图像输入,通过多个卷积层、池化层和yolo回归层识别出多个物体、多个物体的包围框坐标和对应的物体类别,即将训练场景拆解;
技能训练时,根据训练场景首次输入的图像定位训练场景中需要评分的物体,根据需要评分的物体识别对应的物体类别,根据物体类别判断执行对应的训练类别;
持续追踪已经定位出来的每一个物体并且检测状态变化;
当检测到物体的状态发生变化的时候,根据训练类别设定的规则对物体的变化状态进行评分,即当前操作的情况评分。
2.如权利要求1所述的基于神经网络机器学习识别实物镜下技能训练评价方法,其特征在于,神经网络采用darknet框架构建。
3.如权利要求1所述的基于神经网络机器学习识别实物镜下技能训练评价方法,其特征在于,机器通过大量已经标记好的各种物体进行识别学习,采用Yolo-v3算法从图像的像素输出识别出的物体、物体数量和物体类别,算法使用随机梯度下降的优化方式进行学习训练,同时在学习训练用的数据中引入噪声。
4.如权利要求1所述的基于神经网络机器学习识别实物镜下技能训练评价方法,其特征在于,使用相关滤波法来追踪所有已经被识别出的物体以及物体接下来的所有运动。
5.如权利要求4所述的基于神经网络机器学习识别实物镜下技能训练评价方法,其特征在于,对于已经被识别出的物体即有了第一帧的图像,根据物体的位置构造出物体的回归目标图用来计算出滤波模板的值,计算过程中模板和回归响应图做循环卷积,其中转换到傅里叶频域计算,将卷积简化成点积操作,最后使用卷积模板和下一帧的图形进行卷积操作得到新的响应图,选择其中响应值最大的点就是物体移动的下一帧图像中的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011591147.4A CN112734704B (zh) | 2020-12-29 | 2020-12-29 | 基于神经网络机器学习识别实物镜下技能训练评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011591147.4A CN112734704B (zh) | 2020-12-29 | 2020-12-29 | 基于神经网络机器学习识别实物镜下技能训练评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112734704A true CN112734704A (zh) | 2021-04-30 |
CN112734704B CN112734704B (zh) | 2023-05-16 |
Family
ID=75607775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011591147.4A Active CN112734704B (zh) | 2020-12-29 | 2020-12-29 | 基于神经网络机器学习识别实物镜下技能训练评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734704B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113299386A (zh) * | 2021-05-08 | 2021-08-24 | 北京大学第三医院(北京大学第三临床医学院) | 一种临床思维评价方法及装置 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456221A (zh) * | 2012-06-01 | 2013-12-18 | 苏州敏行医学信息技术有限公司 | 基于腹腔镜手术模拟系统的双手合作移动定位训练方法及系统 |
CN103456224A (zh) * | 2012-06-01 | 2013-12-18 | 苏州敏行医学信息技术有限公司 | 基于腹腔镜手术模拟系统的镜头操作训练方法及系统 |
US20140188776A1 (en) * | 2012-12-31 | 2014-07-03 | Gary Stephen Shuster | Decision making using algorithmic or programmatic analysis |
CN105636541A (zh) * | 2013-03-15 | 2016-06-01 | 圣纳普医疗(巴巴多斯)公司 | 用于微创疗法的规划、导航和模拟系统及方法 |
CN108281055A (zh) * | 2018-01-19 | 2018-07-13 | 武汉康慧然信息技术咨询有限公司 | 阶梯式外科手术训练装置及其使用方法 |
CN108335599A (zh) * | 2018-01-19 | 2018-07-27 | 武汉康慧然信息技术咨询有限公司 | 基于三维建模图像技术的手术模型训练方法 |
CN108492653A (zh) * | 2018-02-27 | 2018-09-04 | 吉林省行氏动漫科技有限公司 | 一种解剖训练系统及其工作方法 |
CN109009434A (zh) * | 2018-08-15 | 2018-12-18 | 苏州大学张家港工业技术研究院 | 腹腔微创外科机器人虚拟手术方法 |
CN109754007A (zh) * | 2018-12-27 | 2019-05-14 | 武汉唐济科技有限公司 | 前列腺手术中外包膜智能检测和预警方法及系统 |
CN110225710A (zh) * | 2017-02-01 | 2019-09-10 | 直观外科手术操作公司 | 用于图像引导的程序的配准的系统和方法 |
CN111281762A (zh) * | 2018-12-07 | 2020-06-16 | 广州幻境科技有限公司 | 一种视力康复训练方法及系统 |
CN111862144A (zh) * | 2020-07-01 | 2020-10-30 | 睿视智觉(厦门)科技有限公司 | 一种确定物体移动轨迹分数的方法及装置 |
CN111956464A (zh) * | 2020-09-14 | 2020-11-20 | 郑州诚优成电子科技有限公司 | 一种基于vr虚拟现实技术的斜视矫正训练装置及其训练方法 |
-
2020
- 2020-12-29 CN CN202011591147.4A patent/CN112734704B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456221A (zh) * | 2012-06-01 | 2013-12-18 | 苏州敏行医学信息技术有限公司 | 基于腹腔镜手术模拟系统的双手合作移动定位训练方法及系统 |
CN103456224A (zh) * | 2012-06-01 | 2013-12-18 | 苏州敏行医学信息技术有限公司 | 基于腹腔镜手术模拟系统的镜头操作训练方法及系统 |
US20140188776A1 (en) * | 2012-12-31 | 2014-07-03 | Gary Stephen Shuster | Decision making using algorithmic or programmatic analysis |
CN105636541A (zh) * | 2013-03-15 | 2016-06-01 | 圣纳普医疗(巴巴多斯)公司 | 用于微创疗法的规划、导航和模拟系统及方法 |
CN110225710A (zh) * | 2017-02-01 | 2019-09-10 | 直观外科手术操作公司 | 用于图像引导的程序的配准的系统和方法 |
CN108335599A (zh) * | 2018-01-19 | 2018-07-27 | 武汉康慧然信息技术咨询有限公司 | 基于三维建模图像技术的手术模型训练方法 |
CN108281055A (zh) * | 2018-01-19 | 2018-07-13 | 武汉康慧然信息技术咨询有限公司 | 阶梯式外科手术训练装置及其使用方法 |
CN108492653A (zh) * | 2018-02-27 | 2018-09-04 | 吉林省行氏动漫科技有限公司 | 一种解剖训练系统及其工作方法 |
CN109009434A (zh) * | 2018-08-15 | 2018-12-18 | 苏州大学张家港工业技术研究院 | 腹腔微创外科机器人虚拟手术方法 |
CN111281762A (zh) * | 2018-12-07 | 2020-06-16 | 广州幻境科技有限公司 | 一种视力康复训练方法及系统 |
CN109754007A (zh) * | 2018-12-27 | 2019-05-14 | 武汉唐济科技有限公司 | 前列腺手术中外包膜智能检测和预警方法及系统 |
CN111862144A (zh) * | 2020-07-01 | 2020-10-30 | 睿视智觉(厦门)科技有限公司 | 一种确定物体移动轨迹分数的方法及装置 |
CN111956464A (zh) * | 2020-09-14 | 2020-11-20 | 郑州诚优成电子科技有限公司 | 一种基于vr虚拟现实技术的斜视矫正训练装置及其训练方法 |
Non-Patent Citations (5)
Title |
---|
KUO SHIUAN PENG ET AL.: ""Single Shot State Detection in Simulation-based Laparoscopy Training"", 《2019 SPRING SIMULATION CONFERENCE (SPRINGSIM)》 * |
ZIJIAN ZHAO ET AL.: ""Real-time surgical instrument detection in robot-assisted surgery using a convolutional neural network cascade"", 《HEALTHCARE TECHNOLOGY LETTERS》 * |
江竞宇: ""基于安全性的手术机器人机构与手术技巧评价"", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
熊有伦 等: "《机器人学:建模、控制与视觉》", 31 March 2018, 华中科技大学出版社 * |
程鑫: "《互联网环境下农户诚信评价研究:基于支持向量机方法》", 30 April 2018, 武汉大学出版社 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113299386A (zh) * | 2021-05-08 | 2021-08-24 | 北京大学第三医院(北京大学第三临床医学院) | 一种临床思维评价方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112734704B (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5726850B2 (ja) | 技術的技能を定量化する方法及びシステム | |
CN206431875U (zh) | 基于增强现实的医学解剖辅助教学系统 | |
Reiley et al. | Automatic recognition of surgical motions using statistical modeling for capturing variability | |
US20140378995A1 (en) | Method and system for analyzing a task trajectory | |
US20140127660A1 (en) | Apparatus, Method and System for Microsurgical Suture Training | |
US10360814B2 (en) | Motion learning support apparatus | |
CN108182541A (zh) | 一种混合学习效果评估与干预方法与装置 | |
CN109933763A (zh) | 无纸化考试方法、系统及装置 | |
Davids et al. | Automated vision-based microsurgical skill analysis in neurosurgery using deep learning: development and preclinical validation | |
CN107993228A (zh) | 一种基于心血管oct影像的易损斑块自动检测方法和装置 | |
CN112734704B (zh) | 基于神经网络机器学习识别实物镜下技能训练评价方法 | |
Menegozzo et al. | Surgical gesture recognition with time delay neural network based on kinematic data | |
CN113763360A (zh) | 消化内镜模拟器检查质量评估方法及系统 | |
Long et al. | Integrating artificial intelligence and augmented reality in robotic surgery: An initial dvrk study using a surgical education scenario | |
Saggio et al. | Gesture recognition and classification for surgical skill assessment | |
TWI431562B (zh) | 微創手術訓練之穩定度評估方法及其裝置 | |
CN112419826B (zh) | 虚拟仿真腹腔镜手术内窥镜操作训练方法及系统 | |
Peng et al. | Single shot state detection in simulation-based laparoscopy training | |
CN103456225A (zh) | 基于腹腔镜手术模拟系统的双手协调基础训练方法及系统 | |
CN112750344B (zh) | 一种虚拟仿真腹腔镜手术双手协调传递的训练系统及方法 | |
Chen et al. | Visual modelling and evaluation of surgical skill | |
Gonzalez-Romo et al. | Quantification of motion during microvascular anastomosis simulation using machine learning hand detection | |
Alnafisee et al. | Current methods for assessing technical skill in cataract surgery | |
CN113268626A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN113870639A (zh) | 一种基于虚拟现实的训练评估方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |