CN111326256B - 胎儿超声标准切面图像智能识别自我训练学习系统及考试方法 - Google Patents
胎儿超声标准切面图像智能识别自我训练学习系统及考试方法 Download PDFInfo
- Publication number
- CN111326256B CN111326256B CN202010134625.2A CN202010134625A CN111326256B CN 111326256 B CN111326256 B CN 111326256B CN 202010134625 A CN202010134625 A CN 202010134625A CN 111326256 B CN111326256 B CN 111326256B
- Authority
- CN
- China
- Prior art keywords
- layer
- image
- fetal
- convolution
- convolution layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001605 fetal effect Effects 0.000 title claims abstract description 171
- 238000012549 training Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000011156 evaluation Methods 0.000 claims abstract description 46
- 238000004364 calculation method Methods 0.000 claims abstract description 40
- 238000013135 deep learning Methods 0.000 claims abstract description 36
- 210000003754 fetus Anatomy 0.000 claims abstract description 35
- 230000011218 segmentation Effects 0.000 claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims description 108
- 238000002604 ultrasonography Methods 0.000 claims description 41
- 238000011176 pooling Methods 0.000 claims description 36
- 230000008520 organization Effects 0.000 claims description 16
- 238000007726 management method Methods 0.000 claims description 15
- 230000003213 activating effect Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 10
- 238000007689 inspection Methods 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 7
- 238000013523 data management Methods 0.000 claims description 4
- 238000012384 transportation and delivery Methods 0.000 claims description 3
- 239000000654 additive Substances 0.000 claims 8
- 230000000996 additive effect Effects 0.000 claims 8
- 238000010586 diagram Methods 0.000 description 8
- 230000017105 transposition Effects 0.000 description 7
- 230000007547 defect Effects 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008175 fetal development Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Business, Economics & Management (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Pathology (AREA)
- Computational Linguistics (AREA)
- Radiology & Medical Imaging (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
本发明提供一种胎儿超声标准切面图像智能识别自我训练学习系统,其包括信息输入模组、信息存储模组、信息计算模组、信息评估模组及信息输出模组。其中所述信息输入模组用于输入胎儿超声切面标记图像。所述信息存储模组用于预存胎儿超声切面标准图像,所述胎儿超声切面标准图像包括基于深度学习分割网络U‑Net模型自动生成的胎儿超声切面标准图像,所述信息计算模组包括深度学习分割网络U‑Net模型,接收来自信息输入模组的胎儿超声切面原始图像或者胎儿超声切面标记图像并与所述信息存储模组中的胎儿超声切面标准图像进行比较计算,所述信息评估模组对比较结果进行评估,获得评估结果,所述信息输出模组输出训练学习结果。同时,本发明还提供一种采用上述自我训练学习系统的训练学习方法。
Description
技术领域
本发明涉及产前超声检查技术领域,特别的,涉及一种基于深度学习的胎儿超声标准切面图像智能识别自我训练学习系统及考试方法。
背景技术
胎儿的产前超声检查是确保母婴健康的重要手段之一,对提高胎儿质量具有重要意义。目前,胎儿产前超声检查是有效诊断胎儿健康与胎儿缺陷筛查的首选检查方法。在超声诊断过程中,需要超声医生在操作超声检测设备时,采用手动方式获取胎儿的标准切面图像,然后在所获取的胎儿超声标准切面图像的基础上进行标注、标记等检查和判断,进而对胎儿的具体发育情况依据经验做出判断和分析。因此,在胎儿超声标准切面图像检查过程中,检查结果与超声医生的自身能力、经验密切相关。
众所周知,由于胎位的不确定性、母体的体重指数、医生操作手法、超声物理特性、胎儿运动等因素的影响,超声检查所获得的胎儿超声切面图像清晰度、标准度往往存在很大差异,因此,目前手动获取胎儿超声标准切面这一工作存在如下缺陷:
首先,其要求产检的超声医生具有非常丰富的临床经验及解剖结构知识,对产检医生的水平要求相当高;
其次,该检查非常耗时;
最后,不同产检超声医生水平的差异对结果的影响很大,特别是当医生水平参差不齐时更为明显,从而将造成检查结果的准确性和一致性偏低的问题。
因此,对超声医生提出更高的要求,要求其具有基本的解剖结构知识和丰富的临床经验以准确判断胎儿的健康状况和缺陷与否。同时,鉴于不同超声医生的认知层次有差别,因此容易导致检查结果的不一致性。
针对没有经验的超声医生,需要提供快速训练、掌握知识的办法,以提高对胎儿组织名称、胎儿解剖结构相关知识的学习;
针对具有一定经验的产检超声医生,需要进一步提高其判断效率和诊断分析的精确性;
针对经验丰富的不同产检超声医生,通过标准的训练模型和训练方法以及检查的规范,提高检查结果的一致性。
鉴于此,有必要提供一种有效训练超声医生对胎儿超声标准切面图像智能识别自我训练学习系统及考试方法,提高超声医生对胎儿超声检查结果知识学习,提高超声医生对胎儿健康状况和缺陷的判断、分析水准,以及提高不同超声医生对胎儿超声检查结果的一致性。
发明内容
本发明目的在于提供一种对胎儿超声标准切面图像检测精度高、检测效率高及方便医生操作的胎儿超声标准切面图像智能识别自我训练学习系统。
同时,还提供一种基于深度学习的胎儿超声标准切面图像智能识别自我训练学习系统的考试方法。
一种胎儿超声标准切面图像智能识别自我训练学习系统,包括:信息输入模组、信息存储模组、信息计算模组、信息评估模组及信息输出模组,其中信息输入模组用于输入胎儿超声切面标记图像,所述信息存储模组用于预存胎儿超声切面原始图像和胎儿超声切面标准图像,所述胎儿超声切面标准图像包括基于深度学习分割网络U-Net模型自动生成的胎儿超声切面标准图像,所述信息计算模组包括深度学习分割网络U-Net模型,接收来自所述信息输入模组的胎儿超声切面原始图像或者胎儿超声切面标记图像并与所述信息存储模组中的胎儿超声切面标准图像进行比较计算,所述信息评估模组根据来自所述信息计算模组对胎儿超声切面原始图像或者胎儿超声切面标记图像与所述信息存储模组中预存的胎儿超声切面标准图像进行比较计算结果进行评估,获得评估结果,所述信息输出模组根据信息评估模组的评估结果输出训练学习结果。
进一步的,所述胎儿超声切面标准图像还包括手工标记的胎儿超声切面标准图像。
进一步的,所述深度学习分割网络U-Net模型包括依次逻辑设置的输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第一转置卷积层、第一相加层,第六卷积层、第七卷积层、第二转置卷积层、第二相加层、第八卷积层、第九卷积层、第三转置卷积层、第三相加层、第十卷积层、第十一卷积层、第四转置卷积层、第四相加层、第十二卷积层、第十三卷积层、第十四卷积层及输出层,
其中,输入层其输入为896*896*3像素的矩阵;
所述第一卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;
所述第一池化层采用的滤波器大小为2*2,其输出矩阵大小为448*448*64;
所述第二卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;
所述第二池化层采用的滤波器大小为2*2,其输出矩阵大小为224*224*128;
所述第三卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;
所述第三池化层采用的滤波器大小为2*2,其输出矩阵大小为112*112*256;
所述第四卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;
所述第四池化层采用的滤波器大小为2*2,其输出矩阵大小为56*56*512;
所述第五卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为56*56*1024;
所述第一转置卷积层输出矩阵大小为112*112*512。所述第一相加层是把第四卷积层的结果与第一转置卷积层的结果进行相加,输出矩阵大小为112*112*1024;
所述第六卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;后接上批标准化层,ReLU激活层,输出矩阵大小为112*112*512;
所述第七卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;后接上批标准化层,ReLU激活层,输出矩阵大小为112*112*512;
所述第二转置卷积层输出矩阵大小为224*224*256。所述第二相加层是把第三卷积层的结果与第二转置卷积层的结果进行相加,输出矩阵大小为224*224*512;
所述第八卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;后接上批标准化层,ReLU激活层,输出矩阵大小为224*224*256;
所述第九卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;后接上批标准化层,ReLU激活层,输出矩阵大小为224*224*256;
所述第三转置卷积层输出矩阵大小为448*448*128。所述第三相加层是把第二卷积层的结果与第三转置卷积层的结果进行相加,输出矩阵大小为448*448*256;
所述第十卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;后接上批标准化层,ReLU激活层,输出矩阵大小为448*448*128;
所述第十一卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;后接上批标准化层,ReLU激活层,输出矩阵大小为448*448*128;
所述第四转置卷积层输出矩阵大小为896*896*64。所述第四相加层是把第一卷积层的结果与第四转置卷积层的结果进行相加,输出矩阵大小为896*896*128;
所述第十二卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;后接上批标准化层,ReLU激活层,输出矩阵大小为896*896*64;
所述第十三卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;后接上批标准化层,ReLU激活层,输出矩阵大小为896*896*64;
所述第十四卷积层的卷积核尺寸为1*1,该层使用SAME模式填充,输出矩阵大小为896*896*21;
所述输出层的输出矩阵大小为896*896*21。
进一步的,所述系统包括相互分离设置的操作界面端与所述服务器端,所述操作界面端通过AJAX应用程序调用所述服务器端的RESTFUL API接口并使用JSON数据与所述服务器端进行交互。
进一步的,所述信息存储模组包括登陆子模组、成绩管理子模组、用户管理子模组及图片数据管理子模组。
进一步的,所述信息输入模组包括于所述操作界面端预设登陆子模组、个人信息管理子模组、学习训练子模组及考试子模组。
一种胎儿超声标准切面图像智能识别自我训练学习系统的考试方法,包括如下步骤:
步骤S01,用户通过所述信息输入模组作为输入操作界面,登陆系统;
步骤S02,步骤S03,用户在输入操作界面中选择输入模式,其中所述输入模式包括学习模式、训练模式及考试模式,用户对应在不同的输入模式下选择获得胎儿超声切面的原始图像或标记图像;
步骤S03,提供信息存储模组,存储步骤S02中学习模式、训练模式或者考试模式生成的胎儿超声切面标记图像,其中所述信息存储模组预存有胎儿超声切面原始图像和胎儿超声切面标准图像;
步骤S04,所述信息计算模组根据用户输入的胎儿超声切面标记图像与预存的所述胎儿超声切面标准图像进行比较计算,获得比较结果;
步骤S05,所述信息评估模组接收来自所述信息计算模组的计算结果,并对应做评估;
步骤S06,所述信息输出模组接收来自所述信息评估模组的评估结果,对应输出至操作界面,供用户接收查看;
完成学习训练过程,重复上述步骤。
进一步的,步骤S04中的胎儿超声切面标准图像包括手工记录的胎儿超声切面标准图像以及基于计算机在深度学习分割网络U-Net模型自动生成的胎儿超声切面标准图像。
进一步的,所述深度学习分割网络U-Net模型包括依次逻辑设置的输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第一转置卷积层、第一相加层,第六卷积层、第七卷积层、第二转置卷积层、第二相加层、第八卷积层、第九卷积层、第三转置卷积层、第三相加层、第十卷积层、第十一卷积层、第四转置卷积层、第四相加层、第十二卷积层、第十三卷积层、第十四卷积层及输出层。
进一步的,所述信息评估模组采用评分输出模式输出。
与相关技术相比,本发明通过在信息计算模组中设置深度学习分割网络U-Net模型,使得所述自我训练学习系统能够自动基于深度学习分割网络U-Net模型自动生成的胎儿超声切面标准图像,对于不同层次的产检超声医生,其根据自身的经验和专业知识水准对应在学习模式、训练模式及考试模式中选择,针对经验不足的产检超声医生,选择学习模式,对应从所述信息存储模组中调取预存的胎儿超声切面标准图像,供学习之用;针对具有一定经验的产检超声医生在训练模式中,调用信息存储模组中的胎儿超声切面原始图像供标记训练之用,提高学习效率;针对经验丰富的产检超声医生对应选择考试模式,其根据自己学习的专业知识对应调取胎儿超声切面原始图像对应做标记,生成胎儿超声切面标记图像,然后与胎儿超声切面标准图像进行比较计算、评估,输出考试结果,准确反馈标记的精确度。在本发明中,产检超声医生根据自己的实际水准进行选择性学习,同时基于胎儿超声切面标准图像的统一性,产检超声医生可以更加精准获得一致性较好的检查结果,同时提高了学习和检查效率。
附图说明
图1是本发明一种基于深度学习的胎儿超声标准切面图像智能识别自我训练学习系统;
图2是图1所示胎儿超声标准切面图像智能识别自我训练学习统结构示意图;
图3是图2所示信息输入模组的框架结构示意图;
图4是图2所示所述信息存储模组的框架结构示意图;
图5是用户考试后所述信息输出模组生成考试报表,生成正确答案的界面示意图;及
图6是基于图1所示深度学习的胎儿超声标准切面图像智能识别自我训练学习系统的考试方法流程示意图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,是本发明一种基于深度学习的胎儿超声标准切面图像智能识别自我训练学习系统。所述胎儿超声标准切面图像智能识别自我训练学习系统100是基于深度学习针对胎儿超声标准切面图像检查的智能识别自我训练学习系统,其架构基于设定的硬件系统工程和软件系统工程运行实现设定的功能。所述硬件系统工程和软件系统工程包括操作界面端和服务器端,所述操作界面端与所述服务器端相互分离设计。
所述操作界面端采用HTML页面形式运行,所述操作界面端页面主要采用现在流行的React响应式框架进行构建,主要技术是在自建canvas画板实现图像的标注及坐标获取功能。所述服务器端具有RESTFUL API接口。所述操作界面端通过AJAX应用程序调用所述服务器端的RESTFUL API接口并使用JSON数据与所述服务器端进行交互。所述服务器端包括应用系统服务器、静态资源服务器、数据库服务器和深度学习模组。
所述应用系统服务器部署Nginx与Docker,Nginx服务处理负载均衡,加快接口响应速度,Docker与Docker-compose配合,可以实现快速的动态扩容与负载动态调整。
所述静态资源服务器主要提供操作界面端SPA应用的响应,与图片资源的服务提供,主要用过Nginx进行静态资源服务的提供。
所述数据库服务器单独进行部署,提升数据库的响应速度,并在其上提供redis缓存服务。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所述基于深度学习的胎儿超声标准切面图像智能识别自我训练学习系统100通过计算机可读存储介质作为载体存储对应的自我训练学习系统,所述计算机可读存储介质中存储多条指令,所述指令适用于由控制主机加载至服务器以执行上述自我训练学习系统的操作方法。所述计算机可读存储介质包括处理器和存储器。所述处理器产生指令,执行存储于所述存储器中的多条指令。
请参阅图2,是图1所示胎儿超声标准切面图像智能识别自我训练学习统结构示意图。所述胎儿超声标准切面图像智能识别自我训练学习系统100包括信息输入模组11、信息存储模组12、信息计算模组13、信息评估模组15和信息输出模组17。
所述输入模组11可以是移动终端、桌面型电脑等终端操作设备。所述信息计算模组11作为操作界面端的输入端,产检超声医生通过输入用户名及密码输入的方式登录,并调用服务器端预存的胎儿超声图像测试完数据,该测试数据可以是未做加工的胎儿超声切面原始图像,也可以是经过加工的具有胎儿超声切面标记图像,还可以是经过熟练医生手工标注后或者深度学习自动加工生成的胎儿超声标准图像。
请参阅图3,是图2所示信息输入模组的框架结构示意图。所述操作界面端预设登陆子模组111、个人管理子模组113、学习训练子模组115及考试子模组117。当产检超声医生通过用户名配合密码输入的方式登陆后,自行选择输入操作。其中该输入操作包括如下三种模式:
输入模式一:学习模式,在该模式下,产检超声医生调用服务器端的胎儿超声标准图像,基于所述胎儿超声标准图像进行学习。该模式是利用canvas画板在操作界面展示超声图像的标准图像,即该图像中各组织的大小、位置,同时系统监听用户鼠标操作行为,产生交互式动作。如:当用户将鼠标移动到某个组织对应的区域,则激活显示该组织所在区域,同时将对应的结构标准名称以及对胎儿超声切面标准组织的参数显示在canvas画板中供用户学习;
输入模式二:训练模式,在该模式下,产检超声医生调用胎儿超声原始图像,并对胎儿超声原始图像进行检查,所述检查步骤包括对胎儿超声切面图像精细结构绘制、对结构名称的记录以及对切面组织的参数手工标记,生成胎儿超声切面标记图像,并将标记结果与预存的所述胎儿超声切面标准图像进行运算获得训练结果;
输入模式三:考试模式,在该模式下,产检超声医生在操作界面中通过canvas画板对胎儿超声切面原始图像进行手工标注,标注的信息实时显示在canvas画板中,标注完成后将标记结果与预存的所述胎儿超声切面标准图像进行运算获得考试结果。
所述登陆子模块111实现用户通过用户名配合密码输入的方式登录系统。所述个人管理子模块113管理用户的个人基本信息、个人学习情况管理及个人考试情况管理。所述学习训练子模块115方便用户选择所需要学习的胎儿超声切面图像数据或训练的胎儿超声切面图像数据。所述考试子模块117实现用户对考试场次的选择、考试结果的提交、考试结果的查看及选择考试内容,所述考试内容包括对胎儿超声图像精细结构绘制、对结构名称的记录以及对切面组织的参数手工标记,生成胎儿超声切面标记图像的考试。
请再次结合参考图2,所述信息存储模组12用于预存胎儿超声切面图像,所述图像包括多个胎儿超声切面原始图像和多个胎儿超声切面标准图像。其中,所述胎儿超声切面标准图像的来源包括如下两种方式,分别是手工标记来源和深度学习自动生成来源。
所谓所述胎儿超声切面标准图像的手工标记来源,源于有经验的产检超声医生根据自身实际的案例经验记录的胎儿超声切面标准图像。
所谓胎儿超声切面标准切面图像经过深度学习自动生成的来源,源于计算机在深度学习分割网络U-Net模型自动生成的胎儿超声切面标准图像,上述两种来源形成所述胎儿超声切面标准图像的集合。
请参考图4,是图2所示所述信息存储模组的框架结构示意图。所述信息存储模组12包括登陆子模组121、用户管理子模组123、成绩管理子模组125及图片数据管理子模组127。所述登陆子模组121提供管理员通过用户名配合密码输入的方式登录系统。所述用户管理子模组123管理用户基本信息和用户的账户密码管理。所述成绩管理子模组125实现用户对成绩的查询和成绩报表的导出。所述图片数据管理子模组127导入学习、训练和考试数据,生成并存储学习、训练和考试数据的正确答案,具体包括:对胎儿超声图像标准结构、对结构标准名称以及对胎儿超声切面标准组织的参数。
所述信息计算模组13用于接收产检超声医生在所述信息输入模组11中的学习模式、训练模式及考试模式输入的胎儿超声切面图像信息,并对该信息进行加工处理。在该信息计算模组13中设置深度学习分割U-Net模型,本发明中使用的深度学习分割网络U-Net模型是在胎儿超声切面标准图像上表现良好的分割网络。所述深度学习分割网络U-Net模型的结构包括依次逻辑设置的输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第一转置卷积层、第一相加层,第六卷积层、第七卷积层、第二转置卷积层、第二相加层、第八卷积层、第九卷积层、第三转置卷积层、第三相加层、第十卷积层、第十一卷积层、第四转置卷积层、第四相加层、第十二卷积层、第十三卷积层、第十四卷积层及输出层。
其中,输入层其输入为896*896*3像素的矩阵;
所述第一卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;
所述第一池化层采用的滤波器大小为2*2,其输出矩阵大小为448*448*64;
所述第二卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;
所述第二池化层采用的滤波器大小为2*2,其输出矩阵大小为224*224*128;
所述第三卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;
所述第三池化层采用的滤波器大小为2*2,其输出矩阵大小为112*112*256;
所述第四卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;
所述第四池化层采用的滤波器大小为2*2,其输出矩阵大小为56*56*512;
所述第五卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为56*56*1024;
所述第一转置卷积层输出矩阵大小为112*112*512。所述第一相加层是把第四卷积层的结果与第一转置卷积层的结果进行相加,输出矩阵大小为112*112*1024;
所述第六卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;后接上批标准化层,ReLU激活层,输出矩阵大小为112*112*512;
所述第七卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;后接上批标准化层,ReLU激活层,输出矩阵大小为112*112*512;
所述第二转置卷积层输出矩阵大小为224*224*256。所述第二相加层是把第三卷积层的结果与第二转置卷积层的结果进行相加,输出矩阵大小为224*224*512;
所述第八卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;后接上批标准化层,ReLU激活层,输出矩阵大小为224*224*256;
所述第九卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;后接上批标准化层,ReLU激活层,输出矩阵大小为224*224*256;
所述第三转置卷积层输出矩阵大小为448*448*128。所述第三相加层是把第二卷积层的结果与第三转置卷积层的结果进行相加,输出矩阵大小为448*448*256;
所述第十卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;后接上批标准化层,ReLU激活层,输出矩阵大小为448*448*128;
所述第十一卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;后接上批标准化层,ReLU激活层,输出矩阵大小为448*448*128;
所述第四转置卷积层输出矩阵大小为896*896*64。所述第四相加层是把第一卷积层的结果与第四转置卷积层的结果进行相加,输出矩阵大小为896*896*128;
所述第十二卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;后接上批标准化层,ReLU激活层,输出矩阵大小为896*896*64;
所述第十三卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;后接上批标准化层,ReLU激活层,输出矩阵大小为896*896*64;
所述第十四卷积层的卷积核尺寸为1*1,该层使用SAME模式填充,输出矩阵大小为896*896*21;
所述输出层的输出矩阵大小为896*896*21。
当采用所述信息计算模组13对来自所述信息输入模组11的图像信息进行处理时,当接收的信息是学习模式的输入信息,则所述计算模组13记录下实际学习结果。当接收的信息是训练模式的输入信息,则所述计算模组13将输入信息与预存的标准信息进行比较并得到比较结果,具体而言,将用户输入的胎儿超声切面标记图案与预存的胎儿超声切面标准图像进行比较计算,并得到训练结果。当接收的信息是考试模式输入的信息,则将用户输入的胎儿超声切面标记图案与预存的胎儿超声切面标准图像进行比较,并得到考试结果。
所述信息评估模组15接收来自所述信息计算模组13的计算结果,并对应做评估。
当选择考试模式时,用户提交考试采用的评估标准包括:利用与存储的标准答案做对比,若用户标注的每一个组织的标注区域与标准答案的IOU(Intersection overUnion重叠度)大于等于0.5,并且输入名称正确,则该组织被用户成功辨别。
在本实施方式中,设定所述信息评估模组15是采用评分模式输出评估结果,则取所述信息评估模组15是自动评分模组,所述自动评分模组对用户提交的胎儿超声切面标记图像考试结果进行评分。所述自动评分模组接收用户考试提交的胎儿超声切面标记图像并查询深度学习模型生成的胎儿超声切面标准图像,即考试数据对应的正确答案。提取两者数据中的组织名称、位置等信息,首先对提交的名称等信息进行比对,当两者组织名称一致时,比对通过,则进行位置判定,否则直接结束判断。在位置判断过程中根据管理员设置的评分方式,计算每个组织的标注区域与正确答案的所属区域的交并比(Intersection-over-Union,IoU),当某个组织的交并比大于或等于阈值0.5时,认为该组织标注范围正确,其中:
或者通过其他优选的计算方式进行计算。对每个组织进行一样的计算,计算完成后,根据设置返回对应内容,如返回成绩及用户正确标注组织名称及组织个数或仅返回成绩。
所述信息输出模组17根据所述信息评估模组15的评估结果,对应输出考试结果。
对于考试模式中查看考试结果而言,所述信息输出模组17会生成每一张图像的考试报表,生成正确答案。如图5所示,图5是用户考试后所述信息输出模组17生成考试报表,生成正确答案的界面示意图。所述界面分为上下两个区域,上方区域的左边为用户提交的答案图,上方区域的右边为系统给出的正确答案,正确答案包括每个组织的精细区域,以及每个组织的名称。界面下方是生成考试报表。考试报表的内容包括:切面中共设定有N个组织,用户通过信息输入模组11输入的M个组织,其中正确的X个,分别是:组织1、组织2、…;错误的Y个,分别是:组织3、组织4、…。N值大于或等于M值,M值大于或等于X值,X值与Y值的和等于N值。生成对照答案,对照答案显示每个组织的精细区域,以及每个组织的名称。
当采用图1所述基于深度学习的胎儿超声标准切面图像智能识别自我训练学习系统考试操作时,其考试方法包括如下步骤:
步骤S01,用户通过所述信息输入模组11作为输入操作界面,登陆系统;
在该步骤中,产检超声医生的登陆可以是通过用户名配合密码输入方式登陆。当然,其不仅仅局限于该种模式输入,其还可以是通过人脸识别、二维码扫描、声音输入等方式实现,对本领域技术人员而言,凡是实现登陆进入操作界面的模式皆属于本发明的创作宗旨。
步骤S02,用户在输入操作界面中选择输入模式,其中所述输入模式包括学习模式、训练模式及考试模式,用户对应在不同的输入模式下选择获得胎儿超声切面原始图像或胎儿超声切面标记图像;
用户在输入操作界面中选择输入模式,其中所述输入模式包括学习模式、训练模式及考试模式;
在该步骤中,当选择学习模式,则产检超声医生调用服务器端的胎儿超声标准图像,基于所述胎儿超声标准图像的胎儿超声切面图像精细标准结构、结构标准名称以及切面组织的标准参数等进行学习,以了解胎儿超声切面标准图像知识。如:产检超声医生将鼠标移动到操作界面显示的某个组织对应的区域,操作界面激活并显示该组织所在区域,并将对应的结构标准名称以及对胎儿超声切面标准组织的参数显示在canvas画板中,供用户学习。
当选择训练模式时,产检超声医生调用服务器端的胎儿超声原始图像,基于所学知识对所述胎儿超声原始图像进行胎儿超声切面图像精细结构绘制、对结构名称的记录以及对切面组织的参数手工标记,生成胎儿超声切面标记图像,获得胎儿超声切面标记图像。
当选择考试模式时,产检超声医生调用服务器端的胎儿超声原始图像,基于所学知识对所述胎儿超声原始图像进行胎儿超声切面图像精细结构绘制、对结构名称的记录以及对切面组织的参数手工标记,生成胎儿超声切面标记图像,获得胎儿超声切面标记图像。
如此,产检超声医生通过所述信息输入模组11获得输入信息,所述输入信息包括不同模式下生成的胎儿超声切面标记图像。
步骤S03,提供信息存储模组12,存储步骤S02中学习模式、训练模式或者考试模式生成的胎儿超声切面标记图像,其中所述信息存储模组12预存有胎儿超声切面标准图像,所述胎儿超声切面标准图像包括手工标记获得的胎儿超声切面标准图像和经过深度学习分割网络U-Net模型自动生成的胎儿超声切面标记图像;
其中,所述信息存储模组12中预存胎儿超声切面标准图像,所述胎儿超声切面标准图像包括对胎儿超声图像标准结构、对结构标准名称以及对胎儿超声切面标准组织的参数。
所述胎儿超声切面标准图像的来源包括产检超声医生根据自身实际的案例经验手工记录的胎儿超声切面标准图像以及经过计算机在深度学习分割网络U-Net模型自动生成的胎儿超声切面标准图像,上述两种来源形成所述胎儿超声切面标准图像的集合。
进一步的,当采用深度学习分割网络U-Net模型自动生成的胎儿超声切面标准图像时,所述深度学习分割网络U-Net模型包括依次逻辑设置的输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第一转置卷积层、第一相加层,第六卷积层、第七卷积层、第二转置卷积层、第二相加层、第八卷积层、第九卷积层、第三转置卷积层、第三相加层、第十卷积层、第十一卷积层、第四转置卷积层、第四相加层、第十二卷积层、第十三卷积层、第十四卷积层及输出层。
步骤S04,所述信息计算模组13根据用户输入的胎儿超声切面标记图像与预存的所述胎儿超声切面标准图像进行比较计算,获得比较结果;
结合步骤S03,当接收的信息是学习模式的输入信息,则所述计算模组13记录下实际学习结果至所述信息存储模组12。当接收的信息是训练模式的输入信息,则所述计算模组13将输入信息与预存的标准信息进行比较并得到比较结果,具体而言,将用户输入的胎儿超声切面标记信息与预存的胎儿超声切面标准图像进行比较,并得到训练结果。当接收的信息是考试模式输入的信息,则将用户输入的胎儿超声切面标记图案与预存的胎儿超声切面标准图像进行比较,并得到考试结果。
步骤S05,所述信息评估模组15接收来自所述信息计算模组13的计算结果,并对应做评估;
在该步骤中,所述信息评估模组15中预存标准的评估标准,所述评估标准根据具体的实际需要而自行编辑设定。在本实施方式中,所述信息评估模组15是采用评分原则进行评估。
步骤S06,所述信息输出模组17接收来自所述信息评估模组15的评估结果,对应输出至操作界面,供用户接收查看;
举例而言,当所述信息评估模组15对用户输入的考试模式获得的胎儿超声切面标记图像进行评估时,输出的是胎儿超声切面标记图像与胎儿超声切面标准图像的比较,其中所述胎儿超声切面标准图像作为标准答案。
如此,完成学习训练过程,重复上述步骤。
作为上述实施方式的进一步改进,如图5所示,当所述信息输出模组17输出时,其对应基于所述信息计算模组13和信息评估模组15获得的胎儿超声切面标记图像与胎儿超声切面标准图像的区别,同步输出用户输入的胎儿超声切面标记图像存在的错误和非标准答案的原因,提高用户快速、交互的显示组织名称、组织结构及其他信息,具有很好的趣味性和互动性,可以吸引医生用户进行自我学习,有效的辅助医生对胎儿超声图像中各种切面、胎儿发育情况进行学习和提高医生的理论和实践水平。
相较于现有技术,本发明通过在信息计算模组13中设置深度学习分割网络U-Net模型,使得产检超声医生根据自己的实际水准进行选择性学习,同时基于胎儿超声切面标准图像的统一性,产检超声医生可以更加精准获得一致性较好的检查结果,同时提高了学习和检查效率。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种胎儿超声标准切面图像智能识别自我训练学习系统,其特征在于,包括:
信息输入模组,用于输入胎儿超声切面标记图像,其中,产检超声医生调用胎儿超声原始图像,基于所学知识对所述胎儿超声原始图像进行胎儿超声切面图像精细结构绘制、对结构名称的记录以及对切面组织的参数手工标记,生成所述胎儿超声切面标记图像,获得所述胎儿超声切面标记图像;
信息存储模组,用于预存胎儿超声切面原始图像和胎儿超声切面标准图像,所述胎儿超声切面标准图像包括基于深度学习分割网络U-Net模型深度学习自动生成的胎儿超声切面标准图像;
信息计算模组,包括深度学习分割网络U-Net模型,接收来自所述信息输入模组的胎儿超声切面标记图像并与所述信息存储模组中的胎儿超声切面标准图像进行比较计算,所述胎儿超声切面标记图像以及所述胎儿超声切面标准图像均包括组织名称以及位置信息;
信息评估模组,根据来自所述信息计算模组对胎儿超声切面标记图像与所述信息存储模组中预存的胎儿超声切面标准图像进行比较计算的结果进行评估,获得评估结果,所述评估为对产检超声医生标注精确度的评估;及
信息输出模组,根据信息评估模组的评估结果输出训练学习结果;
所述信息计算模组具体用于:
判断所述胎儿超声切面标记图像与所述胎儿超声切面标准图像的组织名称是否一致;
若是,则根据所述胎儿超声切面标记图像的位置信息以及所述胎儿超声切面标准图像的位置信息通过如下公式计算所述胎儿超声切面标记图像的标注区域与所述胎儿超声切面标准图像的所属区域的交并比:
当某个组织的交并比大于或等于阈值时,认为该组织标注范围正确。
2.根据权利要求1所述的胎儿超声标准切面图像智能识别自我训练学习系统,其特征在于,所述胎儿超声切面标准图像还包括手工标记的胎儿超声切面标准图像。
3.根据权利要求1所述的胎儿超声标准切面图像智能识别自我训练学习系统,其特征在于,所述深度学习分割网络U-Net模型包括依次逻辑设置的输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第一转置卷积层、第一相加层,第六卷积层、第七卷积层、第二转置卷积层、第二相加层、第八卷积层、第九卷积层、第三转置卷积层、第三相加层、第十卷积层、第十一卷积层、第四转置卷积层、第四相加层、第十二卷积层、第十三卷积层、第十四卷积层及输出层,
其中,输入层其输入为896*896*3像素的矩阵,所述第一卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;
所述第一池化层采用的滤波器大小为2*2,其输出矩阵大小为448*448*64;
所述第二卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;
所述第二池化层采用的滤波器大小为2*2,其输出矩阵大小为224*224*128;
所述第三卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;
所述第三池化层采用的滤波器大小为2*2,其输出矩阵大小为112*112*256;
所述第四卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;
所述第四池化层采用的滤波器大小为2*2,其输出矩阵大小为56*56*512;
所述第五卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为56*56*1024;
所述第一转置卷积层输出矩阵大小为112*112*512,所述第一相加层是把第四卷积层的结果与第一转置卷积层的结果进行相加,输出矩阵大小为112*112*1024;
所述第六卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;后接上批标准化层,ReLU激活层,输出矩阵大小为112*112*512;
所述第七卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为112*112*512;后接上批标准化层,ReLU激活层,输出矩阵大小为112*112*512;
所述第二转置卷积层输出矩阵大小为224*224*256,所述第二相加层是把第三卷积层的结果与第二转置卷积层的结果进行相加,输出矩阵大小为224*224*512;
所述第八卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;后接上批标准化层,ReLU激活层,输出矩阵大小为224*224*256;
所述第九卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为224*224*256;后接上批标准化层,ReLU激活层,输出矩阵大小为224*224*256;
所述第三转置卷积层输出矩阵大小为448*448*128,所述第三相加层是把第二卷积层的结果与第三转置卷积层的结果进行相加,输出矩阵大小为448*448*256;
所述第十卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;后接上批标准化层,ReLU激活层,输出矩阵大小为448*448*128;
所述第十一卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为448*448*128;后接上批标准化层,ReLU激活层,输出矩阵大小为448*448*128;
所述第四转置卷积层输出矩阵大小为896*896*64,所述第四相加层是把第一卷积层的结果与第四转置卷积层的结果进行相加,输出矩阵大小为896*896*128;
所述第十二卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;后接上批标准化层,ReLU激活层,输出矩阵大小为896*896*64;
所述第十三卷积层的卷积核尺寸为3*3,该层使用SAME模式填充,输出矩阵大小为896*896*64;后接上批标准化层,ReLU激活层,输出矩阵大小为896*896*64;
所述第十四卷积层的卷积核尺寸为1*1,该层使用SAME模式填充,输出矩阵大小为896*896*21;
所述输出层的输出矩阵大小为896*896*21。
4.根据权利要求1所述的胎儿超声标准切面图像智能识别自我训练学习系统,其特征在于,包括相互分离设置的操作界面端与服务器端,所述操作界面端通过AJAX应用程序调用所述服务器端的RESTFUL API接口并使用JSON数据与所述服务器端进行交互。
5.根据权利要求4所述的胎儿超声标准切面图像智能识别自我训练学习系统,其特征在于,所述信息存储模组包括登陆子模组、成绩管理子模组、用户管理子模组及图片数据管理子模组。
6.根据权利要求4所述的胎儿超声标准切面图像智能识别自我训练学习系统,其特征在于,所述信息输入模组包括于所述操作界面端预设登陆子模组、个人管理子模组、学习训练子模组及考试子模组。
7.一种如权利要求1所述的胎儿超声标准切面图像智能识别自我训练学习系统的考试方法,其特征在于,包括如下步骤:
步骤S01,用户通过所述信息输入模组作为输入操作界面,登陆系统;
步骤S02,用户在输入操作界面中选择输入模式,其中所述输入模式包括学习模式、训练模式及考试模式,用户对应在不同的输入模式下选择获得胎儿超声切面原始图像或胎儿超声切面标记图像;
步骤S03,提供信息存储模组存储步骤S02中学习模式、训练模式或者考试模式生成的胎儿超声切面标记图像,其中所述信息存储模组预存有胎儿超声切面原始图像和胎儿超声切面标准图像;
步骤S04,所述信息计算模组根据用户输入的胎儿超声切面标记图像与预存的所述胎儿超声切面标准图像进行比较计算,获得比较结果;
步骤S05,所述信息评估模组接收来自所述信息计算模组的计算结果,并对应做评估;
步骤S06,所述信息输出模组接收来自所述信息评估模组的评估结果,对应输出至操作界面,供用户接收查看;
完成学习训练过程,重复上述步骤。
8.根据权利要求7所述的考试方法,其特征在于,步骤S02中的胎儿超声切面标准图像包括手工记录的胎儿超声切面标准图像以及基于深度学习分割网络U-Net模型自动生成的胎儿超声切面标准图像。
9.根据权利要求7所述的考试方法,其特征在于,所述深度学习分割网络U-Net模型包括依次逻辑设置的输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第一转置卷积层、第一相加层,第六卷积层、第七卷积层、第二转置卷积层、第二相加层、第八卷积层、第九卷积层、第三转置卷积层、第三相加层、第十卷积层、第十一卷积层、第四转置卷积层、第四相加层、第十二卷积层、第十三卷积层、第十四卷积层及输出层。
10.根据权利要求7所述的考试方法,其特征在于,所述信息评估模组采用评分输出模式输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010134625.2A CN111326256B (zh) | 2020-02-28 | 2020-02-28 | 胎儿超声标准切面图像智能识别自我训练学习系统及考试方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010134625.2A CN111326256B (zh) | 2020-02-28 | 2020-02-28 | 胎儿超声标准切面图像智能识别自我训练学习系统及考试方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111326256A CN111326256A (zh) | 2020-06-23 |
CN111326256B true CN111326256B (zh) | 2023-12-29 |
Family
ID=71168241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010134625.2A Active CN111326256B (zh) | 2020-02-28 | 2020-02-28 | 胎儿超声标准切面图像智能识别自我训练学习系统及考试方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111326256B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102230B (zh) * | 2020-07-24 | 2024-09-20 | 湖南大学 | 超声切面识别方法、系统、计算机设备和存储介质 |
CN112155604B (zh) * | 2020-09-24 | 2023-03-31 | 广州爱孕记信息科技有限公司 | 基于胎儿超声图像的胎儿严重畸形检测方法及装置 |
CN113112882B (zh) * | 2021-04-08 | 2022-08-16 | 郭山鹰 | 超声图像考试系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053407A (zh) * | 2017-12-22 | 2018-05-18 | 联想(北京)有限公司 | 数据处理方法及数据处理系统 |
CN108573491A (zh) * | 2017-03-10 | 2018-09-25 | 南京大学 | 一种基于机器学习的三维超声图像分割方法 |
CN109272514A (zh) * | 2018-10-05 | 2019-01-25 | 数坤(北京)网络科技有限公司 | 冠脉分割模型的样本评价方法及模型训练方法 |
CN109727243A (zh) * | 2018-12-29 | 2019-05-07 | 无锡祥生医疗科技股份有限公司 | 乳腺超声图像识别分析方法及系统 |
WO2019170573A1 (en) * | 2018-03-08 | 2019-09-12 | Koninklijke Philips N.V. | A system and method of identifying characteristics of ultrasound images |
CN110432929A (zh) * | 2019-07-11 | 2019-11-12 | 暨南大学 | 基于超声图像的产时头盆关系自动测量方法和装置 |
CN110473130A (zh) * | 2019-07-30 | 2019-11-19 | 五邑大学 | 一种基于深度学习的垃圾分类评价方法、装置和存储介质 |
CN110464380A (zh) * | 2019-09-12 | 2019-11-19 | 李肯立 | 一种对中晚孕期胎儿的超声切面图像进行质量控制的方法 |
CN110490855A (zh) * | 2019-08-16 | 2019-11-22 | 四川大学华西第二医院 | 一种基于3d打印技术构建凶险性前置胎盘模型的方法 |
-
2020
- 2020-02-28 CN CN202010134625.2A patent/CN111326256B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573491A (zh) * | 2017-03-10 | 2018-09-25 | 南京大学 | 一种基于机器学习的三维超声图像分割方法 |
CN108053407A (zh) * | 2017-12-22 | 2018-05-18 | 联想(北京)有限公司 | 数据处理方法及数据处理系统 |
WO2019170573A1 (en) * | 2018-03-08 | 2019-09-12 | Koninklijke Philips N.V. | A system and method of identifying characteristics of ultrasound images |
CN109272514A (zh) * | 2018-10-05 | 2019-01-25 | 数坤(北京)网络科技有限公司 | 冠脉分割模型的样本评价方法及模型训练方法 |
CN109727243A (zh) * | 2018-12-29 | 2019-05-07 | 无锡祥生医疗科技股份有限公司 | 乳腺超声图像识别分析方法及系统 |
CN110432929A (zh) * | 2019-07-11 | 2019-11-12 | 暨南大学 | 基于超声图像的产时头盆关系自动测量方法和装置 |
CN110473130A (zh) * | 2019-07-30 | 2019-11-19 | 五邑大学 | 一种基于深度学习的垃圾分类评价方法、装置和存储介质 |
CN110490855A (zh) * | 2019-08-16 | 2019-11-22 | 四川大学华西第二医院 | 一种基于3d打印技术构建凶险性前置胎盘模型的方法 |
CN110464380A (zh) * | 2019-09-12 | 2019-11-19 | 李肯立 | 一种对中晚孕期胎儿的超声切面图像进行质量控制的方法 |
Non-Patent Citations (1)
Title |
---|
胎儿颈项透明层(NT)自动定位及厚度测量的研究;石雅莉 等;《中国优生与遗传杂志》;第26卷(第9期);第58-59页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111326256A (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111326256B (zh) | 胎儿超声标准切面图像智能识别自我训练学习系统及考试方法 | |
CN101980664B (zh) | 超声波诊断装置 | |
Davis et al. | Artificial intelligence and echocardiography: a primer for cardiac sonographers | |
CN105407349B (zh) | 基于双目视觉感知的无参考立体图像质量客观评价方法 | |
CN109545394B (zh) | 一种问诊方法及装置 | |
CN111161216A (zh) | 基于深度学习的血管内超声图像处理方法、装置、设备和存储介质 | |
US20210117484A1 (en) | Webpage template generation | |
US11848098B2 (en) | Identifying anomalous brain data | |
CN110197004B (zh) | 基于移动终端的电路仿真方法、装置、计算机介质及设备 | |
CN105596021A (zh) | 图像分析装置和图像分析方法 | |
CN110414607A (zh) | 胶囊内窥镜图像的分类方法、装置、设备及介质 | |
CN111524144A (zh) | 一种基于GAN和Unet网络的肺结节智能诊断方法 | |
CN110781976A (zh) | 训练图像的扩充方法、训练方法及相关装置 | |
CN113780652A (zh) | 一种油井示功图故障诊断预测方法及装置 | |
Somasundaram et al. | Fetal brain extraction from magnetic resonance image (MRI) of human fetus | |
CN113469091A (zh) | 人脸识别方法、训练方法、电子设备及存储介质 | |
KR20210081243A (ko) | 탄성초음파영상에 대한 변형률 계산 및 변형량의 자동 측정을 위한 방법 및 시스템 | |
Pedroso et al. | Development and psychometric properties of TQWL-42 to measure the quality of work life | |
CN115206146B (zh) | 用于放疗靶区勾画的智能教学方法、系统、设备和介质 | |
Mattausch et al. | Comparison of texture synthesis methods for content generation in ultrasound simulation for training | |
US20120208160A1 (en) | Method and system for teaching and testing radiation oncology skills | |
CN116740221B (zh) | 实时脑功能激活图生成方法、装置、计算机设备和介质 | |
CN115797556B (zh) | 一种虚拟数字人面部轮廓3d重建装置 | |
US20220409181A1 (en) | Method and system for identifying a tendon in ultrasound imaging data and verifying such identity in live deployment | |
CN112950582B (zh) | 一种基于深度学习的3d肺部病灶分割方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |