CN113688788A - 基于深度学习的头侧片上气道图像自动识别方法和系统 - Google Patents

基于深度学习的头侧片上气道图像自动识别方法和系统 Download PDF

Info

Publication number
CN113688788A
CN113688788A CN202111088429.7A CN202111088429A CN113688788A CN 113688788 A CN113688788 A CN 113688788A CN 202111088429 A CN202111088429 A CN 202111088429A CN 113688788 A CN113688788 A CN 113688788A
Authority
CN
China
Prior art keywords
upper airway
image
deep learning
head side
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111088429.7A
Other languages
English (en)
Other versions
CN113688788B (zh
Inventor
廖文
李施豪
刘家伶
应三丛
刘祎迪
姚洋
赵志河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Publication of CN113688788A publication Critical patent/CN113688788A/zh
Application granted granted Critical
Publication of CN113688788B publication Critical patent/CN113688788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于深度学习的头侧片识别方法和系统,将获取的头侧片图像中的上气道区域图,上气道区域图包括上气道区域腺样病理性图和上气道区域腺样非病理性图,将上气道区域腺样病理性图和上气道区域腺样非病理性图输入深度学习模型中,模型使用多组训练数据训练出来的,多组中的训练数据中每一组训练数据均包括上气道区域图;最后输出图像,本发明提的方法和系统,通过构建深度学习模型,将原始头侧片输入到预处理模块中,然后将上气道区域自动生成矩形框并提取子图;将子图输入给深度学习模型进行识别,得到所述原始头侧片对应的上气道图像识别结果。该方法和系统能够自动化地完成以往的人工作业,具有客观、快速、重复性好等优点。

Description

基于深度学习的头侧片上气道图像自动识别方法和系统
技术领域
本发明涉及计算机图像处理技术领域,特别是一种基于深度学习的头侧片上气道图像自动识别方法和系统。
背景技术
头颅定位侧位X光片(或名:鼻咽侧位片。以下简称:头侧片)是口腔-耳鼻咽喉领域常拍摄的一张X光片,主要用于颌骨、牙齿、颅颌面软组织的定性定量分析,以及生长发育预测等。儿童上气道阻塞对儿童全身健康会造成较大影响,因此,及时、准确地做出诊断,进而辅助医师制定合理的治疗计划十分重要。其中,对口腔的影响主要表现为导致口呼吸,可以引起腭盖高拱,上前牙唇倾,上唇外翻,后牙反牙合等口腔症状,影响颜面美观和牙齿咬合。也正是因此,许多上气道阻塞的患者于口腔科就诊。
临床中对上气道阻塞的诊断准则一般为:在头侧片上绘制一些线段,或者角度,对其进行计测。例如通过测定上咽部和下咽部的宽度,判断舌咽气道的变化等。
目前临床上全靠口腔或者耳鼻咽喉专科医生人工完成,主观性强,不同医师对于头侧片中灰度差异的敏感度不同,对测量边界的判断结果缺乏客观性。从而导致了后续计算的偏差大,可能出现诊断错误。
目前,我国医疗资源较稀缺,资深医学专家数量不足,倘若完全依靠人工作业会让作业人用眼疲劳,进一步降低判断结果的准确可信程度。在这种形势下,研发自动化处理头侧片来判别上气道阻塞的方法和系统的需求变得迫切。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度学习的头侧片上气道图像自动识别方法和系统,该方法能识别图包括具体上气道区域腺样体病理性图像。
为达到上述目的,本发明提供如下技术方案:
本发明提供的基于深度学习的头侧片上气道图像自动识别方法,包括以下步骤:
获取头侧片图像;
将头侧片图像输入到预处理模块中进行预处理;
从预处理后的头侧片图像中提取上气道区域图,所述上气道区域图是根据上气道区域矩形框进行提取的子图;
所述上气道区域图包括上气道区域腺样病理性图和上气道区域腺样非病理性图,将所述上气道区域腺样病理性图和上气道区域腺样非病理性图输入深度学习模型中,所述模型使用多组训练数据训练出来的,所述多组中的训练数据中每一组训练数据均包括上气道区域图;所述上气道区域图是经过灰度归一化处理的图像;
获取所述深度学习模型的输出图像,其中,所述输出图像包括所述上气道阻塞参考图像信息。
进一步,所述深度学习模型是通过如下方式得到的:
构建深度学习模型,所述深度学习模型包括上气道区域截取单元和神经网络特征提取器;
所述上气道截取单元,用于获取输入的头侧片中的上气道区域图像;
所述神经网络特征提取器为基于ResNet backbone的深度卷积神经网络模型DCNN,用于将上气道区域图像输入给深度卷积神经网络模型DCNN,并通过所述深度卷积神经网络模型得到上气道区域图像的识别信息。
进一步,所述上气道区域图像的识别信息是通过如下方式得到的:
从头侧片的上气道区域提取训练数据输入到深度学习模型中;
对上气道区域图像的像素点进行灰度归一化;
对深度学习模型的权值随机初始化;
使用交叉熵损失函数进行loss值计算并调用Adam梯度下降算法进行深度学习模型权值更新,根据在验证集上的F1-score值来确定模型的最优参数。
进一步,所述深度学习模型权的值随机初始化的方法为:He正态分布初始化方法he_normal,均匀分布初始化方法lecun_uniform和从正态分布中输出随机值random_normal中的任一种或任一组合。
本发明提供的基于深度学习的头侧片上气道图像自动识别系统,包括数据采集模块、预处理模块、上气道截取模块和深度学习模型;
所述数据采集模块,用于获取头侧片图像;
所述预处理模块,用于将头侧片图像输入到预处理模块中进行预处理;
所述上气道截取模块,用于从预处理后的头侧片图像中提取上气道区域图,所述上气道区域图是根据上气道区域矩形框进行提取的子图;
所述深度学习模型,用于将上气道区域图输入深度学习模型中,所述模型使用多组训练数据训练出来的,所述多组中的训练数据中每一组训练数据均包括上气道区域图;所述上气道区域图是经过灰度归一化处理的图像;获取所述模型的输出信息,其中,所述输出信息包括所述上气道阻塞参考图像信息。
进一步,所述深度学习模型是通过如下方式得到的:
构建深度学习模型,所述深度学习模型包括上气道区域截取单元和神经网络特征提取器;
所述上气道截取单元,用于获取输入的头侧片中的上气道区域图像;
所述神经网络特征提取器为基于ResNet backbone的深度卷积神经网络模型DCNN,用于将上气道区域图像输入给深度卷积神经网络模型DCNN,并通过所述深度卷积神经网络模型得到上气道区域图像的识别信息。
进一步,所述上气道区域图像的识别信息是通过如下方式得到的:
从头侧片的上气道区域提取训练数据输入到深度学习模型中;
对上气道区域图像的像素点进行灰度归一化;
对深度学习模型的权值随机初始化;
使用交叉熵损失函数进行loss值计算并调用Adam梯度下降算法进行深度学习模型权值更新,根据在验证集上的F1-score值来确定模型的最优参数。
进一步,所述深度学习模型权的值随机初始化的方法为:He正态分布初始化方法he_normal,均匀分布初始化方法lecun_uniform和从正态分布中输出随机值random_normal中的任一种或任一组合。
本发明的有益效果在于:
本发明提的基于深度学习的头侧片上气道图像自动识别方法和系统,通过构建深度学习模型,将原始头侧片输入到预处理模块中,然后将上气道区域自动生成矩形框并提取子图;将子图输入给深度学习模型进行识别,得到所述原始头侧片对应的上气道图像识别结果。该方法和系统能够自动化地完成以往的人工作业,具有客观、快速、重复性好等优点。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为基于深度学习的头侧片识别方法流程图。
图2基于深度学习的头侧片识别系统原理框图。
图3为头侧片图像示意图。
图4为头侧片图像上气道区域提取示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好的理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
实施例1
如图1所示,本实施例提供的基于深度学习的头侧片上气道图像自动识别方法,包括以下步骤:
获取头侧片图像;
将头侧片图像输入到预处理模块中进行预处理;
从预处理后的头侧片图像中提取上气道区域图,所述上气道区域图是根据上气道区域矩形框进行提取的子图;
所述上气道区域图包括上气道区域腺样病理性图和上气道区域腺样非病理性图,将所述上气道区域腺样病理性图和上气道区域腺样非病理性图输入深度学习模型中,所述模型使用多组训练数据训练出来的,所述多组中的训练数据中每一组训练数据均包括上气道区域图;所述上气道区域图是经过灰度归一化处理的图像;
获取所述深度学习模型的输出图像,其中,所述输出图像包括所述上气道阻塞参考图像信息。
本实施例提供的上气道阻塞参考图像信息用于相关医疗人员结合其他信息进行决策判断,最终确定上气道是否发生阻塞现象,得到所述原始头侧片对应的上气道阻塞判别结果,为医疗决策提供参考辅助信息。
本实施例根据深度学习模型处理后输出的图像可以根据以下原理对上气道阻塞进行判断:从侧位片上可以看到腺样体影像,所述腺样体影像为类似于一个半球体在二维平面上的投影形状,所述气道影像为类似于一个内径不规则的管道的二维投影影像。腺样体影像位于气道影像的内部。如果腺样体肥大,即腺样体形成的图像区域的面积比较大,相对于气道影像而言,腺样体图像堵塞了气道的一部分,同时该处的气道横截面积减小,进气受阻。反之,如果腺样体不大,不阻塞气道或者只阻塞其一部分,则进气不容易受阻。
本实施例提供的深度学习模型是通过如下方式得到的:
深度学习模型的设计:
所述深度学习模型包括上气道区域截取单元和神经网络特征提取器;
所述上气道截取单元,按照以下步骤进行:
获取输入的头侧片的分辨率;
将头侧片进行下采样得到下采样图,所述下采样图的分辨率为1537(宽)×1752(高);
截取下采样图的预设区域,所述预设区域为下采样图正中央处尺寸为500*1000的矩形区域;所述预设区域为上气道区域图像;
所述神经网络特征提取器为基于ResNet backbone的深度卷积神经网络模型DCNN,将矩形区域输入给深度卷积神经网络模型DCNN,所述深度卷积神经网络模型通过二分类得到上气道区域处理图像参考信息,从而为进一步判断上气道是否阻塞提供概率预测依据。
深度学习模型的训练:
对头侧片的上气道区域提取训练数据;
对像素点进行灰度归一化;
对深度学习模型的权值随机初始化;
使用交叉熵损失函数进行loss值计算并调用Adam梯度下降算法进行深度学习模型权值更新,根据在验证集上的F1-score值来确定模型的最优参数。
所述模型权值随机初始化的方法为:He正态分布初始化方法he_normal,均匀分布初始化方法lecun_uniform和从正态分布中输出随机值random_normal。
所述He正态分布初始化方法he_normal,(它以0为中心,标准差为 stddev = sqrt(2/fan_in) 的截断正态分布中抽取数字,其中fan_in是权值张量中的输入单位的数量);
所述均匀分布初始化方法lecun_uniform,(它从[-limit,limit]中的均匀分布中抽取数字,其中limit是 sqrt(3/fan_in),fan_in是权值张量中的输入单位的数量);
所述随机初始化方法random_normal,(它以0为中心,标准差为0.1产生随机数);
本实施例的基于深度学习的头侧片上气道图像自动识别系统,包括数据采集模块、预处理模块、上气道截取模块和深度学习模型;
所述数据采集模块,用于获取头侧片图像;
所述预处理模块,用于将头侧片图像输入到预处理模块中进行预处理;
所述上气道截取模块,用于从预处理后的头侧片图像中提取上气道区域图,所述上气道区域图是根据上气道区域矩形框进行提取的子图;
所述深度学习模型,用于将上气道区域图输入深度学习模型中,所述模型使用多组训练数据训练出来的,所述多组中的训练数据中每一组训练数据均包括上气道区域图;所述上气道区域图是经过灰度归一化处理的图像;获取所述模型的输出信息,其中,所述输出信息包括所述上气道阻塞参考图像信息。
实施例2
本实施例提供的基于深度学习的头侧片上气道图像自动识别方法,包括以下步骤:
步骤1:将原始头侧片输入上气道区域自动提取模块。模块检测输入的头侧片分辨率,根据分辨率判断是否需要下采样至1537×1752,然后截取图像正中央500*1000的矩形区域。
步骤2:根据ResNet backbone单元设计一个级联两层的DCNN模型,减少模型卷积层的卷积核数量,构建出DCNN精简模型。DCNN内部的backbone单元是根据ResNet18的单元结构设计,级联两个卷积层,在这两个卷积层旁边有一个跳层连接,直接在通道维度上把输入拼接到输出的特征矩阵中。在这个应用中,单个backbone不足以提取足够多的特征来进行分类,但是太多backbone单元极易出现过拟合现象。因此,级联两个单元足够用于头侧片的上气道评估。
步骤3:将训练数据按照步骤1所述进行预处理,提取上气道区域后,对灰度进行归一化输入给模型进行训练,使用交叉熵损失函数进行loss值计算并调用Adam梯度下降算法进行模型权值更新,根据在验证集上的F1-score值来确定模型的最优参数。
步骤4:输入训练集中未出现的头侧片进行上气道阻塞自动判定。
本实施例可以采用McNamara分析法。上咽宽度即软腭上份后轮廓线到后咽壁上最接近点间宽度,正常男女承认平均为17.4mm,应不小于5mm。下咽宽度即舌后缘和下颌下缘相交点至后咽壁最接近点间距离,正常为10-12mm。通过上下咽宽度值与正常值比较难,判断舌咽气道的变化及异常。
本实施例可以采用Miyashita分析法。从上颌平面(ANS-PNS)的后鼻棘点(PNS)分别各向后延长,及向后颅底平面(S-Ba)作垂线,以比较下列三项计测值:AD1-PNS,即在PNS-Ba线上,PNS至咽后壁上最接近点的宽度,正常值为22mm。AD3-PNS,即在PNS向S-Ba所作的垂线上,PNS至咽后壁上最接近点宽度,正常为16mm。AD,即PTV垂线上,在PNS上方5mm处至咽后壁上最接近点宽度,正常值约为9mm。通过以上三项计测值与正常值比较,可以判断是否有气道不畅或者呼吸障碍。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

Claims (8)

1.基于深度学习的头侧片上气道图像自动识别方法,其特征在于:包括以下步骤:
获取头侧片图像;
将头侧片图像输入到预处理模块中进行预处理;
从预处理后的头侧片图像中提取上气道区域图,所述上气道区域图是根据上气道区域矩形框进行提取的子图;
所述上气道区域图包括上气道区域腺样病理性图和上气道区域腺样非病理性图,将所述上气道区域腺样病理性图和上气道区域腺样非病理性图输入深度学习模型中,所述模型使用多组训练数据训练出来的,所述多组中的训练数据中每一组训练数据均包括上气道区域图;所述上气道区域图是经过灰度归一化处理的图像;
获取所述深度学习模型的输出图像,其中,所述输出图像包括所述上气道阻塞参考图像信息。
2.如权利要求1所述的基于深度学习的头侧片上气道图像自动识别方法,其特征在于:所述深度学习模型是通过如下方式得到的:
构建深度学习模型,所述深度学习模型包括上气道区域截取单元和神经网络特征提取器;
所述上气道截取单元,用于获取输入的头侧片中的上气道区域图像;
所述神经网络特征提取器为基于ResNet backbone的深度卷积神经网络模型DCNN,用于将上气道区域图像输入给深度卷积神经网络模型DCNN,并通过所述深度卷积神经网络模型得到上气道区域图像的识别信息。
3.如权利要求2所述的基于深度学习的头侧片上气道图像自动识别方法,其特征在于:所述上气道区域图像的识别信息是通过如下方式得到的:
从头侧片的上气道区域提取训练数据输入到深度学习模型中;
对上气道区域图像的像素点进行灰度归一化;
对深度学习模型的权值随机初始化;
使用交叉熵损失函数进行loss值计算并调用Adam梯度下降算法进行深度学习模型权值更新,根据在验证集上的F1-score值来确定模型的最优参数。
4.如权利要求3所述的基于深度学习的头侧片上气道图像自动识别方法,其特征在于:所述深度学习模型权的值随机初始化的方法为:He正态分布初始化方法he_normal,均匀分布初始化方法lecun_uniform和从正态分布中输出随机值random_normal中的任一种或任一组合。
5.基于深度学习的头侧片上气道图像自动识别系统,其特征在于:包括数据采集模块、预处理模块、上气道截取模块和深度学习模型;
所述数据采集模块,用于获取头侧片图像;
所述预处理模块,用于将头侧片图像输入到预处理模块中进行预处理;
所述上气道截取模块,用于从预处理后的头侧片图像中提取上气道区域图,所述上气道区域图是根据上气道区域矩形框进行提取的子图;
所述深度学习模型,用于将上气道区域图输入深度学习模型中,所述模型使用多组训练数据训练出来的,所述多组中的训练数据中每一组训练数据均包括上气道区域图;所述上气道区域图是经过灰度归一化处理的图像;获取所述模型的输出信息,其中,所述输出信息包括所述上气道阻塞参考图像信息。
6.如权利要求5所述的基于深度学习的头侧片上气道图像自动识别系统,其特征在于:所述深度学习模型是通过如下方式得到的:
构建深度学习模型,所述深度学习模型包括上气道区域截取单元和神经网络特征提取器;
所述上气道截取单元,用于获取输入的头侧片中的上气道区域图像;
所述神经网络特征提取器为基于ResNet backbone的深度卷积神经网络模型DCNN,用于将上气道区域图像输入给深度卷积神经网络模型DCNN,并通过所述深度卷积神经网络模型得到上气道区域图像的识别信息。
7.如权利要求5所述的基于深度学习的头侧片上气道图像自动识别系统,其特征在于:所述上气道区域图像的识别信息是通过如下方式得到的:
从头侧片的上气道区域提取训练数据输入到深度学习模型中;
对上气道区域图像的像素点进行灰度归一化;
对深度学习模型的权值随机初始化;
使用交叉熵损失函数进行loss值计算并调用Adam梯度下降算法进行深度学习模型权值更新,根据在验证集上的F1-score值来确定模型的最优参数。
8.如权利要求5所述的基于深度学习的头侧片上气道图像自动识别系统,其特征在于:所述深度学习模型权的值随机初始化的方法为:He正态分布初始化方法he_normal,均匀分布初始化方法lecun_uniform和从正态分布中输出随机值random_normal中的任一种或任一组合。
CN202111088429.7A 2021-04-02 2021-09-16 基于深度学习的头侧片上气道图像自动识别方法和系统 Active CN113688788B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2021103631689 2021-04-02
CN202110363168 2021-04-02

Publications (2)

Publication Number Publication Date
CN113688788A true CN113688788A (zh) 2021-11-23
CN113688788B CN113688788B (zh) 2023-04-25

Family

ID=78586587

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111088429.7A Active CN113688788B (zh) 2021-04-02 2021-09-16 基于深度学习的头侧片上气道图像自动识别方法和系统

Country Status (1)

Country Link
CN (1) CN113688788B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117726624A (zh) * 2024-02-07 2024-03-19 北京长木谷医疗科技股份有限公司 一种视频流下实时腺样体病变智能识别评估方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109118485A (zh) * 2018-08-13 2019-01-01 复旦大学 基于多任务神经网络的消化道内镜图像分类及早癌检测系统
CN109961427A (zh) * 2019-03-12 2019-07-02 北京羽医甘蓝信息技术有限公司 基于深度学习的全景片根尖周炎识别的方法和装置
CN109978841A (zh) * 2019-03-12 2019-07-05 北京羽医甘蓝信息技术有限公司 基于深度学习的全景片阻生牙识别的方法和装置
CN110051380A (zh) * 2019-06-05 2019-07-26 南京清科信息科技有限公司 对人体状态进行连续实时监测的系统和方法
WO2020088469A1 (zh) * 2018-11-01 2020-05-07 腾讯科技(深圳)有限公司 一种医学图像的识别方法、模型训练的方法及计算机设备
CN111860514A (zh) * 2020-05-21 2020-10-30 江苏大学 一种基于改进DeepLab的果园场景多类别实时分割方法
CN112426147A (zh) * 2020-10-21 2021-03-02 华南师范大学 睡眠呼吸事件检测模型处理方法、系统和存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109118485A (zh) * 2018-08-13 2019-01-01 复旦大学 基于多任务神经网络的消化道内镜图像分类及早癌检测系统
WO2020088469A1 (zh) * 2018-11-01 2020-05-07 腾讯科技(深圳)有限公司 一种医学图像的识别方法、模型训练的方法及计算机设备
US20210042564A1 (en) * 2018-11-01 2021-02-11 Tencent Technology (Shenzhen) Company Limited Medical image recognition method, model training method, and computer device
CN109961427A (zh) * 2019-03-12 2019-07-02 北京羽医甘蓝信息技术有限公司 基于深度学习的全景片根尖周炎识别的方法和装置
CN109978841A (zh) * 2019-03-12 2019-07-05 北京羽医甘蓝信息技术有限公司 基于深度学习的全景片阻生牙识别的方法和装置
CN110051380A (zh) * 2019-06-05 2019-07-26 南京清科信息科技有限公司 对人体状态进行连续实时监测的系统和方法
CN111860514A (zh) * 2020-05-21 2020-10-30 江苏大学 一种基于改进DeepLab的果园场景多类别实时分割方法
CN112426147A (zh) * 2020-10-21 2021-03-02 华南师范大学 睡眠呼吸事件检测模型处理方法、系统和存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIPENG XIE等: "automatic upper airway segmentation in static and dynamic MRI via deep convolutional neural networks" *
林坤;雷印杰: "基于改进AlexNet卷积神经网络的手掌静脉识别算法研究" *
梅宏翔等: "机器学习在颌面部囊肿及肿瘤中应用的研究进展" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117726624A (zh) * 2024-02-07 2024-03-19 北京长木谷医疗科技股份有限公司 一种视频流下实时腺样体病变智能识别评估方法及装置
CN117726624B (zh) * 2024-02-07 2024-05-28 北京长木谷医疗科技股份有限公司 一种视频流下实时腺样体病变智能识别评估方法及装置

Also Published As

Publication number Publication date
CN113688788B (zh) 2023-04-25

Similar Documents

Publication Publication Date Title
ES2914873T3 (es) Sugerencia de segunda lectura
CN112365464B (zh) 一种基于gan的医学图像病变区域弱监督定位方法
US20130184538A1 (en) Method and device for swallowing impairment detection
CN109859168A (zh) 一种x射线胸片图像质量确定方法及装置
EP2124193A2 (en) Automated placental measurement
JP5098393B2 (ja) 関心領域決定装置
CN111862075A (zh) 一种基于深度学习的肺部图像分析系统及其分析方法
Islam et al. Deep learning of facial depth maps for obstructive sleep apnea prediction
CN111653356A (zh) 一种基于深度学习的新冠肺炎筛查方法及新冠肺炎筛查系统
CN113688942A (zh) 基于深度学习的头侧片腺样体图像自动评估方法和装置
JP2022546344A (ja) 脳卒中特徴取得のための画像処理
CN111247592A (zh) 用于随时间量化组织的系统和方法
CN113688788A (zh) 基于深度学习的头侧片上气道图像自动识别方法和系统
CN113782184A (zh) 一种基于面部关键点与特征预学习的脑卒中辅助评估系统
CN112837264B (zh) 肋骨定位、骨折临床结局预测装置及自动诊断系统
CN113469987A (zh) 基于深度学习的牙科x射线图像病变区域定位系统
Murray et al. Applying artificial intelligence to determination of legal age of majority from radiographic
CN115440371A (zh) 一种胸部疾病诊断模型及其创建方法和装置
KR102363221B1 (ko) 뇌 영상을 이용한 특발 정상압 수두증의 진단 방법 및 시스템
KR102349360B1 (ko) 영상 진단기기를 이용한 특발성 정상압 수두증의 진단 방법 및 시스템
Hu et al. Photographic analysis and machine learning for diagnostic prediction of adenoid hypertrophy
CN118314143A (zh) 一种基于人工智能的牙齿早期釉质脱矿评估方法及装置
CN111544021B (zh) 一种基于胸部ct的covid-19疾病进展评价方法及装置
US20240127959A1 (en) Apparatus for determining a temporal breast cancer risk
CN115148341B (zh) 一种基于体位识别的ai结构勾画方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant