CN113160966A - 一种基于多任务学习的舌象诊断方法及舌象诊断系统 - Google Patents
一种基于多任务学习的舌象诊断方法及舌象诊断系统 Download PDFInfo
- Publication number
- CN113160966A CN113160966A CN202110207965.8A CN202110207965A CN113160966A CN 113160966 A CN113160966 A CN 113160966A CN 202110207965 A CN202110207965 A CN 202110207965A CN 113160966 A CN113160966 A CN 113160966A
- Authority
- CN
- China
- Prior art keywords
- tongue
- tongue picture
- picture
- layers
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4854—Diagnosis based on concepts of traditional oriental medicine
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Computational Linguistics (AREA)
- Veterinary Medicine (AREA)
- Fuzzy Systems (AREA)
- Databases & Information Systems (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Epidemiology (AREA)
- Alternative & Traditional Medicine (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多任务学习的舌象诊断方法及舌象诊断系统,包括有移动端app、舌体分割模型及舌象分类模型,本发明提供的方法可以对舌体区域进行逐像素点的判别,在不需要先验知识的情况下实现精确分割舌体,使用多任务联合学习网络消除舌象分类中的标签混乱问题,将舌苔、舌质区域和原舌象区域作为多输入,输入的数据分别经过三次不同卷积尺度的特征提取和特征融合,把舌苔、舌质的特征和整个舌象的特征融合起来,加强联合特征之后用特征交叉层进行参数共享以及特征的重组,训练好的舌象分类模型能够实现舌质和苔质的同时分类,与单任务神经网络相比,该方法有着省时、节省计算量并且能高效识别舌象的优点。
Description
技术领域
本发明属于计算机处理图像技术技术领域,涉及一种基于多任务学习的 舌象诊断方法,还涉及该方法使用的一种基于多任务学习的舌象诊断系统。
背景技术
传统舌诊主要通过医生肉眼来观察舌象,依据个人经验知识进行诊断, 存在对医生的主观依赖性较强的缺点,其诊断结果会受到医生的知识水平、 思维模式和诊断技术的限制。以上因素会导致舌诊结果不准确,可重复性较 差,不利于复诊的信息参考也不利于舌诊相关技术的发展。
目前舌诊的客观化和标准化研究仍然存在很多问题:比如使用传统图像 处理对舌象进行分割的效果并不好,而将深度学习引入到舌象分割中,可以 对舌体区域进行逐像素点的判别,实现精确分割;再比如对于舌象分类,由 于舌象属于多标签数据,使用目前的大多数神经网络进行分类的话会导致训 练时出现歧义性问题,而多任务联合学习网络可以消除舌象分类中的标签混 乱问题,实现舌象的准确和高效识别。
发明内容
本发明的第一个目的是提供一种基于多任务学习的舌象诊断方法,解决 现有技术中存在的舌象分割效果不好,舌象分类标签混乱问题。
本发明的另一个目的是提供一种基于多任务学习的舌象诊断系统,具有 通过移动端设备使用户可方便地参与到智能舌诊中,为大众健康服务的特 点。
本发明所采用的第一个技术方案是,一种基于多任务学习的舌象诊断系 统,包括有移动端app、舌体分割模型及舌象分类模型,所述移动端app包 括有UI界面,所述UI界面设置有操作按钮,所述操作按钮触发处理程序, 所诉处理程序包括调取摄像头、打开本地相册、保存图像和舌象诊断,移动 端app中编写模型加载接口,所述加载接口接入舌体分割模型及舌象分类模 型,所述舌体分割模型及所述舌象分类模型直接封装在移动端app。
本发明所采用的另一个技术方案是,一种基于多任务学习的舌象诊断方 法,使用上述一种基于多任务学习的舌象诊断系统,具体按照以下步骤实施:
步骤1:在自然光照条件下,用户进入到舌象诊断系统,根据提示调用 移动端的摄像头对舌体进行拍摄,保存舌体图像;
步骤2:对步骤1所得的舌体图像进行归一化处理为尺寸为300*300*3 的图像;
步骤3:采用舌体分割模型对舌体进行定位分割,去除舌体外的无用区 域;
步骤4:分割出舌体后对舌体区域进行划分,将舌质、舌苔以及原舌象 图传给舌象分类模型;
步骤5:利用舌象分类模型对舌质、舌苔以及原舌象图进行测试,计算 出每个分类结果的概率,取最高概率的分类结果进行输出。
本发明的特点还在于:
舌体分割模型的建立过程具体如下:
步骤1:使用M张舌象原始图片作为舌象分割数据集,对舌象分割数据 集使用labelme进行手工标注,将舌象从复杂的背景中划分出来;
步骤2:labelme标注结束后,每张图像对应生成一个json文件,json 文件包含了图像文件本身以及标注的对象框信息,利用生成的json文件批 量生成mask数据集;
步骤3:使用Mask R-CNN对步骤2所得的mask数据集进行训练,并 保存完成的舌体分割模型。
舌象分类模型的搭建具体过程如下:
步骤1:准备N张分割好的舌象作为舌象分类数据集,将舌象分类数据 集进行舌苔和舌质的分区预处理;
步骤2:构建多输入的多任务分类网络,使用三个多尺度特征融合层和 最大池化层的组合对输入的舌苔、舌质区域以及原舌象进行特征提取和特征 融合,将舌苔和舌质的特征和整个舌象的特征融合起来,加强联合特征;
步骤3:在融合了舌苔、舌质和原舌象的特征之后,进行卷积池化操作 后用特征交叉层进行参数共享以及特征的重组,目的是为了选取最优的训练 参数和特征;
步骤4:由于有舌色和苔色的两个分类任务的输出,需要设计两组损失 函数分别进行计算,两个任务都采用交叉熵作为损失函数,在进行反向传播 的计算时,分别与相应的类别信息进行对比,求取舌色损失loss1和苔色损 失loss2,总体的损失loss=0.5*loss1+0.5*loss2;
步骤5:训练完成后保存舌象分类模型。
舌象分类模型网络结构具体包含如下:
首先,舌象分类模型网络结构包含三个多尺度特征融合层和最大池化层 的组合,2层卷积层、2层池化层、2层特征共享交叉层、2层全连接层,这 些作为多任务的共享层;在每个单支任务中又独立包含一层dropout层和全 连接层;
其中,输入数据分别经过三个不同尺度的卷积层,以便于提取舌质,舌 苔和整个舌象的特征;
然后,多任务学习网络以软共享为主,两个网络结构之间都会用特征共 享交叉层进行参数共享以及特征的重组,2个特征共享交叉层分别放置在倒 数第2层全连接层的之前和之后,目的是为了选取最优的训练参数,在第2 个特征共享交叉层之后分开设置1个dropout层和1个全连接层完成独立任 务的学习。
本发明的有益效果是:
1、本分明设计一种基于深度学习的舌体分割方法,使得能够从包含舌 体的图像中对舌体进行精细分割,得到完整的舌体区域。
2、本分明设计一种基于多任务学习的深度卷积神经网络,能够对舌象 进行舌色和苔色的多任务分类。
3、本分明实现移动端的智能舌诊系统,将模型集成到手机上,让用户 能够自主进行舌象拍照并调用模型对用户的舌象进行舌色苔色的分类,同时 给给用户反馈。
附图说明
图1是一种基于多任务学习的舌象诊断系统搭建的舌象分类模型网络 模型示意图;
图2是一种基于多任务学习的舌象诊断系统的舌象分类模型的多尺度 特征融合层示意图;
图3是一种基于多任务学习的舌象诊断系统的舌象分类模型的软共享 特征交叉层示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于多任务学习的舌象诊断系统,包括有移动端app、舌体 分割模型及舌象分类模型,所述移动端app包括有UI界面,所述UI界面设 置有操作按钮,所述操作按钮触发处理程序,所诉处理程序包括调取摄像 头、打开本地相册、保存图像和舌象诊断,移动端app中编写模型加载接口, 加载接口接入舌体分割模型及舌象分类模型,舌体分割模型及所述舌象分类 模型直接封装在移动端app。在Android studio中通过调用libtensorflow_inference.so、libandroid_tensorflow_inference_java.jar以及Java接口实现舌体分割模型及舌象分类模型的调用。
舌体分割模型的建立过程具体如下:
步骤1:使用M张舌象原始图片作为舌象分割数据集,对舌象分割数据 集使用labelme进行手工标注,将舌象从复杂的背景中划分出来;
步骤2:labelme标注结束后,每张图像对应生成一个json文件,json 文件包含了图像文件本身以及标注的对象框信息,利用生成的json文件批 量生成mask数据集;
步骤3:使用Mask R-CNN对步骤2所得的mask数据集进行训练,并 保存完成的舌体分割模型。
舌象分类模型的搭建具体过程如下:
步骤1:准备N张分割好的舌象作为舌象分类数据集,对舌象分类数据 集在医师指导下进行手动标注,每张舌象数据同时具有舌色与苔色标签,其 中舌色包含5种属性,苔色包含4种属性:5种舌色分别是淡白舌、淡红舌、 红舌、绛红舌、青紫舌,4种舌苔分别是薄白苔、白腻苔、薄黄苔、黄腻苔。
随后,依据沈兰荪的《中医舌象的采集和分析》中提供的5个区域划分 法,将舌面划分为舌根、舌中、舌尖、舌左侧、舌右侧5个区域;将舌象分 类数据集进行舌苔和舌质的分区预处理;
步骤2:构建多输入的多任务分类网络,使用三个多尺度特征融合层和 最大池化层的组合对输入的舌苔、舌质区域以及原舌象进行特征提取和特征 融合,将舌苔和舌质的特征和整个舌象的特征融合起来,加强联合特征;
步骤3:在融合了舌苔、舌质和原舌象的特征之后,进行卷积池化操作 后用特征交叉层进行参数共享以及特征的重组,目的是为了选取最优的训练 参数和特征;
步骤4:由于有舌色和苔色的两个分类任务的输出,需要设计两组损失 函数分别进行计算,两个任务都采用交叉熵作为损失函数,在进行反向传播 的计算时,分别与相应的类别信息进行对比,求取舌色损失loss1和苔色损 失loss2,总体的损失loss=0.5*loss1+0.5*loss2;
步骤5:训练完成后保存舌象分类模型。
舌象分类模型网络结构具体包含如下:
首先,舌象分类模型网络结构包含三个多尺度特征融合层和最大池化层 的组合,2层卷积层、2层池化层、2层特征共享交叉层、2层全连接层,这 些作为多任务的共享层;在每个单支任务中又独立包含一层dropout层和全 连接层;
总体的网络结构顺序中,多尺度特征融合层如图2所示,输入数 据分别经过三个不同尺度的卷积层,以便于提取舌质,舌苔和整个舌 象的特征;
然后,多任务学习网络以软共享为主,两个网络结构之间都会用 特征共享交叉层进行参数共享以及特征的重组软共享特征交叉层。2 个特征共享交叉层分别放置在倒数第2层全连接层的之前和之后,目 的是为了选取最优的训练参数,在第2个特征共享交叉层之后分开设 置1个dropout层和1个全连接层完成独立任务的学习。
本发明所采用的另一个技术方案是,一种基于多任务学习的舌象诊断方 法,使用上述一种基于多任务学习的舌象诊断系统,具体按照以下步骤实施:
步骤1:在自然光照条件下,用户进入到舌象诊断系统,在自然光下, 用手机的摄像头直接拍摄或者读取用户相册中的舌体图像,从而得到用户提 供的舌象照片。拍摄时应当自然探出舌头,无需过分用力或卷曲,保存舌体 图像;
步骤2:对步骤1所得的舌体图像进行归一化处理为尺寸为300*300*3 的图像;
步骤3:采用舌体分割模型对舌体进行定位分割,去除舌体外的无用区 域;
步骤4:分割出舌体后对舌体区域进行划分,将舌质、舌苔以及原舌象 图传给舌象分类模型;
步骤5:利用舌象分类模型对舌质、舌苔以及原舌象图进行测试,计算 出每个分类结果的概率,取最高概率的分类结果进行输出。
本发明的有益效果是:本发明能够使用户随时随地进行舌象的诊断分 析;本发明的舌象分割模块基于深度学习实现,较传统方法来说能够使舌象 分割的精度更高、效率更高,不需要先验知识就可以定位并分割舌体;本发 明舌象分类模块基于多任务分类实现,将舌苔、舌质区域和原舌象区域作为 网络的多输入,能够实现舌质和苔质的同时分类。
Claims (5)
1.一种基于多任务学习的舌象诊断系统,其特征在于,包括有移动端app、舌体分割模型及舌象分类模型,所述移动端app包括有UI界面,所述UI界面设置有操作按钮,所述操作按钮触发处理程序,所诉处理程序包括调取摄像头、打开本地相册、保存图像和舌象诊断,移动端app中编写模型加载接口,所述加载接口接入舌体分割模型及舌象分类模型,所述舌体分割模型及所述舌象分类模型直接封装在移动端app。
2.根据权利要求1所述的一种基于多任务学习的舌象诊断系统,其特征在于,所述舌体分割模型的建立过程具体如下:
步骤1:使用M张舌象原始图片作为舌象分割数据集,对所述舌象分割数据集使用labelme进行手工标注,将舌象从复杂的背景中划分出来;
步骤2:labelme标注结束后,每张图像对应生成一个json文件,所述json文件包含了图像文件本身以及标注的对象框信息,利用生成的json文件批量生成mask数据集;
步骤3:使用Mask R-CNN对步骤2所得的mask数据集进行训练,并保存完成的舌体分割模型。
3.根据权利要求1所述的一种基于多任务学习的舌象诊断系统,其特征在于,所述舌象分类模型的搭建具体过程如下:
步骤1:准备N张分割好的舌象作为舌象分类数据集,将舌象分类数据集进行舌苔和舌质的分区预处理;
步骤2:构建多输入的多任务分类网络,使用三个多尺度特征融合层和最大池化层的组合对输入的舌苔、舌质区域以及原舌象进行特征提取和特征融合,将舌苔和舌质的特征和整个舌象的特征融合起来,加强联合特征;
步骤3:在融合了舌苔、舌质和原舌象的特征之后,进行卷积池化操作后用特征交叉层进行参数共享以及特征的重组,目的是为了选取最优的训练参数和特征;
步骤4:由于有舌色和苔色的两个分类任务的输出,需要设计两组损失函数分别进行计算,两个任务都采用交叉熵作为损失函数,在进行反向传播的计算时,分别与相应的类别信息进行对比,求取舌色损失loss1和苔色损失loss2,总体的损失loss=0.5*loss1+0.5*loss2;
步骤5:训练完成后保存舌象分类模型。
4.根据权利要求3所述的一种基于多任务学习的舌象诊断系统,其特征在于,所述舌象分类模型网络结构具体包含如下:
首先,舌象分类模型网络结构包含三个多尺度特征融合层和最大池化层的组合,2层卷积层、2层池化层、2层特征共享交叉层、2层全连接层,这些作为多任务的共享层;在每个单支任务中又独立包含一层dropout层和全连接层;
其中,输入数据分别经过三个不同尺度的卷积层,以便于提取舌质,舌苔和整个舌象的特征;
然后,多任务学习网络以软共享为主,两个网络结构之间都会用特征共享交叉层进行参数共享以及特征的重组,2个特征共享交叉层分别放置在倒数第2层全连接层的之前和之后,目的是为了选取最优的训练参数,在第2个特征共享交叉层之后分开设置1个dropout层和1个全连接层完成独立任务的学习。
5.一种基于多任务学习的舌象诊断方法,其特征在于,使用如权利要求1所述的一种基于多任务学习的舌象诊断系统,具体按照以下步骤实施:
步骤1:在自然光照条件下,用户进入到舌象诊断系统,根据提示调用移动端的摄像头对舌体进行拍摄,保存舌体图像;
步骤2:对步骤1所得的舌体图像进行归一化处理为尺寸为300*300*3的图像;
步骤3:采用舌体分割模型对舌体进行定位分割,去除舌体外的无用区域;
步骤4:分割出舌体后对舌体区域进行划分,将舌质、舌苔以及原舌象图传给舌象分类模型;
步骤5:利用舌象分类模型对舌质、舌苔以及原舌象图进行测试,计算出每个分类结果的概率,取最高概率的分类结果进行输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110207965.8A CN113160966B (zh) | 2021-02-25 | 2021-02-25 | 一种基于多任务学习的舌象诊断方法及舌象诊断系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110207965.8A CN113160966B (zh) | 2021-02-25 | 2021-02-25 | 一种基于多任务学习的舌象诊断方法及舌象诊断系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113160966A true CN113160966A (zh) | 2021-07-23 |
CN113160966B CN113160966B (zh) | 2023-07-07 |
Family
ID=76883998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110207965.8A Active CN113160966B (zh) | 2021-02-25 | 2021-02-25 | 一种基于多任务学习的舌象诊断方法及舌象诊断系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160966B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114596621A (zh) * | 2022-05-10 | 2022-06-07 | 慧医谷中医药科技(天津)股份有限公司 | 一种基于机器视觉的舌象数据处理方法及系统 |
CN114842314A (zh) * | 2022-04-27 | 2022-08-02 | 王之纯 | 基于神经网络的舌象的识别方法、装置和计算机设备 |
WO2024016992A1 (zh) * | 2022-07-22 | 2024-01-25 | 浙江省肿瘤医院 | 基于舌象图像的肿瘤预测系统、方法及其应用 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140342324A1 (en) * | 2013-05-20 | 2014-11-20 | Georgia Tech Research Corporation | Wireless Real-Time Tongue Tracking for Speech Impairment Diagnosis, Speech Therapy with Audiovisual Biofeedback, and Silent Speech Interfaces |
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务系统 |
CN107330889A (zh) * | 2017-07-11 | 2017-11-07 | 北京工业大学 | 一种基于卷积神经网络的中医舌色苔色自动分析方法 |
CN107977671A (zh) * | 2017-10-27 | 2018-05-01 | 浙江工业大学 | 一种基于多任务卷积神经网络的舌象分类方法 |
CN110033858A (zh) * | 2018-12-28 | 2019-07-19 | 深圳铁盒子文化科技发展有限公司 | 一种舌象分析方法及其存储介质 |
-
2021
- 2021-02-25 CN CN202110207965.8A patent/CN113160966B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140342324A1 (en) * | 2013-05-20 | 2014-11-20 | Georgia Tech Research Corporation | Wireless Real-Time Tongue Tracking for Speech Impairment Diagnosis, Speech Therapy with Audiovisual Biofeedback, and Silent Speech Interfaces |
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务系统 |
CN107330889A (zh) * | 2017-07-11 | 2017-11-07 | 北京工业大学 | 一种基于卷积神经网络的中医舌色苔色自动分析方法 |
CN107977671A (zh) * | 2017-10-27 | 2018-05-01 | 浙江工业大学 | 一种基于多任务卷积神经网络的舌象分类方法 |
CN110033858A (zh) * | 2018-12-28 | 2019-07-19 | 深圳铁盒子文化科技发展有限公司 | 一种舌象分析方法及其存储介质 |
Non-Patent Citations (2)
Title |
---|
汤一平;王丽冉;何霞;陈朋;袁公萍;: "基于多任务卷积神经网络的舌象分类研究", 计算机科学 * |
邱童: "基于深度学习与多特征融合的舌象诊断算法", 现代信息科技 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114842314A (zh) * | 2022-04-27 | 2022-08-02 | 王之纯 | 基于神经网络的舌象的识别方法、装置和计算机设备 |
CN114596621A (zh) * | 2022-05-10 | 2022-06-07 | 慧医谷中医药科技(天津)股份有限公司 | 一种基于机器视觉的舌象数据处理方法及系统 |
WO2024016992A1 (zh) * | 2022-07-22 | 2024-01-25 | 浙江省肿瘤医院 | 基于舌象图像的肿瘤预测系统、方法及其应用 |
Also Published As
Publication number | Publication date |
---|---|
CN113160966B (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113160966A (zh) | 一种基于多任务学习的舌象诊断方法及舌象诊断系统 | |
CN105608447B (zh) | 对人体面部微笑表情深度卷积神经网络的检测方法 | |
CN106469302B (zh) | 一种基于人工神经网络的人脸肤质检测方法 | |
US20210118144A1 (en) | Image processing method, electronic device, and storage medium | |
TWI777092B (zh) | 一種圖像處理方法、電子設備及存儲介質 | |
CN110991380B (zh) | 人体属性识别方法、装置、电子设备以及存储介质 | |
CN112733802B (zh) | 图像的遮挡检测方法、装置、电子设备及存储介质 | |
CN111028305A (zh) | 表情生成方法、装置、设备及存储介质 | |
CN109410168B (zh) | 用于确定图像中的子图块类别的卷积神经网络的建模方法 | |
CN112052186B (zh) | 目标检测方法、装置、设备以及存储介质 | |
CN110263681A (zh) | 面部表情的识别方法和装置、存储介质、电子装置 | |
CN109886153B (zh) | 一种基于深度卷积神经网络的实时人脸检测方法 | |
CN108280426B (zh) | 基于迁移学习的暗光源表情识别方法及装置 | |
CN110033023A (zh) | 一种基于绘本识别的图像数据处理方法及系统 | |
CN104854620A (zh) | 图像处理装置、图像处理系统和程序 | |
WO2024109374A1 (zh) | 换脸模型的训练方法、装置、设备、存储介质和程序产品 | |
CN109034090A (zh) | 一种基于肢体动作的情感识别系统及方法 | |
WO2024051067A1 (zh) | 红外图像处理方法、装置及设备、存储介质 | |
CN107578015B (zh) | 一种基于深度学习的第一印象识别与回馈系统及方法 | |
CN113033488A (zh) | 医疗特征识别方法及装置、电子设备、存储介质 | |
CN112668486A (zh) | 一种预激活残差深度可分离卷积网络面部表情识别方法、装置和载体 | |
CN114549489A (zh) | 一种面向雕花口红质检的实例分割缺陷检测方法 | |
CN113763498A (zh) | 一种面向工业制造的肖像简笔画区域自适应颜色匹配方法及系统 | |
Diniz et al. | Face attributes as cues for deep face recognition understanding | |
CN109145861A (zh) | 情绪识别装置及方法、头戴式显示设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |