CN112488036A - 基于人工智能的舌头震颤程度评估系统 - Google Patents

基于人工智能的舌头震颤程度评估系统 Download PDF

Info

Publication number
CN112488036A
CN112488036A CN202011468051.9A CN202011468051A CN112488036A CN 112488036 A CN112488036 A CN 112488036A CN 202011468051 A CN202011468051 A CN 202011468051A CN 112488036 A CN112488036 A CN 112488036A
Authority
CN
China
Prior art keywords
tongue
sequence
image
area
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011468051.9A
Other languages
English (en)
Inventor
曹剑
王坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202011468051.9A priority Critical patent/CN112488036A/zh
Publication of CN112488036A publication Critical patent/CN112488036A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及人工智能技术领域,具体涉及一种基于人工智能的舌头震颤程度评估系统。该系统包括通过关键点检测单元获取嘴巴关键点和舌头关键点;通过图像采集单元采集设定时间内舌头的深度图像序列和RGB图像序列;通过特征提取单元提取由帧差法得到的舌头区域的差值图序列中舌头区域的面积序列和舌头区域的像素值序列;通过特征修正单元修正面积序列和像素值序列;通过震颤程度评估单元将修正后的面积序列和像素值序列输入时序分类网络,得到舌头的震颤程度。通过待测人员面部与相机之间的距离变化去修正差值图序列中的面积序列和像素值序列,一方面能够排除对差值图像分析结果的误差,另一方面能够使得舌头震颤程度评估的结果更精确。

Description

基于人工智能的舌头震颤程度评估系统
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于人工智能的舌头震颤程度评估系统。
背景技术
舌头是人体的重要器官,舌头通过经络与五脏相连,人体的脏腑、气血的虚实和疾病的深浅轻重变化都能够客观地反映于舌象,因此中医经常通过观察舌头来了解身体的健康状态。
舌诊是中医诊断重要的一部分,舌震颤是舌诊中常见的症状之一。舌震颤是由于舌肌纤维收缩所致,医生通过观察舌震颤情况,能够得到一些有用的信息,可以为病人病情的诊断提供更多的数据参考。因此舌震颤的检测对及时发现、及时预防相关疾病尤为重要。
目前,对于舌震颤的检测主要是将采集的相邻帧舌头区域图像送入光流网络提取光流图像,将多帧光流图像通过预测网络得到预测光流图像,将预测光流图像与原始图像通过时空滑窗评价方法得到两图像之间的预测峰值信噪比,根据预测峰值信噪比计算得到舌震分数值。
发明人在实践中,发现上述现有技术存在以下缺陷:在实际的舌震颤检测场景中,待测人员的面部移动会引起舌头的运动,使得图像采集出现误差,进而对采集到的图像的分析产生影响,降低了舌头震颤程度检测结果的准确性。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种基于人工智能的舌头震颤程度评估系统,所采用的技术方案具体如下:
本发明实施例提供了一种基于人工智能的舌头震颤程度评估系统,该系统包括:
关键点检测单元,用于利用关键点检测网络获取嘴巴关键点和舌头关键点;
图像采集单元,用于当由所述嘴巴关键点和所述舌头关键点获得的所述舌头的伸展程度在预设阈值内时,确定所述舌头处于稳定状态,进而采集设定时间内所述舌头的深度图像序列和RGB图像序列;
特征提取单元,用于利用帧差法获取所述RGB图像序列中舌头区域的差值图序列,提取所述差值图序列中所述舌头区域的面积序列和所述舌头区域的像素值序列;
特征修正单元,用于通过所述深度图像序列中所述舌头区域之外的图像的深度信息,获取所述设定时间内待测人员面部与图像采集设备之间的距离变化量,结合所述舌头区域的面积变化量和像素值变化量,以相对应地修正所述面积序列和所述像素值序列;
震颤程度评估单元,用于将所述修正后的所述面积序列和所述像素值序列输入时序分类网络,得到所述舌头的震颤程度。
进一步地,所述舌头区域是指所述舌头区域的外接矩形。
进一步地,所述图像采集单元中所述舌头的伸展程度是通过计算所述嘴巴关键点和所述舌头关键点的位置距离得到的。
进一步地,所述图像采集单元中当所述伸展程度大于第一阈值且所述伸展程度的变化量小于第二阈值时,判断所述舌头处于稳定状态。
进一步地,所述特征修正单元中所述舌头区域之外的图像的深度信息是所述图像的平均深度值。
进一步地,所述特征修正单元中所述修正所述面积序列是利用所述舌头区域的面积序列减去对应的所述面积变化量。
进一步地,所述特征修正单元中所述修正所述像素值序列是利用所述舌头区域的像素值序列减去对应的所述像素值变化量。
进一步地,所述特征修正单元中所述修正所述面积序列的公式为:
Figure BDA0002835189790000021
其中,
Figure BDA0002835189790000022
为第k张差值图中修正后的面积;Ak为所述第k张差值图中的所述舌头区域的面积;ΔLk为所述距离变化量;m为所述外接矩形的宽度;n为所述外接矩形的高度;l为所述外接矩形缩放的宽度。
进一步地,所述特征修正单元中所述外接矩形缩放的宽度是由所述外接矩形的尺寸缩放系数与所述距离变化量相乘得到的。
进一步地,所述特征修正单元中所述修正所述像素值序列的公式为:
Figure BDA0002835189790000023
其中,
Figure BDA0002835189790000024
为所述第k张差值图中修正后的像素值;Gk为所述第k张差值图中所述舌头区域的像素值;
Figure BDA0002835189790000025
为所述舌头区域的像素平均值;w为所述第k张差值图的宽度;h为所述第k张差值图的高度。
本发明实施例至少存在以下有益效果:(1)利用由嘴巴关键点和舌头关键点的位置信息得到的舌头伸展程度,确定采集舌头图像序列的最佳时机,进而能够确保采集到对检测结果有价值的图像。
(2)通过待测人员面部与相机之间的距离变化去修正差值图序列中的面积序列和像素值序列,一方面能够排除对差值图像分析结果的误差,另一方面能够使得舌头震颤程度评估的结果更精确。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明实施例所提供的一种基于人工智能的舌头震颤程度评估系统的流程图;
图2为本发明实施例所提供的一种基于人工智能的舌头震颤程度评估系统的结构框图;
图3为本发明实施例中相机透视效果下ROI区域的示例图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于人工智能的舌头震颤程度评估系统,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种基于人工智能的舌头震颤程度评估系统的具体方案。
参照附图1和附图2,本发明实施例提供了一种基于人工智能的舌头震颤程度评估系统,该系统包括:关键点检测单元10、图像采集单元20、特征提取单元30、特征修正单元40以及震颤程度评估单元50。
关键点检测单元10,用于利用关键点检测网络获取嘴巴关键点和舌头关键点。
图像采集单元20,用于当由嘴巴关键点和舌头关键点获得的舌头的伸展程度在预设阈值内时,认为舌头处于稳定状态,进而采集设定时间内舌头的深度图像序列和RGB图像序列。
特征提取单元30,用于利用帧差法获取RGB图像序列中舌头区域的差值图序列,提取差值图序列中舌头区域的面积序列和舌头区域的像素值序列。
特征修正单元40,用于通过深度图像序列中舌头区域之外的图像的深度信息,获取设定时间内待测人员面部与图像采集设备之间的距离变化量,结合舌头区域的面积变化量和像素值变化量,以相对应地修正面积序列和像素值序列。
震颤程度评估单元50,用于将修正后的面积序列和像素值序列输入时序分类网络,得到舌头的震颤程度。
进一步地,部署RGB相机,RGB相机视角正视于嘴巴区域,保证视野可以覆盖嘴巴的全部区域。当发出伸舌指令后,RGB相机采集待测人员嘴巴区域的RGB图像。
进一步地,在关键点检测单元10中,将嘴巴区域的RGB图像输入关键点检测网络获取嘴巴关键点和舌头关键点。
优选的,本发明实施例中选择将上嘴唇中心点作为嘴巴关键点,舌尖中心点作为舌头关键点。
本发明实施例采用编码器-解码器结构的关键点检测网络进行关键点检测,关键点检测网络的具体
训练过程如下:
1)获取标签数据集:将嘴巴区域的RGB图像作为训练集图像,训练集图像中应包含舌头和嘴巴的图像信息。本发明实施例中利用高斯卷积核在2个关键点位置进行高斯处理,得到高斯热斑。
2)将标签数据集送入编码器进行下采样,利用卷积的方式完成特征提取得到特征图,将特征图送入解码器通过不断上采样操作,得到与采集到的RGB图像等大的关键点热力图。该关键点热力图有2个通道,一个通道是嘴巴关键点,另一个通道是舌头关键点。
3)利用Soft Argmax函数得到嘴巴关键点和舌头关键点的位置信息。
4)关键点检测网络中的损失函数采用交叉熵损失函数。损失函数反映了关键点检测网络输出结果与标签数据的差距,通过不断迭代更新模型中的参数,当损失函数不再降低或达到标准时完成网络训练。进一步地,考虑到发出伸舌指令后,舌头一直处于伸展运动的状态,此时不利于舌头震颤程度的检测,因此需要在舌头伸展运动结束后,才能对舌头震颤程度进行检测,这样能够避免舌头的伸展运动、牙齿和嘴唇对舌头表面的遮挡,影响检测的结果。
进一步地,在图像采集单元20中,本发明实施例中通过上嘴唇中心点P1和舌尖中心点P2获得向量
Figure BDA0002835189790000041
且优选的利用向量
Figure BDA0002835189790000042
的模长
Figure BDA0002835189790000043
来反映舌头的伸展程度。通过比较相邻帧嘴巴区域的RGB图像中舌头的伸展程度,得到伸展程度的变化量
Figure BDA0002835189790000044
优选的,本发明实施例利用变化量
Figure BDA0002835189790000045
来反映舌头的伸展程度变化率。
进一步地,当变化量
Figure BDA0002835189790000046
逐渐变小时,表示舌头逐渐处于稳定状态。本发明实施例中当满足伸展程度
Figure BDA0002835189790000047
大于第一阈值且变化量
Figure BDA0002835189790000048
小于第二阈值的条件时,表示伸舌动作结束,且舌头处于稳定状态,满足舌头震颤程度的检测要求。
优选的,本发明实施例中根据经验设定第一阈值为5,第二阈值为0.5,即满足条件为:
Figure BDA0002835189790000049
进一步地,在舌头处于稳定状态下,开始采集一段时间T内的舌头的深度图像序列SD和RGB图像序列SR
优选的,本发明实施例中时间T选取为5秒。
进一步地,在特征提取单元30中,对采集到的RGB图像序列SR进行处理,得到面积序列A和像素值序列G,具体处理步骤如下:
第一步,利用语义分割网络对采集到的RGB图像序列SR进行训练得到每一帧RGB图像中舌头区域的RGB图像,具体网络训练过程如下:
1)获取标签数据集:将相机采集到的RGB图像作为训练集,人为地将训练集标注上标签,且舌头区域的像素点标注为1,其他区域的像素点标注为0。
2)将训练集和标签数据送入语义分割网络中,输出舌头区域的第一掩模区域(Mask),且第一掩模区域是一个二值图像。
3)将第一掩模区域与原RGB图像相乘,得到舌头区域的RGB图像。
4)对RGB图像序列SR中的每一帧图像都按照1)~3)步骤进行处理,得到每一帧RGB图像中舌头区域的RGB图像。
5)语义分割网络中的损失函数采用交叉熵损失函数,不断更新模型内的参数。
需要说明的是,在其他实施例中,实施者可以采用U-Net、DeepLabv3+等语义分割网络。
第二步,对处理后的RGB图像序列SR进行进一步地处理,将得到的每一帧舌头区域的RGB图像利用帧差法,即利用当前帧减去上一帧的方法,得到差值图序列SC,本发明实施例中差值图的计算公式如下:
Figure BDA0002835189790000051
其中,
Figure BDA0002835189790000052
为第k张差值图;
Figure BDA0002835189790000053
为1张RGB图像;Mask为舌头区域的二值图像;
Figure BDA0002835189790000054
为中第k张RGB图像。
Figure BDA0002835189790000055
为第k-1张RGB图像。
进一步地,考虑到舌头不存在震颤现象时,舌头区域保持静止,且在差值图上呈现黑色的背景颜色;当舌头存在震颤现象时,舌头区域的灰度值会由于震颤发生变化,且在差值图上呈现出灰度区域。故通过差值图中灰度区域的灰度值和分布面积的变化来反映舌头的震颤程度。
第三步,针对差值图序列SC中的每一帧差值图,通过计算每一帧差值图中灰度区域的平均灰度值和分布面积,得到差值图序列的面积序列A和像素值序列G。本发明实施例中以第k张差值图
Figure BDA0002835189790000056
为例来计算每一张差值图中灰度区域的平均灰度值和分布面积,详细的计算过程如下:
1)计算差值图中像素的平均灰度值并作为像素值,计算公式如下:
Figure BDA0002835189790000057
其中,Gk表示第k张差值图中像素的像素值;
Figure BDA0002835189790000058
为第k张差值图像中第i行第j列的像素值;w为第k张差值图的宽度;h为第k张差值图的高度。
2)利用最大类间方差法获得阈值,通过阈值对差值图进行阈值分割,获得分割图;对分割图进行连通域分析,获得分割图中白色区域外接矩形的面积,即为第k张差值图中前景区域的面积Ak
3)至此得到了第k张差值图的特征值Gk和Ak
进一步地,利用上述计算过程分别对差值图序列SC中的每一张差值图进行同样地处理,得到面积序列A和像素值序列G。
需要说明的是,本发明实施例中使用白色区域外接矩形的面积是为了便于利用深度图像序列SD对面积序列A进行修正,以得到精确的修正后的面积值。
进一步地,在实际的舌头震颤检测场景中,通过图像采集单元10采集到的舌头深度图像序列SD和RGB图像序列SR,由于待测人员面部的移动会引起舌头的运动,进而对上述由差值图序列提取到的特征值产生影响,进而会对检测结果带来误差。
进一步地,在特征修正单元40中,考虑到待测人员面部的移动主要体现在待测人员面部与相机之间的距离变化,本发明实施例中利用舌头之外区域的深度变化来反映面部的移动情况。
本发明实施例中对每一帧RGB图像中舌头区域的第一掩模区域进行处理,将像素值为1的像素点置为0,将像素值为0的像素点置为1,得到每一帧RGB图像中舌头之外区域的第二掩模区域。利用第二掩模区域与深度图像序列SD中相对应的每一帧深度图像进行相乘,得到舌头区域之外的图像,进而能够屏蔽掉舌头区域的深度信息。
进一步地,本发明实施例中同样以第k张处理后的深度图像
Figure BDA0002835189790000061
为例,计算每一张处理后的深度图像的平均深度值,即为拍摄深度图像时所对应的待测人员面部与相机之间的距离,计算公式如下:
Figure BDA0002835189790000062
其中,Lk为第k张处理后的深度图像的平均深度值;a为第k张处理后的深度图像的宽度;b为第k张处理后的深度图像的高度;
Figure BDA0002835189790000063
为第k张处理后的深度图像中第i行第j列的像素值。
进一步地,通过上述计算公式分别对深度图像序列SD中每一张深度图像进行同样的处理,得到深度值序列L。
进一步地,利用深度值序列L对上述得到的面积序列A和像素值序列G进行修正:当相邻处理后的深度图像的深度值出现变化时,表示待测人员的面部出现移动,即面部到相机之间的距离也发生了变化。将当前帧处理后的深度图像的深度值减去上一帧的深度值,得到相邻帧的深度值变化量,利用深度值变化量去修正面积序列A和像素值序列G。
进一步地,考虑到相机成像呈现的近小远大的透视效果,因此舌头区域的面积变化分为两个部分:第一部分是待测人员面部移动引起的舌头区域的面积变化;第二部分是待测人员面部与相机之间的距离变化引起舌头区域因近大远小效果引起的面积变化。故本发明实施例以第k张处理后的深度图像为例介绍面积序列A和像素值序列G的修正方法,具体修正过程如下:
1)对RGB图像中舌头区域的第一掩模区域进行处理,得到RGB图像中舌头区域的外接矩形,作为ROI区域。
2)参照附图3,实线矩形为第k帧RGB图像中舌头区域的ROI区域,虚线矩形为第k-1帧RGB图像中舌头区域的ROI区域,相对应的通过深度值得到待测人员面部与相机之间的距离变化为ΔLk=|Lk-Lk-1|,则面积修正公式为:
Figure BDA0002835189790000064
l=α×ΔLk
其中,
Figure BDA0002835189790000065
为第k张差值图中修正后的面积;Ak为第k张差值图中舌头区域的面积;m为ROI区域的宽;n为ROI区域的高;l为ROI区域缩放的宽度;α为ROI区域的尺寸缩放系数。
3)由于待测人员面部移动产生的面积变化在差值图中被错误地认定为前景区域,进而会保留该面积变化范围内舌头区域的灰度值,造成舌头震颤程度检测的误差,因此需要相对应的修正像素值,则像素值修正公式为:
Figure BDA0002835189790000066
Figure BDA0002835189790000071
其中,
Figure BDA0002835189790000072
为第k张差值图中修正后的像素值;
Figure BDA0002835189790000073
为舌头区域的像素平均值;ROI(i,j)为ROI区域中第i行且第j列的像素值。
进一步地,通过上述修正过程对面积序列A和像素值序列G分别进行修正得到修正后的面积序列AN和素值序列GN
进一步地,在震颤程度评估单元50中,将一段时间T内的修正后的面积序列AN和像素值序列GN通过时序分类网络得到舌头的震颤程度。本发明实施例中采用TCN网络进行检测,具体的检测过程如下:
1)根据专业医师的判定,人为标注舌头的震颤等级,并将人为标注的震颤等级通过one-hot编码得到标签数据。本发明实施例中将舌头的震颤等级分为N个等级,等级越高表示舌头震颤越严重。
2)为了训练方便,将数据集和数据标签进行归一化处理,调整至同一的区间,且数据集为多组修正后的面积序列AN和像素值序列GN
3)TCN网络的输入形状为[B,E,2],输出形状为[B,N],其中B为Batch size;E为时间尺度,可根据采集时间T内的数据进行设置;2代表2个特征值,即面积和像素值;N代表N种舌头震颤等级的概率,且TCN网络输出的结果为舌头震颤程度的评估结果。
4)TCN网络对数据进行特征提取之后,得到数据的特征描述子,通过全连接层得到最终的输出结果形状为[B,N],分别对应N种舌头震颤程度的等级。
5)将输出结果经过Argmax操作,得到具体的舌头震颤程度等级。
6)TCN网络中的损失函数采用交叉熵损失函数。
优选的,本发明实施例中N的取值为3。
综上所述,本发明实施例提供了一种基于人工智能的舌头震颤程度评估系统,该系统包括关键点检测单元10、图像采集单元20、特征提取单元30、特征修正单元40以及震颤程度评估单元50。该系统通过关键点检测单元10检测到的嘴巴关键点和舌头关键点,输入图像采集单元20判断舌头的稳定状态,以采集一段时间T内舌头的深度图像序列和RGB图像序列,将舌头的RGB图像序列输入特征提取单元30利用帧差法得到差值图序列并提取差值图序列中的面积序列和像素值序列,将舌头的深度图像序列输入特征修正单元40利用待测人员面部与相机之间的距离变化,去修正面积序列和像素值序列,再将修正后的面积序列和像素值序列输入震颤程度评估单元50中的时序分类网络,得到舌头的震颤程度。
通过待测人员面部与相机之间的距离变化去修正差值图序列中的面积序列和像素值序列,一方面能够排除对差值图像分析结果的误差,另一方面能够使得舌头震颤程度评估的结果更精确。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于人工智能的舌头震颤程度评估系统,其特征在于,该系统包括:
关键点检测单元,用于利用关键点检测网络获取嘴巴关键点和舌头关键点;
图像采集单元,用于当由所述嘴巴关键点和所述舌头关键点获得的所述舌头的伸展程度在预设阈值内时,确定所述舌头处于稳定状态,进而采集设定时间内所述舌头的深度图像序列和RGB图像序列;
特征提取单元,用于利用帧差法获取所述RGB图像序列中舌头区域的差值图序列,提取所述差值图序列中所述舌头区域的面积序列和所述舌头区域的像素值序列;
特征修正单元,用于通过所述深度图像序列中所述舌头区域之外的图像的所述深度信息,获取所述设定时间内待测人员面部与图像采集设备之间的距离变化量,结合所述舌头区域的面积变化量和像素值变化量,以相对应地修正所述面积序列和所述像素值序列;
震颤程度评估单元,用于将所述修正后的所述面积序列和所述像素值序列输入时序分类网络,得到所述舌头的震颤程度。
2.如权利要求1所述的系统,其特征在于,所述舌头区域是指所述舌头区域的外接矩形。
3.如权利要求1所述的系统,其特征在于,所述图像采集单元中所述舌头的伸展程度是通过计算所述嘴巴关键点和所述舌头关键点的位置距离得到的。
4.如权利要求3所述的系统,其特征在于,所述图像采集单元中当所述伸展程度大于第一阈值且所述伸展程度的变化量小于第二阈值时,判断所述舌头处于稳定状态。
5.如权利要求1所述的系统,其特征在于,所述特征修正单元中所述舌头区域之外的图像的深度信息是所述图像的平均深度值。
6.如权利要求2所述的系统,其特征在于,所述特征修正单元中所述修正所述面积序列是利用所述舌头区域的面积序列减去对应的所述面积变化量。
7.如权利要求6所述的系统,其特征在于,所述特征修正单元中所述修正所述像素值序列是利用所述舌头区域的像素值序列减去对应的所述像素值变化量。
8.如权利要求6所述的系统,其特征在于,所述特征修正单元中所述修正所述面积序列的公式为:
Figure FDA0002835189780000011
其中,
Figure FDA0002835189780000012
为第k张差值图中修正后的面积;Ak为所述第k张差值图中的所述舌头区域的面积;ΔLk为所述距离变化量;m为所述外接矩形的宽度;n为所述外接矩形的高度;l为所述外接矩形缩放的宽度。
9.如权利要求8所述的系统,其特征在于,所述特征修正单元中所述外接矩形缩放的宽度是由所述外接矩形的尺寸缩放系数与所述距离变化量相乘得到的。
10.如权利要求7所述的系统,其特征在于,所述特征修正单元中所述修正所述像素值序列的公式为:
Figure FDA0002835189780000021
其中,
Figure FDA0002835189780000022
为所述第k张差值图中修正后的像素值;Gk为所述第k张差值图中所述舌头区域的像素值;
Figure FDA0002835189780000023
为所述舌头区域的像素平均值;w为所述第k张差值图的宽度;h为所述第k张差值图的高度。
CN202011468051.9A 2020-12-14 2020-12-14 基于人工智能的舌头震颤程度评估系统 Withdrawn CN112488036A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011468051.9A CN112488036A (zh) 2020-12-14 2020-12-14 基于人工智能的舌头震颤程度评估系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011468051.9A CN112488036A (zh) 2020-12-14 2020-12-14 基于人工智能的舌头震颤程度评估系统

Publications (1)

Publication Number Publication Date
CN112488036A true CN112488036A (zh) 2021-03-12

Family

ID=74916364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011468051.9A Withdrawn CN112488036A (zh) 2020-12-14 2020-12-14 基于人工智能的舌头震颤程度评估系统

Country Status (1)

Country Link
CN (1) CN112488036A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116705336A (zh) * 2023-07-19 2023-09-05 北京云数智康医疗科技有限公司 一种基于影像分析的智能化植发评估系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116705336A (zh) * 2023-07-19 2023-09-05 北京云数智康医疗科技有限公司 一种基于影像分析的智能化植发评估系统
CN116705336B (zh) * 2023-07-19 2024-02-09 北京云数智康医疗科技有限公司 一种基于影像分析的智能化植发评估系统

Similar Documents

Publication Publication Date Title
CN109146872B (zh) 基于深度学习和光流法的心脏冠状动脉影像分割识别方法
EP2955662B1 (en) Image processing device, imaging device, image processing method
CN109523535B (zh) 一种病变图像的预处理方法
CN109635871B (zh) 一种基于多特征融合的胶囊内窥镜图像分类方法
CN110991266A (zh) 一种双目人脸活体检测方法及装置
CN108615239B (zh) 基于阈值技术和灰度投影的舌图像分割方法
AU2020100044A4 (en) Method of tracking of Surgical Target and Tool
CN111784668A (zh) 基于感知哈希算法的消化内镜检查影像自动冻结的方法
CN113436734A (zh) 基于人脸结构定位的牙齿健康评估方法、设备和存储介质
CN110032932A (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN117218042B (zh) 一种发质类型视觉分析检测方法
CN111353996A (zh) 一种血管钙化检测方法及装置
KR102163108B1 (ko) 영상에서 관심 대상 실시간 검출 방법 및 시스템
CN109028237A (zh) 基于双区域图像采集进行风速调节的油烟机
CN112488036A (zh) 基于人工智能的舌头震颤程度评估系统
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及系统
CN111292285B (zh) 一种基于朴素贝叶斯与支持向量机的糖网病自动筛查方法
CN113963427B (zh) 一种快速活体检测的方法与系统
CN109886212A (zh) 从滚动指纹合成现场指纹的方法和装置
Arnold et al. Indistinct frame detection in colonoscopy videos
Dandan et al. A multi-model organ segmentation method based on abdominal ultrasound image
CN115147769A (zh) 一种基于红外视频的生理参数鲁棒性检测方法
CN113570579B (zh) 一种判断足踝异常旋转机制的图像检测识别方法
CN111046834B (zh) 一种基于自动学习分析的监控视频人物比例矫正方法
Yao et al. Arm gesture detection in a classroom environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210312