CN114550860B - 一种基于流程数据与智能网络模型的就医满意度评估方法 - Google Patents

一种基于流程数据与智能网络模型的就医满意度评估方法 Download PDF

Info

Publication number
CN114550860B
CN114550860B CN202210106339.4A CN202210106339A CN114550860B CN 114550860 B CN114550860 B CN 114550860B CN 202210106339 A CN202210106339 A CN 202210106339A CN 114550860 B CN114550860 B CN 114550860B
Authority
CN
China
Prior art keywords
data
hospitalizing
sample
training
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210106339.4A
Other languages
English (en)
Other versions
CN114550860A (zh
Inventor
王亚军
顾斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
First Medical Center of PLA General Hospital
Original Assignee
First Medical Center of PLA General Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by First Medical Center of PLA General Hospital filed Critical First Medical Center of PLA General Hospital
Priority to CN202210106339.4A priority Critical patent/CN114550860B/zh
Publication of CN114550860A publication Critical patent/CN114550860A/zh
Application granted granted Critical
Publication of CN114550860B publication Critical patent/CN114550860B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本发明公开了一种基于流程数据与智能网络模型的就医满意度评估方法,包括以下步骤:步骤一:神经网络学习模型训练;步骤二:采集就医流程关键节点的数据,并对其进行分;步骤三:就医状态评估。本发明利用医院信息化基础设施的各个节点采集进行评估所需的真实物理世界的客观数据,并对就医流程所包含的各类数据进行汇总、分类、评估,能够有效且客观的实现对患者就医满意度的评估,仅在建模样本训练时需要一定的患者手动输入,在模型建立完毕后,实际使用时并不需要用户手动输入,通过在就医流程的关键节点(如挂号、缴费等)捕捉患者的表情,由设计了专门的算法自主判断患者在当时的心理状态。

Description

一种基于流程数据与智能网络模型的就医满意度评估方法
技术领域
本发明属于大数据和人工智能技术领域,特别是涉及一种基于流程数据与智能网络模型的就医满意度评估方法。
背景技术
伴随着人工智能、大数据技术的快速发展,智慧算法在医院、医疗诊断方面取得了越来越广泛的应用,扮演了越来越重要的角色。其中患者就医状态是医患交流的重要环节,能够有效的评价诊疗的效果,从而提升医院医疗水平和服务品质。现有的测试评价系统大多通过用户评分和文字评论实现患者就医状态、满意度的采集和评估,评估结果高度依赖用户的主观看法与行为,存在评价不精准,评价不及时,评价不科学等问题,且给患者带来较大填写负担,影响患者就医过程。
现有技术中也提出了使用一些数据处理的方法进行采集和处理,但这些方法虽然采集了一些客观数据,但仍有一些数据需要患者人工参与,数据的客观性无法保证,即依然没有解决上述多个问题。
现有技术中也提出了使用神经网络或机器学习的方法处理数据,但通常这些模型都是使用通用神经网络模型,并未针对独特的数据进行优化,特别是没有恰当的衡量表征数据的维度,维度过大导致运算缓慢,过小又无法准确判断,从而导致评价的结果不准确,或模型过于复杂,使得整个系统占用资源较多。
伴随着大数据,人工智能技术的应用普及,以及中大型医院信息化建设的大发展,医院信息化基础设施逐渐完善,为实现新的就医状态评估方法与手段提供了可行性。
因此,目前急需一种适用于能够在真实使用时,通过客观数据即可对患者就医状态进行准确评估的、占资源较少、运算速度快的专用方法。
发明内容
为了克服上述问题,本发明提供了一种基于流程数据与智能网络模型的就医满意度评估方法。
本发明所采用的技术方案是:
一种基于流程数据与智能网络模型的就医满意度评估方法,包括以下步骤:
步骤一:神经网络学习模型训练:
步骤1.1:在就医流程的每个关键节点,通过两台摄像机分别拍摄患者面部的图像,即正面图像和侧面图像;其中一台摄像机采集到的图像标记为基准图像,另一台摄像机采集到的图像标记为参考图像;
步骤1.2:根据步骤1.1采集到关于不同患者的若干组图像,作为表情的训练样本,输入给到神经网络学习模型
Figure GDA0003905110920000021
中,并对该模型进行训练;
模型
Figure GDA0003905110920000022
包含一个输入层、五个隐藏层和一个输出层,隐藏层的第一层到第三层负责提取粗、细两个尺度上患者面部图像的卷积特征;隐藏层的第四层建立基准图像与参考图像的融合模型,将两个通道的图像数据映射到64维的特征向量上,用于抽取表情特征;隐藏层的第五层建立表情特征的全连接网络,用于对表情特征与心理状态的映射关系进行学习、建模;
其中,模型的激励函数为:
Figure GDA0003905110920000023
度量神经网络优化误差损失的代价函数为:
Figure GDA0003905110920000024
式中:y表示分类的真实值,
Figure GDA0003905110920000025
表示神经网络模型对输入进行分类的估计值;
步骤二:采集就医流程关键节点的数据,并对其进行分类:
采集的数据包括时序数据、表情特征数据、就诊数据三类;
时序数据Vt的采集,由医生确认或自助机自动生成相应流程节点完成的时间,并计算出时长间隔;
表情特征数据Ve的采集,将在关键节点采集到患者的面部图像输入训练完毕的神经网络模型
Figure GDA0003905110920000031
计算模型
Figure GDA0003905110920000032
隐藏层第五层的输出,记为表情特征数据;
就诊数据Vd的采集,由现有诊疗系统将就诊数据导入;
步骤三:就医状态评估:
步骤3.1:建立基于朴素的就医状态评估模型;
步骤3.2:使用就医状态评估模型进行评估;
在建立模型和评估前均对关键节点的数据进行归一化,具体方法如下:
对Vt包含的K-1个时序数据分量,设原分量为
Figure GDA0003905110920000033
则归一化后Vt′每个分量为:
Figure GDA0003905110920000034
对表情特征数据Ve的64个分量,设原分量分别为
Figure GDA0003905110920000035
则归一化后的向量Ve′的分量为:
Figure GDA0003905110920000036
对就诊数据Vd包括的多个就诊数据分量
Figure GDA0003905110920000037
保持不变。
进一步地,正面图像和侧面图像的观察夹角不大于预先设定的角度α。
更进一步地,α满足28°<α<47°。
其中,激励函数中,∈=2.7,δ=0.003。
其中,代价函数中θ=0.95。
其中,进行模型训练时,需要用户手动输入心理状态标签;但在实际进行测试评估时则不需要用户手动输入。
其中,一种基于流程数据与智能网络模型的就医满意度评估方法包括就医状态测试评估系统,所述就医状态测试评估系统包括摄像机、传输设备和处理设备。
进一步地,传输设备为有线传输设备或无线传输设备。
更进一步地,传输设备为网线、光纤、5G、Wi-Fi、蓝牙。
其中,关键节点位置包括医院门口、咨询台、挂号收费窗口、分诊台、就诊等候区、诊疗室和检测检验窗口。
本发明的发明点及技术效果:
1、利用医院信息化基础设施的各个节点采集进行评估所需的真实物理世界的客观数据,并对就医流程所包含的各类数据进行汇总、分类、评估,能够有效且客观的实现对患者就医满意度的评估,仅在建模样本训练时需要一定的患者手动输入,在模型建立完毕后,实际使用时并不需要用户手动输入。
2、通过在就医流程的关键节点(如挂号、缴费等)捕捉患者的表情,由设计了专门的算法自主判断患者在当时的心理状态;将上述心理状态作为满意度判别依据,建立满意度评价与评价主体心理状态的关联,提高就医状态测试评价的有效性;同时,设计了专门的神经网络模型结构(包括层数、连接、激励函数、代价函数等),使得该结构能够特别适合在医院环境下快速、准确判断患者表情特征;特别是打破一般神经网络模型将模型输出层结果直接用来作为最终结果,或进一步处理的中间变量的局限性,创造性地提出了利用输出层收敛,利用第五隐藏层输出数据来描述表情特征,使得对于患者表情的描述更加准确、全面。
3、创造性地提出了在神经网络基础上叠加基于朴素贝叶斯的评估模型,能够充分利用时序数据、表情特征数据、就诊数据相互结合,更加准确的评估。并且在输入模型之前,对各类数据针对其特点进行了专门的预处理,使得评价更加准确、快捷。
可以理解,以上发明点及效果仅为有限举例,在构建该方法过程中,本申请还进行了更多的专门细节设计,因此其所具有的发明点及技术效果以实施例记载为准。
附图说明
图1为本发明所述一种基于流程数据与智能网络模型的就医满意度评估方法的流程图。
具体实施方式
为了便于理解本发明,下文将结合具体的实施例对本发明作出更全面及细致地描述,但本发明的保护范围并不仅限于以下的具体实施例。
除非另有定义,下文中所使用的所有专业术语与本领域技术人员通常理解的含义一致。本文中所使用的专业术语只是为了描述具体实施例的目的,并不是旨在限制本发明的保护范围。
一种基于流程数据与智能网络模型的就医满意度评估方法,包括就医状态测试评估系统,就医状态测试评估系统包括摄像机、传输设备和处理设备。
其中,摄像机设置位置包括但不限于:医院门口、咨询台、挂号收费窗口、分诊台、就诊等候区、诊疗室、检测检验窗口等,用于采集患者的面部图像。
传输设备,用于连接处理设备和摄像机,以及连接处理设备和医院现有信息系统(例如叫号机、处方系统、取药系统、检验结果打印机、就诊报道机等)。将摄像机和医院现有信息系统数据传输至处理器。传输设备可以为有线的,例如网线、光纤;也可以是无线的,例如使用5G、wifi、蓝牙等。
处理设备用于接收摄像机和医院现有信息系统数据,并对其进行分析处理,具体步骤如下所述。
步骤一:通过患者表情的多角度采集和判别建立智能模型,指使用部署在就医流程关键节点所对应的物理场所的两台或更多摄像机,拍摄患者面部图像,并根据下述方法对拍摄到的图像进行处理,分析图像反映出来的面部表情特征,最终推断患者的心理状态分类。方法详细叙述如下。
步骤1.1:多角度的患者面部图像采集方法,在就医流程的每个关键节点,设置两台,拍摄患者面部图像。其中一台摄像机采集到的图像标记为基准图像,其它摄像机采集到的图像标记为参考图像,并且基准图像中包含患者的正面面部像,参考图像包含患者的侧面面部像,并且侧面观察角度不大于预先设定的角度α,作为优选值可取28°<α<47°。同一时间拍摄的一组基准图像和参考图像,作为一组表情图像输入给下一步骤。
步骤1.2:根据步骤1.2采集到关于不同患者的若干组图像,作为表情的训练样本,输入给到一神经网络学习模型
Figure GDA0003905110920000061
中,并对该模型进行训练。模型的输出为对应于输入图像的有限个心理状态标签(如愉悦、平静、忧伤、焦虑等),每一个心理状态标签对应于输出的一个维度,该维度取0表示没有检测到该类心理状态,取值为1表示检测到该类心理状态。心理状态标签的训练样本通过用户在手机或自助终端等设备上手工输入,作为样本的真实值。训练时,每组输出仅有一个维度取值为1,其它值取值为0。
上述神经网络学习模型
Figure GDA0003905110920000062
由输入层(即步骤1.1采集到的图像)、输出层(即心理状态的标签)和隐藏层组成,输入层、输出层、隐藏层的关系为:输入层在隐藏层之前,隐藏层在输出层之前,并且隐藏层中可以递归包含多个层。隐藏层的连接方式在下文给出,连接权重在完成对的模型
Figure GDA0003905110920000071
训练后确定。
本文中,神经网络模型
Figure GDA0003905110920000072
的每一层包含若干节点,每个节点对应一个标量数据,又称为神经元。某一层的一个节点与其前一层的某一个节点由一组运算函数建立映射关系,称为一条连接。相邻两层任意两个节点的连接并非必然存在,但任一层的任一个节点必须至少与其前一层的某一个节点存在连接;相邻层任意两个节点之间如果存在连接,那么连接是唯一的。
神经网络模型
Figure GDA0003905110920000073
的输入层节点定义为:
Figure GDA0003905110920000074
其中,b(u,v)为基准图像中坐标为(u,v)的像素取值,
Figure GDA0003905110920000075
为所有参考图像(一幅或多幅)在坐标(u,v)处的像素值的平均值。clannel代表图像类型,clannel取值为1或2,取1时,表示基准图像中的像素值,取2时,表示所有参考图像在某个位置的像素值的平均值。
隐藏层的第一层的连接方式定义如下:
Figure GDA0003905110920000076
式中,
Figure GDA0003905110920000077
表示以(u,v)为中心的卷积窗口,p,q表示卷积窗口中相对位置的整数坐标,在本文中,
Figure GDA0003905110920000078
的窗口大小为11*11,p、q的取值范围为-5到5。
Figure GDA0003905110920000079
表示输入层的基准图像或平均参考图像中坐标(u+p,v+q)处的节点,当clannel=1时,为基准图像中对应的节点,即b(u+p,v+q),当clannel=2时,为平均参考图像对应的节点,即
Figure GDA00039051109200000710
b0为线性偏置量。激励函数σ(x)为一非线性函数:
Figure GDA0003905110920000081
arctanx表示反正切三角函数,参数δ的作用是使函数在x=0点处产生一个不连续断点,有助于改善模型的分类效果。参数∈是控制变量,用于控制训练过程的收敛速度,优选∈=2.7,δ=0.003。
隐藏层的第二层的连接方式定义如下:
Figure GDA0003905110920000082
式中,max表示在以(4u,4v)为起始点的窗口范围内取所有像素的最大值,p、q表示窗口中相对位置的正整数坐标。在本文中max窗口大小为4*4;p、q取值范围为[0,1,2,3]。
Figure GDA0003905110920000083
表示第一个隐藏层中坐标为(4u+p,4v+q,clannel)的节点,clannel=1或clannel=2。b1为线性偏置量。σ(x)由式子(3)定义。根据式子(4)的定义,第二隐藏层的每一个节点与第一个隐藏层的4x4个节点相连,第二个隐藏层节点数为第一个隐藏层节点数的1/16。
隐藏层的第三层的连接方式定义如下:
Figure GDA0003905110920000084
式中,
Figure GDA0003905110920000085
表示以(u,v)为中心的卷积窗口,p,q表示卷积窗口中相对位置的整数坐标,在本文中,
Figure GDA0003905110920000086
的窗口大小为9*9,p、q的取值范围为-4到4。
Figure GDA0003905110920000087
表示隐藏层第二层中坐标(u+p,v+q,clannel)处的节点,clannel=1或clannel=2。b2为线性偏置量。σ(x)由式子(3)定义。
隐藏层的第一层到第三层负责提取粗、细两个尺度上患者面部图像的卷积特征。
隐藏层的第四层的连接方式定义如下:
Figure GDA0003905110920000091
式中,p,q为第三层隐藏层中节点坐标,
Figure GDA0003905110920000092
表示第三隐藏层中clannel=1和clannel=2时的节点,
Figure GDA0003905110920000093
表示第三个隐藏层的节点
Figure GDA0003905110920000094
与第五隐藏层节点
Figure GDA0003905110920000095
之间的连接权重,
Figure GDA0003905110920000096
表示第三个隐藏层的节点
Figure GDA0003905110920000097
与第五隐藏层节点
Figure GDA0003905110920000098
之间的连接权重。b3为线性偏置量。σ(x)由式子(3)定义。根据式子(6)可见,clannel=1与clannel=2时,对应位置的连接权重仅相差参数λ,此处0<λ<1控制基准图像与参考图像在模型中的比重,经过大量实验优选λ=1/3。
Figure GDA0003905110920000099
所对应的隐藏层第四层包含8*8共64个节点。
隐藏层的第四层建立基准图像与参考图像的融合模型,将两个通道的图像数据映射到64维的特征向量上,用于抽取表情特征。
隐藏层的第五层的连接方式定义如下:
Figure GDA00039051109200000910
式中,p,q为第四隐藏层中节点坐标,
Figure GDA00039051109200000911
表示第四隐藏层中的节点,
Figure GDA00039051109200000912
表示第四个隐藏层的节点
Figure GDA00039051109200000913
与第五隐藏层节点
Figure GDA00039051109200000914
之间的连接权重。b4为线性偏置量。σ(x)由式子(3)定义。隐藏层第五层同样包含8x8共64个节点。
隐藏层的第五层建立表情特征的全连接网络,用于对表情特征与心理状态的映射关系进行学习、建模。
神经网络输出层的节点连接方式定义为:
Figure GDA0003905110920000101
式(8)中,p,q为隐藏层第五层中节点坐标,
Figure GDA0003905110920000102
表示隐藏层第五层中的节点,
Figure GDA0003905110920000103
表示第五个隐藏层的节点
Figure GDA0003905110920000104
与输出层节点y的分量yu之间的连接权重。b5为线性偏置量。σ(x)由式子(3)定义。yu的每一个分量对应于一种心理状态。
采用参考文献(Goodfellow,Ian;Bengio,Yoshua;Courville,Aaron(2016)."6.5Back-Propagation and Other Differentiation Algorithms".Deep Learning.MITPress.pp.200–220.ISBN 9780262035613.)中方法对神经网络模型进行训练,确定式(2)-(8)中(除式子(3))的参数值w1、w3、w4、w5、w6、b0、b1、b2、b3、b4、b5,获得模型
Figure GDA0003905110920000105
首先,根据神经网络模型
Figure GDA0003905110920000106
的定义,由输入层经过各个隐藏层,到输出层,采用正向的流程计算给定输入层输入值时(即训练样本),输出层的输出值;并与输出层的真实值(训练样本的输出值)进行对比,得到一个差值。所有输出层节点的差值之和,称为代价函数。训练的目的和过程就是求取这个代价函数的极值,其含义是使模型对样本的预测误差达到最优。
其中,度量神经网络优化误差损失的代价函数定义如下:
Figure GDA0003905110920000107
根据式(9),y表示分类的真实值,
Figure GDA0003905110920000108
表示神经网络模型对输入进行分类的估计值,本文引入参数θ控制模型估计值
Figure GDA0003905110920000109
的偏离,有助于改善分类效果,经过大量实验作为优选,取θ=0.95。
步骤二:就医流程关键节点的数据采集与分类方法,根据数据的性质,对就医流程的关键节点(包括但不限于挂号、面诊、缴费、化验、取药等)采集到的数据进行分类,形成就医状态相关源数据库,用于对就医状态进行评估。
步骤2.1:根据数据的性质对采集到的数据进行分类,包括时序数据、表情特征数据、就诊数据三类。
时序数据,是指患者完成当前流程节点与完成首个流程节点之间所经过的时长,通常设定“挂号(取号)”为首个流程节点。
表情特征数据,指步骤一中使用神经网络模型对患者面部图像进行计算后采集到的表情特征,具体的,是指神经网络模型隐藏层的第五层,为一个64维向量。
就诊数据,指患者就诊时产生的数据,包括就诊的科室、病情诊断的结果、开药的种类等。就诊数据由有限维度的向量组成,维度数根据医院实际可获取的就诊数据确定。一种优选的采集就诊数据的方法如下:
假设待评价的科室有N1个,疾病种类有N2种,药品种类有N3种,检验结果包括N4项,每项检验结果又分为偏高、正常、偏低三类。则可根据就诊数据生成一个向量,其维度是N1+N2+N3+3*N4。对应于N1个科室,每个维度取值为0时,表示就诊流程不涉及该科室,取值为1时,表示就诊流程涉及该科室;对应于N2种疾病,每个维度取值为0时,表示未诊断出该种疾病,取值为1时,表示诊断出该种疾病;对应于N3种药品,每个维度取值为0时,表示未开具该类药品,取值为1时,表示开具了该种药品;对应于N4项检验结果,每个维度分别对应某项检验结果的一个分类,所以每一项检验结果对应于3个维度,每个维度取值为0时,表示该项检验结果不属于该维度所对应的分类,取值为1时,表示该项检验结果对应于当前维度所对应的分类。
可以理解,上述数据由医院的信息系统采集。例如涉及的科室,可由就诊报道机采集相关数据;疾病的种类,可由医生处方系统采集,由医生输入获得;药品的种类,可由药方取药系统采集相关数据;检验结果,可由检验结果打印机采集相关数据。此外,并不限于上述数据,例如还可以进一步细分疾病的种类(普通病、慢性病、危重病、急诊病等)步骤2.2根据步骤2.1的方法定义并归类数据,当步骤一神经网络模型
Figure GDA0003905110920000121
训练完毕后,可采集相应数据。
时序数据的采集,由医生确认或自助机自动生成相应流程节点完成的时间,并计算出时长间隔。
表情特征数据的采集,当在关键节点根据步骤一的方法采集到患者的面部图像时,输入训练完毕的神经网络模型
Figure GDA0003905110920000122
依照式子(1)-(7)计算隐藏层第五层的输出,记为表情特征数据。
就诊数据的采集,由医生或医院操作人员在相应关键节点录入系统,或由现有系统将数据导入本文所述系统,系统根据定义自动生成就诊数据的向量。
步骤3:基于就医流程关键节点数据的就诊状态评估方法,根据步骤二的方法,采集并获得时序数据、表情特征数据、就诊数据,并根据这些数据对患者就医状态进行评估。
根据步骤二的方法,采集并获得时序数据、表情特征数据、就诊数据,并将这些数据整理成向量的表达形式,向量的各维度定义如下:
V=(Vt,Ve,Vd)
其中Vt是时序数据,Ve是表情特征数据,Vd是就诊数据。
时序数据Vt,由若干时长间隔分量组成,假设医院完整就医流程关键节点有K个,除第一个关键节点(一般是挂号)外,其余所有节点与首个节点均有一个非负的时间差,即为该节点对应的时长间隔分量。如果在一次就医流程中并没有经过某个节点,称该节点在流程中不存在,时长间隔分量取值为0。因此时序数据Vt由K-1个分量组成。
表情特征数据Ve,指根据步骤一中方法获得的神经网络模型
Figure GDA0003905110920000131
隐藏层的第五层,为一个64维向量。
就诊数据Vd,根据步骤二,其维度是N1+N2+N3+3*N4
可知向量V的维度为:K+N1+N2+N3+3*N4+63。
采用步骤3.1-步骤3.5的方法,实现基于就医流程关键节点数据的就医状态评估。
(1)就医状态评估模型
步骤3.1:预先根据患者就医流程获取若干向量V的样本,作为训练样本。此处采集的向量V的训练样本与步骤一中表情训练样本的采集过程是独立的。
步骤3.2:对于步骤3.1采集的每一组训练样本,根据下面方法进行归一化:
对Vt包含的K-1个时序数据分量,设原分量为
Figure GDA0003905110920000132
则归一化后Vt′每个分量为:
Figure GDA0003905110920000133
采用指数归一化,有助于在将值域映射到(0,1]之间同时,并抑制样本中的极端值,降低噪声干扰。
对表情特征数据Ve的64个分量,设原分量分别为
Figure GDA0003905110920000134
则归一化后的向量Ve′的分量为:
Figure GDA0003905110920000135
采用式(9)的方法进行归一化,有助于在将值域映射到(0,1]之间同时,保持原分量的概率分布,提高模型的估计准确度。
上式(9)、式(10)中,exp表示自然指数e≈2.7183.
对就诊数据Vd包括的N1+N2+N3+3*N4个就诊数据分量
Figure GDA0003905110920000141
Figure GDA0003905110920000142
保持不变。
步骤3.3:根据步骤3.2获得的归一化的训练样本
V′=(Vt′,Ve′,Vd)
假设其每一个分量都是互相独立的,可得:
P(V′)=P(Vt′,Ve′,Vd)=P(Vt′)P(Ve′)P(Vd)
进一步的,可得:
Figure GDA0003905110920000143
Figure GDA0003905110920000144
Figure GDA0003905110920000145
综合式(11)-(14),可得:
Figure GDA0003905110920000146
其中,vm′,m=1,2,…,K+63组成对应的样本空间M,用来联合指代式子(12)中样本空间Vt′的分量
Figure GDA0003905110920000147
与(13)中样本空间Ve′的分量
Figure GDA0003905110920000148
这样改写可以让式子的形式更整齐。样本空间N即等于就诊数据的样本空间Vd
Figure GDA0003905110920000149
Figure GDA00039051109200001410
根据步骤2.1的定义,式(17)关于样本空间N的N1+N2+N3+3*N4个独立分量,其取值或者为0,或者为1,采取下面步骤去除训练样本中的噪声样本。
对于采集到的所有就医流程的训练样本,如果其属于就诊数据的某个独立分量
Figure GDA0003905110920000151
的边缘概率满足:
Figure GDA0003905110920000152
或者:
Figure GDA0003905110920000153
则去除向量的分量
Figure GDA0003905110920000154
上述二式中γ1>3、γ2>0.5,为阈值变量,经过大量实验提出一种优选,取γ1=50,γ2=20。式子(18)与(19)用于去除样本集中就诊数据分量可能带来的噪声,提高评估的鲁棒性。
经过上述去除噪声样本后,时序数据的样本空间Vt′与表情特征数据的样本空间Ve′保持不变,就诊数据的样本空间变为:
Figure GDA0003905110920000155
其中N’表示将样本空间N(即就诊数据的样本空间)根据(18)(19)去除部分分量后,余下的分量组成的样本空间,其维度(即分量的个数)为N*,并且N*≤N1+N2+N3+3*N4
相应的,P(M)保持不变,
Figure GDA0003905110920000156
其中,P(N′)表示样本空间N’的分布。并定义:
V″=(Vt′,Ve′,Vd′)
因此V″表示由样本空间Vt′、样本空间Ve′与样本空间Vd′联合组成的空间。
步骤3.4:根据步骤3.3处理后的训练样本集合对就医流程样本与患者就医状态的关系进行训练,假设就医状态c分为满意(取值为1)和不满意(取值为0)两种分类,训练的过程包括下列步骤。
步骤3.4.1:求取训练样本集合中标记为满意的样本与标记为不满意的样本的概率分布,即P(c=1)与P(c=0)。根据就医流程的训练样本集合中每个训练样本的标注(满意或不满意)直接计算即可。
步骤3.4.2:根据V”的定义,并且样本空间M为样本空间Vt′与Ve′的联合,可知:
P(V″)=P(M)P(N′)…(21)
P(V″)表示样本空间M和样本空间N’的联合分布。
每个分量v″的边缘概率。当训练样本集合确定时,可直接计算分量v″的边缘概率P(v″),其中:
Figure GDA0003905110920000161
步骤3.4.3:当训练样本集合确定时,可分别计算概率分布P(v″|c=0)、P(v″|c=1)的均值和方差,令其分别为:
Figure GDA0003905110920000162
其中,μ(v″|c=0)表示就医状态取值为0时,分量v″的所有训练样本的均值,σ2(v″|c=0)表示就医状态取值为0时,分量v″的所有训练样本的方差;μ(v″|c=1)表示就医状态取值为1时,分量v″的所有训练样本的均值,σ2(v″|c=1)表示就医状态取值为1时,分量v″的所有训练样本的方差。
(2)使用就医状态评估模型进行评估
步骤3.5:根据步骤3.4所得的训练参数(即模型具体结构),对实际的每次就医样本进行就医状态分类,即为就医状态的评估。实际的每次就医样本称为实际样本,该实际样本是通过步骤二处理各个患者的数据获得的。评估步骤如下:
步骤3.5.1:当获取到一个新的实际样本时,将其按照步骤3.2、步骤3.3进行归一化并去除不需要的维度。
步骤3.5.2将步骤3.5.1获得的优化后的测试样本代入分类决策函数:
Figure GDA0003905110920000171
其中,X表示优化后的测试样本,其向量形式为V″;c表示就医状态,取值为0或1;根据条件概率的定义与贝叶斯公式,可得:
Figure GDA0003905110920000172
对于给定的优化后的测试样本X,P(X)为常数,其值可根据步骤3.4.2求出。因此,求取分类决策函数(23)的结果,仅需比较分子P(X|c=0)P(c=0)与P(X|c=1)P(c=1)即可。
根据步骤3.4.1,可分别计算P(c=0)、P(c=1)。
根据步骤3.4.3,设条件概率服从高斯分布,有:
Figure GDA0003905110920000173
上式中,x表示测试样本X的任一分量。根据P(X|c=0)P(c=0)与P(X|c=1)P(c=1)的计算结果,可知f(X)为0(表示不满意)或为1(表示满意)。
为验证该模型的效果,进行了3407例就医患者的追踪实验,下表给出了就医状态评估方法与现有评估方法的准确率(对真实满意度判断准确的比率)与误报率(对真实满意度为满意,但误判为不满意的判断比率)对比值,可见本文提出的模型能够更加准确的对患者就医的满意度进行评估,特别是显著降低了误报的几率。
方法 准确率(%,越高越好) 误报率(%,越低越好)
填表统计法 75.3% 10.1%
现有神经网络方法 63.4% 20.8%
本方案 91.1% 3.5%
可以理解,上述两个模型连用是发明点所在。但事实上,上述两个模型是可以相互独立的。例如,表情特征数据提取也可以使用现有神经网络模型进行提取,只是效果并不如本申请两个模型相互配合更佳。
可以理解,除了上述内容,还包括一些常规结构和常规方法,由于这些内容都是是本领域技术人员所公知的,无需赘述。但这并不意味着本发明不存在这些结构和方法。也不意味着没有文字记载这些结构和方法,本领域技术人员就无法实施。
本领域技术人员应认识到,虽然本文已详尽示出和描述了本发明的多个示例性实施例,但是,在不脱离本发明精神和范围的情况下,仍可根据本发明公开的内容直接确定或推导出符合本发明原理的许多其他变型或修改。因此,本发明的范围应被理解和认定为覆盖了所有这些其他变型或修改。

Claims (10)

1.一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:包括以下步骤:
步骤一:神经网络学习模型训练:
步骤1.1:在就医流程的每个关键节点,通过两台摄像机分别拍摄患者面部的图像,即正面图像和侧面图像;其中一台摄像机采集到的图像标记为基准图像,另一台摄像机采集到的图像标记为参考图像,并且基准图像中包含患者的正面面部像,参考图像包含患者的侧面面部像,同一时间拍摄的一组基准图像和参考图像,作为一组表情图像输入给下一步骤;
步骤1.2:根据步骤1.1采集到关于不同患者的若干组图像,作为表情的训练样本,输入给到神经网络学习模型
Figure FDA0003911145510000011
中,并对该模型进行训练;
模型
Figure FDA0003911145510000012
包含一个输入层、五个隐藏层和一个输出层,隐藏层的第一层到第三层负责提取粗、细两个尺度上患者面部图像的卷积特征,输入层即步骤1.1采集到的图像、输出层即心理状态的标签,输入层、输出层、隐藏层的关系为:输入层在隐藏层之前,隐藏层在输出层之前;隐藏层的第四层建立基准图像与参考图像的融合模型,将两个通道的图像数据映射到64维的特征向量上,用于抽取表情特征;隐藏层的第五层建立表情特征的全连接网络,用于对表情特征与心理状态的映射关系进行学习、建模;
其中,模型的激励函数为:
Figure FDA0003911145510000013
度量神经网络优化误差损失的代价函数为:
Figure FDA0003911145510000014
式中:y表示分类的真实值,
Figure FDA0003911145510000015
表示神经网络模型对输入进行分类的估计值,引入参数θ控制模型估计值
Figure FDA0003911145510000021
的偏离,取θ=0.95;
步骤二:采集就医流程关键节点的数据,并对其进行分类:
步骤2.1:根据数据的性质对采集到的数据进行分类,采集的数据包括时序数据、表情特征数据、就诊数据三类;时序数据,是指患者完成当前流程节点与完成首个流程节点之间所经过的时长;表情特征数据,指步骤一中使用神经网络模型对患者面部图像进行计算后采集到的表情特征,即神经网络模型隐藏层的第五层,为一个64维向量;就诊数据,指患者就诊时产生的数据,就诊数据由有限维度的向量组成,维度数根据医院实际可获取的就诊数据确定;步骤2.2根据步骤2.1的方法定义并归类数据,当步骤一神经网络模型
Figure FDA0003911145510000022
训练完毕后,可采集相应数据
时序数据Vt的采集,由医生确认或自助机自动生成相应流程节点完成的时间,并计算出时长间隔;
表情特征数据Ve的采集,将在关键节点采集到患者的面部图像输入训练完毕的神经网络模型
Figure FDA0003911145510000023
计算模型
Figure FDA0003911145510000024
隐藏层第五层的输出,记为表情特征数据;
就诊数据Vd的采集,由现有诊疗系统将就诊数据导入;
步骤三:就医状态评估:
步骤3.1:建立基于朴素的就医状态评估模型;
步骤3.2:使用就医状态评估模型进行评估;
在建立模型和评估前均对关键节点的数据进行归一化,具体方法如下:
对Vt包含的K-1个时序数据分量,设原分量为
Figure FDA0003911145510000025
则归一化后Vt′每个分量为:
Figure FDA0003911145510000026
对表情特征数据Ve的64个分量,设原分量分别为
Figure FDA0003911145510000027
则归一化后的向量Ve′的分量为:
Figure FDA0003911145510000031
对就诊数据Vd包括的多个就诊数据分量
Figure FDA0003911145510000032
保持不变;
步骤3.3:根据步骤3.2获得的归一化的训练样本
V′=(Vt′,Ve′,Vd)
假设其每一个分量都是互相独立的,可得:
P(V′)=P(Vt′,Ve′,Vd)=P(Vt′)P(Ve′)P(Vd)
进一步的,可得:
Figure FDA0003911145510000033
Figure FDA0003911145510000034
Figure FDA0003911145510000035
综合式(11)-(14),可得:
Figure FDA0003911145510000036
其中,vm′,m=1,2,…,K+63组成对应的样本空间M,用来联合指代式子(12)中样本空间Vt′的分量
Figure FDA0003911145510000037
与(13)中样本空间Ve′的分量
Figure FDA0003911145510000038
样本空间N即等于就诊数据的样本空间Vd
Figure FDA0003911145510000039
Figure FDA00039111455100000310
根据步骤2.1的定义,式(17)关于样本空间N的N1+N2+N3+3*N4个独立分量,其取值或者为0,或者为1,采取下面步骤去除训练样本中的噪声样本;
对于采集到的所有就医流程的训练样本,如果其属于就诊数据的某个独立分量
Figure FDA0003911145510000041
的边缘概率满足:
Figure FDA0003911145510000042
或者:
Figure FDA0003911145510000043
则去除向量的分量
Figure FDA0003911145510000044
上述二式中γ1>3、γ2>0.5,为阈值变量,取γ1=50,γ2=20;式子(18)与(19)用于去除样本集中就诊数据分量可能带来的噪声,提高评估的鲁棒性;
经过上述去除噪声样本后,时序数据的样本空间Vt′与表情特征数据的样本空间Ve′保持不变,就诊数据的样本空间变为:
Figure FDA0003911145510000045
其中N’表示将样本空间N根据(18)(19)去除部分分量后,余下的分量组成的样本空间,其维度为N*,并且N*≤N1+N2+N3+3*N4
相应的,P(M)保持不变,
Figure FDA0003911145510000046
其中,P(N′)表示样本空间N’的分布;并定义:
V″=(Vt′,Ve′,Vd′)
因此V″表示由样本空间Vt′、样本空间Ve′与样本空间Vd′联合组成的空间;
步骤3.4:根据步骤3.3处理后的训练样本集合对就医流程样本与患者就医状态的关系进行训练,假设就医状态c分为满意和不满意两种分类,满意取值为1,不满意取值为0;训练的过程包括下列步骤;
步骤3.4.1:求取训练样本集合中标记为满意的样本与标记为不满意的样本的概率分布,即P(c=1)与P(c=0);根据就医流程的训练样本集合中每个训练样本的标注直接计算即可,每个训练样本的标注为满意或不满意;
步骤3.4.2:根据V”的定义,并且样本空间M为样本空间Vt′与Ve′的联合,可知:
P(V″)=P(M)P(N′)…(21)
P(V″)表示样本空间M和样本空间N’的联合分布;;
每个分量v″的边缘概率;当训练样本集合确定时,可直接计算分量v″的边缘概率P(v″),其中:
Figure FDA0003911145510000051
步骤3.4.3:当训练样本集合确定时,可分别计算概率分布P(v″|c=0)、P(v″|c=1)的均值和方差,令其分别为:
Figure FDA0003911145510000052
其中,μ(v″|c=0)表示就医状态取值为0时,分量v″的所有训练样本的均值,σ2(v″|c=0)表示就医状态取值为0时,分量v″的所有训练样本的方差;μ(v″|c=1)表示就医状态取值为1时,分量v″的所有训练样本的均值,σ2(v″|c=1)表示就医状态取值为1时,分量v″的所有训练样本的方差;
步骤3.5:根据步骤3.4所得的训练参数,对实际的每次就医样本进行就医状态分类,即为就医状态的评估;实际的每次就医样本称为实际样本,该实际样本是通过步骤二处理各个患者的数据获得的;评估步骤如下:
步骤3.5.1:当获取到一个新的实际样本时,将其按照步骤3.2、步骤3.3进行归一化并去除不需要的维度;
步骤3.5.2将步骤3.5.1获得的优化后的测试样本代入分类决策函数:
Figure FDA0003911145510000061
其中,X表示优化后的测试样本,其向量形式为V″;c表示就医状态,取值为0或1;根据条件概率的定义与贝叶斯公式,可得:
Figure FDA0003911145510000062
对于给定的优化后的测试样本X,P(X)为常数,其值可根据步骤3.4.2求出;因此,求取分类决策函数(23)的结果,仅需比较分子P(X|c=0)P(c=0)与P(X|c=1)P(c=1)即可。
2.根据权利要求1所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:所述的正面图像和侧面图像的观察夹角不大于预先设定的角度α。
3.根据权利要求1所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:所述的激励函数中,∈=2.7,δ=0.003。
4.根据权利要求1所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:所述的代价函数中θ=0.95。
5.根据权利要求1所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:进行模型训练时,需要用户手动输入心理状态标签;但在实际进行测试评估时则不需要用户手动输入。
6.根据权利要求1所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:包括就医状态测试评估系统,所述就医状态测试评估系统包括摄像机、传输设备和处理设备;
摄像机设置位置在就医关键节点位置,用于采集患者的面部图像;
传输设备用于连接处理设备和摄像机以及连接处理设备和医院现有信息系统,用于将摄像机和医院现有信息系统数据传输至处理设备;
处理设备,用于接收摄像机和医院现有信息系统数据并对其按照就医满意度评估方法进行分析处理。
7.根据权利要求6所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:所述的传输设备为有线传输设备或无线传输设备。
8.根据权利要求7所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:所述的传输设备为网线、光纤、5G、Wi-Fi、蓝牙。
9.根据权利要求1或6所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:所述的关键节点位置包括医院门口、咨询台、挂号收费窗口、分诊台、就诊等候区、诊疗室和检测检验窗口。
10.根据权利要求2所述的一种基于流程数据与智能网络模型的就医满意度评估方法,其特征在于:所述的α满足28°<α<47°。
CN202210106339.4A 2022-01-28 2022-01-28 一种基于流程数据与智能网络模型的就医满意度评估方法 Active CN114550860B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210106339.4A CN114550860B (zh) 2022-01-28 2022-01-28 一种基于流程数据与智能网络模型的就医满意度评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210106339.4A CN114550860B (zh) 2022-01-28 2022-01-28 一种基于流程数据与智能网络模型的就医满意度评估方法

Publications (2)

Publication Number Publication Date
CN114550860A CN114550860A (zh) 2022-05-27
CN114550860B true CN114550860B (zh) 2023-02-03

Family

ID=81674028

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210106339.4A Active CN114550860B (zh) 2022-01-28 2022-01-28 一种基于流程数据与智能网络模型的就医满意度评估方法

Country Status (1)

Country Link
CN (1) CN114550860B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109222914A (zh) * 2018-11-06 2019-01-18 北京三医智慧科技有限公司 基于深度学习与多光谱成像技术的中医面诊信息采集与智能化处理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7285589B2 (ja) * 2018-11-30 2023-06-02 國立成功大學 対話型健康状態評価方法およびそのシステム
US20200302296A1 (en) * 2019-03-21 2020-09-24 D. Douglas Miller Systems and method for optimizing educational outcomes using artificial intelligence
CN110507335B (zh) * 2019-08-23 2021-01-01 山东大学 基于多模态信息的服刑人员心理健康状态评估方法及系统
CN113409943A (zh) * 2021-06-22 2021-09-17 浙江工业大学 一种基于bp神经网络的心理健康智能筛查系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109222914A (zh) * 2018-11-06 2019-01-18 北京三医智慧科技有限公司 基于深度学习与多光谱成像技术的中医面诊信息采集与智能化处理方法

Also Published As

Publication number Publication date
CN114550860A (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
CN110390351B (zh) 一种基于深度学习的致痫灶三维自动定位系统
US11842556B2 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
JP7058373B2 (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
KR101977174B1 (ko) 영상 분석 방법, 장치 및 컴퓨터 프로그램
CN107665492B (zh) 基于深度网络的结直肠全景数字病理图像组织分割方法
US8831327B2 (en) Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
CN107464250A (zh) 基于三维mri图像的乳腺肿瘤自动分割方法
KR102045223B1 (ko) 골 연령 분석 방법, 장치 및 컴퓨터 프로그램
WO2020148992A1 (ja) モデル生成装置、モデル生成方法、モデル生成プログラム、モデル生成システム、検査システム、及び監視システム
CN110472581A (zh) 一种基于深度学习的细胞图像分析方法
Laves et al. Quantifying the uncertainty of deep learning-based computer-aided diagnosis for patient safety
Shamrat et al. Analysing most efficient deep learning model to detect COVID-19 from computer tomography images
WO2021102844A1 (zh) 处理图像的方法、装置及系统
CN115210755A (zh) 解决训练数据中遗漏注释的类别不同损失函数
CN114550860B (zh) 一种基于流程数据与智能网络模型的就医满意度评估方法
CN106682604B (zh) 一种基于深度学习的模糊图像检测方法
CN117338234A (zh) 一种屈光度与视力联合检测方法
CN112634221A (zh) 基于图像和深度的角膜层次识别及病变定位方法和系统
CN116363104A (zh) 一种具有影像医学用自动诊断设备及系统
CN111640097A (zh) 皮肤镜图像识别方法及设备
WO2022209299A1 (ja) 情報処理システム、生体試料処理装置及びプログラム
US20230268078A1 (en) Method and system for generating a visual representation
CN113553991A (zh) 一种基于深度学习的舌象识别方法
CN112086193A (zh) 一种基于物联网的人脸识别健康预测系统及方法
JP2021174201A (ja) プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant