CN113724695B - 基于人工智能的电子病历生成方法、装置、设备及介质 - Google Patents

基于人工智能的电子病历生成方法、装置、设备及介质 Download PDF

Info

Publication number
CN113724695B
CN113724695B CN202111003719.7A CN202111003719A CN113724695B CN 113724695 B CN113724695 B CN 113724695B CN 202111003719 A CN202111003719 A CN 202111003719A CN 113724695 B CN113724695 B CN 113724695B
Authority
CN
China
Prior art keywords
medical record
voice
text
result
doctor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111003719.7A
Other languages
English (en)
Other versions
CN113724695A (zh
Inventor
孙耀辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Ping An Smart Healthcare Technology Co ltd
Original Assignee
Shenzhen Ping An Smart Healthcare Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Ping An Smart Healthcare Technology Co ltd filed Critical Shenzhen Ping An Smart Healthcare Technology Co ltd
Priority to CN202111003719.7A priority Critical patent/CN113724695B/zh
Publication of CN113724695A publication Critical patent/CN113724695A/zh
Application granted granted Critical
Publication of CN113724695B publication Critical patent/CN113724695B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本发明涉及人工智能技术领域,本发明公开了一种基于人工智能的电子病历生成方法、装置、设备及介质,所述方法包括:通过获取病历生成请求中的问诊对话语音、患者信息和医生标识;通过语音角色分割和语音识别,得到对话文本;进行关键症状识别,获得关注文本;通过主诉特征提取,并根据提取的主诉特征识别出主诉结果,以及根据患者信息,进行病史识别及核验,得到现病史结果和既往史结果;通过病历模板生成模型对主诉结果、现病史结果和既往史结果进行病历生成,得到电子病历。因此,本发明实现了快速地、准确地基于医生定制化的病历模板自动生成患者的电子病历,提高了医生看诊效率。本发明适用于人工智能领域,可进一步推动智慧医疗的建设。

Description

基于人工智能的电子病历生成方法、装置、设备及介质
技术领域
本发明涉及人工智能的模型构建技术领域,尤其涉及一种基于人工智能的电子病历生成方法、装置、设备及介质。
背景技术
病历,是医生对患者进行检查、诊断、治疗等医疗活动过程的记录。病历既是临床实践工作的总结,又是探索疾病规律及处理医疗纠纷的法律依据。病历对于医疗、预防、教学、科研、医院管理等都有重要的作用。
但是,目前患者的病历多是纸质病历,由医生手动书写,病历质量依赖于医生经验,病历书写多存在用词不统一、不规范等问题,同时,医生的工作效率和工作质量也较低。
发明内容
本发明提供一种基于人工智能的电子病历生成方法、装置、计算机设备及存储介质,实现了快速地、准确地基于医生定制化的病历模板自动生成切合患者的电子病历,减少了医生手动输入的工作量,提高了医生看诊效率,以及提高了病历的准确性和及时性。
一种基于人工智能的电子病历生成方法,包括:
接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识;
对所述问诊对话语音进行语音角色分割和语音识别,得到对话文本;
对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本;
对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果;
获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历。
一种基于人工智能的电子病历生成装置,包括:
接收模块,用于接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识;
第一识别模块,用于对所述问诊对话语音进行语音角色分割和语音识别,得到对话文本;
第二识别模块,用于对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本;
提取模块,用于对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果;
生成模块,用于获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于人工智能的电子病历生成方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于人工智能的电子病历生成方法的步骤。
本发明提供的基于人工智能的电子病历生成方法、装置、计算机设备及存储介质,该方法通过接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识;对所述问诊对话语音进行语音角色分割和语音识别,得到对话文本;对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本;对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果;获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到电子病历,如此,能够运用语音角色分割和语音识别,以及关键症状识别,自动识别出关注文本,并通过主诉特征的提取,自动识别出关注文本所对应的主诉结果,通过相应的病历模板生成模型自动生成电子病历,实现了快速地、准确地基于医生定制化的病历模板自动生成切合患者的电子病历,减少了医生手动输入的工作量,提高了医生看诊效率,以及提高了病历的准确性和及时性,提升了患者的体验满意度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于人工智能的电子病历生成方法的应用环境示意图;
图2是本发明一实施例中基于人工智能的电子病历生成方法的流程图;
图3是本发明一实施例中基于人工智能的电子病历生成方法的步骤S20的流程图;
图4是本发明一实施例中基于人工智能的电子病历生成方法的步骤S30的流程图;
图5是本发明一实施例中基于人工智能的电子病历生成方法的步骤S50的流程图;
图6是本发明另一实施例中基于人工智能的电子病历生成方法的步骤S50的流程图;
图7是本发明一实施例中基于人工智能的电子病历生成装置的原理框图;
图8是本发明一实施例中计算机设备的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的基于人工智能的电子病历生成方法,可应用在如图1的应用环境中,其中,客户端(计算机设备或终端)通过网络与服务器进行通信。其中,客户端(计算机设备或终端)包括但不限于为各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
在一实施例中,如图2所示,提供一种基于人工智能的电子病历生成方法,其技术方案主要包括以下步骤S10-S50:
S10,接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识。
可理解地,在患者问诊过程中,通过医生在终端的应用程序软件中触发“录音”按钮向终端输入创建与该患者对应的就诊窗口,并开始采集录入医生与该患者之间对话的语音,在对话完毕后,通过医生在该应用程序软件中触发“停止”以结束采集录入语音,从而将采集到的语音记录为与该患者对应的所述问诊对话语音,以及根据所述问诊对话语音、所述患者信息和所述医生标识,自动触发所述病历生成请求,所述病历生成请求包括所述问诊对话语音、所述患者信息和所述医生标识,所述医生标识为该医生在所述应用程序软件中经过认证并赋予的唯一标识,所述患者信息为在病人数据库中与所述患者相关的基础信息,例如:姓名、性别、年龄、历史就诊信息等信息,所述患者信息包括历史就诊信息,所述历史就诊信息为创建与所述患者对应的患者标识开始记录的所有历史就诊的相关信息。
进一步,该应用程序软件还包含“暂停”按钮、“继续”按钮和“删除”按钮,该“暂停”按钮用于触发终端暂停语音的采集,该“继续”按钮用于触发终端继续采集语音,该“删除”按钮用于触发终端结束本次语音的采集并删除当前录入的语音。
S20,对所述问诊对话语音进行语音角色分割和语音识别,得到对话文本。
可理解地,对所述问诊对话语音进行分段处理,得到多个语音片段,所述语音角色分割的过程为对每个所述语音片段进行基于与所述医生标识对应的音频样本进行匹配,从而区分出各个语音片段所对应的角色的过程,其中,角色包括医生和患者,所述语音识别的过程为对每个所述语音片段进行语音转换成文本的过程,所述语音识别可以采用自动语音识别技术(Automatic Speech Recognition,ASR,是一种将人的语音转换为文本的技术)进行转换,也可以通过基于蒸馏学习的TinyBert的语音识别模型进行识别,根据识别出的各语音片段的角色,对语音识别输出的各语音片段所对应的文本进行标记,从而得到所述对话文本。
在一实施例中,如图3所示,所述步骤S20中,即所述对所述问诊对话语音进行语音角色分割和语音识别,得到对话文本,包括:
S201,对所述问诊对话语音进行分段处理,得到多个语音片段。
可理解地,所述分段处理为运用BIC算法检测所述问诊对话语音中的分割点,并运用VAD(Voice Activity Detection)方法对各个分割点进行之间的语音进行过滤,得到多个所述语音片段的过程,所述VAD方法为对每个两分割点之间的语音进行VAD检测,若VAD检测有语音端点,则不做处理;若VAD检测无语音端点,则剔除该两分割点之间的语音,通过所述分段处理能够划分出多个有人声的语音片段,将间隔的无声部分去除,只保留有用的语音片段。
S202,获取与所述医生标识对应的音频样本,通过角色识别模型比对各所述语音片段和所述音频样本,得到所述音频样本与各所述语音片段的相似度,并将大于或者等于预设相似度阈值的所述相似度所对应的所述语音片段标记为医生角色,将剩余的所述语音片段标记为患者角色。
可理解地,所述音频样本为历史采集到的与各医生标识一一对应的音频文件,所述音频样本可以为各医生标识所对应的医生发出的固定内容的声音所采集的音频文件,所述角色识别模型为训练完成的用于识别输入的音频片段是否为与输入的音频样本相似,通过计算两者之间的相似度,并根据相似度判断输入的音频片段是否为医生发声还是患者发声的模型,通过所述角色识别模型分别提取所述语音片段和所述音频样本的声纹特征,比对提取的所述语音片段的声纹特征和提取的所述音频样本的声纹特征,得到所述音频样本与所述语音片段的相似度,从而能够比对出所述音频样本与各所述语音片段的相似度,将大于或者等于所述预设相似度阈值的所述相似度所对应的所述语音片段标记为医生角色,说明大于或者等于所述预设相似度阈值的所述相似度所对应的所述语音片段为医生发出声音的片段,可以将小于所述预设相似度阈值的所述相似度所对应的所述语音片段标记为患者角色,说明小于所述预设相似度阈值的所述相似度所对应的所述语音片段为患者发出声音的片段,也可以将剩余未标记的所述语音片段标记为患者角色。
其中,所述声纹特征为与人发出的声波频谱相关的特征,所述预设相似度阈值为预设的符合相似要求的阈值,比如:92%、95%等等。
S203,通过语音识别模型对各所述语音片段进行频域特征提取,以及根据提取的频域特征进行文字预测,得到与各所述语音片段对应的段落文本。
可理解地,所述语音识别模型为训练完成的用于提取输入的语音片段的频域特征,并对提取的频域特征进行文字预测出语音片段中的每一个字的模型,所述语音识别模型可以为运用蒸馏学习方法,训练老师网络和学生网络提取频域特征及文字预测,并通过训练完成的学生网络对输入的语音片段进行识别出文本的模型,所述语音识别模型也可以为采用自动语音识别技术(Automatic Speech Recognition,ASR,是一种将人的语音转换为文本的技术)训练完成的文本转换的模型。
其中,所述频域特征为按频率观察的信号特征,也即与频域特征参数相关的特征,比如频域参数包括重心频率、平均频率、均方根频率以及频率标准差等等,所述文字预测的过程为对提取的频域特征进行掩蔽预测编码处理以及微调文字解码,以及对微调文字解码后的所有所述掩蔽序列进行基于蒸馏学习的TinyBert的学生网络的预测,从而预测出文本内容的过程,从而得到与各所述语音片段对应的段落文本,所述掩蔽预测编码也称为MPC(Masked Predictive Coding),是来对基于机器学习的Transformer的模型进行预测编码,也即每个所述掩蔽序列15%的标记会被随机掩蔽,选出掩蔽帧,又在选出的掩蔽帧中按80%的帧以零向量来表示,10%的掩蔽帧使用随机的其它帧的信息来表示,而其余10%的掩蔽帧不做任何变化的编码过程,所述基于蒸馏学习的TinyBert的学生网络为从所述语音识别模型中的基于Bert的老师网络中蒸馏学习获得,所述蒸馏学习方法为迁移学习对应层的参数,通过采用预先训练好的复杂模型(Teacher model,老师网络)的输出作为监督信号去训练一个简单模型(Student model,学生网络),例如:学生网络采用隔N层蒸馏的方式,即间隔预设的N层进行标识出所述蒸馏层的过程,举个例子,老师网络一共有12层,若是设置学生网络为4层,就是每隔3层计算一个transformer loss,映射函数g(m)=3×m,m为学生网络中涉及编码的层数,具体对应如下:学生网络的第1层transformer对应老师网络的第3层,学生网络的第2层对应老师网络的第6层,学生网络的第3层对应老师网络的第9层,学生网络的第4层对应老师网络的第12层。
在一实施例中,所述步骤S203之前,即所述所述通过语音识别模型对各所述语音片段进行频域特征提取之前,包括:
获取语音样本集;所述语音样本集包括多个语音样本。
可理解地,所述语音样本集为所有所述语音样本的集合,所述语音样本为历史收集的音频文件,所述语音样本可以为预设时长的音频文件,可以将一段音频文件按照预设时长进行分割从而得到语音样本。
将所述语音样本输入含有初始参数的初始识别模型。
可理解地,所述初始识别模型包含有所述初始参数,所述初始参数为所述初始识别模型中各个层级的参数,所述初始识别模型包括老师网络和学生网络,所述初始参数包括与所述老师网络对应的老师参数和与所述学生网络对应的学生参数。
通过所述初始识别模型对所述语音样本进行音频增强处理,得到待处理音频片段。
可理解地,所述音频增强处理的过程为:首先,预加重所述语音样本中高频部分的信噪比,由于语音信号的功率谱随频率的增加而减小,导致语音的大部分能量都集中在低频部分,从而导致高频部分的信噪比很低,通过一阶或者二阶高通滤波器进行提升高频部分的信噪比;其次,对预加重高频部分的信噪比之后的所述语音样本进行分帧及加窗,即以预设时间长度(例如10ms、15ms、20ms等等)为一帧,为了保证帧与帧之间平滑过渡保持连续性,帧与帧之间会有部分重叠(例如:1ms、2ms)的时长,优选地,该部分重叠的时长小于预设时间长度的三分之一,加窗的方式为通过窗函数对分帧后的信号进行加窗提取操作;再次,对提取出的帧信号进行傅里叶变换,以及幅值平方操作;最后,对幅值平方后的信号进行滤波器进行过滤,并通过对数功率变换得到特征向量的过程,从而拼接各个音频增强处理后的帧信号,得到所述待处理音频片段,所述待处理音频片段为与频域特征相关的特征向量组成的片段。
通过老师网络对所述待处理音频片段进行老师声学特征提取,得到第一特征向量,同时通过学生网络对所述待处理音频片段进行学生声学特征提取,得到第二特征向量;其中,所述初始识别模型包括所述老师网络和所述学生网络;所述学生网络为对所述老师网络进行蒸馏学习后获得。
可理解地,所述老师网络为预先训练完成的神经网络模型,所述老师网络用于对输入的所述待处理音频片段进行提取所述老师声学特征,并根据提取的老师声学特征输出第一特征向量,并能够对输出的第一特征向量进行识别得到文本内容的模型,所述学生网络为对所述老师网络进行蒸馏学习后获得,所述学生网络可以通过蒸馏学习的方式提取输入的的待处理音频片段中的学生声学特征,并根据提取的学生声学特征输出第二特征向量,并能够对输出的第二特征向量进行识别得到文本内容的模型,优选地,所述老师网络为基于Bert构建的模型,所述学生网络为基于TinyBert构建的模型,所述老师声学特征提取的过程为对输入的所述待处理音频片段进行Bert模型的编码以及特征规范化的过程,所述学生声学特征提取的过程为运用蒸馏学习方法学习老师网络后进行压缩方式的编码及特征规范化的过程。
其中,所述老师声学特征为与声学频率相关的特征,即学习频域上的序列编码映射成文本内容的特征,所述学生声学特征为运用蒸馏学习方法学习到老师声学特征中的映射关系的特征,所述蒸馏学习方法为迁移学习对应层的参数,通过采用预先训练好的复杂模型(Teacher model,老师网络)的输出作为监督信号去训练一个简单模型(Studentmodel,学生网络)。
对所述第一特征向量、所述第二特征向量和所述老师网络中的动态队列进行对齐对比处理,得到损失值。
可理解地,运用Moco训练方法,利用动态队列(queue)来更新负样本所对应的特征向量,使其能够兼顾大样本的训练并保持负样本之间的一致性,并通过动态队列,让频域特征提取的过程靠近正确的样本,远离负样本(即不正确的样本)的训练方法,初始的所述动态队列为收集的所有负样本所对应的特征向量,也即与输入的语音样本不同的特征向量,所述对齐对比处理指为了缓解无法对齐从而进入无法找到正确的特征向量进行对齐从而死循环的问题将所述第一特征向量加入所述动态队列中,更新后的动态队列中包括一个相符的样本所对应的特征向量和多个负样本所对应的特征向量,将所述第一特征向量与各动态队列中的特征向量进行内积处理,同时将所述第二特征向量与各动态队列中的特征向量进行内积处理,从而运用交叉熵公式确定出损失值的处理过程,通过所述对齐对比可以向正确的声学特征(包括老师声学特征和学生声学特征)对齐同时与其他不相关的特征形成反差(远离),在输出所述损失值的同时,所述学生网络还能在蒸馏学习方法下迁移转换层和预测层,能够对所述第二特征向量进行掩蔽预测编码以及文本预测出与所述第二特征向量相应的文本内容,后续的语音识别模型的应用中仅通过学生网络就可以识别出输入的语音片段所对应的文本内容,大大降低了语音识别模型运行中的深度,提高了语音识别效率。
在所述损失值未达到预设的收敛条件时,迭代更新所述初始识别模型的初始参数,直至所述损失值达到所述收敛条件时,将收敛之后的所述初始识别模型记录为训练完成的语音识别模型。
可理解地,所述收敛条件可以为所述损失值经过了10000次计算后值为很小且不会再下降的条件,即在所述损失值经过10000次计算后值为很小且不会再下降时,停止训练,并将收敛之后的所述初始识别模型记录为训练完成的语音识别模型;所述收敛条件也可以为所述损失值小于设定收敛阈值的条件,即在所述损失值小于设定收敛阈值时,停止训练,并将收敛之后的所述初始识别模型记录为训练完成的语音识别模型,如此,在所述损失值未达到预训练收敛条件时,不断调整初始识别模型的初始参数,其中,冻结老师参数,调整学生参数,可以不断让学习网络向准确的结果靠拢,以及让语音识别的准确率越来越高。如此,能够提高语音识别的准确率,以及提高语音识别出文本的效率,且优化了语音识别模型的容量,无需不断增加动态队列以作为负样本供语音识别。
本发明实现了通过获取包含有多个语音样本的语音样本集;将所述语音样本输入含有初始参数的初始识别模型;通过所述初始识别模型对所述语音样本进行音频增强处理,得到待处理音频片段;通过老师网络对所述待处理音频片段进行老师声学特征提取,得到第一特征向量,同时通过学生网络对所述待处理音频片段进行学生声学特征提取,得到第二特征向量;其中,所述初始识别模型包括所述老师网络和所述学生网络;所述学生网络为对所述老师网络进行蒸馏学习后获得;对所述第一特征向量、所述第二特征向量和所述老师网络中的动态队列进行对齐对比处理,得到损失值;在所述损失值未达到预设的收敛条件时,迭代更新所述初始识别模型的初始参数,直至所述损失值达到所述收敛条件时,将收敛之后的所述初始识别模型记录为训练完成的语音识别模型,如此,实现了通过音频增强处理,并通过老师网络提取老师声学特征,以及通过从老师网络中蒸馏学习获得的学生网络提取学生声学特征,结合动态队列进行对齐对比处理,迭代训练获得语音识别模型,因此,实现了自动增强有用的音频信息,无需大量对语音样本进行标注,节省了人工成本,而且运用蒸馏学习方法,以及通过自监督的老师网络和学生网络的模型训练,训练完成获得语音识别模型,减少了人工标注时间和工作量,通过学生网络,加快了语音识别的效率,从而提高了语音识别效率。
S204,根据标记为医生角色的所述语音片段和标记为患者角色的所述语音片段,相应地对各所述段落文本进行角色标记。
可理解地,将标记为医生角色的所述语音片段所对应的段落文本标记为医生角色,将标记为患者角色的所述语音片段所对应的段落文本标记为患者角色。
S205,将所有角色标记后的所述段落文本进行时序拼接,得到所述对话文本。
可理解地,所述时序拼接为按照时间轴的顺序拼接各个已经进行角色标记后的所述段落文本,从而得到所述对话文本。
本发明实现了通过对所述问诊对话语音进行分段处理,得到多个语音片段;获取与所述医生标识对应的音频样本,通过角色识别模型比对各所述语音片段和所述音频样本,得到所述音频样本与各所述语音片段的相似度,并将大于或者等于预设相似度阈值的所述相似度所对应的所述语音片段标记为医生角色,将剩余的所述语音片段标记为患者角色;通过语音识别模型对各所述语音片段进行频域特征提取,以及根据提取的频域特征进行文字预测,得到与各所述语音片段对应的段落文本;根据标记为医生角色的所述语音片段和标记为患者角色的所述语音片段,相应地对各所述段落文本进行角色标记;将所有角色标记后的所述段落文本进行时序拼接,得到所述对话文本,如此,实现了自动对问诊对话语音进行分段,划分出若干个对话中的语音片段,通过角色识别模型比对音频样本与各语音片段的相似度,区分标识出医生角色的语音片段和患者角色的音频片段,并运用语音识别模型对各语音片段进行频域特征提取和文字预测,预测出与各语音片段相应的段落文本,以及对各段落文本进行相应的角色标记,按照时序拼接从而获得对话文本,提高了对话文本输出的准确性,以及增加了角色标识,为后续的关注文本输出提供了数据基础,提高了关注文本输出的质量。
S30,对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本。
可理解地,所述关键症状识别为对所述对话文本中与症状相关的字或词语进行识别,并根据识别出的字或词语的上下文语义判断是否为肯定语义或者否定语义,从而将肯定语义的识别出的字或者词语确定为关注的字或词语,以及进行对所述对话文本进行时间维度分析,提取出时间维度的信息,得到关注的时间文本的识别过程,最后将关注的字或者词语以及关注的时间文本记录为所述关注文本。
在一实施例中,如图4所示,所述步骤S30中,即所述对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本,包括:
S301,对所述对话文本进行症状识别,识别出所述对话文本中的多个症状关键字。
可理解地,所述症状识别为将所述对话文本进行词向量转换,得到与所述对话文本对应的向量文本,并提取该向量文本中与症状相关的特征向量,并根据提取的与症状相关的特征向量进行预测,得到各个症状关键词的概率分布,从中识别出所述对话文本中涉及的症状关键字。
S302,对各所述症状关键字进行上下文语义分析以及时间维度分析,确定出所述对话文本中的所述关注文本。
可理解地,所述上下文语义分析为从识别出的所述对话文本中涉及的症状关键字的上下文中识别出肯定词或者否定词,从而判断出肯定的语义还是否定的语义的分析过程,即在各症状关键字的上下文中识别出是否具有肯定语义的字眼或者具有否定语义的字眼,通过时间先后出现的情况判断出肯定的语义还是否定的语义,将上下文语义分析后涉及的段落文本确定为关注文本,所述时间维度分析为从识别出的所述对话文本中涉及的症状关键字的上下文中是否存在时间维度的词语,通过该时间维度的词语所涉及的段落文本记录为关注文本。
本发明实现了通过对所述对话文本进行症状识别,识别出所述对话文本中的多个症状关键字;对各所述症状关键字进行上下文语义分析以及时间维度分析,确定出所述对话文本中的所述关注文本,如此,实现了自动针对性的对对话文本进行症状识别,识别出患者的症状关键字,运用上下文语义分析和时间长短的时间维度进行分析,从对话文本中提取出需要关注的文本内容,无需医生凭个人听到的信息多少作出概括,能够准确地、快速地自动识别出问诊对话语音中需要关注的文本,提高了电子病历输出的准确性和及时性。
S40,对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果。
可理解地,所述主诉特征提取的过程为对所述关注文本中的内容进行分类降维处理,提取降维后的症状类型的特征,所述主诉特征为同类症状的字或者词语的类别特征,所述主诉结果表征了所述关注文本中同类症状类型的集合,所述对所述关注文本进行病史识别及核验的过程为对所述关注文本中的单元内容(字或词语或一句话)所对应的所述对话文本中进行时序识别,区分出所述关注文本中的各个单元内容属于当前还是历史,从而得到现病史结果和初始既往史结果,再根据所述患者信息中的历史就诊信息,对所述初始既往史结果进行病史核验,得到所述既往史结果的过程。
在一实施例中,所述步骤S40中,即所述根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果,包括:
对所述关注文本进行病史区分,得到现病史结果和初始既往史结果。
可理解地,所述病史区分为对所述关注文本中的单元内容(字或词语或一句话)所对应的所述对话文本中进行时序识别,区分出所述关注文本中的各个单元内容属于当前还是历史,从而得到现病史结果和初始既往史结果,所述现病史结果为与当前状态的字/词语所涉及的上下文所对应的段落文本的集合,所述初始既往史结果为与历史状态的字/词语所涉及的上下文所对应的段落文本的集合。
根据所述患者信息中的历史就诊信息,对所述初始既往史结果进行病史核验,得到所述既往史结果。
可理解地,所述历史就诊信息为创建与所述患者对应的患者标识开始记录的所有历史就诊的相关信息,所述病史核验的过程为将所述历史就诊信息和所述初始既往史结果进行词向量转换,比对转换后的词向量是否出现相匹配或者相似的情况,从而确定出初始既往史结果是否正确,将相匹配或者相似的病史增加入所述既往史结果中,以及将所述历史就诊信息中没在初始既往史结果中出现的病史一同增加入所述既往史结果中,如果出现不匹配或者不相似的情况,说明患者存在谎报的情况,则将不匹配或者不相似的内容不增加入所述既往史结果中,从而避免患者谎报病史的情况。
本发明实现了通过对所述关注文本进行病史区分,得到现病史结果和初始既往史结果;根据所述患者信息中的历史就诊信息,对所述初始既往史结果进行病史核验,得到所述既往史结果,如此,能够自动区分出现病史结果和初始既往史结果,自动对初始既往史结果进行病史核验,最终输出既往史结果,从而确保患者现病史和既往史的内容正确,提高了电子病历的多元性和正确性。
S50,获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历。
可理解地,每一个医生标识对应一个病历模板生成模型,所述病历模板生成模型为通过对医生开具的历史的病历方案后,进行深度机器学习,学习内容包括但不限于对病症描述的专业术语、用药建议、药量建议、偏好特征等,生成该医生专属定制化的病历模板的模型,所述病历生成的过程为对所述主诉结果进行模板因素特征提取,根据提取的模板因素特征生成与所述主诉结果对应的病历模板,然后将所述现病史结果和所述最终既往史结果自动填充至与所述主诉结果对应的所述病历模板中相应的位置,从而得到病历的过程,将该病历确定为所述电子病历,在终端的应用程序软件中的窗口中展示所述电子病历,所述电子病历体现了结合患者的病史的就诊信息且符合医生定制化病历模板的电子化方式的信息,通过所述电子病历能够进行结构化存储,便于管理病人的就诊记录。
本发明实现了通过接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识;对所述问诊对话语音进行语音角色分割和语音识别,得到对话文本;对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本;对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果;获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到电子病历,如此,能够运用语音角色分割和语音识别,以及关键症状识别,自动识别出关注文本,并通过主诉特征的提取,自动识别出关注文本所对应的主诉结果,通过相应的病历模板生成模型自动生成电子病历,实现了快速地、准确地基于医生定制化的病历模板自动生成切合患者的电子病历,减少了医生手动输入的工作量,提高了医生看诊效率,以及提高了病历的准确性和及时性,提升了患者的体验满意度。
在一实施例中,如图5所示,所述步骤S50中,即所述通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历,包括:
S501,通过获取的所述病历模板生成模型对所述主诉结果进行模板因素特征提取,根据提取的模板因素特征生成与所述主诉结果对应的病历模板。
可理解地,所述模板因素特征为各医生根据主诉中的各种组合而学习到该医生定制的隐式特征,所述病历模板为按照主诉结果相关的各种组合结果进行学习获得的模板,所述病历模板包括导诊指引、辅助测试项目和用药方案等等,
S502,将所述现病史结果和所述既往史结果填充至与所述主诉结果对应的所述病历模板中,得到所述电子病历。
可理解地,将所述现病史结果填充至所述病历模板中与现病史结果对应的位置,将所述既往史结果填充至所述病历模板中与既往史结果对应的位置,从而得到所述电子病历。
如此,本发明实现了通过对主诉结果中的模板因素特征进行自动识别,识别出与其匹配的病历模板,并自动填充现病史结果和既往史结果至识别出的病历模板,自动生成电子病历,无需医生手动输入主诉结果、现病史结果和既往史结果,以及与主诉结果相应的导诊方案等等,大大减少了医生的就诊时间,提高了就诊效率,提升了患者就诊的体验满意度。
在一实施例中,如图6所示,所述步骤S50之后,即所述得到电子病历之后,包括:
S60,接收来自所述医生标识的确认指令;其中,所述确认指令为与所述医生标识对应的医生针对展示的所述电子病历进行核对或修改后生成。
可理解地,与所述医生标识对应的医生在看完所述电子病历后,核对无误或者输入相应的修改意见后,确认准确无误后触发应用程序软件中的“确认/打印”按钮,从而触发生成所述确认指令,所述确认指令包括核对或修改后的所述电子病历。
S70,根据所述确认指令,对所述电子病历进行更新以及加印签名,生成已确认电子病历。
可理解地,所述确认指令还包括医生认证结果,将核对或修改后的所述电子病历更新为新的所述电子病历,然后根据医生认证结果,获取与所述医生标识对应的签名章,运用图像合成技术将该签名章合成至更新后的所述电子病历中,完成加印签名的过程,最后将加印签名后的所述电子病历确认为所述已确认电子病历。
其中,所述医生认证结果体现了与所述医生标识对应的医生进行无感认证的结果,所述无感认证为通过指纹认证、声纹认证或者图像人脸认证等技术识别出当前采集的指纹、音频或者图像是否为与所述医生标识对应的医生的认证方法。
在一实施例中,所述步骤S70中,即所述对所述电子病历进行更新以及加印签名,生成已确认电子病历,包括:
根据通过认证的所述医生认证结果,从云端签名章数据库中获取与所述医生标识对应的签名章,所述云端签名章数据库存储了所有医生的签名章且对所有签名章进行管理的数据库。
将核对或修改后的所述电子病历更新为新的所述电子病历。
运用文本识别技术,识别出更新后的所述电子病历中与所述医生标识对应的医生名字相应的位置。
可理解地,所述文本识别技术为对更新后的所述电子病历中的文本进行文本识别,识别出与所述医生标识对应的医生名字相符的文本位置,定位出该位置。
运用图像合成技术,将获取的所述签名章在该位置之后加印签名,得到所述已确认电子病历。
可理解地,所述图像合成技术为运用OpenCV语言代码中的图像合成(Imageblending)代码进行执行的操作技术,所述加印签名为将所述电子病历作为背景,所述签名章作为表层,通过所述图像合成技术进行叠加处理的过程。
本发明实现了通过根据通过认证的所述医生认证结果,从云端签名章数据库中获取与所述医生标识对应的签名章;将核对或修改后的所述电子病历更新为新的所述电子病历;运用文本识别技术,识别出更新后的所述电子病历中与所述医生标识对应的医生名字相应的位置;运用图像合成技术,将获取的所述签名章在该位置之后加印签名,得到所述已确认电子病历,如此,能够准确地在签名位置之后加印签名章,节省了医生申请签名章以及盖章生效等时间及工作量,实现了签名章用印管理,减少了医生的就诊操作,提高了医生就诊效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于人工智能的电子病历生成装置,该基于人工智能的电子病历生成装置与上述实施例中基于人工智能的电子病历生成方法一一对应。如图7所示,该基于人工智能的电子病历生成装置包括接收模块11、第一识别模块12、第二识别模块13、提取模块14和生成模块15。各功能模块详细说明如下:
接收模块11,用于接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识;
第一识别模块12,用于对所述问诊对话语音进行语音角色分割和语音识别,得到对话文本;
第二识别模块13,用于对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本;
提取模块14,用于对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果;
生成模块15,用于获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历。
关于基于人工智能的电子病历生成装置的具体限定可以参见上文中对于基于人工智能的电子病历生成方法的限定,在此不再赘述。上述基于人工智能的电子病历生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是客户端或者服务端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括可读存储介质、内存储器。该可读存储介质存储有操作系统、计算机程序和数据库。该内存储器为可读存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人工智能的电子病历生成方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于人工智能的电子病历生成方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中基于人工智能的电子病历生成方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于人工智能的电子病历生成方法,其特征在于,包括:
获取语音样本集;所述语音样本集包括多个语音样本;
将所述语音样本输入含有初始参数的初始识别模型;
通过所述初始识别模型对所述语音样本进行音频增强处理,得到待处理音频片段;
通过老师网络对所述待处理音频片段进行老师声学特征提取,得到第一特征向量,同时通过学生网络对所述待处理音频片段进行学生声学特征提取,得到第二特征向量;其中,所述初始识别模型包括所述老师网络和所述学生网络;所述学生网络为对所述老师网络进行蒸馏学习后获得;
对所述第一特征向量、所述第二特征向量和所述老师网络中的动态队列进行对齐对比处理,得到损失值;
在所述损失值未达到预设的收敛条件时,迭代更新所述初始识别模型的初始参数,直至所述损失值达到所述收敛条件时,将收敛之后的所述初始识别模型记录为训练完成的语音识别模型;
接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识;
对所述问诊对话语音进行分段处理,得到多个语音片段;
获取与所述医生标识对应的音频样本,通过角色识别模型比对各所述语音片段和所述音频样本,得到所述音频样本与各所述语音片段的相似度,并将大于或者等于预设相似度阈值的所述相似度所对应的所述语音片段标记为医生角色,将剩余的所述语音片段标记为患者角色;
通过所述语音识别模型对各所述语音片段进行频域特征提取,以及根据提取的频域特征进行文字预测,得到与各所述语音片段对应的段落文本;
根据标记为医生角色的所述语音片段和标记为患者角色的所述语音片段,相应地对各所述段落文本进行角色标记;
将所有角色标记后的所述段落文本进行时序拼接,得到对话文本;
对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本;
对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果;
获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历。
2.如权利要求1所述的基于人工智能的电子病历生成方法,其特征在于,所述得到电子病历之后,包括:
接收来自所述医生标识的确认指令;其中,所述确认指令为与所述医生标识对应的医生针对展示的所述电子病历进行核对或修改后生成;
根据所述确认指令,对所述电子病历进行更新以及加印签名,生成已确认电子病历。
3.如权利要求1所述的基于人工智能的电子病历生成方法,其特征在于,所述对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本,包括:
对所述对话文本进行症状识别,识别出所述对话文本中的多个症状关键字;
对各所述症状关键字进行上下文语义分析以及时间维度分析,确定出所述对话文本中的所述关注文本。
4.如权利要求1所述的基于人工智能的电子病历生成方法,其特征在于,所述根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果,包括:
对所述关注文本进行病史区分,得到现病史结果和初始既往史结果;
根据所述患者信息中的历史就诊信息,对所述初始既往史结果进行病史核验,得到所述既往史结果。
5.如权利要求1所述的基于人工智能的电子病历生成方法,其特征在于,所述通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历,包括:
通过获取的所述病历模板生成模型对所述主诉结果进行模板因素特征提取,根据提取的模板因素特征生成与所述主诉结果对应的病历模板;
将所述现病史结果和所述既往史结果填充至与所述主诉结果对应的所述病历模板中,得到所述电子病历。
6.一种基于人工智能的电子病历生成装置,其特征在于,包括:
接收模块,用于接收病历生成请求,获取所述病历生成请求中的问诊对话语音、患者信息和医生标识;
第一识别模块,用于获取语音样本集;所述语音样本集包括多个语音样本;将所述语音样本输入含有初始参数的初始识别模型;通过所述初始识别模型对所述语音样本进行音频增强处理,得到待处理音频片段;通过老师网络对所述待处理音频片段进行老师声学特征提取,得到第一特征向量,同时通过学生网络对所述待处理音频片段进行学生声学特征提取,得到第二特征向量;其中,所述初始识别模型包括所述老师网络和所述学生网络;所述学生网络为对所述老师网络进行蒸馏学习后获得;对所述第一特征向量、所述第二特征向量和所述老师网络中的动态队列进行对齐对比处理,得到损失值;在所述损失值未达到预设的收敛条件时,迭代更新所述初始识别模型的初始参数,直至所述损失值达到所述收敛条件时,将收敛之后的所述初始识别模型记录为训练完成的语音识别模型;对所述问诊对话语音进行分段处理,得到多个语音片段;获取与所述医生标识对应的音频样本,通过角色识别模型比对各所述语音片段和所述音频样本,得到所述音频样本与各所述语音片段的相似度,并将大于或者等于预设相似度阈值的所述相似度所对应的所述语音片段标记为医生角色,将剩余的所述语音片段标记为患者角色;通过语音识别模型对各所述语音片段进行频域特征提取,以及根据提取的频域特征进行文字预测,得到与各所述语音片段对应的段落文本;根据标记为医生角色的所述语音片段和标记为患者角色的所述语音片段,相应地对各所述段落文本进行角色标记;将所有角色标记后的所述段落文本进行时序拼接,得到对话文本;
第二识别模块,用于对所述对话文本进行关键症状识别,获得与所述问诊对话语音对应的关注文本;
提取模块,用于对所述关注文本进行主诉特征提取,根据提取的主诉特征识别出主诉结果,以及根据所述患者信息,对所述关注文本进行病史识别及核验,得到现病史结果和既往史结果;
生成模块,用于获取与所述医生标识对应的病历模板生成模型,通过获取的所述病历模板生成模型对所述主诉结果、所述现病史结果和所述既往史结果进行病历生成,得到与所述病历生成请求对应的电子病历。
7.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述基于人工智能的电子病历生成方法。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述基于人工智能的电子病历生成方法。
CN202111003719.7A 2021-08-30 2021-08-30 基于人工智能的电子病历生成方法、装置、设备及介质 Active CN113724695B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111003719.7A CN113724695B (zh) 2021-08-30 2021-08-30 基于人工智能的电子病历生成方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111003719.7A CN113724695B (zh) 2021-08-30 2021-08-30 基于人工智能的电子病历生成方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN113724695A CN113724695A (zh) 2021-11-30
CN113724695B true CN113724695B (zh) 2023-08-01

Family

ID=78678958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111003719.7A Active CN113724695B (zh) 2021-08-30 2021-08-30 基于人工智能的电子病历生成方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN113724695B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114443891B (zh) * 2022-01-14 2022-12-06 北京有竹居网络技术有限公司 编码器的生成方法、指纹提取方法、介质及电子设备
CN114596947A (zh) * 2022-03-08 2022-06-07 北京百度网讯科技有限公司 诊疗科室推荐方法、装置、电子设备及存储介质
CN114520062B (zh) * 2022-04-20 2022-07-22 杭州马兰头医学科技有限公司 一种基于ai和信创的医疗云通信系统
CN114724665A (zh) * 2022-04-21 2022-07-08 北京高灵智腾信息科技有限公司 一种基于bs版本的多端书写病历的电子病历拆分方法
CN114882966A (zh) * 2022-05-27 2022-08-09 北京京东拓先科技有限公司 电子病历的生成方法、装置、设备、介质及产品
CN116028603B (zh) * 2022-06-07 2023-12-19 成都成电金盘健康数据技术有限公司 一种基于大数据的智能预问诊方法及装置、系统、存储介质
CN116913451B (zh) * 2023-09-12 2023-11-28 西南医科大学 一种医疗随访系统
CN117253576B (zh) * 2023-10-30 2024-03-05 来未来科技(浙江)有限公司 基于中文医疗大模型的门诊电子病历生成方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104485105A (zh) * 2014-12-31 2015-04-01 中国科学院深圳先进技术研究院 一种电子病历生成方法和电子病历系统
CN107657947A (zh) * 2017-09-20 2018-02-02 百度在线网络技术(北京)有限公司 基于人工智能的语音处理方法及其装置
KR101887521B1 (ko) * 2017-06-21 2018-08-10 경북대학교 산학협력단 음성인식 기반 건강기록 관리 시스템 및 방법, 이를 수행하기 위한 기록매체
CN108735198A (zh) * 2018-05-29 2018-11-02 杭州认识科技有限公司 基于医学疾病数据的语音合成方法、装置及电子设备
CN110610751A (zh) * 2019-09-09 2019-12-24 北京左医科技有限公司 一种电子病历录入系统及方法
CN111754985A (zh) * 2020-07-06 2020-10-09 上海依图信息技术有限公司 一种语音识别模型的训练以及语音识别的方法和装置
CN111753878A (zh) * 2020-05-20 2020-10-09 济南浪潮高新科技投资发展有限公司 一种网络模型部署方法、设备及介质
CN112634889A (zh) * 2020-12-15 2021-04-09 平安国际智慧城市科技股份有限公司 基于人工智能的电子病例录入方法、装置、终端及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643602B2 (en) * 2018-03-16 2020-05-05 Microsoft Technology Licensing, Llc Adversarial teacher-student learning for unsupervised domain adaptation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104485105A (zh) * 2014-12-31 2015-04-01 中国科学院深圳先进技术研究院 一种电子病历生成方法和电子病历系统
KR101887521B1 (ko) * 2017-06-21 2018-08-10 경북대학교 산학협력단 음성인식 기반 건강기록 관리 시스템 및 방법, 이를 수행하기 위한 기록매체
CN107657947A (zh) * 2017-09-20 2018-02-02 百度在线网络技术(北京)有限公司 基于人工智能的语音处理方法及其装置
CN108735198A (zh) * 2018-05-29 2018-11-02 杭州认识科技有限公司 基于医学疾病数据的语音合成方法、装置及电子设备
CN110610751A (zh) * 2019-09-09 2019-12-24 北京左医科技有限公司 一种电子病历录入系统及方法
CN111753878A (zh) * 2020-05-20 2020-10-09 济南浪潮高新科技投资发展有限公司 一种网络模型部署方法、设备及介质
CN111754985A (zh) * 2020-07-06 2020-10-09 上海依图信息技术有限公司 一种语音识别模型的训练以及语音识别的方法和装置
CN112634889A (zh) * 2020-12-15 2021-04-09 平安国际智慧城市科技股份有限公司 基于人工智能的电子病例录入方法、装置、终端及介质

Also Published As

Publication number Publication date
CN113724695A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN113724695B (zh) 基于人工智能的电子病历生成方法、装置、设备及介质
CN110096570B (zh) 一种应用于智能客服机器人的意图识别方法及装置
CN109473106B (zh) 声纹样本采集方法、装置、计算机设备及存储介质
WO2020177380A1 (zh) 基于短文本的声纹检测方法、装置、设备及存储介质
CN110457432B (zh) 面试评分方法、装置、设备及存储介质
WO2021047319A1 (zh) 基于语音的个人信用评估方法、装置、终端及存储介质
CN111858892B (zh) 基于知识图谱的语音交互方法、装置、设备及介质
CN112468659B (zh) 应用于电话客服的质量评价方法、装置、设备及存储介质
CN113870845A (zh) 语音识别模型训练方法、装置、设备及介质
CN111145903A (zh) 获取眩晕症问诊文本的方法、装置、电子设备及问诊系统
CN111180025A (zh) 表示病历文本向量的方法、装置及问诊系统
CN113080907B (zh) 脉搏波信号处理方法及装置
CN117877660A (zh) 基于语音识别的医学报告获取方法及系统
CN112288584B (zh) 保险报案处理方法、装置、计算机可读介质及电子设备
Fenu et al. Causal reasoning for algorithmic fairness in voice controlled cyber-physical systems
CN113436617B (zh) 语音断句方法、装置、计算机设备及存储介质
CN115424618A (zh) 一种基于机器学习的电子病历语音交互设备
CN113539520A (zh) 实现问诊会话的方法、装置、计算机设备及存储介质
Lopez‐Otero et al. Influence of speaker de‐identification in depression detection
Hammami et al. Recognition of Arabic speech sound error in children
CN114510473A (zh) 医疗问卷的验证方法、装置、计算机设备及存储介质
CN113761943A (zh) 司法对话的生成方法和模型训练方法、装置以及存储介质
CN113158052B (zh) 聊天内容推荐方法、装置、计算机设备及存储介质
CN117876168A (zh) 基于gpt模型的人员培训方法、装置、设备及存储介质
CN116631450A (zh) 多模态语音情感识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220928

Address after: Room 2601 (Unit 07), Qianhai Free Trade Building, No. 3048, Xinghai Avenue, Nanshan Street, Qianhai Shenzhen-Hong Kong Cooperation Zone, Shenzhen, Guangdong 518000

Applicant after: Shenzhen Ping An Smart Healthcare Technology Co.,Ltd.

Address before: 1-34 / F, Qianhai free trade building, 3048 Xinghai Avenue, Mawan, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong 518000

Applicant before: Ping An International Smart City Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant