CN117496976A - 基于语音识别的诊疗文书生成方法及装置 - Google Patents

基于语音识别的诊疗文书生成方法及装置 Download PDF

Info

Publication number
CN117496976A
CN117496976A CN202311424195.8A CN202311424195A CN117496976A CN 117496976 A CN117496976 A CN 117496976A CN 202311424195 A CN202311424195 A CN 202311424195A CN 117496976 A CN117496976 A CN 117496976A
Authority
CN
China
Prior art keywords
doctor
document
diagnosis
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311424195.8A
Other languages
English (en)
Inventor
刘洋
刘伟
刘开林
谢冠超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Yunzhisheng Intelligent Technology Co ltd
Original Assignee
Unisound Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisound Intelligent Technology Co Ltd filed Critical Unisound Intelligent Technology Co Ltd
Priority to CN202311424195.8A priority Critical patent/CN117496976A/zh
Publication of CN117496976A publication Critical patent/CN117496976A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Signal Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

基于语音识别的诊疗文书生成方法及装置,预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;通过录音设备采集医生口述内容或医患对话语音,将采集的语音转换为指定格式的音频文件进行保存;采用自动语音识别算法,将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。本发明无需改变诊疗行为习惯,极大提升病历文书撰写的效率和质量。

Description

基于语音识别的诊疗文书生成方法及装置
技术领域
本发明涉及诊疗数据处理技术领域,具体涉及一种基于语音识别的诊疗文书生成方法及装置。
背景技术
诊疗文书是患者就医过程中产生的记录患者就诊过程和用药、手术记录的文书,比如所使用的病历还有处方单就属于诊疗文书。诊疗文书能够在发生医疗事故的时候,作为患者请求医疗损害赔偿的证据材料。
现阶段,诊疗行为如门诊,手术结束后再行书写病历,容易出现漏记、错记的情况;通过语音录入病历文书内容,需要提前组织语言再行口述,才能保障内容的准确规范,对医生口述能力要求较高、录入方式不够自然、不符合医生工作习惯,且工作效率提升有限。
发明内容
为此,本发明提供一种基于语音识别的诊疗文书生成方法及装置,解决传统语音录入不符合医生工作习惯,而手动撰写诊疗文书的效率低和质量差的问题。
为了实现上述目的,本发明提供如下技术方案:基于语音识别的诊疗文书生成方法,包括:
预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;
通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;
采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;
根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;
采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。
作为基于语音识别的诊疗文书生成方法优选方案,按照设定的格式样式输出诊疗文书包括患者主诉、现病史、既往史和家族史。
作为基于语音识别的诊疗文书生成方法优选方案,将语义理解模型未使用的文本文字信息标记为无效信息,并对标记为无效信息的文本文字进行隐藏;在回溯核对时显示隐藏的无效信息。
作为基于语音识别的诊疗文书生成方法优选方案,采用语义理解模型的文本生成能力,根据电子病历书写基本规范,将预先设置的病历书写规范和医生完善后的信息摘要共同输入语义理解模型,语义理解模型根据提示信息和内容生成符合设定规范的电子病历文书。
作为基于语音识别的诊疗文书生成方法优选方案,将生成的符合设定规范的电子病历文书推送到知识图谱系统,利用医学知识图谱对生成的病历文书内容进行质控;
将生成的病历文书的内容质控结果反馈给对应的医生,并获取医生对病历文书的补充或确认信息。
本发明还提供一种基于语音识别的诊疗文书生成装置,包括:
医生角色配置模块,用于预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;
语音采集存储模块,用于通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;
语音转换模块,用于采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;
医患角色区分标注模块,用于根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;
诊疗文书生成模块,用于采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。
作为基于语音识别的诊疗文书生成装置优选方案,所述诊疗文书生成模块中,按照设定的格式样式输出诊疗文书包括患者主诉、现病史、既往史和家族史。
作为基于语音识别的诊疗文书生成装置优选方案,还包括信息过滤模块,用于将语义理解模型未使用的文本文字信息标记为无效信息,并对标记为无效信息的文本文字进行隐藏;在回溯核对时显示隐藏的无效信息。
作为基于语音识别的诊疗文书生成装置优选方案,所述诊疗文书生成模块中,采用语义理解模型的文本生成能力,根据电子病历书写基本规范,将预先设置的病历书写规范和医生完善后的信息摘要共同输入语义理解模型,语义理解模型根据提示信息和内容生成符合设定规范的电子病历文书。
作为基于语音识别的诊疗文书生成装置优选方案,还包括知识图谱质控模块,用于将生成的符合设定规范的电子病历文书推送到知识图谱系统,利用医学知识图谱对生成的病历文书内容进行质控;
质控反馈确认模块,用于将生成的病历文书的内容质控结果反馈给对应的医生,并获取医生对病历文书的补充或确认信息。
本发明具有如下优点:预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。本发明应用语义理解模型的文本生成能力,自动生成内容准确、符合规范的电子病历文书,无需医生另外耗时费力从头到尾书写,或精心组织语言重新口述进行语音录入,在诊疗过程中同步完成病历文书的撰写,无需改变诊疗行为习惯,医生仅需审阅核对系统自动生成的病历文书即可,极大提升医生病历文书撰写的效率和质量。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引申获得其它的实施附图。
本说明书所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容能涵盖的范围内。
图1为本发明实施例1中提供的基于语音识别的诊疗文书生成方法流程示意图;
图2为本发明实施例1中提供的基于语音识别的诊疗文书生成方法门诊病历应用场景操作界面;
图3为本发明实施例1中提供的基于语音识别的诊疗文书生成方法手术记录应用场景操作界面;
图4为本发明实施例2中提供的基于语音识别的诊疗文书生成装置架构示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
参见图1,本发明实施例1提供一种基于语音识别的诊疗文书生成方法,包括以下步骤:
S1、预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;
S2、通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;
S3、采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;
S4、根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;
S5、采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。
本实施例中,在步骤S1,由于医患对话过程中,涉及包括医生和患者至少两人的对话,故预先将医生的声纹信息配置为医生角色,待真实问诊时,通过患者与医生声纹信息的区别,可以准确的将医生录入的内容和患者录入的音频内容区分开来,提高文本内容可读性和后续病历文书撰写准确性。
其中,声纹识别技术是基于语音信号的生物特征识别技术,通过分析人的语音特征来识别个体身份,声纹识别技术的原理是基于人的声音是独特的,类似指纹,每个人的声音都有独特的频率、音调、语速、语调等特征,这些特征可以用来识别个体身份。声纹识别技术的实现通常需要经过三个主要的步骤:声音采集、声音特征提取和声音匹配。声音采集是通过麦克风等设备采集人的语音信号。声音特征提取是指从采集到的语音信号中提取出与个体身份相关的特征,这些特征包括声音的频率、音调、语速、语调等,可以通过数字信号处理技术进行提取和分析。声音匹配是指将提取出的声音特征与已有的声纹模板进行比对,以确定说话人的个体身份。
本实施例中,在步骤S2,在门诊、查房、手术等诊疗场景,通过麦克风设备实施采集医生、患者对话或口述内容语音,然后转换成WAV格式音频文件保存,做到诊疗过程内容全记录、无遗漏。
其中,针对不同的医疗场景,如门诊、查房、手术等,可以定制不同的语言理解模型,提高对应场景语音识别准确率,把诊疗过程中的语音转换为系统所能识别的语言。
本实施例中,在步骤S3,使用自动语音识别ASR技术,同步将音频内容转换成文本文字,作为语义理解模型撰写病历文书的基础数据。自动语音识别ASR技术可以将语音信号转换为文本,ASR技术已经被广泛应用于语音识别、语音合成、智能客服、智能家居等领域,核心是语音信号处理和模型训练,语音信号处理包括语音信号的预处理、特征提取、信号增强等,模型训练则是指利用大量的语音数据进行模型训练,学习语音信号的特征和语言模型。
其中,语音信号预处理将采集到的语音信号需要进行预处理,包括去除噪声、降低回声等。特征提取从预处理后的语音信号中提取特征,常用的特征包括MFCC、FBANK等。语音识别模型训练利用大量的语音数据进行模型训练,学习语音信号的特征和语言模型。语音识别将预处理后的语音信号输入到训练好的模型中,得到相应的文本输出。
本实施例中,在步骤S4和S5中,基于语义理解模型对语音识别转写后的文本内容进行分析、理解、标准化形成信息摘要,比如通过语义理解模型根据输入的文本内容,提取出患者的主诉、现病史、既往史、家族史等,按照既定格式输出。
其中,语义理解模型使用深度学习技术训练出的大型神经网络模型,可以对自然语言进行深度理解和分析,帮助计算机更好地理解人类语言的含义和语境,从而生成更加准确和自然的文本。语义理解模型的核心是自然语言处理技术,包括词法分析、句法分析、语义分析等多个方面,其中语义分析是最为重要的一环,语义分析能够是将自然语言中的词汇、语法和语境等信息转化为计算机可以理解的语义表示,从而实现计算机对自然语言的理解。
本实施例中,在步骤S5中,采用语义理解模型的文本生成能力,根据电子病历书写基本规范,将预先设置的病历书写规范和医生完善后的信息摘要共同输入语义理解模型,语义理解模型根据提示信息和内容生成符合设定规范的电子病历文书;将生成的符合设定规范的电子病历文书推送到知识图谱系统,利用医学知识图谱对生成的病历文书内容进行质控;将生成的病历文书的内容质控结果反馈给对应的医生,并获取医生对病历文书的补充或确认信息。
其中,医学知识图谱由节点和边组成,节点表示实体、概念或属性值,任何物体、地点或人都可以是一个节点;边表示实体的属性或实体间的关系,而三元组是知识图谱的基本表示形式。比如一个节点可以是一个组织机构,比如心内科,也可以是一个疾病,比如高血压;边则描述了高血压和心内科之间的“疾病-科室”关系,(高血压,科室,心内科)就是一条简单的三元组。
以训练手术知识图谱为例,具体实现过程如下:
第一,手术数据收集:
从医保局获取医保结算清单手术数据,确保手术数据的准确性和一致性;
第二,构建手术知识图谱结构:
确定知识图谱的实体类型:手术和手术医保编码;
确定实体之间的属性关系:手术名称和手术编码的一对一关系;
实体识别和关系抽取:利用自然语言处理(NLP)技术,进行手术名称和医保编码的实体识别和提取;
使用关系抽取技术,从文本中提取手术和医保编码之间的对应关系;
知识图谱构建:将提取到的手术和医保编码的实体添加到知识图谱中,作为节点,添加手术名称和医保编码之间的关系边;
第三,手术知识图谱的验证和修正:利用专家知识和领域知识,对手术知识图谱进行验证和修正,确保手术和医保编码的对应关系准确可靠,然后进行人工审查和纠正,处理可能存在的错误或不准确的对应关系。
第四,知识图谱的应用和更新:利用构建好的手术知识图谱进行手术和医保编码的查询、匹配和推荐,定期更新知识图谱,跟踪医保政策和编码标准的变化,保持知识图谱的准确性和实用性。
本实施例中,同时将语义理解模型生成的电子病历文书推送到知识图谱系统,运用医学知识图谱对生成的病历文书内容进行质控,针对不准确、存在缺陷的内容及时提示、询问医生进行补充或确认,避免信息遗漏和错误,多重保障病历文书内容的准确性。
本实施例中,在步骤S5,采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要具体过程如下:
第一,理解标准化模版:
依据医学领域相关内容,提前对标准化信息摘要模版进行拆分和理解,为后面生成摘要内容做准备,比如理解主诉、既往史、现病史等术语的含义和所需要的具体内容。
第二,分析和理解文本内容:
通过已训练的医学领域模型,对输入的医患对话内容进行拆解、分类和归纳,确保输入的内容是医疗领域相关,并且包含能够生成摘要的信息。
第三,形成标准化信息摘要:
依据标准化模版中的关键信息,从已分解后的对话内容中提取每个关键KEY对应的医疗信息,形成标准版信息摘要,并返回。
参见图2,为本实施例的门诊病历应用场景,在门诊场景下,根据医患对话语音内容实时识别转写文字结果,基于语义理解模型完成信息摘要、进而生成门诊病历,医生只需审核即可完成门诊病历的书写,大幅提升门诊医生的工作效率和质量。
参见图3,为本实施例的手术记录应用场景,手术医生在手术完成24小时内,需要完成500-1000字手术记录的撰写,主要包含手术经过、术中所见及处理,工作量非常大。通过将医生在整个手术过程中的语音信息进行理解、分析形成信息摘要,并按《病历书写基本规范》撰写完成手术记录,医生术后仅需审核、修改、确认即可完成手术记录的撰写。
基于语音识别的诊疗文书生成方法的一个实施例中,将语义理解模型未使用的文本文字信息标记为无效信息,并对标记为无效信息的文本文字进行隐藏;在回溯核对时显示隐藏的无效信息。在应用语义理解模型进行语义级理解提取主要信息后,将没有使用的信息标记为无效信息,医生可以在平台上可切换无效内容的显示/隐藏,方便内容阅读和后续回溯核对。
综上所述,本发明预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。比如采用语义理解模型的文本生成能力,根据电子病历书写基本规范,将预先设置的病历书写规范和医生完善后的信息摘要共同输入语义理解模型,语义理解模型根据提示信息和内容生成符合设定规范的电子病历文书;将生成的符合设定规范的电子病历文书推送到知识图谱系统,利用医学知识图谱对生成的病历文书内容进行质控;将生成的病历文书的内容质控结果反馈给对应的医生,并获取医生对病历文书的补充或确认信息。同时在应用语义理解模型进行语义级理解提取主要信息后,将没有使用的信息标记为无效信息,医生可以在平台上可切换无效内容的显示/隐藏,方便内容阅读和后续回溯核对。本发明应用语义理解模型的文本生成能力,自动生成内容准确、符合规范的电子病历文书,无需医生另外耗时费力从头到尾书写,或精心组织语言重新口述进行语音录入,在诊疗过程中同步完成病历文书的撰写,无需改变诊疗行为习惯,医生仅需审阅核对系统自动生成的病历文书即可,极大提升医生病历文书撰写的效率和质量。
需要说明的是,本公开实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本公开实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本公开的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
实施例2
参见图4,本发明实施例2还提供一种基于语音识别的诊疗文书生成装置,包括:
医生角色配置模块1,用于预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;
语音采集存储模块2,用于通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;
语音转换模块3,用于采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;
医患角色区分标注模块4,用于根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;
诊疗文书生成模块5,用于采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。
本实施例中,所述诊疗文书生成模块5中,按照设定的格式样式输出诊疗文书包括患者主诉、现病史、既往史和家族史。
本实施例中,还包括信息过滤模块6,用于将语义理解模型未使用的文本文字信息标记为无效信息,并对标记为无效信息的文本文字进行隐藏;在回溯核对时显示隐藏的无效信息。
本实施例中,所述诊疗文书生成模块5中,采用语义理解模型的文本生成能力,根据电子病历书写基本规范,将预先设置的病历书写规范和医生完善后的信息摘要共同输入语义理解模型,语义理解模型根据提示信息和内容生成符合设定规范的电子病历文书。
本实施例中,还包括知识图谱质控模块7,用于将生成的符合设定规范的电子病历文书推送到知识图谱系统,利用医学知识图谱对生成的病历文书内容进行质控;
质控反馈确认模块8,用于将生成的病历文书的内容质控结果反馈给对应的医生,并获取医生对病历文书的补充或确认信息。
需要说明的是,上述装置各模块之间的信息交互、执行过程等内容,由于与本申请实施例1中的方法实施例基于同一构思,其带来的技术效果与本申请方法实施例相同,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
实施例3
本发明实施例3提供一种非暂态计算机可读存储介质,所述计算机可读存储介质中存储有基于语音识别的诊疗文书生成方法的程序代码,所述程序代码包括用于执行实施例1或其任意可能实现方式的基于语音识别的诊疗文书生成方法的指令。
计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(SolidState Disk、SSD))等。
实施例4
本发明实施例4提供一种电子设备,包括:存储器和处理器;
所述处理器和所述存储器通过总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行实施例1或其任意可能实现方式的基于语音识别的诊疗文书生成方法。
具体的,处理器可以通过硬件来实现也可以通过软件来实现,当通过硬件实现时,该处理器可以是逻辑电路、集成电路等;当通过软件来实现时,该处理器可以是一个通用处理器,通过读取存储器中存储的软件代码来实现,该存储器可以集成在处理器中,可以位于所述处理器之外,独立存在。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (10)

1.基于语音识别的诊疗文书生成方法,其特征在于,包括:
预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;
通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;
采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;
根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;
采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。
2.根据权利要求1所述的基于语音识别的诊疗文书生成方法,其特征在于,按照设定的格式样式输出诊疗文书包括患者主诉、现病史、既往史和家族史。
3.根据权利要求1所述的基于语音识别的诊疗文书生成方法,其特征在于,将语义理解模型未使用的文本文字信息标记为无效信息,并对标记为无效信息的文本文字进行隐藏;在回溯核对时显示隐藏的无效信息。
4.根据权利要求1所述的基于语音识别的诊疗文书生成方法,其特征在于,采用语义理解模型的文本生成能力,根据电子病历书写基本规范,将预先设置的病历书写规范和医生完善后的信息摘要共同输入语义理解模型,语义理解模型根据提示信息和内容生成符合设定规范的电子病历文书。
5.根据权利要求4所述的基于语音识别的诊疗文书生成方法,其特征在于,将生成的符合设定规范的电子病历文书推送到知识图谱系统,利用医学知识图谱对生成的病历文书内容进行质控;
将生成的病历文书的内容质控结果反馈给对应的医生,并获取医生对病历文书的补充或确认信息。
6.基于语音识别的诊疗文书生成装置,其特征在于,包括:
医生角色配置模块,用于预先存储医生的声纹信息,并将声纹信息对应的角色设置为医生角色;
语音采集存储模块,用于通过录音设备采集医生口述内容或医患对话语音,将采集的医生口述内容或医患对话语音转换为指定格式的音频文件进行保存;
语音转换模块,用于采用自动语音识别算法,同步将采集的医生口述内容或医患对话语音转换为文本文字,将得到的文本文字作为语义理解模型撰写诊疗文书的基础数据;
医患角色区分标注模块,用于根据预设的医生角色的声纹信息,将医患对话语音进行医生角色和患者角色区分,并将得到的文本文字内容进行说话角色标注;
诊疗文书生成模块,用于采用语义理解模型对得到的文本文字内容进行分析、理解、标准化形成信息摘要,按照设定的格式样式输出诊疗文书。
7.根据权利要求6所述的基于语音识别的诊疗文书生成装置,其特征在于,所述诊疗文书生成模块中,按照设定的格式样式输出诊疗文书包括患者主诉、现病史、既往史和家族史。
8.根据权利要求6所述的基于语音识别的诊疗文书生成装置,其特征在于,还包括信息过滤模块,用于将语义理解模型未使用的文本文字信息标记为无效信息,并对标记为无效信息的文本文字进行隐藏;在回溯核对时显示隐藏的无效信息。
9.根据权利要求6所述的基于语音识别的诊疗文书生成装置,其特征在于,所述诊疗文书生成模块中,采用语义理解模型的文本生成能力,根据电子病历书写基本规范,将预先设置的病历书写规范和医生完善后的信息摘要共同输入语义理解模型,语义理解模型根据提示信息和内容生成符合设定规范的电子病历文书。
10.根据权利要求9所述的基于语音识别的诊疗文书生成装置,其特征在于,还包括知识图谱质控模块,用于将生成的符合设定规范的电子病历文书推送到知识图谱系统,利用医学知识图谱对生成的病历文书内容进行质控;
质控反馈确认模块,用于将生成的病历文书的内容质控结果反馈给对应的医生,并获取医生对病历文书的补充或确认信息。
CN202311424195.8A 2023-10-30 2023-10-30 基于语音识别的诊疗文书生成方法及装置 Pending CN117496976A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311424195.8A CN117496976A (zh) 2023-10-30 2023-10-30 基于语音识别的诊疗文书生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311424195.8A CN117496976A (zh) 2023-10-30 2023-10-30 基于语音识别的诊疗文书生成方法及装置

Publications (1)

Publication Number Publication Date
CN117496976A true CN117496976A (zh) 2024-02-02

Family

ID=89668325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311424195.8A Pending CN117496976A (zh) 2023-10-30 2023-10-30 基于语音识别的诊疗文书生成方法及装置

Country Status (1)

Country Link
CN (1) CN117496976A (zh)

Similar Documents

Publication Publication Date Title
US7584103B2 (en) Automated extraction of semantic content and generation of a structured document from speech
US9996510B2 (en) Document extension in dictation-based document generation workflow
US11646032B2 (en) Systems and methods for audio processing
EP1787287B1 (en) Method, system and computer program for generating a language model
WO2021000408A1 (zh) 面试评分方法、装置、设备及存储介质
US20130304453A9 (en) Automated Extraction of Semantic Content and Generation of a Structured Document from Speech
CN117253576B (zh) 基于中文医疗大模型的门诊电子病历生成方法
CN111613220A (zh) 基于语音识别交互的病理信息登记录入装置及其方法
CN111402892A (zh) 一种基于语音识别的会议记录模板生成方法
CN111180025A (zh) 表示病历文本向量的方法、装置及问诊系统
CN114613461A (zh) 一种门诊病历智能录入方法及系统
Wagner et al. Applying cooperative machine learning to speed up the annotation of social signals in large multi-modal corpora
CN117877660A (zh) 基于语音识别的医学报告获取方法及系统
CN112259182A (zh) 一种电子病历的生成方法和装置
US20200126644A1 (en) Applying machine learning to scribe input to improve data accuracy
CN115424618A (zh) 一种基于机器学习的电子病历语音交互设备
CN117496976A (zh) 基于语音识别的诊疗文书生成方法及装置
EP4233045A1 (en) Embedded dictation detection
CN114550699A (zh) 基于精神卫生访谈信息实现长文本语音识别增强处理的方法、装置、处理器及其存储介质
CN117995373A (zh) 医院查房记录生成方法、装置、电子设备及存储介质
CN116504391A (zh) 一种智能人工诊后随访质控评估系统、方法及装置
KR20230015831A (ko) 음성 인식 인공지능을 이용한 의무기록 작성 장치 및 방법
CN117038109A (zh) 一种预检报告收集方法和系统
CN114121007A (zh) 基于语音识别的方案获取方法、装置、设备及存储介质
CN117524430A (zh) 基于aigc大模型的手术信息记录方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20240202

Address after: No. 15, 6th Floor, Building 55, Baoxing Jiayuan, Qianshan Street, Jingyang District, Deyang City, Sichuan Province, 618099

Applicant after: Sichuan Yunzhisheng Intelligent Technology Co.,Ltd.

Country or region after: China

Address before: Room 101, 1st floor, building 1, Xisanqi building materials City, Haidian District, Beijing 100096

Applicant before: Yunzhisheng Intelligent Technology Co.,Ltd.

Country or region before: China

TA01 Transfer of patent application right