CN110322872A - 会议语音数据处理方法、装置、计算机设备和存储介质 - Google Patents

会议语音数据处理方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN110322872A
CN110322872A CN201910494580.7A CN201910494580A CN110322872A CN 110322872 A CN110322872 A CN 110322872A CN 201910494580 A CN201910494580 A CN 201910494580A CN 110322872 A CN110322872 A CN 110322872A
Authority
CN
China
Prior art keywords
text
voice
keyword
information
text information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910494580.7A
Other languages
English (en)
Inventor
陈家荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910494580.7A priority Critical patent/CN110322872A/zh
Publication of CN110322872A publication Critical patent/CN110322872A/zh
Priority to PCT/CN2019/118267 priority patent/WO2020244153A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及基于声纹识别的一种会议语音数据处理方法、装置、计算机设备和存储介质。该方法包括:接收终端发送的会议记录请求,根据会议记录请求向终端发送录音指令,获取终端上传的语音数据;对语音数据进行特征提取,得到多个语音特征信息;通过预设的声纹识别模型对语音特征信息进行声纹识别,得到多个语音片段和对应的声纹标识,并将多个语音片段转换为对应的文本信息;通过预设的语义分析模型分析出文本信息中的关键字和校正信息,根据校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字;根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。采用本方法能够有效地提高会议语音数据的识别准确率。

Description

会议语音数据处理方法、装置、计算机设备和存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及基于声纹识别的一种会议语音数据处理方法、装置、计算机设备和存储介质。
背景技术
随着经济和互联网的迅速发展,商业社会和商务模式也在迅速发展,各种商务会议的召开需求也不断增大,会议中通常包含有价值的会议信息需要记录下来。
而传统的会议中是通过人工记录会议纪要,会议记录效率较低。随着人工智能技术的迅速发展,出现了一些从音视频会议中提取会议纪要的方式,这种方式通常是从会议音视频中提取语音信息,再通过语音识别转换为对应的文本信息进行存储。但这种方式在时间较长会议内容较多的情况下,生成的文本信息内容较多较繁琐,无法区分具体的会议内容来自哪个发言人,导致会议记录的效率较低,会议语音数据的识别准确率也较低。因此,如何有效提高会议语音数据的识别准确率成为目前需要解决的技术问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够有效地提高会议语音数据的处理效率和识别准确率的会议语音数据处理方法、装置、计算机设备和存储介质。
一种会议语音数据处理方法,所述方法包括:
接收终端发送的会议记录请求,根据所述会议记录请求向所述终端发送录音指令,所述会议记录请求携带了会议主题;
获取所述终端根据所述录音指令上传的语音数据;
对所述语音数据进行特征提取,得到多个语音特征信息;
获取预设的声纹识别模型,通过所述声纹识别模型对所述语音特征信息进行声纹识别,得到多个语音片段和对应的声纹标识,根据所述声纹标识将所述多个语音片段转换为对应的文本信息;
获取预设的语义分析模型,通过所述语义分析模型分析出文本信息中的关键字和校正信息,利用所述关键字和校正信息生成分析结果;
根据所述分析结果中的校正信息对所述文本信息进行校正,并对校正后的文本信息添加对应的关键字;
根据所述会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。
在其中一个实施例中,所述对所述语音数据进行特征提取,得到多个语音特征信息的步骤包括:获取所述语音数据的语音信号,对所述语音信号进行分帧加窗,提取出对应的声学特征和频谱特征;对所述声学特征和频谱特征进行转换,得到对应的声学特征向量和频谱特征向量;获取预设的语音端点检测模型,将所述声学特征向量和频谱特征向量输入至所述语音端点检测模型,通过所述语音端点检测模型检测所述语音信号的多个起始点和终止点;根据所述语音信号的多个起始点和终止点将所述语音数据切分为多个语音特征信息。
在其中一个实施例中,所述通过所述声纹识别模型对所述语音特征信息进行声纹识别的步骤包括:通过所述声纹识别模型计算多个语音特征信息中的特征参数序列;根据所述特征参数序列对所述语音特征信息进行切分,得到多个语音片段;计算所述多个语音片段的特征参数序列的相似度,将所述相似度达到预设阈值的多个语音片段进行归类;根据归类后的特征参数序列在声纹模型库中进行匹配,对归类后的语音片段添加相匹配的声纹标识。
在其中一个实施例中,所述通过所述语义分析模型分析出文本信息中的关键字和校正信息的步骤包括:通过所述语义分析模型对所述文本信息进行上下文分析,得到多个文本的语义和词频;根据所述多个文本的语义和词频识别出文本信息中的关键字;根据所述多个文本的语义和关键字分析文本信息中存在的校正信息,利用关键字和校正信息生成文本信息的分析结果。
在其中一个实施例中,所述校正信息包括待校正文本和校正文本以及对应的文本位置,所述根据所述校正信息对所述文本信息进行校正的步骤包括:获取所述校正信息中的待校正文本和校正文本;根据所述校正文本对所述文本位置的待校正文本进行替换,并删除所述待校正文本,得到校正后的文本信息。
在其中一个实施例中,所述方法还包括:接收到终端发送的查询请求,所述查询请求携带会议主题和关键字;根据所述会议主题和关键字获取与所述关键字相关联的会议文本内容;将所述文本内容按照预设方式发送至所述终端,并按照预设方式进行显示。
一种会议语音数据处理装置,所述装置包括:
请求接收模块,用于接收终端发送的会议记录请求,根据所述会议记录请求向所述终端发送录音指令,所述会议记录请求携带了会议主题;
数据获取模块,用于获取所述终端根据所述录音指令上传的语音数据;
特征提取模块,用于对所述语音数据进行特征提取,得到多个语音特征信息;
声纹识别模块,用于获取预设的声纹识别模型,通过所述声纹识别模型对所述语音特征信息进行声纹识别,得到多个语音片段和对应的声纹标识,根据所述声纹标识将所述多个语音片段转换为对应的文本信息;
语义分析模块,用于获取预设的语义分析模型,通过所述语义分析模型分析出文本信息中的关键字和校正信息,利用所述关键字和校正信息生成分析结果;
文本校正模块,用于根据所述分析结果中的校正信息对所述文本信息进行校正,并对校正后的文本信息添加对应的关键字;
会议报告生成模块,用于根据所述会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。
在其中一个实施例中,所述语义分析模块还用于通过所述语义分析模型对所述文本信息进行上下文分析,得到多个文本的语义和词频;根据所述多个文本的语义和词频识别出文本信息中的关键字;根据所述多个文本的语义和关键字分析文本信息中存在的校正信息,利用关键字和校正信息生成文本信息的分析结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现本申请任意一个实施例中提供的会议语音数据处理方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本申请任意一个实施例中提供的会议语音数据处理方法的步骤。
上述会议语音数据处理方法、装置、计算机设备和存储介质,服务器接收到终端上传的语音数据后,对语音数据进行特征提取,得到多个语音特征信息后,获取预设的声纹识别模型,通过声纹识别模型对所述语音特征信息进行声纹识别,由此能够有效得到多个语音片段和有效识别出对应的声纹标识,服务器进而根据声纹标识将多个语音片段转换为对应的文本信息。服务器进一步获取预设的语义分析模型,通过语义分析模型对文本信息进行上下文语义分析,由此能够准确有效地分析出文本信息中的关键字和校正信息,并根据校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字,进而根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据,由此能够有效地生成对应的会议报告数据,进而能够有效地提高会议语音数据的处理效率和识别准确率。
附图说明
图1为一个实施例中会议语音数据处理方法的应用场景图;
图2为一个实施例中会议语音数据处理方法的流程示意图;
图3为一个实施例中通过声纹识别模型对语音特征信息进行声纹识别步骤的流程示意图;
图4为一个实施例中通过语义分析模型对文本信息进行分析步骤的流程示意图;
图5为一个实施例中会议语音数据处理装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的会议语音数据处理方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。用户可以通过对应的终端102向服务器104发送会议记录请求,以对会议过程中的语音进行记录,会议记录请求携带了会议主题。服务器104接收到终端102发送的会议记录请求后,根据会议记录请求向终端102发送录音指令,终端102则根据录音指令录制会议过程中的语音数据并上传。服务器104则获取终端102根据录音指令上传的语音数据,对语音数据进行特征提取,得到多个语音特征信息后,获取预设的声纹识别模型,通过声纹识别模型对所述语音特征信息进行声纹识别,由此能够有效得到多个语音片段和有效识别出对应的声纹标识,服务器104进而根据声纹标识将多个语音片段转换为对应的文本信息。服务器104进一步获取预设的语义分析模型,通过语义分析模型对文本信息进行上下文语义分析,由此能够准确有效地分析出文本信息中的关键字和校正信息,并根据校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字,进而根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。
在一个实施例中,如图2所示,提供了一种会议语音数据处理方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,接收终端发送的会议记录请求,根据会议记录请求向终端发送录音指令,会议记录请求携带了会议主题。
步骤204,获取终端根据录音指令上传的语音数据。
用户可以预先在应用程序上进行注册,并采集每个用户的语音进行声纹识别以验证身份。服务器则利用多个用户注册后的声纹信息和用户标识生成声纹模型库。用户在召开会议的时候,可以通过终端记录会议过程中的会议语音信息。终端可以向服务器发起会议记录请求,会议记录请求中携带了会议关键字。其中,终端可以为一个,也可以为多个。服务器接收到终端发送的会议记录请求后,则向终端发送录音指令,终端进而根据录音指令进行录音,并将录制的语音数据实时上传至服务器。
步骤206,对语音数据进行特征提取,得到多个语音特征信息。
服务器接收到终端上传的语音数据后,对语音信号进行预处理,例如服务器可以获取语音数据中的语音信号,并对语音数据中的语音信号进行噪声抑制等预处理,得到预处理后的语音信号。服务器进一步对预处理后的语音信号数据进行特征提取,并对特征提取后的语音信号进行语音端点检测,服务器则根据语音端点将语音数据切分为多个语音特征信息。
步骤208,获取预设的声纹识别模型,通过声纹识别模型对语音特征信息进行声纹识别,得到多个语音片段和对应的声纹标识,根据声纹标识将多个语音片段转换为对应的文本信息。
服务器进一步获取预设的声纹识别模型,将预处理后的语音信号数据输入至声纹识别模型中,通过声纹识别模型计算多个语音特征信息对应的特征参数序列,根据特征参数序列的相似度将语音信号切分为多个语音片段,服务器并在声纹模型库中进行匹配,得到对应匹配的声纹标识。服务器进而根据识别后的声纹标识将语音信号转换为对应的文本信息。
步骤210,获取预设的语义分析模型,通过语义分析模型分析出文本信息中的关键字和校正信息,利用关键字和校正信息生成分析结果。
服务器将语音信号转换为对应的文本信息后,进一步获取预设的语义分析模型,通过语义分析模型对识别出的文本信息根据上下文语义进行分析,分析出存在歧义或不清楚的文本信息,进而分析出校正信息。其中,校正信息可以包括有误文本、替换文本和对应的文本位置。服务器同时还通过语义分析模型对文本信息进行上下文分析,并识别出文本信息中出现频率较高的关键字,得到分析出的关键字,进而得到包含关键字和校正信息的分析结果。
步骤212,根据分析结果中的校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字。
步骤214,根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。
服务器通过语义分析模型对文本信息进行分析并得到分析结果后,根据校正信息对文本信息的上下文存在歧义或不清楚文本进行调整和校正。服务器并根据分析出的关键字,在文本信息对应的位置添加关键字。服务器还可以根据关键字对应的预设字符对文本信息进行调整,得到归纳后的文本信息。
当服务器将会议过程中的所有语音数据转换为对应的文本信息后,服务器则进一步根据会议主题获取预设的会议报告模板,并根据会议报告目标和添加关键字后的文本信息按照预设方式生成对应的会议报告数据。服务器通过对会议中的语音数据进行语音识别和声纹识别,能够准确有效地识别出会议中的各个发言人和对应的语音,服务器根据用户标识将语音数据转换为对应的文本信息,并按照预设方式将文本信息生成对应的会议报告数据,由此能够有效地生成对应的会议报告数据。
上述会议语音数据处理方法中,服务器接收到终端上传的语音数据后,对语音数据进行特征提取,得到多个语音特征信息后,获取预设的声纹识别模型,通过声纹识别模型对所述语音特征信息进行声纹识别,由此能够有效得到多个语音片段和有效识别出对应的声纹标识,服务器进而根据声纹标识将多个语音片段转换为对应的文本信息。服务器进一步获取预设的语义分析模型,通过语义分析模型对文本信息进行上下文语义分析,由此能够准确有效地分析出文本信息中的关键字和校正信息,并根据校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字,进而根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据,由此能够有效地生成对应的会议报告数据,进而能够有效地提高会议语音数据的处理效率和识别准确率。
在一个实施例中,对语音数据进行特征提取,得到多个语音特征信息的步骤包括:获取语音数据的语音信号,对语音信号进行分帧加窗,提取出对应的声学特征和频谱特征;对声学特征和频谱特征进行转换,得到对应的声学特征向量和频谱特征向量;获取预设的语音端点检测模型,将声学特征向量和频谱特征向量输入至语音端点检测模型,通过语音端点检测模型检测语音信号的多个起始点和终止点;根据语音信号的多个起始点和终止点将语音数据切分为多个语音特征信息。
服务器接收到终端上传的语音数据后,对语音数据进行声学特征提取。具体地,服务器提取语音数据中的语音信号,终端上传的语音数据中的语音信号通常为带有噪声的带噪语音信号。服务器获取语音信号后,对语音信号进行加窗分帧,提取出对应的声学特征和频谱特征,并对声学特征和频谱特征进行转换,得到对应的声学特征向量和频谱特征向量。
服务器进一步获取预设的语音端点检测模型,将声学特征向量和频谱特征向量输入至语音端点检测模型,通过语音端点检测模型对输入的声学特征向量和频谱特征向量进行分类,可以得到声学特征向量和频谱特征向量对应的决策值。当得到的决策值为预设的第一阈值时,对声学特征向量或频谱特征向量添加语音标签。其中,第一阈值可以是一个范围值。当得到的决策值为预设的第二阈值时,对声学特征向量或频谱特征向量添加非语音标签。进而可以得到添加语音标签的声学特征向量和添加语音标签的频谱特征向量。对添加语音标签的声学特征向量和添加语音标签的频谱特征向量进行解析,得到添加语音标签的语音信号,根据语音信号的时序和添加语音标签确定语音信号的多个起始点和终止点,进而根据语音信号的多个起始点和终止点将语音数据切分为多个语音特征信息。通过利用语音端点检测模型对语音信号进行端点检测和分类,从而能够准确地识别出带噪语音信号中语音信号和非语音信号,进而能够有效提取出语音数据中的语音特征信息。
在一个实施例中,如图3所示,通过声纹识别模型对语音特征信息进行声纹识别的步骤,具体包括以下内容:
步骤302,通过声纹识别模型计算多个语音特征信息中的特征参数序列。
步骤304,根据特征参数序列对语音特征信息进行切分,的到多个语音片段。
步骤306,计算多个语音片段的特征参数序列的相似度,将相似度达到预设阈值的多个语音片段进行归类。
步骤308,根据归类后的特征参数序列在声纹模型库中进行匹配,对归类后的语音片段添加相匹配的声纹标识。
服务器在获取预设的声纹识别模型之前,需要预先构建出声纹识别模型。具体地,服务器可以首先获取大量的语音样本数据,将语音样本数据分为训练集和验证集,其中,训练集中可以是已经标注的语音样本数据。服务器则将训练集中的语音样本数据输入至预设的声纹识别模型中进行训练,得到初始的声纹识别模型,服务器进而将验证集中的语音样本数据输入至初始的声纹识别模型中进行进一步训练和验证。当验证集中的满足预设匹配度值的语音样本数据的数量达到预设阈值时,则停止训练,进而得到训练完成的声纹识别模型。服务器进一步将声纹模型库中用户的声纹输入至训练完成的声纹识别模型中,由此能够有效地构建出识别准确率较高的声纹识别模型。
服务器对语音信号数据进行特征提取得到多个语音特征信息后,则获取预设的声纹识别模型,并将多个语音特征信息输入至声纹识别模型中,通过声纹识别模型对语音特征信息进行声纹识别。具体地,服务器通过声纹识别模型计算出每个语音特征信息中的特征参数序列,其中,每个语音特征序列中可能包括不同特征参数序列的语音片段。服务器则根据不同的特征参数序列将语音特征信息切分为多个语音片段,并将特征参数序列相同的语音片段进行归类,例如,可以将特征参数序列相同的多个语音片段归为同一类。
服务器进而根据归类后的特征参数序列在声纹模型库中进行匹配,其中,声纹模型库中预先存储了多个发言人对应的声纹特征和对应的声纹标识。服务器通过将多个语音片段的特征参数序列与声纹模型库中的声纹特征进行匹配,提取出匹配度最高的特征参数序列对应的声纹标识,进而能够有效地匹配出每个语音片段所对应的声纹标识,服务器则对每一个语音片段添加识别出的对应的声纹标识,由此能够有效地识别出语音数据中各个发言人对应的语音片段信息。
通过声纹识别模型计算出每个语音特征片段对应的特征参数序列,并将特征参数序列与预设的声纹模型库中的特征参数序列进行比对,提取出匹配度最高的特征参数序列的用户对应的声纹标识,并将用户标识添加至对应的语音特征片段中,由此能够准确有效地识别出会议中的各个发言人和对应的语音。
服务器将多个语音片段转换为对应的文本信息后,进一步获取预设的语义分析模型,通过语义分析模型对文本信息进行上下文语义分析,得到包括关键字和校正信息的分析结果。服务器则根据校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字,进而根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。由此能够有效地生成对应的会议报告数据,进而能够有效地提高会议语音数据的处理效率和识别准确率。
在一个实施例中,如图4所示,通过语义分析模型对文本信息进行上下文语义分析的步骤,具体包括以下内容:
步骤402,通过语义分析模型对所述文本信息进行上下文分析,得到多个文本的语义和词频。
步骤404,根据多个文本的语义和词频识别出文本信息中的关键字。
步骤406,根据多个文本的语义和关键字分析文本信息中的校正信息,利用关键字和校正信息生成文本信息的分析结果。
服务器接收到终端上传的语音数据后,对语音数据进行特征提取,得到多个语音特征信息后,获取预设的声纹识别模型,通过声纹识别模型对所述语音特征信息进行声纹识别,由此能够有效得到多个语音片段和有效识别出对应的声纹标识,服务器进而根据声纹标识将多个语音片段转换为对应的文本信息。
服务器得到语音数据对应的文本信息后,进一步获取预设的语义分析模型,通过语义分析模型对文本信息进行上下文语义分析。具体地,语义分析模型可以是基于神经网络的机器学习模型。服务器通过语义分析模型对文本信息进行上下文分析,分析多个文本的语义,并识别出文本信息中出现频率较高的文本,根据多个文本的语义和词频得到分析出的关键字。其中,词频可以是某个词或短语在文本信息中出现的频率。
服务器进一步通过语义分析模型根据多个文本的语义和关键字分析出存在歧义或不清楚的文本信息,进而分析出文本信息中的校正信息,校正信息中可以包括待校正文本和校正文本以及对应的文本位置。服务器则利用关键字和校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字,进而根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据,由此能够有效地生成对应的会议报告数据,进而能够有效地提高会议语音数据的处理效率和识别准确率。
在一个实施例中,校正信息包括待校正文本和校正文本以及对应的文本位置,根据校正信息对文本信息进行校正的步骤包括:获取校正信息中的待校正文本和校正文本;根据校正文本对文本位置的待校正文本进行替换,并删除待校正文本,得到校正后的文本信息。
服务器将语音数据转换为对应的文本信息后,进一步获取预设的语义分析模型,通过语义分析模型对文本信息进行上下文语义分析。具体地,语义分析模型可以是基于神经网络的机器学习模型。服务器通过语义分析模型对文本信息进行上下文分析,分析多个文本的语义,并识别出文本信息中出现频率较高的文本,根据多个文本的语义和词频得到分析出的关键字。
服务器进一步通过语义分析模型根据多个文本的语义和关键字分析出存在歧义或不清楚的文本信息,进而分析出文本信息中的校正信息,校正信息中可以包括待校正文本和校正文本以及对应的文本位置。服务器则利用关键字和校正信息对文本信息进行校正,具体地,服务器获取校正信息中的待校正文本和校正文本,根据校正文本对文本位置的待校正文本进行替换,并删除待校正文本,进而得到校正后的文本信息。
服务器并对校正后的文本信息添加对应的关键字,具体地,服务器根据识别出的关键字,将关键字添加至关键字所对应的文本区域。服务器进而根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据,由此能够有效地生成对应的会议报告数据。通过语义分析模型分析多个文本的语义和词频,由此分析出关键字和校正信息,并根据关键字和校正信息对文本信息进行调整和校正,进而能够有效地提高会议语音数据的识别准确率。
在一个实施例中,该方法还包括:接收到终端发送的查询请求,查询请求携带关键字;根据关键字获取与关键字相关联的会议文本内容;将文本内容按照预设方式发送至终端,并进行显示。
服务器将会议过程中的语音数据生成对应的会议报告数据后,将会以报告数据进行存储。用户可以利用关键字查询会议报告数据中对应的会议文本内容。具体地,用户可以通过对应的用户终端向服务器发送查询请求,查询请求中携带了会议主题和关键字。其中,关键字也可以包括用户标识,用户标识与声纹标识可以相一致。服务器接收到用户终端发送的查询请求后,根据会议主题和关键字从数据库中获取会议报告数据中与该关键字相关联的会议文本内容。并将会议文本内容按照预设方式发送至用户终端,例如可以对文本内容进行突出显示。由此可以有效地使用户快速便捷地了解到用户所需的会议内容。
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种会议语音数据处理装置,包括:数据获取模块502、特征提取模块504、声纹识别模块506、语义分析模块508、文本校正模块510和会议报告生成模块512,其中:
数据获取模块502,用于接收终端发送的会议记录请求,根据会议记录请求向终端发送录音指令,会议记录请求携带了会议主题;获取终端根据录音指令上传的语音数据;
特征提取模块504,用于对语音数据进行特征提取,得到多个语音特征信息;
声纹识别模块506,用于获取预设的声纹识别模型,通过声纹识别模型对语音特征信息进行声纹识别,得到多个语音片段和对应的声纹标识,根据声纹标识将多个语音片段转换为对应的文本信息;
语义分析模块508,用于获取预设的语义分析模型,通过语义分析模型分析出文本信息中的关键字和校正信息,利用关键字和校正信息生成分析结果;
文本校正模块510,用于根据分析结果中的校正信息对文本信息进行校正,并对校正后的文本信息添加对应的关键字;
会议报告生成模块512,用于根据会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。
在一个实施例中,特征提取模块504还用于获取语音数据的语音信号,对语音信号进行分帧加窗,提取出对应的声学特征和频谱特征;对声学特征和频谱特征进行转换,得到对应的声学特征向量和频谱特征向量;获取预设的语音端点检测模型,将声学特征向量和频谱特征向量输入至语音端点检测模型,通过语音端点检测模型检测语音信号的多个起始点和终止点;根据语音信号的多个起始点和终止点将语音数据切分为多个语音特征信息。
在一个实施例中,声纹识别模块506还用于通过声纹识别模型计算多个语音特征信息中的特征参数序列;根据特征参数序列对语音特征信息进行切分,得到多个语音片段;计算多个语音片段的特征参数序列的相似度,将相似度达到预设阈值的多个语音片段进行归类;根据归类后的特征参数序列在声纹模型库中进行匹配,对归类后的语音片段添加相匹配的声纹标识。
在一个实施例中,语义分析模块508还用于通过语义分析模型对文本信息进行上下文分析,得到多个文本的语义和词频;根据多个文本的语义和词频识别出文本信息中的关键字;根据多个文本的语义和关键字分析文本信息中存在的校正信息,利用关键字和校正信息生成文本信息的分析结果。
在一个实施例中,校正信息包括待校正文本和校正文本以及对应的文本位置,文本校正模块510还用于获取校正信息中的待校正文本和校正文本;根据校正文本对文本位置的待校正文本进行替换,并删除待校正文本,得到校正后的文本信息。
在一个实施例中,该装置还包括查询模块,用于接收到终端发送的查询请求,查询请求携带会议主题和关键字;根据会议主题和关键字获取与关键字相关联的会议文本内容;将文本内容按照预设方式发送至所述终端,并按照预设方式进行显示。
关于会议语音数据处理装置的具体限定可以参见上文中对于会议语音数据处理方法的限定,在此不再赘述。上述会议语音数据处理置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储语音数据、语音特征信息、声纹模型库、文本信息以及会议报告数据等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现本申请任意一个实施例中提供的会议语音数据处理方法的步骤。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现本申请任意一个实施例中提供的会议语音数据处理方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种会议语音数据处理方法,所述方法包括:
接收终端发送的会议记录请求,根据所述会议记录请求向所述终端发送录音指令,所述会议记录请求携带了会议主题;
获取所述终端根据所述录音指令上传的语音数据;
对所述语音数据进行特征提取,得到多个语音特征信息;
获取预设的声纹识别模型,通过所述声纹识别模型对所述语音特征信息进行声纹识别,得到多个语音片段和对应的声纹标识,根据所述声纹标识将所述多个语音片段转换为对应的文本信息;
获取预设的语义分析模型,通过所述语义分析模型分析出文本信息中的关键字和校正信息,利用所述关键字和校正信息生成分析结果;
根据所述分析结果中的校正信息对所述文本信息进行校正,并对校正后的文本信息添加对应的关键字;
根据所述会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。
2.根据权利要求1所述的方法,其特征在于,所述对所述语音数据进行特征提取,得到多个语音特征信息的步骤包括:
获取所述语音数据的语音信号,对所述语音信号进行分帧加窗,提取出对应的声学特征和频谱特征;
对所述声学特征和频谱特征进行转换,得到对应的声学特征向量和频谱特征向量;
获取预设的语音端点检测模型,将所述声学特征向量和频谱特征向量输入至所述语音端点检测模型,通过所述语音端点检测模型检测所述语音信号的多个起始点和终止点;
根据所述语音信号的多个起始点和终止点将所述语音数据切分为多个语音特征信息。
3.根据权利要求1所述的方法,其特征在于,所述通过所述声纹识别模型对所述语音特征信息进行声纹识别的步骤包括:
通过所述声纹识别模型计算多个语音特征信息中的特征参数序列;
根据所述特征参数序列对所述语音特征信息进行切分,得到多个语音片段;
计算所述多个语音片段的特征参数序列的相似度,将所述相似度达到预设阈值的多个语音片段进行归类;
根据归类后的特征参数序列在声纹模型库中进行匹配,对归类后的语音片段添加相匹配的声纹标识。
4.根据权利要求1所述的方法,其特征在于,所述通过所述语义分析模型分析出文本信息中的关键字和校正信息的步骤包括:
通过所述语义分析模型对所述文本信息进行上下文分析,得到多个文本的语义和词频;
根据所述多个文本的语义和词频识别出文本信息中的关键字;
根据所述多个文本的语义和关键字分析文本信息中的校正信息,利用关键字和校正信息生成文本信息的分析结果。
5.根据权利要求1所述的方法,其特征在于,所述校正信息包括待校正文本和校正文本以及对应的文本位置,所述根据所述校正信息对所述文本信息进行校正的步骤包括:
获取所述校正信息中的待校正文本和校正文本;
根据所述校正文本对所述文本位置的待校正文本进行替换,并删除所述待校正文本,得到校正后的文本信息。
6.根据权利要求1至5任意一项所述的方法,其特征在于,所述方法还包括:
接收到终端发送的查询请求,所述查询请求携带会议主题和关键字;
根据所述会议主题和关键字获取与所述关键字相关联的会议文本内容;
将所述文本内容按照预设方式发送至所述终端,并按照预设方式进行显示。
7.一种会议语音数据处理装置,所述装置包括:
请求接收模块,用于接收终端发送的会议记录请求,根据所述会议记录请求向所述终端发送录音指令,所述会议记录请求携带了会议主题;
数据获取模块,用于获取所述终端根据所述录音指令上传的语音数据;
特征提取模块,用于对所述语音数据进行特征提取,得到多个语音特征信息;
声纹识别模块,用于获取预设的声纹识别模型,通过所述声纹识别模型对所述语音特征信息进行声纹识别,得到多个语音片段和对应的声纹标识,根据所述声纹标识将所述多个语音片段转换为对应的文本信息;
语义分析模块,用于获取预设的语义分析模型,通过所述语义分析模型分析出文本信息中的关键字和校正信息,利用所述关键字和校正信息生成分析结果;
文本校正模块,用于根据所述分析结果中的校正信息对所述文本信息进行校正,并对校正后的文本信息添加对应的关键字;
会议报告生成模块,用于根据所述会议主题和添加关键字的文本信息按照预设方式生成对应的会议报告数据。
8.根据权利要求7所述的装置,其特征在于,所述语义分析模块还用于通过所述语义分析模型对所述文本信息进行上下文分析,得到多个文本的语义和词频;根据所述多个文本的语义和词频识别出文本信息中的关键字;根据所述多个文本的语义和关键字分析文本信息中存在的校正信息,利用关键字和校正信息生成文本信息的分析结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
CN201910494580.7A 2019-06-05 2019-06-05 会议语音数据处理方法、装置、计算机设备和存储介质 Pending CN110322872A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910494580.7A CN110322872A (zh) 2019-06-05 2019-06-05 会议语音数据处理方法、装置、计算机设备和存储介质
PCT/CN2019/118267 WO2020244153A1 (zh) 2019-06-05 2019-11-14 会议语音数据处理方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910494580.7A CN110322872A (zh) 2019-06-05 2019-06-05 会议语音数据处理方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN110322872A true CN110322872A (zh) 2019-10-11

Family

ID=68121008

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910494580.7A Pending CN110322872A (zh) 2019-06-05 2019-06-05 会议语音数据处理方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
CN (1) CN110322872A (zh)
WO (1) WO2020244153A1 (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889266A (zh) * 2019-11-21 2020-03-17 北京明略软件系统有限公司 一种会议记录整合方法和装置
CN111261155A (zh) * 2019-12-27 2020-06-09 北京得意音通技术有限责任公司 语音处理方法、计算机可读存储介质、计算机程序和电子设备
CN111626061A (zh) * 2020-05-27 2020-09-04 深圳前海微众银行股份有限公司 会议记录生成方法、装置、设备及可读存储介质
CN111666403A (zh) * 2020-06-18 2020-09-15 中国银行股份有限公司 会议纪要处理方法、装置及会议纪要处理设备
CN111708912A (zh) * 2020-05-06 2020-09-25 深圳震有科技股份有限公司 视频会议记录查询处理方法、装置
CN111883128A (zh) * 2020-07-31 2020-11-03 中国工商银行股份有限公司 语音处理方法及系统、语音处理装置
CN112017655A (zh) * 2020-07-25 2020-12-01 云开智能(深圳)有限公司 一种智能语音收录回放方法及其系统
CN112036820A (zh) * 2020-08-24 2020-12-04 北京鸿联九五信息产业有限公司 一种企业内部信息反馈处理方法、系统、存储介质及设备
WO2020244153A1 (zh) * 2019-06-05 2020-12-10 平安科技(深圳)有限公司 会议语音数据处理方法、装置、计算机设备和存储介质
CN112183107A (zh) * 2020-09-04 2021-01-05 华为技术有限公司 音频的处理方法和装置
CN112287691A (zh) * 2020-11-10 2021-01-29 深圳市天彦通信股份有限公司 会议录音方法及相关设备
CN112651240A (zh) * 2020-12-30 2021-04-13 广东电力信息科技有限公司 业务会议信息处理系统、方法、电子设备及存储介质
CN113129895A (zh) * 2021-04-20 2021-07-16 上海仙剑文化传媒股份有限公司 一种语音检测处理系统
CN113327619A (zh) * 2021-02-26 2021-08-31 山东大学 一种基于云—边缘协同架构的会议记录方法及系统
CN113611308A (zh) * 2021-09-08 2021-11-05 杭州海康威视数字技术股份有限公司 一种语音识别方法、装置、系统、服务器及存储介质
CN113722425A (zh) * 2021-07-23 2021-11-30 阿里巴巴达摩院(杭州)科技有限公司 数据处理方法、计算机设备及计算机可读存储介质
CN115512692A (zh) * 2022-11-04 2022-12-23 腾讯科技(深圳)有限公司 语音识别方法、装置、设备及存储介质
CN117456984A (zh) * 2023-10-26 2024-01-26 杭州捷途慧声科技有限公司 一种基于声纹识别的语音交互方法及系统
TWI835098B (zh) * 2021-04-07 2024-03-11 南韓商納寶股份有限公司 提供基於語音錄製後的資訊生成的語音記錄的方法、系統及計算可讀記錄介質

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113299291A (zh) * 2021-05-18 2021-08-24 北京明略昭辉科技有限公司 基于关键词的录音保存方法、装置、设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321530A (ja) * 2004-05-07 2005-11-17 Sony Corp 発話識別装置および発話識別方法
CN103258535A (zh) * 2013-05-30 2013-08-21 中国人民财产保险股份有限公司 基于声纹识别的身份识别方法及系统
CN106056996A (zh) * 2016-08-23 2016-10-26 深圳市时尚德源文化传播有限公司 一种多媒体交互教学系统及方法
CN108022583A (zh) * 2017-11-17 2018-05-11 平安科技(深圳)有限公司 会议纪要生成方法、应用服务器及计算机可读存储介质
CN108132995A (zh) * 2017-12-20 2018-06-08 北京百度网讯科技有限公司 用于处理音频信息的方法和装置
CN108182945A (zh) * 2018-03-12 2018-06-19 广州势必可赢网络科技有限公司 一种基于声纹特征的多人声音分离方法及装置
CN108198547A (zh) * 2018-01-18 2018-06-22 深圳市北科瑞声科技股份有限公司 语音端点检测方法、装置、计算机设备和存储介质
CN108986826A (zh) * 2018-08-14 2018-12-11 中国平安人寿保险股份有限公司 自动生成会议记录的方法、电子装置及可读存储介质
CN109145148A (zh) * 2017-06-28 2019-01-04 百度在线网络技术(北京)有限公司 信息处理方法和装置
CN109388701A (zh) * 2018-08-17 2019-02-26 深圳壹账通智能科技有限公司 会议记录生成方法、装置、设备和计算机存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1141696C (zh) * 2000-03-31 2004-03-10 清华大学 基于语音识别专用芯片的非特定人语音识别、语音提示方法
US10586556B2 (en) * 2013-06-28 2020-03-10 International Business Machines Corporation Real-time speech analysis and method using speech recognition and comparison with standard pronunciation
CN110322872A (zh) * 2019-06-05 2019-10-11 平安科技(深圳)有限公司 会议语音数据处理方法、装置、计算机设备和存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321530A (ja) * 2004-05-07 2005-11-17 Sony Corp 発話識別装置および発話識別方法
CN103258535A (zh) * 2013-05-30 2013-08-21 中国人民财产保险股份有限公司 基于声纹识别的身份识别方法及系统
CN106056996A (zh) * 2016-08-23 2016-10-26 深圳市时尚德源文化传播有限公司 一种多媒体交互教学系统及方法
CN109145148A (zh) * 2017-06-28 2019-01-04 百度在线网络技术(北京)有限公司 信息处理方法和装置
CN108022583A (zh) * 2017-11-17 2018-05-11 平安科技(深圳)有限公司 会议纪要生成方法、应用服务器及计算机可读存储介质
CN108132995A (zh) * 2017-12-20 2018-06-08 北京百度网讯科技有限公司 用于处理音频信息的方法和装置
CN108198547A (zh) * 2018-01-18 2018-06-22 深圳市北科瑞声科技股份有限公司 语音端点检测方法、装置、计算机设备和存储介质
CN108182945A (zh) * 2018-03-12 2018-06-19 广州势必可赢网络科技有限公司 一种基于声纹特征的多人声音分离方法及装置
CN108986826A (zh) * 2018-08-14 2018-12-11 中国平安人寿保险股份有限公司 自动生成会议记录的方法、电子装置及可读存储介质
CN109388701A (zh) * 2018-08-17 2019-02-26 深圳壹账通智能科技有限公司 会议记录生成方法、装置、设备和计算机存储介质

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020244153A1 (zh) * 2019-06-05 2020-12-10 平安科技(深圳)有限公司 会议语音数据处理方法、装置、计算机设备和存储介质
CN110889266A (zh) * 2019-11-21 2020-03-17 北京明略软件系统有限公司 一种会议记录整合方法和装置
CN111261155A (zh) * 2019-12-27 2020-06-09 北京得意音通技术有限责任公司 语音处理方法、计算机可读存储介质、计算机程序和电子设备
CN111708912A (zh) * 2020-05-06 2020-09-25 深圳震有科技股份有限公司 视频会议记录查询处理方法、装置
CN111626061A (zh) * 2020-05-27 2020-09-04 深圳前海微众银行股份有限公司 会议记录生成方法、装置、设备及可读存储介质
CN111666403A (zh) * 2020-06-18 2020-09-15 中国银行股份有限公司 会议纪要处理方法、装置及会议纪要处理设备
CN111666403B (zh) * 2020-06-18 2024-02-09 中国银行股份有限公司 会议纪要处理方法、装置及会议纪要处理设备
CN112017655A (zh) * 2020-07-25 2020-12-01 云开智能(深圳)有限公司 一种智能语音收录回放方法及其系统
CN111883128A (zh) * 2020-07-31 2020-11-03 中国工商银行股份有限公司 语音处理方法及系统、语音处理装置
CN112036820A (zh) * 2020-08-24 2020-12-04 北京鸿联九五信息产业有限公司 一种企业内部信息反馈处理方法、系统、存储介质及设备
CN112183107A (zh) * 2020-09-04 2021-01-05 华为技术有限公司 音频的处理方法和装置
WO2022048239A1 (zh) * 2020-09-04 2022-03-10 华为技术有限公司 音频的处理方法和装置
CN112287691A (zh) * 2020-11-10 2021-01-29 深圳市天彦通信股份有限公司 会议录音方法及相关设备
CN112287691B (zh) * 2020-11-10 2024-02-13 深圳市天彦通信股份有限公司 会议录音方法及相关设备
CN112651240A (zh) * 2020-12-30 2021-04-13 广东电力信息科技有限公司 业务会议信息处理系统、方法、电子设备及存储介质
CN113327619A (zh) * 2021-02-26 2021-08-31 山东大学 一种基于云—边缘协同架构的会议记录方法及系统
CN113327619B (zh) * 2021-02-26 2022-11-04 山东大学 一种基于云—边缘协同架构的会议记录方法及系统
TWI835098B (zh) * 2021-04-07 2024-03-11 南韓商納寶股份有限公司 提供基於語音錄製後的資訊生成的語音記錄的方法、系統及計算可讀記錄介質
CN113129895A (zh) * 2021-04-20 2021-07-16 上海仙剑文化传媒股份有限公司 一种语音检测处理系统
CN113129895B (zh) * 2021-04-20 2022-12-30 上海仙剑文化传媒股份有限公司 一种语音检测处理系统
CN113722425A (zh) * 2021-07-23 2021-11-30 阿里巴巴达摩院(杭州)科技有限公司 数据处理方法、计算机设备及计算机可读存储介质
CN113611308A (zh) * 2021-09-08 2021-11-05 杭州海康威视数字技术股份有限公司 一种语音识别方法、装置、系统、服务器及存储介质
CN113611308B (zh) * 2021-09-08 2024-05-07 杭州海康威视数字技术股份有限公司 一种语音识别方法、装置、系统、服务器及存储介质
CN115512692B (zh) * 2022-11-04 2023-02-28 腾讯科技(深圳)有限公司 语音识别方法、装置、设备及存储介质
CN115512692A (zh) * 2022-11-04 2022-12-23 腾讯科技(深圳)有限公司 语音识别方法、装置、设备及存储介质
CN117456984A (zh) * 2023-10-26 2024-01-26 杭州捷途慧声科技有限公司 一种基于声纹识别的语音交互方法及系统

Also Published As

Publication number Publication date
WO2020244153A1 (zh) 2020-12-10

Similar Documents

Publication Publication Date Title
CN110322872A (zh) 会议语音数据处理方法、装置、计算机设备和存储介质
CN110265032A (zh) 会议数据分析处理方法、装置、计算机设备和存储介质
Anguera et al. Speaker diarization: A review of recent research
US20180197548A1 (en) System and method for diarization of speech, automated generation of transcripts, and automatic information extraction
CN110335612A (zh) 基于语音识别的会议记录生成方法、装置及存储介质
US20210193167A1 (en) Audio recognition method, device and server
CN110782872A (zh) 基于深度卷积循环神经网络的语种识别方法及装置
CN108829765A (zh) 一种信息查询方法、装置、计算机设备及存储介质
CN110415704A (zh) 庭审笔录数据处理方法、装置、计算机设备和存储介质
CN111243590A (zh) 一种会议记录的生成方法及设备
US11238869B2 (en) System and method for reconstructing metadata from audio outputs
CN109560941A (zh) 会议记录方法、装置、智能终端及存储介质
CN109766474A (zh) 审讯信息审核方法、装置、计算机设备和存储介质
CN110890088A (zh) 语音信息反馈方法、装置、计算机设备和存储介质
CN109920435A (zh) 一种声纹识别方法及声纹识别装置
CN114429635A (zh) 书本管理方法
CN113630309B (zh) 机器人会话系统、方法、装置、计算机设备和存储介质
CN114065720A (zh) 会议纪要生成方法、装置、存储介质及电子设备
WO2021159734A1 (zh) 一种数据处理方法、装置、设备及介质
TWI769520B (zh) 多國語言語音辨識及翻譯方法與相關的系統
CN112667787A (zh) 基于话术标签的智能应答方法、系统及存储介质
CN116227504B (zh) 一种同传翻译的通讯方法、系统、设备及存储介质
Hong et al. Visagesyntalk: Unseen speaker video-to-speech synthesis via speech-visage feature selection
CN111354349A (zh) 一种语音识别方法及装置、电子设备
CN112397052B (zh) Vad断句测试方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination