CN111883123B - 基于ai识别的会议纪要生成方法、装置、设备及介质 - Google Patents

基于ai识别的会议纪要生成方法、装置、设备及介质 Download PDF

Info

Publication number
CN111883123B
CN111883123B CN202010718944.8A CN202010718944A CN111883123B CN 111883123 B CN111883123 B CN 111883123B CN 202010718944 A CN202010718944 A CN 202010718944A CN 111883123 B CN111883123 B CN 111883123B
Authority
CN
China
Prior art keywords
audio
target
determining
voice
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010718944.8A
Other languages
English (en)
Other versions
CN111883123A (zh
Inventor
刘璐
彭涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010718944.8A priority Critical patent/CN111883123B/zh
Publication of CN111883123A publication Critical patent/CN111883123A/zh
Priority to PCT/CN2021/096433 priority patent/WO2022016994A1/zh
Application granted granted Critical
Publication of CN111883123B publication Critical patent/CN111883123B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能,提供一种基于AI识别的会议纪要生成方法、装置、设备及介质。该方法提取参会者的声纹特征,确定发出音频检测指令的音频设备,获取待识别音频,避免多个参会者同时发言而导致语音重叠,对待识别音频进行处理,得到音频特征,将音频特征与声纹特征进行比较,并确定待识别音频的发言对象,通过对声纹特征的比较结果及音频设备的绑定结果进行综合分析,准确地确定发言对象,对待识别音频进行语音识别,得到文本信息,将文本信息翻译成与预先设置好的语言类型对应的目标语言文本,无需额外配置翻译人员,根据发言对象、文本信息及目标语言文本生成会议纪要。本发明还涉及区块链技术,会议纪要可存储于区块链。

Description

基于AI识别的会议纪要生成方法、装置、设备及介质
技术领域
本发明涉及数据处理技术领域,尤其涉及一种基于AI识别的会议纪要生成方法、装置、设备及介质。
背景技术
目前的远程会议是指两个或两个以上不同会议场所的个人或者群体通过传输线路及多媒体设备实现声音互传的会议,这种远程会议方式能够降低会议成本。
然而,当会议中存在多位发言人员时,由于远程会议的局限性,会议记录人员只能根据发言人员的音色主观确定正在发表言论的对象,进而执行会议纪要的记录工作,通过主观确定发言对象的方式容易出现发言对象误判的情况,进而降低会议纪要的准确性。此外,当发言人员说话速度较快时,会议记录人员往往不能完整地记录会议过程中讨论的所有关键信息,导致会议纪要的关键信息的遗漏。另外,由于不同国家使用的语言有所不同,因此,当发言人员使用的语言不能为参会人员理解时,会议场所需要配备不同国家语言的会议记录人员做会议纪要,导致花费大量的人力资源。
发明内容
鉴于以上内容,有必要提供一种基于AI识别的会议纪要生成方法、装置、设备及介质,能够在没有额外配置翻译人员做会议纪要的场景下,快速完整地将待识别音频进行转换,避免会议纪要中的关键信息的遗漏,还能提高会议纪要的准确性。
一种基于AI识别的会议纪要生成方法,所述基于AI识别的会议纪要生成方法包括:
当接收到会议纪要生成请求时,从所述会议纪要生成请求中获取参会者名单;
从配置库中提取所述参会者名单中每个参会者对应的声纹特征;
当接收到音频检测指令时,确定发出所述音频检测指令的音频设备,并从所述音频设备中获取待识别音频;
对所述待识别音频进行处理,得到音频特征;
将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象;
对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息;
将所述文本信息翻译成与预先设置好的语言类型对应的目标语言文本;
根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要。
根据本发明优选实施例,在从配置库中提取所述参会者名单中每个参会者对应的声纹特征之前,所述基于AI识别的会议纪要生成方法还包括:
获取多个用户的音频信息及所述多个用户中每个用户的身份识别码;
利用语音信号处理技术,对所述音频信息进行预处理;
对预处理后的音频信息进行编码,得到所述音频信息的数字信号;
从所述数字信号中提取声纹特征;
以所述身份识别码与所述声纹特征建立映射关系并保存至所述配置库中。
根据本发明优选实施例,所述确定发出所述音频检测指令的音频设备包括:
解析所述音频检测指令,得到参数信息;
根据所述参数信息确定所述音频设备。
根据本发明优选实施例,所述对所述待识别音频进行处理,得到音频特征包括:
对所述待识别音频进行分块处理,得到音频区域集;
提取所述音频区域集中每一帧对应的特征参数,得到所述音频特征。
根据本发明优选实施例,所述将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象包括:
将所述音频特征与每个声纹特征进行比较,得到比较结果,所述比较结果为每个声纹特征与所述音频特征的相似度;
当检测到所述相似度中存在任意相似度大于阈值时,将所述任意相似度中的最大相似度确定为目标相似度,并将所述目标相似度对应的声纹特征确定为目标声纹特征;
将所述目标声纹特征对应的用户确定为第一用户;
获取与所述音频设备绑定的用户作为第二用户;
当检测到所述第一用户与所述第二用户为同一人时,将所述第一用户确定为所述发言对象;或者
当检测到所述第一用户与所述第二用户不为同一人时,启动摄像设备对当前使用所述音频设备的用户进行录像,得到目标图像,并将所述目标图像与人脸库中的预设图像进行匹配,得到每张预设图像的匹配度,每张预设图像对应一个人员,并获取每个人员的语言特征,确定每个语言特征与所述音频特征的相似度,采用预设权重对每个相似度与每个匹配度进行加权和运算,得到每个人员的分值,将分值最高的人员确定为所述发言对象。
根据本发明优选实施例,所述对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息包括:
利用移动窗函数对所述待识别音频按照预设时长进行分割,得到至少一帧语音;
对每帧语音进行预处理,并计算每帧预处理后的语音的能量值;
当检测到预处理后的语音中连续预设帧的能量值小于配置值,及接下来的语音中连续所述预设帧的能量值大于所述配置值时,将能量值开始增大的语音帧确定为语音的前端点;
当检测到预处理后的语音中连续所述预设帧的能量值大于所述配置值,及接下来的语音中连续所述预设帧的能量值小于所述配置值时,将能量值开始减小的语音帧确定为语音的后端点;
删除所述前端点至所述后端点之外的语音帧,得到目标音频;
对所述目标音频进行分块处理,得到目标语音帧;
将所述目标语音帧转换为所述文本信息。
根据本发明优选实施例,所述根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要包括:
获取预先配置的会议纪要模版,并获取所述文本信息的发言时间;
依据所述发言时间从先至后的顺序,将所述发言对象、所述文本信息及所述目标语言文本录入所述会议纪要模板,得到会议记录;
对所述会议记录进行分词处理,得到分词;
采用编码算法将所述分词转换为第一词向量,并将预设词组转换为第二词向量;
利用余弦距离公式,计算所述第一词向量与所述第二词向量的距离;
将距离值大于预设值的第一词向量确定为目标词向量,并将所述目标词向量对应的分词确定为目标词组;
在所述会议记录中标识所述目标词组,得到所述会议纪要。
一种基于AI识别的会议纪要生成装置,所述基于AI识别的会议纪要生成装置包括:
获取单元,用于当接收到会议纪要生成请求时,从所述会议纪要生成请求中获取参会者名单;
提取单元,用于从配置库中提取所述参会者名单中每个参会者对应的声纹特征;
确定单元,用于当接收到音频检测指令时,确定发出所述音频检测指令的音频设备,并从所述音频设备中获取待识别音频;
处理单元,用于对所述待识别音频进行处理,得到音频特征;
比较单元,用于将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象;
识别单元,用于对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息;
翻译单元,用于将所述文本信息翻译成与预先设置好的语言类型对应的目标语言文本;
生成单元,用于根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要。
根据本发明优选实施例,所述获取单元,还用于在从配置库中提取所述参会者名单中每个参会者对应的声纹特征之前,获取多个用户的音频信息及所述多个用户中每个用户的身份识别码;
所述装置还包括:
预处理单元,用于利用语音信号处理技术,对所述音频信息进行预处理;
编码单元,用于对预处理后的音频信息进行编码,得到所述音频信息的数字信号;
所述提取单元,还用于从所述数字信号中提取声纹特征;
建立单元,用于以所述身份识别码与所述声纹特征建立映射关系并保存至所述配置库中。
根据本发明优选实施例,所述确定单元具体用于:
解析所述音频检测指令,得到参数信息;
根据所述参数信息确定所述音频设备。
根据本发明优选实施例,所述处理单元具体用于:
对所述待识别音频进行分块处理,得到音频区域集;
提取所述音频区域集中每一帧对应的特征参数,得到所述音频特征。
根据本发明优选实施例,所述比较单元具体用于:
将所述音频特征与每个声纹特征进行比较,得到比较结果,所述比较结果为每个声纹特征与所述音频特征的相似度;
当检测到所述相似度中存在任意相似度大于阈值时,将所述任意相似度中的最大相似度确定为目标相似度,并将所述目标相似度对应的声纹特征确定为目标声纹特征;
将所述目标声纹特征对应的用户确定为第一用户;
获取与所述音频设备绑定的用户作为第二用户;
当检测到所述第一用户与所述第二用户为同一人时,将所述第一用户确定为所述发言对象;或者
当检测到所述第一用户与所述第二用户不为同一人时,启动摄像设备对当前使用所述音频设备的用户进行录像,得到目标图像,并将所述目标图像与人脸库中的预设图像进行匹配,得到每张预设图像的匹配度,每张预设图像对应一个人员,并获取每个人员的语言特征,确定每个语言特征与所述音频特征的相似度,采用预设权重对每个相似度与每个匹配度进行加权和运算,得到每个人员的分值,将分值最高的人员确定为所述发言对象。
根据本发明优选实施例,所述识别单元具体用于:
利用移动窗函数对所述待识别音频按照预设时长进行分割,得到至少一帧语音;
对每帧语音进行预处理,并计算每帧预处理后的语音的能量值;
当检测到预处理后的语音中连续预设帧的能量值小于配置值,及接下来的语音中连续所述预设帧的能量值大于所述配置值时,将能量值开始增大的语音帧确定为语音的前端点;
当检测到预处理后的语音中连续所述预设帧的能量值大于所述配置值,及接下来的语音中连续所述预设帧的能量值小于所述配置值时,将能量值开始减小的语音帧确定为语音的后端点;
删除所述前端点至所述后端点之外的语音帧,得到目标音频;
对所述目标音频进行分块处理,得到目标语音帧;
将所述目标语音帧转换为所述文本信息。
根据本发明优选实施例,所述生成单元具体用于:
获取预先配置的会议纪要模版,并获取所述文本信息的发言时间;
依据所述发言时间从先至后的顺序,将所述发言对象、所述文本信息及所述目标语言文本录入所述会议纪要模板,得到会议记录;
对所述会议记录进行分词处理,得到分词;
采用编码算法将所述分词转换为第一词向量,并将预设词组转换为第二词向量;
利用余弦距离公式,计算所述第一词向量与所述第二词向量的距离;
将距离值大于预设值的第一词向量确定为目标词向量,并将所述目标词向量对应的分词确定为目标词组;
在所述会议记录中标识所述目标词组,得到所述会议纪要。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,获取所述存储器中存储的指令以实现所述基于AI识别的会议纪要生成方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器获取以实现所述基于AI识别的会议纪要生成方法。
由以上技术方案可以看出,本发明通过从所述音频设备中获取所述待识别音频,能够避免因多个参会者在同一时刻发表言论而导致所述待识别音频存在语音重叠,从而实现语音分离,为后续准确确定发言对象及准确转换文本信息作铺垫,同时,通过对声纹特征的比较结果及音频设备的绑定结果进行综合分析,能够准确地确定发言对象,从而提高会议纪要的准确性,此外,由于全程自动地将发言对象的音频转换为文本信息,而无需人为记录会议过程中所讨论的信息,能够快速完整地将待识别音频进行转换,从而避免会议纪要中的关键信息的遗漏,同时,本发明无需额外配置翻译人员,减少了人力资源的浪费。
附图说明
图1是本发明基于AI识别的会议纪要生成方法的较佳实施例的流程图。
图2是本发明基于AI识别的会议纪要生成装置的较佳实施例的功能模块图。
图3是本发明实现基于AI识别的会议纪要生成方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于AI识别的会议纪要生成方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于AI识别的会议纪要生成方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
在本发明的至少一个实施例中,本发明应用于人工智能领域,同时,本发明涉及声纹识别。
S10,当接收到会议纪要生成请求时,从所述会议纪要生成请求中获取参会者名单。
在本发明的至少一个实施例中,所述会议纪要生成请求所携带的信息包括,但不限于:所述参会者名单、会议主题等。
在本发明的至少一个实施例中,所述电子设备获取目标标签,进一步地,所述电子设备根据所述目标标签从所述会议纪要生成请求中提取与所述目标标签对应的信息,作为所述参会者名单。
通过上述实施方式,能够准确、快速地确定所述参会者名单。
S11,从配置库中提取所述参会者名单中每个参会者对应的声纹特征。
在本发明的至少一个实施例中,所述配置库中存储多个用户的声纹特征。所述声纹特征包括,但不限于:声学特征、词法特征、韵律特征等。
在本发明的至少一个实施例中,在从配置库中提取所述参会者名单中每个参会者对应的声纹特征之前,所述方法还包括:
所述电子设备获取多个用户的音频信息及所述多个用户中每个用户的身份识别码,进一步地,所述电子设备利用语音信号处理技术,对所述音频信息进行预处理,所述电子设备对预处理后的音频信息进行编码,得到所述音频信息的数字信号,更进一步地,所述电子设备从所述数字信号中提取声纹特征,所述电子设备以所述身份识别码与所述声纹特征建立映射关系并保存至所述配置库中。
通过所述语音信号处理技术,能够在复杂的语音环境中提取有效的语音信息,进而避免生成的数字信号中包括噪音,进而避免对所述声纹特征的干扰。
在本发明的至少一个实施例中,通过从所述配置库中提取所述声纹特征,进而将所述声纹特征与待识别音频进行比较,由于声纹特征不易被破解,因此能够提高安全性。
在本发明的至少一个实施例中,通过从配置库中提取每个参会者对应的声纹特征,避免了对所述配置库中的所有声纹特征进行一一比对,大大缩减了确定发言对象的范围,从而能够快速准确地确定发言对象。
S12,当接收到音频检测指令时,确定发出所述音频检测指令的音频设备,并从所述音频设备中获取待识别音频。
在本发明的至少一个实施例中,当检测到任意用户在当前时刻发言时,所述电子设备触发所述任意用户对应的音频设备生成所述音频检测指令,所述音频检测指令携带的信息包括,但不限于:发出所述音频检测指令的音频设备的参数信息。
进一步地,所述音频设备可以是麦克风,也可以是话筒,本发明对所述音频设备的选取不作限制。所述音频设备具有用于标识设备本身的参数信息,珊珊参数信息可以包括各类软件信息及硬件信息。例如,所述参数信息可以是媒体访问控制地址(Media AccessControl Address,MAC)地址、设备序列号以及IP地址等。
在本发明的至少一个实施例中,所述电子设备确定发出所述音频检测指令的音频设备包括:
所述电子设备解析所述音频检测指令,得到参数信息,进一步地,所述电子设备根据所述参数信息确定所述音频设备。
在本发明的至少一个实施例中,通过从所述音频设备中获取所述待识别音频,能够避免因多个参会者在同一时刻发表言论而导致所述待识别音频存在语音重叠,从而实现语音分离,为后续准确确定发言对象及准确转换文本信息作铺垫。
S13,对所述待识别音频进行处理,得到音频特征。
在本发明的至少一个实施例中,所述电子设备对所述待识别音频进行处理,得到音频特征包括:
所述电子设备对所述待识别音频进行分块处理,得到音频区域集,进一步地,所述电子设备提取所述音频区域集中每一帧对应的特征参数,得到所述音频特征。
S14,将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象。
在本发明的至少一个实施例中,在创建远程会议时,所述电子设备预先将参会者与音频设备的参数信息进行绑定,从而实现所述参会者与所述音频设备的关联关系。
在本发明的至少一个实施例中,所述电子设备将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象包括:
所述电子设备将所述音频特征与每个声纹特征进行比较,得到比较结果,所述比较结果为每个声纹特征与所述音频特征的相似度,当检测到所述相似度中存在任意相似度大于阈值时,所述电子设备将所述任意相似度中的最大相似度确定为目标相似度,并将所述目标相似度对应的声纹特征确定为目标声纹特征,进一步地,所述电子设备将所述目标声纹特征对应的用户确定为第一用户,所述电子设备获取与所述音频设备绑定的用户作为第二用户,当检测到所述第一用户与所述第二用户为同一人时,所述电子设备将所述第一用户确定为所述发言对象,或者当检测到所述第一用户与所述第二用户不为同一人时,所述电子设备启动摄像设备对当前使用所述音频设备的用户进行录像,得到目标图像,并将所述目标图像与人脸库中的预设图像进行匹配,得到每张预设图像对应的用户的匹配度,每张预设图像对应一个人员,并获取每个人员的语言特征,所述电子设备确定每个语言特征与所述音频特征的相似度,所述电子设备采用预设权重对每个相似度与每个匹配度进行加权和运算,得到每个人员的分值,所述电子设备将分值最高的人员确定为所述发言对象。
通过对声纹特征的比较结果及音频设备的绑定结果进行综合分析,能够准确地确定发言对象,从而提高会议纪要的准确性。
S15,对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息。
在本发明的至少一个实施例中,所述电子设备对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息包括:
所述电子设备利用移动窗函数对所述待识别音频按照预设时长进行分割,得到至少一帧语音,所述电子设备对每帧语音进行预处理,并计算每帧预处理后的语音的能量值,当检测到预处理后的语音中连续预设帧的能量值小于配置值,及接下来的语音中连续所述预设帧的能量值大于所述配置值时,所述电子设备将能量值开始增大的语音帧确定为语音的前端点,当检测到预处理后的语音中连续所述预设帧的能量值大于所述配置值,及接下来的语音中连续所述预设帧的能量值小于所述配置值时,所述电子设备将能量值开始减小的语音帧确定为语音的后端点,所述电子设备删除所述前端点至所述后端点之外的语音帧,得到目标音频,所述电子设备对所述目标音频进行分块处理,得到目标语音帧,进一步地,所述电子设备将所述目标语音帧转换为所述文本信息。
其中,所述预设时长可以根据需要进行调整,一般情况下,所述预设时长设置为20ms。所述预处理包括去除直流处理和加窗处理。进一步地,所述预设帧可以根据语音应用场景不同设置为不同的值,所述预设帧的具体值可以根据实际需求进行调整,本发明不作限制。更进一步地,所述配置值可以根据静音时的平均能量值确定,本发明也不作限制。
通过对所述待识别音频进行处理,能够对所述待识别音频中的静音部分和噪声部分进行消除,不仅节省所述待识别音频的存储空间,还提高所述待识别音频的转换效率,同时还能准确地将所述待识别音频转换为所述文本信息。
由于全程自动地将发言对象的音频转换为文本信息,而无需人为记录会议过程中所讨论的信息,能够快速完整地将待识别音频进行转换,从而避免会议纪要中的关键信息的遗漏。
S16,将所述文本信息翻译成与预先设置好的语言类型对应的目标语言文本。
在本发明的至少一个实施例中,所述电子设备根据所述语言类型确定目标翻译模块,进一步地,所述电子设备通过所述目标翻译模块将所述文本信息翻译成所述目标语言文本。
例如,待识别音频A的内容是汉语的“我是主持人”,所述电子设备将其转换成文本信息“我是主持人”。若预先设置好的语言类型为英文类型,所述电子设备根据所述英文类型确定目标翻译模块为中译英模块,所述中译英模块将文本信息“我是主持人”翻译成目标语言文本,即:“I'm the host”。
在本发明的至少一个实施例中,所述方法还包括:
所述电子设备将所述目标语言文本转换为目标语言音频,并播放所述目标语言音频。
通过上述实施方式,当发言人员使用的语言不能为参会人员理解时,无需额外配置翻译人员,参会人员即可理解发言人员表述的含义。
S17,根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要。
在本发明的至少一个实施例中,所述音频设备中存储所述待识别音频及所述识别音频对应的发言时间。
在本发明的至少一个实施例中,所述电子设备根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要包括:
所述电子设备获取预先配置的会议纪要模版,并获取所述文本信息的发言时间,所述电子设备依据所述发言时间从先至后的顺序,将所述发言对象、所述文本信息及所述目标语言文本录入所述会议纪要模板,得到会议记录,所述电子设备对所述会议记录进行分词处理,得到分词,所述电子设备采用编码算法将所述分词转换为第一词向量,并将预设词组转换为第二词向量,所述电子设备利用余弦距离公式,计算所述第一词向量与所述第二词向量的距离,所述电子设备将距离值大于预设值的第一词向量确定为目标词向量,并将所述目标词向量对应的分词确定为目标词组,所述电子设备在所述会议记录中标识所述目标词组,得到所述会议纪要。
具体地,所述电子设备在所述会议记录中标识所述目标词组的方式包括以下一种或者多种方式的组合:
(1)所述电子设备对所述目标词组进行加粗标识。
(2)所述电子设备对所述目标词组进行高亮标识。
在本发明的至少一个实施例中,在根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要后,所述方法还包括:
所述电子设备获取所述会议纪要生成请求的会议主题,所述电子设备根据所述会议主题及所述会议纪要生成提示信息,所述电子设备采用对称加密技术加密所述提示信息,得到密文,所述电子设备获取所述参会者名单中每个参会者的终端设备,并将所述密文发送至所述终端设备。
通过加密所述提示信息,能够提高所述提示信息的安全性,避免所述会议纪要被篡改,进而将所述密文发送至每个参会者的终端设备,能够提醒每个参会者及时查收所述会议纪要。
需要说明的是,为了提高安全性及隐私性,生成的会议纪要可存储于区块链。
由以上技术方案可以看出,本发明通过从所述音频设备中获取所述待识别音频,能够避免因多个参会者在同一时刻发表言论而导致所述待识别音频存在语音重叠,从而实现语音分离,为后续准确确定发言对象及准确转换文本信息作铺垫,同时,通过对声纹特征的比较结果及音频设备的绑定结果进行综合分析,能够准确地确定发言对象,从而提高会议纪要的准确性,此外,由于全程自动地将发言对象的音频转换为文本信息,而无需人为记录会议过程中所讨论的信息,能够快速完整地将待识别音频进行转换,从而避免会议纪要中的关键信息的遗漏,同时,本发明无需额外配置翻译人员,减少了人力资源的浪费。
如图2所示,是本发明基于AI识别的会议纪要生成装置的较佳实施例的功能模块图。所述基于AI识别的会议纪要生成装置11包括获取单元110、提取单元111、确定单元112、处理单元113、比较单元114、识别单元115、翻译单元116、生成单元117、预处理单元118、编码单元119、建立单元120、加密单元121及发送单元122。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
当接收到会议纪要生成请求时,获取单元110从所述会议纪要生成请求中获取参会者名单。
在本发明的至少一个实施例中,所述会议纪要生成请求所携带的信息包括,但不限于:所述参会者名单、会议主题等。
在本发明的至少一个实施例中,所述获取单元110获取目标标签,进一步地,所述获取单元110根据所述目标标签从所述会议纪要生成请求中提取与所述目标标签对应的信息,作为所述参会者名单。
通过上述实施方式,能够准确、快速地确定所述参会者名单。
提取单元111从配置库中提取所述参会者名单中每个参会者对应的声纹特征。
在本发明的至少一个实施例中,所述配置库中存储多个用户的声纹特征。所述声纹特征包括,但不限于:声学特征、词法特征、韵律特征等。
在本发明的至少一个实施例中,在从配置库中提取所述参会者名单中每个参会者对应的声纹特征之前,所述获取单元110获取多个用户的音频信息及所述多个用户中每个用户的身份识别码,进一步地,预处理单元118利用语音信号处理技术,对所述音频信息进行预处理,编码单元119对预处理后的音频信息进行编码,得到所述音频信息的数字信号,更进一步地,所述提取单元111从所述数字信号中提取声纹特征,建立单元120以所述身份识别码与所述声纹特征建立映射关系并保存至所述配置库中。
通过所述语音信号处理技术,能够在复杂的语音环境中提取有效的语音信息,进而避免生成的数字信号中包括噪音,进而避免对所述声纹特征的干扰。
在本发明的至少一个实施例中,通过从所述配置库中提取所述声纹特征,进而将所述声纹特征与待识别音频进行比较,由于声纹特征不易被破解,因此能够提高安全性。
在本发明的至少一个实施例中,通过从配置库中提取每个参会者对应的声纹特征,避免了对所述配置库中的所有声纹特征进行一一比对,大大缩减了确定发言对象的范围,从而能够快速准确地确定发言对象。
当接收到音频检测指令时,确定单元112确定发出所述音频检测指令的音频设备,并从所述音频设备中获取待识别音频。
在本发明的至少一个实施例中,当检测到任意用户在当前时刻发言时,触发所述任意用户对应的音频设备生成所述音频检测指令,所述音频检测指令携带的信息包括,但不限于:发出所述音频检测指令的音频设备的参数信息。
进一步地,所述音频设备可以是麦克风,也可以是话筒,本发明对所述音频设备的选取不作限制。所述音频设备具有用于标识设备本身的参数信息,珊珊参数信息可以包括各类软件信息及硬件信息。例如,所述参数信息可以是媒体访问控制地址(Media AccessControl Address,MAC)地址、设备序列号以及IP地址等。
在本发明的至少一个实施例中,所述确定单元112确定发出所述音频检测指令的音频设备包括:
所述确定单元112解析所述音频检测指令,得到参数信息,进一步地,所述确定单元112根据所述参数信息确定所述音频设备。
在本发明的至少一个实施例中,通过从所述音频设备中获取所述待识别音频,能够避免因多个参会者在同一时刻发表言论而导致所述待识别音频存在语音重叠,从而实现语音分离,为后续准确确定发言对象及准确转换文本信息作铺垫。
处理单元113对所述待识别音频进行处理,得到音频特征。
在本发明的至少一个实施例中,所述处理单元113对所述待识别音频进行处理,得到音频特征包括:
所述处理单元113对所述待识别音频进行分块处理,得到音频区域集,进一步地,所述处理单元113提取所述音频区域集中每一帧对应的特征参数,得到所述音频特征。
比较单元114将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象。
在本发明的至少一个实施例中,在创建远程会议时,预先将参会者与音频设备的参数信息进行绑定,从而实现所述参会者与所述音频设备的关联关系。
在本发明的至少一个实施例中,所述比较单元114将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象包括:
所述比较单元114将所述音频特征与每个声纹特征进行比较,得到比较结果,所述比较结果为每个声纹特征与所述音频特征的相似度,当检测到所述相似度中存在任意相似度大于阈值时,所述比较单元114将所述任意相似度中的最大相似度确定为目标相似度,并将所述目标相似度对应的声纹特征确定为目标声纹特征,进一步地,所述比较单元114将所述目标声纹特征对应的用户确定为第一用户,所述比较单元114获取与所述音频设备绑定的用户作为第二用户,当检测到所述第一用户与所述第二用户为同一人时,所述比较单元114将所述第一用户确定为所述发言对象,或者当检测到所述第一用户与所述第二用户不为同一人时,所述比较单元114启动摄像设备对当前使用所述音频设备的用户进行录像,得到目标图像,并将所述目标图像与人脸库中的预设图像进行匹配,得到每张预设图像对应的用户的匹配度,每张预设图像对应一个人员,并获取每个人员的语言特征,所述比较单元114确定每个语言特征与所述音频特征的相似度,所述比较单元114采用预设权重对每个相似度与每个匹配度进行加权和运算,得到每个人员的分值,所述比较单元114将分值最高的人员确定为所述发言对象。
通过对声纹特征的比较结果及音频设备的绑定结果进行综合分析,能够准确地确定发言对象,从而提高会议纪要的准确性。
识别单元115对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息。
在本发明的至少一个实施例中,所述识别单元115对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息包括:
所述识别单元115利用移动窗函数对所述待识别音频按照预设时长进行分割,得到至少一帧语音,所述识别单元115对每帧语音进行预处理,并计算每帧预处理后的语音的能量值,当检测到预处理后的语音中连续预设帧的能量值小于配置值,及接下来的语音中连续所述预设帧的能量值大于所述配置值时,所述识别单元115将能量值开始增大的语音帧确定为语音的前端点,当检测到预处理后的语音中连续所述预设帧的能量值大于所述配置值,及接下来的语音中连续所述预设帧的能量值小于所述配置值时,所述识别单元115将能量值开始减小的语音帧确定为语音的后端点,所述识别单元115删除所述前端点至所述后端点之外的语音帧,得到目标音频,所述识别单元115对所述目标音频进行分块处理,得到目标语音帧,进一步地,所述识别单元115将所述目标语音帧转换为所述文本信息。
其中,所述预设时长可以根据需要进行调整,一般情况下,所述预设时长设置为20ms。所述预处理包括去除直流处理和加窗处理。进一步地,所述预设帧可以根据语音应用场景不同设置为不同的值,所述预设帧的具体值可以根据实际需求进行调整,本发明不作限制。更进一步地,所述配置值可以根据静音时的平均能量值确定,本发明也不作限制。
通过对所述待识别音频进行处理,能够对所述待识别音频中的静音部分和噪声部分进行消除,不仅节省所述待识别音频的存储空间,还提高所述待识别音频的转换效率,同时还能准确地将所述待识别音频转换为所述文本信息。
由于全程自动地将发言对象的音频转换为文本信息,而无需人为记录会议过程中所讨论的信息,能够快速完整地将待识别音频进行转换,从而避免会议纪要中的关键信息的遗漏。
翻译单元116将所述文本信息翻译成与预先设置好的语言类型对应的目标语言文本。
在本发明的至少一个实施例中,所述翻译单元116根据所述语言类型确定目标翻译模块,进一步地,所述翻译单元116通过所述目标翻译模块将所述文本信息翻译成所述目标语言文本。
例如,待识别音频A的内容是汉语的“我是主持人”,所述翻译单元116将其转换成文本信息“我是主持人”。若预先设置好的语言类型为英文类型,所述翻译单元116根据所述英文类型确定目标翻译模块为中译英模块,所述中译英模块将文本信息“我是主持人”翻译成目标语言文本,即:“I'm the host”。
在本发明的至少一个实施例中,将所述目标语言文本转换为目标语言音频,并播放所述目标语言音频。
通过上述实施方式,当发言人员使用的语言不能为参会人员理解时,无需额外配置翻译人员,参会人员即可理解发言人员表述的含义。
生成单元117根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要。
在本发明的至少一个实施例中,所述音频设备中存储所述待识别音频及所述识别音频对应的发言时间。
在本发明的至少一个实施例中,所述生成单元117根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要包括:
所述生成单元117获取预先配置的会议纪要模版,并获取所述文本信息的发言时间,所述生成单元117依据所述发言时间从先至后的顺序,将所述发言对象、所述文本信息及所述目标语言文本录入所述会议纪要模板,得到会议记录,所述生成单元117对所述会议记录进行分词处理,得到分词,所述生成单元117采用编码算法将所述分词转换为第一词向量,并将预设词组转换为第二词向量,所述生成单元117利用余弦距离公式,计算所述第一词向量与所述第二词向量的距离,所述生成单元117将距离值大于预设值的第一词向量确定为目标词向量,并将所述目标词向量对应的分词确定为目标词组,所述生成单元117在所述会议记录中标识所述目标词组,得到所述会议纪要。
具体地,所述生成单元117在所述会议记录中标识所述目标词组的方式包括以下一种或者多种方式的组合:
(1)所述生成单元117对所述目标词组进行加粗标识。
(2)所述生成单元117对所述目标词组进行高亮标识。
在本发明的至少一个实施例中,在根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要后,所述获取单元110获取所述会议纪要生成请求的会议主题,所述生成单元117根据所述会议主题及所述会议纪要生成提示信息,加密单元121采用对称加密技术加密所述提示信息,得到密文,所述获取单元110获取所述参会者名单中每个参会者的终端设备,发送单元122将所述密文发送至所述终端设备。
通过加密所述提示信息,能够提高所述提示信息的安全性,避免所述会议纪要被篡改,进而将所述密文发送至每个参会者的终端设备,能够提醒每个参会者及时查收所述会议纪要。
需要说明的是,为了提高安全性及隐私性,生成的会议纪要可存储于区块链。
由以上技术方案可以看出,本发明通过从所述音频设备中获取所述待识别音频,能够避免因多个参会者在同一时刻发表言论而导致所述待识别音频存在语音重叠,从而实现语音分离,为后续准确确定发言对象及准确转换文本信息作铺垫,同时,通过对声纹特征的比较结果及音频设备的绑定结果进行综合分析,能够准确地确定发言对象,从而提高会议纪要的准确性,此外,由于全程自动地将发言对象的音频转换为文本信息,而无需人为记录会议过程中所讨论的信息,能够快速完整地将待识别音频进行转换,从而避免会议纪要中的关键信息的遗漏,同时,本发明无需额外配置翻译人员,减少了人力资源的浪费。
如图3所示,是本发明实现基于AI识别的会议纪要生成方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于AI识别的会议纪要生成程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及获取所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
所述处理器13获取所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13获取所述应用程序以实现上述各个基于AI识别的会议纪要生成方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13获取,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的获取过程。例如,所述计算机程序可以被分割成获取单元110、提取单元111、确定单元112、处理单元113、比较单元114、识别单元115、翻译单元116、生成单元117、预处理单元118、编码单元119、建立单元120、加密单元121及发送单元122。
所述存储器12可用于存储所述计算机程序和/或模块,所述处理器13通过运行或获取存储在所述存储器12内的计算机程序和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器12可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器获取时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可获取文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于AI识别的会议纪要生成方法,所述处理器13可获取所述多个指令从而实现:当接收到会议纪要生成请求时,从所述会议纪要生成请求中获取参会者名单;从配置库中提取所述参会者名单中每个参会者对应的声纹特征;当接收到音频检测指令时,确定发出所述音频检测指令的音频设备,并从所述音频设备中获取待识别音频;对所述待识别音频进行处理,得到音频特征;将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象;对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息;将所述文本信息翻译成与预先设置好的语言类型对应的目标语言文本;根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于AI识别的会议纪要生成方法,其特征在于,所述基于AI识别的会议纪要生成方法包括:
当接收到会议纪要生成请求时,从所述会议纪要生成请求中获取参会者名单;
从配置库中提取所述参会者名单中每个参会者对应的声纹特征;
当接收到音频检测指令时,确定发出所述音频检测指令的音频设备,并从所述音频设备中获取待识别音频;
对所述待识别音频进行处理,得到音频特征;
将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象,包括:将所述音频特征与每个声纹特征进行比较,得到比较结果,所述比较结果为每个声纹特征与所述音频特征的相似度;当检测到所述相似度中存在任意相似度大于阈值时,将所述任意相似度中的最大相似度确定为目标相似度,并将所述目标相似度对应的声纹特征确定为目标声纹特征;将所述目标声纹特征对应的用户确定为第一用户;获取与所述音频设备绑定的用户作为第二用户;当检测到所述第一用户与所述第二用户不为同一人时,启动摄像设备对当前使用所述音频设备的用户进行录像,得到目标图像,并将所述目标图像与人脸库中的预设图像进行匹配,得到每张预设图像的匹配度,每张预设图像对应一个人员,并获取每个人员的语言特征,确定每个语言特征与所述音频特征的相似度,采用预设权重对每个相似度与每个匹配度进行加权和运算,得到每个人员的分值,将分值最高的人员确定为所述发言对象;
对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息;
将所述文本信息翻译成与预先设置好的语言类型对应的目标语言文本;
根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要。
2.如权利要求1所述的基于AI识别的会议纪要生成方法,其特征在于,在从配置库中提取所述参会者名单中每个参会者对应的声纹特征之前,所述基于AI识别的会议纪要生成方法还包括:
获取多个用户的音频信息及所述多个用户中每个用户的身份识别码;
利用语音信号处理技术,对所述音频信息进行预处理;
对预处理后的音频信息进行编码,得到所述音频信息的数字信号;
从所述数字信号中提取声纹特征;
以所述身份识别码与所述声纹特征建立映射关系并保存至所述配置库中。
3.如权利要求1所述的基于AI识别的会议纪要生成方法,其特征在于,所述确定发出所述音频检测指令的音频设备包括:
解析所述音频检测指令,得到参数信息;
根据所述参数信息确定所述音频设备。
4.如权利要求1所述的基于AI识别的会议纪要生成方法,其特征在于,所述对所述待识别音频进行处理,得到音频特征包括:
对所述待识别音频进行分块处理,得到音频区域集;
提取所述音频区域集中每一帧对应的特征参数,得到所述音频特征。
5.如权利要求1所述的基于AI识别的会议纪要生成方法,其特征在于,所述方法还包括:
当检测到所述第一用户与所述第二用户为同一人时,将所述第一用户确定为所述发言对象。
6.如权利要求1所述的基于AI识别的会议纪要生成方法,其特征在于,所述对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息包括:
利用移动窗函数对所述待识别音频按照预设时长进行分割,得到至少一帧语音;
对每帧语音进行预处理,并计算每帧预处理后的语音的能量值;
当检测到预处理后的语音中连续预设帧的能量值小于配置值,及接下来的语音中连续所述预设帧的能量值大于所述配置值时,将能量值开始增大的语音帧确定为语音的前端点;
当检测到预处理后的语音中连续所述预设帧的能量值大于所述配置值,及接下来的语音中连续所述预设帧的能量值小于所述配置值时,将能量值开始减小的语音帧确定为语音的后端点;
删除所述前端点至所述后端点之外的语音帧,得到目标音频;
对所述目标音频进行分块处理,得到目标语音帧;
将所述目标语音帧转换为所述文本信息。
7.如权利要求1所述的基于AI识别的会议纪要生成方法,其特征在于,所述根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要包括:
获取预先配置的会议纪要模版,并获取所述文本信息的发言时间;
依据所述发言时间从先至后的顺序,将所述发言对象、所述文本信息及所述目标语言文本录入所述会议纪要模板,得到会议记录;
对所述会议记录进行分词处理,得到分词;
采用编码算法将所述分词转换为第一词向量,并将预设词组转换为第二词向量;
利用余弦距离公式,计算所述第一词向量与所述第二词向量的距离;
将距离值大于预设值的第一词向量确定为目标词向量,并将所述目标词向量对应的分词确定为目标词组;
在所述会议记录中标识所述目标词组,得到所述会议纪要。
8.一种基于AI识别的会议纪要生成装置,其特征在于,所述基于AI识别的会议纪要生成装置包括:
获取单元,用于当接收到会议纪要生成请求时,从所述会议纪要生成请求中获取参会者名单;
提取单元,用于从配置库中提取所述参会者名单中每个参会者对应的声纹特征;
确定单元,用于当接收到音频检测指令时,确定发出所述音频检测指令的音频设备,并从所述音频设备中获取待识别音频;
处理单元,用于对所述待识别音频进行处理,得到音频特征;
比较单元,用于将所述音频特征与每个声纹特征进行比较,得到比较结果,并根据所述比较结果及所述音频设备确定所述待识别音频的发言对象,包括:将所述音频特征与每个声纹特征进行比较,得到比较结果,所述比较结果为每个声纹特征与所述音频特征的相似度;当检测到所述相似度中存在任意相似度大于阈值时,将所述任意相似度中的最大相似度确定为目标相似度,并将所述目标相似度对应的声纹特征确定为目标声纹特征;将所述目标声纹特征对应的用户确定为第一用户;获取与所述音频设备绑定的用户作为第二用户;当检测到所述第一用户与所述第二用户不为同一人时,启动摄像设备对当前使用所述音频设备的用户进行录像,得到目标图像,并将所述目标图像与人脸库中的预设图像进行匹配,得到每张预设图像的匹配度,每张预设图像对应一个人员,并获取每个人员的语言特征,确定每个语言特征与所述音频特征的相似度,采用预设权重对每个相似度与每个匹配度进行加权和运算,得到每个人员的分值,将分值最高的人员确定为所述发言对象;
识别单元,用于对所述待识别音频进行语音识别,得到所述发言对象对应的文本信息;
翻译单元,用于将所述文本信息翻译成与预先设置好的语言类型对应的目标语言文本;
生成单元,用于根据所述发言对象、所述文本信息及所述目标语言文本生成会议纪要。
9. 一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,获取所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于AI识别的会议纪要生成方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于AI识别的会议纪要生成方法。
CN202010718944.8A 2020-07-23 2020-07-23 基于ai识别的会议纪要生成方法、装置、设备及介质 Active CN111883123B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010718944.8A CN111883123B (zh) 2020-07-23 2020-07-23 基于ai识别的会议纪要生成方法、装置、设备及介质
PCT/CN2021/096433 WO2022016994A1 (zh) 2020-07-23 2021-05-27 基于ai识别的会议纪要生成方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010718944.8A CN111883123B (zh) 2020-07-23 2020-07-23 基于ai识别的会议纪要生成方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN111883123A CN111883123A (zh) 2020-11-03
CN111883123B true CN111883123B (zh) 2024-05-03

Family

ID=73155966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010718944.8A Active CN111883123B (zh) 2020-07-23 2020-07-23 基于ai识别的会议纪要生成方法、装置、设备及介质

Country Status (2)

Country Link
CN (1) CN111883123B (zh)
WO (1) WO2022016994A1 (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111883123B (zh) * 2020-07-23 2024-05-03 平安科技(深圳)有限公司 基于ai识别的会议纪要生成方法、装置、设备及介质
CN113010704B (zh) * 2020-11-18 2022-03-29 北京字跳网络技术有限公司 一种会议纪要的交互方法、装置、设备及介质
CN112637208B (zh) * 2020-12-23 2022-04-01 美的集团股份有限公司 目标设备的确权方法、电子设备、计算机可读存储介质
CN112735433A (zh) * 2020-12-29 2021-04-30 平安普惠企业管理有限公司 身份核验方法、装置、设备及存储介质
CN112820292B (zh) * 2020-12-29 2023-07-18 平安银行股份有限公司 生成会议纪要的方法、装置、电子装置及存储介质
CN112750452A (zh) * 2020-12-29 2021-05-04 北京字节跳动网络技术有限公司 语音处理方法、装置、系统、智能终端以及电子设备
CN113450797A (zh) * 2021-06-29 2021-09-28 苏州科达科技股份有限公司 基于在线会议的音频处理方法、设备、存储介质及系统
CN113505612A (zh) * 2021-07-23 2021-10-15 平安科技(深圳)有限公司 多人对话语音实时翻译方法、装置、设备及存储介质
CN113746911A (zh) * 2021-08-26 2021-12-03 科大讯飞股份有限公司 音频处理方法及相关装置、电子设备、存储介质
CN113822205A (zh) * 2021-09-26 2021-12-21 北京市商汤科技开发有限公司 会议记录生成方法、装置、电子设备以及存储介质
WO2023070458A1 (en) * 2021-10-28 2023-05-04 Boe Technology Group Co., Ltd. Method for outputting voice transcript, voice transcript generating system, and computer-program product
CN114462364B (zh) * 2022-02-07 2023-01-31 北京百度网讯科技有限公司 录入信息的方法和装置
DE202022101429U1 (de) 2022-03-17 2022-04-06 Waseem Ahmad Intelligentes System zur Erstellung von Sitzungsprotokollen mit Hilfe von künstlicher Intelligenz und maschinellem Lernen
CN115242568A (zh) * 2022-07-22 2022-10-25 思必驰科技股份有限公司 动态更新声纹库的会议转写方法、系统和电子设备
CN116015996B (zh) * 2023-03-28 2023-06-02 南昌航天广信科技有限责任公司 一种数字会议音频处理方法及系统
CN117114614A (zh) * 2023-08-25 2023-11-24 上海宜软检测技术有限公司 一种项目成本管理方法及系统
CN116866783B (zh) * 2023-09-04 2023-11-28 广州乐庚信息科技有限公司 一种智慧教室音频控制系统、方法及存储介质
CN116911817B (zh) * 2023-09-08 2023-12-01 浙江智加信息科技有限公司 一种无纸化会议记录归档方法及系统
CN116991808B (zh) * 2023-09-27 2023-12-08 南通话时代信息科技有限公司 用于企业会议的数据智能存储方法及装置
CN117456984A (zh) * 2023-10-26 2024-01-26 杭州捷途慧声科技有限公司 一种基于声纹识别的语音交互方法及系统
CN117135305B (zh) * 2023-10-27 2024-03-19 深圳市大而信科技有限公司 一种电话会议实现方法、装置和系统
CN117690415B (zh) * 2024-02-01 2024-04-30 武汉人工智能研究院 音频描述信息生成方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109388701A (zh) * 2018-08-17 2019-02-26 深圳壹账通智能科技有限公司 会议记录生成方法、装置、设备和计算机存储介质
CN109686363A (zh) * 2019-02-26 2019-04-26 深圳市合言信息科技有限公司 一种现场会议人工智能同传设备
CN110049270A (zh) * 2019-03-12 2019-07-23 平安科技(深圳)有限公司 多人会议语音转写方法、装置、系统、设备及存储介质
CN110298252A (zh) * 2019-05-30 2019-10-01 平安科技(深圳)有限公司 会议纪要生成方法、装置、计算机设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9721086B2 (en) * 2013-03-15 2017-08-01 Advanced Elemental Technologies, Inc. Methods and systems for secure and reliable identity-based computing
CN105632498A (zh) * 2014-10-31 2016-06-01 株式会社东芝 生成会议记录的方法、装置和系统
CN106782545B (zh) * 2016-12-16 2019-07-16 广州视源电子科技股份有限公司 一种将音视频数据转化成文字记录的系统和方法
US10757148B2 (en) * 2018-03-02 2020-08-25 Ricoh Company, Ltd. Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
CN108986826A (zh) * 2018-08-14 2018-12-11 中国平安人寿保险股份有限公司 自动生成会议记录的方法、电子装置及可读存储介质
CN109309804A (zh) * 2018-09-29 2019-02-05 芜湖星途机器人科技有限公司 一种智能会议系统
CN109560941A (zh) * 2018-12-12 2019-04-02 深圳市沃特沃德股份有限公司 会议记录方法、装置、智能终端及存储介质
CN111883123B (zh) * 2020-07-23 2024-05-03 平安科技(深圳)有限公司 基于ai识别的会议纪要生成方法、装置、设备及介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109388701A (zh) * 2018-08-17 2019-02-26 深圳壹账通智能科技有限公司 会议记录生成方法、装置、设备和计算机存储介质
CN109686363A (zh) * 2019-02-26 2019-04-26 深圳市合言信息科技有限公司 一种现场会议人工智能同传设备
CN110049270A (zh) * 2019-03-12 2019-07-23 平安科技(深圳)有限公司 多人会议语音转写方法、装置、系统、设备及存储介质
CN110298252A (zh) * 2019-05-30 2019-10-01 平安科技(深圳)有限公司 会议纪要生成方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
WO2022016994A1 (zh) 2022-01-27
CN111883123A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
CN111883123B (zh) 基于ai识别的会议纪要生成方法、装置、设备及介质
EP3327720A1 (en) User voiceprint model construction method, apparatus, and system
CN110853646B (zh) 会议发言角色的区分方法、装置、设备及可读存储介质
CN112088402A (zh) 用于说话者识别的联合神经网络
WO2019000832A1 (zh) 一种声纹创建与注册方法及装置
JP6469252B2 (ja) アカウント追加方法、端末、サーバ、およびコンピュータ記憶媒体
CN108920639B (zh) 基于语音交互的上下文获取方法及设备
US20030187632A1 (en) Multimedia conferencing system
CN108920640B (zh) 基于语音交互的上下文获取方法及设备
CN110853615B (zh) 一种数据处理方法、装置及存储介质
WO2020019591A1 (zh) 用于生成信息的方法和装置
KR20150040892A (ko) 인적 상호 증명으로서 말하는 능력을 이용하는 기법
KR20230088381A (ko) 오디오비주얼 딥페이크 검출
WO2022062800A1 (zh) 语音分离方法、电子设备、芯片及计算机可读存储介质
CN112507311A (zh) 一种基于多模态特征融合的高安全性身份验证方法
WO2023048746A1 (en) Speaker-turn-based online speaker diarization with constrained spectral clustering
CN113343824A (zh) 双录质检方法、装置、设备及介质
CN111626061A (zh) 会议记录生成方法、装置、设备及可读存储介质
WO2021159734A1 (zh) 一种数据处理方法、装置、设备及介质
TWI769520B (zh) 多國語言語音辨識及翻譯方法與相關的系統
CN109524009B (zh) 基于语音识别的保单录入方法和相关装置
CN115278297B (zh) 基于驱动视频的数据处理方法、装置、设备及存储介质
CN112786041B (zh) 语音处理方法及相关设备
CN113889081A (zh) 语音识别方法、介质、装置和计算设备
CN115294987A (zh) 一种会议记录生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant