CN113326678A - 会议纪要的生成方法、装置、终端设备及计算机存储介质 - Google Patents

会议纪要的生成方法、装置、终端设备及计算机存储介质 Download PDF

Info

Publication number
CN113326678A
CN113326678A CN202110704528.7A CN202110704528A CN113326678A CN 113326678 A CN113326678 A CN 113326678A CN 202110704528 A CN202110704528 A CN 202110704528A CN 113326678 A CN113326678 A CN 113326678A
Authority
CN
China
Prior art keywords
conference
data
audio
updated
analysis data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110704528.7A
Other languages
English (en)
Inventor
何玉聪
卢道和
周杰
翁玉萍
黄涛
陈文龙
袁文静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN202110704528.7A priority Critical patent/CN113326678A/zh
Publication of CN113326678A publication Critical patent/CN113326678A/zh
Priority to PCT/CN2021/132301 priority patent/WO2022267322A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

本发明涉及金融科技技术领域,公开了一种会议纪要的生成方法、装置、终端设备以及计算机存储介质。该会议纪要的生成方法通过获取会议音频数据,并对所述会议音频数据进行识别处理得到初始音频分析数据;调用预设的情感分类器对所述初始音频分析数据进行更新得到更新后的音频分析数据,其中,所述情感分类器通过基于所述初始音频分析数据构建的训练样本训练得到;基于所述更新后的音频分析数据,对所述会议音频数据对应的会议文本数据进行等级划分处理以生成会议纪要。本发明能避免依赖人工操作导致耗费时间和人力资源的情况,提升会议纪要的生成效率,还能令生成的会议纪要中会议事项具备优先等级标识,从而提高员工针对会议事项的执行效率。

Description

会议纪要的生成方法、装置、终端设备及计算机存储介质
技术领域
本发明涉及金融科技(Fintech)技术领域,尤其涉及一种会议纪要的生 成方法、装置、终端设备以及计算机存储介质。
背景技术
随着计算机技术的发展,越来越多的技术应用在金融领域,传统金融业 正在逐步向金融科技转变,但由于金融行业的安全性、实时性以及稳定性等 要求,也对技术提出了更高的要求。
由于会议是职场刚需,而会议纪要常常作为复盘会议内容、对齐结论、 追踪责任人的关键工具,对会议内容的落地执行起着至关重要的作用。现有 会议纪要的生成方式是首先录制与会人员的语音数据,然后对语音数据进行 识别得到对应的文字内容,最后基于人工针对该文字内容进行编辑来生成会 议纪要。
然而,由于一场会议中产生的数据内容是比较庞大的,因此,基于人工 针对识别出的全量文字内容进行角色分离和核心内容的提炼等编辑操作,往 往需要耗费大量的时间和人力资源,导致会议纪要的生成效率底下。
发明内容
本发明的主要目的在于提供一种会议纪要的生成方法、装置、终端设备 以及计算机存储介质,旨在解决现有会议纪要生成方式需要耗费大量的时间 和人力资源,导致会议纪要的生成效率底下的技术问题。
为实现上述目的,本发明提供一种会议纪要的生成方法,获取会议音频 数据,并对所述会议音频数据进行识别处理得到初始音频分析数据;
调用预设的情感分类器对所述初始音频分析数据进行更新得到更新后的 音频分析数据,其中,所述情感分类器通过基于所述初始音频分析数据构建 的训练样本训练得到;
基于所述更新后的音频分析数据,对所述会议音频数据对应的会议文本 数据进行等级划分处理以生成会议纪要。
此外,为实现上述目的,本发明还提供一种会议纪要的生成装置,所述 会议纪要的生成装置,包括:
音频分析模块,用于获取会议音频数据,并对所述会议音频数据进行识 别处理得到初始音频分析数据;
更新模块,用于调用预设的情感分类器对所述初始音频分析数据进行更 新得到更新后的音频分析数据,其中,所述情感分类器通过基于所述初始音 频分析数据构建的训练样本训练得到;
等级标记模块,用于基于所述更新后的音频分析数据,对所述会议音频 数据对应的会议文本数据进行等级划分处理以生成会议纪要。
其中,本发明会议纪要的生成装置的多个任务调度节点各自在运行时均 实现如上所述的会议纪要的生成方法的步骤。
此外,为实现上述目的,本发明还提供一种终端设备,所述终端设备包 括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的会议 纪要的生成程序,所述会议纪要的生成程序被所述处理器执行时实现如上所 述的会议纪要的生成方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机存储介质,所述计算 机存储介质上存储有会议纪要的生成程序,所述会议纪要的生成程序被处理 器执行时实现如上所述的会议纪要的生成方法的步骤。
此外,为实现上述目的,本发明还提供计算机程序产品,所述计算机程 序产品包括计算机程序,所述计算机程序被处理器执行时实现如上所述的会 议纪要的生成方法的步骤。
本发明提供一种会议纪要的生成方法、装置、终端设备、计算机存储介 质以及计算机程序产品,通过获取会议音频数据,并对所述会议音频数据进 行识别处理得到初始音频分析数据;调用预设的情感分类器对所述初始音频 分析数据进行更新得到更新后的音频分析数据,其中,所述情感分类器通过 基于所述初始音频分析数据构建的训练样本训练得到;基于所述更新后的音 频分析数据,对所述会议音频数据对应的会议文本数据进行等级划分处理以 生成会议纪要。
本发明在基于会议音频数据生成会议纪要的过程中,通过先获取会议过 程中各与会人员产生的会议音频数据,并针对该会议音频数据进行识别分析 处理得到初始音频分析数据,然后,调用基于该初始音频分析构建训练样本 进行训练得到的情感分类器,针对该初始音频分析数据进行更新处理得到更 新后的音频分析数据,最后,利用该更新后的音频分析数据,对先前获取到 的会议音频数据所对应的会议文本数据进行等级划分处理以生成会议事项具 有优先级标识的会议纪要。
本发明相比于传统对会议中语音数据进行识别后,藉由人工提炼编辑生 成会议纪要的方式,通过识别分析语音数据得到语音分析数据,和基于情感 分类器针对该语音分析数据进行更新,从而利用更新的语音分析数据自动进 行会议事项的优先等级划分生成会议纪要,如此,不仅能够避免依赖人工操 作导致耗费时间和人力资源的情况,提升了会议纪要的生成效率,并且,还 能够令生成的会议纪要中会议事项均具备清晰的优先等级标识,从而提高对 应员工针对该会议事项的执行效率。
附图说明
图1为本发明实施例方案涉及的终端设备硬件运行环境的设备结构示意 图;
图2为本发明会议纪要的生成方法第一实施例的流程示意图;
图3为本发明会议纪要的生成方法一实施例所涉及的一应用流程示意图;
图4为本发明会议纪要的生成方法一实施例所涉及的一应用场景中会议 事项的依赖关系示意图;
图5为本发明会议纪要的生成装置一实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步 说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限 定本发明。
参照图1,图1为本发明实施例方案涉及的终端设备硬件运行环境的设备 结构示意图。
本发明实施例终端设备可以是被配置为用于基于会议音频数据生成会议 纪要的TCTPTEST测试中台(微众银行基础科技产品部测试中台)的终端设备, 该终端设备可以是智能手机、PC(Personal Computer,个人计算机)、平板 电脑、便携计算机等等。
如图1所示,该终端设备可以包括:处理器1001,例如CPU,通信总线 1002,用户接口1003,网络接口1004,存储器1005。其中,通信总线1002 用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏 (Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以 包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如Wi-Fi接口)。存储器1005可以是高速RAM存储器,也 可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005 可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的终端设备结构并不构成对终端设 备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不 同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系 统、网络通信模块、用户接口模块以及会议纪要的生成程序。
在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台 服务器进行数据通信;用户接口1003主要用于连接客户端,与客户端进行数 据通信;而处理器1001可以用于调用存储器1005中存储的会议纪要的生成 程序,并执行以下本发明会议纪要的生成方法各实施例所述的操作。
基于上述硬件结构,提出本发明会议纪要的生成方法的各实施例。
需要说明的是,由于会议是职场刚需,而会议纪要常常作为复盘会议内 容、对齐结论、追踪责任人的关键工具,对会议内容的落地执行起着至关重 要的作用。现有会议纪要的生成方式是首先录制与会人员的语音数据,然后 对语音数据进行识别得到对应的文字内容,最后基于人工针对该文字内容进 行编辑来生成会议纪要。
然而,由于一场会议中产生的数据内容是比较庞大的,因此,基于人工 针对识别出的全量文字内容进行角色分离和核心内容的提炼等编辑操作,往 往需要耗费大量的时间和人力资源,导致会议纪要的生成效率底下。
针对上述现象,本发明提供一种会议纪要的生成方法。请参照图2,图2 为本发明会议纪要的生成方法第一实施例的流程示意图,在本实施例中,该 会议纪要的生成方法应用于上述终端设备,本发明会议纪要的生成方法,包 括:
步骤S10,获取会议音频数据,并对所述会议音频数据进行识别处理得到 初始音频分析数据;
终端设备获取实时或者以往记录的会议音频数据,并基于声纹识别处理 和情感识别处理,来针对该会议音频数据进行识别分析处理以得到初始音频 分析数据。
需要说明的是,在本实施例中,会议音频数据由各与会人员在会议过程 当中各自输出的一条或者多条语音数据组成,该会议音频数据的条数大于一, 应当理解的是,基于实际应用的不同设计需要,在不同会议过程中基于与会 人员产生的语音数据的条数是不同的,因此,在不同可行的实施方式当中, 由该多条语音数据组成的会议音频数据的大小当然也是不同的,本发明会议 纪要的生成方法并不针对该会议音频数据的具体条数进行限定。
具体地,例如,在本实施例中,终端设备通过配置在会议现场的音频采 集设备采集当前会议过程当中,各与会人员各自输出的声音数据并将该声音 数据记录为该会议过程中的会议音频数据,然后,终端设备在每采集到一个 与会人员的一条会议音频数据之后,即基于声纹识别处理技术和情感识别技 术来针对该会议音频数据进行识别分析处理以得到该会议音频数据对应的初 始音频分析数据。
需要说明的是,在本实施例中,配置在会议现场的音频采集设备具体可 以为多媒体设备上的麦克风或者配套设置的麦克风阵列等等,本发明会议纪 要的生成方法并不针对该音频采集设备的具体类型进行限定。
进一步地,在另一种可行的实施例当中,终端设备除了获取在会议过程 当中实时采集到的会议音频数据之外,该终端设备还可以从预设的数据库当 中,获取该数据库当中存储的以往会议中产生的全量的会议音频数据,然后, 终端设备同样基于声纹识别处理技术和情感识别技术,来针对该全量的会议 音频数据,逐条的进行识别分析处理以得到该会议音频数据各自对应的初始 音频分析数据。
步骤S20,调用预设的情感分类器对所述初始音频分析数据进行更新得到 更新后的音频分析数据,其中,所述情感分类器通过基于所述初始音频分析 数据构建的训练样本训练得到;
终端设备在获取到会议音频数据,并针对该会议音频数据进行识别分析 处理得到初始音频分析数据之后,该终端设备进一步调用预先已经训练好的 情感分类器,并将该初始音频分析数据输入至该情感分类器当中进行训练计 算,并基于该情感分类器经过计算后输出的计算结果针对该初始音频分析数 据进行更新处理,以得到更新后的音频分析数据。
需要说明的是,在本实施例中,预设的情感分类器为预先通过对会议音 频数据进行识别分析处理得到的初始音频分析数据构建训练样本之后,利用 该训练样本进行循环重复的训练得到,该情感分类器具体可以基于SnowNLP (Natural Language Processing,情感分析处理算法)的情感分类器—后文 简称SnowNLP情感分类器,应当理解的是,基于实际应用的不同设计需要, 在不同可行的实施方式当中,终端设备当然也可以采用除开基于SnowNLP之 外的其它情感分类器来进行训练,本发明会议纪要的生成方法并不针对该情感分类器的具体种类进行限定。
具体地,例如,在本实施例中,终端设备在采集到与会人员A的一条会 议音频数据,并基于声纹识别处理技术和情感识别技术来针对该会议音频数 据进行识别分析处理,以得到该会议音频数据对应的初始音频分析数据之后, 立即调用预先已经训练好的SnowNLP情感分类器(该SnowNLP情感分类器基 于该与会人员A和其他与会人员的会议音频数据对应的初始音频分析数据来 构建得到的训练样本进行训练得到),然后将该初始音频分析数据输入到该 SnowNLP情感分类器当中进行训练计算得到计算结果,最后,该终端设备利用 该计算结果针对该初始音频分析数据进行更新处理,从而得到更新后的音频 分析数据。
步骤S30,基于所述更新后的音频分析数据,对所述会议音频数据对应的 会议文本数据进行等级划分处理以生成会议纪要。
终端设备在调用情感分类器以针对初始音频分析数据进行更新处理,得 到更新后的音频分析数据之后,该终端设备进一步利用该更新后的音频分析 数据进行优先权重值计算,从而基于该优先权重值计算得到的会议音频数据 所对应会议文本数据的优先权重值,针对该会议文本数据进行优先级的等级 划分处理,从而生成该会议文本数据所对应会议事项具有优先级标识的会议 纪要。
具体地,例如,终端设备在针对所采集的与会人员A的一条会议音频数 据进行识别分析处理的过程当中,即同步针对该会议音频数据进行ASR (Automatic SpeechRecognition,自动语音识别技术,一种将人的语音转 换为文本的技术)处理,以得到该会议音频数据对应的会议文本数据,如此, 终端设备在通过调用SnowNLP情感分类器针对该会议音频数据的初始音频分 析数据进行更新处理得到更新后的音频分析数据之后,终端设备即可连同该 更新后的音频分析数据,和当前会议中其它与会人员的人数,该会议文本数 据对应的会议事项,在该与会人员各自会议音频数据对应的会议文本数据对 应各会议事项中所依赖关联的事项数量,以及滑动权重一起作为计算入参, 来计算得到该会议文本数据的优先权重值,最后,终端设备即按照该优先权 重值,和其他与会人员各自会议音频数据对应的会议文本数据各自的优先权 重值,自动对该会议文本数据进行优先级的等级划分处理。
本发明实施例提供一种会议纪要的生成方法,通过终端设备获取实时或 者以往记录的会议音频数据,并基于声纹识别处理和情感识别处理,来针对 该会议音频数据进行识别分析处理以得到初始音频分析数据;终端设备在获 取到会议音频数据,并针对该会议音频数据进行识别分析处理得到初始音频 分析数据之后,该终端设备进一步调用预先已经训练好的情感分类器,并将 该初始音频分析数据输入至该情感分类器当中进行训练计算,并基于该情感 分类器经过计算后输出的计算结果针对该初始音频分析数据进行更新处理, 以得到更新后的音频分析数据;终端设备在调用情感分类器以针对初始音频 分析数据进行更新处理,得到更新后的音频分析数据之后,该终端设备进一 步利用该更新后的音频分析数据进行优先权重值计算,从而基于该优先权重 值计算得到该会议音频数据所对应会议文本数据的优先权重值,针对该会议 文本数据进行优先级的等级划分处理,从而生成该会议文本数据所对应会议 事项具有优先级标识的会议纪要。
本发明相比于传统对会议中语音数据进行识别后,藉由人工提炼编辑生 成会议纪要的方式,通过识别分析语音数据得到语音分析数据,和基于情感 分类器针对该语音分析数据进行更新,从而利用更新的语音分析数据自动进 行会议事项的优先等级划分生成会议纪要,如此,不仅能够避免依赖人工操 作导致耗费时间和人力资源的情况,提升了会议纪要的生成效率,并且,还 能够令生成的会议纪要将会议事项均清晰的进行标识,从而提高对应员工针 对该会议事项的执行效率。
进一步地,基于上述第一实施例,提出本发明会议纪要的生成方法的第 二实施例。在本实施例中,上述步骤S30,基于所述更新后的音频分析数据, 对所述会议音频数据对应的会议文本数据进行等级划分处理以生成会议纪 要,可以包括:
步骤S301,基于所述更新后的音频分析数据,计算所述会议音频数据对 应的所述会议文本数据的优先权重值;
步骤S302,按照所述优先权重值对所述会议文本数据进行等级划分处理, 以生成以执行优先级标识会议事项的会议纪要。
需要说明的是,在本实施例中,更新后的音频分析数据包括但不限于: 更新后的声纹标签和更新后的情感类别,终端设备在针对所采集的会议音频 数据进行识别分析处理的过程当中,即基于声纹识别处理和情感识别处理对 该会议音频数据进行识别分析以得到初始声纹标签和初始情感类别,然后, 终端设备在通过调用训练好的情感分类器针对该初始声纹标签和初始情感类 别进行更新处理之后即得到该更新后的声纹标签和更新后的情感类别。
终端设备在调用情感分类器以针对初始声纹标签和初始情感类别进行更 新处理得到该更新后的声纹标签和更新后的情感类别之后,终端设备即利用 该更新后的声纹标签和更新后的情感类别进行优先权重值计算,从而基于该 优先权重值计算得到该会议音频数据所对应的会议文本数据的优先权重值。
终端设备在计算得到该会议音频数据所对应的会议文本数据的优先权重 值之后,基于比对该优先权重值与其它各会议音频数据所对应会议文本数据 的优先权重值之间的大小,以按照优先权重值由大到小的顺序,将该会议音 频数据对应会议文本数据进行执行优先级由高到低的等级划分处理,如此, 在针对全部会议音频数据对应会议文本数据均执行该等级划分处理之后,即 生成该各会议文本数据所对应会议事项均通过该执行优先级进行标识的会议 纪要。
具体地,例如,在本实施例中,请参照如图3所示应用流程当中的“具 备优先等级的memo-rank会议纪要文本数据”,假定当前会议的与会人员一 共有A、B、C和D四人,其中,终端设备计算得到该与会人员A所产生的一 条会议音频数据所对应会议文本数据a的优先权重值为0.707、计算得到该与 会人员B所产生的一条会议音频数据所对应会议文本数据b的优先权重值为 0.325、计算得到该与会人员C所产生的一条会议音频数据所对应会议文本数 据c的优先权重值为0.409,以及,计算得到该与会人员D所产生的一条会议 音频数据所对应会议文本数据d的优先权重值为0.329(以上过程如图3所示 “基于MemoRank算法实现”,该具体计算过程将在下文中阐述)。
如此,终端设备在针对该会议文本数据a、b、c和d各自对应的会议事 项:事项a、事项b、事项c和事项d进行等级划分处理以生成包含该事项a、 事项b、事项c和事项d的会议纪要时,终端设备即基于该各优先权重值的大 小,按照从大到小的顺序,将事项a的执行优先级标记为最高,然后依次是: 事项c的执行优先级略低于事项a、事项d的执行优先级略低于事项c、事项 b的执行优先级低于事项d,从而,在全部标记好事项a、事项b、事项c和 事项d各自的执行优先级之后,即可得到各事项均有执行优先级标识的会议 纪要。
进一步地,在一种可行的实施例中,在上述步骤S20,调用预设的情感分 类器对所述初始音频分析数据进行更新得到更新后的音频分析数据之后,本 发明会议纪要的生成方法,还可以包括:
步骤S40,创建所述更新后的音频分析数据的数据索引,并基于所述数据 索引将所述更新后的音频分析数据关联存储至预设的存储空间;
终端设备在通过调用训练好的情感分类器针对音频分析数据初始声纹标 签和初始情感分类进行更新处理得到更新后的声纹标签和更新后的情感分类 之后,针对该更新后的声纹标签和更新后的情感分类创建唯一的数据索引, 并按照该数据索引集中的将该更新后的声纹标签和更新后的情感分类关联存 储至预设的存储空间当中,以供终端设备进行优先权重值计算时进行调用。
需要说明的是,在本实施例中,预设的存储空间为终端设备预先在本地 配置一个或者多个用于对更新后的声纹标签和更新后的情感分类进行集中存 储的空间。应当理解的是,基于实际应用的不用设计需要,在其它可行的实 施方式当中,终端设备除了通过在本地配置该存储空间之外,该终端设备当 然还可以通过其它可行的方式来配置一特定存储空间以集中存储该更新后的 声纹标签和更新后的情感分类,例如,终端设备还可以通过外接数据库的方 式,在外部的固态存储空间或者云存储空间当中配置一特定存储空间来集中 存储该更新后的声纹标签和更新后的情感分类。
具体地,例如,终端设备通过更新后的声纹标签,确定该更新后的声纹 表示所标识的产生对应会议音频数据的与会人员,并直接将该与会人员创建 作为该更新后的声纹标签的数据索引,如此,基于该数据索引将该会议音频 数据更新后的声纹标签和更新后的情感分类一起关联存储至预先在本地配置 的特定存储空间内。
在本实施例中,通过针对更新后的声纹标签和更新后的情感分类创建唯 一的数据索引,并按照该数据索引集中的将该更新后的声纹标签和更新后的 情感分类关联存储至预设的存储空间当中,以供终端设备进行优先权重值计 算时进行调用。一方面,能够在会议过程所产生会议音频数据的数据量逐渐 变得庞大的情况下,终端设备持续针对该会议音频数据进行分析处理产生的 中间数据(包括但不限于初始音频分析数据和更新后的音频分析数据)不会 被丢失,保证中间数据和基于该中间数据生成的会议纪要的稳定性,另一方 面,还以实际产生会议音频数据的与会人员创建形成关联存储的音频分析数 据的数据索引,保证了在计算优先权重值时利用该数据索引提取目标音频分 析数据的准确性,进而保证了该优先权重值的稳定可靠。
进一步地,在一种可行的实施例中,上述步骤S301,基于所述更新后的 音频分析数据,计算所述会议音频数据对应的所述会议文本数据的优先权重 值,可以包括:
步骤S3011,从所述更新后的音频分析数据中确定所述会议文本数据对应 的目标音频分析数据,并根据所述数据索引从所述存储空间中提取所述目标 音频分析数据;
需要说明的是,在本实施例中,目标音频分析数据包括但不限于:目标 声纹标签和目标情感分类。
终端设备在进行优先权重值计算的过程中,终端设备先从各会议音频数 据各自的更新后的声纹标签和更新后的情感分类当中,确定当前要进行优先 权重值计算的会议音频数据更新后的声纹标签作为目标声纹标签,和确定该 会议音频数据更新后的情感分类作为目标情感分类,然后,终端设备即从集 中存储该各会议音频数据各自更新后声纹标签和更新后情感分类的存储空间 当中,根据该更新后声纹标签和更新后情感分类的数据索引,提取出该目标 声纹标签和目标情感分类。
具体地,例如,在本实施例中,假定终端设备当前需要针对与会人员A 在会议当中产生的一条会议音频数据对应的会议文本数据a进行优先权重值 计算时,该终端设备即可以该与会人员A为索引,从关联存储有该会议音频 数据更新后声纹标签和更新后情感分类的特定存储空间当中,提取出与该与 会人员A相关联的更新后的声纹标签作为目标声纹标签,以及,提取出与该 与会人员A相关联的更新后的情感分类作为目标情感分类。
步骤S3012,根据提取到的所述目标音频分析数据进行计算得到所述会议 文本数据的优先权重值。
终端设备在进行优先权重值计算的过程中,在从集中存储的各会议音频 数据各自的更新后的声纹标签和更新后的情感分类当中,提取出目标声纹标 签和目标情感分类之后,即调用预设的会议纪要分等级标记处理算法,以通 过该算法利用目标声纹标签和目标情感分类作为其中的一部分算法参数,来 计算得到当前要进行优先权重计算的会议音频数据对应会议文本数据的优先 权重值。
需要说明的是,在本实施例中预设的会议纪要分等级标记处理算法——MemoRank,为便于阐述和理解,后文中均以MemoRank算法替代说明,该 MemoRank算法可以为:
Figure BDA0003130628190000111
这其中,n为全部的与会人员的数量,i为会议文本数据对应的会议事项, snowNLP(i)为该会议事项对应的目标情感分类,S(i)为该会议事项对应 的目标声纹标签,L(j)为该会议事项在其它会议事项当中依赖关联的关联 事项的数量,β为预设的滑动权重,该滑动权重可基于实际应用的设计经验 进行设定。
上述MemoRank算法中,由于考虑到全部与会人员的人数较多时,该与会 人员会在相互针对各自输出的会议音频数据的声纹标签以及情感分类产生影 响,而影响越大,整个优先级得分越高,从而导致计算结果差异过大。针对 此,本实施例中,该MemoRank算法还可以为:
Figure BDA0003130628190000121
这其中,N和n均为全部的与会人员的数量,通过
Figure BDA0003130628190000122
这一项,在随着 N逐渐增大时,计算结果的差异能够实现反向的降低,如此,可有效的防止与 会人员的人员数量对于优先权重值计算的影响,避免计算结果的差异随与会 人数的增加而对应增加,进而导致优先权重值出现较大误差的情况,提高了 优先权重值计算的准确性,确保了后续基于该优先权重值针对会议纪要进行 等级划分处理的准确性。
进一步地,在一种可行的实施例中,上述步骤S301,还可以包括:
步骤A,确定全部的与会人数,以及预设的关联会议事项数量和滑动权重, 其中,所述关联会议事项数量为所述会议文本数据对应会议事项的关联事项 的数量;
终端设备在调用MemoRank算法之后,即进一步确定该MemoRank算法中 除了目标声纹标签和目标情感分类之外的其它算法参数,即,确定全部的与 会人数,以及会议文本数据对应会议事项的关联事项的数量和滑动权重。
具体地,例如,在本实施例中,假定当前会议的与会人员一共有A、B、C 和D四人,其中,该A、B、C和D各自在会议中输出的会议事项(该会议事 项与A、B、C和D四人各自产生会议音频数据对应的会议文本数据一一对应) 的依赖关系如图4所示,假定终端设备当前需要针对与会人员A输出的会议 事项——事项a进行优先权重计算,则,终端设备在基于该与会人员A为索 引从特定存储空间当中提取出与该与会人员A关联的目标声纹标签S(a), 和与该与会人员A关联的目标情感分类snowNLP(a)之后,终端设备进一步 确定全部的与会人数为A、B、C和D四人,即N=4,和,基于该依赖关系确定 该事项a所依赖的关联事项分别为其它B、C和D三人各自输出的会议事项, 即L(j)=3,以及,基于以往经验设定滑动权重β=0.5。
需要说明的是,在本实施例中,与会议文本数据一一对应的会议事项相 互之间的依赖关系,基于上述实施例中的SnowNLP情感分类器针对会议音频 数据进行识别分析处理得到。
步骤B,结合所述更新后的音频分析数据、所述与会人数、所述关联会议 事项数量以及所述滑动权重,计算得到所述会议文本数据的优先权重值。
终端设备在调用MemoRank算法并确定该MemoRank算法中包含目标声纹 标签和目标情感分类的全部的算法参数:更新后的声纹标签、更新后的情感 分类、全部的与会人数,会议文本数据对应会议事项的关联事项的数量以及 滑动权重之后,终端设备即将全部的该算法参数代入到该MemoRank算法当中 以计算得到该会议文本数据所对应会议事项的优先权重值。
具体地,例如,在本实施例中,请参照如图3所示应用流程当中的“声 纹标签+情感分类优先级”与“不同语料声纹标签+情感分类优先级”,终端 设备在针对与会人员A输出的会议事项——事项a进行优先权重计算,从而 在基于该与会人员A为索引从特定存储空间当中提取出与该与会人员A关联 的目标声纹标签S(a)=0.9,和与该与会人员A关联的目标情感分类snowNLP (a)=0.9,以及确定全部的与会人数为A、B、C和D四人,即N=4,和,基 于该依赖关系确定该事项a所依赖的关联事项分别为其它B、C和D三人各自 输出的会议事项,即L(j)=3,和基于以往经验设定滑动权重β=0.5之后, 终端设备即将该S(a)=0.9、snowNLP(a)=0.9、N=4、L(j)=3以及β=0.5, 代入MemoRank算法,得到如下公式:
Figure BDA0003130628190000131
该公式中,MemoRank(b)、MemoRank(c)和MemoRank(d)分别为会议 事项a在全部与会人员B、C和D各自所输出会议事项中所依赖关联的会议事 项:事项b、事项c和事项d的优先权重值(同样基于上述MemoRank算法计 算得到),假定该MemoRank(b)=0.325、MemoRank(c)=0.409和MemoRank (d)=0.329,则MemoRank(a)基于上述公式进行计算后等于0.707,即, 计算得到与会人员A输出的会议事项——事项a(与A所输出会议音频数据对 应的会议文本数据之间一一对应)进行优先权重计算,得到该事项a的优先 权重值为0.707。
在本实施例中,终端设备在调用情感分类器以针对初始声纹标签和初始 情感类别进行更新处理得到该更新后的声纹标签和更新后的情感类别之后, 针对该更新后的声纹标签和更新后的情感分类创建统一的数据索引,并按照 该数据索引集中的将该更新后的声纹标签和更新后的情感分类关联存储至预 设的存储空间当中。终端设备从该预设存储空间提取更新后的声纹标签和更 新后的情感类别,并利用该更新后的声纹标签和更新后的情感类别进行优先 权重值计算,从而基于该优先权重值计算得到该会议音频数据所对应的会议 文本数据的优先权重值。进一步地,终端设备在计算得到该会议音频数据所对应的会议文本数据的优先权重值之后,基于比对该优先权重值与其它各会 议音频数据所对应会议文本数据的优先权重值之间的大小,以按照优先权重 值由大到小的顺序,将该会议音频数据对应会议文本数据进行执行优先级由 高到低的等级划分处理,如此,在针对全部会议音频数据对应会议文本数据 均执行该等级划分处理之后,即生成该各会议文本数据所对应会议事项均通 过该执行优先级进行标识的会议纪要。
从而,本发明实现了,将与会人员所产生会议音频数据的情感类别和声 纹标签纳入用于划分会议纪要优先等级的指标,从而充分考虑与会人员的情 感和该声纹标签对应标识人物角色,对会议音频数据所对应会议事项的重要 程度影响,在对会议纪要进行优先等级划分,使纪要待办事项清晰明了,重 要程度更高的会议内容能够被有效标记和传达,有利于会后及时落实会议内 容,进一步提高员工的工作效率。
进一步地,基于上述第一实施例,提出本发明会议纪要的生成方法的第 三实施例,本实施例与上述第一实施例和第二实施例之间的主要区别在于, 在本实施例中,所述初始音频分析数据包括:初始声纹标签和初始情感类别, 上述步骤S10中,“对所述会议音频数据进行识别处理得到初始音频分析数 据”的步骤,可以包括:
步骤S101,针对所述会议音频数据进行声纹识别处理以确定所述会议音 频数据所属的会议角色;
终端设备然后在实时的采集到会议当中与会人员的会议音频数据之后, 即基于声纹识别处理技术来先针对该会议音频数据进行声纹识别分析,以确 定在当前会议全部与会人员当中,输出该会议音频数据的会议角色。
需要说明的是,在本实施例中,终端设备可基于任意声纹识别处理技术 来识别得到会议音频数据的声纹,从而将该声纹与预先记录的各与会人员各 自的声纹进行比对,从而即可确定输出所采集会议音频数据的会议角色。此 外,在本实施例中,会议角色包括但不限于:领导和员工,终端设备通过对 接所属企业的人事系统确定与会人员对应的会议角色。
具体地,例如,在本实施例中,终端设备预先记录有全部与会人员,如 与会人员A、B、C和D各自的声纹数据,然后,终端设备在实时采集到一条 由与会人员A输出的会议音频数据之后,即基于声纹识别处理技术识别分析 出该会议音频数据的声纹,并将该声纹与之前记录的与会人员A、B、C和D 各自的声纹数据逐一进行比对,从而在比对到该声纹与会人员A的声纹数据 相匹配时,确定该会议音频数据的输出者为与会人员A,然后,终端设备在预 先对接好的该终端设备所属企业的人事系统当中,确定该与会人员A为该企 业管理层的领导,从而终端设备确定该会议音频数据的会议角色即为领导。
步骤S102,根据会议角色确定所述会议音频数据的所述初始声纹标签;
终端设备在确定会议音频数据的会议角色之后,根据该会议角色所属职 业级别为该会议音频数据添加标记声纹重要等级的初始声纹标签。
需要说明的是,在本实施例中,终端设备可预先基于对接企业人事系统, 确定全部与会人员各自的职业级别,如此,在针对会议音频数据进行声纹识 别处理确定会议角色之后,即可自动适配该会议角色所对应职业级别,直接 为该会议音频数据添加标记声纹重要等级——S(i)的初始声纹标签。
具体地,例如,在本实施例中,终端设备预先配置对应职业级别为领导 时,标记声纹重要等级——S(i)=0.9的初始声纹标签,和配置对应职业级 别为员工时,标记声纹重要等级——S(i)=0.5的初始声纹标签,如此,终 端设备在确定当前采集到的会议音频数据的会议角色为:输出该会议音频数 据的与会人员A在企业人事系统中对应的领导时,则终端设备即直接为该会 议音频数据添加标记声纹重要等级——S(i)=0.9的初始声纹标签,或者, 终端设备在确定当前采集到的会议音频数据的会议角色为:输出该会议音频 数据的与会人员B在企业人事系统中对应的员工时,则终端设备即直接为该 会议音频数据添加标记声纹重要等级——S(i)=0.5的初始声纹标签。
步骤S103,针对所述会议音频数据进行情感识别处理以确定所述会议音 频数据的所述初始情感类别。
终端设备在针对采集到的会议音频数据进行声纹识别处理之后,或者, 终端设备在针对该会议音频数据进行声纹识别处理的同时,终端设备通过情 感识别处理技术,针对该会议音频数据进行情感识别处理从而确定该会议音 频数据的初始情感分类。
需要说明的是,在本实施例中,终端设备在针对会议音频数据进行情感 识别处理时,先将该会议音频数据转换成为会议文本数据,然后基于会议文 本数据进行分词和自然语言分析来识别得到该会议音频数据的初始情感分 类。
具体地,例如,在本实施例中,请参照如图3所示应用流程,终端设备 (图示TCTPTEST测试中台)在针对采集到的会议音频数据(图示声音数据) 进行声纹识别以为该会议音频数据添加初始声纹标签的同时,终端设备先基 于ASR(Automatic SpeechRecognition,自动语音识别技术,一种将人的语 音转换为文本的技术)处理将该会议音频数据转换成为会议文本数据,然后, 终端设备针对该会议文本数据进行分词得到各个语句分词,并进一步基于NLP (Natural Language Processing,自然语言处理(AI分支))来识别该各个语 句分词的正负情感方向,并分析识别出整个会议文本数据对应语句的正负向 情感,最后,终端设备按照所识别到的该会议文本数据对应语句的正负向情 感,为该会议音频数据对应打上用于标记情感优先级——snowNLP(i)的初始 情感类别。
进一步地,在一种可行的实施例中,所述更新后的音频分析数据包括: 更新后的声纹标签和更新后的情感类别,上述步骤S20中,“调用预设的情 感分类器对所述初始音频分析数据进行更新得到更新后的音频分析数据”的 步骤包括:
步骤S201,调用所述情感分类器,并将所述初始声纹标签和所述初始情 感类别输入所述情感分类器进行计算得到计算结果;
终端设备在针对采集到的会议音频数据,进行识别分析处理确定该会议 音频数据的初始声纹标签和初始情感分类之后,立即调用已经经过循环重复 训练收敛之后的SnowNLP情感分类器,以将该包含初始声纹标签和初始情感 分类的会议音频数据输入到该SnowNLP情感分类器当中,由该SnowNLP情感 分类器进行训练计算得到计算结果。
需要说明的是,在本实施例中,请参照如图3所示的应用流程,情感分 类器为SnowNLP情感分类器,终端设备在每一次针对采集到的会议音频数据, 进行识别分析处理确定该会议音频数据的初始声纹标签和初始情感分类之 后,即将包含该初始声纹标签和初始情感分类的会议音频数据作为样本数据 上传样本库当中,然后,利用该样本库当中的部分或者全部样本数据针对 SnowNLP情感分类器进行循环重复的训练得到训练收敛之后的SnowNLP情感分 类器。
步骤S202,根据所述计算结果对所述初始声纹标签进行更新以得到所述 更新后的声纹标签;
终端设备在将包含初始声纹标签和初始情感分类的会议音频数据输入到 所调用的SnowNLP情感分类器当中,由该SnowNLP情感分类器进行训练计算 得到计算结果之后,若该计算结果中得到的该会议音频数据新的声纹标签与 该初始声纹标签存在区别,则终端设备即将该新的声纹标签作为该会议音频 数据更新后的声纹标签类,从而完成针对该初始声纹标签的更新处理。
步骤S202,根据所述计算结果对所述初始情感类别进行更新以得到所述 更新后的情感类别。
终端设备在将包含初始声纹标签和初始情感分类的会议音频数据输入到 所调用的SnowNLP情感分类器当中,由该SnowNLP情感分类器进行训练计算 得到计算结果之后,若该计算结果中得到的该会议音频数据新的情感分类与 该初始情感分类存在区别,则终端设备即将该新的情感分类作为该会议音频 数据更新后的情感分类,从而完成针对该初始情感分类的更新处理。
在本实施例中,通过训练SnowNLP情感分类器来针对会议音频数据的初 始声纹标签和初始情感分类进行更新,即循环重复训练snowNLP情感分析器 以使分析结果实现了反哺,能够令针对会议音频数据的识别分析处理更加准 确,进而使后续利用对会议音频数据的音频分析数据(更新后的声纹标签和 更新后的情感分类)来针对会议纪要进行等级划分处理得到的各会议事项的 优先级更加准确。
在本实施例中,通过终端设备然后在实时的采集到会议当中与会人员的 会议音频数据之后,即基于声纹识别处理技术来先针对该会议音频数据进行 声纹识别分析,以确定在当前会议全部与会人员当中,输出该会议音频数据 的会议角色;终端设备在确定会议音频数据的会议角色之后,根据该会议角 色所属职业级别为该会议音频数据添加标记声纹重要等级的初始声纹标签; 终端设备在针对采集到的会议音频数据进行声纹识别处理之后,或者,终端 设备在针对该会议音频数据进行声纹识别处理的同时,终端设备通过情感识 别处理技术,针对该会议音频数据进行情感识别处理从而确定该会议音频数 据的初始情感分类。
此外,终端设备在针对采集到的会议音频数据,进行识别分析处理确定 该会议音频数据的初始声纹标签和初始情感分类之后,立即调用已经经过循 环重复训练收敛之后的SnowNLP情感分类器,以将该包含初始声纹标签和初 始情感分类的会议音频数据输入到该SnowNLP情感分类器当中,由该SnowNLP 情感分类器进行训练计算得到计算结果;若该计算结果中得到的该会议音频 数据新的声纹标签(或者新的情感类别)与该初始声纹标签(或者初始情感 类别)存在区别,则终端设备即将该新的声纹标签(或者新的情感类别)作为该会议音频数据更新后的声纹标签类(或者更新后的情感类别),从而完 成针对该初始声纹标签(或者初始情感类别)的更新处理。
如此,本发明将输出会议音频数据中的与会人员的职业级别也纳入用于 会议纪要优先等级划分,使当前会议中与会人员职级越高的人员的讲话能够 得到更加有效地传达,有利于会后基于会议纪要及时落实会议中的指示。
进一步地,基于上述第一实施例、第二实施例和第三实施例,提出本发 明会议纪要的生成方法的第四实施例,本实施例与上述第一实施例、第二实 施例和第三实施例之间的主要区别在于,在本实施例中,在上述步骤S30,基 于所述更新后的音频分析数据,对所述会议音频数据对应的会议文本数据进 行等级划分处理以生成会议纪要之后,本发明会议纪要的生成方法,还可以 包括:
步骤S50,将所述会议纪要向所述会议音频数据各自所属的与会人员进行 输出。
终端设备在生成会议事项具有优先级标识的会议纪要之后,即将该会议 纪要通过邮件的方式输出给当前会议当中产生会议音频数据并形成对应会议 事项的各与会人员。
需要说明的是,在本实施例中,终端设备在针对会议音频数据进行识别 分析处理来为该会议音频数据添加声纹标签的过程中,终端设备同步获取该 声纹标签对应与会人员的邮箱数据。
具体地,例如,在本实施例中,请参照如图3所示的应用流程,终端设 备在通过预先对接好的该终端设备所属企业的人事系统当中,确定输出会议 音频数据的与会人员A的会议角色时,同步从该人事系统当中提取出该与会 人员A的邮箱数据,从而,在终端设备生成会议事项均有执行优先级标识的 会议纪要之后,即按照该邮箱数据将该会议纪要输出给该会议人员A。终端设 备向其他会议成员输出该会议纪要的方式均与此相同。
需要说明的是,在另一种可行的实施例中,终端设备在将生成的会议纪 要输出至各与会人员之前,还可先将该会议纪要仅输出至各与会人员当中的 会议主持人,并在接收到该会议主持人触发的确认指示之后,再将该会议纪 要输出至全部的与会人员。
在本实施例中,通过终端设备在生成会议事项具有优先级标识的会议纪 要之后,即将该会议纪要通过邮件的方式输出给当前会议当中产生会议音频 数据并形成对应会议事项的各与会人员。如此,有利于会后基于会议纪要及 时落实会议中的指示,进一步提高工作人员对于会议事项的执行效率。
进一步地,本发明还提供一种会议纪要的生成装置。请参照图5,图5为 本发明会议纪要的生成装置一实施例的功能模块示意图。如图5所示,本发 明会议纪要的生成装置,包括:
音频分析模块10,用于获取会议音频数据,并对所述会议音频数据进行 识别处理得到初始音频分析数据;
更新模块20,用于调用预设的情感分类器对所述初始音频分析数据进行 更新得到更新后的音频分析数据,其中,所述情感分类器通过基于所述初始 音频分析数据构建的训练样本训练得到;
等级标记模块30,用于基于所述更新后的音频分析数据,对所述会议音 频数据对应的会议文本数据进行等级划分处理以生成会议纪要。
进一步地,等级标记模块30,包括:
计算单元,用于基于所述更新后的音频分析数据,计算所述会议音频数 据对应的所述会议文本数据的优先权重值;
生成单元,用于按照所述优先权重值对所述会议文本数据进行等级划分 处理,以生成以执行优先级标识会议事项的会议纪要。
进一步地,计算单元,还用于确定全部的与会人数,以及预设的关联会 议事项数量和滑动权重,其中,所述关联会议事项数量为所述会议文本数据 对应会议事项的关联事项的数量;以及,结合所述更新后的音频分析数据、 所述与会人数、所述关联会议事项数量以及所述滑动权重,计算得到所述会 议文本数据的优先权重值。
进一步地,本发明会议纪要的生成装置,还包括:
存储模块,用于创建所述更新后的音频分析数据的数据索引,并基于所 述数据索引将所述更新后的音频分析数据关联存储至预设的存储空间;
计算单元,包括:
确定子单元,用于从所述更新后的音频分析数据中确定所述会议文本数 据对应的目标音频分析数据,并根据所述数据索引从所述存储空间中提取所 述目标音频分析数据;
计算子单元,用于根据提取到的所述目标音频分析数据进行计算得到所 述会议文本数据的优先权重值。
进一步地,所述初始音频分析数据包括:初始声纹标签和初始情感类别, 音频分析模块10,包括:
声纹识别单元,用于针对所述会议音频数据进行声纹识别处理以确定所 述会议音频数据所属的会议角色;
声纹确定单元,用于根据会议角色确定所述会议音频数据的所述初始声 纹标签;
情感确定单元,用于针对所述会议音频数据进行情感识别处理以确定所 述会议音频数据的所述初始情感类别。
进一步地,所述更新后的音频分析数据包括:更新后的声纹标签和更新 后的情感类别,更新模块20,包括:
模型计算单元,用于调用所述情感分类器,并将所述初始声纹标签和所 述初始情感类别输入所述情感分类器进行计算得到计算结果;
声纹更新单元,用于根据所述计算结果对所述初始声纹标签进行更新以 得到所述更新后的声纹标签;
情感更新单元,用于根据所述计算结果对所述初始情感类别进行更新以 得到所述更新后的情感类别。
进一步地,本发明会议纪要的生成装置,还包括:
输出模块,用于将所述会议纪要向所述会议音频数据各自所属的与会人 员进行输出。
其中,上述会议纪要的生成装置中任务调度节点的各个模块的功能实现, 与上述会议纪要的生成方法实施例中各步骤相对应,其功能和实现过程在此 处不再一一赘述。
本发明还提供一种计算机存储介质,该计算机存储介质上存储有会议纪 要的生成程序,所述会议纪要的生成程序被处理器执行时实现如以上任一项 实施例所述的会议纪要的生成方法的步骤。
本发明计算机存储介质的具体实施例与上述会议纪要的生成方法各实施 例基本相同,在此不作赘述。
本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程 序,所述计算机程序被处理器执行时实现如以上任一项实施例所述的会议纪 要的生成方法的步骤。
本发明计算机存储介质的具体实施例与上述会议纪要的生成方法各实施 例基本相同,在此不作赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变 体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品 或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是 还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的 情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过 程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述 实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通 过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的 技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体 现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁 碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机, 服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是 利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间 接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种会议纪要的生成方法,其特征在于,所述会议纪要的生成方法包括:
获取会议音频数据,并对所述会议音频数据进行识别处理得到初始音频分析数据;
调用预设的情感分类器对所述初始音频分析数据进行更新得到更新后的音频分析数据,其中,所述情感分类器通过基于所述初始音频分析数据构建的训练样本训练得到;
基于所述更新后的音频分析数据,对所述会议音频数据对应的会议文本数据进行等级划分处理以生成会议纪要。
2.如权利要求1所述的会议纪要的生成方法,其特征在于,所述基于所述更新后的音频分析数据,对所述会议音频数据对应的会议文本数据进行等级划分处理以生成会议纪要的步骤,包括:
基于所述更新后的音频分析数据,计算所述会议音频数据对应的所述会议文本数据的优先权重值;
按照所述优先权重值对所述会议文本数据进行等级划分处理,以生成以执行优先级标识会议事项的会议纪要。
3.如权利要求2所述的会议纪要的生成方法,其特征在于,所述基于所述更新后的音频分析数据,计算所述会议音频数据对应的所述会议文本数据的优先权重值的步骤,包括:
确定全部的与会人数,以及预设的关联会议事项数量和滑动权重,其中,所述关联会议事项数量为所述会议文本数据对应会议事项的关联事项的数量;
结合所述更新后的音频分析数据、所述与会人数、所述关联会议事项数量以及所述滑动权重,计算得到所述会议文本数据的优先权重值。
4.如权利要求2所述的会议纪要的生成方法,其特征在于,在所述调用预设的情感分类器对所述初始音频分析数据进行更新得到更新后的音频分析数据的步骤之后,还包括:
创建所述更新后的音频分析数据的数据索引,并基于所述数据索引将所述更新后的音频分析数据关联存储至预设的存储空间;
所述基于所述更新后的音频分析数据,计算所述会议音频数据对应的所述会议文本数据的优先权重值的步骤,包括:
从所述更新后的音频分析数据中确定所述会议文本数据对应的目标音频分析数据,并根据所述数据索引从所述存储空间中提取所述目标音频分析数据;
根据提取到的所述目标音频分析数据进行计算得到所述会议文本数据的优先权重值。
5.如权利要求1所述的会议纪要的生成方法,其特征在于,所述初始音频分析数据包括:初始声纹标签和初始情感类别,所述对所述会议音频数据进行识别处理得到初始音频分析数据的步骤,包括:
针对所述会议音频数据进行声纹识别处理以确定所述会议音频数据所属的会议角色;
根据会议角色确定所述会议音频数据的所述初始声纹标签;
针对所述会议音频数据进行情感识别处理以确定所述会议音频数据的所述初始情感类别。
6.如权利要求5所述的会议纪要的生成方法,其特征在于,所述更新后的音频分析数据包括:更新后的声纹标签和更新后的情感类别,所述调用预设的情感分类器对所述初始音频分析数据进行更新得到更新后的音频分析数据的步骤,包括:
调用所述情感分类器,并将所述初始声纹标签和所述初始情感类别输入所述情感分类器进行计算得到计算结果;
根据所述计算结果对所述初始声纹标签进行更新以得到所述更新后的声纹标签;
根据所述计算结果对所述初始情感类别进行更新以得到所述更新后的情感类别。
7.如权利要求1-6任一项所述的会议纪要的生成方法,其特征在于,在所述对所述会议音频数据对应的会议文本数据进行等级划分处理以生成会议纪要的步骤之后,所述会议纪要的生成方法,还包括:
将所述会议纪要向所述会议音频数据各自所属的与会人员进行输出。
8.一种会议纪要的生成装置,其特征在于,所述会议纪要的生成装置,包括:
音频分析模块,用于获取会议音频数据,并对所述会议音频数据进行识别处理得到初始音频分析数据;
更新模块,用于调用预设的情感分类器对所述初始音频分析数据进行更新得到更新后的音频分析数据,其中,所述情感分类器通过基于所述初始音频分析数据构建的训练样本训练得到;
等级标记模块,用于基于所述更新后的音频分析数据,对所述会议音频数据对应的会议文本数据进行等级划分处理以生成会议纪要。
9.一种终端设备,其特征在于,所述终端设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的会议纪要的生成程序,所述会议纪要的生成程序被所述处理器执行时实现如权利要求1至7中任一项所述的会议纪要的生成方法的步骤。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有会议纪要的生成程序,所述会议纪要的生成程序被处理器执行时实现如权利要求1至7中任一项所述的会议纪要的生成方法的步骤。
CN202110704528.7A 2021-06-24 2021-06-24 会议纪要的生成方法、装置、终端设备及计算机存储介质 Pending CN113326678A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110704528.7A CN113326678A (zh) 2021-06-24 2021-06-24 会议纪要的生成方法、装置、终端设备及计算机存储介质
PCT/CN2021/132301 WO2022267322A1 (zh) 2021-06-24 2021-11-23 会议纪要的生成方法、装置、终端设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110704528.7A CN113326678A (zh) 2021-06-24 2021-06-24 会议纪要的生成方法、装置、终端设备及计算机存储介质

Publications (1)

Publication Number Publication Date
CN113326678A true CN113326678A (zh) 2021-08-31

Family

ID=77424629

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110704528.7A Pending CN113326678A (zh) 2021-06-24 2021-06-24 会议纪要的生成方法、装置、终端设备及计算机存储介质

Country Status (2)

Country Link
CN (1) CN113326678A (zh)
WO (1) WO2022267322A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114093383A (zh) * 2022-01-17 2022-02-25 北京远鉴信息技术有限公司 一种参会者语音的确定方法、装置、电子设备及存储介质
WO2022267322A1 (zh) * 2021-06-24 2022-12-29 深圳前海微众银行股份有限公司 会议纪要的生成方法、装置、终端设备及计算机存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110019744A (zh) * 2018-08-17 2019-07-16 深圳壹账通智能科技有限公司 辅助生成会议纪要的方法、装置、设备及计算机存储介质
CN109361825A (zh) * 2018-11-12 2019-02-19 平安科技(深圳)有限公司 会议纪要记录方法、终端及计算机存储介质
CN109817245A (zh) * 2019-01-17 2019-05-28 深圳壹账通智能科技有限公司 会议纪要的生成方法、装置、计算机设备及存储介质
CN110956981B (zh) * 2019-12-06 2022-04-26 湖北文理学院 语音情感识别方法、装置、设备及存储介质
CN111370030A (zh) * 2020-04-03 2020-07-03 龙马智芯(珠海横琴)科技有限公司 语音情感检测方法与装置、存储介质、电子设备
CN112017632A (zh) * 2020-09-02 2020-12-01 浪潮云信息技术股份公司 一种自动化会议记录生成方法
CN113326678A (zh) * 2021-06-24 2021-08-31 深圳前海微众银行股份有限公司 会议纪要的生成方法、装置、终端设备及计算机存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022267322A1 (zh) * 2021-06-24 2022-12-29 深圳前海微众银行股份有限公司 会议纪要的生成方法、装置、终端设备及计算机存储介质
CN114093383A (zh) * 2022-01-17 2022-02-25 北京远鉴信息技术有限公司 一种参会者语音的确定方法、装置、电子设备及存储介质
CN114093383B (zh) * 2022-01-17 2022-04-12 北京远鉴信息技术有限公司 一种参会者语音的确定方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2022267322A1 (zh) 2022-12-29

Similar Documents

Publication Publication Date Title
US10725827B2 (en) Artificial intelligence based virtual automated assistance
CN110209764B (zh) 语料标注集的生成方法及装置、电子设备、存储介质
US11004013B2 (en) Training of chatbots from corpus of human-to-human chats
US11087094B2 (en) System and method for generation of conversation graphs
US10635392B2 (en) Method and system for providing interface controls based on voice commands
CN107733780B (zh) 任务智能分配方法、装置及即时通信工具
CN107680019B (zh) 一种考试方案的实现方法、装置、设备及存储介质
US8825478B2 (en) Real time generation of audio content summaries
US20130035929A1 (en) Information processing apparatus and method
CN107733782A (zh) 根据任务生成群的方法、装置及系统
CN108257594A (zh) 一种会议系统及其信息处理方法
US20220270612A1 (en) Cognitive correlation of group interactions
CN109978020B (zh) 一种基于多维特征的社交网络账号马甲身份辨识方法
CN107562546B (zh) 任务分配方法、装置及即时通信工具
CN113326678A (zh) 会议纪要的生成方法、装置、终端设备及计算机存储介质
US11750671B2 (en) Cognitive encapsulation of group meetings
CN113591489A (zh) 语音交互方法、装置及相关设备
CN115438995A (zh) 一种基于知识图谱的服装定制企业的业务处理方法及设备
CN107742178A (zh) 任务量化方法及装置
CN114141235A (zh) 语音语料库生成方法、装置、计算机设备和存储介质
Pandey et al. Interview bot with automatic question generation and answer evaluation
KR102665966B1 (ko) 도서목록정보(marc data) 구축을 위한 인공지능을 이용한 분류번호(kdc, ddc) 생성 방법 및 시스템
Koshtura et al. Information Sysem Project for Communication of Hearing Impaired Users
US20230385778A1 (en) Meeting thread builder
CN116127037A (zh) 一种人力资源智能筛选简历的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination