CN108231064A - 一种数据处理方法及系统 - Google Patents
一种数据处理方法及系统 Download PDFInfo
- Publication number
- CN108231064A CN108231064A CN201810001123.5A CN201810001123A CN108231064A CN 108231064 A CN108231064 A CN 108231064A CN 201810001123 A CN201810001123 A CN 201810001123A CN 108231064 A CN108231064 A CN 108231064A
- Authority
- CN
- China
- Prior art keywords
- data
- voice data
- summary content
- text
- text data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
Abstract
本发明公开了一种数据处理方法,方法包括:采集多人谈话场景中的语音数据,对语音数据进行文本转换,生成与语音数据对应的文本数据,基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容。本发明通过采用人工智能等技术对谈话场景中的语音数据进行自主学习,有效提高了记录纪要内容的准确性以及效率,进而提升了用户体验。本发明还公开了一种数据处理系统。
Description
技术领域
本发明涉及电子技术领域,尤其涉及一种数据处理方法及系统。
背景技术
在各个行业都会出现召开会议的情况,尤其在某些行业或企业召开会议相当频繁,在每次召开会议时需要针对每个会议记录完整的会议纪要。
目前,在记录会议纪要时,主要采用人工手动记录的方式。现有的人工手动记录的方式,容易受记录人员知识、经验以及表达风格差异的影响,导致对会议观点理解的不同,从而造成会议纪要记录的误差。并且,由于采用人工手动记录的方式,记录效率较低。
因此,如何提高纪要记录的准确性以及记录效率是一项亟待解决的问题。
发明内容
有鉴于此,本发明提供一种数据处理方法,能够在多人谈话场景中记录纪要时,有效的提高记录的准确性和效率。
本发明提供了一种数据处理方法,其特征在于,所述方法包括:
采集多人谈话场景中的语音数据;
对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据;
基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容。
优选地,所述基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容,包括:
基于所述预设规则,在所述文本数据中挑选若干重要的要素,按照预定格式填入对应的文档,构建生成所述第一纪要内容;
或者
识别所述文本数据的涵义,基于所述预设规则,产生与所述文本数据相关联的第一新要素,构建生成所述第一纪要内容。
优选地,所述对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据包括:
根据多人语音数据中各发言人的语音音频特征,识别不同发言人及其对应的语音数据,生成与不同发言人的语音数据对应的文本数据。
优选地,所述对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据还包括:
根据所述语音数据中发言人的语音音频特性,确定与文本数据关联的第一新要素,用于理解所述文本数据或用于在所述文本数据的基础上增补。
优选地,所述方法,其特征在于,还包括:
发送所述第一纪要内容至若干发言人的/或与发言人关联的文件接收系统。
优选地,所述方法还包括:
编辑接收到的所述第一纪要内容,生成第二纪要内容;
反馈所述第二纪要内容至分类器;
在所述分类器中,基于所述第二纪要内容训练改进预设规则。
一种数据处理系统,包括:
存储器,用于存储应用程序与应用程序运行所产生的数据;
采集装置,用于采集多人谈话场景中的语音数据;
处理器,用于运行所述应用程序以对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据;
所述处理器,还用于基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容。
优选地,所述处理器在基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容时,具体用于:
基于所述预设规则,在所述文本数据中挑选若干重要的要素,按照预定格式填入对应的文档,构建生成所述第一纪要内容;
或者
识别所述文本数据的涵义,基于所述预设规则,产生与所述文本数据相关联的第一新要素,构建生成所述第一纪要内容。
优选地,所述处理器在对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据时,具体用于:
根据多人语音数据中各发言人的语音音频特征,识别不同发言人及其对应的语音数据,生成与不同发言人的语音数据对应的文本数据。
优选地,所述处理器在对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据时,还用于:
根据所述语音数据中发言人的语音音频特性,确定与文本数据关联的第一新要素,用于理解所述文本数据或用于在所述文本数据的基础上增补。
优选地,所述处理器还用于:
发送所述第一纪要内容至若干发言人的/或与发言人关联的文件接收系统。
优选地,所述处理器还用于:
编辑接收到的所述第一纪要内容,生成第二纪要内容;
反馈所述第二纪要内容至分类器;
在所述分类器中,基于所述第二纪要内容训练改进预设规则。
从上述技术方案可以看出,本申请公开的一种数据处理方法,当在多人谈话场景中,需要生成纪要内容时,首先采集多人谈话场景中的语音数据,然后对语音数据进行文本转换,生成与语音数据对应的文本数据,最后基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容。通过采用人工智能等技术对谈话场景中的语音数据进行自主学习,有效提高了记录纪要内容的准确性以及效率,进而提升了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明公开的一种数据处理方法实施例1的方法流程图;
图2为本发明公开的一种数据处理方法实施例2的方法流程图;
图3为本发明公开的一种数据处理系统实施例1的结构示意图;
图4为本发明公开的一种数据处理系统实施例2的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,为本发明公开的一种数据处理方法实施例1的方法流程图,所述方法可以包括以下步骤:
S101、采集多人谈话场景中的语音数据;
当在多人谈话场景中,需要生成谈话过程中的纪要内容时,首先采集多人谈话场景中的语音数据。例如,通过录音装置对整个谈话场景中的语音数据进行采集。需要说明的是,此处提到的多人谈话场景是一个广义的范围,也可以指某一个人的谈话场景。例如,某个领导开会的场景。另外,多人谈话的场景可以是多人的在线会议,或者直播平台上多人的语音聊天等等。
S102、对语音数据进行文本转换,生成与语音数据对应的文本数据;
当采集到多人谈话场景中的语音数据后,对语音数据进行文本转换,生成与语音数据对应的文本数据。
S103、基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容。
最后,根据预先采用人工智能技术生成的预设规则,对文本数据进行学习,输出与语音数据对应的第一纪要内容。需要说明的是,所述的第一纪要内容可以为文本数据中的部分内容,也可以是能够表达文本数据意思的其他内容,只要是能够对多人谈话场景中语音数据的核心内容进行概括的内容即可。
综上所述,在上述实施例中,当在多人谈话场景中,需要生成纪要内容时,首先采集多人谈话场景中的语音数据,然后对语音数据进行文本转换,生成与语音数据对应的文本数据,最后基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容。通过采用人工智能等技术对谈话场景中的语音数据进行自主学习,有效提高了记录纪要内容的准确性以及效率,进而提升了用户体验。
具体的,在上述的实施例中,步骤S103基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容的其中一种实现方式,可以是:
基于预设规则,在文本数据中挑选若干重要的要素,按照预定格式填入对应的文档,构建生成第一纪要内容。即,基于预先生成的预设规则,对文本数据进行学习识别,从文本数据中挑选出若干重要的要素,例如,在文本数据中挑选出“?”或者“!”前后的内容作为重要的要素。或者,在文本数据中挑选出重复次数超过预设阈值的内容作为重要的要素。然后将挑选出的若干重要的要素,按照预定格式填入对应的文档,构建生成第一纪要内容。
具体的,在上述实施例中,步骤S103基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容的另一种实现方式,可以是:
识别文本数据的涵义,基于预设规则,产生与文本数据相关联的第一新要素,构建生成第一纪要内容。即,对文本数据进行语义识别,对文本数据提炼观点或者总结概括,生成能够表达文本数据的新要素,通过生成的新要素构建生成第一纪要内容。
具体的,在上述实施例中,步骤S102对语音数据进行文本转换,生成与语音数据对应的文本数据的其中一种实现方式,可以是:
根据多人语音数据中各发言人的语音音频特征,识别不同发言人及其对应的语音数据,生成与不同发言人的语音数据对应的文本数据。例如,在多人谈话场景中,如果采集到的语音数据中有A、B、C、D四个发言人的语音数据,可以对采集到的语音数据进行分析,根据每个发言人特有的语音音频特征,将同一个发言人的语音数据归纳在一起,最后生成发言人A语音数据对应的文本数据a,发言人B语音数据对应的文本数据b,发言人C语音数据对应的文本数据c,发言人D语音数据对应的文本数据d。
具体的,在上述实施例中,步骤S102对语音数据进行文本转换,生成与语音数据对应的文本数据的实现方式中,还可以包括:
根据语音数据中发言人的语音音频特性,确定与文本数据关联的第一新要素,用于理解文本数据或用于在文本数据的基础上增补。例如,对发言人的语音音频特性进行分析,结合语音音频特性中的语气,确定出文本数据关联的第一新要素。如,结合发言人的反问语气,增补相应的字符,标点,图案,表情,颜色等,通过与文本数据关联的第一新要素,对文本数据进行理解或在文本数据的基础上进行增补,能够有效避免在生成文本数据时造成歧义,提升纪要内容生成的准确性。
如图2所示,为本发明公开的一种数据处理方法实施例2的方法流程图,所述方法可以包括以下步骤:
S201、采集多人谈话场景中的语音数据;
当在多人谈话场景中,需要生成谈话过程中的纪要内容时,首先采集多人谈话场景中的语音数据。例如,通过录音装置对整个谈话场景中的语音数据进行采集。需要说明的是,此处提到的多人谈话场景是一个广义的范围,也可以指某一个人的谈话场景。例如,某个领导开会的场景。另外,多人谈话的场景可以是多人的在线会议,或者直播平台上多人的语音聊天等等。
S202、对语音数据进行文本转换,生成与语音数据对应的文本数据;
当采集到多人谈话场景中的语音数据后,对语音数据进行文本转换,生成与语音数据对应的文本数据。
S203、基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容;
根据预先采用人工智能技术生成的预设规则,对文本数据进行学习,输出与语音数据对应的第一纪要内容。需要说明的是,所述的第一纪要内容可以为文本数据中的部分内容,也可以是能够表达文本数据意思的其他内容,只要是能够对多人谈话场景中语音数据的核心内容进行概括的内容即可。
S204、发送第一纪要内容至若干发言人的/或与发言人关联的文件接收系统;
当生成与语音数据对应的第一纪要内容后,为了便于多人谈话场景中的若干发言人,或者与发言人相关的人,能够及时的获取到第一纪要内容,可以将第一纪要内容发送至文件接收系统,然后通过文件接收系统将第一纪要内容发送至若干发言人的/或与发言人关联的文件接收系统。
S205、编辑接收到的第一纪要内容,生成第二纪要内容;
当若干发言人或者与发言人关联的人接收到第一纪要内容后,还可以对接收到第一纪要内容进行编辑,例如,删减第一纪要内容中的部分内容,或者添加部分内容至第一纪要内容。经过对第一纪要内容编辑后,生成第二纪要内容。
S206、反馈第二纪要内容至分类器;
然后,还可以进一步将编辑生成的第二纪要内容反馈至分类器。例如,将第二纪要内容反馈至贝叶斯分类器。
S207、在分类器中,基于所述第二纪要内容训练改进预设规则。
基于人工智能技术,在分类器中,对第二纪要内容进行学习训练,以对预设规则进行改进,使得根据改进后的预设规则对文本数据进行学习,能够使生成的第一纪要内容更加的准确。
综上所述,在上述实施例中,当在多人谈话场景中,需要生成纪要内容时,首先采集多人谈话场景中的语音数据,然后对语音数据进行文本转换,生成与语音数据对应的文本数据,基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容,还可以进一步编辑接收到的第一纪要内容,生成第二纪要内容,反馈第二纪要内容至分类器,在分类器中,基于所述第二纪要内容训练改进预设规则。通过采用人工智能等技术对谈话场景中的语音数据进行自主学习,有效提高了记录纪要内容的准确性以及效率,进而提升了用户体验。
如图3所示,为本发明公开的一种数据处理系统实施例1的结构示意图,所述系统可以包括:
存储器301,用于存储应用程序与应用程序运行所产生的数据;
采集装置302,用于采集多人谈话场景中的语音数据;
当在多人谈话场景中,需要生成谈话过程中的纪要内容时,首先采集多人谈话场景中的语音数据。例如,通过录音装置对整个谈话场景中的语音数据进行采集。需要说明的是,此处提到的多人谈话场景是一个广义的范围,也可以指某一个人的谈话场景。例如,某个领导开会的场景。另外,多人谈话的场景可以是多人的在线会议,或者直播平台上多人的语音聊天等等。
处理器303,用于运行所述应用程序以对语音数据进行文本转换,生成与语音数据对应的文本数据;
当采集到多人谈话场景中的语音数据后,对语音数据进行文本转换,生成与语音数据对应的文本数据。
处理器303,还用于基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容。
最后,根据预先采用人工智能技术生成的预设规则,对文本数据进行学习,输出与语音数据对应的第一纪要内容。需要说明的是,所述的第一纪要内容可以为文本数据中的部分内容,也可以是能够表达文本数据意思的其他内容,只要是能够对多人谈话场景中语音数据的核心内容进行概括的内容即可。
综上所述,在上述实施例中,当在多人谈话场景中,需要生成纪要内容时,首先采集多人谈话场景中的语音数据,然后对语音数据进行文本转换,生成与语音数据对应的文本数据,最后基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容。通过采用人工智能等技术对谈话场景中的语音数据进行自主学习,有效提高了记录纪要内容的准确性以及效率,进而提升了用户体验。
具体的,在上述的实施例中,处理器基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容的其中一种实现方式,可以是:
基于预设规则,在文本数据中挑选若干重要的要素,按照预定格式填入对应的文档,构建生成第一纪要内容。即,基于预先生成的预设规则,对文本数据进行学习识别,从文本数据中挑选出若干重要的要素,例如,在文本数据中挑选出“?”或者“!”前后的内容作为重要的要素。或者,在文本数据中挑选出重复次数超过预设阈值的内容作为重要的要素。然后将挑选出的若干重要的要素,按照预定格式填入对应的文档,构建生成第一纪要内容。
具体的,在上述实施例中,处理器基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容的另一种实现方式,可以是:
识别文本数据的涵义,基于预设规则,产生与文本数据相关联的第一新要素,构建生成第一纪要内容。即,对文本数据进行语义识别,对文本数据提炼观点或者总结概括,生成能够表达文本数据的新要素,通过生成的新要素构建生成第一纪要内容。
具体的,在上述实施例中,处理器对语音数据进行文本转换,生成与语音数据对应的文本数据的其中一种实现方式,可以是:
根据多人语音数据中各发言人的语音音频特征,识别不同发言人及其对应的语音数据,生成与不同发言人的语音数据对应的文本数据。例如,在多人谈话场景中,如果采集到的语音数据中有A、B、C、D四个发言人的语音数据,可以对采集到的语音数据进行分析,根据每个发言人特有的语音音频特征,将同一个发言人的语音数据归纳在一起,最后生成发言人A语音数据对应的文本数据a,发言人B语音数据对应的文本数据b,发言人C语音数据对应的文本数据c,发言人D语音数据对应的文本数据d。
具体的,在上述实施例中,处理器对语音数据进行文本转换,生成与语音数据对应的文本数据的实现方式中,还可以包括:
根据语音数据中发言人的语音音频特性,确定与文本数据关联的第一新要素,用于理解文本数据或用于在文本数据的基础上增补。例如,对发言人的语音音频特性进行分析,结合语音音频特性中的语气,确定出文本数据关联的第一新要素。如,结合发言人的反问语气,增补相应的字符,标点,图案,表情,颜色等,通过与文本数据关联的第一新要素,对文本数据进行理解或在文本数据的基础上进行增补,能够有效避免在生成文本数据时造成歧义,提升纪要内容生成的准确性。
如图4所示,为本发明公开的一种数据处理系统实施例2的结构示意图,所述系统可以包括:
存储器401,用于存储应用程序与应用程序运行所产生的数据;
采集装置402,用于采集多人谈话场景中的语音数据;
当在多人谈话场景中,需要生成谈话过程中的纪要内容时,首先采集多人谈话场景中的语音数据。例如,通过录音装置对整个谈话场景中的语音数据进行采集。需要说明的是,此处提到的多人谈话场景是一个广义的范围,也可以指某一个人的谈话场景。例如,某个领导开会的场景。另外,多人谈话的场景可以是多人的在线会议,或者直播平台上多人的语音聊天等等。
处理器403,用于运行所述应用程序以对语音数据进行文本转换,生成与语音数据对应的文本数据;
当采集到多人谈话场景中的语音数据后,对语音数据进行文本转换,生成与语音数据对应的文本数据。
处理器403,还用于基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容;
根据预先采用人工智能技术生成的预设规则,对文本数据进行学习,输出与语音数据对应的第一纪要内容。需要说明的是,所述的第一纪要内容可以为文本数据中的部分内容,也可以是能够表达文本数据意思的其他内容,只要是能够对多人谈话场景中语音数据的核心内容进行概括的内容即可。
处理器403,还用于发送第一纪要内容至若干发言人的/或与发言人关联的文件接收系统;
当生成与语音数据对应的第一纪要内容后,为了便于多人谈话场景中的若干发言人,或者与发言人相关的人,能够及时的获取到第一纪要内容,可以将第一纪要内容发送至文件接收系统,然后通过文件接收系统将第一纪要内容发送至若干发言人的/或与发言人关联的文件接收系统。
处理器403,还用于编辑接收到的第一纪要内容,生成第二纪要内容;
当若干发言人或者与发言人关联的人接收到第一纪要内容后,还可以对接收到第一纪要内容进行编辑,例如,删减第一纪要内容中的部分内容,或者添加部分内容至第一纪要内容。经过对第一纪要内容编辑后,生成第二纪要内容。
处理器403,还用于反馈第二纪要内容至分类器;
然后,还可以进一步将编辑生成的第二纪要内容反馈至分类器。例如,将第二纪要内容反馈至贝叶斯分类器。
处理器403,还用于在分类器中,基于所述第二纪要内容训练改进预设规则。
基于人工智能技术,在分类器中,对第二纪要内容进行学习训练,以对预设规则进行改进,使得根据改进后的预设规则对文本数据进行学习,能够使生成的第一纪要内容更加的准确。
综上所述,在上述实施例中,当在多人谈话场景中,需要生成纪要内容时,首先采集多人谈话场景中的语音数据,然后对语音数据进行文本转换,生成与语音数据对应的文本数据,基于预设规则对文本数据进行学习,生成与语音数据对应的第一纪要内容,还可以进一步编辑接收到的第一纪要内容,生成第二纪要内容,反馈第二纪要内容至分类器,在分类器中,基于所述第二纪要内容训练改进预设规则。通过采用人工智能等技术对谈话场景中的语音数据进行自主学习,有效提高了记录纪要内容的准确性以及效率,进而提升了用户体验。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种数据处理方法,其特征在于,所述方法包括:
采集多人谈话场景中的语音数据;
对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据;
基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容。
2.根据权利要求1所述的方法,其特征在于,所述基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容,包括:
基于所述预设规则,在所述文本数据中挑选若干重要的要素,按照预定格式填入对应的文档,构建生成所述第一纪要内容;
或者
识别所述文本数据的涵义,基于所述预设规则,产生与所述文本数据相关联的第一新要素,构建生成所述第一纪要内容。
3.根据权利要求1所述的方法,其特征在于,所述对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据包括:
根据多人语音数据中各发言人的语音音频特征,识别不同发言人及其对应的语音数据,生成与不同发言人的语音数据对应的文本数据。
4.根据权利要求3所述的方法,其特征在于,所述对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据还包括:
根据所述语音数据中发言人的语音音频特性,确定与文本数据关联的第一新要素,用于理解所述文本数据或用于在所述文本数据的基础上增补。
5.根据权利要求1所述的方法,其特征在于,还包括:
发送所述第一纪要内容至若干发言人的/或与发言人关联的文件接收系统。
6.根据权利要求1所述的方法,其特征在于,还包括:
编辑接收到的所述第一纪要内容,生成第二纪要内容;
反馈所述第二纪要内容至分类器;
在所述分类器中,基于所述第二纪要内容训练改进预设规则。
7.一种数据处理系统,其特征在于,包括:
存储器,用于存储应用程序与应用程序运行所产生的数据;
采集装置,用于采集多人谈话场景中的语音数据;
处理器,用于运行所述应用程序以对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据;
所述处理器,还用于基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容。
8.根据权利要求7所述的系统,其特征在于,所述处理器在基于预设规则对所述文本数据进行学习,生成与所述语音数据对应的第一纪要内容时,具体用于:
基于所述预设规则,在所述文本数据中挑选若干重要的要素,按照预定格式填入对应的文档,构建生成所述第一纪要内容;
或者
识别所述文本数据的涵义,基于所述预设规则,产生与所述文本数据相关联的第一新要素,构建生成所述第一纪要内容。
9.根据权利要求7所述的系统,其特征在于,所述处理器在对所述语音数据进行文本转换,生成与所述语音数据对应的文本数据时,具体用于:
根据多人语音数据中各发言人的语音音频特征,识别不同发言人及其对应的语音数据,生成与不同发言人的语音数据对应的文本数据。
10.根据权利要求7所述的系统,其特征在于,所述处理器还用于:
编辑接收到的所述第一纪要内容,生成第二纪要内容;
反馈所述第二纪要内容至分类器;
在所述分类器中,基于所述第二纪要内容训练改进预设规则。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810001123.5A CN108231064A (zh) | 2018-01-02 | 2018-01-02 | 一种数据处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810001123.5A CN108231064A (zh) | 2018-01-02 | 2018-01-02 | 一种数据处理方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108231064A true CN108231064A (zh) | 2018-06-29 |
Family
ID=62645035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810001123.5A Pending CN108231064A (zh) | 2018-01-02 | 2018-01-02 | 一种数据处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108231064A (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060074895A1 (en) * | 2004-09-29 | 2006-04-06 | International Business Machines Corporation | Method and system for extracting and utilizing metadata to improve accuracy in speech to text conversions |
CN102436812A (zh) * | 2011-11-01 | 2012-05-02 | 展讯通信(上海)有限公司 | 会议记录装置及利用该装置对会议进行记录的方法 |
CN102572372A (zh) * | 2011-12-28 | 2012-07-11 | 中兴通讯股份有限公司 | 会议纪要的提取方法和装置 |
CN103885935A (zh) * | 2014-03-12 | 2014-06-25 | 浙江大学 | 基于图书阅读行为的图书章节摘要生成方法 |
CN104407834A (zh) * | 2014-11-13 | 2015-03-11 | 腾讯科技(成都)有限公司 | 信息输入方法和装置 |
CN104427292A (zh) * | 2013-08-22 | 2015-03-18 | 中兴通讯股份有限公司 | 会议纪要的提取方法及装置 |
CN104618615A (zh) * | 2015-01-16 | 2015-05-13 | 四川联友电讯技术有限公司 | 一种基于短信的电话会议系统会议纪要推送方法 |
CN104954151A (zh) * | 2015-04-24 | 2015-09-30 | 成都腾悦科技有限公司 | 一种基于网络会议的会议纪要提取与推送方法 |
CN105025023A (zh) * | 2015-07-16 | 2015-11-04 | 广东科达洁能股份有限公司 | 一种会议实现方法及会议系统 |
CN105930314A (zh) * | 2016-04-14 | 2016-09-07 | 清华大学 | 基于编码-解码深度神经网络的文本摘要生成系统及方法 |
CN106657865A (zh) * | 2016-12-16 | 2017-05-10 | 联想(北京)有限公司 | 会议纪要的生成方法、装置及视频会议系统 |
CN106802885A (zh) * | 2016-12-06 | 2017-06-06 | 乐视控股(北京)有限公司 | 一种会议纪要自动记录方法、装置和电子设备 |
CN106844340A (zh) * | 2017-01-10 | 2017-06-13 | 北京百度网讯科技有限公司 | 基于人工智能的新闻摘要生成和显示方法、装置及系统 |
-
2018
- 2018-01-02 CN CN201810001123.5A patent/CN108231064A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060074895A1 (en) * | 2004-09-29 | 2006-04-06 | International Business Machines Corporation | Method and system for extracting and utilizing metadata to improve accuracy in speech to text conversions |
CN102436812A (zh) * | 2011-11-01 | 2012-05-02 | 展讯通信(上海)有限公司 | 会议记录装置及利用该装置对会议进行记录的方法 |
CN102572372A (zh) * | 2011-12-28 | 2012-07-11 | 中兴通讯股份有限公司 | 会议纪要的提取方法和装置 |
CN104427292A (zh) * | 2013-08-22 | 2015-03-18 | 中兴通讯股份有限公司 | 会议纪要的提取方法及装置 |
CN103885935A (zh) * | 2014-03-12 | 2014-06-25 | 浙江大学 | 基于图书阅读行为的图书章节摘要生成方法 |
CN104407834A (zh) * | 2014-11-13 | 2015-03-11 | 腾讯科技(成都)有限公司 | 信息输入方法和装置 |
CN104618615A (zh) * | 2015-01-16 | 2015-05-13 | 四川联友电讯技术有限公司 | 一种基于短信的电话会议系统会议纪要推送方法 |
CN104954151A (zh) * | 2015-04-24 | 2015-09-30 | 成都腾悦科技有限公司 | 一种基于网络会议的会议纪要提取与推送方法 |
CN105025023A (zh) * | 2015-07-16 | 2015-11-04 | 广东科达洁能股份有限公司 | 一种会议实现方法及会议系统 |
CN105930314A (zh) * | 2016-04-14 | 2016-09-07 | 清华大学 | 基于编码-解码深度神经网络的文本摘要生成系统及方法 |
CN106802885A (zh) * | 2016-12-06 | 2017-06-06 | 乐视控股(北京)有限公司 | 一种会议纪要自动记录方法、装置和电子设备 |
CN106657865A (zh) * | 2016-12-16 | 2017-05-10 | 联想(北京)有限公司 | 会议纪要的生成方法、装置及视频会议系统 |
CN106844340A (zh) * | 2017-01-10 | 2017-06-13 | 北京百度网讯科技有限公司 | 基于人工智能的新闻摘要生成和显示方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8532994B2 (en) | Speech recognition using a personal vocabulary and language model | |
WO2020024690A1 (zh) | 语音标注方法、装置及设备 | |
CN105446146B (zh) | 基于语义分析的智能终端控制方法、系统及智能终端 | |
US10236017B1 (en) | Goal segmentation in speech dialogs | |
EP1669980B1 (en) | System and method for identifiying semantic intent from acoustic information | |
CN110263322A (zh) | 用于语音识别的音频语料筛选方法、装置及计算机设备 | |
WO2015062482A1 (en) | System and method for automatic question answering | |
CN109361825A (zh) | 会议纪要记录方法、终端及计算机存储介质 | |
US20160189103A1 (en) | Apparatus and method for automatically creating and recording minutes of meeting | |
CN108257594A (zh) | 一种会议系统及其信息处理方法 | |
US11380315B2 (en) | Characterizing accuracy of ensemble models for automatic speech recognition by determining a predetermined number of multiple ASR engines based on their historical performance | |
CN104142936A (zh) | 匹配音视频的方法和装置 | |
CN105679357A (zh) | 一种移动终端及其基于声纹识别的录音方法 | |
CN111462726B (zh) | 一种外呼应答方法、装置、设备及介质 | |
Rühlemann | Integrating corpus-linguistic and conversation-analytic transcription in XML: The case of backchannels and overlap in storytelling interaction | |
US20150179165A1 (en) | System and method for caller intent labeling of the call-center conversations | |
CN110738986B (zh) | 一种长语音标注装置及方法 | |
CN110473543B (zh) | 一种语音识别方法、装置 | |
CN113055751B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
JP2020118929A (ja) | 要約生成装置、方法、プログラム、及び記憶媒体 | |
WO2021211300A1 (en) | System and method for summerization of customer interaction | |
CN108231064A (zh) | 一种数据处理方法及系统 | |
CN111583932A (zh) | 一种基于人声模型的声音分离方法和装置以及设备 | |
JP5281527B2 (ja) | 対話型性格特徴判定装置とその方法と、プログラム | |
US20200286487A1 (en) | Characterizing accuracy of ensemble models for automatic speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180629 |
|
RJ01 | Rejection of invention patent application after publication |