CN111583932A - 一种基于人声模型的声音分离方法和装置以及设备 - Google Patents
一种基于人声模型的声音分离方法和装置以及设备 Download PDFInfo
- Publication number
- CN111583932A CN111583932A CN202010364792.6A CN202010364792A CN111583932A CN 111583932 A CN111583932 A CN 111583932A CN 202010364792 A CN202010364792 A CN 202010364792A CN 111583932 A CN111583932 A CN 111583932A
- Authority
- CN
- China
- Prior art keywords
- voice
- participant
- voiceprint
- personal
- audio conference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000010276 construction Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 2
- 230000001755 vocal effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种基于人声模型的声音分离方法和装置以及设备。其中,所述方法包括:采集每个参加音频会议的参会人员的声音数据和个人特征,对该采集的每个参会人员的声音数据进行声纹特征提取,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,和对音频会议内容进行对应该人声模型的人声分离,按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录。通过上述方式,能够实现无需人工能够根据音频会议内容进行人声分离形成文本会议记录,能够提高该进行人声分离形成的文本会议记录的准确率。
Description
技术领域
本发明涉及声音分离技术领域,尤其涉及一种基于人声模型的声音分离方法和装置以及设备。
背景技术
音频会议,是指两个或两个以上不同地方的个人或群体,通过传输线路及多媒体设备,将声音互传,实现即时且互动的沟通,以实现同时进行会议。
然而,现有的声音分离方案,在应用在音频会议的会议记录场景时,一般是由人工根据音频会议内容进行人声分离形成文本会议记录,但是由于该音频会议内容会涉及多人人声和人耳对人声的分辨率是有限的,而且由于人的主动性,导致该进行人声分离形成的文本会议记录的准确率一般。
发明内容
有鉴于此,本发明的目的在于提出一种基于人声模型的声音分离方法和装置以及设备,能够实现无需人工能够根据音频会议内容进行人声分离形成文本会议记录,能够提高该进行人声分离形成的文本会议记录的准确率。
根据本发明的一个方面,提供一种基于人声模型的声音分离方法,包括:采集每个参加音频会议的参会人员的声音数据和个人特征;其中,所述个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话;对所述采集的每个参会人员的声音数据进行声纹特征提取;构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型;对音频会议内容进行对应所述人声模型的人声分离;其中,所述音频会议内容关联的参会人员为所述采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员;按时间戳方式,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记;根据所述经分别标记后的每个参会人员的声音数据,形成所述音频会议内容的文本会议记录。
其中,所述构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型,包括:根据所述个人特征,筛选出对应所述个人特征的声纹特征的声纹特征集合,根据所述声纹特征集合,构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型。
其中,所述对音频会议内容进行对应所述人声模型的人声分离,包括:从音频会议内容中获取人声声纹特征,对比所述人声模型中的声纹特征和所述人声声纹特征,采用将所述人声声纹特征中与所述人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对所述音频会议内容进行对应所述人声模型的人声分离。
其中,所述按时间戳方式,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记,包括:根据所述人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联所述时间戳的标签,根据所述生成的标签,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记。
其中,在所述根据所述经分别标记后的每个参会人员的声音数据,形成所述音频会议内容的文本会议记录之后,还包括:根据所述形成的文本会议记录,配置所述音频会议内容关联的参会人员的文本会议记录。
根据本发明的另一个方面,提供一种基于人声模型的声音分离装置,包括:采集模块、提取模块、构建模块、分离模块、标记模块和记录模块;所述采集模块,用于采集每个参加音频会议的参会人员的声音数据和个人特征;其中,所述个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话;所述提取模块,用于对所述采集的每个参会人员的声音数据进行声纹特征提取;所述构建模块,用于构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型;所述分离模块,用于对音频会议内容进行对应所述人声模型的人声分离;其中,所述音频会议内容关联的参会人员为所述采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员;所述标记模块,用于按时间戳方式,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记;所述记录模块,用于根据所述经分别标记后的每个参会人员的声音数据,形成所述音频会议内容的文本会议记录。
其中,所述构建模块,具体用于:根据所述个人特征,筛选出对应所述个人特征的声纹特征的声纹特征集合,根据所述声纹特征集合,构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型。
其中,所述分离模块,具体用于:从音频会议内容中获取人声声纹特征,对比所述人声模型中的声纹特征和所述人声声纹特征,采用将所述人声声纹特征中与所述人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对所述音频会议内容进行对应所述人声模型的人声分离。
其中,所述标记模块,具体用于:根据所述人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联所述时间戳的标签,根据所述生成的标签,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记。
其中,所述基于人声模型的声音分离装置,还包括:配置模块;所述配置模块,用于根据所述形成的文本会议记录,配置所述音频会议内容关联的参会人员的文本会议记录。
根据本发明的又一个方面,提供一种基于人声模型的声音分离设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述任一项所述的基于人声模型的声音分离方法。
根据本发明的再一个方面,提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的基于人声模型的声音分离方法。
可以发现,以上方案,可以采集每个参加音频会议的参会人员的声音数据和个人特征,其中,该个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话等,和可以对该采集的每个参会人员的声音数据进行声纹特征提取,和可以构建关联该个人特征和对应该个人特征的声纹特征的人声模型,和可以对音频会议内容进行对应该人声模型的人声分离;其中,该音频会议内容关联的参会人员为该采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员,和可以按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,以及可以根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录,能够实现无需人工能够根据音频会议内容进行人声分离形成文本会议记录,能够提高该进行人声分离形成的文本会议记录的准确率。
进一步的,以上方案,可以根据该个人特征,筛选出对应该个人特征的声纹特征的声纹特征集合,根据该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,这样的好处是能够实现通过该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,能够提高该构建的人声模型的准确率。
进一步的,以上方案,可以从音频会议内容中获取人声声纹特征,对比该人声模型中的声纹特征和该人声声纹特征,采用将该人声声纹特征中与该人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对该音频会议内容进行对应该人声模型的人声分离,这样的好处是能够实现通过声纹特征的唯一性,提高对音频会议内容进行对应该人声模型的人声分离的准确率。
进一步的,以上方案,可以根据该人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联该时间戳的标签,根据该生成的标签,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,这样的好处是能够实现通过将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,能够精确区分每个参会人员的声音数据,能够提高根据该每个参会人员的声音数据形成的文本会议记录的准确率。
进一步的,以上方案,可以根据该形成的文本会议记录,配置该音频会议内容关联的参会人员的文本会议记录,这样的好处是能够实现方便的对该音频会议内容关联的参会人员的文本会议记录进行管理。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明基于人声模型的声音分离方法一实施例的流程示意图;
图2是本发明基于人声模型的声音分离方法另一实施例的流程示意图;
图3是本发明基于人声模型的声音分离装置一实施例的结构示意图;
图4是本发明基于人声模型的声音分离装置另一实施例的结构示意图;
图5是本发明基于人声模型的声音分离设备一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明作进一步的详细描述。特别指出的是,以下实施例仅用于说明本发明,但不对本发明的范围进行限定。同样的,以下实施例仅为本发明的部分实施例而非全部实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种基于人声模型的声音分离方法,能够实现无需人工能够根据音频会议内容进行人声分离形成文本会议记录,能够提高该进行人声分离形成的文本会议记录的准确率。
请参见图1,图1是本发明基于人声模型的声音分离方法一实施例的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括如下步骤:
S101:采集每个参加音频会议的参会人员的声音数据和个人特征;其中,该个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话等。
在本实施例中,可以一次性采集每个参加音频会议的参会人员的声音数据和个人特征,也可以分多次采集每个参加音频会议的参会人员的声音数据和个人特征,还可以逐一逐个的方式采集每个参加音频会议的参会人员的声音数据和个人特征等,本发明不加以限定。
在本实施例中,可以是采集同一参会人员的多个声音数据和个人特征,也可以是采集同一参会人员的单个声音数据和个人特征,还可以是采集多个参会人员的多个声音数据和个人特征等,本发明不加以限定。
S102:对该采集的每个参会人员的声音数据进行声纹特征提取。
在本实施例中,可以一次性对该采集的每个参会人员的声音数据进行声纹特征提取,也可以分多次对该采集的每个参会人员的声音数据进行声纹特征提取,还可以逐一逐个参会人员的方式对该采集的每个参会人员的声音数据进行声纹特征提取等,本发明不加以限定。
S103:构建关联该个人特征和对应该个人特征的声纹特征的人声模型。
其中,该构建关联该个人特征和对应该个人特征的声纹特征的人声模型,可以包括:
根据该个人特征,筛选出对应该个人特征的声纹特征的声纹特征集合,根据该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,这样的好处是能够实现通过该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,能够提高该构建的人声模型的准确率。
S104:对音频会议内容进行对应该人声模型的人声分离;其中,该音频会议内容关联的参会人员为该采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员。
其中,该对音频会议内容进行对应该人声模型的人声分离,可以包括:
从音频会议内容中获取人声声纹特征,对比该人声模型中的声纹特征和该人声声纹特征,采用将该人声声纹特征中与该人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对该音频会议内容进行对应该人声模型的人声分离,这样的好处是能够实现通过声纹特征的唯一性,提高对音频会议内容进行对应该人声模型的人声分离的准确率。
S105:按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记。
其中,该按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,可以包括:
根据该人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联该时间戳的标签,根据该生成的标签,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,这样的好处是能够实现通过将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,能够精确区分每个参会人员的声音数据,能够提高根据该每个参会人员的声音数据形成的文本会议记录的准确率。
S106:根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录。
在本实施例中,可以根据该经分别标记后的每个参会人员的声音数据,采用自然语言处理(NLP,natural language processing)方式,形成该音频会议内容的文本会议记录,这样的好处是能够提高该进行人声分离形成的文本会议记录的准确率。
其中,在该根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录之后,还可以包括:
根据该形成的文本会议记录,配置该音频会议内容关联的参会人员的文本会议记录,这样的好处是能够实现方便的对该音频会议内容关联的参会人员的文本会议记录进行管理。
可以发现,在本实施例中,可以采集每个参加音频会议的参会人员的声音数据和个人特征,其中,该个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话等,和可以对该采集的每个参会人员的声音数据进行声纹特征提取,和可以构建关联该个人特征和对应该个人特征的声纹特征的人声模型,和可以对音频会议内容进行对应该人声模型的人声分离;其中,该音频会议内容关联的参会人员为该采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员,和可以按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,以及可以根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录,能够实现无需人工能够根据音频会议内容进行人声分离形成文本会议记录,能够提高该进行人声分离形成的文本会议记录的准确率。
进一步的,在本实施例中,可以根据该个人特征,筛选出对应该个人特征的声纹特征的声纹特征集合,根据该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,这样的好处是能够实现通过该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,能够提高该构建的人声模型的准确率。
进一步的,在本实施例中,可以从音频会议内容中获取人声声纹特征,对比该人声模型中的声纹特征和该人声声纹特征,采用将该人声声纹特征中与该人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对该音频会议内容进行对应该人声模型的人声分离,这样的好处是能够实现通过声纹特征的唯一性,提高对音频会议内容进行对应该人声模型的人声分离的准确率。
进一步的,在本实施例中,可以根据该人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联该时间戳的标签,根据该生成的标签,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,这样的好处是能够实现通过将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,能够精确区分每个参会人员的声音数据,能够提高根据该每个参会人员的声音数据形成的文本会议记录的准确率。
请参见图2,图2是本发明基于人声模型的声音分离方法另一实施例的流程示意图。本实施例中,该方法包括以下步骤:
S201:采集每个参加音频会议的参会人员的声音数据和个人特征;其中,该个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话等。
可如上S101所述,在此不作赘述。
S202:对该采集的每个参会人员的声音数据进行声纹特征提取。
可如上S102所述,在此不作赘述。
S203:构建关联该个人特征和对应该个人特征的声纹特征的人声模型。
可如上S103所述,在此不作赘述。
S204:对音频会议内容进行对应该人声模型的人声分离;其中,该音频会议内容关联的参会人员为该采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员。
可如上S104所述,在此不作赘述。
S205:按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记。
可如上S105所述,在此不作赘述。
S206:根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录。
可如上S106所述,在此不作赘述。
S207:根据该形成的文本会议记录,配置该音频会议内容关联的参会人员的文本会议记录。
可以发现,在本实施例中,可以根据该形成的文本会议记录,配置该音频会议内容关联的参会人员的文本会议记录,这样的好处是能够实现方便的对该音频会议内容关联的参会人员的文本会议记录进行管理。
本发明还提供一种基于人声模型的声音分离装置,能够实现无需人工能够根据音频会议内容进行人声分离形成文本会议记录,能够提高该进行人声分离形成的文本会议记录的准确率。
请参见图3,图3是本发明基于人声模型的声音分离装置一实施例的结构示意图。本实施例中,该基于人声模型的声音分离装置30包括采集模块31、提取模块32、构建模块33、分离模块34、标记模块35和记录模块36。
该采集模块31,用于采集每个参加音频会议的参会人员的声音数据和个人特征;其中,该个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话等。
该提取模块32,用于对该采集的每个参会人员的声音数据进行声纹特征提取。
该构建模块33,用于构建关联该个人特征和对应该个人特征的声纹特征的人声模型。
该分离模块34,用于对音频会议内容进行对应该人声模型的人声分离;其中,该音频会议内容关联的参会人员为该采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员。
该标记模块35,用于按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记。
该记录模块36,用于根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录。
可选地,该构建模块33,可以具体用于:
根据该个人特征,筛选出对应该个人特征的声纹特征的声纹特征集合,根据该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型。
可选地,该分离模块34,可以具体用于:
从音频会议内容中获取人声声纹特征,对比该人声模型中的声纹特征和该人声声纹特征,采用将该人声声纹特征中与该人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对该音频会议内容进行对应该人声模型的人声分离。
可选地,该标记模块35,可以具体用于:
根据该人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联该时间戳的标签,根据该生成的标签,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记。
请参见图4,图4是本发明基于人声模型的声音分离装置另一实施例的结构示意图。区别于上一实施例,本实施例所述基于人声模型的声音分离装置40还包括配置模块41。
该配置模块41,用于根据该形成的文本会议记录,配置该音频会议内容关联的参会人员的文本会议记录。
该基于人声模型的声音分离装置30/40的各个单元模块可分别执行上述方法实施例中对应步骤,故在此不对各单元模块进行赘述,详细请参见以上对应步骤的说明。
本发明又提供一种基于人声模型的声音分离设备,如图5所示,包括:至少一个处理器51;以及,与至少一个处理器51通信连接的存储器52;其中,存储器52存储有可被至少一个处理器51执行的指令,指令被至少一个处理器51执行,以使至少一个处理器51能够执行上述的基于人声模型的声音分离方法。
其中,存储器52和处理器51采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器51和存储器52的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器51处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器51。
处理器51负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器52可以被用于存储处理器51在执行操作时所使用的数据。
本发明再提供一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
可以发现,以上方案,可以采集每个参加音频会议的参会人员的声音数据和个人特征,其中,该个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话等,和可以对该采集的每个参会人员的声音数据进行声纹特征提取,和可以构建关联该个人特征和对应该个人特征的声纹特征的人声模型,和可以对音频会议内容进行对应该人声模型的人声分离;其中,该音频会议内容关联的参会人员为该采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员,和可以按时间戳方式,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,以及可以根据该经分别标记后的每个参会人员的声音数据,形成该音频会议内容的文本会议记录,能够实现无需人工能够根据音频会议内容进行人声分离形成文本会议记录,能够提高该进行人声分离形成的文本会议记录的准确率。
进一步的,以上方案,可以根据该个人特征,筛选出对应该个人特征的声纹特征的声纹特征集合,根据该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,这样的好处是能够实现通过该声纹特征集合,构建关联该个人特征和对应该个人特征的声纹特征的人声模型,能够提高该构建的人声模型的准确率。
进一步的,以上方案,可以从音频会议内容中获取人声声纹特征,对比该人声模型中的声纹特征和该人声声纹特征,采用将该人声声纹特征中与该人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对该音频会议内容进行对应该人声模型的人声分离,这样的好处是能够实现通过声纹特征的唯一性,提高对音频会议内容进行对应该人声模型的人声分离的准确率。
进一步的,以上方案,可以根据该人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联该时间戳的标签,根据该生成的标签,将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,这样的好处是能够实现通过将该人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联该个人特征的标记,能够精确区分每个参会人员的声音数据,能够提高根据该每个参会人员的声音数据形成的文本会议记录的准确率。
进一步的,以上方案,可以根据该形成的文本会议记录,配置该音频会议内容关联的参会人员的文本会议记录,这样的好处是能够实现方便的对该音频会议内容关联的参会人员的文本会议记录进行管理。
在本发明所提供的几个实施方式中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本发明各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的部分实施例,并非因此限制本发明的保护范围,凡是利用本发明说明书及附图内容所作的等效装置或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于人声模型的声音分离方法,其特征在于,包括:
采集每个参加音频会议的参会人员的声音数据和个人特征;其中,所述个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话;
对所述采集的每个参会人员的声音数据进行声纹特征提取;
构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型;
对音频会议内容进行对应所述人声模型的人声分离;其中,所述音频会议内容关联的参会人员为所述采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员;
按时间戳方式,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记;
根据所述经分别标记后的每个参会人员的声音数据,形成所述音频会议内容的文本会议记录。
2.如权利要求1所述的基于人声模型的声音分离方法,其特征在于,所述构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型,包括:
根据所述个人特征,筛选出对应所述个人特征的声纹特征的声纹特征集合,根据所述声纹特征集合,构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型。
3.如权利要求1所述的基于人声模型的声音分离方法,其特征在于,所述对音频会议内容进行对应所述人声模型的人声分离,包括:
从音频会议内容中获取人声声纹特征,对比所述人声模型中的声纹特征和所述人声声纹特征,采用将所述人声声纹特征中与所述人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对所述音频会议内容进行对应所述人声模型的人声分离。
4.如权利要求1所述的基于人声模型的声音分离方法,其特征在于,所述按时间戳方式,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记,包括:
根据所述人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联所述时间戳的标签,根据所述生成的标签,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记。
5.如权利要求1所述的基于人声模型的声音分离方法,其特征在于,在所述根据所述经分别标记后的每个参会人员的声音数据,形成所述音频会议内容的文本会议记录之后,还包括:
根据所述形成的文本会议记录,配置所述音频会议内容关联的参会人员的文本会议记录。
6.一种基于人声模型的声音分离装置,其特征在于,包括:
采集模块、提取模块、构建模块、分离模块、标记模块和记录模块;
所述采集模块,用于采集每个参加音频会议的参会人员的声音数据和个人特征;其中,所述个人特征包括性别和/或年龄和/或工作单位和/或工作地点和/或工作电话;
所述提取模块,用于对所述采集的每个参会人员的声音数据进行声纹特征提取;
所述构建模块,用于构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型;
所述分离模块,用于对音频会议内容进行对应所述人声模型的人声分离;其中,所述音频会议内容关联的参会人员为所述采集的每个参会人员的声音数据对应的参会人员中的部分人员或全部人员;
所述标记模块,用于按时间戳方式,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记;
所述记录模块,用于根据所述经分别标记后的每个参会人员的声音数据,形成所述音频会议内容的文本会议记录。
7.如权利要求6所述的基于人声模型的声音分离装置,其特征在于,所述构建模块,具体用于:
根据所述个人特征,筛选出对应所述个人特征的声纹特征的声纹特征集合,根据所述声纹特征集合,构建关联所述个人特征和对应所述个人特征的声纹特征的人声模型。
8.如权利要求6所述的基于人声模型的声音分离装置,其特征在于,所述分离模块,具体用于:
从音频会议内容中获取人声声纹特征,对比所述人声模型中的声纹特征和所述人声声纹特征,采用将所述人声声纹特征中与所述人声模型中的声纹特征相同的声纹特征对应的音频会议内容进行分离的方式,对所述音频会议内容进行对应所述人声模型的人声分离。
9.如权利要求6所述的基于人声模型的声音分离装置,其特征在于,所述标记模块,具体用于:
根据所述人声分离后的音频会议内容中的每个参会人员的声音数据对应的时间戳,生成关联所述时间戳的标签,根据所述生成的标签,将所述人声分离后的音频会议内容中的每个参会人员的声音数据分别进行关联所述个人特征的标记。
10.如权利要求6所述的基于人声模型的声音分离装置,其特征在于,所述基于人声模型的声音分离装置,还包括:
配置模块;
所述配置模块,用于根据所述形成的文本会议记录,配置所述音频会议内容关联的参会人员的文本会议记录。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010364792.6A CN111583932A (zh) | 2020-04-30 | 2020-04-30 | 一种基于人声模型的声音分离方法和装置以及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010364792.6A CN111583932A (zh) | 2020-04-30 | 2020-04-30 | 一种基于人声模型的声音分离方法和装置以及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111583932A true CN111583932A (zh) | 2020-08-25 |
Family
ID=72124581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010364792.6A Pending CN111583932A (zh) | 2020-04-30 | 2020-04-30 | 一种基于人声模型的声音分离方法和装置以及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111583932A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112185357A (zh) * | 2020-12-02 | 2021-01-05 | 成都启英泰伦科技有限公司 | 一种同时识别人声和非人声的装置及方法 |
CN112565668A (zh) * | 2020-12-28 | 2021-03-26 | 创想空间信息技术(苏州)有限公司 | 一种网络会议共享声音的方法、系统和可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107360007A (zh) * | 2017-06-26 | 2017-11-17 | 珠海格力电器股份有限公司 | 一种会议实现方法、装置及电子设备 |
CN107564531A (zh) * | 2017-08-25 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 基于声纹特征的会议记录方法、装置及计算机设备 |
CN109741754A (zh) * | 2018-12-10 | 2019-05-10 | 上海思创华信信息技术有限公司 | 一种会议语音识别方法及系统、存储介质及终端 |
US20190251975A1 (en) * | 2018-02-09 | 2019-08-15 | Samsung Electronics Co., Ltd. | Electronic device and method of performing function of electronic device |
CN110298252A (zh) * | 2019-05-30 | 2019-10-01 | 平安科技(深圳)有限公司 | 会议纪要生成方法、装置、计算机设备及存储介质 |
-
2020
- 2020-04-30 CN CN202010364792.6A patent/CN111583932A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107360007A (zh) * | 2017-06-26 | 2017-11-17 | 珠海格力电器股份有限公司 | 一种会议实现方法、装置及电子设备 |
CN107564531A (zh) * | 2017-08-25 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 基于声纹特征的会议记录方法、装置及计算机设备 |
US20190251975A1 (en) * | 2018-02-09 | 2019-08-15 | Samsung Electronics Co., Ltd. | Electronic device and method of performing function of electronic device |
CN109741754A (zh) * | 2018-12-10 | 2019-05-10 | 上海思创华信信息技术有限公司 | 一种会议语音识别方法及系统、存储介质及终端 |
CN110298252A (zh) * | 2019-05-30 | 2019-10-01 | 平安科技(深圳)有限公司 | 会议纪要生成方法、装置、计算机设备及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112185357A (zh) * | 2020-12-02 | 2021-01-05 | 成都启英泰伦科技有限公司 | 一种同时识别人声和非人声的装置及方法 |
CN112565668A (zh) * | 2020-12-28 | 2021-03-26 | 创想空间信息技术(苏州)有限公司 | 一种网络会议共享声音的方法、系统和可读存储介质 |
CN112565668B (zh) * | 2020-12-28 | 2022-03-04 | 创想空间信息技术(苏州)有限公司 | 一种网络会议共享声音的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11676576B2 (en) | Organizational-based language model generation | |
CN106303658A (zh) | 应用于视频直播的交互方法和装置 | |
TWI590240B (zh) | 會議記錄裝置及其自動生成會議記錄的方法 | |
CN107564531A (zh) | 基于声纹特征的会议记录方法、装置及计算机设备 | |
CN105488227A (zh) | 一种电子设备及其基于声纹特征处理音频文件的方法 | |
TW201624467A (zh) | 會議記錄裝置及其自動生成會議記錄的方法 | |
US20160189103A1 (en) | Apparatus and method for automatically creating and recording minutes of meeting | |
CN111583932A (zh) | 一种基于人声模型的声音分离方法和装置以及设备 | |
CN108320761B (zh) | 音频录制方法、智能录音设备及计算机可读存储介质 | |
CN109271503A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN111223487B (zh) | 一种信息处理方法及电子设备 | |
JP2019153099A (ja) | 会議支援システム及び会議支援プログラム | |
CN107910006A (zh) | 语音识别方法、装置和多信源语音区分识别系统 | |
CN111583953A (zh) | 一种基于声纹特征的人声分离方法和装置以及设备 | |
CN107196979A (zh) | 基于语音识别的叫号预提醒系统 | |
CN111312260A (zh) | 一种人声分离方法和装置以及设备 | |
CN105338282B (zh) | 一种信息处理方法和电子设备 | |
CN111221987A (zh) | 混合音频标记方法和装置 | |
CN112750518A (zh) | 一种基于心理行为特征识别的谈话(询问)方法 | |
CN111210810A (zh) | 模型训练方法和装置 | |
WO2023146803A1 (en) | Intelligent topic segmentation within a communication session | |
CN105378829A (zh) | 记笔记辅助系统、信息递送设备、终端、记笔记辅助方法和计算机可读记录介质 | |
CN116472705A (zh) | 一种会议内容显示的方法、会议系统及会议设备 | |
CN110275860B (zh) | 一种记录讲授过程的系统及方法 | |
CN111326163A (zh) | 一种声纹识别方法和装置以及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200825 |
|
RJ01 | Rejection of invention patent application after publication |