CN112634909B - 声音信号处理的方法、装置、设备、计算机可读存储介质 - Google Patents
声音信号处理的方法、装置、设备、计算机可读存储介质 Download PDFInfo
- Publication number
- CN112634909B CN112634909B CN202011481460.2A CN202011481460A CN112634909B CN 112634909 B CN112634909 B CN 112634909B CN 202011481460 A CN202011481460 A CN 202011481460A CN 112634909 B CN112634909 B CN 112634909B
- Authority
- CN
- China
- Prior art keywords
- user
- sound signal
- model
- matching
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
Abstract
根据本公开的示例实施例,提供了一种声音信号处理的方法、装置、设备、计算机可读存储介质和计算机程序产品。涉及人工智能领域,尤其涉及语音和深度学习技术领域。具体实现方案为:获取与用户的声音相对应的第一类型的第一声音信号和第二类型的第二声音信号;基于第一声音信号与第一类型模型库中的用户模型的比较和第二声音信号与第二类型模型库中的用户模型的比较,确定与用户的声音相匹配的第一用户模型,以识别用户的身份;如果确定第一用户模型在第一类型模型库中,将第二声音信号与用户的身份相关联地存储;以及基于第二声音信号建立与用户的身份相关联的第二用户模型。根据本公开的实施例,可以准确地识别用户语音,还可以提高用户操作的便利性。
Description
技术领域
本公开涉及信息处理领域,并且更具体地,涉及声音信号处理的方法、装置、设备、计算机可读存储介质和计算机程序产品。
背景技术
随着人工智能技术的普及,尤其是语音交互的发展,各种搭载语音技术的设备走进人们的生活。其中,能够自动识别说话人身份的声纹识别技术成为智能设备的标配之一。声纹识别技术即说话人语音的识别技术,该技术通过声音信号提取代表说话人身份的相关特征,例如反映声门开合频率的基频特征、反映口腔大小形状及声道长度的频谱特征等,进而通过语音识别用户的身份。
声纹识别应用包括两个阶段,注册阶段和运行阶段。在注册阶段,生成与用户的身份相对应的用户模型。在运行阶段,通过用户语音与用户模型的匹配,识别出当前用户的身份。然而,在声纹系统升级时,往往需要用户录入语音来重新注册,从而导致操作的便利性不足。
发明内容
根据本公开的示例实施例,提供了一种声音信号处理的方法、装置、设备、计算机可读存储介质和计算机程序产品。
在本公开的第一方面中,提供了一种声音信号处理的方法,包括:获取与用户的声音相对应的第一类型的第一声音信号和第二类型的第二声音信号;基于第一声音信号与第一类型模型库中的用户模型的比较和第二声音信号与第二类型模型库中的用户模型的比较,确定与用户的声音相匹配的第一用户模型,以识别用户的身份;如果确定第一用户模型在第一类型模型库中,将第二声音信号与用户的身份相关联地存储;以及基于第二声音信号建立与用户的身份相关联的第二用户模型。
在本公开的第二方面中,提供了一种声音信号处理的装置,包括:第一声音信号获取模块,被配置为获取与用户的声音相对应的第一类型的第一声音信号和第二类型的第二声音信号;第一匹配模块,被配置为基于第一声音信号与第一类型模型库中的用户模型的比较和第二声音信号与第二类型模型库中的用户模型的比较,确定与用户的声音相匹配的第一用户模型,以识别用户的身份;关联模块,被配置为如果确定第一用户模型在第一类型模型库中,将第二声音信号与用户的身份相关联地存储;以及第一模型建立模块,被配置为基于第二声音信号建立与用户的身份相关联的第二用户模型。
在本公开的第三方面中,提供了一种电子设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开的第一方面的方法。
在本公开的第四方面中,提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
在本公开的第五方面中,提供了一种计算机程序产品,包括计算机程序指令,该计算机程序指令被处理器实现如本公开的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素。附图用于更好地理解本方案,不构成对本公开的限定,其中:
图1示出了本公开的多个实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的一些实施例的声音信号处理的过程的示例的流程图;
图3示出了根据本公开的一些实施例的确定相匹配的用户模型的过程的示例的流程图;
图4示出了根据本公开的实施例的声音信号处理的装置的示意框图;以及
图5示出了能够实施本公开的多个实施例的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如以上提及的,在传统方案中,在语音识别应用的版本升级时,需要将用户声音特征与服务同时升级。由于老用户在之前版本注册的数据对于新版本通常不可用,需要老用户重新录入新版本所需的类型的声音信号来进行重新注册。这种方式使用户在每次版本升级时都要经历繁复的注册过程,便捷性较差,且会降低用户的使用体验。
本公开的示例实施例提出了一种声音信号处理的方案。在该方案中,首先获取用户的同一语音的第一类型的声音信号和第二类型的声音信号。然后确定与用户的语音匹配的用户模型,以识别用户的身份。接着,将第二类型的声音信号与用户身份相关联地存储,最后,通过与用户的身份相关联的第二类型的声音信号生成用户模型。由此,可以在用户无感知的情况下完成注册,提升用户的使用体验。
图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。如图所示,示例环境100包括用户110、第一类型的第一声音信号120、第二类型的第二声音信号130、计算设备140、第一类型模型库150和其中存储的用户模型160-1、160-2、第二类型模型库170和其中存储的用户模型180-1、180-2、以及用户模型190。计算设备140可以连接至数据库120。第一类型模型库150和第二类型模型库170可以是集中式或分布式的任何适当的数据库,该数据库可以在终端或服务器中。虽然图示为两个分离的数据库,但其也可以在同一数据库中,本公开在此不做限制。
计算设备140可以是集中式或分布式的任何适当的计算设备,包括但不限于个人计算机、服务器、客户端、手持或膝上型设备、多处理器、微处理器、机顶盒、可编程消费电子产品、网络PC、小型计算机、大型计算机系统和分布式云以及其组合等。
计算设备140利用合适的声音传感器从用户110接收与用户的同一语音相对应的不同类型的声音信号以用于进一步处理。在一些实施例中,计算设备140可以利用单麦克风接收用户110的声音以生成第一类型的第一声音信号120,也即第一类型的第一声音信号120为单通道声音信号。计算设备140同时还可以利用多个麦克风接收用户110的声音以生成第二类型的第二声音信号130,也即第二类型的第二声音信号130为多通道声音信号。
备选地,在一些实施例中,计算设备140可以仅通过多个麦克风接收用户110的声音,然后将生成的多通道声音信号进行处理以获取单通道声音信号。或者计算设备140也可以根据需要仅利用单麦克风接收用户110的声音。
上述实施例仅仅是示例性的,第一类型和第二类型的声音信号不限于单通道、多通道声音信号,其还可以任何合适的不同类型的声音信号。例如,第一类型的声音信号可以是识别成本较低、但同时安全性较低的简单声音信号。第二类型的声音信号可以是识别成本较高、但同时安全性较高的复杂声音信号。该第一类型和第二类型的声音信号可以用在同一语音识别应用的不同版本中。例如,随着技术的发展和场景需求的升级,应用版本将由单通道声音信号(老版本)升级为多通道声音信号(新版本)。出于描述的简洁性,下文也将参考该版本升级进行讨论,但本公开不旨在限制。
计算设备140可以通过上述第一类型的声音信号120来创建,第一类型模型库150中的用户模型160-1、160-2(下文统称为用户模型160)。例如,计算设备140可以对所获取的第一声音信号120进行SDK处理。SDK处理是指利用本地的硬件或者软件模块对声音进行例如去除噪声等的一系列处理的过程。然后计算设备140可以利用经处理的第一声音信号120来获取其在频谱、倒频谱、共振峰、基音、反射系数、韵律、节奏、速度、语调、音量等特征向量上的特征值。接着计算设备140通过现有的声纹模型对该特征向量进行建模,从而得到与用户110的身份(也即账号)对应的用户模型160。
在一些实施例中,在用户注册阶段,计算设备140可以获取用户110的多条语料。然后对多条语料的特征取平均来建立相对应的用户模型。
为了便于区分,计算设备140可以将通过不同类型的声音信号建立的声音模型存储在不同类型的模型库中。例如,如图1所示,第一类型的声音信号对应圆形的用户模型160,第二类型的声音信号对应于六边形的用户模型。虽然图示为每个模型库中存在两个用户模型,但数目仅仅是示例性的,还可以根据需要存在更多的声音模型。
在一些实施例中,计算设备140还可以将用户110的第一类型的声音信号120以及用户模型作为用户信息与用户110的身份相关联地存储以便于后续验证。
在上述建立了模型库后,用户110进行身份验证来登录。例如,计算设备140会在用户交互界面上展示一串终端或服务器生成的文本内容“123456”,并提示用户110阅读这些数字。然后计算设备140获取用户阅读这些数字所生成的声音信号。计算设备140提取声音信号的频谱、倒频谱、共振峰、基音、反射系数、韵律、节奏、速度、语调或音量等特征向量。最后计算设备140可以经由网络从第一类型模型库150中确定与上述提取的特征向量匹配的用户模型,来识别用户110的身份。网络可以是任何适当的网络,包括但不限于因特网、局域网(LAN)、城域网(MAN)、广域网(WAN)、诸如光纤网络和同轴电缆等的有线网、以及诸如WIFI、蜂窝电信网络和蓝牙等的无线网等。
在一些实施例中,计算设备140还会对用户110的语音数据进行语音识别,识别此目标语音数据的语义内容。若在其声纹匹配的前提下,其语义也为“123456”,则才判定该用户身份验证通过。
上面描述在语音识别应用的老版本中如何完成用户110的注册与登录。当语音识别应用需要从老版本升级为新版本时,即需要利用第二类型的第二声音信号130进行验证登录。本公开的方案使得可以实现已经在应用的来版本注册的用户无需再次录入新类型的语音信号来重新注册,详细过程将结合下文进行描述。
图2示出了根据本公开的一些实施例的声音信号处理的过程200的示例的流程图。过程200可以由计算设备140来实现。
在210,计算设备140获取与用户110的声音相对应的第一类型的第一声音信号120和第二类型的第二声音信号130。例如,计算设备140可以利用合适的声音传感器获取用户110的同一声音所对应的不同类型的声音信号。其中第一类型的声音信号为语音识别应用的老版本所需的声音信号,第二类型的声音信号为语音识别应用的新版本所需的声音信号。
在一些实施例中,计算设备140可以利用相同的声音传感器,例如多个麦克风获取用户110的声音,然后分别处理得到不同类型的第一声音信号120和第二声音信号130。
备选地,在一些实施例中,计算设备140可以利用分离的声音传感器分别获取不同类型的第一声音信号120和第二声音信号130。
在220,计算设备140基于第一声音信号120与第一类型模型库150中的用户模型160的比较和第二声音信号130与第二类型模型库170中的用户模型180的比较,确定与用户110的声音相匹配的第一用户模型,以识别用户的身份。例如,对于已经在语音识别应用的老版本注册过的用户110,计算设备140接收用户110的第一类型和第二类型的语音信号。然后计算设备140确定与该声音匹配的用户模型160,以识别该用户110的身份。
将结合图3进一步描述该匹配过程。图3示出了根据本公开的一些实施例的确定相匹配的用户模型的过程300的示例的流程图。
在310,计算设备140基于第一声音信号120与第一类型模型库150中的用户模型160的比较,确定与所述第一声音信号120相匹配的第三用户模型和第一匹配度。
在一个示例中,计算设备140可以提取第一声音信号120的特征。然后确定所提取的特征与第一类型模型库150中的每个用户模型160的声音特征之间的相应的匹配度,其中每个匹配度都与相应的用户模型相对应。然后,计算设备140可以将上述确定的匹配度中的最高匹配度确定为第一匹配度。最后,计算设备140将与第一匹配度,也即最高匹配度相对应的用户模型确定为第三用户模型。
在一些实施例中,可以通过计算第一声音信号120的特征和用户模型160的声音特征之间的欧氏距离来作为第一声音信号120和用户模型160之间的匹配度。
上述方法仅仅是示例性的,还可以通过任何合适的算法来确定与用户110的第一声音信号120匹配度最高的用户模型160。
在320,计算设备140基于第二声音信号130与第二类型模型库170中的用户模型180的比较,确定与第二声音信号130相匹配的第四用户模型和第二匹配度。
在一个实施例中,计算设备140可以确定第二声音信号130的特征。然后通过所确定的特征与第二类型模型库170中的用户模型180的声音特征,确定多个匹配度,其中每个匹配度与用户模型相对应。接着,计算设备140将多个匹配度中的最高匹配度确定为第二匹配度。最后,计算设备140将与第二匹配度相对应的用户模型确定为第四用户模型。该过程与上述310中的过程类似,在此将不再赘述。
备选地,在一些实施例中,取决于第二声音信号130的类型,例如为多通道声音信号。则计算设备140可以利用端到端建模,将从多个麦克风获取的多通道声音信号直接建模为声音特征模型。然后计算设备140将该模型与第二类型模型库170中的用户模型180进行匹配。
在330,计算设备140通过比较第一匹配度和第二匹配度,从第三用户模型和第四用户模型中确定第一用户模型。例如,计算设备140可以将上述获得的两个第一匹配度和第二匹配度中的较高的匹配度。然后将该较高的匹配度对应的用户模型确定为第一用户模型。
在一个示例中,在接收到用户110的声音的不同类型的信号后,计算设备140将第一声音信号120确定为特征表示v1,并且将第二声音信号130确定为特征表示v2。然后,计算设备140可以采用两级判决来确定与用户110的声音匹配的用户模型。在第一级判决中,计算设备140将特征v1与第一类型模型库150中的用户模型A、B和C进行匹配以得到最高的匹配度score1和该最高的匹配度所对应的用户模型的索引result1,例如参见以下等式(1)和(2):
score1=max(test(v1,A),test(v1,B),test(v1,C)) (1)
result1=argmax(test(v1,A),test(v1,B),test(v1,C)) (2)
计算设备140还将特征v2与第二类型模型库170中的用户模型D、E和F进行匹配以得到最高的匹配度score2和该最高的匹配度所对应的用户模型的索引result2,例如参见以下等式(3)和(4)
score2=max(test(v2,D),test{v1,E,test(v1,F)) (3)
result2=argmax(test(v2,D),test(v2,E),test(2,F)) (4)
在第二级判决中,计算设备140将上述确定的匹配度score1与score2分别与阈值threshold1,threshold2比较,如果均超过阈值的话,选取相对差值最高的作为最终结果,例如参见以下等式(5)和(6)
采用两级判决的优点在于,可以有效地减轻两种建模方式导致的得分不可比问题。此外,还可以增加用户的声音的匹配的准确性。
继续回到图2进行描述。在230,计算设备140如果确定第一用户模型在第一类型模型库150中,将第二声音信号130与用户110的身份相关联地存储。例如,当计算设备140确定用户110的声音与第一类型模型库150中的用户模型160相匹配时,则判断该用户110为在之前版本注册过的老用户。计算设备140然后将上述第二声音信号130与用户110的身份相关联地存到临时数据库,为后续的模型升级积累可用数据。由此,可以在用户110的登录验证或使用应用过程中,在用户无感知的情况下收集应用版本升级所需的数据,减少了用户的负担。
在240,计算设备140基于第二声音信号130建立与用户的身份相关联的第二用户模型。例如,计算设备140通过上述获取的第二声音信号130建立语音识别应用的新版本所需的新的用户模型190(也被称为第二用户模型)。
在一些实施例中,计算设备140确定与用户110的身份相关联地存储的第二声音信号130的数目是否大于阈值数目。如果大于阈值数目,则多个第二声音信号,建立第二用户模型。例如,计算设备140可以设置新的用户模型的更新条件,即设置针对同一终端设备上(第一类型的声音信号)单通道语音建模用户存在20个相关联地存储的第二声音信号130,则计算设备130可以通过该20个相关联地存储的第二声音信号130来建立用户110在语音识别应用的新版本中的第二用户模型。
备选地,在一些实施例中,计算设备140可以在确定针对第一类型模型库150中的每个用户模型都存在一定数目(例如10个)的第二声音信号130后,再统一进行模型的建立与版本的更新。
可以理解的是,在针对每个用户都建立了新的用户模型后,可以将老的用户模型160从数据库中移除。这仅仅是示例性的,其不旨在限制本公开。
在一些实施例中,计算设备140如果确定用户的第二用户模型被建立,使得仅第二类型的第二声音信号被获取。例如,在用户模型以及用户信息文件更新之后,语音识别应用的新版本不再支持(第一类型的声音信号)单通道语音建模,不需要再上传信号处理的单路音频。优点在于,可以节约计算资源,提高提语音识别的速度。
本公开提出声纹服务版本更新的方法,有效地解决了重注册所需资源缺失时需要用户参与重新注册的问题。在全程不需要用户手动参与的基础下,可以自然地、在用户无感的情况下,将基于单通道语音建模的声纹服务全面升级为全新的基于多通道语音端到端建模的声纹服务。在一方面提高了用户体验。在另一方面,采用两级判决来匹配用户的声音,匹配的准确率更高。
图4示出了根据本公开的实施例的声音信号处理的装置400的示意框图。如图4所示,装置400包括:第一声音信号获取模块410,被配置为获取与用户的声音相对应的第一类型的第一声音信号和第二类型的第二声音信号;第一匹配模块420,被配置为基于第一声音信号与第一类型模型库中的用户模型的比较和第二声音信号与第二类型模型库中的用户模型的比较,确定与用户的声音相匹配的第一用户模型,以识别用户的身份;关联模块430,被配置为如果确定第一用户模型在第一类型模型库中,将第二声音信号与用户的身份相关联地存储;以及第一模型建立模块440,被配置为基于第二声音信号建立与用户的身份相关联的第二用户模型。
在一些实施例中,其中第一匹配模块420可以包括:第二匹配模块,被配置为基于第一声音信号与第一类型模型库中的用户模型的比较,确定与第一声音信号相匹配的第三用户模型和第一匹配度;第三匹配模块,被配置为基于第二声音信号与第二类型模型库中的用户模型的比较,确定与第二声音信号相匹配的第四用户模型和第二匹配度;以及第一模型确定模块,被配置为通过比较第一匹配度和第二匹配度,从第三用户模型和第四用户模型中确定第一用户模型。
在一些实施例中,其中第二匹配模块可以包括:特征提取模块,被配置为提取第一声音信号的特征;第一匹配度确定模块,被配置为基于所提取的特征与第一类型模型库中的用户模型的声音特征,确定多个匹配度,每个匹配度与用户模型相对应;第二匹配度确定模块,被配置为将多个匹配度中的最高匹配度确定为第一匹配度;以及第二模型确定模块,被配置为将与第一匹配度相对应的用户模型确定为第三用户模型。
在一些实施例中,其中第三匹配模块可以包括:特征确定模块,被配置为确定第二声音信号的特征;第三匹配度确定模块,被配置为基于所确定的特征与第二类型模型库中的用户模型的声音特征,确定多个匹配度,每个匹配度与用户模型相对应;第四匹配度确定模块,被配置为将多个匹配度中的最高匹配度确定为第二匹配度;以及第三模型确定模块,被配置为将与第二匹配度相对应的用户模型确定为第四用户模型。
在一些实施例中,其中第一模型建立模块440可以包括:第二模型建立模块,被配置为如果确定与用户的身份相关联地存储的第二声音信号的数目大于阈值数目,基于多个第二声音信号,建立第二用户模型。
在一些实施例中,装置400还可以包括:第二声音信号获取模块,被配置为如果确定所有用户的第二用户模型被建立,使得仅第二类型的第二声音信号被获取。
在一些实施例中,其中第一类型的第一声音信号包括单通道声音信号,并且第二类型的第二声音信号包括多通道声音信号。
根据本公开的实施例,本公开还提供了一种用于声音信号处理的电子设备、可读存储介质和计算机程序产品。
图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如过程200和300。例如,在一些实施例中,过程200和300可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的过程200和300的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行过程200和300。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种声音信号处理的方法,包括:
获取与用户的声音相对应的第一类型的第一声音信号和第二类型的第二声音信号;
基于所述第一声音信号与第一类型模型库中的用户模型的比较和所述第二声音信号与第二类型模型库中的用户模型的比较,确定与所述用户的所述声音相匹配的第一用户模型,以识别所述用户的身份;
如果确定所述第一用户模型在所述第一类型模型库中,将所述第二声音信号与所述用户的身份相关联地存储;以及
基于所述第二声音信号建立与所述用户的身份相关联的第二用户模型;
其中,所述第一声音信号和所述第二声音信号用在语音识别应用的不同版本中。
2.根据权利要求1所述的方法,其中基于所述第一声音信号与第一类型模型库中的用户模型的比较和所述第二声音信号与第二类型模型库中的用户模型的比较,确定与所述用户的所述声音相匹配的第一用户模型包括:
基于所述第一声音信号与所述第一类型模型库中的用户模型的比较,确定与所述第一声音信号相匹配的第三用户模型和第一匹配度;
基于所述第二声音信号与所述第二类型模型库中的用户模型的比较,确定与所述第二声音信号相匹配的第四用户模型和第二匹配度;以及
通过比较所述第一匹配度和所述第二匹配度,从所述第三用户模型和所述第四用户模型中确定所述第一用户模型。
3.根据权利要求2所述的方法,其中基于所述第一声音信号与所述第一类型模型库中的用户模型的比较,确定与所述第一声音信号相匹配的第三用户模型和第一匹配度包括:
提取所述第一声音信号的特征;
基于所提取的特征与所述第一类型模型库中的用户模型的声音特征,确定多个匹配度,每个匹配度与用户模型相对应;
将所述多个匹配度中的最高匹配度确定为所述第一匹配度;以及
将与所述第一匹配度相对应的用户模型确定为所述第三用户模型。
4.根据权利要求2所述的方法,其中基于所述第二声音信号与所述第二类型模型库中的用户模型的比较,确定与所述第二声音信号相匹配的第四用户模型和第二匹配度包括:
确定所述第二声音信号的特征;
基于所确定的特征与所述第二类型模型库中的用户模型的声音特征,确定多个匹配度,每个匹配度与用户模型相对应;
将所述多个匹配度中的最高匹配度确定为所述第二匹配度;以及
将与所述第二匹配度相对应的用户模型确定为所述第四用户模型。
5.根据权利要求1所述的方法,其中基于所述第二声音信号建立与所述用户的身份相关联的第二用户模型包括:
如果确定与所述用户的身份相关联地存储的所述第二声音信号的数目大于阈值数目,基于多个所述第二声音信号,建立第二用户模型。
6.根据权利要求1所述的方法,还包括:
如果确定所有用户的第二用户模型被建立,使得仅第二类型的第二声音信号被获取。
7.根据权利要求1所述的方法,其中第一类型的所述第一声音信号包括单通道声音信号,并且第二类型的所述第二声音信号包括多通道声音信号。
8.一种声音信号处理的装置,包括:
第一声音信号获取模块,被配置为获取与用户的声音相对应的第一类型的第一声音信号和第二类型的第二声音信号;
第一匹配模块,被配置为基于所述第一声音信号与第一类型模型库中的用户模型的比较和所述第二声音信号与第二类型模型库中的用户模型的比较,确定与所述用户的所述声音相匹配的第一用户模型,以识别所述用户的身份;
关联模块,被配置为如果确定所述第一用户模型在所述第一类型模型库中,将所述第二声音信号与所述用户的身份相关联地存储;以及
第一模型建立模块,被配置为基于所述第二声音信号建立与所述用户的身份相关联的第二用户模型;
其中,所述第一声音信号和所述第二声音信号用在语音识别应用的不同版本中。
9.根据权利要求8所述的装置,其中所述第一匹配模块包括:
第二匹配模块,被配置为基于所述第一声音信号与所述第一类型模型库中的用户模型的比较,确定与所述第一声音信号相匹配的第三用户模型和第一匹配度;
第三匹配模块,被配置为基于所述第二声音信号与所述第二类型模型库中的用户模型的比较,确定与所述第二声音信号相匹配的第四用户模型和第二匹配度;以及
第一模型确定模块,被配置为通过比较所述第一匹配度和所述第二匹配度,从所述第三用户模型和所述第四用户模型中确定所述第一用户模型。
10.根据权利要求9所述的装置,其中所述第二匹配模块包括:
特征提取模块,被配置为提取所述第一声音信号的特征;
第一匹配度确定模块,被配置为基于所提取的特征与所述第一类型模型库中的用户模型的声音特征,确定多个匹配度,每个匹配度与用户模型相对应;
第二匹配度确定模块,被配置为将所述多个匹配度中的最高匹配度确定为所述第一匹配度;以及
第二模型确定模块,被配置为将与所述第一匹配度相对应的用户模型确定为所述第三用户模型。
11.根据权利要求9所述的装置,其中所述第三匹配模块包括:
特征确定模块,被配置为确定所述第二声音信号的特征;
第三匹配度确定模块,被配置为基于所确定的特征与所述第二类型模型库中的用户模型的声音特征,确定多个匹配度,每个匹配度与用户模型相对应;
第四匹配度确定模块,被配置为将所述多个匹配度中的最高匹配度确定为所述第二匹配度;以及
第三模型确定模块,被配置为将与所述第二匹配度相对应的用户模型确定为所述第四用户模型。
12.根据权利要求8所述的装置,其中所述第一模型建立模块包括:
第二模型建立模块,被配置为如果确定与所述用户的身份相关联地存储的所述第二声音信号的数目大于阈值数目,基于多个所述第二声音信号,建立第二用户模型。
13.根据权利要求8所述的装置,还包括:
第二声音信号获取模块,被配置为如果确定所有用户的第二用户模型被建立,使得仅第二类型的第二声音信号被获取。
14.根据权利要求8所述的装置,其中第一类型的所述第一声音信号包括单通道声音信号,并且第二类型的所述第二声音信号包括多通道声音信号。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011481460.2A CN112634909B (zh) | 2020-12-15 | 2020-12-15 | 声音信号处理的方法、装置、设备、计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011481460.2A CN112634909B (zh) | 2020-12-15 | 2020-12-15 | 声音信号处理的方法、装置、设备、计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634909A CN112634909A (zh) | 2021-04-09 |
CN112634909B true CN112634909B (zh) | 2022-03-15 |
Family
ID=75313346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011481460.2A Active CN112634909B (zh) | 2020-12-15 | 2020-12-15 | 声音信号处理的方法、装置、设备、计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634909B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258535A (zh) * | 2013-05-30 | 2013-08-21 | 中国人民财产保险股份有限公司 | 基于声纹识别的身份识别方法及系统 |
CN103714812A (zh) * | 2013-12-23 | 2014-04-09 | 百度在线网络技术(北京)有限公司 | 一种语音识别方法及装置 |
US10062304B1 (en) * | 2017-04-17 | 2018-08-28 | Hz Innovations Inc. | Apparatus and method for wireless sound recognition to notify users of detected sounds |
CN110086629A (zh) * | 2019-04-23 | 2019-08-02 | 厦门快商通信息咨询有限公司 | 一种多距离声纹认证方法、终端、服务器及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9224388B2 (en) * | 2011-03-04 | 2015-12-29 | Qualcomm Incorporated | Sound recognition method and system |
CN107492379B (zh) * | 2017-06-30 | 2021-09-21 | 百度在线网络技术(北京)有限公司 | 一种声纹创建与注册方法及装置 |
CN109147797A (zh) * | 2018-10-18 | 2019-01-04 | 平安科技(深圳)有限公司 | 基于声纹识别的客服方法、装置、计算机设备及存储介质 |
-
2020
- 2020-12-15 CN CN202011481460.2A patent/CN112634909B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258535A (zh) * | 2013-05-30 | 2013-08-21 | 中国人民财产保险股份有限公司 | 基于声纹识别的身份识别方法及系统 |
CN103714812A (zh) * | 2013-12-23 | 2014-04-09 | 百度在线网络技术(北京)有限公司 | 一种语音识别方法及装置 |
US10062304B1 (en) * | 2017-04-17 | 2018-08-28 | Hz Innovations Inc. | Apparatus and method for wireless sound recognition to notify users of detected sounds |
CN110086629A (zh) * | 2019-04-23 | 2019-08-02 | 厦门快商通信息咨询有限公司 | 一种多距离声纹认证方法、终端、服务器及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112634909A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106683680B (zh) | 说话人识别方法及装置、计算机设备及计算机可读介质 | |
EP3614377B1 (en) | Object recognition method, computer device and computer readable storage medium | |
CN109817213B (zh) | 用于自适应语种进行语音识别的方法、装置及设备 | |
US10699699B2 (en) | Constructing speech decoding network for numeric speech recognition | |
CN110838289B (zh) | 基于人工智能的唤醒词检测方法、装置、设备及介质 | |
US10176811B2 (en) | Neural network-based voiceprint information extraction method and apparatus | |
US9536525B2 (en) | Speaker indexing device and speaker indexing method | |
CN108346427A (zh) | 一种语音识别方法、装置、设备及存储介质 | |
US20150325240A1 (en) | Method and system for speech input | |
CN110706690A (zh) | 语音识别方法及其装置 | |
US9646613B2 (en) | Methods and systems for splitting a digital signal | |
JP6875819B2 (ja) | 音響モデル入力データの正規化装置及び方法と、音声認識装置 | |
CN109697978B (zh) | 用于生成模型的方法和装置 | |
US11410685B1 (en) | Method for detecting voice splicing points and storage medium | |
EP3493201A1 (en) | Information processing device, information processing method, and program | |
CN112634909B (zh) | 声音信号处理的方法、装置、设备、计算机可读存储介质 | |
CN111640438A (zh) | 音频数据处理方法、装置、存储介质及电子设备 | |
US20220277732A1 (en) | Method and apparatus for training speech recognition model, electronic device and storage medium | |
CN112735432B (zh) | 音频识别的方法、装置、电子设备及存储介质 | |
CN112652313B (zh) | 声纹识别的方法、装置、设备、存储介质以及程序产品 | |
CN114121022A (zh) | 语音唤醒方法、装置、电子设备以及存储介质 | |
CN113035230A (zh) | 认证模型的训练方法、装置及电子设备 | |
CN112017633B (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN113380233B (zh) | 音频识别方法、装置、训练方法、训练装置、设备及存储介质 | |
CN109801622B (zh) | 一种语音识别模板训练方法、语音识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |