CN111179940A - 一种语音识别方法、装置及计算设备 - Google Patents
一种语音识别方法、装置及计算设备 Download PDFInfo
- Publication number
- CN111179940A CN111179940A CN201811340092.2A CN201811340092A CN111179940A CN 111179940 A CN111179940 A CN 111179940A CN 201811340092 A CN201811340092 A CN 201811340092A CN 111179940 A CN111179940 A CN 111179940A
- Authority
- CN
- China
- Prior art keywords
- user
- voice
- audio data
- pieces
- voiceprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000004891 communication Methods 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 14
- 230000006399 behavior Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 238000005406 washing Methods 0.000 claims description 2
- 239000013598 vector Substances 0.000 description 31
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000556 factor analysis Methods 0.000 description 2
- 210000000554 iris Anatomy 0.000 description 2
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 229910052573 porcelain Inorganic materials 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/40—Network security protocols
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/10—Network architectures or network communication protocols for network security for controlling access to devices or network resources
- H04L63/102—Entity profiles
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Game Theory and Decision Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例公开了一种语音识别方法,包括步骤:接收包括第一语音的音频数据;判断是否存在与第一语音相匹配的用户;在不存在与第一语音相匹配的用户的情况下,存储该音频数据;对所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户。本发明实施例还公开了相应的语音识别装置、系统和计算设备。
Description
技术领域
本发明涉及语音识别技术领域,尤其是一种语音识别方法、装置及计算设备。
背景技术
随着诸如移动终端和智能音箱之类终端设备的广泛使用,人们越来越习惯于使用语音来与这些终端设备进行交互。其中,终端设备可以采用声纹识别技术来识别用户身份。
声纹识别(Voiceprint Identification),又称说话人识别(SpeakerIdentification),该技术是从说话人发出的语音信号中提取语音特征,并据此对说话人进行身份验证的生物识别技术。其中,声纹是指人类语音中携带言语信息的声波频谱。同指纹一样,声纹具备独特的生物学特征,具有身份识别的作用,不仅具有特定性,而且具有相对的稳定性。
通常地,说话者需要预先在终端设备上注册声纹,而后终端设备通过声纹来识别该用户,从而可以通过分析该用户的语音对应的指令来分析用户行为,以便为该用户提供个性化、定制化服务,例如歌曲推荐等。
由于目前大部分终端设备的用户没有主动注册声纹,所以无法准确识别用户,从而无法分析用户行为向其提供个性化服务,或者向其提供的个性化服务很难达到比较好的效果。
因此,需要提供一种更优越的语音识别方案,以便为用户提供服务。
发明内容
为此,本发明实施例提供了一种语音识别方法、装置及计算设备,以力图解决或者至少缓解上面存在的至少一个问题。
根据本发明实施例的一个方面,提供了一种语音识别方法,包括步骤:接收包括第一语音的音频数据;判断是否存在与第一语音相匹配的用户;在不存在与第一语音相匹配的用户的情况下,存储该音频数据;对所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户。
可选地,在根据本发明实施例的语音识别方法中,用户对应有用户简档,用户简档包括用户的声纹,判断是否存在与第一语音相匹配的用户的步骤包括:判断第一语音是否与用户的声纹相匹配,以判断是否存在与第一语音相匹配的用户。
可选地,在根据本发明实施例的语音识别方法中,对所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户的步骤包括:基于多条音频数据中两两之间的相似评分,将多条音频数据划分为多个集合;基于集合的样本密度和样本数量确定至少一个目标集合,目标集合对应于新用户;为目标集合对应的新用户创建用户简档,并使用目标集合中的至少部分音频数据来生成该新用户的声纹。
可选地,在根据本发明实施例的语音识别方法中,使用目标集合中的至少部分音频数据来生成该新用户的声纹的步骤包括:根据到目标集合的质心的距离来确定目标集合中用于生成新用户的声纹的音频数据。
可选地,在根据本发明实施例的语音识别方法中,用户简档包括指示用户是否为主动注册的用户标记,为目标集合对应的新用户创建用户简档的步骤包括:将为目标集合对应的新用户所创建的用户简档中的用户标识置为非主动注册;以及方法还包括步骤:在存在与第一语音相匹配的用户且对应的用户标记指示用户为非主动注册的情况下,记录来自用户的音频数据条数。
可选地,在根据本发明实施例的语音识别方法中,还包括步骤:在记录来自用户的音频数据条数之后,判断音频数据条数是否在特定时间段内达到特定数量;若否,删除该用户对应的用户简档。
可选地,在根据本发明实施例的语音识别方法中,用户简档还包括与用户相关联的终端设备的设备标识,该方法包括步骤:接收发送音频数据的终端设备的设备标识;基于设备标识判断是否存在与终端设备相关联的用户;如果不存在,则存储该音频数据。
可选地,在根据本发明实施例的语音识别方法中,还包括步骤:在存在与第一语音相匹配的用户的情况下,将第一语音对应的指令与用户相关联地存储。
可选地,在根据本发明实施例的语音识别方法中,还包括步骤:接收包括第二语音的音频数据,第二语音用于主动注册新用户;为主动注册的新用户创建用户简档,并使用包括第二语音的音频数据来生成新用户的声纹;以及将为主动注册的新用户所创建的用户简档中的用户标识置为主动注册。
可选地,在根据本发明实施例的语音识别方法中,还包括步骤:接收发送包括第二语音的音频数据的终端设备的设备标识;将设备标识与主动注册的新用户相关联地存储至对应的用户简档。
可选地,在根据本发明实施例的语音识别方法中,判断第一语音是否与用户的声纹相匹配的步骤包括:根据包括第一语音的音频数据,提取第一语音的语音特征;基于所述第一语音的语音特征得到第一语音与用户的声纹之间的相似评分;根据相似评分来确定第一语音是否与用户的声纹相匹配。
根据本发明实施例的另一方面,提供了一种用户识别方法,包括步骤:接收包括第一语音的音频数据;判断是否存在与第一语音相匹配的用户;在不存在与第一语音相匹配的用户的情况下,存储音频数据;对所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户,并对新用户进行行为分析。
根据本发明实施例的另一方面,提供了一种语音识别装置,包括:通信模块,适于接收包括第一语音的音频数据;语音识别模块,适于判断是否存在与第一语音相匹配的用户;在不存在与第一语音相匹配的用户的情况下,将该音频数据存储至音频存储模块;音频存储模块,适于存储音频数据;以及用户发现模块,适于对音频存储模块所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户。
根据本发明实施例的另一方面,提供了一种用户识别装置,包括:通信模块,适于接收包括第一语音的音频数据;语音识别模块,适于判断是否存在与第一语音相匹配的用户;在不存在与第一语音相匹配的用户的情况下,将该音频数据存储至音频存储模块;音频存储模块,适于存储音频数据;以及用户发现模块,适于对音频存储模块所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户,并对新用户进行行为分析。
根据本发明实施例的另一方面,提供了一种语音识别系统,包括终端设备和服务器,其中终端设备适于接收说话人的语音,并将包括语音的音频数据发送至服务器;服务器驻留有根据本发明的语音识别装置。
根据本发明实施例的又一方面,提供了一种计算设备,包括:至少一个处理器;和存储有程序指令的存储器,其中,程序指令被配置为适于由至少一个处理器执行,程序指令包括用于执行根据本发明的语音识别方法的指令。
根据本发明实施例的语音识别方案,通过对所存储的多条音频数据进行聚类来从中确定新用户,整个新用户确定过程用户是无感知的,省去了用户的主动注册操作,提高了用户的使用体验。
附图说明
为了实现上述以及相关目的,本文结合下面的描述和附图来描述某些说明性方面,这些方面指示了可以实践本文所公开的原理的各种方式,并且所有方面及其等效方面旨在落入所要求保护的主题的范围内。通过结合附图阅读下面的详细描述,本公开的上述以及其它目的、特征和优势将变得更加明显。遍及本公开,相同的附图标记通常指代相同的部件或元素。
图1示出了根据本发明一个实施例的语音识别系统100的示意图;
图2示出了根据本发明一个实施例的语音识别装置200的架构图;
图3示出了根据本发明一个实施例的计算设备300的示意图;以及
图4示出了根据本发明一个实施例的语音识别方法400的结构框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的语音识别系统100的示意图。如图1所示,语音识别系统100包括终端设备102和服务器106。
终端设备102是任何说话人语音的接收方。说话人可以使用语音经由终端设备102与服务器106交互。终端设备102可以是通过诸如局域网(LAN)或者如因特网的广域网(WAN)的一个或多个网络105耦合至服务器104的计算设备。例如,终端设备102可以是桌面型计算设备、膝上型计算设备、平板型计算设备、移动电话计算设备、音箱计算设备、车辆的计算设备(例如,车载通信系统、车载娱乐系统、车载导航系统)、包括计算设备的可穿戴装置(例如,具有计算设备的手表、具有计算设备的眼镜)或者包括计算设备的家居装置(例如,具有计算设备的音箱、具有计算设备的电视、具有计算设备的洗衣机)。尽管说话人有可能会操作多个计算设备,但为简洁起见,本公开中的示例将针对说话人操作终端设备102。
终端设备102可以操作一个或多个应用和/或组件,它们可以涉及向说话人提供通知以及提供各种类型的信号。这些应用和/或组件可以包括但不限于麦克风103、输出设备104、诸如全球定位系统(“GPS”)组件(图1未示出)的位置坐标组件等等。在一些实施例中,这些应用和/或组件中的一个或多个可以在由说话人操作的多个终端设备上运行。图1中并未示出的终端设备102的其他组件包括但不限于气压计、相机、光线传感器、存在传感器、温度计、健康传感器(例如,心率监视器、血糖仪、血压计)、加速计、陀螺仪等等。
在一些实施方式中,输出设备104可以包括扬声器(多个扬声器)、屏幕、触摸屏、一个或多个通知灯(例如,发光二极管)、打印机等等中的一个或多个。在一些实施方式中,输出设备104可以被用于基于响应于说话人语音而调用的一个或多个操作(诸如打开程序、播放歌曲、发送电子邮件或者文本消息、拍照等操作)提供输出。
终端设备102包括用于存储数据和软件应用的一个或多个存储器、用于访问数据和执行应用的一个或多个处理器以及促进通过网络的通信的其他组件。在一些实施方式中,终端设备102可以被配置成例如使用麦克风103来感测一个或多个可听声音(例如,说话人口述的语音),并且可以基于所感测到的一个或多个可听声音(也被称作“音频输入”)而将音频数据提供至各种其他计算设备。那些其他计算设备(其示例将会在下文更详细地描述)可以基于音频数据而执行各种操作以识别匹配音频数据。在各种实施方式中,音频数据可以包括:一个或多个说话人口述语音的原始记录;记录的压缩版本;经由终端设备102的麦克风103所获得的音频输入的一个或多个特征的指示,诸如音高、音调、音频和/或音量;和/或经由麦克风103所获得的音频输入的转录等等。
在一些实施方式中,终端设备102将包括说话人语音的音频数据发送至服务器106。服务器106中驻留有语音识别装置200。当然,在另一些实施方式中,终端设备102中也可以驻留有语音识别装置200。也就是说,直接在终端设备102上执行下述处理。
图2示出了根据本发明一个实施例的语音识别装置200的结构框图。如图2所示,语音识别装置200包括通信模块210、语音识别模块220、音频存储模块230和用户发现模块240。
通信模块210可以从终端设备102接收到包括第一语音的音频数据,这里第一语音通常用于指示终端设备102执行操作。
语音识别模块220对该音频数据进行语音识别,以得到第一语音对应的指令。而后语音识别模块220经由通信模块210向终端设备102返回对该指令的响应结果,以便终端设备102至少根据该响应结果执行相应操作。
例如,在一种实施方式中,终端设备102可以实现为具有计算设备的音箱。音箱接收到说话人所说的语音——“播放歌曲青花瓷”,将包括该语音的音频数据发送至服务器106。服务器106向音箱返回相应的响应结果——《青花瓷》的音频文件。音箱根据响应结果执行相应操作——播放该音频文件。
当然,对音频数据进行语音识别以得到指令的过程也可以在终端设备102上进行。即,终端设备102对音频数据进行语音识别,而后将音频数据和识别得到的指令发送至语音识别装置200。
语音识别模块220还判断是否存在与第一语音相匹配的用户。通常地,用户指的是语音识别系统标识其身份的说话人。根据一种实施方式,用户对应有记录与用户相关的数据的用户简档,这些用户简档可以存储在与语音识别装置200相耦接的用户数据存储设备中,也可以存储在语音识别装置200所包括的用户数据存储模块(图2未示出)中。
通常地,可以采用用户的诸如指纹、声纹和虹膜之类的生物特征来唯一标识用户。在本发明的一些实施方式中,可以采用声纹来唯一标识用户,声纹是指说话人语音中携带言语信息的声波频谱,可以唯一标识说话人。语音识别模块220可以采用各种声纹识别技术来判断是否存在与第一语音相匹配的用户。
具体地,在各种实施方式中,用户简档可以包括用户的声纹。语音识别模块220可以通过判断第一语音是否与用户的声纹相匹配来判断是否存在与第一语音相匹配的用户。
下面将详细介绍判断第一语音是否与用户的声纹相匹配的过程。
在一些实施方式中,音频数据可以在被由语音识别模块220匹配至用户之前经受不同层次的预处理。在一些实施例中,这种预处理可以促进语音识别模块220进行更加高效的语音识别。在各种实施方式中,预处理可以由终端设备102或者由另一组件来执行,诸如语音识别装置200的组件。在一些实施方式中,语音识别模块220本身可以预处理音频数据。
作为预处理的非限制性示例,音频数据可以最初例如由终端设备102的麦克风103捕捉,作为原始数据(例如,以诸如wav文件的“无损”形式或者诸如MP3文件的“有损”形式)。这种原始数据可以例如由终端设备102或者语音识别装置200的一个或多个组件进行预处理,以促进语音识别。在各种实施方式中,预处理可以包括:采样;量化;去除非语音的音频数据和静默的音频数据;对包括语音的音频数据进行分帧、加窗,以供后续处理等等。
经过预处理之后,语音识别模块220可以根据包括第一语音的音频数据来提取第一语音的语音特征,并基于第一语音的语音特征将第一语音与用户的声纹进行匹配。
在一些实施方式中,语音特征可以是滤波器组FBank(Filter Bank)、梅尔频率倒谱系数MFCC(Mel Frequency Cepstral Coefficents)、感知线性预测系数PLP、深度特征Deep Feature、以及能量规整谱系数PNCC等特征中的一种或者多种的组合。在一种实施例中,语音识别模块220还可以对提取得到的语音特征进行归一化处理。
而后,语音识别模块220基于第一语音的语音特征,将第一语音与用户的声纹进行匹配,以得到第一语音与用户的声纹之间的相似评分,并根据该相似评分来确定与第一语音相匹配的用户。
具体地,在一些实施方式中,用户的声纹以声纹模型来描述,例如隐马尔可夫模型(HMM模型)、高斯混合模型(GMM模型)等等。用户的声纹模型以语音特征为特征,利用包括用户语音的音频数据(后文简称为用户的音频数据)训练得到。语音识别模块220可以采用匹配运算函数来计算第一语音与用户的声纹之间的相似度。例如可以计算第一语音的语音特征与用户的声纹模型相匹配的后验概率来作为相似评分,也可以计算第一语音的语音特征与用户的声纹模型之间的似然度来作为相似评分。
但由于训练好用户的声纹模型需要大量该用户的音频数据,因此在一些实施方式中,用户的声纹模型可以基于与用户无关的通用背景模型,利用少量用户的音频数据训练得到(同样以语音特征为特征)。例如,可以先使用与用户无关的、多个说话人的音频数据,通过期望最大化算法EM训练得到通用背景模型(Universal Background Model,UBM),以表征用户无关的特征分布。再基于该UBM模型,利用少量的用户的音频数据通过自适应算法(如最大后验概率MAP,最大似然线性回归MLLR等)训练得到GMM模型(这样得到的GMM模型称之为GMM-UBM模型),以表征用户的特征分布。该GMM-UBM模型即为用户的声纹模型。此时,语音识别模块220可以基于第一语音的语音特征,分别将第一语音与用户的声纹模型和通用背景模型进行匹配,以得到第一语音与用户的声纹之间的相似评分。例如,分别计算第一语音的语音特征与上述UBM模型和GMM-UBM模型之间的似然度,然后将这两个似然度相除后取对数,将得到的值作为第一语音与用户的声纹之间的相似评分。
在另一些实施方式中,用户的声纹以声纹向量来描述,例如i-vector、d-vector、x-vector和j-vector等等。语音识别模块220可以至少基于第一语音的语音特征,提取第一语音的声纹向量。
根据一种实施例,可以先利用第一语音的语音特征训练第一语音说话人的声纹模型。如前文类似地,可以基于预先训练好的与用户无关的上述通用背景模型,利用第一语音的语音特征训练得到第一语音说话人的声纹模型。
在得到第一语音说话人的声纹模型之后,可以根据该声纹模型提取第一语音的均值超矢量。例如,可以将第一语音说话人的GMM-UBM模型的各个GMM分量的均值进行拼接,得到第一语音说话人的GMM-UBM模型的均值超矢量,即第一语音的均值超矢量。
之后,可以采用联合因子分析法(JFA)或者简化的联合因子分析法,从第一语音的均值超矢量中提取得到低维的声纹向量。
以i-vector为例,在训练得到与用户无关的上述通用背景模型(UBM模型)之后,可以提取该通用背景模型的均值超矢量,并估计全局差异空间(Total Variability Space,T)矩阵。而后基于第一语音的均值超矢量、T矩阵、通用背景模型的均值超矢量来计算第一语音的i-vector。
具体地,i-vector可以根据以下公式计算得到:
Ms,h=mu+Tωs,h
其中,Ms,h是从说话人s的语音h中得到的均值超矢量,mu是通用背景模型的均值超矢量,T是全局差异空间矩阵,ωs,h是全局差异因子,也就是i-vector。
根据另一种实施例,还可以利用训练好的深度神经网络(Deep Neural Network,DNN)来得到第一语音的声纹向量。以d-vector为例,DNN可以包括输入层、隐层和输出层。可以先将第一语音的FBank特征输入到DNN输入层,DNN最后一个隐层的输出即为d-vector。
在得到第一语音的声纹向量之后,语音识别模块220可以基于第一语音的声纹向量和用户的声纹向量,来计算第一语音与用户的声纹之间的相似评分。其中,可以采用支持向量机(SVM)、LDA(Linear Discriminant Analysis,线性判别分析)、PLDA(ProbabilisticLinear Discriminant Analysis,概率线性判别分析)、似然度和余弦距离(CosineDistance)等算法来计算第一语音与用户的声纹之间的相似评分。
以PLDA算法为例,假设语音由I个说话人的语音组成,其中每个说话人有J段不一样的语音,并且定义第i个说话人的第j段语音为Yij。那么,定义Yij的生成模型为:
Yij=μ+Fhi+Gwij+εij
其中,μ是声纹向量的均值,F、G是空间特征矩阵,各自代表说话人类间特征空间和类内特征空间。F的每一列,相当于类间特征空间的特征向量,G的每一列,相当于类内特征空间的特征向量。向量hi和wij可以看作是该语音分别在各自空间的特征表示,εij则是噪声协方差。如果两条语音的hi特征相同的似然度越大,即相似评分越高,那么它们来自同一个说话人的可能性就越大。
PLDA的模型参数包括4个,即μ、F、G和εij,是采用EM算法迭代训练而成。通常地,可以采用简化版的PLDA模型,忽略类内特征空间矩阵G的训练,只训练类间特征空间矩阵F,即:
Yij=μ+Fhi+εij
语音识别模块220可以基于第一语音的声纹向量,参照上述公式得到第一语音的hi特征。同样地,基于用户的声纹向量,参照上述公式得到用户语音的hi特征。而后,可以计算两个hi特征的对数似然比或余弦距离来作为第一语音与用户的声纹之间的相似评分。
应当注意的是,声纹并不限于上述声纹向量(i-vector、d-vector和x-vector等等)和上述声纹模型(HMM模型和GMM模型等等),相应的相似评分算法也可依据所选定的声纹来任意选取,本发明对此不做限制。
在各种实施方式中,如果得到的相似评分超过相似阈值,则语音识别模块220确定第一语音与该用户的声纹相匹配,也就是确定第一语音与该声纹对应的用户相匹配。否则语音识别模块220确定第一语音不与该用户的声纹相匹配。
语音识别模块220可以将第一语音与每个用户的声纹相匹配,以判断是否存在与第一语音相匹配的用户。在存在与第一语音相匹配的用户的情况下,语音识别模块220在对音频数据进行语音识别以得到指令之外,可以将第一语音对应的指令与匹配到的用户相关联地存储,例如存储至该用户的用户简档。这样,语音识别装置200后续可以根据来自该用户的所有指令分析该用户的行为偏好,从而为该用户提供个性化和定制化的服务。例如,根据用户所有与播放歌曲相关的指令来分析用户的歌曲偏好,从而可以为用户推荐符合其偏好的歌曲。
在不存在与第一语音相匹配的用户的情况下,语音识别模块220可以将该(条)包括第一语音的音频数据存储至音频存储模块230。音频存储模块230适于存储音频数据。
用户发现模块240可以对音频存储模块230所存储的多条音频数据进行聚类,以便从这多条音频数据中确定新用户。这样,对于后续接收到的包括该新用户语音的音频数据,语音识别装置200就可以匹配到该新用户,并将对应指令与该新用户相关联地存储,以便后续可以根据来自该新用户的所有指令分析该新用户的行为偏好,从而为该新用户提供个性化服务。在一些实施方式中,用户发现模块240可以每隔预定周期就提取所存储的多条音频数据(例如固定数量条音频数据)来进行聚类。
具体地,用户发现模块240先基于多条音频数据中两两之间的相似评分,将这多条音频数据划分为多个集合。可以认为每个集合所包含的音频数据彼此相似。在一种实施例中,可以采用聚类算法来实现集合的划分。
其中,相似评分的计算已在上述对第一语音与用户的声纹之间的相似评分的计算过程的描述中详细介绍,此处不再赘述。
而后,用户发现模块240基于集合的样本特征来确定至少一个目标集合,每个目标集合即对应于一个新用户。其中,样本特征可以包括样本密度、样本数量等等,样本则指的是音频数据。在一种实施例中,对于每个集合,可以计算该集合的样本密度和样本数量。而后,选择样本密度和样本数量满足预定条件的集合作为目标集合。预定条件例如可以是:样本密度超过预定密度;样本数量超过预定数量等等。预定条件可以根据所需要确定的目标集合个数来配置,本发明对此不做限制。
在确定目标集合(即发现新用户)之后,用户发现模块240为该目标集合对应的新用户创建用户简档,并使用该目标集合中的至少部分音频数据来生成该新用户的声纹。声纹可以是声纹模型或者声纹向量。例如,可以以这些音频数据的语音特征为特征来训练一个GMM模型或者GMM-UBM模型,作为新用户的声纹。也可以基于这些音频数据的语音特征来提取声纹向量,作为新用户的声纹。具体的声纹生成过程可以参考前文关于声纹的描述,此处不再赘述。
其中,可以随机选择目标集合中的至少部分音频数据来生成声纹。也可以根据到目标集合的质心的距离来确定目标集合中用于生成新用户的声纹的音频数据。例如,先确定目标集合的质心,再计算目标集合中各样本到目标集合的质心的距离,选择距离较小的那些样本作为用于生成新用户的声纹的音频数据。质心的计算为本领域常规技术,此处不再赘述。
如果没有确定目标集合(即没有发现新用户),例如所有集合中没有满足预定条件的目标集合,那么,用户发现模块240可以删除这些音频数据,也就是之前从音频存储模块230所提取的多条音频数据。
可以理解地,创建用户简档可以认为是用户的注册过程。通常地,用户可以主动提供包括用户语音的音频数据(例如,经由终端设备向服务器发送主动注册请求,并根据相应注册提示针对特定文本主动录入语音),以便根据这些主动提供的音频数据来生成用户的声纹。这一用户主动操作的过程可以认为是主动注册过程。而通过聚类来发现新用户、为其创建用户简档并生成声纹的过程,用户并无感知,因此,该过程可以认为是非主动注册过程。
根据本发明的实施方式,用户简档还可以包括指示用户是否为主动注册的用户标记。如图2所示,语音识别装置200还可以包括用户注册模块250。通信模块210可以接收包括第二语音的音频数据,第二语音通常用于主动注册新用户,例如,可以是按照终端设备102的注册提示而录入的语音。用户注册模块250则可以为主动注册的新用户创建用户简档,并使用该包括第二语音的音频数据来生成新用户的声纹,以及将该主动注册的新用户的用户简档中的用户标识置为主动注册。
相应地,对于通过聚类发现的新用户,用户发现模块240在为该目标集合对应的新用户创建用户简档时,可以将所创建的用户简档中的用户标识置为非主动注册。
这样,语音识别模块220就可以在确定存在与第一语音相匹配的用户之后,基于对应用户简档中的用户标识来判断该用户是否为主动注册。如果用户标记指示用户为非主动注册,语音识别模块220可以记录来自该用户的音频数据条数。具体地,用户简档可以包括来自用户的音频数据条数。每接收一条来自该用户的音频数据,语音识别模块220将来自用户的音频数据条数加一。相应地,用户发现模块230在为非主动注册的新用户创建用户简档时,可以将所创建的用户简档中来自用户的音频数据条数置为初始值。初始值通常可以为0。
语音识别模块220还可以判断来自该用户的音频数据条数是否在特定时段段内达到特定数量(例如在自注册以来的1个月内达到特定数量)。如果没达到,语音识别模块220可以删除该用户对应的用户简档,也就是说,注销该用户。如果达到,则可以不做任何操作。
根据本发明的另一个实施方式,用户简档还可以包括与用户相关联的终端设备的设备标识。例如,在主动注册过程中,通信模块210可以接收发送包括第二语音的音频数据的终端设备的设备标识,用户注册模块250可以将该设备标识与主动注册的新用户相关联地存储至对应的用户简档。这样,语音识别模块220可以在接收音频数据时也接收发送该音频数据的终端设备的设备标识,并在判断是否存在与第一语音相匹配的用户之前,先基于该设备标识判断是否存在与对应终端设备相关联的用户,也就是查找是否存在包括该设备标识的用户简档。
如果不存在与该终端设备相关联的用户,则语音识别模块220可以将该音频数据存储至音频存储模块230。如果存在与该终端设备相关联的用户,则语音识别模块220判断是否存在与第一语音相匹配的用户。
此外,本发明的实施例还提供了一种用户识别装置。该用户识别装置包括通信模块、语音识别模块、音频存储模块和用户发现模块。通信模块接收包括第一语音的音频数据,语音识别模块可以判断是否存在与第一语音相匹配的用户,在不存在与第一语音相匹配的用户的情况下,将音频数据存储至音频存储模块。音频存储模块存储音频数据。用户发现模块则可以对音频存储模块所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户,并对新用户进行行为分析。例如,可以根据该新用户的语音对应的指令来分析该用户的行为偏好,从而为该新用户提供个性化服务。
其中,用户识别装置中各模块的处理例如可以与上文中结合图1和图2所描述的语音识别装置200中各模块的处理相同,并能够达到相类似的技术效果,在此不再赘述。
在下文中将结合附图描述在上文中提及的各个模块和装置等的具体结构以及对应的处理方法。
根据本发明的实施方式,上述语音识别装置200(和上述用户识别装置)中的各种部件,如各种模块等均可以通过如下所述的计算设备300来实现。图3示出了根据本发明一个实施例的计算设备300的示意图。
如图3所示,在基本的配置302中,计算设备300典型地包括系统存储器306和一个或者多个处理器304。存储器总线308可以用于在处理器304和系统存储器306之间的通信。
取决于期望的配置,处理器304可以是任何类型的处理,包括但不限于:微处理器(μP)、微控制器(μC)、数字信息处理器(DSP)或者它们的任何组合。处理器304可以包括诸如一级高速缓存310和二级高速缓存312之类的一个或者多个级别的高速缓存、处理器核心314和寄存器316。示例的处理器核心314可以包括运算逻辑单元(ALU)、浮点数单元(FPU)、数字信号处理核心(DSP核心)或者它们的任何组合。示例的存储器控制器318可以与处理器304一起使用,或者在一些实现中,存储器控制器318可以是处理器304的一个内部部分。
取决于期望的配置,系统存储器306可以是任意类型的存储器,包括但不限于:易失性存储器(诸如RAM)、非易失性存储器(诸如ROM、闪存等)或者它们的任何组合。系统存储器306可以包括操作系统320、一个或者多个应用322以及程序数据324。在一些实施方式中,应用322可以布置为在操作系统上由一个或多个处理器304利用程序数据324执行指令。
计算设备300还可以包括有助于从各种接口设备(例如,输出设备342、外设接口344和通信设备346)到基本配置302经由总线/接口控制器330的通信的接口总线340。示例的输出设备342包括图形处理单元348和音频处理单元350。它们可以被配置为有助于经由一个或者多个A/V端口352与诸如显示器或者扬声器之类的各种外部设备进行通信。示例外设接口344可以包括串行接口控制器354和并行接口控制器356,它们可以被配置为有助于经由一个或者多个I/O端口358和诸如输入设备(例如,键盘、鼠标、笔、语音输入设备、触摸输入设备)或者其他外设(例如打印机、扫描仪等)之类的外部设备进行通信。示例的通信设备346可以包括网络控制器360,其可以被布置为便于经由一个或者多个通信端口364与一个或者多个其他计算设备362通过网络通信链路的通信。
网络通信链路可以是通信介质的一个示例。通信介质通常可以体现为在诸如载波或者其他传输机制之类的调制数据信号中的计算机可读指令、数据结构、程序模块,并且可以包括任何信息递送介质。“调制数据信号”可以是这样的信号,它的数据集中的一个或者多个或者它的改变可以在信号中编码信息的方式进行。作为非限制性的示例,通信介质可以包括诸如有线网络或者专线网络之类的有线介质,以及诸如声音、射频(RF)、微波、红外(IR)或者其它无线介质在内的各种无线介质。这里使用的术语计算机可读介质可以包括存储介质和通信介质二者。
计算设备300可以实现为服务器,例如数据库服务器、应用程序服务器和WEB服务器等,也可以实现为包括桌面计算机和笔记本计算机配置的个人计算机。当然,计算设备300也可以实现为小尺寸便携(或者移动)电子设备的一部分。
在根据本发明的实施例中,计算设备300被实现为语音识别装置200,并被配置为执行根据本发明实施例的语音识别方法400。其中,计算设备300的应用322中包含执行根据本发明实施例的语音识别方法400的多条程序指令,而程序数据324还可以存储语音识别系统100的配置信息等。
图4示出了根据本发明一个实施例的语音识别方法400。如图4所示,语音识别方法400始于步骤S410。
在步骤S410中,接收包括第一语音的音频数据。如前所述,第一语音通常是指示终端设备102执行操作的语音。因此,根据本发明的实施方式,可以对该音频数据进行语音识别而得到第一语音对应的指令,而后向终端设备102返回对该指令的响应结果,以便终端设备102至少根据该响应结果来执行相应操作。
随后在步骤S420中,可以判断是否存在与第一语音相匹配的用户。根据一种实施方式,用户均会对应有记录与用户相关的数据的用户简档,这些用户简档可以存储在与语音识别装置200相耦接的用户数据存储设备中,也可以存储在语音识别装置200所包括的用户数据存储模块中。
通常地,可以采用用户的诸如指纹、声纹和虹膜之类的生物特征来唯一标识用户。在本发明的一种实施方式中,可以采用声纹来唯一标识用户,用户简档包括用户的声纹,可以判断第一语音是否与用户的声纹相匹配,以判断是否存在与第一语音相匹配的用户。
具体地,可以先根据包括第一语音的音频数据,提取第一语音的语音特征。在一些实施方式中,语音特征可以是滤波器组FBank(Filter Bank)、梅尔频率倒谱系数MFCC(MelFrequency Cepstral Coefficents)、感知线性预测系数PLP、深度特征Deep Feature、以及能量规整谱系数PNCC等特征中的一种或者多种的组合。
而后基于第一语音的语音特征得到第一语音与用户的声纹之间的相似评分,根据该相似评分来确定第一语音是否与用户的声纹相匹配。如果得到的相似评分超过相似阈值,则确定第一语音与该用户的声纹相匹配,否则确定第一语音不与该用户的声纹相匹配。
如果存在与第一语音相匹配的用户,则可以将第一语音对应的指令与匹配到的用户相关联地存储。如果不存在与第一语音相匹配的用户,那么在步骤S430中,存储该(条)音频数据。
而后在步骤S440中,对所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户。具体地,可以先基于多条音频数据中两两之间的相似评分,将多条音频数据划分为多个集合。再基于集合的样本密度和样本数量确定至少一个目标集合,目标集合对应于新用户。最后为目标集合对应的新用户创建用户简档,并使用目标集合中的至少部分音频数据来生成该新用户的声纹。
在一种实施例中,可以根据到目标集合的质心的距离来确定目标集合中用于生成新用户的声纹的音频数据。例如,先确定目标集合的质心,再计算目标集合中各样本到目标集合的质心的距离,选择距离较小的那些样本作为用于生成新用户的声纹的音频数据。
如果没有确定目标集合,则可以删除这些音频数据,也就是之前的多条音频数据。
根据本发明的一种实施方式,用户简档还可以包括指示用户是否为主动注册的用户标记,在为目标集合对应的新用户创建用户简档时,可以将该用户简档中的用户标识置为非主动注册。在存在与第一语音相匹配的用户且对应的用户标记指示用户为非主动注册的情况下,还可以记录来自用户的音频数据条数,判断音频数据条数是否在特定时间段内达到特定数量。若否,可以删除该用户对应的用户简档。
根据本发明的一种实施方式,语音识别方法400还可以包括步骤:接收包括第二语音的音频数据,第二语音通常用于主动注册新用户。为主动注册的新用户创建用户简档,并使用该包括第二语音的音频数据来生成新用户的声纹,以及将该主动注册的新用户的用户简档中的用户标识置为主动注册。
根据本发明的一种实施方式,用户简档还可以包括与用户相关联的终端设备的设备标识,语音识别方法400还可以包括步骤:接收发送上述音频数据的终端设备的设备标识,基于该设备标识判断是否存在与该终端设备相关联的用户。如果不存在,则存储上述音频数据。
语音识别方法400的具体步骤以及实施例,在结合图1~图3对语音识别系统100的描述中已经详细公开,此处不再赘述。
此外,本发明实施例还提供了一种用户识别方法,包括步骤:接收包括第一语音的音频数据;判断是否存在与第一语音相匹配的用户;在不存在与第一语音相匹配的用户的情况下,存储该音频数据;对所存储的多条音频数据进行聚类,以便从多条音频数据中确定新用户,并对新用户进行行为分析。其中,用户识别方法中各步骤的处理例如可以与上文中结合图4所描述的语音识别方法400中各步骤的处理相同,并能够达到相类似的技术效果,在此不再赘述。
综上所述,根据本发明实施例的语音识别方案,通过对所存储的多条音频数据进行聚类来从中确定新用户以及生成该新用户的声纹,以便后续可以根据声纹识别该用户,并根据来自该用户的指令分析该用户的行为偏好,从而可以为该用户提供更精准的个性化服务。并且,整个新用户确定和声纹生成过程用户是无感知的,省去了用户的主动注册操作,提高了用户的使用体验。
应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组件可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
此外,所述实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该发明的目的的元素所执行的功能。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。
Claims (27)
1.一种语音识别方法,包括步骤:
接收包括第一语音的音频数据;
判断是否存在与所述第一语音相匹配的用户;
在不存在与所述第一语音相匹配的用户的情况下,存储所述音频数据;
对所存储的多条音频数据进行聚类,以便从所述多条音频数据中确定新用户。
2.如权利要求1所述的方法,其中,所述用户对应有用户简档,所述用户简档包括所述用户的声纹,所述判断是否存在与所述第一语音相匹配的用户的步骤包括:
判断所述第一语音是否与所述用户的声纹相匹配,以判断是否存在与所述第一语音相匹配的用户。
3.如权利要求2所述的方法,其中,所述对所存储的多条音频数据进行聚类,以便从所述多条音频数据中确定新用户的步骤包括:
基于所述多条音频数据中两两之间的相似评分,将所述多条音频数据划分为多个集合;
基于所述集合的样本密度和样本数量确定至少一个目标集合,所述目标集合对应于所述新用户;
为所述目标集合对应的新用户创建用户简档,并使用所述目标集合中的至少部分音频数据来生成该新用户的声纹。
4.如权利要求3所述的方法,其中,所述使用所述目标集合中的至少部分音频数据来生成该新用户的声纹的步骤包括:
根据到所述目标集合的质心的距离来确定所述目标集合中用于生成新用户的声纹的音频数据。
5.如权利要求3所述的方法,其中,所述用户简档包括指示用户是否为主动注册的用户标记,所述为所述目标集合对应的新用户创建用户简档的步骤包括:
将为目标集合对应的新用户所创建的用户简档中的用户标识置为非主动注册;以及
所述方法还包括步骤:
在存在与所述第一语音相匹配的用户且对应的用户标记指示所述用户为非主动注册的情况下,记录来自所述用户的音频数据条数。
6.如权利要求5所述的方法,其中,还包括步骤:
在记录来自所述用户的音频数据条数之后,判断所述音频数据条数是否在特定时间段内达到特定数量;若否,删除所述用户对应的用户简档。
7.如权利要求2所述的方法,其中,所述用户简档还包括与用户相关联的终端设备的设备标识,所述方法包括步骤:
接收发送所述音频数据的终端设备的设备标识;
基于所述设备标识判断是否存在与所述终端设备相关联的用户;
如果不存在,则存储所述音频数据。
8.如权利要求1所述的方法,其中,还包括步骤:
在存在与所述第一语音相匹配的用户的情况下,将所述第一语音对应的指令与所述用户相关联地存储。
9.如权利要求1-8中任一项所述的方法,其中,还包括步骤:
接收包括第二语音的音频数据,所述第二语音用于主动注册新用户;
为主动注册的新用户创建用户简档,并使用所述包括第二语音的音频数据来生成所述新用户的声纹;以及
将为主动注册的新用户所创建的用户简档中的用户标识置为主动注册。
10.如权利要求9所述的方法,其中,还包括步骤:
接收发送包括第二语音的音频数据的终端设备的设备标识;
将所述设备标识与所述主动注册的新用户相关联地存储至对应的用户简档。
11.如权利要求2-10中任一项所述的方法,其中,所述判断所述第一语音是否与所述用户的声纹相匹配的步骤包括:
根据所述包括第一语音的音频数据,提取第一语音的语音特征;
基于所述第一语音的语音特征得到所述第一语音与用户的声纹之间的相似评分;
根据所述相似评分来确定第一语音是否与用户的声纹相匹配。
12.一种用户识别方法,包括步骤:
接收包括第一语音的音频数据;
判断是否存在与所述第一语音相匹配的用户;
在不存在与所述第一语音相匹配的用户的情况下,存储所述音频数据;
对所存储的多条音频数据进行聚类,以便从所述多条音频数据中确定新用户,并对所述新用户进行行为分析。
13.一种语音识别装置,包括:
通信模块,适于接收包括第一语音的音频数据;
语音识别模块,适于判断是否存在与所述第一语音相匹配的用户;在不存在与所述第一语音相匹配的用户的情况下,将所述音频数据存储至音频存储模块;
音频存储模块,适于存储所述音频数据;以及
用户发现模块,适于对所述音频存储模块所存储的多条音频数据进行聚类,以便从所述多条音频数据中确定新用户。
14.如权利要求13所述的装置,其中,所述用户对应有用户简档,所述用户简档包括所述用户的声纹,所述语音识别模块适于
判断所述第一语音是否与所述用户的声纹相匹配,以判断是否存在与所述第一语音相匹配的用户。
15.如权利要求14所述的装置,其中,所述用户发现模块适于
基于所述多条音频数据中两两之间的相似评分,将所述多条音频数据划分为多个集合;
基于所述集合的样本密度和样本数量确定至少一个目标集合,所述目标集合对应于所述新用户;
为所述目标集合对应的新用户创建用户简档,并使用所述目标集合中的至少部分音频数据来生成该新用户的声纹。
16.如权利要求15所述的装置,其中,所述用户发现模块适于
根据到所述目标集合的质心的距离来确定所述目标集合中用于生成新用户的声纹的音频数据。
17.如权利要求15所述的装置,其中,所述用户简档包括指示用户是否为主动注册的用户标记,所述用户发现模块适于
将为目标集合对应的新用户所创建的用户简档中的用户标识置为非主动注册;以及
所述语音识别模块还适于
在存在与所述第一语音相匹配的用户且对应的用户标记指示所述用户为非主动注册的情况下,记录来自所述用户的音频数据条数。
18.如权利要求17所述的装置,其中,所述语音识别模块适于
在记录来自所述用户的音频数据条数之后,判断所述音频数据条数是否在特定时间段内达到特定数量;若否,删除所述用户对应的用户简档。
19.如权利要求14所述的装置,其中,所述用户简档包括与用户相关联的终端设备的设备标识,
所述通信模块还适于接收发送所述音频数据的终端设备的设备标识;以及所述语音识别模块还适于
基于所述设备标识判断是否存在与所述终端设备相关联的用户;
如果不存在,则将所述音频数据存储至所述音频存储模块。
20.如权利要求13所述的装置,其中,所述语音识别模块还适于
在存在与所述第一语音相匹配的用户的情况下,将所述第一语音对应的指令与所述用户相关联地存储。
21.如权利要求12-19中任一项所述的装置,其中,所述通信模块还适于接收包括第二语音的音频数据,所述第二语音用于主动注册新用户;所述装置还包括:
用户注册模块,适于为主动注册的新用户创建用户简档,并使用所述包括第二语音的音频数据来生成所述新用户的声纹;以及将为主动注册的新用户所创建的用户简档中的用户标识置为主动注册。
22.如权利要求21所述的装置,其中,所述通信模块还适于接收发送包括第二语音的音频数据的终端设备的设备标识;所述用户注册模块还适于将所述设备标识与所述主动注册的新用户相关联地存储至对应的用户简档。
23.如权利要求14-22中任一项所述的装置,其中,所述语音识别模块还适于
根据所述包括第一语音的音频数据,提取第一语音的语音特征;
基于所述第一语音的语音特征得到所述第一语音与用户的声纹之间的相似评分;
根据所述相似评分来确定第一语音是否与用户的声纹相匹配。
24.如权利要求14-23中任一项所述的装置,该装置驻留在终端设备中,所述终端设备为音箱、电视机或洗衣机。
25.一种用户识别装置,包括:
通信模块,适于接收包括第一语音的音频数据;
语音识别模块,适于判断是否存在与所述第一语音相匹配的用户;在不存在与所述第一语音相匹配的用户的情况下,将所述音频数据存储至音频存储模块;
音频存储模块,适于存储所述音频数据;以及
用户发现模块,适于对所述音频存储模块所存储的多条音频数据进行聚类,以便从所述多条音频数据中确定新用户,并对所述新用户进行行为分析。
26.一种语音识别系统,包括终端设备和服务器,其中
所述终端设备适于接收说话人的语音,并将包括语音的音频数据发送至所述服务器;所述服务器驻留有如权利要求13-24中任一项所述的语音识别装置。
27.一种计算设备,包括:
至少一个处理器;和
存储有程序指令的存储器,其中,所述程序指令被配置为适于由所述至少一个处理器执行,所述程序指令包括用于执行如权利要求1-11中任一项所述的语音识别方法的指令。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811340092.2A CN111179940A (zh) | 2018-11-12 | 2018-11-12 | 一种语音识别方法、装置及计算设备 |
TW108129251A TW202018696A (zh) | 2018-11-12 | 2019-08-16 | 語音識別方法、裝置及計算設備 |
PCT/CN2019/115308 WO2020098523A1 (zh) | 2018-11-12 | 2019-11-04 | 一种语音识别方法、装置及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811340092.2A CN111179940A (zh) | 2018-11-12 | 2018-11-12 | 一种语音识别方法、装置及计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111179940A true CN111179940A (zh) | 2020-05-19 |
Family
ID=70655656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811340092.2A Pending CN111179940A (zh) | 2018-11-12 | 2018-11-12 | 一种语音识别方法、装置及计算设备 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN111179940A (zh) |
TW (1) | TW202018696A (zh) |
WO (1) | WO2020098523A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111897977A (zh) * | 2020-06-09 | 2020-11-06 | 惠州市德赛西威汽车电子股份有限公司 | 一种搭载在儿童座椅上的智能语音娱乐系统及方法 |
CN112992174A (zh) * | 2021-02-03 | 2021-06-18 | 深圳壹秘科技有限公司 | 一种语音分析方法及其语音记录装置 |
CN113448975A (zh) * | 2021-05-26 | 2021-09-28 | 科大讯飞股份有限公司 | 一种人物画像库的更新方法、装置、系统和存储介质 |
CN113707183A (zh) * | 2021-09-02 | 2021-11-26 | 北京奇艺世纪科技有限公司 | 一种视频中的音频处理方法及装置 |
CN115171702A (zh) * | 2022-05-30 | 2022-10-11 | 青岛海尔科技有限公司 | 数字孪生声纹特征处理方法、存储介质及电子装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11468900B2 (en) * | 2020-10-15 | 2022-10-11 | Google Llc | Speaker identification accuracy |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106782564A (zh) * | 2016-11-18 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 用于处理语音数据的方法和装置 |
CN107623614A (zh) * | 2017-09-19 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN107863108A (zh) * | 2017-11-16 | 2018-03-30 | 百度在线网络技术(北京)有限公司 | 信息输出方法和装置 |
CN107978311A (zh) * | 2017-11-24 | 2018-05-01 | 腾讯科技(深圳)有限公司 | 一种语音数据处理方法、装置以及语音交互设备 |
US20180300468A1 (en) * | 2016-08-15 | 2018-10-18 | Goertek Inc. | User registration method and device for smart robots |
CN108766446A (zh) * | 2018-04-18 | 2018-11-06 | 上海问之信息科技有限公司 | 声纹识别方法、装置、存储介质及音箱 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8140340B2 (en) * | 2008-01-18 | 2012-03-20 | International Business Machines Corporation | Using voice biometrics across virtual environments in association with an avatar's movements |
CN108075892B (zh) * | 2016-11-09 | 2021-07-27 | 斑马智行网络(香港)有限公司 | 一种语音处理的方法、装置和设备 |
CN107147618B (zh) * | 2017-04-10 | 2020-05-15 | 易视星空科技无锡有限公司 | 一种用户注册方法、装置及电子设备 |
CN108597525B (zh) * | 2018-04-25 | 2019-05-03 | 四川远鉴科技有限公司 | 语音声纹建模方法及装置 |
-
2018
- 2018-11-12 CN CN201811340092.2A patent/CN111179940A/zh active Pending
-
2019
- 2019-08-16 TW TW108129251A patent/TW202018696A/zh unknown
- 2019-11-04 WO PCT/CN2019/115308 patent/WO2020098523A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180300468A1 (en) * | 2016-08-15 | 2018-10-18 | Goertek Inc. | User registration method and device for smart robots |
CN106782564A (zh) * | 2016-11-18 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 用于处理语音数据的方法和装置 |
CN107623614A (zh) * | 2017-09-19 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN107863108A (zh) * | 2017-11-16 | 2018-03-30 | 百度在线网络技术(北京)有限公司 | 信息输出方法和装置 |
CN107978311A (zh) * | 2017-11-24 | 2018-05-01 | 腾讯科技(深圳)有限公司 | 一种语音数据处理方法、装置以及语音交互设备 |
CN108766446A (zh) * | 2018-04-18 | 2018-11-06 | 上海问之信息科技有限公司 | 声纹识别方法、装置、存储介质及音箱 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111897977A (zh) * | 2020-06-09 | 2020-11-06 | 惠州市德赛西威汽车电子股份有限公司 | 一种搭载在儿童座椅上的智能语音娱乐系统及方法 |
CN111897977B (zh) * | 2020-06-09 | 2024-08-02 | 惠州市德赛西威汽车电子股份有限公司 | 一种搭载在儿童座椅上的智能语音娱乐系统及方法 |
CN112992174A (zh) * | 2021-02-03 | 2021-06-18 | 深圳壹秘科技有限公司 | 一种语音分析方法及其语音记录装置 |
CN113448975A (zh) * | 2021-05-26 | 2021-09-28 | 科大讯飞股份有限公司 | 一种人物画像库的更新方法、装置、系统和存储介质 |
CN113448975B (zh) * | 2021-05-26 | 2023-01-17 | 科大讯飞股份有限公司 | 一种人物画像库的更新方法、装置、系统和存储介质 |
CN113707183A (zh) * | 2021-09-02 | 2021-11-26 | 北京奇艺世纪科技有限公司 | 一种视频中的音频处理方法及装置 |
CN113707183B (zh) * | 2021-09-02 | 2024-04-19 | 北京奇艺世纪科技有限公司 | 一种视频中的音频处理方法及装置 |
CN115171702A (zh) * | 2022-05-30 | 2022-10-11 | 青岛海尔科技有限公司 | 数字孪生声纹特征处理方法、存储介质及电子装置 |
CN115171702B (zh) * | 2022-05-30 | 2024-09-24 | 青岛海尔科技有限公司 | 数字孪生声纹特征处理方法、存储介质及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2020098523A1 (zh) | 2020-05-22 |
TW202018696A (zh) | 2020-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7152514B2 (ja) | 声紋識別方法、モデルトレーニング方法、サーバ、及びコンピュータプログラム | |
JP6938784B2 (ja) | オブジェクト識別の方法及びその、コンピュータ装置並びにコンピュータ装置可読記憶媒体 | |
CN111179940A (zh) | 一种语音识别方法、装置及计算设备 | |
CN112435684B (zh) | 语音分离方法、装置、计算机设备和存储介质 | |
CN110310623B (zh) | 样本生成方法、模型训练方法、装置、介质及电子设备 | |
US11875799B2 (en) | Method and device for fusing voiceprint features, voice recognition method and system, and storage medium | |
JP2019510248A (ja) | 声紋識別方法、装置及びバックグラウンドサーバ | |
US20110320202A1 (en) | Location verification system using sound templates | |
CN110634472B (zh) | 一种语音识别方法、服务器及计算机可读存储介质 | |
US9947323B2 (en) | Synthetic oversampling to enhance speaker identification or verification | |
US20190392839A1 (en) | System for creating speaker model, recognition system, computer program product, and controller | |
US20140195232A1 (en) | Methods, systems, and circuits for text independent speaker recognition with automatic learning features | |
US11862170B2 (en) | Sensitive data control | |
JP2021152682A (ja) | 音声処理装置、音声処理方法、およびプログラム | |
CN110648671A (zh) | 声纹模型重建方法、终端、装置及可读存储介质 | |
JP6845489B2 (ja) | 音声処理装置、音声処理方法、および音声処理プログラム | |
US20240013784A1 (en) | Speaker recognition adaptation | |
JP2023551729A (ja) | フェイクオーディオの検出のための自己教師あり音声表現 | |
Chin et al. | Speaker identification using discriminative features and sparse representation | |
CN113849793A (zh) | 角色分离方法、会议纪要的记录方法、角色展示方法、装置、电子设备及计算机存储介质 | |
JP6996627B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP4143541B2 (ja) | 動作モデルを使用して非煩雑的に話者を検証するための方法及びシステム | |
CN111737515B (zh) | 音频指纹提取方法、装置、计算机设备和可读存储介质 | |
CN110570843B (zh) | 一种用户语音识别方法和装置 | |
CN111798844A (zh) | 根据声纹识别的人工智能扬声器定制型个人化服务系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40030566 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200519 |
|
RJ01 | Rejection of invention patent application after publication |