CN111554303B - 一种歌曲演唱过程中的用户身份识别方法及存储介质 - Google Patents

一种歌曲演唱过程中的用户身份识别方法及存储介质 Download PDF

Info

Publication number
CN111554303B
CN111554303B CN202010385275.7A CN202010385275A CN111554303B CN 111554303 B CN111554303 B CN 111554303B CN 202010385275 A CN202010385275 A CN 202010385275A CN 111554303 B CN111554303 B CN 111554303B
Authority
CN
China
Prior art keywords
singing
user
voiceprint
song
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010385275.7A
Other languages
English (en)
Other versions
CN111554303A (zh
Inventor
陈勇
王子亮
邹应双
林剑宇
刘旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Kaimi Network Science & Technology Co ltd
Fujian Star Net eVideo Information Systems Co Ltd
Original Assignee
Fujian Kaimi Network Science & Technology Co ltd
Fujian Star Net eVideo Information Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Kaimi Network Science & Technology Co ltd, Fujian Star Net eVideo Information Systems Co Ltd filed Critical Fujian Kaimi Network Science & Technology Co ltd
Priority to CN202010385275.7A priority Critical patent/CN111554303B/zh
Publication of CN111554303A publication Critical patent/CN111554303A/zh
Application granted granted Critical
Publication of CN111554303B publication Critical patent/CN111554303B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及语音识别技术领域,特别涉及一种歌曲演唱过程中的用户身份识别方法及存储介质。所述一种歌曲演唱过程中的用户身份识别方法,包括步骤:获取歌曲中每段原声演唱的起止时间段;采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息;将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。通过该方式,无需用户每演唱一首歌,就手动输入身份信息,而是当用户开口演唱时,会自动获取其声音并计算得其声纹信息,进而根据声纹信息在系统预存的声纹模型中寻找与其匹配度高的用户,将该用户标记为当前演唱用户。

Description

一种歌曲演唱过程中的用户身份识别方法及存储介质
技术领域
本发明涉及语音识别技术领域,特别涉及一种歌曲演唱过程中的用户身份识别方法及存储介质。
背景技术
随着生活水平的日益提高,越来越多的人喜欢去娱乐场所K歌,相较于传统的大家点歌唱歌的模式,现在的点唱方式越来越多样。
如在演唱歌曲的过程中,获知用户的身份信息,进而在显示界面中展现用户的相关信息,使得用户可获得更好的体验。
而目前现有的技术方案,常采用的方式是:用户每点一首歌曲,就手动进行一次用户身份关联,操作非常地繁琐;
且在演唱过程中,同一首歌,可能由多个用户共同演绎,如A演唱部分,B演唱部分,在这种情况下,现有的技术方案就无法做到根据用户身份的改变及时做出调整,只能是机械式地仍显示在点播该歌曲时绑定的用户的身份信息;
还可预知的另一种手段,是“声音密码”(语音文本识别)。如A用户的声音密码是“芝麻开门”,B用户是“土豆开门”;当A用户通过音频输入设备讲出“芝麻开门”时,系统认为当前用户为A。这一手段同样存在缺陷:在歌曲开始或用户更换时,都需要讲出用户自己的声音密码,非常繁琐。
发明内容
为此,需要提供一种歌曲演唱过程中的用户身份识别方法,用以解决演唱过程中用户身份识别麻烦、演唱过程中用户身份改变时无法及时识别的问题。具体技术方案如下:
一种歌曲演唱过程中的用户身份识别方法,包括步骤:
获取歌曲中每段原声演唱的起止时间段;
采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息;
将所述声纹信息与预存的声纹模型进行匹配;
优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
进一步的,所述“采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频”步骤前还包括:在数字视听场所播放歌曲。
进一步的,所述“获取歌曲中每段原声演唱的起止时间段”后还包括:获取每段原声演唱的起止时间段中原声演唱者的身份信息,统计原声演唱者个数,及每个原声演唱者演唱的起止时间段。
进一步的,所述“将所述声纹信息与预存的声纹模型进行匹配”包括:分别获取各个原声演唱者演唱的起止时间段中输入音频的声纹信息,将各个声纹信息分别与预存的声纹模型进行匹配,分别得到与各个声纹信息匹配的声纹模型;每个声纹信息对应一演唱用户。
进一步的,所述“获取歌曲中每段原声演唱的起止时间段”包括:获取每句歌词对应的原声演唱的起止时间段;
所述“采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息”包括:歌曲播放过程中,采集每句歌词对应的原声演唱的起止时间段中音频输入设备的输入音频,并实时计算每句歌词对应的所述输入音频的声纹信息;
所述“将所述声纹信息与预存的声纹模型进行匹配”包括:实时将每句歌词对应的所述输入音频的声纹信息分别与预存的声纹模型进行匹配;
所述“优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”包括:获取每句歌词对应的所述输入音频的声纹信息匹配度高的声纹模型,并将声纹模型对应的用户标记为每句的演唱用户。
进一步的,所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:
获取用户的身份注册信息和用户演唱的音频,对所述音频进行训练得声纹模型,将同一用户的身份注册信息与声纹模型建立对应关系。
进一步的,所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:获取一个以上用户的登录信息,根据所述用户的登录信息从服务器中获取对应的声纹模型;
所述“将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”,还包括步骤:
将所述声纹信息与所述从服务器中获取的对应的声纹模型进行匹配,优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
进一步的,还包括步骤:
展示所述当前演唱用户的相关信息,所述相关信息至少包括下列中的一种:专属的界面皮肤、演唱历史、演唱用户对应的虚拟形象、演唱用户头像。
为解决上述技术问题,还提供一种计算机可读存储介质,具体技术方案如下:
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述所述的步骤。
本发明的有益效果是:通过获取歌曲中每段原声演唱的起止时间段;采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息;将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
通过该方式,
1、无需用户每演唱一首歌,就手动输入身份信息,而是当用户开口演唱时,会自动获取其声音并计算得其声纹信息,进而根据声纹信息在系统预存的声纹模型中寻找与其匹配度高的用户,将该用户标记为当前演唱用户。
2、并非歌曲播放过程中全程采集音频输入设备的输入音频,而是先通过获取歌曲中每段原声演唱的起止时间段,然后采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,使得计算量降低的同时,屏蔽了非演唱时间范围内的干扰音频,提高识别率。
附图说明
图1为具体实施方式所述一种歌曲演唱过程中的用户身份识别方法的流程图;
图2为具体实施方式所述一种计算机可读存储介质的模块示意图。
附图标记说明:
200、计算机可读存储介质。
具体实施方式
为详细说明技术方案的技术内容、构造特征、所实现目的及效果,以下结合具体实施例并配合附图详予说明。
请参阅图1,为本发明具体实施方式一种歌曲演唱过程中的用户身份识别方法的流程图。其中,该歌曲演唱过程中的用户身份识别方法可应用在一种计算机可读存储介质上,所述计算机可读存储介质包括但不限于:个人计算机、服务器、通用计算机、专用计算机、网络设备、嵌入式设备、可编程设备和智能移动终端等。
在本实施方式中,具体地应用场所为在数字视听场所播放歌曲。
其具体步骤可如下:
步骤S101:获取歌曲中每段原声演唱的起止时间段。
步骤S102:采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息。在各种数字视听场所中,用户点播好要演唱的歌曲,在歌曲播放的过程中,用户会通过音频输入设备(如麦克风)进行演唱,在用户演唱的过程中采集歌曲播放过程中原声演唱起止时间段中麦克风的输入音频。
步骤S103:将所述声纹信息与预存的声纹模型进行匹配。
步骤S104:优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
通过获取歌曲中每段原声演唱的起止时间段;采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息;将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
通过该方式,
1、无需用户每演唱一首歌,就手动输入身份信息,而是当用户开口演唱时,会自动获取其声音并计算得其声纹信息,进而根据声纹信息在系统预存的声纹模型中寻找与其匹配度高的用户,将该用户标记为当前演唱用户。
2、并非歌曲播放过程中全程采集音频输入设备的输入音频,而是先通过获取歌曲中每段原声演唱的起止时间段,然后采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,使得计算量降低的同时,屏蔽了非演唱时间范围内的干扰音频,提高识别率。
可实时采集音频输入设备的输入音频。但结合到实际应用场景中,在演唱过程中,一般一人会至少演唱一句或多句,故可预先设定采集规则进行多次采集音频输入设备的输入音频。如:
所述“获取歌曲中每段原声演唱的起止时间段”包括:获取每句歌词对应的原声演唱的起止时间段;
所述“采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息”包括:歌曲播放过程中,采集每句歌词对应的原声演唱的起止时间段中音频输入设备的输入音频,并实时计算每句歌词对应的所述输入音频的声纹信息;
所述“将所述声纹信息与预存的声纹模型进行匹配”包括:实时将每句歌词对应的所述输入音频的声纹信息分别与预存的声纹模型进行匹配;
所述“优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”包括:获取每句歌词对应的所述输入音频的声纹信息匹配度高的声纹模型,并将声纹模型对应的用户标记为每句的演唱用户。
如:播放歌曲《爱你一万年》,获取每句歌词对应的原声演唱的起止时间段,即:当原声开始演唱第一句:寒风吹起细雨迷离,到第一句演唱结束的时间为歌曲播放到15秒至20秒,则在歌曲开始播放的前15秒不进行麦克风音频输入采集,15秒至20秒才进行麦克风音频输入采集,若原声演唱第一句完,5秒后才演唱第二句,同样的这中间5秒不进行麦克风音频输入采集,只有在有原声演唱的时间段才进行麦克风音频输入采集。这样做使得采集的音频数据量少,减少计算量,同时屏蔽了非演唱时间范围内的干扰音频,提高识别率。
同时,在上述的方案中,对每句演唱音频分别进行采集及声纹比对,这样即使演唱过程中多人进行接龙合唱,也能识别出每句的演唱用户身份。当每个用户进行演唱时,可识别出每个用户的身份,界面进行对应用户的相应显示,可大大提高用户的演唱体验。
结合实际应用场景中,因有很多合唱的歌曲,故进一步的,所述“获取歌曲中每段原声演唱的起止时间段”后还包括:获取每段原声演唱的起止时间段中原声演唱者的身份信息,统计原声演唱者个数,及每个原声演唱者演唱的起止时间段。
所述“将所述声纹信息与预存的声纹模型进行匹配”包括:分别获取各个原声演唱者演唱的起止时间段中输入音频的声纹信息,将各个声纹信息分别与预存的声纹模型进行匹配,分别得到与各个声纹信息匹配的声纹模型;每个声纹信息对应一演唱用户。
因实际中遇到男女合唱歌曲时,经常是一男一女对唱,并且男生演唱男生部分歌曲,女生演唱女生部分歌曲,或演绎组合演唱的歌曲时,如演唱twins的歌曲时,经常是一人演唱阿sa的,一人演唱阿娇的,故优选地可获取每段原声演唱的起止时间段中原声演唱者的身份信息,统计原声演唱者个数,及每个原声演唱者演唱的起止时间段。这样可直接统计原唱歌曲中一共有几个演唱者,及每个演唱者的演唱时间段,从而在对应演唱时间段采集的音频基本都可以认定为同一个用户在演唱。当首次将用户声纹与用户身份关联后,后续同个原声演唱者的演唱时间段,可默认是同个用户在演唱,不再继续声纹识别,直接在界面显示对应用户的相关信息,这样可提高显示当前演唱用户身份的效率,降低声纹识别的计算量。当轮到其他原声演唱者的演唱时间段时,再次采集演唱音频。即:如歌曲《今天你要嫁给我》,在原唱中男生演唱:春暖的花开,带走冬天的感伤,微风吹来浪漫的气息,每一首情歌都忽然充满意义,我就在此刻突然见到你;则可以获取这几句歌词时间段内的输入音频的声纹信息,且默认这部分都是同个用户在演唱,只进行一次声纹识别。接下来是女生演唱的时间段,默认是另一个也用户在演唱,也只进行一次声纹识别。故在这种应用场景中,无需演唱一句就获取输入音频,而是根据原声演唱者个数个性化地确认每个原声演唱者演唱的起止时间段,并获取各个原声演唱者演唱的起止时间段中输入音频的声纹信息。这样做结合了实际应用场景可大大提高识别率及识别效率,且降低声纹识别的计算量。
对于声纹模型的获取,在本实施方式中,在所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:
获取用户的身份注册信息和用户演唱的音频,对所述音频进行训练得声纹模型,将同一用户的身份注册信息与声纹模型建立对应关系。
其中,实际应用场景中,在用户使用点歌系统前,用户需先注册个人的身份注册信息(如用户名、头像等)至服务器,并录制一定时长的歌曲(其中需要录制什么条件的歌曲,如录制时长,歌曲风格,录制几首可根据具体采用的声纹模型训练算法来决定),训练得到声纹模型,并将同一用户的身份注册信息与声纹模型建立对应关系。如:A用户的用户名为Miss Lily,则将A的用户名Miss Lily与声纹模型建立对应关系。当识别到声纹模型为MissLily时,则会从数据库中调出跟Miss Lily有关的相关信息,并进行展示。其中所述相关信息至少包括下列中的一种:专属的界面皮肤、演唱历史、演唱用户对应的虚拟形象、演唱用户头像。
训练好声纹模型后,用户在使用点歌系统时,若有需要的话,可优选地通过键盘、会员卡或扫码等方式告知点歌系统其登录了具体的某个包厢。这样做的好处在于,针对该包厢中后续的歌曲演唱过程中,在开始歌曲演唱时,点歌系统可根据用户的登录信息,从服务器中获取所述用户的登录信息对应的声纹模型。即:若四个用户开了A包厢,在开始使用点歌系统进行点歌前,A\B\C\D四个用户在该包厢的点歌系统中进行登录,则点歌系统优选从服务器中只拉取了这四个用户的声纹模型,在后续的声纹信息与声纹模型匹配过程中,只用到这四个用户的声纹模型,这样的好处在于提高匹配速度的同时提高匹配的精准度。即:
所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:获取一个以上用户的登录信息,根据所述用户的登录信息从服务器中获取对应的声纹模型;
所述“将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”,还包括步骤:
将所述声纹信息与所述从服务器中获取的对应的声纹模型进行匹配,优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
因考虑到有些用户嫌还要在点歌系统中进行登录比较麻烦,则亦可以直接将所述声纹信息与服务器中所有的声纹模型进行匹配。具体选择哪种方式,根据实际情况做出选择。
进一步地,为了使得最后呈现的结果更准确。还包括步骤:计算匹配度高的声纹模型的概率值,当所述概率值大于预设值时,将所述匹配度高的声纹模型标记为当前演唱用户。如:在实际演唱过程中,某次采集过程中,可能所有人在玩游戏没有在演唱,或只是某个用户在拿麦克风讲话,则还需计算匹配度高的声纹模型的概率值,当所述概率值大于预设值时,才认定匹配结果有效,反之则认定匹配结果无效。
在本实施方式中,对于训练声音模型与输入音频声纹信息的计算采用的是GMM-UBM算法。需要说明的是,亦可采取其他可行的任意算法。以下对GMM-UBM算法进行具体说明:
GMM-UBM算法,分为训练和识别两阶段。
训练阶段:
录制用户演唱的歌曲。其中歌曲数量、曲风、音域、信道类型越多越好。
比如,这里可以取3首。
计算MFCC(对应实施例中的声纹信息);
用所有用户的MFCC数据训练UBM模型;
通过UBM模型,针对各用户的MFCC,训练得到各用户的GMM模型,当做该用户声纹模型(对应实施例中的声纹模型);
识别阶段:
划定要识别的用户范围,比如上述实施例中,只取点歌前登记到系统的若干个用户;
实时采集麦克风音频,计算MFCC(对应实施例中的声纹信息);
在用户范围内,将MFCC通过各GMM计算概率,选取最大概率对应的GMM所对应的用户,标记为当前演唱用户。
如图2所示,本发明还提供了一种计算机可读存储介质200。所述计算机可读存储介质200上存储有计算机程序,所述程序被处理器执行时执行以下步骤:
步骤S201:获取歌曲中每段原声演唱的起止时间段。
步骤S202:采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息。在各种数字视听场所中,用户点播好要演唱的歌曲,在歌曲播放的过程中,用户会通过音频输入设备(如麦克风)进行演唱,在用户演唱的过程中采集歌曲播放过程中原声演唱起止时间段中麦克风的输入音频。
步骤S203:将所述声纹信息与预存的声纹模型进行匹配。
步骤S204:优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
通过获取歌曲中每段原声演唱的起止时间段;采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息;将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
通过该方式,
1、无需用户每演唱一首歌,就手动输入身份信息,而是当用户开口演唱时,会自动获取其声音并计算得其声纹信息,进而根据声纹信息在系统预存的声纹模型中寻找与其匹配度高的用户,将该用户标记为当前演唱用户。
2、并非歌曲播放过程中全程采集音频输入设备的输入音频,而是先通过获取歌曲中每段原声演唱的起止时间段,然后采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,使得计算量降低的同时,屏蔽了非演唱时间范围内的干扰音频,提高识别率。
可实时采集音频输入设备的输入音频。但结合到实际应用场景中,在演唱过程中,一般一人会至少演唱一句或多句,故可预先设定采集规则进行多次采集音频输入设备的输入音频。如:
所述“获取歌曲中每段原声演唱的起止时间段”包括:获取每句歌词对应的原声演唱的起止时间段;
所述“采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息”包括:歌曲播放过程中,采集每句歌词对应的原声演唱的起止时间段中音频输入设备的输入音频,并实时计算每句歌词对应的所述输入音频的声纹信息;
所述“将所述声纹信息与预存的声纹模型进行匹配”包括:实时将每句歌词对应的所述输入音频的声纹信息分别与预存的声纹模型进行匹配;
所述“优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”包括:获取每句歌词对应的所述输入音频的声纹信息匹配度高的声纹模型,并将声纹模型对应的用户标记为每句的演唱用户。
如:
播放歌曲《爱你一万年》,获取每句歌词对应的原声演唱的起止时间段,即:当原声开始演唱第一句:寒风吹起细雨迷离,到第一句演唱结束的时间为歌曲播放到15秒至20秒,则在歌曲开始播放的前15秒不进行麦克风音频输入采集,15秒至20秒才进行麦克风音频输入采集,若原声演唱第一句完,5秒后才演唱第二句,同样的这中间5秒不进行麦克风音频输入采集,只有在有原声演唱的时间段才进行麦克风音频输入采集。这样做使得采集的音频数据量少,减少计算量,同时屏蔽了非演唱时间范围内的干扰音频,提高识别率。
同时,在上述的方案中,对每句演唱音频分别进行采集及声纹比对,这样即使演唱过程中多人进行接龙合唱,也能识别出每句的演唱用户身份。当每个用户进行演唱时,可识别出每个用户的身份,界面进行对应用户的相应显示,可大大提高用户的演唱体验。
结合实际应用场景中,因有很多合唱的歌曲,故进一步的,所述“获取歌曲中每段原声演唱的起止时间段”后还包括:获取每段原声演唱的起止时间段中原声演唱者的身份信息,统计原声演唱者个数,及每个原声演唱者演唱的起止时间段。
所述“将所述声纹信息与预存的声纹模型进行匹配”包括:分别获取各个原声演唱者演唱的起止时间段中输入音频的声纹信息,将各个声纹信息分别与预存的声纹模型进行匹配,分别得到与各个声纹信息匹配的声纹模型;每个声纹信息对应一演唱用户。
因实际中遇到男女合唱歌曲时,经常是一男一女对唱,并且男生演唱男生部分歌曲,女生演唱女生部分歌曲,或演绎组合演唱的歌曲时,如演唱twins的歌曲时,经常是一人演唱阿sa的,一人演唱阿娇的,故优选地可获取每段原声演唱的起止时间段中原声演唱者的身份信息,统计原声演唱者个数,及每个原声演唱者演唱的起止时间段。这样可直接统计原唱歌曲中一共有几个演唱者,及每个演唱者的演唱时间段,从而在对应演唱时间段采集的音频基本都可以认定为同一个用户在演唱。当首次将用户声纹与用户身份关联后,后续同个原声演唱者的演唱时间段,可默认是同个用户在演唱,不再继续声纹识别,直接在界面显示对应用户的相关信息,这样可提高显示当前演唱用户身份的效率,降低声纹识别的计算量。当轮到其他原声演唱者的演唱时间段时,再次采集演唱音频。即:如歌曲《今天你要嫁给我》,在原唱中男生演唱:春暖的花开,带走冬天的感伤,微风吹来浪漫的气息,每一首情歌都忽然充满意义,我就在此刻突然见到你;则可以获取这几句歌词时间段内的输入音频的声纹信息,且默认这部分都是同个用户在演唱,只进行一次声纹识别。接下来是女生演唱的时间段,默认是另一个也用户在演唱,也只进行一次声纹识别。故在这种应用场景中,无需演唱一句就获取输入音频,而是根据原声演唱者个数个性化地确认每个原声演唱者演唱的起止时间段,并获取各个原声演唱者演唱的起止时间段中输入音频的声纹信息。这样做结合了实际应用场景可大大提高识别率及识别效率,且降低声纹识别的计算量。
对于声纹模型的获取,在本实施方式中,在所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:
获取用户的身份注册信息和用户演唱的音频,对所述音频进行训练得声纹模型,将同一用户的身份注册信息与声纹模型建立对应关系。
其中,实际应用场景中,在用户使用点歌系统前,用户需先注册个人的身份注册信息(如用户名、头像等)至服务器,并录制一定时长的歌曲(其中需要录制什么条件的歌曲,如录制时长,歌曲风格,录制几首可根据具体采用的声纹模型训练算法来决定),训练得到声纹模型,并将同一用户的身份注册信息与声纹模型建立对应关系。如:A用户的用户名为Miss Lily,则将A的用户名Miss Lily与声纹模型建立对应关系。当识别到声纹模型为MissLily时,则会从数据库中调出跟Miss Lily有关的相关信息,并进行展示。其中所述相关信息至少包括下列中的一种:专属的界面皮肤、演唱历史、演唱用户对应的虚拟形象、演唱用户头像。
训练好声纹模型后,用户在使用点歌系统时,若有需要的话,可优选地通过键盘、会员卡或扫码等方式告知点歌系统其登录了具体的某个包厢。这样做的好处在于,针对该包厢中后续的歌曲演唱过程中,在开始歌曲演唱时,点歌系统可根据用户的登录信息,从服务器中获取所述用户的登录信息对应的声纹模型。即:若四个用户开了A包厢,在开始使用点歌系统进行点歌前,A\B\C\D四个用户在该包厢的点歌系统中进行登录,则点歌系统优选从服务器中只拉取了这四个用户的声纹模型,在后续的声纹信息与声纹模型匹配过程中,只用到这四个用户的声纹模型,这样的好处在于提高匹配速度的同时提高匹配的精准度。即:
所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:获取一个以上用户的登录信息,根据所述用户的登录信息从服务器中获取对应的声纹模型;
所述“将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”,还包括步骤:
将所述声纹信息与所述从服务器中获取的对应的声纹模型进行匹配,优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
因考虑到有些用户嫌还要在点歌系统中进行登录比较麻烦,则亦可以直接将所述声纹信息与服务器中所有的声纹模型进行匹配。具体选择哪种方式,根据实际情况做出选择。
进一步地,为了使得最后呈现的结果更准确。还包括步骤:计算匹配度高的声纹模型的概率值,当所述概率值大于预设值时,将所述匹配度高的声纹模型标记为当前演唱用户。如:在实际演唱过程中,某次采集过程中,可能所有人在玩游戏没有在演唱,或只是某个用户在拿麦克风讲话,则还需计算匹配度高的声纹模型的概率值,当所述概率值大于预设值时,才认定匹配结果有效,反之则认定匹配结果无效。
在本实施方式中,对于训练声音模型与输入音频声纹信息的计算采用的是GMM-UBM算法。需要说明的是,亦可采取其他可行的任意算法。以下对GMM-UBM算法进行具体说明:
GMM-UBM算法,分为训练和识别两阶段。
训练阶段:
录制用户演唱的歌曲。其中歌曲数量、曲风、音域、信道类型越多越好。
比如,这里可以取3首。
计算MFCC(对应实施例中的声纹信息);
用所有用户的MFCC数据训练UBM模型;
通过UBM模型,针对各用户的MFCC,训练得到各用户的GMM模型,当做该用户声纹模型(对应实施例中的声纹模型);
识别阶段:
划定要识别的用户范围,比如上述实施例中,只取点歌前登记到系统的若干个用户;
实时采集麦克风音频,计算MFCC(对应实施例中的声纹信息);
在用户范围内,将MFCC通过各GMM计算概率,选取最大概率对应的GMM所对应的用户,标记为当前演唱用户。
需要说明的是,尽管在本文中已经对上述各实施例进行了描述,但并非因此限制本发明的专利保护范围。因此,基于本发明的创新理念,对本文所述实施例进行的变更和修改,或利用本发明说明书及附图内容所作的等效结构或等效流程变换,直接或间接地将以上技术方案运用在其他相关的技术领域,均包括在本发明的专利保护范围之内。

Claims (8)

1.一种歌曲演唱过程中的用户身份识别方法,其特征在于,包括步骤:
获取歌曲中每段原声演唱的起止时间段;
采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息;
将所述声纹信息与预存的声纹模型进行匹配;
优先将匹配度高的声纹模型对应的用户标记为当前演唱用户;
所述“获取歌曲中每段原声演唱的起止时间段”后还包括:获取每段原声演唱的起止时间段中原声演唱者的身份信息,统计原声演唱者个数,及每个原声演唱者演唱的起止时间段。
2.根据权利要求1所述的一种歌曲演唱过程中的用户身份识别方法,其特征在于,
所述“采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频”步骤前还包括:在数字视听场所播放歌曲。
3.根据权利要求1所述的一种歌曲演唱过程中的用户身份识别方法,其特征在于,
所述“将所述声纹信息与预存的声纹模型进行匹配”包括:分别获取各个原声演唱者演唱的起止时间段中输入音频的声纹信息,将各个声纹信息分别与预存的声纹模型进行匹配,分别得到与各个声纹信息匹配的声纹模型;每个声纹信息对应一演唱用户。
4.根据权利要求1所述的一种歌曲演唱过程中的用户身份识别方法,其特征在于,
所述“获取歌曲中每段原声演唱的起止时间段”包括:获取每句歌词对应的原声演唱的起止时间段;
所述“采集歌曲播放过程中原声演唱起止时间段中音频输入设备的输入音频,并计算所述输入音频的声纹信息”包括:歌曲播放过程中,采集每句歌词对应的原声演唱的起止时间段中音频输入设备的输入音频,并实时计算每句歌词对应的所述输入音频的声纹信息;
所述“将所述声纹信息与预存的声纹模型进行匹配”包括:实时将每句歌词对应的所述输入音频的声纹信息分别与预存的声纹模型进行匹配;
所述“优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”包括:获取每句歌词对应的所述输入音频的声纹信息匹配度高的声纹模型,并将声纹模型对应的用户标记为每句的演唱用户。
5.根据权利要求1所述的一种歌曲演唱过程中的用户身份识别方法,其特征在于,
所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:
获取用户的身份注册信息和用户演唱的音频,对所述音频进行训练得声纹模型,将同一用户的身份注册信息与声纹模型建立对应关系。
6.根据权利要求5所述的一种歌曲演唱过程中的用户身份识别方法,其特征在于,
所述“获取歌曲中每段原声演唱的起止时间段”前,还包括步骤:获取一个以上用户的登录信息,根据所述用户的登录信息从服务器中获取对应的声纹模型;
所述“将所述声纹信息与预存的声纹模型进行匹配;优先将匹配度高的声纹模型对应的用户标记为当前演唱用户”,还包括步骤:
将所述声纹信息与所述从服务器中获取的对应的声纹模型进行匹配,优先将匹配度高的声纹模型对应的用户标记为当前演唱用户。
7.根据权利要求1所述的一种歌曲演唱过程中的用户身份识别方法,其特征在于,还包括步骤:
展示所述当前演唱用户的相关信息,所述相关信息至少包括下列中的一种:专属的界面皮肤、演唱历史、演唱用户对应的虚拟形象、演唱用户头像。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7任一项所述的歌曲演唱过程中的用户身份识别方法。
CN202010385275.7A 2020-05-09 2020-05-09 一种歌曲演唱过程中的用户身份识别方法及存储介质 Active CN111554303B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010385275.7A CN111554303B (zh) 2020-05-09 2020-05-09 一种歌曲演唱过程中的用户身份识别方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010385275.7A CN111554303B (zh) 2020-05-09 2020-05-09 一种歌曲演唱过程中的用户身份识别方法及存储介质

Publications (2)

Publication Number Publication Date
CN111554303A CN111554303A (zh) 2020-08-18
CN111554303B true CN111554303B (zh) 2023-06-02

Family

ID=72004492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010385275.7A Active CN111554303B (zh) 2020-05-09 2020-05-09 一种歌曲演唱过程中的用户身份识别方法及存储介质

Country Status (1)

Country Link
CN (1) CN111554303B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112150997A (zh) * 2020-09-24 2020-12-29 腾讯音乐娱乐科技(深圳)有限公司 确定合唱歌词分配信息的方法、装置、设备及存储介质
WO2022236453A1 (zh) * 2021-05-08 2022-11-17 腾讯音乐娱乐科技(深圳)有限公司 一种声纹识别方法、歌手认证方法、电子设备及存储介质
CN115064176B (zh) * 2022-06-22 2023-06-16 广州市迪声音响有限公司 一种声纹筛系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103680497A (zh) * 2012-08-31 2014-03-26 百度在线网络技术(北京)有限公司 基于视频的语音识别系统及方法
CN109036435A (zh) * 2018-08-15 2018-12-18 深圳平安综合金融服务有限公司上海分公司 基于声纹信息的身份认证及识别方法
CN110503961A (zh) * 2019-09-03 2019-11-26 北京字节跳动网络技术有限公司 音频识别方法、装置、存储介质及电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170287482A1 (en) * 2016-04-05 2017-10-05 SpeakWrite, LLC Identifying speakers in transcription of multiple party conversations
CN106847292B (zh) * 2017-02-16 2018-06-19 平安科技(深圳)有限公司 声纹识别方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103680497A (zh) * 2012-08-31 2014-03-26 百度在线网络技术(北京)有限公司 基于视频的语音识别系统及方法
CN109036435A (zh) * 2018-08-15 2018-12-18 深圳平安综合金融服务有限公司上海分公司 基于声纹信息的身份认证及识别方法
CN110503961A (zh) * 2019-09-03 2019-11-26 北京字节跳动网络技术有限公司 音频识别方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN111554303A (zh) 2020-08-18

Similar Documents

Publication Publication Date Title
CN111554303B (zh) 一种歌曲演唱过程中的用户身份识别方法及存储介质
US20180197548A1 (en) System and method for diarization of speech, automated generation of transcripts, and automatic information extraction
CN108074557B (zh) 音调调整方法、装置及存储介质
CN107895578A (zh) 语音交互方法和装置
CN105989842B (zh) 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用
KR101917216B1 (ko) 보컬 평가 시스템
CN101493831A (zh) 实时本地音乐回放和远程服务器歌词定时同步的系统和方法
CN102404278A (zh) 一种基于声纹识别的点歌系统及其应用方法
CN109147800A (zh) 应答方法和装置
CN107767850A (zh) 一种演唱评分方法及系统
JP5598516B2 (ja) カラオケ用音声合成システム,及びパラメータ抽出装置
CN107770235A (zh) 一种斗歌服务实现方法及系统
JP4970167B2 (ja) 演奏中に高難易度フレーズを歌唱者に報知するカラオケシステム
CN105895079B (zh) 语音数据的处理方法和装置
KR20180043925A (ko) 노래 평가 시스템, 노래 평가 서버 및 노래 평가 서비스 제공 방법
CN105788609B (zh) 多路音源的关联方法和装置及评定方法和系统
JP2008164966A (ja) 歌唱採点機能を備えるカラオケシステム
CN115298733A (zh) 训练好的模型的建立方法、推定方法、演奏代理的推荐方法、演奏代理的调整方法、训练好的模型的建立系统、推定系统、训练好的模型的建立程序及推定程序
CN208507176U (zh) 一种影音交互系统
CN110853457A (zh) 可互动的音乐教学指导方法
JP2005266443A (ja) 個人別曲目帳から自動選曲するカラオケ装置
CN112423000B (zh) 数据处理方法、装置、设备以及介质
CN114613364A (zh) 基于语音控制的音响控制方法及系统
CN113409774A (zh) 语音识别方法、装置及电子设备
CN106649643B (zh) 一种音频数据处理方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant