CN108008930B - 确定k歌分值的方法和装置 - Google Patents
确定k歌分值的方法和装置 Download PDFInfo
- Publication number
- CN108008930B CN108008930B CN201711239668.1A CN201711239668A CN108008930B CN 108008930 B CN108008930 B CN 108008930B CN 201711239668 A CN201711239668 A CN 201711239668A CN 108008930 B CN108008930 B CN 108008930B
- Authority
- CN
- China
- Prior art keywords
- unit
- time
- time unit
- determining
- offset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000001755 vocal effect Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 description 20
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 101100042016 Caenorhabditis elegans npp-20 gene Proteins 0.000 description 1
- 101100065878 Caenorhabditis elegans sec-10 gene Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/025—Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本公开是关于一种确定K歌分值的方法和装置,属于K歌系统技术领域。方法包括:当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;获取在目标歌曲的预设的人声时段中划分得到的多个时间单元;对于每个时间单元,基于预设的调整时长,对时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定时间单元和每个偏移时间单元对应的音高值,基于时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为时间单元对应的分值;基于每个时间单元对应的分值,确定人声音频的总分值。提高对人声音频打分的准确性。
Description
技术领域
本公开是关于K歌系统技术领域,尤其是关于一种确定K歌分值的方法和装置。
背景技术
越来越多的用户选择使用手机中的K歌应用程序进行K歌。在K歌之后,该应用程序可以对用户的演唱进行打分。具体地,K歌应用程序从开始录音时刻就获取采集的人声音频,按照预设的频率提取当前的人声音频对应的音高,将提取的当前的人声音频对应的音高与目标歌曲的当前时刻的标准音高进行比较,若提取的当前的人声音频对应的音高与目标歌曲的当前的标准音高的差值的绝对值小于预设阈值,则获得相应的分值。将所有分值相加,总和为最终分数。
在实现本公开的过程中,发明人发现至少存在以下问题:
由于从用户听到伴奏将歌曲唱出来,到手机采集模拟信号的人声音频,再将模拟信号的人声音频转换为手机的处理器可以处理的数字信号,这个过程存在时延,因此,处理器提取的人声音频对应的音高并不一定是真的当前时刻的采集的人声音频对应的音高。若最终将不是真的当前时刻的人声音频对应的音高与其不对应的当前的标准音高相比较,确定出的分值则不准确。
发明内容
为了克服相关技术中存在的问题,本公开提供了以下技术方案:
根据本公开实施例的第一方面,提供一种确定K歌分值的方法,所述方法包括:
当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;
获取在所述目标歌曲的预设的人声时段中划分得到的多个时间单元;
对于每个时间单元,基于预设的调整时长,对所述时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定所述时间单元和每个偏移时间单元对应的音高值,基于所述时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为所述时间单元对应的分值;
基于每个时间单元对应的分值,确定所述人声音频的总分值。
可选地,每个所述时间单元分别对应所述人声时段中的一个音符,所述时间单元的起始时间点和结束时间点分别为对应的音符的起始时间点和结束时间点。
可选地,所述基于预设的调整时长,对所述时间单元进行时间偏移调整,得到至少一个偏移时间单元,包括:
基于预设的调整时长,对所述时间单元进行预设调整次数的时间偏移调整,每次时间偏移调整得到一个偏移时间单元。
可选地,所述时间单元和每个偏移时间单元分别包含多个单位时长;
所述在采集到的人声音频中,分别确定所述时间单元和每个偏移时间单元对应的音高值,基于所述时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,包括:
在采集到的人声音频中,确定所述时间单元包含的每个单位时长分别对应的音高值,和每个偏移时间单元包含的每个单位时长分别对应的音高值;
根据所述时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定所述时间单元包含的每个单位时长分别对应的中间分值;根据每个偏移时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值;
基于所述时间单元包含的每个单位时长分别对应的中间分值,确定所述时间单元对应的分值;基于每个偏移时间单元包含的每个单位时长分别对应的中间分值,确定每个偏移时间单元对应的分值。
可选地,所述根据所述时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定所述时间单元包含的每个单位时长分别对应的中间分值,包括:
确定所述时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到所述时间单元包含的每个单位时长对应的差值;
根据预先存储的差值范围与中间分值的对应关系,分别确定所述时间单元包含的每个单位时长对应的差值所属的差值范围对应的中间分值;
所述根据每个偏移时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值,包括:
确定每个偏移时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到每个偏移时间单元包含的每个单位时长对应的差值;
根据预先存储的差值范围与中间分值的对应关系,分别确定每个偏移时间单元包含的每个单位时长分别对应的差值所属的差值范围对应的中间分值。
根据本公开实施例的第二方面,提供一种确定K歌分值的装置,所述装置包括:
采集模块,用于当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;
获取模块,用于获取在所述目标歌曲的预设的人声时段中划分得到的多个时间单元;
调整模块,用于对于每个时间单元,基于预设的调整时长,对所述时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定所述时间单元和每个偏移时间单元对应的音高值,基于所述时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为所述时间单元对应的分值;
确定模块,用于基于每个时间单元对应的分值,确定所述人声音频的总分值。
可选地,每个所述时间单元分别对应所述人声时段中的一个音符,所述时间单元的起始时间点和结束时间点分别为对应的音符的起始时间点和结束时间点。
可选地,所述调整模块用于基于预设的调整时长,对所述时间单元进行预设调整次数的时间偏移调整,每次时间偏移调整得到一个偏移时间单元。
可选地,所述时间单元和每个偏移时间单元分别包含多个单位时长;
所述调整模块包括:
第一确定单元,用于在采集到的人声音频中,确定所述时间单元包含的每个单位时长分别对应的音高值,和每个偏移时间单元包含的每个单位时长分别对应的音高值;
第二确定单元,用于根据所述时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定所述时间单元包含的每个单位时长分别对应的中间分值;根据每个偏移时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值;
第三确定单元,用于基于所述时间单元包含的每个单位时长分别对应的中间分值,确定所述时间单元对应的分值;基于每个偏移时间单元包含的每个单位时长分别对应的中间分值,确定每个偏移时间单元对应的分值。
可选地,所述第二确定单元用于确定所述时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到所述时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定所述时间单元包含的每个单位时长对应的差值所属的差值范围对应的中间分值;
所述第二确定单元用于确定每个偏移时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到每个偏移时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定每个偏移时间单元包含的每个单位时长分别对应的差值所属的差值范围对应的中间分值。
根据本公开实施例的第三方面,提供一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述确定K歌分值的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述确定K歌分值的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例提供的方法,当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;获取在目标歌曲的预设的人声时段中划分得到的多个时间单元;对于每个时间单元,基于预设的调整时长,对时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定时间单元和每个偏移时间单元对应的音高值,基于时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为时间单元对应的分值;基于每个时间单元对应的分值,确定人声音频的总分值。这样,在人声音频的采集和处理出现延迟的情况下,在上述处理中,时间单元对应的某偏移时间单元中的人声音频可能是用户在该时间单元时唱出的人声音频,可见,将上述选出的最高分值作为该时间单元的分值,可以使分值不受延迟影响,提高对人声音频打分的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。在附图中:
图1是根据一示例性实施例示出的一种确定K歌分值的方法的流程图;
图2是根据一示例性实施例示出的一种K歌应用程序界面的示意图;
图3是根据一示例性实施例示出的一种获取偏移时间单元的示意图;
图4是根据一示例性实施例示出的一种获取偏移时间单元的示意图;
图5是根据一示例性实施例示出的一种确定K歌分值的装置的结构示意图;
图6是根据一示例性实施例示出的一种确定K歌分值的装置的结构示意图;
图7是根据一示例性实施例示出的一种终端的结构示意图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供了一种确定K歌分值的方法,该方法可以由终端实现。其中,终端可以是手机、平板电脑、台式计算机、笔记本计算机、K歌机等。
终端可以包括处理器、存储器等部件。处理器,可以为CPU(Central ProcessingUnit,中央处理单元)等,可以用于对于每个时间单元,基于预设的调整时长,对时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定时间单元和每个偏移时间单元对应的音高值,基于时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为时间单元对应的分值,等处理。存储器,可以为RAM(Random Access Memory,随机存取存储器),Flash(闪存)等,可以用于存储接收到的数据、处理过程所需的数据、处理过程中生成的数据等,如时间单元的预设的基准音高值等。
终端还可以包括收发器、输入部件、显示部件、音频输出部件等。收发器,可以用于与服务器进行数据传输,例如,可以从服务器获取更新曲库,收发器可以包括蓝牙部件、WiFi(Wireless-Fidelity,无线高保真技术)部件、天线、匹配电路、调制解调器等。输入部件可以是触摸屏、键盘、鼠标等。音频输出部件可以是音箱、耳机等。
终端中可以安装有系统程序和应用程序。用户在使用终端的过程中,基于自己的不同需求,会使用各种各样的应用程序。终端中可以安装有具备K歌功能的应用程序。
本公开一示例性实施例提供了一种确定K歌分值的方法,如图1所示,该方法的处理流程可以包括如下的步骤:
步骤S110,当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频。
在实施中,如图2所示,当用户打开K歌应用程序时,K歌应用程序的主界面中可以显示可以进行K歌的曲目,如曲目1-曲目8。当用户点击选择“曲目4”时,进入曲目4对应的K歌界面,曲目4即为本实施例提供的方法中所述的目标歌曲。在进入曲目4对应的K歌界面后,用户可以看到曲目4的歌词,和图2中三角形的播放按钮。当用户点击该三角形的播放按钮时,终端可以检测到对目标歌曲的K歌指令。当终端检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频。例如,可以控制打开终端中的麦克风,通过麦克风采集环境中的人声音频。
步骤S120,获取在目标歌曲的预设的人声时段中划分得到的多个时间单元。
在实施中,在终端中可以预先建立一个标准库,在该标准库中存储有每个歌曲的标准信息。其中,标准信息可以包括歌曲的每个音符的起始时间点和结束时间点(预设的人声时段),以及每个音符的音高值。其中,结束时间也可以替换为持续时间。可以将通过音频采集设备采集到的人声音频存储于存储器中。然后,基于标准库中目标歌曲对应的标准信息,对采集到的人声音频进行划分,得到多个时间单元。例如,在标准库中预先存储“我爱你中国”的简谱:563517615。简谱中的每个数字即为每个音符。每个音符在目标歌曲中的起始时间点至结束时间点分别为:
5-1分02秒48至1分02秒50;
6-1分02秒51至1分02秒59;
3-1分03秒00至1分03秒01;
5-1分03秒02至1分03秒04;
1-1分03秒05至1分03秒09;
7-1分03秒10至1分03秒13;
6-1分03秒14至1分03秒18;
1-1分03秒19至1分03秒23;
5-1分03秒24至1分03秒49。
对应上述每个音符在目标歌曲中的起始时间点至结束时间点,将采集到的人声音频进行划分。实际上对于人声音频,从伴奏开始响起,记为0分00秒00。因此,从0分00秒00往后推,可以确定人声音频中用户所唱的每个音符对应的时间。最终,将人声音频中“我爱你中国”这句歌,划分为9个时间单元。因此,可选地,每个时间单元分别对应人声时段中的一个音符,时间单元的起始时间点和结束时间点分别为对应的音符的起始时间点和结束时间点。其中,每个时间单元的时间长度是根据音符持续的时间长度来决定的,所以不一定每个时间单元的时间长度都相同。
步骤S130,对于每个时间单元,基于预设的调整时长,对时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定时间单元和每个偏移时间单元对应的音高值,基于时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为时间单元对应的分值。
在实施中,从用户听到伴奏将歌曲唱出来,到终端采集模拟信号的人声音频,再将模拟信号的人声音频转换为终端的处理器可以处理的数字信号,这个过程存在时延,因此,在目标歌曲的预设的人声时段中划分得到的多个时间单元,是产生时延后的时间单元。例如,标准库中记录的“5”这个音符的时间,是从1分03秒02至1分03秒04,而存储器中存储的人声音频中实际的“5”这个音符产生的时间是从1分03秒12至1分03秒14。故而,需要对划分方式进行调整,尽可能将产生时延后的正确的音符对应的时间单元划分出来。具体做法可以是,基于预设的调整时长,对时间单元进行时间偏移调整,得到至少一个偏移时间单元。
在实施中,例如,标准库中记录的“5”这个音符的时间,是从1分03秒02至1分03秒04,可以将1分03秒02、1分03秒04相应地同时加预设时间延长数值。如图3所示,如将1分03秒02、1分03秒04相应地同时加2,得到1分03秒04、1分03秒06。
可选地,基于预设的调整时长,对时间单元进行时间偏移调整,得到至少一个偏移时间单元的步骤可以包括:基于预设的调整时长,对时间单元进行预设调整次数的时间偏移调整,每次时间偏移调整得到一个偏移时间单元。
在实施中,可以执行预设调整次数的基于预设的调整时长,对时间单元进行时间偏移调整。这样对应一个时间单元,可以得到时间偏移调整后的多个偏移时间单元。需要说明的是,预设的调整时长可以是正数也可以是负数。如果预设的调整时长是负数,表示选取了相对于时间单元在时间上靠前的偏移时间单元。如图4所示,再将1分03秒04、1分03秒06相应地同时加2,得到1分03秒06、1分03秒08。再将1分03秒06、1分03秒08相应地同时加2,得到1分03秒08、1分03秒10等等。
在实施中,首先可以确定人声音频的基因频率,然后根据十二平均律确定基因频率对应的音高值。对于确定人声音频的基音频率,可以采用自相关函数算法、YIN算法、PYIN算法。对于一般的一拍音符来说,一拍音符持续的时间长度可能为750ms。对于人声音频的音高值来说一般取值范围为60Hz到1200Hz之间。可以按照预设的周期提取人声音频的音高值,例如每20ms提取出一个人声音频的音高值。由此可见,一个音符持续的时间长度之内可以提取出多个人声音频的音高值。可选地,时间单元和每个偏移时间单元分别包含多个单位时长。该单位时长即为上述提取人声音频的音高值采用的预设的周期。
相应地,在采集到的人声音频中,分别确定时间单元和每个偏移时间单元对应的音高值,基于时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分的步骤可以包括:
(1)在采集到的人声音频中,确定时间单元包含的每个单位时长分别对应的音高值,和每个偏移时间单元包含的每个单位时长分别对应的音高值。
(2)根据时间单元包含的每个单位时长分别对应的音高值和时间单元的预设的基准音高值,确定时间单元包含的每个单位时长分别对应的中间分值;根据每个偏移时间单元包含的每个单位时长分别对应的音高值和时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值。
(3)基于时间单元包含的每个单位时长分别对应的中间分值,确定时间单元对应的分值;基于每个偏移时间单元包含的每个单位时长分别对应的中间分值,确定每个偏移时间单元对应的分值。
在实施中,例如,对于一个音符,时间单元包含的每个单位时长分别对应的音高值为:67、68、68、67、68。偏移时间单元包含的每个单位时长分别对应的音高值为:68、70、71、72、71。时间单元的预设的基准音高值为70。根据上述数据可以确定每个偏移时间单元包含的每个单位时长分别对应的中间分值。
可选地,提供一种确定中间分值的方式。根据时间单元包含的每个单位时长分别对应的音高值和时间单元的预设的基准音高值,确定时间单元包含的每个单位时长分别对应的中间分值的步骤可以包括:确定时间单元包含的每个单位时长分别对应的音高值与时间单元的预设的基准音高值之间的差值,得到时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定时间单元包含的每个单位时长对应的差值所属的差值范围对应的中间分值。根据每个偏移时间单元包含的每个单位时长分别对应的音高值和时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值的步骤可以包括:确定每个偏移时间单元包含的每个单位时长分别对应的音高值与时间单元的预设的基准音高值之间的差值,得到每个偏移时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定每个偏移时间单元包含的每个单位时长分别对应的差值所属的差值范围对应的中间分值。
在实施中,接上例,时间单元包含的每个单位时长对应的差值为:-3、-2、-2、-3、-2。偏移时间单元包含的每个单位时长对应的差值为:-2、0、1、2、1。假如,差值为0得a分,差值的绝对值在1以内(包括1)得b分,差值的绝对值在2以内(包括2)在1以外(不包括1)得c分,差值的绝对值在2以外(不包括2)不得分,且a分大于b分大于c分,则可以分别确定时间单元包含的每个单位时长对应的差值所属的差值范围对应的中间分值,分别确定偏移时间单元包含的每个单位时长分别对应的差值所属的差值范围对应的中间分值。
在实施中,基于时间单元包含的每个单位时长分别对应的中间分值之后,可以确定时间单元对应的分值。基于每个偏移时间单元包含的每个单位时长分别对应的中间分值之后,可以确定每个偏移时间单元对应的分值。可以通过下述公式计算时间单元对应的分值或者每个偏移时间单元对应的分值:
其中,y为时间单元对应的分值或者每个偏移时间单元对应的分值。d、e、f分别为对应a分、b分、c分的权重,其取值可以在0-1之间,根据需求进行调整。a、b、c为分值。p、q、t分别为a分的个数、b分的个数、c分的个数。
在实施中,最后,可以将打分的最高分值确定为时间单元对应的分值。例如,时间单元对应的分值为20分,偏移时间单元1对应的分值为25分、偏移时间单元2对应的分值对应的分值为27分、偏移时间单元3对应的分值为37分,偏移时间单元4对应的分值为40分、偏移时间单元5对应的分值为32分,将偏移时间单元4对应的分值40分确定为时间单元对应的分值。
可选地,在确定打分的最高分值为时间单元对应的分值的同时,还可以确定打分的最高分值所对应的时间单元或者偏移时间单元的偏移距离。如果最高分值所对应的是时间单元,则偏移距离为0。如果最高分值所对应的是偏移时间单元的偏移距离,如最高分值所对应的是偏移时间单元4,则可以确定偏移时间单元4相对于时间单元的偏移距离。如果预设的调整时长为2,则偏移时间单元1相对于时间单元的偏移距离为2,偏移时间单元2相对于时间单元的偏移距离为4,偏移时间单元3相对于时间单元的偏移距离为6,偏移时间单元4相对于时间单元的偏移距离为8。故而,可以确定偏移时间单元4相对于时间单元的偏移距离为8,即打分的最高分值所对应的时间单元或者偏移时间单元的偏移距离为8。需要说明的是,如果出现了多个相同的打分的最高分值时,则选取多个相同的打分的最高分值对应的偏移距离的绝对值最小的偏移距离。在确定每个音符的偏移距离之后,可以计算目标歌曲的偏移距离的平均值,或者计算目标歌曲中一句歌的偏移距离的平均值。然后,计算每个打分的最高分值所对应的时间单元或者偏移时间单元的偏移距离与平均值的差值的绝对值。如果每个绝对值都小于预设的距离阈值如预设的调整时长的一半,则可以确定偏移距离对应的打分的最高分值为时间单元对应的分值。这样,假如由于标准音高库与伴奏的时刻整体存在偏差,又或者由于K歌系统存在延迟等原因,但是用户是根据伴奏的节奏唱的,因此用户唱的每句歌的音高值可能都会与标准音高值有偏差,最终得到的结果就是基本所有最高分值都是在偏移时间单元相较于时间单元在时间上靠前或靠后的单元中产生,即每个打分的最高分值所对应的时间单元或者偏移时间单元的偏移距离与平均值的差值的绝对值都小于预设的距离阈值。
步骤S140,基于每个时间单元对应的分值,确定人声音频的总分值。
在实施中,在确定人声音频中每个音符即每个时间单元对应的分值之后,将它们相加,得到的总分可以确定为人声音频的总分值。
本公开实施例提供的方法,当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;获取在目标歌曲的预设的人声时段中划分得到的多个时间单元;对于每个时间单元,基于预设的调整时长,对时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定时间单元和每个偏移时间单元对应的音高值,基于时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为时间单元对应的分值;基于每个时间单元对应的分值,确定人声音频的总分值。这样,在人声音频的采集和处理出现延迟的情况下,在上述处理中,时间单元对应的某偏移时间单元中的人声音频可能是用户在该时间单元时唱出的人声音频,可见,将上述选出的最高分值作为该时间单元的分值,可以使分值不受延迟影响,提高对人声音频打分的准确性。
本公开又一示例性实施例提供了一种确定K歌分值的装置,如图5所示,该装置包括:
采集模块510,用于当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;
获取模块520,用于获取在所述目标歌曲的预设的人声时段中划分得到的多个时间单元;
调整模块530,用于对于每个时间单元,基于预设的调整时长,对所述时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定所述时间单元和每个偏移时间单元对应的音高值,基于所述时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为所述时间单元对应的分值;
确定模块540,用于基于每个时间单元对应的分值,确定所述人声音频的总分值。
可选地,每个所述时间单元分别对应所述人声时段中的一个音符,所述时间单元的起始时间点和结束时间点分别为对应的音符的起始时间点和结束时间点。
可选地,所述调整模块530用于基于预设的调整时长,对所述时间单元进行预设调整次数的时间偏移调整,每次时间偏移调整得到一个偏移时间单元。
可选地,所述时间单元和每个偏移时间单元分别包含多个单位时长;
如图6所示,所述调整模块530包括:
第一确定单元631,用于在采集到的人声音频中,确定所述时间单元包含的每个单位时长分别对应的音高值,和每个偏移时间单元包含的每个单位时长分别对应的音高值;
第二确定单元632,用于根据所述时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定所述时间单元包含的每个单位时长分别对应的中间分值;根据每个偏移时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值;
第三确定单元633,用于基于所述时间单元包含的每个单位时长分别对应的中间分值,确定所述时间单元对应的分值;基于每个偏移时间单元包含的每个单位时长分别对应的中间分值,确定每个偏移时间单元对应的分值。
可选地,所述第二确定单元632用于确定所述时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到所述时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定所述时间单元包含的每个单位时长对应的差值所属的差值范围对应的中间分值;
所述第二确定单元632用于确定每个偏移时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到每个偏移时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定每个偏移时间单元包含的每个单位时长分别对应的差值所属的差值范围对应的中间分值。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
这样,在人声音频的采集和处理出现延迟的情况下,在上述处理中,时间单元对应的某偏移时间单元中的人声音频可能是用户在该时间单元时唱出的人声音频,可见,将上述选出的最高分值作为该时间单元的分值,可以使分值不受延迟影响,提高对人声音频打分的准确性。
需要说明的是:上述实施例提供的确定K歌分值的装置在确定K歌分值时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将终端的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的确定K歌分值的装置与确定K歌分值的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7示出了本发明一个示例性实施例提供的终端700的结构框图。该终端700可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端700还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端700包括有:处理器701和存储器702。
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器701所执行以实现本申请中方法实施例提供的确定K歌分值的方法。
在一些实施例中,终端700还可选包括有:外围设备接口703和至少一个外围设备。处理器701、存储器702和外围设备接口703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口703相连。具体地,外围设备包括:射频电路704、触摸显示屏705、摄像头706、音频电路707、定位组件708和电源709中的至少一种。
外围设备接口703可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和外围设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和外围设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路704用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏705用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置终端700的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在终端700的不同表面或呈折叠设计;在再一些实施例中,显示屏705可以是柔性显示屏,设置在终端700的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件706用于采集图像或视频。可选地,摄像头组件706包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路707可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端700的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
定位组件708用于定位终端700的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件708可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源709用于为终端700中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端700还包括有一个或多个传感器710。该一个或多个传感器710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器716。
加速度传感器711可以检测以终端700建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制触摸显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器712可以检测终端700的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对终端700的3D动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器713可以设置在终端700的侧边框和/或触摸显示屏705的下层。当压力传感器713设置在终端700的侧边框时,可以检测用户对终端700的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在触摸显示屏705的下层时,由处理器701根据用户对触摸显示屏705的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器714用于采集用户的指纹,由处理器701根据指纹传感器714采集到的指纹识别用户的身份,或者,由指纹传感器714根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器701授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器714可以被设置终端700的正面、背面或侧面。当终端700上设置有物理按键或厂商Logo时,指纹传感器714可以与物理按键或厂商Logo集成在一起。
光学传感器715用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器715采集的环境光强度,控制触摸显示屏705的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏705的显示亮度;当环境光强度较低时,调低触摸显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器715采集的环境光强度,动态调整摄像头组件706的拍摄参数。
接近传感器716,也称距离传感器,通常设置在终端700的前面板。接近传感器716用于采集用户与终端700的正面之间的距离。在一个实施例中,当接近传感器716检测到用户与终端700的正面之间的距离逐渐变小时,由处理器701控制触摸显示屏705从亮屏状态切换为息屏状态;当接近传感器716检测到用户与终端700的正面之间的距离逐渐变大时,由处理器701控制触摸显示屏705从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对终端700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种确定K歌分值的方法,其特征在于,所述方法包括:
当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;
获取在所述目标歌曲的预设的人声时段中划分得到的多个时间单元;
对于每个时间单元,基于预设的调整时长,对所述时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定所述时间单元和每个偏移时间单元对应的音高值,基于所述时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为所述时间单元对应的分值,每个所述时间单元对应所述人声时段中的一个音符,所述时间单元的起始时间点和结束时间点分别为对应的音符的起始时间点和结束时间点;
基于每个时间单元对应的分值,确定所述人声音频的总分值。
2.根据权利要求1所述的方法,其特征在于,所述基于预设的调整时长,对所述时间单元进行时间偏移调整,得到至少一个偏移时间单元,包括:
基于预设的调整时长,对所述时间单元进行预设调整次数的时间偏移调整,每次时间偏移调整得到一个偏移时间单元。
3.根据权利要求1所述的方法,其特征在于,所述时间单元和每个偏移时间单元分别包含多个单位时长;
所述在采集到的人声音频中,分别确定所述时间单元和每个偏移时间单元对应的音高值,基于所述时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,包括:
在采集到的人声音频中,确定所述时间单元包含的每个单位时长分别对应的音高值,和每个偏移时间单元包含的每个单位时长分别对应的音高值;
根据所述时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定所述时间单元包含的每个单位时长分别对应的中间分值;根据每个偏移时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值;
基于所述时间单元包含的每个单位时长分别对应的中间分值,确定所述时间单元对应的分值;基于每个偏移时间单元包含的每个单位时长分别对应的中间分值,确定每个偏移时间单元对应的分值。
4.根据权利要求3所述的方法,其特征在于,所述根据所述时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定所述时间单元包含的每个单位时长分别对应的中间分值,包括:
确定所述时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到所述时间单元包含的每个单位时长对应的差值;
根据预先存储的差值范围与中间分值的对应关系,分别确定所述时间单元包含的每个单位时长对应的差值所属的差值范围对应的中间分值;
所述根据每个偏移时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值,包括:
确定每个偏移时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到每个偏移时间单元包含的每个单位时长对应的差值;
根据预先存储的差值范围与中间分值的对应关系,分别确定每个偏移时间单元包含的每个单位时长分别对应的差值所属的差值范围对应的中间分值。
5.一种确定K歌分值的装置,其特征在于,所述装置包括:
采集模块,用于当检测到对目标歌曲的K歌指令时,通过音频采集设备采集人声音频;
获取模块,用于获取在所述目标歌曲的预设的人声时段中划分得到的多个时间单元;
调整模块,用于对于每个时间单元,基于预设的调整时长,对所述时间单元进行时间偏移调整,得到至少一个偏移时间单元,在采集到的人声音频中,分别确定所述时间单元和每个偏移时间单元对应的音高值,基于所述时间单元的预设的基准音高值,分别对确定出的每个音高值进行打分,将打分的最高分值确定为所述时间单元对应的分值,每个所述时间单元对应所述人声时段中的一个音符,所述时间单元的起始时间点和结束时间点分别为对应的音符的起始时间点和结束时间点;
确定模块,用于基于每个时间单元对应的分值,确定所述人声音频的总分值。
6.根据权利要求5所述的装置,其特征在于,所述调整模块用于基于预设的调整时长,对所述时间单元进行预设调整次数的时间偏移调整,每次时间偏移调整得到一个偏移时间单元。
7.根据权利要求5所述的装置,其特征在于,所述时间单元和每个偏移时间单元分别包含多个单位时长;
所述调整模块包括:
第一确定单元,用于在采集到的人声音频中,确定所述时间单元包含的每个单位时长分别对应的音高值,和每个偏移时间单元包含的每个单位时长分别对应的音高值;
第二确定单元,用于根据所述时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定所述时间单元包含的每个单位时长分别对应的中间分值;根据每个偏移时间单元包含的每个单位时长分别对应的音高值和所述时间单元的预设的基准音高值,确定每个偏移时间单元包含的每个单位时长分别对应的中间分值;
第三确定单元,用于基于所述时间单元包含的每个单位时长分别对应的中间分值,确定所述时间单元对应的分值;基于每个偏移时间单元包含的每个单位时长分别对应的中间分值,确定每个偏移时间单元对应的分值。
8.根据权利要求7所述的装置,其特征在于,所述第二确定单元用于确定所述时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到所述时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定所述时间单元包含的每个单位时长对应的差值所属的差值范围对应的中间分值;
所述第二确定单元用于确定每个偏移时间单元包含的每个单位时长分别对应的音高值与所述时间单元的预设的基准音高值之间的差值,得到每个偏移时间单元包含的每个单位时长对应的差值;根据预先存储的差值范围与中间分值的对应关系,分别确定每个偏移时间单元包含的每个单位时长分别对应的差值所属的差值范围对应的中间分值。
9.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1-4任一所述的确定K歌分值的方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1-4任一所述的确定K歌分值的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711239668.1A CN108008930B (zh) | 2017-11-30 | 2017-11-30 | 确定k歌分值的方法和装置 |
US16/621,628 US11341946B2 (en) | 2017-11-30 | 2018-11-27 | Method for determining a karaoke singing score, terminal and computer-readable storage medium |
PCT/CN2018/117768 WO2019105351A1 (zh) | 2017-11-30 | 2018-11-27 | 确定k歌分值的方法和装置 |
EP18882740.6A EP3624120A4 (en) | 2017-11-30 | 2018-11-27 | KARAOKE SCORE DETERMINATION METHOD AND DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711239668.1A CN108008930B (zh) | 2017-11-30 | 2017-11-30 | 确定k歌分值的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108008930A CN108008930A (zh) | 2018-05-08 |
CN108008930B true CN108008930B (zh) | 2020-06-30 |
Family
ID=62055416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711239668.1A Active CN108008930B (zh) | 2017-11-30 | 2017-11-30 | 确定k歌分值的方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11341946B2 (zh) |
EP (1) | EP3624120A4 (zh) |
CN (1) | CN108008930B (zh) |
WO (1) | WO2019105351A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108008930B (zh) | 2017-11-30 | 2020-06-30 | 广州酷狗计算机科技有限公司 | 确定k歌分值的方法和装置 |
CN108711415B (zh) * | 2018-06-11 | 2021-10-08 | 广州酷狗计算机科技有限公司 | 纠正伴奏和干音之间的时延的方法、装置及存储介质 |
CN109003627B (zh) * | 2018-09-07 | 2021-02-12 | 广州酷狗计算机科技有限公司 | 确定音频得分的方法、装置、终端及存储介质 |
CN108962286B (zh) * | 2018-10-15 | 2020-12-01 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频识别方法、装置及存储介质 |
CN109300485B (zh) * | 2018-11-19 | 2022-06-10 | 北京达佳互联信息技术有限公司 | 音频信号的评分方法、装置、电子设备及计算机存储介质 |
CN109858237A (zh) * | 2019-03-05 | 2019-06-07 | 广州酷狗计算机科技有限公司 | 音频数据采集方法、装置、终端及存储介质 |
CN110718239A (zh) * | 2019-10-15 | 2020-01-21 | 北京达佳互联信息技术有限公司 | 音频处理方法、装置、电子设备及存储介质 |
CN111061405B (zh) * | 2019-12-13 | 2021-08-27 | 广州酷狗计算机科技有限公司 | 录制歌曲音频的方法、装置、设备及存储介质 |
CN111081277B (zh) * | 2019-12-19 | 2022-07-12 | 广州酷狗计算机科技有限公司 | 音频测评的方法、装置、设备及存储介质 |
CN111326132B (zh) * | 2020-01-22 | 2021-10-22 | 北京达佳互联信息技术有限公司 | 音频处理方法、装置、存储介质及电子设备 |
CN111862912A (zh) * | 2020-07-10 | 2020-10-30 | 咪咕文化科技有限公司 | 曲谱显示方法、装置、服务器及存储介质 |
CN112383810A (zh) * | 2020-11-10 | 2021-02-19 | 北京字跳网络技术有限公司 | 歌词视频展示方法、装置、电子设备及计算机可读介质 |
CN113823270B (zh) * | 2021-10-28 | 2024-05-03 | 杭州网易云音乐科技有限公司 | 节奏评分的确定方法、介质、装置和计算设备 |
CN114333742B (zh) * | 2021-12-27 | 2024-07-05 | 北京达佳互联信息技术有限公司 | 多轨伴奏生成方法、多轨伴奏生成模型的训练方法及装置 |
CN115394317A (zh) * | 2022-08-24 | 2022-11-25 | 广州趣丸网络科技有限公司 | 一种音频评测方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008040259A (ja) * | 2006-08-08 | 2008-02-21 | Yamaha Corp | 楽曲練習支援装置、動的時間整合モジュールおよびプログラム |
JP2016050974A (ja) * | 2014-08-29 | 2016-04-11 | 株式会社第一興商 | カラオケ採点システム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2403662B (en) * | 2003-07-09 | 2008-01-16 | Sony Comp Entertainment Europe | Game processing |
JP2005107332A (ja) | 2003-09-30 | 2005-04-21 | Yamaha Corp | カラオケ装置 |
CN101859560B (zh) * | 2009-04-07 | 2014-06-04 | 林文信 | 卡拉ok歌曲伴唱自动评分方法 |
AU2011240621B2 (en) * | 2010-04-12 | 2015-04-16 | Smule, Inc. | Continuous score-coded pitch correction and harmony generation techniques for geographically distributed glee club |
CN105788581B (zh) * | 2014-12-15 | 2019-05-31 | 深圳Tcl新技术有限公司 | 卡拉ok评分方法和装置 |
CN104978982B (zh) * | 2015-04-02 | 2018-01-05 | 广州酷狗计算机科技有限公司 | 一种流媒体版本对齐方法,及设备 |
CN106157977B (zh) * | 2015-04-10 | 2019-11-15 | 科大讯飞股份有限公司 | 一种唱歌评测方法及系统 |
CN106057213B (zh) * | 2016-06-30 | 2018-08-03 | 广州酷狗计算机科技有限公司 | 一种显示人声音高数据的方法和装置 |
CN106782600B (zh) * | 2016-12-29 | 2020-04-24 | 广州酷狗计算机科技有限公司 | 音频文件的评分方法及装置 |
CN108008930B (zh) * | 2017-11-30 | 2020-06-30 | 广州酷狗计算机科技有限公司 | 确定k歌分值的方法和装置 |
CN108834037B (zh) * | 2018-06-12 | 2019-09-13 | 广州酷狗计算机科技有限公司 | 播放音频数据的方法和装置 |
-
2017
- 2017-11-30 CN CN201711239668.1A patent/CN108008930B/zh active Active
-
2018
- 2018-11-27 US US16/621,628 patent/US11341946B2/en active Active
- 2018-11-27 EP EP18882740.6A patent/EP3624120A4/en active Pending
- 2018-11-27 WO PCT/CN2018/117768 patent/WO2019105351A1/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008040259A (ja) * | 2006-08-08 | 2008-02-21 | Yamaha Corp | 楽曲練習支援装置、動的時間整合モジュールおよびプログラム |
JP2016050974A (ja) * | 2014-08-29 | 2016-04-11 | 株式会社第一興商 | カラオケ採点システム |
Also Published As
Publication number | Publication date |
---|---|
WO2019105351A1 (zh) | 2019-06-06 |
US20200168198A1 (en) | 2020-05-28 |
CN108008930A (zh) | 2018-05-08 |
EP3624120A4 (en) | 2020-08-12 |
US11341946B2 (en) | 2022-05-24 |
EP3624120A1 (en) | 2020-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108008930B (zh) | 确定k歌分值的方法和装置 | |
CN108683927B (zh) | 主播推荐方法、装置及存储介质 | |
CN110688082B (zh) | 确定音量的调节比例信息的方法、装置、设备及存储介质 | |
CN108538302B (zh) | 合成音频的方法和装置 | |
CN109300485B (zh) | 音频信号的评分方法、装置、电子设备及计算机存储介质 | |
CN111048111B (zh) | 检测音频的节奏点的方法、装置、设备及可读存储介质 | |
CN110956971B (zh) | 音频处理方法、装置、终端及存储介质 | |
WO2022111168A1 (zh) | 视频的分类方法和装置 | |
CN109448761B (zh) | 播放歌曲的方法和装置 | |
CN108848394A (zh) | 视频直播方法、装置、终端及存储介质 | |
CN109192223B (zh) | 音频对齐的方法和装置 | |
CN111081277B (zh) | 音频测评的方法、装置、设备及存储介质 | |
CN110867194B (zh) | 音频的评分方法、装置、设备及存储介质 | |
CN111092991B (zh) | 歌词显示方法及装置、计算机存储介质 | |
CN110152309B (zh) | 语音通信方法、装置、电子设备及存储介质 | |
CN111368136A (zh) | 歌曲识别方法、装置、电子设备及存储介质 | |
CN113963707A (zh) | 音频处理方法、装置、设备和存储介质 | |
CN109003627B (zh) | 确定音频得分的方法、装置、终端及存储介质 | |
CN110377208B (zh) | 音频播放方法、装置、终端和计算机可读存储介质 | |
CN109036463B (zh) | 获取歌曲的难度信息的方法、装置及存储介质 | |
CN109491636A (zh) | 音乐播放方法、装置及存储介质 | |
CN108831423A (zh) | 提取音频数据中主旋律音轨的方法、装置、终端及存储介质 | |
CN111063372B (zh) | 确定音高特征的方法、装置、设备及存储介质 | |
CN112992107A (zh) | 训练声学转换模型的方法、终端及存储介质 | |
CN113204673A (zh) | 音频处理方法、装置、终端及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |