CN106486128A - 一种双音源音频数据的处理方法及装置 - Google Patents

一种双音源音频数据的处理方法及装置 Download PDF

Info

Publication number
CN106486128A
CN106486128A CN201610852918.8A CN201610852918A CN106486128A CN 106486128 A CN106486128 A CN 106486128A CN 201610852918 A CN201610852918 A CN 201610852918A CN 106486128 A CN106486128 A CN 106486128A
Authority
CN
China
Prior art keywords
song
accompaniment
lyrics
audio
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610852918.8A
Other languages
English (en)
Other versions
CN106486128B (zh
Inventor
赵伟峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201610852918.8A priority Critical patent/CN106486128B/zh
Publication of CN106486128A publication Critical patent/CN106486128A/zh
Priority to EP17854792.3A priority patent/EP3522151B1/en
Priority to PCT/CN2017/103106 priority patent/WO2018059342A1/zh
Priority to US16/100,698 priority patent/US10776422B2/en
Application granted granted Critical
Publication of CN106486128B publication Critical patent/CN106486128B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0018Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/366Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/036File multilingual, e.g. multilingual lyrics for karaoke
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/135Autocorrelation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明涉及计算机信息处理技术领域,具体是一种双音源音频数据的处理方法及装置。本发明从歌曲数据库中筛选出伴奏相同但演唱不同的两首歌曲作为同源歌曲对,对同源歌曲对的音频数据执行解码、合并处理,得到双声道音频数据,并将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制,从而产生双音轮唱的效果,为用户提供全新的音乐体验内容,是一种新颖的音乐合成方案,兼具合成效率高、成本低的优势。

Description

一种双音源音频数据的处理方法及装置
技术领域
本发明涉及计算机信息处理技术领域,具体是一种双音源音频数据的处理方法及装置。
背景技术
随着多媒体设备的普及,人们希望从音乐中获取更多乐趣,除了聆听单一音乐外,混音音乐、串烧歌曲也得到大家的追捧。
发明内容
为了克服现有技术的缺陷,本发明提供一种双音源音频数据处理方法及装置,本发明将伴奏相同但演唱不同的两首歌曲进行自动合成,为用户提供一种全新的体验内容,提升了用户体验。
本发明采用如下的技术方案:
一方面,本发明提供一种双音源音频数据的处理方法,所述方法包括:
获取一同源歌曲对的音频数据,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲;
分别对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据;
将两个单声道音频数据合并为一个双声道音频数据;
将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。
另一方面,本发明提供一种双音源音频数据的处理装置,所述装置包括:
获取模块,用于获取一同源歌曲对的音频数据,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲;
解码模块,用于分别对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据;
合并模块,用于将两个单声道音频数据合并为一个双声道音频数据;
处理模块,用于将双声道音频对应的播放时间切分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。
本发明的有益效果是:
本发明将伴奏相同但演唱不同的两首歌曲作为同源歌曲对,通过对同源歌曲对的音频数据解码得到两个单声道音频数据,将两个单声道音频数据合并成双声道音频数据,并将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制,实现了伴奏相同但演唱不同的两首歌曲交替演唱的效果,是一种新颖的音乐自动合成方案,为用户提供了崭新的内容。由于用于合成处理的两首歌曲歌词信息和伴奏信息均相同,因而处理得到的音频非常柔和,不会产生突兀感,具有舒适的聆听效果,利于提升用户体验。此外,与采用歌手现场演唱来录制音乐作品的方式相比,本发明具有投入成本低且合成效率高的优点。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明实施例提供的双音源音频数据的处理方法的场景示意图;
图2是本发明实施例提供的一种双音源音频数据的处理方法的流程示意图;
图3是本发明实施例提供的获取同源歌曲对的方法的流程示意图;
图4是本发明实施例提供的一同源歌曲对的歌词文件的示意图;
图5是本发明实施例提供的一同源歌曲对的伴奏文件的示意图;
图6是本发明实施例提供的一种双音源音频数据的处理装置的结构示意图;
图7是本发明实施例提供的一种双音源音频数据的处理装置的结构示意图;
图8是本发明实施例提供的音频数据处理装置的获取模块的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
在以下的说明中,本发明的具体实施例将参考由一部或多部计算机所执行的步骤及符号来说明,除非另有述明。因此,这些步骤及操作将有数次提到由计算机执行,本文所指的计算机执行包括了由代表了以一结构化型式中的数据的电子信号的计算机处理单元的操作。此操作转换该数据或将其维持在该计算机的内存系统中的位置处,其可重新配置或另外以本领域测试人员所熟知的方式来改变该计算机的运作。该数据所维持的数据结构为该内存的实体位置,其具有由该数据格式所定义的特定特性。但是,本发明原理以上述文字来说明,其并不代表为一种限制,本领域测试人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
本文所使用的术语「模块」可看做为在该运算系统上执行的软件对象。本文所述的不同组件、模块、引擎及服务可看做为在该运算系统上的实施对象。而本文所述的装置及方法优选的以软件的方式进行实施,当然也可在硬件上进行实施,均在本发明保护范围之内。
本发明实施例提供一种双音源音频数据处理方法及装置。
参见附图1,该图为本发明实施例所提供的双音源音频数据处理方法的场景示意图,该场景可以包括音频数据的处理装置,其运行于服务器200中,简称音频处理装置300,主要用于获取同源歌曲对的音频数据,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲;然后,分别对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据;随后,将两个单声道音频数据合并为一个双声道音频数据;最后,将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制,得到处理后的音频数据。
此外,该场景还可以包括歌曲数据库100,该歌曲数据库中存储有大量的歌曲信息,其中包含歌曲相应的伴奏文件、歌词文件以及音频数据;音频处理装置300根据歌曲数据库100中歌曲的歌词文件和伴奏文件,筛选出伴奏相同但演唱不同的两首歌曲组成同源歌曲对,当然,该场景中还可以包括用户终端400,如手机、平板电脑等,该用户终端包括输入装置(如键盘、鼠标等)以及输出装置(如屏幕、功放等),用户通过输入装置触发选择音频处理装置300处理后的音频数据,通过输出装置播放处理后的音频数据,等等。
以下将分别进行详细说明。
实施例一
在本实施例从音频处理装置的角度进行描述,该音频处理装置具体可以集成在服务器或网关等网络设备中。
一种双音源音频数据处理方法,包括:获取一同源歌曲对的音频数据,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲;分别对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据;将两个单声道音频数据合并为一个双声道音频数据;将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。
参见图2,图2是本发明实施例一提供的一种双音源音频数据的处理方法的流程示意图。所述方法包括:
S201、获取一同源歌曲对的音频数据。
其中,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲,所述演唱不同是指演唱者不同或者演唱语言不同。同源歌曲对可以是同一首歌曲被同一个演唱者用两种不同的语言演唱而得到的两首歌曲,如:陈奕迅用国语演唱的《红玫瑰》和用粤语演唱的《白玫瑰》,《红玫瑰》和《白玫瑰》的演唱不同但伴奏相同,可作为一同源歌曲对。同源歌曲对也可以是不同的演唱者演唱同一首歌曲而得到的两首歌曲,如Megan Nicole与Alex均演唱了歌曲《Maps》,Megan Nicole演唱的《Maps》和Alex演唱的《Maps》可作为一同源歌曲对。总而言之,需要从歌曲数据库中找到采用了相同伴奏但演唱不同的两首歌曲组成歌曲对。
S202、分别对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据。
S203、将两个单声道音频数据合并为一个双声道音频数据。
S204、将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。
具体地,所述双声道音频对应的播放时间包括每句歌词的时间信息,该时间信息可以是每句歌词的起始时间和结束时间,可替代地,该时间信息也可以是每一句歌词的起始时间和持续时长。具体地,可以根据每句歌词的时间信息将所述播放时间切分为多个播放时段,所述播放时段的数量与歌词的句子数目一致,达到两种声音各唱一句的效果;也可以将歌词划分为多个段落,按照歌词段落来划分播放时段,即:将一句或多句歌词作为一段,以段落中第一句歌词的起使时间作为该播放时段的起始时间,以段落中最后一句歌词对应的结束时间作为该播放时段的结束时间;来实现两种声音各唱一段的效果。
在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。可以在不同的播放时段对左声道和右声道交替抑制;也可以按照预设规则分别对左声道或右声道进行能量抑制,例如:在连续的多个播放时段内抑制同一声道,或者在某些播放时段内对左声道和右声道都不抑制,或者仅在播放时段的部分时间内对左声道或右声道进行能量抑制。其中,仅在播放时段的部分时间内对左声道或右声道进行能量抑制,可以实现同一播放时段对应的歌曲部分由两种声音交替完成,如声音A唱歌词句子的上半句,声音B唱歌词句子的下半句。
在任意一个播放时段对音频进行能量抑制的具体方法为:
a)在进入播放时段前的预设时间内,对需要进行能量抑制的声道施加淡出效果;
b)在播放时段内,将需进行能量抑制的声道的音频采样点全部置0;
c)在退出播放时段后的预设时间内,对所述声道施加淡入效果。
进一步地,在执行完步骤S204之后,还可以将处理后的音频数据展示给用户,如供用户聆听。
参见图3,图3是本发明实施例一提供的获取同源歌曲对的方法的流程示意图。所述方法包括:
S301、获取候选歌曲对的歌曲信息,所述歌曲信息包括两首歌曲对应的歌词文件和伴奏文件。
在获取候选歌曲对的歌曲信息后,可以根据候选歌曲对的歌曲信息建立歌曲对列表。具体地,可以通过以下方法获取候选歌曲对的歌曲信息。
(1)在歌曲数据库中搜索所有歌曲名相同但歌手名不同的歌曲,将搜索得到的所有歌曲进行两两组合,得到候选歌曲对,进而从歌曲数据库中提取该候选歌曲对的歌曲信息。
例如:在QQ音乐曲库中搜索歌曲名为“爱”的所有歌曲,搜索结果包括小虎队演唱的《爱》、莫文蔚演唱的《爱》及TFBOYS演唱的《爱》,根据两两组合原则,可以将小虎队演唱的《爱》和莫文蔚演唱的《爱》作为一个候选歌曲对,将小虎队演唱的《爱》与TFBOYS演唱的《爱》作为一个候选歌曲对,将莫文蔚演唱的《爱》与TFBOYS演唱的《爱》作为一个候选歌曲对。
(2)在同一位歌手的所有歌曲中搜索标注有语言标签的歌曲,语言标签是用于标识歌曲的,一般包括歌曲名和语言版本,将标注有语言标签的一首歌曲和与语言标签中的歌曲名对应的另一首歌曲作为一个候选歌曲对,获取该候选歌曲对的歌曲信息。
例如:在歌手陈奕迅的歌曲列表中,搜索到歌曲《白玫瑰》的语言标签为红玫瑰粤语版,则可以将《白玫瑰》和语言标签对应的《红玫瑰》作为候选歌曲对。
S302、根据候选歌曲对中两首歌曲的歌词文件,对候选歌曲对进行歌词筛选,若候选歌曲对中两首歌曲的歌词文件相同,则确定该候选歌曲对为初选歌曲对。
具体地,可通过以下方法对候选歌曲对的歌词进行筛选。
首先,分别解析候选歌曲对中两首歌曲的歌词文件,得到每一首歌曲的歌词句子数目及与每一句歌词对应的时间信息,时间信息可以包括每一句歌词的起始时间和结束时间,可替代地,时间信息也可以包括每句歌词的起始时间和歌词演唱的持续时长;然后判断两首歌曲的歌词句子数目是否相同,若否,则舍弃对应的候选歌曲对,若是,则将两首歌曲的歌词句子一一对应,判断两首歌曲中相对应的歌词的时间信息是否相同,若不同,则舍弃对应的候选歌曲对,若相同,则将所述候选歌曲对作为初选歌曲对。
S303、根据初选歌曲对中两首歌曲的伴奏文件,对初选歌曲对进行伴奏筛选,若初选歌曲对中两首歌曲的伴奏文件相同,则确定该初选歌曲对为所述同源歌曲对。
具体地,可通过以下方法对初选歌曲对的伴奏进行筛选。
步骤一:分别提取初选歌曲对中两首歌曲的伴奏文件,伴奏文件包括至少一段伴奏音频及与该伴奏音频对应的伴奏时间。
步骤二:将两首歌曲中伴奏时间相同的伴奏音频一一对应,组成至少一个伴奏对。
步骤三:分别对每一个伴奏对的两段伴奏音频进行处理,得到与所述伴奏对对应的两个长度相同的二进制序列,并计算两个二进制序列的匹配概率,判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同。
判断伴奏对的两段伴奏音频是否相同的具体方法包括:分别对两个伴奏音频数据进行傅里叶变换,生成两个频谱;将两个频谱等分为相同数量的频段,分别计算每个频谱中每个频段的平均能量值,比较每个频段与前一频段的大小,将比较结果用二进制表示,得到与所述频谱对应的二进制序列;计算两个二进制序列的匹配概率,所述匹配概率为其中,n表示二进制序列中数码的总个数,m表示两个二进制序列对应数码位的数码相同的个数,判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同。
步骤四:判断是否每一个伴奏对的两段伴奏音频都相同,若是,则确定所述初选歌曲对为同源歌曲对。
S304、获取所述同源歌曲对对应的两首歌曲的音频数据。
从歌曲数据库中获取组成同源歌曲对的两首歌曲的音频数据。
上述图3所示的方式仅仅是获取同源歌曲对的诸多方法中的其中一种,不应理解为对本发明的限制。
实施例二:
根据第一实施例所描述的方法,以下将举例作进一步详细说明。
本实施例将双音源音频数据处理方法分为两个主要方面,一方面是筛选同源歌曲对,另一方面是对同源歌曲对的音频数据进行合成处理。下面将分别就上述两方面结合实例进行说明。
同源歌曲对由伴奏相同但演唱不同的两首歌曲组成,筛选同源歌曲对即是需要找到采用了相同伴奏但演唱不同的两首歌曲进行组合。具体步骤如下:
1、从歌曲数据库中查找到候选歌曲对,建立歌曲对列表。其中,查找候选歌曲对分为两方面:
1)在同一个歌手的歌曲列表中,查看是否有歌曲具有语言标签,如歌曲《白玫瑰》的语言标签为红玫瑰粤语版,则可以将《白玫瑰》和《红玫瑰》作为候选歌曲对,分别记为歌曲x、歌曲y;
2)在歌曲数据库中搜索所有歌曲名相同但歌手名不同的歌曲,将搜索得到的所有歌曲进行两两组合,例如,将小虎队演唱的《爱》、莫文蔚演唱的《爱》及TFBOYS演唱的《爱》进行两两组合,得到三个候选歌曲对,每个候选歌曲对的两首歌曲分别记为歌曲x、歌曲y。
2、对于步骤1找到的所有候选歌曲对,不一定是采用了相同的伴奏,如小虎队的《爱》与莫文蔚的《爱》,虽然同名,但并不是同一首歌曲,所以不一定满足伴奏相同的条件,需要对候选歌曲对的伴奏进行筛选。下面将以陈奕迅演唱的《白玫瑰》与《红玫瑰》为例,来对伴奏筛选的具体步骤进行说明。
1)对于歌曲x、y,分别在歌曲数据库中找到其对应的歌词文件xl、yl,其中歌词文件格式可具体含该歌曲对应的歌词,以及每句歌词对应的时间信息,该时间信息可以是每句歌词的起始时间和结束时间,也可以是每一句歌词的起始时间和持续时长。如图4(a)、(b)分别示出了《红玫瑰》和《白玫瑰》的歌词文件,歌词文件格式为每行前面是起始时间,后面是对应的歌词,可以通过解析歌词文件得到每一句歌词对应的时间信息,如图4除去歌曲名和词曲作者信息之外,《红玫瑰》的第一句歌词“梦里梦到醒不来的梦”与《白玫瑰》的第一句歌词“白如白牙热情被吞噬”的起始时间均为[00:16.28],结束时间均为[00:18.65],通过类似比对,如果两首歌曲对应的歌词句子数相同且每一句歌词的起始时间与结束时间均相同,则判断歌曲x、y符合歌词筛选条件,可以将歌曲x、y组成的候选歌曲对作为初选歌曲对,进入下一轮伴奏筛选,反之则将此候选歌曲对从歌曲对列表中删除。
2)对初选歌曲对的伴奏进行筛选。一般的歌曲中会有几段时间较长的没有歌词只演奏伴奏的部分,如前奏、两段的间隔与结尾部分,伴奏部分的歌词文件的显示则是只有时间信息没有歌词,如图5中的线框内的内容;《红玫瑰》歌曲中有4段只显示时间而没有歌词的部分,根据这一特点,可直接解析出歌曲在[00:08.61]~[00:16.28]的部分只有伴奏。假设歌曲x、y采用的是同一个伴奏,那么两首歌在没有歌词的部分应是趋于相同的(由于能量大小、编解码都会对伴奏部分造成影响,完全相同的可能性很低),基于这样的理论可以对歌曲x、y进行音频的对比,具体步骤如下:
a)将歌曲x、y对应的歌词文件中的仅有时间信息而无歌词的音频切割出来,如《红玫瑰》则可切割出4个伴奏部分,分别为xii∈(1,4)与yii∈(1,4),由于经过了歌词筛选,所以可以确定,当i确定时,xi与yi的时间相同,由于每一对xi与yi的处理方式相同,后续只以x1与y1作为例子进行说明;
b)将x1和y1分别解码为8k16bit音频;
C)以1024个采样点为帧长,以32个采样点为帧移进行傅立叶变换,得到频谱;
d)将4k的频谱平均分到32个频段,为每个频段计算均值,并将计算出来的均值作为此频段的平均能量;
e)比较每个频段与上一帧对应频段的大小关系,比前一阵大则为1,小则为0,得到32个bit值代表每一帧,分别对x1和y1执行上述操作,得到与x1和y1对应的两个长度相同的二进制序列;
f)将x1与y1的二进制序列进行一一对比,计算两个二进制序列的匹配概率,匹配概率可表示为其中,n表示二进制序列中数码的总个数,m表示两个二进制序列对应数码位的数码相同的个数(两个二进制序列对应数码位上的数码同时为0或同时为1,则判断该数码相同),将匹配概率与预设值k进行比对,若匹配概率不小于预设值k,则认为匹配成功,伴奏x1与y1趋于相同。理论上,若伴奏x1与y1相同,则匹配概率应为1,由于能量大小、编解码都会对伴奏部分造成影响,因而通过设置预设值k来判断伴奏x1与y1的相似度,匹配概率越接近1则伴奏x1与y1相同的可能性越大,故预设值k应趋近于1,例如,k=0.9。
g)如果一个初选歌曲对的两首歌曲x、y的所有xi与yi均匹配成功,则认为此初选歌曲对的伴奏相同,将此初选歌曲对作为同源歌曲对,反之则将其从歌曲对列表中去除。
经过对上述的歌词筛选和伴奏筛选,歌曲对列表中剩余的歌曲对都为同源歌曲对。为实现同源歌曲双音轮唱的效果,需对同源歌曲对的音频数据进行合成处理,为便于说明,下面以歌曲x、y组成的同源歌曲对的合成处理方法进行说明。
歌曲x、y的合成处理步骤如下:
1、将歌曲x和歌曲y的音频数据解码为44k16bit单声道音频数据。
2、将x、y两个单声道音频数据合并为一个双声道音频数据,左右声道可随机分配,这样用户带耳机或音箱听音乐的时候,会发现两个耳朵听到的音乐伴奏相同但演唱不同。
3、仅通过步骤2合成的音乐听起来会比较乱,为达到轮唱的效果,可以根据歌词信息的时间戳将所有的歌词句子切割为n个时间段tii∈(1,n),其中n为歌词的句子数(仅指演唱的句子数,不包含词曲信息与伴奏的行),如上图《红玫瑰》则,t1为([00:16.28]~[00:18.65])、t2为([00:18.65]~[00:23.53])…,在ti(i为单数)时间段内对左声道进行能量抑制,在ti(i为双数)时间段内对右声道进行能量抑制,这样在播放时就会产生左右声道不同人声轮流演唱的效果,对于一个ti时间段的抑制分为三个步骤,具体方法如下(以t1为例):
a)淡出:在t1的前1秒产生淡出效果,具体时间段为([00:15.28]~[00:16.28]),由于采样率为44100,所以这一秒内的左声道音频有44100个采样点,能量值为kii∈(1,44100),则淡出后的新能量值为
b)将所有t1时间段[00:16.28]~[00:18.65]内的采样点全部置0;
c)淡入:在t1的后1秒产生淡入效果,具体时间段为([00:18.65]~[00:19.65]),这一秒内的左声道音频有44100个采样点,能量值为kii∈(1,44100),则淡入后的新能量值为
本发明将伴奏相同但演唱不同的两首歌曲作为同源歌曲对,通过对同源歌曲对的音频数据解码得到两个单声道音频数据,将两个单声道音频数据合并成双声道音频数据,并将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制,实现了伴奏相同但演唱不同的两首歌曲交替演唱的效果,是一种新颖的音乐自动合成方案,为用户提供了崭新的内容,提升了用户体验,兼具有投入成本低、合成效率高的优点。
实施例三
为便于更好的实施本发明实施例提供的双音源音频数据处理方法,本发明实施例还提供一种双音源音频数据处理装置。其中名词的含义与上述音频数据的处理的方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图6,图6为本发明实施例提供的双音源音频数据处理装置的结构示意图,所述装置包括获取模块500以及处理模块600。
其中,所述获取模块500,用于获取一同源歌曲对的音频数据,;
所述处理模块600包括解码子模块610、合并子模块620以及处理子模块630;解码子模块610,用于分别对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据;合并子模块620,用于将两个单声道音频数据合并为一个双声道音频数据;处理子模块630,用于将双声道音频对应的播放时间切分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。
其中同源歌曲对为伴奏相同但演唱不同的两首歌曲。同源歌曲对可以是同一首歌曲被同一个演唱者用两种不同的语言演唱而得到的两首歌曲,也可以是不同的演唱者演唱同一首歌曲而得到的两首歌曲。参见图7,所述获取同源歌曲对的获取模块500具体包括获取子模块510、歌词筛选子模块520以及伴奏筛选子模块530。其中,获取子模块510用于获取候选歌曲对的歌曲信息,所述歌曲信息包括两首歌曲对应的歌词文件和伴奏文件;歌词筛选子模块520用于根据候选歌曲对中两首歌曲的歌词文件,对候选歌曲对进行歌词筛选,若候选歌曲对中两首歌曲的歌词文件相同,则确定该候选歌曲对为初选歌曲对;伴奏筛选子模块530用于根据初选歌曲对中两首歌曲的伴奏文件,对初选歌曲对进行伴奏筛选,若初选歌曲对中两首歌曲的伴奏文件相同,则确定该初选歌曲对为所述同源歌曲对。
歌词文件是指歌曲中的歌词句子和每句歌词的时间信息,伴奏文件是指歌曲中仅有演奏而无歌词演唱的部分。
参见图8,图8是本发明实施例提供的音频数据处理装置的获取模块500的结构示意图。
作为一种可能的实施方式,所述获取子模块510可以包括第一获取单元511和第二获取单元512;其中,第一获取单元511,用于在歌曲数据库中搜索所有歌曲名相同但歌手名不同的歌曲,将搜索得到的所有歌曲进行两两组合,得到候选歌曲对;第二获取单元512,用于在同一位歌手的所有歌曲中搜索标注有语言标签的歌曲,所述语言标签包括歌曲名和语言版本,将所述标注有语言标签的一首歌曲和与所述语言标签中的歌曲名对应的另一首歌曲作为一个候选歌曲对。所述歌曲筛选子模块520可以包括解析单元521和歌词筛选单元522,其中,解析单元,用于分别解析候选歌曲对中两首歌曲的歌词文件,得到每一首歌曲的歌词句子数目及与每一句歌词对应的时间信息,所述时间信息包括每一句歌词的起始时间和结束时间;歌词筛选单元,用于判断所述候选歌曲对中两首歌曲的歌词句子数目是否相同,若是,则将两首歌曲的歌词句子一一对应,判断两首歌曲中相对应的歌词的时间信息是否相同,若是,则将所述候选歌曲对作为初选歌曲对。所述伴奏筛选子模块530可以包括提取单元531、映射单元532、伴奏筛选单元533和确定单元534;其中,提取单元531,用于分别提取初选歌曲对中两首歌曲的伴奏文件,所述伴奏文件包括至少一段伴奏音频及与所述伴奏音频对应的伴奏时间;映射单元532,用于将两首歌曲中伴奏时间相同的伴奏音频一一对应,组成至少一个伴奏对,伴奏筛选单元533,用于分别对每一个伴奏对的两段伴奏音频进行处理,得到与所述伴奏对对应的两个长度相同的二进制序列,计算两个二进制序列的匹配概率,并判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同;确定单元534,用于判断是否每一个伴奏对的两段伴奏音频都相同,若是,则确定所述初选歌曲对为所述同源歌曲对。
作为一种可能的实施方式,所述伴奏筛选单元533包括解码子单元5331、频谱生成子单元5332、转换子单元5333和计算子单元5334;其中,解码子单元5331,用于对每一个伴奏对的两段伴奏音频分别进行解码处理,得到两个伴奏音频数据;频谱生成子单元5332,用于分别对两个伴奏音频数据进行傅里叶变换,生成两个频谱;转换子单元5333,用于将两个频谱等分为相同数量的频段,分别计算每个频谱中每个频段的平均能量值,比较每个频段与前一频段的大小,将比较结果用二进制表示,得到与所述频谱对应的二进制序列;计算子单元5334,用于计算两个二进制序列的匹配概率,所述匹配概率为其中,n表示二进制序列中数码的总个数,m表示两个二进制序列中对应数码位上的数码相同的个数,判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同。
进一步地,作为一种可能的实施方式,所述处理子模块630包括切分单元631和处理单元632,其中,切分单元631,用于根据双声道音频中每句歌词的时间信息将双声道音频的播放时间划分为多个播放时段,所述播放时段的数量与歌词的句子数目一致;处理单元632,用于在不同的播放时段交替地对双声道音频的左声道和右声道进行能量抑制。
在对双音源音频数据进行处理之后,还可以将处理得到的音频数据传输给用户终端,从而展示给用户。
该双音源音频数据处理装置具体可以集成在服务器或网关等网络设备中。具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
由上述可知,本实施例提供的双音源音频数据处理装置,首先从歌曲数据库中筛选出伴奏相同但演唱不同的两首歌曲作为同源歌曲对,对同源歌曲对的音频数据执行解码、合并处理,得到双声道音频数据,并将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制,从而产生双音轮唱的效果,为用户提供全新的音乐体验内容,是一种新颖的音乐合成装置,兼具合成效率高、成本低的优势。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对双音源音频数据处理方法的详细描述,此处不再赘述。
本发明实施例提供的音频数据处理装置,譬如为计算机、平板电脑、具有触摸功能的手机等等,所述音频数据的处理装置与上文实施例中的音频数据的处理方法属于同一构思,在所述音频数据的处理装置上可以运行所述音频数据的处理方法实施例中提供的任一方法,其具体实现过程详见所述音频数据的处理方法实施例,此处不再赘述。
需要说明的是,对本发明所述双音源音频数据处理方法而言,本领域普通技术人员可以理解,实现本发明实施例所述音频数据的处理方法的全部或部分流程,是可以通过计算机程序来控制相关的硬件来完成,所述计算机程序可存储于一计算机可读取存储介质中,如存储在终端的存储器中,并被该终端内的至少一个处理器执行,在执行过程中可包括如所述音频数据的处理方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)等。
对本发明实施例的所述音频数据的处理装置而言,其各功能模块可以集成在一个处理芯片中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中,所述存储介质譬如为只读存储器,磁盘或光盘等。
以上对本发明实施例所提供的一种双音源音频数据的处理方法及装置进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (14)

1.一种双音源音频数据的处理方法,其特征在于,包括:
获取一同源歌曲对的音频数据,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲;
对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据;
将两个单声道音频数据合并为一个双声道音频数据;
将双声道音频对应的播放时间划分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。
2.根据权利要求1所述的方法,其特征在于,所述获取一同源歌曲对的音频数据,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲,包括:
获取候选歌曲对的歌曲信息,所述歌曲信息包括两首歌曲对应的歌词文件和伴奏文件;
根据候选歌曲对中两首歌曲的歌词文件,对候选歌曲对进行歌词筛选,若候选歌曲对中两首歌曲的歌词文件相同,则确定该候选歌曲对为初选歌曲对;
根据初选歌曲对中两首歌曲的伴奏文件,对初选歌曲对进行伴奏筛选,若初选歌曲对中两首歌曲的伴奏文件相同,则确定该初选歌曲对为所述同源歌曲对;
获取所述同源歌曲对对应的两首歌曲的音频数据。
3.根据权利要求2所述的方法,其特征在于,所述获取候选歌曲对的歌曲信息,包括:
在歌曲数据库中搜索所有歌曲名相同但歌手名不同的歌曲,将搜索得到的所有歌曲进行两两组合,得到候选歌曲对,并获取所述候选歌曲对的歌曲信息;或者,
在同一位歌手的所有歌曲中搜索标注有语言标签的歌曲,所述语言标签包括歌曲名和语言版本,将所述标注有语言标签的一首歌曲和与所述语言标签中的歌曲名对应的另一首歌曲作为一个候选歌曲对,并获取所述候选歌曲对的歌曲信息。
4.根据权利要求2所述的方法,其特征在于,所述根据候选歌曲对中两首歌曲的歌词文件,对候选歌曲对进行歌词筛选,若候选歌曲对中两首歌曲的歌词文件相同,则确定该候选歌曲对为初选歌曲对,包括:
分别解析候选歌曲对中两首歌曲的歌词文件,得到每一首歌曲的歌词句子数目及与每一句歌词对应的时间信息;
判断两首歌曲的歌词句子数目是否相同,若是,则将两首歌曲的歌词句子一一对应,判断两首歌曲中相对应的歌词的时间信息是否相同,若是,则将所述候选歌曲对作为初选歌曲对。
5.根据权利要求2所述的方法,其特征在于,所述根据初选歌曲对中两首歌曲的伴奏文件,对初选歌曲对进行伴奏筛选,若初选歌曲对中两首歌曲的伴奏文件相同,则确定该初选歌曲对为所述同源歌曲对,包括:
分别提取初选歌曲对中两首歌曲的伴奏文件,所述伴奏文件包括至少一段伴奏音频及与所述伴奏音频对应的伴奏时间;
将两首歌曲中伴奏时间相同的伴奏音频一一对应,组成至少一个伴奏对,
分别对每一个伴奏对的两段伴奏音频进行处理,得到与所述伴奏对对应的两个长度相同的二进制序列,计算两个二进制序列的匹配概率,并判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同;
判断是否每一个伴奏对的两段伴奏音频都相同,若是,则确定所述初选歌曲对为所述同源歌曲对。
6.根据权利要求5所述的方法,其特征在于,所述分别对每一个伴奏对的两段伴奏音频进行处理,得到与所述伴奏对对应的两个长度相同的二进制序列,计算两个二进制序列的匹配概率,并判断匹配概率是否大于预设值,若是,则确定所述伴奏音频对的两段伴奏音频相同,包括:
对每一个伴奏对的两段伴奏音频分别进行解码处理,得到两个伴奏音频数据;
分别对两个伴奏音频数据进行傅里叶变换,生成两个频谱;
将两个频谱等分为相同数量的频段,分别计算每个频谱中每个频段的平均能量值,比较每个频段与前一频段的大小,将比较结果用二进制表示,得到与所述频谱对应的二进制序列;
计算两个二进制序列的匹配概率,所述匹配概率为其中,n表示二进制序列中数码的总个数,m表示两个二进制序列对应数码位的数码相同的个数,判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同。
7.根据权利要求5所述的方法,其特征在于,所述将所述双声道音频对应的播放时间切分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制,包括:
所述双声道音频对应的播放时间包括每句歌词的时间信息,根据每句歌词的时间信息将所述播放时间切分为多个播放时段,所述播放时段的数量与歌词的句子数目一致;
在不同的播放时段交替地对双声道音频的左声道和右声道进行能量抑制。
8.一种双音源音频数据的处理装置,其特征在于,包括获取模块和处理模块,
所述获取模块,用于获取一同源歌曲对的音频数据,所述同源歌曲对为伴奏相同但演唱不同的两首歌曲;
所述处理模块包括:
解码子模块,用于分别对所述同源歌曲对的音频数据进行解码处理,得到两个单声道音频数据;
合并子模块,用于将两个单声道音频数据合并为一个双声道音频数据;
处理子模块,用于将双声道音频对应的播放时间切分为多个播放时段,在不同的播放时段对双声道音频的左声道或右声道进行能量抑制。
9.根据权利要求8所述的装置,其特征在于,所述获取模块包括:
获取子模块,用于获取候选歌曲对的歌曲信息,所述歌曲信息包括两首歌曲对应的歌词文件和伴奏文件;
歌词筛选子模块,用于根据候选歌曲对中两首歌曲的歌词文件,对候选歌曲对进行歌词筛选,若候选歌曲对中两首歌曲的歌词文件相同,则确定该候选歌曲对为初选歌曲对;
伴奏筛选子模块,用于根据初选歌曲对中两首歌曲的伴奏文件,对初选歌曲对进行伴奏筛选,若初选歌曲对中两首歌曲的伴奏文件相同,则确定该初选歌曲对为所述同源歌曲对。
10.根据权利要求9所述的装置,其特征在于,所述获取子模块包括:
第一获取单元,用于在歌曲数据库中搜索所有歌曲名相同但歌手名不同的歌曲,将搜索得到的所有歌曲进行两两组合,得到候选歌曲对;
第二获取单元,用于在同一位歌手的所有歌曲中搜索标注有语言标签的歌曲,所述语言标签包括歌曲名和语言版本,将所述标注有语言标签的一首歌曲和与所述语言标签中的歌曲名对应的另一首歌曲作为一个候选歌曲对。
11.根据权利要求9所述的装置,其特征在于,所述歌曲筛选子模块包括:
解析单元,用于分别解析候选歌曲对中两首歌曲的歌词文件,得到每一首歌曲的歌词句子数目及与每一句歌词对应的时间信息;
歌词筛选单元,用于判断所述候选歌曲对中两首歌曲的歌词句子数目是否相同,若是,则将两首歌曲的歌词句子一一对应,判断两首歌曲中相对应的歌词的时间信息是否相同,若是,则将所述候选歌曲对作为初选歌曲对。
12.根据权利要求9所述的装置,其特征在于,所述伴奏筛选子模块包括:
提取单元,用于分别提取初选歌曲对中两首歌曲的伴奏文件,所述伴奏文件包括至少一段伴奏音频及与所述伴奏音频对应的伴奏时间;
映射单元,用于将两首歌曲中伴奏时间相同的伴奏音频一一对应,组成至少一个伴奏对,
伴奏筛选单元,用于分别对每一个伴奏对的两段伴奏音频进行处理,得到与所述伴奏对对应的两个长度相同的二进制序列,计算两个二进制序列的匹配概率,并判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同;
确定单元,用于判断是否每一个伴奏对的两段伴奏音频都相同,若是,则确定所述初选歌曲对为所述同源歌曲对。
13.根据权利要求12所述的装置,其特征在于,所述伴奏筛选单元包括:
解码子单元,用于对每一个伴奏对的两段伴奏音频分别进行解码处理,得到两个伴奏音频数据;
频谱生成子单元,用于分别对两个伴奏音频数据进行傅里叶变换,生成两个频谱;
转换子单元,用于将两个频谱等分为相同数量的频段,分别计算每个频谱中每个频段的平均能量值,比较每个频段与前一频段的大小,将比较结果用二进制表示,得到与所述频谱对应的二进制序列;
计算子单元,用于计算两个二进制序列的匹配概率,所述匹配概率为其中,n表示二进制序列中数码的总个数,m表示两个二进制序列对应数码位的数码相同的个数,判断匹配概率是否大于预设值,若是,则确定所述伴奏对的两段伴奏音频相同。
14.根据权利要求8所述的装置,其特征在于,
所述处理子模块包括:
切分单元,用于根据双声道音频中每句歌词的时间信息将双声道音频的播放时间划分为多个播放时段,所述播放时段的数量与歌词的句子数目一致;
处理单元,用于在不同的播放时段交替地对双声道音频的左声道和右声道进行能量抑制。
CN201610852918.8A 2016-09-27 2016-09-27 一种双音源音频数据的处理方法及装置 Active CN106486128B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201610852918.8A CN106486128B (zh) 2016-09-27 2016-09-27 一种双音源音频数据的处理方法及装置
EP17854792.3A EP3522151B1 (en) 2016-09-27 2017-09-25 Method and device for processing dual-source audio data
PCT/CN2017/103106 WO2018059342A1 (zh) 2016-09-27 2017-09-25 一种双音源音频数据的处理方法及装置
US16/100,698 US10776422B2 (en) 2016-09-27 2018-08-10 Dual sound source audio data processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610852918.8A CN106486128B (zh) 2016-09-27 2016-09-27 一种双音源音频数据的处理方法及装置

Publications (2)

Publication Number Publication Date
CN106486128A true CN106486128A (zh) 2017-03-08
CN106486128B CN106486128B (zh) 2021-10-22

Family

ID=58267665

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610852918.8A Active CN106486128B (zh) 2016-09-27 2016-09-27 一种双音源音频数据的处理方法及装置

Country Status (4)

Country Link
US (1) US10776422B2 (zh)
EP (1) EP3522151B1 (zh)
CN (1) CN106486128B (zh)
WO (1) WO2018059342A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506409A (zh) * 2017-08-09 2017-12-22 浪潮金融信息技术有限公司 一种多音频数据的处理方法
CN107665240A (zh) * 2017-09-01 2018-02-06 北京雷石天地电子技术有限公司 音频文件聚类方法和装置
WO2018059342A1 (zh) * 2016-09-27 2018-04-05 腾讯科技(深圳)有限公司 一种双音源音频数据的处理方法及装置
CN108694203A (zh) * 2017-04-11 2018-10-23 北京雷石天地电子技术有限公司 一种连续播放歌曲部分内容的方法和装置
CN110472094A (zh) * 2019-08-06 2019-11-19 沈阳大学 一种传统音乐录入方法
CN110910917A (zh) * 2019-11-07 2020-03-24 腾讯音乐娱乐科技(深圳)有限公司 音频片段的拼接方法及装置
CN110992970A (zh) * 2019-12-13 2020-04-10 腾讯音乐娱乐科技(深圳)有限公司 音频合成方法及相关装置
CN111599328A (zh) * 2020-05-22 2020-08-28 广州酷狗计算机科技有限公司 歌曲合成方法、装置、设备及存储介质
TWI745338B (zh) * 2017-01-19 2021-11-11 香港商阿里巴巴集團服務有限公司 伴奏音樂的提供方法和裝置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106024005B (zh) * 2016-07-01 2018-09-25 腾讯科技(深圳)有限公司 一种音频数据的处理方法及装置
US11487815B2 (en) * 2019-06-06 2022-11-01 Sony Corporation Audio track determination based on identification of performer-of-interest at live event
US11030914B2 (en) * 2019-08-23 2021-06-08 Hossein Zamanian Learning device and method
CN110599989B (zh) * 2019-09-30 2022-11-29 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质
CN111986696B (zh) * 2020-08-27 2023-07-07 湖南融视文化创意有限公司 一种高效处理歌曲音量均衡的方法
CN112765396A (zh) * 2021-01-28 2021-05-07 北京字节跳动网络技术有限公司 歌曲的推荐方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337914A (ja) * 2005-06-06 2006-12-14 Kddi Corp 楽曲リミックス可能な音楽再生装置ならびに楽曲リミックス方法およびプログラム
CN104053120A (zh) * 2014-06-13 2014-09-17 福建星网视易信息系统有限公司 一种立体声音频的处理方法和装置
CN104143325A (zh) * 2014-07-18 2014-11-12 腾讯科技(深圳)有限公司 伴奏/原唱音频数据切换方法和系统
CN104269174A (zh) * 2014-10-24 2015-01-07 百度在线网络技术(北京)有限公司 一种音频信号的处理方法及装置
CN104966527A (zh) * 2015-05-27 2015-10-07 腾讯科技(深圳)有限公司 K歌处理方法、装置以及k歌处理系统
CN104978973A (zh) * 2014-10-22 2015-10-14 腾讯科技(深圳)有限公司 一种音频处理方法及装置
CN105788589A (zh) * 2016-05-04 2016-07-20 腾讯科技(深圳)有限公司 一种音频数据的处理方法及装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3952523B2 (ja) * 1996-08-09 2007-08-01 ヤマハ株式会社 カラオケ装置
US7191023B2 (en) * 2001-01-08 2007-03-13 Cybermusicmix.Com, Inc. Method and apparatus for sound and music mixing on a network
US8487176B1 (en) * 2001-11-06 2013-07-16 James W. Wieder Music and sound that varies from one playback to another playback
JP2006330533A (ja) * 2005-05-30 2006-12-07 Roland Corp 電子楽器
US20090070420A1 (en) * 2006-05-01 2009-03-12 Schuyler Quackenbush System and method for processing data signals
US20080184870A1 (en) * 2006-10-24 2008-08-07 Nokia Corporation System, method, device, and computer program product providing for a multiple-lyric karaoke system
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US8138409B2 (en) * 2007-08-10 2012-03-20 Sonicjam, Inc. Interactive music training and entertainment system
US7985915B2 (en) * 2007-08-13 2011-07-26 Sanyo Electric Co., Ltd. Musical piece matching judging device, musical piece recording device, musical piece matching judging method, musical piece recording method, musical piece matching judging program, and musical piece recording program
EP2304726A1 (en) * 2008-05-16 2011-04-06 Tonium AB Audio mix instruction file with timing information referring to unique patterns within audio tracks
CN101630507B (zh) * 2009-08-18 2014-03-05 华为终端有限公司 远程卡拉ok的实现方法、装置和系统
US20110126103A1 (en) * 2009-11-24 2011-05-26 Tunewiki Ltd. Method and system for a "karaoke collage"
US9147385B2 (en) * 2009-12-15 2015-09-29 Smule, Inc. Continuous score-coded pitch correction
US9601127B2 (en) * 2010-04-12 2017-03-21 Smule, Inc. Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s)
EP2485213A1 (en) * 2011-02-03 2012-08-08 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Semantic audio track mixer
JP2013135310A (ja) * 2011-12-26 2013-07-08 Sony Corp 情報処理装置、情報処理方法、プログラム、記録媒体、及び、情報処理システム
US8912419B2 (en) * 2012-05-21 2014-12-16 Peter Sui Lun Fong Synchronized multiple device audio playback and interaction
JP6203003B2 (ja) * 2012-12-20 2017-09-27 株式会社東芝 信号処理装置、信号処理方法およびプログラム
US9595932B2 (en) * 2013-03-05 2017-03-14 Nike, Inc. Adaptive music playback system
CN103295568B (zh) * 2013-05-30 2015-10-14 小米科技有限责任公司 一种异步合唱方法和装置
WO2016040869A2 (en) * 2014-09-12 2016-03-17 Creighton Strategies, Ltd. Facilitating online access to and participation in televised events
CN108040497B (zh) * 2015-06-03 2022-03-04 思妙公司 用于自动产生协调的视听作品的方法和系统
GB2581032B (en) * 2015-06-22 2020-11-04 Time Machine Capital Ltd System and method for onset detection in a digital signal
CN106486128B (zh) * 2016-09-27 2021-10-22 腾讯科技(深圳)有限公司 一种双音源音频数据的处理方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337914A (ja) * 2005-06-06 2006-12-14 Kddi Corp 楽曲リミックス可能な音楽再生装置ならびに楽曲リミックス方法およびプログラム
CN104053120A (zh) * 2014-06-13 2014-09-17 福建星网视易信息系统有限公司 一种立体声音频的处理方法和装置
CN104143325A (zh) * 2014-07-18 2014-11-12 腾讯科技(深圳)有限公司 伴奏/原唱音频数据切换方法和系统
CN104978973A (zh) * 2014-10-22 2015-10-14 腾讯科技(深圳)有限公司 一种音频处理方法及装置
CN104269174A (zh) * 2014-10-24 2015-01-07 百度在线网络技术(北京)有限公司 一种音频信号的处理方法及装置
CN104966527A (zh) * 2015-05-27 2015-10-07 腾讯科技(深圳)有限公司 K歌处理方法、装置以及k歌处理系统
CN105788589A (zh) * 2016-05-04 2016-07-20 腾讯科技(深圳)有限公司 一种音频数据的处理方法及装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776422B2 (en) 2016-09-27 2020-09-15 Tencent Technology (Shenzhen) Company Limited Dual sound source audio data processing method and apparatus
WO2018059342A1 (zh) * 2016-09-27 2018-04-05 腾讯科技(深圳)有限公司 一种双音源音频数据的处理方法及装置
TWI745338B (zh) * 2017-01-19 2021-11-11 香港商阿里巴巴集團服務有限公司 伴奏音樂的提供方法和裝置
CN108694203B (zh) * 2017-04-11 2021-08-13 北京雷石天地电子技术有限公司 一种连续播放歌曲部分内容的方法和装置
CN108694203A (zh) * 2017-04-11 2018-10-23 北京雷石天地电子技术有限公司 一种连续播放歌曲部分内容的方法和装置
CN107506409A (zh) * 2017-08-09 2017-12-22 浪潮金融信息技术有限公司 一种多音频数据的处理方法
CN107665240A (zh) * 2017-09-01 2018-02-06 北京雷石天地电子技术有限公司 音频文件聚类方法和装置
CN110472094A (zh) * 2019-08-06 2019-11-19 沈阳大学 一种传统音乐录入方法
CN110472094B (zh) * 2019-08-06 2023-03-31 沈阳大学 一种传统音乐录入方法
CN110910917A (zh) * 2019-11-07 2020-03-24 腾讯音乐娱乐科技(深圳)有限公司 音频片段的拼接方法及装置
CN110992970A (zh) * 2019-12-13 2020-04-10 腾讯音乐娱乐科技(深圳)有限公司 音频合成方法及相关装置
CN110992970B (zh) * 2019-12-13 2022-05-31 腾讯音乐娱乐科技(深圳)有限公司 音频合成方法及相关装置
CN111599328A (zh) * 2020-05-22 2020-08-28 广州酷狗计算机科技有限公司 歌曲合成方法、装置、设备及存储介质
CN111599328B (zh) * 2020-05-22 2024-04-09 广州酷狗计算机科技有限公司 歌曲合成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
EP3522151A4 (en) 2019-10-16
CN106486128B (zh) 2021-10-22
US10776422B2 (en) 2020-09-15
EP3522151A1 (en) 2019-08-07
EP3522151B1 (en) 2020-11-11
US20180349493A1 (en) 2018-12-06
WO2018059342A1 (zh) 2018-04-05

Similar Documents

Publication Publication Date Title
CN106486128A (zh) 一种双音源音频数据的处理方法及装置
US10229669B2 (en) Apparatus, process, and program for combining speech and audio data
CN106503184B (zh) 确定目标文本所属业务类别的方法及装置
JP4469891B2 (ja) 情報処理装置及び情報処理プログラム
WO2018121368A1 (zh) 一种歌词的配乐生成方法和相关装置
JP2014508460A (ja) セマンティック・オーディオ・トラック・ミキサー
CN105161116A (zh) 多媒体文件高潮片段的确定方法及装置
Goto Grand challenges in music information research
CN102568530A (zh) 音频回放设备和方法
CN105280206A (zh) 一种音频的播放方法、装置
CN105931625A (zh) 基于文字输入的说唱音乐自动生成方法
Van Balen Automatic recognition of samples in musical audio
CN1909057A (zh) 具有卡拉ok功能的便携数据处理装置及其选曲方法
CN105976802A (zh) 基于机器学习技术的音乐自动生成系统
KR100849848B1 (ko) 음성 출력 장치 및 방법
Goto et al. PodCastle and Songle: Crowdsourcing-Based Web Services for Retrieval and Browsing of Speech and Music Content.
CN104269174B (zh) 一种音频信号的处理方法及装置
CN106649480A (zh) 一种音乐列表的生成方法及服务器
CN104954369A (zh) 多媒体内容的发送、生成和传输、播放方法和对应装置
CN106980674A (zh) 一种基于关键信息的搜索音频方法
Merz Composing with all sound using the freesound and wordnik APIs
CN102890948A (zh) 一种在线音乐播放方法及其终端设备
Doh et al. Million song search: Web interface for semantic music search using musical word embedding
Haukamp et al. Chapter Introducing Asian Sound Cultures
Graham The Race of Sound: Listening, Time and Vocality in African American Music

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant