CN111326171A - 一种基于简谱识别和基频提取的人声旋律提取方法及系统 - Google Patents
一种基于简谱识别和基频提取的人声旋律提取方法及系统 Download PDFInfo
- Publication number
- CN111326171A CN111326171A CN202010059062.5A CN202010059062A CN111326171A CN 111326171 A CN111326171 A CN 111326171A CN 202010059062 A CN202010059062 A CN 202010059062A CN 111326171 A CN111326171 A CN 111326171A
- Authority
- CN
- China
- Prior art keywords
- note
- lyrics
- musical notation
- numbered musical
- fundamental frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 21
- 230000001755 vocal effect Effects 0.000 claims abstract description 19
- 239000011295 pitch Substances 0.000 claims description 48
- 101150047731 MTDH gene Proteins 0.000 claims description 47
- 238000013519 translation Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/056—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/061—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明公开了一种基于简谱识别和基频提取的人声旋律提取方法及系统,系统应用该方法,方法包括:将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从单声道音频中分离出人声波形;识别简谱中的音符与歌词对,得到歌词与音符的列表;根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。能够提取音高与旋律匹配的人声旋律。
Description
技术领域
本发明属于音频处理技术领域,具体地说,涉及一种基于简谱识别和基频提取的人声旋律提取方法及系统。
背景技术
随着计算机技术的发展,音乐的主要传播途径由原来的基于磁带、CD等载体,转变成基于数字音乐的网络下载和点击。为了适应这种传播方式的改变,音乐的识别和检索技术也应用的越来越广。在音乐信息检索中,主要使用的是音乐的主旋律,音乐的主旋律可以用于进行音乐分析、音乐检索、音乐辨识、相似音乐推荐等。
申请号为201810537265.3的发明专利公开了一种提取音频数据中主旋律音轨的方法、装置、终端及存储介质,该方法包括:提取目标音频数据中的多个音轨,确定每个音轨中的人声时间段的时间段信息,得到每个音轨对应的时间段信息集合;在目标音频数据对应的歌词信息中,确定每句歌词的时间段信息,得到歌词信息对应的时间段信息集合;确定每个音轨对应的时间段信息集合与歌词信息对应的时间段信息集合的匹配度;将对应的匹配度最高的音轨,确定为目标音频数据的主旋律音轨。本申请解决了目前的音轨逐一排除方法不适用于编曲风格小众另类的音频,易将音频中非主旋律音轨确定为该音频的主旋律的问题,达到了提高识别音频中的主旋律音轨的普适性和准确性的效果。
该方法的目标是从多个音轨中提取出主旋律音轨,而不能够从主旋律音轨中提取出旋律,同时该方法对于包含分轨信息的歌词信息很难获得。无法得到匹配的唱词和音高。
发明内容
针对现有技术中上述的不足,本发明提供一种基于简谱识别和基频提取的人声旋律提取方法及系统,该方法结合简谱识别与波形识别,从而能够更准确的获取主旋律数据,简谱识别能够获取准确的音高,基频识别得到的频率与唱词能够对应的上。系统采用该方法,能够提取音高与旋律匹配的人声旋律。
为了达到上述目的,本发明采用的解决方案是:一种基于简谱识别和基频提取的人声旋律提取方法,包括如下步骤:
S1:数据预处理,将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;具体包括:
S101:将歌曲原始音频文件解码为wave格式,并归一化至-1~1;
S102:将wave格式的音频通过平均得到单声道的音频;
S103:将单声道音频降采样至8000~44100之间,最佳的降采样频率为20050;
S104:将歌曲对应的简谱文件做二值化处理;
S105:从降采样后的单声道音频中分离出人声波形;
S106:根据歌词文件将人声波形按句分割成多个波形文件。一句歌词对应一个波形文件,便于后续基频提取过程中提取出的基频与歌词句子对应。
S2:简谱识别,识别简谱中的音符与歌词对,得到歌词与对应音符的列表,所述的简谱识别采用OCR api或者开源OCR。
S3:唱词与简谱识别结果对齐,根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;具体包括:
S301:解析唱词文件,按句获得唱词文件中的所有唱词序列;
S302:在简谱识别得到的歌词与音符的列表中检索每一句唱词的文字序列;
S303:将歌词与音符对按唱词序列进行排序,实现唱词与音高对齐。通过唱词与简谱识别结果对齐使得识别得到的音高与歌词对的顺序与人声波形中唱的顺序对齐,并进行补全,从而使识别出的音高与人声波形中的唱词在时间上对齐。
S4:基频提取,选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;具体包括:
S401:选定一个音符,这个音符可以是do、re、mi、fa、so、la、si中的任意一个,由于简谱上的key值一般采用do音来表示,因此,在选定音符时,最好是选择do音;
S402:遍历唱词与音高对齐之后的序列,找到选定的音符对应的人声波形片段;
S403:剪裁所有找到的人声波形片段;
S404:识别所有剪裁的片段的基频;
S405:统计所有剪裁片段的基频,以数量最多的频率作为选定音符的基础频率;
S406:根据选定音符与各音符的相对关系,计算各音符的频率,根据简谱上的音乐key值关系,可以根据音乐基础知识得到各个音符之间相差的半音数,根据这个半音数与选定音符的基础频率,可以计算得到各音符的频率;
S407:将各音符的频率转换为midi音高。
S5:音高平移,平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列,并保存成midi文件。通过音高平移得到音高与唱词匹配的人声旋律。
应用所述的基于简谱识别和基频提取的人声旋律提取方法的系统,包括数据处理模块、简谱识别模块、唱词与音符对齐模块、基频模块和音高平移模块;
所述的数据处理模块将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
所述的简谱识别模块用于识别简谱中的音符与歌词对,得到歌词与音符的列表;
所述的唱词与音符对齐模块用于根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
所述的基频模块用于选择一个音符计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
所述的音高平移模块用于平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
本发明的有益效果是:
(1)该方法结合简谱识别与波形识别,从而能够更准确的获取主旋律数据,简谱识别能够获取准确的音高,基频识别得到的频率与唱词能够对应的上。系统采用该方法,能够提取音高与旋律匹配的人声旋律。
附图说明
图1为本发明人声旋律提取方法流程图;
图2为本发明简谱识别流程图;
图3为本发明唱词与简谱识别结果对齐流程图;
图4为本发明基频提取流程图;
图5为本发明人声旋律提取系统框图。
具体实施方式
以下结合附图对本发明作进一步描述:
如图1所示,一种基于简谱识别和基频提取的人声旋律提取方法,包括如下步骤:
S1:数据预处理,将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;具体包括:
S101:将歌曲原始音频文件解码为wave格式,并归一化至-1~1;
S102:将wave格式的音频通过平均得到单声道的音频;
S103:将单声道音频降采样至8000~44100之间;
S104:将歌曲对应的简谱文件做二值化处理;
S105:从降采样后的单声道音频中分离出人声波形;
S106:根据歌词文件将人声波形按句分割成多个波形文件。一句歌词对应一个波形文件,便于后续基频提取过程中提取出的基频与歌词句子对应。
S2:简谱识别,识别简谱中的音符与歌词对,得到歌词与对应音符的列表,所述的简谱识别采用OCR api或者开源OCR,简谱识别流程如图3所示,歌词简谱输入载入的简谱识别模型识别后得到音符和歌词对的列表。
S3:唱词与简谱识别结果对齐,根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;如图3所示,具体包括:
S301:解析唱词文件,按句获得唱词文件中的所有唱词序列,按句获得唱词相当于将全部唱词按句进行简单分割;
S302:在简谱识别得到的歌词与音符的列表中检索每一句唱词的文字序列;
S303:将歌词与音符对按唱词序列进行排序,实现唱词与音高对齐。通过唱词与简谱识别结果对齐使得识别得到的音高与歌词对的顺序与人声波形中唱的顺序对齐,并进行补全,从而使识别出的音高与人声波形中的唱词在时间上对齐。
S4:基频提取,选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;具体包括:
S401:选定一个音符,这个音符可以是do、re、mi、fa、so、la、si中的任意一个,由于简谱上的key值一般采用do音来表示,因此,在选定音符时,最好是选择do音,图4所示的基频提取流程采用do音进行基频提取;
S402:遍历唱词与音高对齐之后的序列,找到选定的音符对应的人声波形片段;
S403:剪裁所有找到的人声波形片段;
S404:识别所有剪裁的片段的基频;
S405:统计所有剪裁片段的基频,以数量最多的频率作为选定音符的基础频率;
S406:根据选定音符与各音符的相对关系,计算各音符的频率,根据简谱上的音乐key值关系,可以根据音乐基础知识得到各个音符之间相差的半音数,根据这个半音数与选定音符的基础频率,可以计算得到各音符的频率;
S407:将各音符的频率转换为midi音高。
S5:音高平移,平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列,并保存成midi文件。通过音高平移得到音高与唱词匹配的人声旋律。
如图5所示,应用所述的基于简谱识别和基频提取的人声旋律提取方法的系统,包括数据处理模块、简谱识别模块、唱词与音符对齐模块、基频模块和音高平移模块;
所述的数据处理模块将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
所述的简谱识别模块用于识别简谱中的音符与歌词对,得到歌词与音符的列表;
所述的唱词与音符对齐模块用于根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
所述的基频模块用于选择一个音符计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
所述的音高平移模块用于平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
在本方案的其他替代方案中,基频提取还可以采用YIN算法等基频提取方法来提取基频。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (9)
1.一种基于简谱识别和基频提取的人声旋律提取方法,其特征在于:包括如下步骤:
S1:数据预处理,将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
S2:简谱识别,识别简谱中的音符与歌词对,得到歌词与音符的列表;
S3:唱词与简谱识别结果对齐,根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
S4:基频提取,选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
S5:音高平移,平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
2.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的数据预处理具体包括:
S101:将歌曲原始音频文件解码为wave格式,并归一化至-1~1;
S102:将wave格式的音频通过平均得到单声道的音频;
S103:将单声道音频降采样至8000~44100之间;
S104:将歌曲对应的简谱文件做二值化处理;
S105:从降采样后的单声道音频中分离出人声波形。
3.根据权利要求2所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的数据预处理还包括:S106:根据歌词文件将人声波形按句分割成多个波形文件。
4.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的简谱识别采用OCR api或者开源OCR。
5.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的歌词与简谱识别结果对齐具体包括:
S301:解析唱词文件,按句获得唱词文件中的所有唱词序列;
S302:在简谱识别得到的歌词与音符的列表中检索每一句唱词的文字序列;
S303:将歌词与音符对按唱词序列进行排序,实现唱词与音高对齐。
6.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的基频提取具体包括:
S401:选定一个音符;
S402:遍历唱词与音高对齐之后的序列,找到选定的音符对应的人声波形片段;
S403:剪裁所有找到的人声波形片段;
S404:识别所有剪裁的片段的基频;
S405:统计所有剪裁片段的基频,以数量最多的频率作为选定音符的基础频率;
S406:根据选定音符与各音符的相对关系,计算各音符的频率;
S407:将各音符的频率转换为midi音高。
7.根据权利要求6所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的音符为do、re、mi、fa、so、la、si中的任意一个。
8.根据权利要求7所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的音符最好为do音。
9.应用权利要求1-8中任意一项所述的基于简谱识别和基频提取的人声旋律提取方法的系统,其特征在于:包括数据处理模块、简谱识别模块、唱词与音符对齐模块、基频模块和音高平移模块;
所述的数据处理模块将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
所述的简谱识别模块用于识别简谱中的音符与歌词对,得到歌词与音符的列表;
所述的唱词与音符对齐模块用于根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
所述的基频模块用于选择一个音符计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
所述的音高平移模块用于平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010059062.5A CN111326171B (zh) | 2020-01-19 | 2020-01-19 | 一种基于简谱识别和基频提取的人声旋律提取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010059062.5A CN111326171B (zh) | 2020-01-19 | 2020-01-19 | 一种基于简谱识别和基频提取的人声旋律提取方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111326171A true CN111326171A (zh) | 2020-06-23 |
CN111326171B CN111326171B (zh) | 2023-06-23 |
Family
ID=71172787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010059062.5A Active CN111326171B (zh) | 2020-01-19 | 2020-01-19 | 一种基于简谱识别和基频提取的人声旋律提取方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111326171B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111782864A (zh) * | 2020-06-30 | 2020-10-16 | 腾讯音乐娱乐科技(深圳)有限公司 | 演唱音频分类方法及计算机程序产品、服务器、存储介质 |
CN112183658A (zh) * | 2020-10-14 | 2021-01-05 | 小叶子(北京)科技有限公司 | 一种曲谱识别方法、装置、电子设备及存储介质 |
CN112735365A (zh) * | 2020-12-24 | 2021-04-30 | 重庆悦派对信息科技有限公司 | 一种基于概率模型的主旋律自动提取算法 |
CN113035160A (zh) * | 2021-02-26 | 2021-06-25 | 成都潜在人工智能科技有限公司 | 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质 |
CN113096623A (zh) * | 2021-03-26 | 2021-07-09 | 北京儒博科技有限公司 | 语音处理方法、装置、电子设备及介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041068A (ja) * | 2000-07-26 | 2002-02-08 | Daiichikosho Co Ltd | カラオケ装置における歌唱採点方法 |
US20070107585A1 (en) * | 2005-09-14 | 2007-05-17 | Daniel Leahy | Music production system |
US20100192755A1 (en) * | 2007-09-07 | 2010-08-05 | Microsoft Corporation | Automatic accompaniment for vocal melodies |
CN102663423A (zh) * | 2012-03-28 | 2012-09-12 | 北京航空航天大学 | 一种简谱图像的自动识别和演奏的方法 |
CN105788589A (zh) * | 2016-05-04 | 2016-07-20 | 腾讯科技(深圳)有限公司 | 一种音频数据的处理方法及装置 |
CN106548768A (zh) * | 2016-10-18 | 2017-03-29 | 广州酷狗计算机科技有限公司 | 一种音符修正的方法和装置 |
CN108053832A (zh) * | 2017-12-11 | 2018-05-18 | 广州酷狗计算机科技有限公司 | 音频信号处理方法、装置、电子设备及存储介质 |
CN109272975A (zh) * | 2018-08-14 | 2019-01-25 | 无锡冰河计算机科技发展有限公司 | 演唱伴奏自动调整方法、装置及ktv点唱机 |
CN109727590A (zh) * | 2018-12-24 | 2019-05-07 | 成都嗨翻屋科技有限公司 | 基于循环神经网络的音乐生成方法及装置 |
-
2020
- 2020-01-19 CN CN202010059062.5A patent/CN111326171B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041068A (ja) * | 2000-07-26 | 2002-02-08 | Daiichikosho Co Ltd | カラオケ装置における歌唱採点方法 |
US20070107585A1 (en) * | 2005-09-14 | 2007-05-17 | Daniel Leahy | Music production system |
US20100192755A1 (en) * | 2007-09-07 | 2010-08-05 | Microsoft Corporation | Automatic accompaniment for vocal melodies |
CN102663423A (zh) * | 2012-03-28 | 2012-09-12 | 北京航空航天大学 | 一种简谱图像的自动识别和演奏的方法 |
CN105788589A (zh) * | 2016-05-04 | 2016-07-20 | 腾讯科技(深圳)有限公司 | 一种音频数据的处理方法及装置 |
CN106548768A (zh) * | 2016-10-18 | 2017-03-29 | 广州酷狗计算机科技有限公司 | 一种音符修正的方法和装置 |
CN108053832A (zh) * | 2017-12-11 | 2018-05-18 | 广州酷狗计算机科技有限公司 | 音频信号处理方法、装置、电子设备及存储介质 |
CN109272975A (zh) * | 2018-08-14 | 2019-01-25 | 无锡冰河计算机科技发展有限公司 | 演唱伴奏自动调整方法、装置及ktv点唱机 |
CN109727590A (zh) * | 2018-12-24 | 2019-05-07 | 成都嗨翻屋科技有限公司 | 基于循环神经网络的音乐生成方法及装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111782864A (zh) * | 2020-06-30 | 2020-10-16 | 腾讯音乐娱乐科技(深圳)有限公司 | 演唱音频分类方法及计算机程序产品、服务器、存储介质 |
CN111782864B (zh) * | 2020-06-30 | 2023-11-07 | 腾讯音乐娱乐科技(深圳)有限公司 | 演唱音频分类方法及计算机程序产品、服务器、存储介质 |
CN112183658A (zh) * | 2020-10-14 | 2021-01-05 | 小叶子(北京)科技有限公司 | 一种曲谱识别方法、装置、电子设备及存储介质 |
CN112183658B (zh) * | 2020-10-14 | 2024-01-26 | 小叶子(北京)科技有限公司 | 一种曲谱识别方法、装置、电子设备及存储介质 |
CN112735365A (zh) * | 2020-12-24 | 2021-04-30 | 重庆悦派对信息科技有限公司 | 一种基于概率模型的主旋律自动提取算法 |
CN113035160A (zh) * | 2021-02-26 | 2021-06-25 | 成都潜在人工智能科技有限公司 | 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质 |
CN113035160B (zh) * | 2021-02-26 | 2022-08-02 | 成都潜在人工智能科技有限公司 | 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质 |
CN113096623A (zh) * | 2021-03-26 | 2021-07-09 | 北京儒博科技有限公司 | 语音处理方法、装置、电子设备及介质 |
CN113096623B (zh) * | 2021-03-26 | 2023-07-14 | 北京如布科技有限公司 | 语音处理方法、装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111326171B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111326171A (zh) | 一种基于简谱识别和基频提取的人声旋律提取方法及系统 | |
Ren et al. | Deepsinger: Singing voice synthesis with data mined from the web | |
Gupta et al. | Automatic lyrics alignment and transcription in polyphonic music: Does background music help? | |
US7064262B2 (en) | Method for converting a music signal into a note-based description and for referencing a music signal in a data bank | |
Kroher et al. | Automatic transcription of flamenco singing from polyphonic music recordings | |
CN108597535B (zh) | 一种融合伴奏的midi钢琴曲风格分类方法 | |
Román et al. | An End-to-end Framework for Audio-to-Score Music Transcription on Monophonic Excerpts. | |
Clarisse et al. | An Auditory Model Based Transcriber of Singing Sequences. | |
Gao et al. | Genre-conditioned acoustic models for automatic lyrics transcription of polyphonic music | |
Heydarian | Automatic recognition of Persian musical modes in audio musical signals | |
Dzhambazov et al. | On the use of note onsets for improved lyrics-to-audio alignment in turkish makam music | |
Kong et al. | Strada: A singer traits dataset | |
CN106971750B (zh) | 歌词文件和音调文件对齐方法及装置 | |
Zhang et al. | A novel singer identification method using GMM-UBM | |
Lee | A system for automatic chord transcription from audio using genre-specific hidden Markov models | |
CN115662465A (zh) | 一种适用于民族弦乐乐器的声音识别算法及装置 | |
Li et al. | Frame-level multi-label playing technique detection using multi-scale network and self-attention mechanism | |
Vatolkin et al. | Comparison of Audio Features for Recognition of Western and Ethnic Instruments in Polyphonic Mixtures. | |
Chuan et al. | The KUSC classical music dataset for audio key finding | |
CN113066512A (zh) | 佛教音乐识别方法、装置、设备及存储介质 | |
Zhao et al. | Violinist identification using note-level timbre feature distributions | |
Duggan | Machine annotation of traditional Irish dance music | |
US20040158437A1 (en) | Method and device for extracting a signal identifier, method and device for creating a database from signal identifiers and method and device for referencing a search time signal | |
Salamon et al. | A chroma-based salience function for melody and bass line estimation from music audio signals | |
CN113646756A (zh) | 信息处理装置、方法以及程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230530 Address after: Room 1210, 12 / F, unit 1, building 1, No. 722, middle section of Yizhou Avenue, high tech Zone, Chengdu, Sichuan 610000 Applicant after: Chengdu potential Artificial Intelligence Technology Co.,Ltd. Address before: 610041 Building No. 722, Building No. 1, Unit 12, Layer 121, Middle Section of Yizhou Avenue, Chengdu High-tech Zone, Sichuan Province Applicant before: CHENGDU HIFIVE TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |