CN111326171A - 一种基于简谱识别和基频提取的人声旋律提取方法及系统 - Google Patents

一种基于简谱识别和基频提取的人声旋律提取方法及系统 Download PDF

Info

Publication number
CN111326171A
CN111326171A CN202010059062.5A CN202010059062A CN111326171A CN 111326171 A CN111326171 A CN 111326171A CN 202010059062 A CN202010059062 A CN 202010059062A CN 111326171 A CN111326171 A CN 111326171A
Authority
CN
China
Prior art keywords
note
lyrics
musical notation
numbered musical
fundamental frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010059062.5A
Other languages
English (en)
Other versions
CN111326171B (zh
Inventor
尹学渊
刘鑫忠
江天宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Potential Artificial Intelligence Technology Co ltd
Original Assignee
Chengdu Hifive Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Hifive Technology Co ltd filed Critical Chengdu Hifive Technology Co ltd
Priority to CN202010059062.5A priority Critical patent/CN111326171B/zh
Publication of CN111326171A publication Critical patent/CN111326171A/zh
Application granted granted Critical
Publication of CN111326171B publication Critical patent/CN111326171B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明公开了一种基于简谱识别和基频提取的人声旋律提取方法及系统,系统应用该方法,方法包括:将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从单声道音频中分离出人声波形;识别简谱中的音符与歌词对,得到歌词与音符的列表;根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。能够提取音高与旋律匹配的人声旋律。

Description

一种基于简谱识别和基频提取的人声旋律提取方法及系统
技术领域
本发明属于音频处理技术领域,具体地说,涉及一种基于简谱识别和基频提取的人声旋律提取方法及系统。
背景技术
随着计算机技术的发展,音乐的主要传播途径由原来的基于磁带、CD等载体,转变成基于数字音乐的网络下载和点击。为了适应这种传播方式的改变,音乐的识别和检索技术也应用的越来越广。在音乐信息检索中,主要使用的是音乐的主旋律,音乐的主旋律可以用于进行音乐分析、音乐检索、音乐辨识、相似音乐推荐等。
申请号为201810537265.3的发明专利公开了一种提取音频数据中主旋律音轨的方法、装置、终端及存储介质,该方法包括:提取目标音频数据中的多个音轨,确定每个音轨中的人声时间段的时间段信息,得到每个音轨对应的时间段信息集合;在目标音频数据对应的歌词信息中,确定每句歌词的时间段信息,得到歌词信息对应的时间段信息集合;确定每个音轨对应的时间段信息集合与歌词信息对应的时间段信息集合的匹配度;将对应的匹配度最高的音轨,确定为目标音频数据的主旋律音轨。本申请解决了目前的音轨逐一排除方法不适用于编曲风格小众另类的音频,易将音频中非主旋律音轨确定为该音频的主旋律的问题,达到了提高识别音频中的主旋律音轨的普适性和准确性的效果。
该方法的目标是从多个音轨中提取出主旋律音轨,而不能够从主旋律音轨中提取出旋律,同时该方法对于包含分轨信息的歌词信息很难获得。无法得到匹配的唱词和音高。
发明内容
针对现有技术中上述的不足,本发明提供一种基于简谱识别和基频提取的人声旋律提取方法及系统,该方法结合简谱识别与波形识别,从而能够更准确的获取主旋律数据,简谱识别能够获取准确的音高,基频识别得到的频率与唱词能够对应的上。系统采用该方法,能够提取音高与旋律匹配的人声旋律。
为了达到上述目的,本发明采用的解决方案是:一种基于简谱识别和基频提取的人声旋律提取方法,包括如下步骤:
S1:数据预处理,将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;具体包括:
S101:将歌曲原始音频文件解码为wave格式,并归一化至-1~1;
S102:将wave格式的音频通过平均得到单声道的音频;
S103:将单声道音频降采样至8000~44100之间,最佳的降采样频率为20050;
S104:将歌曲对应的简谱文件做二值化处理;
S105:从降采样后的单声道音频中分离出人声波形;
S106:根据歌词文件将人声波形按句分割成多个波形文件。一句歌词对应一个波形文件,便于后续基频提取过程中提取出的基频与歌词句子对应。
S2:简谱识别,识别简谱中的音符与歌词对,得到歌词与对应音符的列表,所述的简谱识别采用OCR api或者开源OCR。
S3:唱词与简谱识别结果对齐,根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;具体包括:
S301:解析唱词文件,按句获得唱词文件中的所有唱词序列;
S302:在简谱识别得到的歌词与音符的列表中检索每一句唱词的文字序列;
S303:将歌词与音符对按唱词序列进行排序,实现唱词与音高对齐。通过唱词与简谱识别结果对齐使得识别得到的音高与歌词对的顺序与人声波形中唱的顺序对齐,并进行补全,从而使识别出的音高与人声波形中的唱词在时间上对齐。
S4:基频提取,选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;具体包括:
S401:选定一个音符,这个音符可以是do、re、mi、fa、so、la、si中的任意一个,由于简谱上的key值一般采用do音来表示,因此,在选定音符时,最好是选择do音;
S402:遍历唱词与音高对齐之后的序列,找到选定的音符对应的人声波形片段;
S403:剪裁所有找到的人声波形片段;
S404:识别所有剪裁的片段的基频;
S405:统计所有剪裁片段的基频,以数量最多的频率作为选定音符的基础频率;
S406:根据选定音符与各音符的相对关系,计算各音符的频率,根据简谱上的音乐key值关系,可以根据音乐基础知识得到各个音符之间相差的半音数,根据这个半音数与选定音符的基础频率,可以计算得到各音符的频率;
S407:将各音符的频率转换为midi音高。
S5:音高平移,平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列,并保存成midi文件。通过音高平移得到音高与唱词匹配的人声旋律。
应用所述的基于简谱识别和基频提取的人声旋律提取方法的系统,包括数据处理模块、简谱识别模块、唱词与音符对齐模块、基频模块和音高平移模块;
所述的数据处理模块将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
所述的简谱识别模块用于识别简谱中的音符与歌词对,得到歌词与音符的列表;
所述的唱词与音符对齐模块用于根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
所述的基频模块用于选择一个音符计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
所述的音高平移模块用于平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
本发明的有益效果是:
(1)该方法结合简谱识别与波形识别,从而能够更准确的获取主旋律数据,简谱识别能够获取准确的音高,基频识别得到的频率与唱词能够对应的上。系统采用该方法,能够提取音高与旋律匹配的人声旋律。
附图说明
图1为本发明人声旋律提取方法流程图;
图2为本发明简谱识别流程图;
图3为本发明唱词与简谱识别结果对齐流程图;
图4为本发明基频提取流程图;
图5为本发明人声旋律提取系统框图。
具体实施方式
以下结合附图对本发明作进一步描述:
如图1所示,一种基于简谱识别和基频提取的人声旋律提取方法,包括如下步骤:
S1:数据预处理,将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;具体包括:
S101:将歌曲原始音频文件解码为wave格式,并归一化至-1~1;
S102:将wave格式的音频通过平均得到单声道的音频;
S103:将单声道音频降采样至8000~44100之间;
S104:将歌曲对应的简谱文件做二值化处理;
S105:从降采样后的单声道音频中分离出人声波形;
S106:根据歌词文件将人声波形按句分割成多个波形文件。一句歌词对应一个波形文件,便于后续基频提取过程中提取出的基频与歌词句子对应。
S2:简谱识别,识别简谱中的音符与歌词对,得到歌词与对应音符的列表,所述的简谱识别采用OCR api或者开源OCR,简谱识别流程如图3所示,歌词简谱输入载入的简谱识别模型识别后得到音符和歌词对的列表。
S3:唱词与简谱识别结果对齐,根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;如图3所示,具体包括:
S301:解析唱词文件,按句获得唱词文件中的所有唱词序列,按句获得唱词相当于将全部唱词按句进行简单分割;
S302:在简谱识别得到的歌词与音符的列表中检索每一句唱词的文字序列;
S303:将歌词与音符对按唱词序列进行排序,实现唱词与音高对齐。通过唱词与简谱识别结果对齐使得识别得到的音高与歌词对的顺序与人声波形中唱的顺序对齐,并进行补全,从而使识别出的音高与人声波形中的唱词在时间上对齐。
S4:基频提取,选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;具体包括:
S401:选定一个音符,这个音符可以是do、re、mi、fa、so、la、si中的任意一个,由于简谱上的key值一般采用do音来表示,因此,在选定音符时,最好是选择do音,图4所示的基频提取流程采用do音进行基频提取;
S402:遍历唱词与音高对齐之后的序列,找到选定的音符对应的人声波形片段;
S403:剪裁所有找到的人声波形片段;
S404:识别所有剪裁的片段的基频;
S405:统计所有剪裁片段的基频,以数量最多的频率作为选定音符的基础频率;
S406:根据选定音符与各音符的相对关系,计算各音符的频率,根据简谱上的音乐key值关系,可以根据音乐基础知识得到各个音符之间相差的半音数,根据这个半音数与选定音符的基础频率,可以计算得到各音符的频率;
S407:将各音符的频率转换为midi音高。
S5:音高平移,平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列,并保存成midi文件。通过音高平移得到音高与唱词匹配的人声旋律。
如图5所示,应用所述的基于简谱识别和基频提取的人声旋律提取方法的系统,包括数据处理模块、简谱识别模块、唱词与音符对齐模块、基频模块和音高平移模块;
所述的数据处理模块将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
所述的简谱识别模块用于识别简谱中的音符与歌词对,得到歌词与音符的列表;
所述的唱词与音符对齐模块用于根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
所述的基频模块用于选择一个音符计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
所述的音高平移模块用于平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
在本方案的其他替代方案中,基频提取还可以采用YIN算法等基频提取方法来提取基频。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (9)

1.一种基于简谱识别和基频提取的人声旋律提取方法,其特征在于:包括如下步骤:
S1:数据预处理,将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
S2:简谱识别,识别简谱中的音符与歌词对,得到歌词与音符的列表;
S3:唱词与简谱识别结果对齐,根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
S4:基频提取,选择一个音符,根据分离得到的人声波形计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
S5:音高平移,平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
2.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的数据预处理具体包括:
S101:将歌曲原始音频文件解码为wave格式,并归一化至-1~1;
S102:将wave格式的音频通过平均得到单声道的音频;
S103:将单声道音频降采样至8000~44100之间;
S104:将歌曲对应的简谱文件做二值化处理;
S105:从降采样后的单声道音频中分离出人声波形。
3.根据权利要求2所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的数据预处理还包括:S106:根据歌词文件将人声波形按句分割成多个波形文件。
4.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的简谱识别采用OCR api或者开源OCR。
5.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的歌词与简谱识别结果对齐具体包括:
S301:解析唱词文件,按句获得唱词文件中的所有唱词序列;
S302:在简谱识别得到的歌词与音符的列表中检索每一句唱词的文字序列;
S303:将歌词与音符对按唱词序列进行排序,实现唱词与音高对齐。
6.根据权利要求1所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的基频提取具体包括:
S401:选定一个音符;
S402:遍历唱词与音高对齐之后的序列,找到选定的音符对应的人声波形片段;
S403:剪裁所有找到的人声波形片段;
S404:识别所有剪裁的片段的基频;
S405:统计所有剪裁片段的基频,以数量最多的频率作为选定音符的基础频率;
S406:根据选定音符与各音符的相对关系,计算各音符的频率;
S407:将各音符的频率转换为midi音高。
7.根据权利要求6所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的音符为do、re、mi、fa、so、la、si中的任意一个。
8.根据权利要求7所述的基于简谱识别和基频提取的人声旋律提取方法,其特征在于:所述的音符最好为do音。
9.应用权利要求1-8中任意一项所述的基于简谱识别和基频提取的人声旋律提取方法的系统,其特征在于:包括数据处理模块、简谱识别模块、唱词与音符对齐模块、基频模块和音高平移模块;
所述的数据处理模块将待处理歌曲对应的简谱文件进行二值化处理,将歌曲原始音频文件处理为降采样后的单声道音频,从降采样后的单声道音频中分离出人声波形;
所述的简谱识别模块用于识别简谱中的音符与歌词对,得到歌词与音符的列表;
所述的唱词与音符对齐模块用于根据唱词文件,检索歌词与音符的列表,得到行唱词与音符的匹配结果序列;
所述的基频模块用于选择一个音符计算音符的基频频率,根据计算得到的基频频率及各音符的相对关系,计算各音符的频率,并将各音符的频率转换为midi音高;
所述的音高平移模块用于平移行歌词与音符的匹配结果序列,得到音高与各音符的midi音高相匹配的行歌词与音符的匹配结果序列。
CN202010059062.5A 2020-01-19 2020-01-19 一种基于简谱识别和基频提取的人声旋律提取方法及系统 Active CN111326171B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010059062.5A CN111326171B (zh) 2020-01-19 2020-01-19 一种基于简谱识别和基频提取的人声旋律提取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010059062.5A CN111326171B (zh) 2020-01-19 2020-01-19 一种基于简谱识别和基频提取的人声旋律提取方法及系统

Publications (2)

Publication Number Publication Date
CN111326171A true CN111326171A (zh) 2020-06-23
CN111326171B CN111326171B (zh) 2023-06-23

Family

ID=71172787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010059062.5A Active CN111326171B (zh) 2020-01-19 2020-01-19 一种基于简谱识别和基频提取的人声旋律提取方法及系统

Country Status (1)

Country Link
CN (1) CN111326171B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782864A (zh) * 2020-06-30 2020-10-16 腾讯音乐娱乐科技(深圳)有限公司 演唱音频分类方法及计算机程序产品、服务器、存储介质
CN112183658A (zh) * 2020-10-14 2021-01-05 小叶子(北京)科技有限公司 一种曲谱识别方法、装置、电子设备及存储介质
CN112735365A (zh) * 2020-12-24 2021-04-30 重庆悦派对信息科技有限公司 一种基于概率模型的主旋律自动提取算法
CN113035160A (zh) * 2021-02-26 2021-06-25 成都潜在人工智能科技有限公司 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质
CN113096623A (zh) * 2021-03-26 2021-07-09 北京儒博科技有限公司 语音处理方法、装置、电子设备及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041068A (ja) * 2000-07-26 2002-02-08 Daiichikosho Co Ltd カラオケ装置における歌唱採点方法
US20070107585A1 (en) * 2005-09-14 2007-05-17 Daniel Leahy Music production system
US20100192755A1 (en) * 2007-09-07 2010-08-05 Microsoft Corporation Automatic accompaniment for vocal melodies
CN102663423A (zh) * 2012-03-28 2012-09-12 北京航空航天大学 一种简谱图像的自动识别和演奏的方法
CN105788589A (zh) * 2016-05-04 2016-07-20 腾讯科技(深圳)有限公司 一种音频数据的处理方法及装置
CN106548768A (zh) * 2016-10-18 2017-03-29 广州酷狗计算机科技有限公司 一种音符修正的方法和装置
CN108053832A (zh) * 2017-12-11 2018-05-18 广州酷狗计算机科技有限公司 音频信号处理方法、装置、电子设备及存储介质
CN109272975A (zh) * 2018-08-14 2019-01-25 无锡冰河计算机科技发展有限公司 演唱伴奏自动调整方法、装置及ktv点唱机
CN109727590A (zh) * 2018-12-24 2019-05-07 成都嗨翻屋科技有限公司 基于循环神经网络的音乐生成方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041068A (ja) * 2000-07-26 2002-02-08 Daiichikosho Co Ltd カラオケ装置における歌唱採点方法
US20070107585A1 (en) * 2005-09-14 2007-05-17 Daniel Leahy Music production system
US20100192755A1 (en) * 2007-09-07 2010-08-05 Microsoft Corporation Automatic accompaniment for vocal melodies
CN102663423A (zh) * 2012-03-28 2012-09-12 北京航空航天大学 一种简谱图像的自动识别和演奏的方法
CN105788589A (zh) * 2016-05-04 2016-07-20 腾讯科技(深圳)有限公司 一种音频数据的处理方法及装置
CN106548768A (zh) * 2016-10-18 2017-03-29 广州酷狗计算机科技有限公司 一种音符修正的方法和装置
CN108053832A (zh) * 2017-12-11 2018-05-18 广州酷狗计算机科技有限公司 音频信号处理方法、装置、电子设备及存储介质
CN109272975A (zh) * 2018-08-14 2019-01-25 无锡冰河计算机科技发展有限公司 演唱伴奏自动调整方法、装置及ktv点唱机
CN109727590A (zh) * 2018-12-24 2019-05-07 成都嗨翻屋科技有限公司 基于循环神经网络的音乐生成方法及装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782864A (zh) * 2020-06-30 2020-10-16 腾讯音乐娱乐科技(深圳)有限公司 演唱音频分类方法及计算机程序产品、服务器、存储介质
CN111782864B (zh) * 2020-06-30 2023-11-07 腾讯音乐娱乐科技(深圳)有限公司 演唱音频分类方法及计算机程序产品、服务器、存储介质
CN112183658A (zh) * 2020-10-14 2021-01-05 小叶子(北京)科技有限公司 一种曲谱识别方法、装置、电子设备及存储介质
CN112183658B (zh) * 2020-10-14 2024-01-26 小叶子(北京)科技有限公司 一种曲谱识别方法、装置、电子设备及存储介质
CN112735365A (zh) * 2020-12-24 2021-04-30 重庆悦派对信息科技有限公司 一种基于概率模型的主旋律自动提取算法
CN113035160A (zh) * 2021-02-26 2021-06-25 成都潜在人工智能科技有限公司 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质
CN113035160B (zh) * 2021-02-26 2022-08-02 成都潜在人工智能科技有限公司 基于相似矩阵的音乐自动剪辑实现方法、装置及存储介质
CN113096623A (zh) * 2021-03-26 2021-07-09 北京儒博科技有限公司 语音处理方法、装置、电子设备及介质
CN113096623B (zh) * 2021-03-26 2023-07-14 北京如布科技有限公司 语音处理方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN111326171B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN111326171A (zh) 一种基于简谱识别和基频提取的人声旋律提取方法及系统
Ren et al. Deepsinger: Singing voice synthesis with data mined from the web
Gupta et al. Automatic lyrics alignment and transcription in polyphonic music: Does background music help?
US7064262B2 (en) Method for converting a music signal into a note-based description and for referencing a music signal in a data bank
Kroher et al. Automatic transcription of flamenco singing from polyphonic music recordings
CN108597535B (zh) 一种融合伴奏的midi钢琴曲风格分类方法
Román et al. An End-to-end Framework for Audio-to-Score Music Transcription on Monophonic Excerpts.
Clarisse et al. An Auditory Model Based Transcriber of Singing Sequences.
Gao et al. Genre-conditioned acoustic models for automatic lyrics transcription of polyphonic music
Heydarian Automatic recognition of Persian musical modes in audio musical signals
Dzhambazov et al. On the use of note onsets for improved lyrics-to-audio alignment in turkish makam music
Kong et al. Strada: A singer traits dataset
CN106971750B (zh) 歌词文件和音调文件对齐方法及装置
Zhang et al. A novel singer identification method using GMM-UBM
Lee A system for automatic chord transcription from audio using genre-specific hidden Markov models
CN115662465A (zh) 一种适用于民族弦乐乐器的声音识别算法及装置
Li et al. Frame-level multi-label playing technique detection using multi-scale network and self-attention mechanism
Vatolkin et al. Comparison of Audio Features for Recognition of Western and Ethnic Instruments in Polyphonic Mixtures.
Chuan et al. The KUSC classical music dataset for audio key finding
CN113066512A (zh) 佛教音乐识别方法、装置、设备及存储介质
Zhao et al. Violinist identification using note-level timbre feature distributions
Duggan Machine annotation of traditional Irish dance music
US20040158437A1 (en) Method and device for extracting a signal identifier, method and device for creating a database from signal identifiers and method and device for referencing a search time signal
Salamon et al. A chroma-based salience function for melody and bass line estimation from music audio signals
CN113646756A (zh) 信息处理装置、方法以及程序

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230530

Address after: Room 1210, 12 / F, unit 1, building 1, No. 722, middle section of Yizhou Avenue, high tech Zone, Chengdu, Sichuan 610000

Applicant after: Chengdu potential Artificial Intelligence Technology Co.,Ltd.

Address before: 610041 Building No. 722, Building No. 1, Unit 12, Layer 121, Middle Section of Yizhou Avenue, Chengdu High-tech Zone, Sichuan Province

Applicant before: CHENGDU HIFIVE TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant