CN113096620A - 一种乐器音色识别方法、系统、设备及存储介质 - Google Patents
一种乐器音色识别方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN113096620A CN113096620A CN202110315495.7A CN202110315495A CN113096620A CN 113096620 A CN113096620 A CN 113096620A CN 202110315495 A CN202110315495 A CN 202110315495A CN 113096620 A CN113096620 A CN 113096620A
- Authority
- CN
- China
- Prior art keywords
- tone
- musical instrument
- tone color
- information
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/005—Device type or category
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明公开了一种乐器音色识别方法、系统、设备及存储介质。涉及乐器识别技术领域。该方法包括以下步骤:录入并根据各种乐器的标准音色数据建立乐器音色数据库;基于深度学习算法根据乐器音色数据库建立音色识别模型;获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息;根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息。本发明还公开来了一种乐器音色识别系统。本发明具有可通过采集到的乐器音频自动智能的识别出该种乐器的音色,并给出音色等级,保证音色识别的精度优点。
Description
技术领域
本发明涉及乐器识别技术领域,具体而言,涉及一种乐器音色识别方法、系统、设备及存储介质。
背景技术
音色是声音的特色,声音的感觉特性,是乐音的品质特征;能够将音高、音强和音长都相同的两个音区别开来的一种声音的属性。每一种不同的乐器,由于生产过程不同或制造材料不同,做出的同一种乐器其音色也有所区别,是因为它们发出的声音除了一个基音外,还有许多不同频率的谐波音伴随,正是这些谐波音作用于人的听觉系统,人耳对这些谐波音频率进行分析、合成最后在大脑中生成不同音色的感觉,使人能辨别出是不同的乐器发出的声音。
人耳主要通过分析声音的谐波音列结构和起时状态(乐音从无声到有声的一瞬间的状态)来识别音色。通常各类乐器的调音或定音都是由经验丰富的经过严格训练的专业人员来完成。但这样一来对乐器的调音或定音存在较大的人为因素,难以保证调音的准确性,有时也会存在误差或错觉,而对于业余爱好者来说,就更无法准确的鉴定乐器的音色。现有技术中虽然也有采用频率计或定音器来定音或调音,但其效果不好,识别精度低,无法满足音色识别需求。
发明内容
为了克服上述问题或者至少部分地解决上述问题,本发明实施例提供一种乐器音色识别方法、系统、设备及存储介质,可以通过采集到的乐器音频信息自动智能的识别出该种乐器的音色,并给出音色等级,保证音色识别的精度。
本发明的实施例是这样实现的:
第一方面,本发明实施例提供一种乐器音色识别方法,包括以下步骤:
录入并根据各种乐器的标准音色数据建立乐器音色数据库;
基于深度学习算法根据乐器音色数据库建立音色识别模型;
获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息;
根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息。
为了解决现有技术中乐器音色识别不精准的技术问题,本方法结合深度学习算法建立音色识别模型,对乐器音色进行精准识别。首先,为了保证数据的全面完整性,录入多种乐器信息及各种乐器对应的音色数据,然后建立完整的乐器音色数据库,为后续提供数据基础;上述乐器信息包括乐器类型、型号、尺寸大小以及制作材质等信息;上述音色数据包括低音、中音、高音、混声、和声等。数据库建立完成后,根据该乐器音色数据库中的数据采用深度学习算法建立完整有效的音色识别模型;该音色识别模型是指根据历史训练结果对乐器音色进行识别匹配,以得到音色识别结果的数学模型。当需要进行乐器音色识别时,获取音色待识别信息,然后将该音色待识别信息导入到音色识别模型中,通过音色识别模型对其进行识别分析,识别匹配得到音色识别结果信息,该音色识别结果信息包括所属乐器类型以及其对应的音色频段。当识别出具体的乐器类型和音色频段后,根据预设的对应的音色等级分布规则识别出具体的音色等级,进而得到精准的乐器音色信息,该乐器音色信息包括乐器类型、音色频段和音色等级等信息。
本方法结合深度学习算法建立音色识别模型,并对乐器音色等级进行区分识别,以得到完整精确的音色识别数据,对乐器音色进行精准识别,提高识别精度。
基于第一方面,在本发明的一些实施例中,上述基于深度学习算法根据乐器音色数据库建立音色识别模型的方法包括以下步骤:
获取并根据乐器音色标准信息建立初始识别模型;
根据乐器音色数据库中的乐器数据集及对应的音色数据集基于深度学习算法对初始识别模型进行训练,以得到音色识别模型。
基于第一方面,在本发明的一些实施例中,上述获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息的方法包括以下步骤:
获取并导入音色待识别信息至音色识别模型中;
通过音色识别模型将音色待识别信息中的乐器音频与音色识别模型中的标准乐器音频进行匹配,以得到乐器音色匹配结果;
根据乐器音色匹配结果生成音色识别结果信息。
基于第一方面,在本发明的一些实施例中,上述根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息的方法包括以下步骤:
获取并根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则;
根据音色识别结果信息中的乐器信息选定对应的音色等级分布规则;
根据音色识别结果信息中的音色频段数据和选定的音色等级分布规则生成乐器音色信息。
第二方面,本发明实施例提供一种乐器音色识别系统,包括数据库建立模块、模型建立模块、初始识别模块以及音色等级模块,其中:
数据库建立模块,用于录入并根据各种乐器的标准音色数据建立乐器音色数据库;
模型建立模块,用于基于深度学习算法根据乐器音色数据库建立音色识别模型;
初始识别模块,用于获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息;
音色等级模块,用于根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息。
为了解决现有技术中乐器音色识别不精准的技术问题,本系统结合深度学习算法建立音色识别模型,对乐器音色进行精准识别。首先,为了保证数据的全面完整性,通过数据库建立模块录入多种乐器信息及各种乐器对应的音色数据,然后建立完整的乐器音色数据库,为后续提供数据基础;上述乐器信息包括乐器类型、型号、尺寸大小以及制作材质等信息;上述音色数据包括低音、中音、高音、混声、和声等。数据库建立完成后,模型建立模块根据该乐器音色数据库中的数据采用深度学习算法建立完整有效的音色识别模型;该音色识别模型是指根据历史训练结果对乐器音色进行识别匹配,以得到音色识别结果的数学模型。当需要进行乐器音色识别时,通过初始识别模块获取音色待识别信息,然后将该音色待识别信息导入到音色识别模型中,通过音色识别模型对其进行识别分析,识别匹配得到音色识别结果信息,该音色识别结果信息包括所属乐器类型以及其对应的音色频段。当识别出具体的乐器类型和音色频段后,音色等级模块根据预设的对应的音色等级分布规则识别出具体的音色等级,进而得到精准的乐器音色信息,该乐器音色信息包括乐器类型、音色频段和音色等级等信息。
本系统结合深度学习算法建立音色识别模型,并对乐器音色等级进行区分识别,以得到完整精确的音色识别数据,对乐器音色进行精准识别,提高识别精度。
基于第二方面,在本发明的一些实施例中,上述模型建立模块包括初始模型子模块和模型训练子模块,其中:
初始模型子模块,用于获取并根据乐器音色标准信息建立初始识别模型;
模型训练子模块,用于根据乐器音色数据库中的乐器数据集及对应的音色数据集基于深度学习算法对初始识别模型进行训练,以得到音色识别模型。
基于第二方面,在本发明的一些实施例中,上述初始识别模块包括信息导入子模块、音频匹配子模块以及音色识别子模块,其中:
信息导入子模块,用于获取并导入音色待识别信息至音色识别模型中;
音频匹配子模块,用于通过音色识别模型将音色待识别信息中的乐器音频与音色识别模型中的标准乐器音频进行匹配,以得到乐器音色匹配结果;
音色识别子模块,用于根据乐器音色匹配结果生成音色识别结果信息。
基于第二方面,在本发明的一些实施例中,上述音色等级模块包括规则设定子模块、规则选定子模块以及等级识别子模块,其中:
规则设定子模块,用于获取并根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则;
规则选定子模块,用于根据音色识别结果信息中的乐器信息选定对应的音色等级分布规则;
等级识别子模块,用于根据音色识别结果信息中的音色频段数据和选定的音色等级分布规则生成乐器音色信。
第三方面,本申请实施例提供一种电子设备,其包括存储器,用于存储一个或多个程序;处理器。当一个或多个程序被处理器执行时,实现如上述第一方面中任一项的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述第一方面中任一项的方法。
本发明实施例至少具有如下优点或有益效果:
本发明实施例提供一种乐器音色识别方法、系统、设备及存储介质,建立完整的乐器音色数据库,为后续提供数据基础;数据库建立完成后,根据该乐器音色数据库中的数据采用深度学习算法建立完整有效的音色识别模型。获取音色待识别信息,通过音色识别模型对其进行识别分析,识别匹配得到音色识别结果信息,该音色识别结果信息包括所属乐器类型以及其对应的音色频段。当识别出具体的乐器类型和音色频段后,根据预设的对应的音色等级分布规则识别出具体的音色等级,进而得到精准的乐器音色信息。本发明结合深度学习算法建立音色识别模型,并对乐器音色等级进行区分识别,以得到完整精确的音色识别数据,对乐器音色进行精准识别,提高识别精度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例一种乐器音色识别方法的流程图;
图2为本发明实施例一种乐器音色识别系统的原理框图;
图3为本发明实施例提供的一种电子设备的结构框图。
图标:100、数据库建立模块;200、模型建立模块;210、初始模型子模块;220、模型训练子模块;300、初始识别模块;310、信息导入子模块;320、音频匹配子模块;330、音色识别子模块;400、音色等级模块;410、规则设定子模块;420、规则选定子模块;430、等级识别子模块;101、存储器;102、处理器;103、通信接口。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
实施例
如图1所示,第一方面,本发明实施例提供一种乐器音色识别方法,包括以下步骤:
S1、录入并根据各种乐器的标准音色数据建立乐器音色数据库;
在本发明的一些实施例中,首先,为了保证数据的全面完整性,录入多种乐器信息及各种乐器对应的音色数据,然后建立完整的乐器音色数据库,为后续提供数据基础;上述乐器信息包括乐器类型、型号、尺寸大小以及制作材质等信息;上述音色数据包括低音、中音、高音、混声、和声等。上述乐器类型包括钢琴、竖琴、大提琴、中提琴、小提琴、低音提琴、口琴、凤凰琴、电子琴、木琴、钢片琴、颤音琴、吉他、贝斯、笛等多种类型。
S2、基于深度学习算法根据乐器音色数据库建立音色识别模型;
在本发明的一些实施例中,数据库建立完成后,根据该乐器音色数据库中的数据采用深度学习算法建立完整有效的音色识别模型;该音色识别模型是指根据历史训练结果对乐器音色进行识别匹配,以得到音色识别结果的数学模型。
S3、获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息;
在本发明的一些实施例中,当需要进行乐器音色识别时,获取音色待识别信息,然后将该音色待识别信息导入到音色识别模型中,通过音色识别模型对其进行识别分析,识别匹配得到音色识别结果信息,该音色识别结果信息包括所属乐器类型以及其对应的音色频段。
S4、根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息。
在本发明的一些实施例中,当识别出具体的乐器类型和音色频段后,根据预设的对应的音色等级分布规则识别出具体的音色等级,进而得到精准的乐器音色信息,该乐器音色信息包括乐器类型、音色频段和音色等级等信息。
为了解决现有技术中乐器音色识别不精准的技术问题,本方法结合深度学习算法建立音色识别模型,对乐器音色进行精准识别。本方法结合深度学习算法建立音色识别模型,并对乐器音色等级进行区分识别,以得到完整精确的音色识别数据,对乐器音色进行精准识别,提高识别精度。
基于第一方面,在本发明的一些实施例中,上述基于深度学习算法根据乐器音色数据库建立音色识别模型的方法包括以下步骤:
获取并根据乐器音色标准信息建立初始识别模型;
根据乐器音色数据库中的乐器数据集及对应的音色数据集基于深度学习算法对初始识别模型进行训练,以得到音色识别模型。
为了保证模型的有效精准性,首先根据乐器音色标准信息建立一个初始识别模型,为后续模型训练提供基础;上述乐器音色标准信息包括现有的乐器类型以及各个类型乐器对应的不同频段的音色范围值;初始模型建立完成后,根据乐器数据集及对应的音色数据集基于深度学习对初始识别模型进行训练,通过不断训练得到一个精准的音色识别模型。
基于第一方面,在本发明的一些实施例中,上述获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息的方法包括以下步骤:
获取并导入音色待识别信息至音色识别模型中;
通过音色识别模型将音色待识别信息中的乐器音频与音色识别模型中的标准乐器音频进行匹配,以得到乐器音色匹配结果;
根据乐器音色匹配结果生成音色识别结果信息。
在进行音色识别时,将信息导入到音色识别模型中后,通过音色识别模型提取待识别信息中的音色将其与模型中的乐器音色进行匹配,以匹配得到对应的乐器类型,然后再根据乐器类型匹配该类型对应的音色频段,确定音色识别结果。
基于第一方面,在本发明的一些实施例中,上述根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息的方法包括以下步骤:
获取并根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则;
根据音色识别结果信息中的乐器信息选定对应的音色等级分布规则;
根据音色识别结果信息中的音色频段数据和选定的音色等级分布规则生成乐器音色信息。
为了保证乐器音色识别的精准性,将不同音色频段进行分级细化,根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则,不同频段设定不同等级,然后根据色识别结果信息中的音色频段数据和对应的音色等级分布规则生成乐器音色信息。
如图2所示,第二方面,本发明实施例提供一种乐器音色识别系统,包括数据库建立模块100、模型建立模块200、初始识别模块300以及音色等级模块400,其中:
数据库建立模块100,用于录入并根据各种乐器的标准音色数据建立乐器音色数据库;
模型建立模块200,用于基于深度学习算法根据乐器音色数据库建立音色识别模型;
初始识别模块300,用于获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息;
音色等级模块400,用于根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息。
为了解决现有技术中乐器音色识别不精准的技术问题,本系统结合深度学习算法建立音色识别模型,对乐器音色进行精准识别。首先,为了保证数据的全面完整性,通过数据库建立模块100录入多种乐器信息及各种乐器对应的音色数据,然后建立完整的乐器音色数据库,为后续提供数据基础;上述乐器信息包括乐器类型、型号、尺寸大小以及制作材质等信息;上述音色数据包括低音、中音、高音、混声、和声等。数据库建立完成后,模型建立模块200根据该乐器音色数据库中的数据采用深度学习算法建立完整有效的音色识别模型;该音色识别模型是指根据历史训练结果对乐器音色进行识别匹配,以得到音色识别结果的数学模型。当需要进行乐器音色识别时,通过初始识别模块300获取音色待识别信息,然后将该音色待识别信息导入到音色识别模型中,通过音色识别模型对其进行识别分析,识别匹配得到音色识别结果信息,该音色识别结果信息包括所属乐器类型以及其对应的音色频段。当识别出具体的乐器类型和音色频段后,音色等级模块400根据预设的对应的音色等级分布规则识别出具体的音色等级,进而得到精准的乐器音色信息,该乐器音色信息包括乐器类型、音色频段和音色等级等信息。
本系统结合深度学习算法建立音色识别模型,并对乐器音色等级进行区分识别,以得到完整精确的音色识别数据,对乐器音色进行精准识别,提高识别精度。
如图2所示,基于第二方面,在本发明的一些实施例中,上述模型建立模块200包括初始模型子模块210和模型训练子模块220,其中:
初始模型子模块210,用于获取并根据乐器音色标准信息建立初始识别模型;
模型训练子模块220,用于根据乐器音色数据库中的乐器数据集及对应的音色数据集基于深度学习算法对初始识别模型进行训练,以得到音色识别模型。
为了保证模型的有效精准性,首先初始模型子模块210根据乐器音色标准信息建立一个初始识别模型,为后续模型训练提供基础;上述乐器音色标准信息包括现有的乐器类型以及各个类型乐器对应的不同频段的音色范围值;初始模型建立完成后,模型训练子模块220根据乐器数据集及对应的音色数据集基于深度学习对初始识别模型进行训练,通过不断训练得到一个精准的音色识别模型。
如图2所示,基于第二方面,在本发明的一些实施例中,上述初始识别模块300包括信息导入子模块310、音频匹配子模块320以及音色识别子模块330,其中:
信息导入子模块310,用于获取并导入音色待识别信息至音色识别模型中;
音频匹配子模块320,用于通过音色识别模型将音色待识别信息中的乐器音频与音色识别模型中的标准乐器音频进行匹配,以得到乐器音色匹配结果;
音色识别子模块330,用于根据乐器音色匹配结果生成音色识别结果信息。
在进行音色识别时,信息导入子模块310将信息导入到音色识别模型中后,音频匹配子模块320通过音色识别模型提取待识别信息中的音色将其与模型中的乐器音色进行匹配,以匹配得到对应的乐器类型,然后再根据乐器类型匹配该类型对应的音色频段,确定音色频段结果,最后通过音色识别子模块330将乐器类型和音色频段结果进行整合,以得到完整的音色识别结果信息。
如图2所示,基于第二方面,在本发明的一些实施例中,上述音色等级模块400包括规则设定子模块410、规则选定子模块420以及等级识别子模块430,其中:
规则设定子模块410,用于获取并根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则;
规则选定子模块420,用于根据音色识别结果信息中的乐器信息选定对应的音色等级分布规则;
等级识别子模块430,用于根据音色识别结果信息中的音色频段数据和选定的音色等级分布规则生成乐器音色信。
为了保证乐器音色识别的精准性,将不同音色频段进行分级细化,规则设定子模块410根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则,不同频段设定不同等级,然后等级识别子模块430根据色识别结果信息中的音色频段数据和对应的音色等级分布规则生成乐器音色信息。
如图3所示,第三方面,本申请实施例提供一种电子设备,其包括存储器101,用于存储一个或多个程序;处理器102。当一个或多个程序被处理器102执行时,实现如上述第一方面中任一项的方法。
还包括通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器101可用于存储软件程序及模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口103可用于与其他节点设备进行信令或数据的通信。
其中,存储器101可以是但不限于,随机存取存储器101(Random Access Memory,RAM),只读存储器101(Read Only Memory,ROM),可编程只读存储器101(ProgrammableRead-Only Memory,PROM),可擦除只读存储器101(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器101(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。
处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器102,包括中央处理器102(Central Processing Unit,CPU)、网络处理器102(Network Processor,NP)等;还可以是数字信号处理器102(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请所提供的实施例中,应该理解到,所揭露的方法及系统和方法,也可以通过其它的方式实现。以上所描述的方法及系统实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的方法及系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器102执行时实现如上述第一方面中任一项的方法。所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器101(ROM,Read-Only Memory)、随机存取存储器101(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (10)
1.一种乐器音色识别方法,其特征在于,包括以下步骤:
录入并根据各种乐器的标准音色数据建立乐器音色数据库;
基于深度学习算法根据乐器音色数据库建立音色识别模型;
获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息;
根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息。
2.根据权利要求1所述的一种乐器音色识别方法,其特征在于,所述基于深度学习算法根据乐器音色数据库建立音色识别模型的方法包括以下步骤:
获取并根据乐器音色标准信息建立初始识别模型;
根据乐器音色数据库中的乐器数据集及对应的音色数据集基于深度学习算法对初始识别模型进行训练,以得到音色识别模型。
3.根据权利要求1所述的一种乐器音色识别方法,其特征在于,所述获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息的方法包括以下步骤:
获取并导入音色待识别信息至音色识别模型中;
通过音色识别模型将音色待识别信息中的乐器音频与音色识别模型中的标准乐器音频进行匹配,以得到乐器音色匹配结果;
根据乐器音色匹配结果生成音色识别结果信息。
4.根据权利要求1所述的一种乐器音色识别方法,其特征在于,所述根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息的方法包括以下步骤:
获取并根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则;
根据音色识别结果信息中的乐器信息选定对应的音色等级分布规则;
根据音色识别结果信息中的音色频段数据和选定的音色等级分布规则生成乐器音色信息。
5.一种乐器音色识别系统,其特征在于,包括数据库建立模块、模型建立模块、初始识别模块以及音色等级模块,其中:
数据库建立模块,用于录入并根据各种乐器的标准音色数据建立乐器音色数据库;
模型建立模块,用于基于深度学习算法根据乐器音色数据库建立音色识别模型;
初始识别模块,用于获取并导入音色待识别信息至音色识别模型中,生成音色识别结果信息;
音色等级模块,用于根据音色识别结果信息和预设的音色等级分布规则生成乐器音色信息。
6.根据权利要求5所述的一种乐器音色识别系统,其特征在于,所述模型建立模块包括初始模型子模块和模型训练子模块,其中:
初始模型子模块,用于获取并根据乐器音色标准信息建立初始识别模型;
模型训练子模块,用于根据乐器音色数据库中的乐器数据集及对应的音色数据集基于深度学习算法对初始识别模型进行训练,以得到音色识别模型。
7.根据权利要求5所述的一种乐器音色识别系统,其特征在于,所述初始识别模块包括信息导入子模块、音频匹配子模块以及音色识别子模块,其中:
信息导入子模块,用于获取并导入音色待识别信息至音色识别模型中;
音频匹配子模块,用于通过音色识别模型将音色待识别信息中的乐器音频与音色识别模型中的标准乐器音频进行匹配,以得到乐器音色匹配结果;
音色识别子模块,用于根据乐器音色匹配结果生成音色识别结果信息。
8.根据权利要求5所述的一种乐器音色识别系统,其特征在于,所述音色等级模块包括规则设定子模块、规则选定子模块以及等级识别子模块,其中:
规则设定子模块,用于获取并根据各种乐器对应的音色等级频段信息设定各种乐器对应的音色等级分布规则;
规则选定子模块,用于根据音色识别结果信息中的乐器信息选定对应的音色等级分布规则;
等级识别子模块,用于根据音色识别结果信息中的音色频段数据和选定的音色等级分布规则生成乐器音色信。
9.一种电子设备,其特征在于,包括:
存储器,用于存储一个或多个程序;
处理器;
当所述一个或多个程序被所述处理器执行时,实现如权利要求1-4中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110315495.7A CN113096620A (zh) | 2021-03-24 | 2021-03-24 | 一种乐器音色识别方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110315495.7A CN113096620A (zh) | 2021-03-24 | 2021-03-24 | 一种乐器音色识别方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113096620A true CN113096620A (zh) | 2021-07-09 |
Family
ID=76669945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110315495.7A Pending CN113096620A (zh) | 2021-03-24 | 2021-03-24 | 一种乐器音色识别方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113096620A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113823268A (zh) * | 2021-08-31 | 2021-12-21 | 北京艺旗网络科技有限公司 | 一种音乐智能识别方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107195289A (zh) * | 2016-05-28 | 2017-09-22 | 浙江大学 | 一种可编辑的多级音色合成系统及方法 |
WO2017206661A1 (zh) * | 2016-05-30 | 2017-12-07 | 深圳市鼎盛智能科技有限公司 | 语音识别的方法及系统 |
CN108962279A (zh) * | 2018-07-05 | 2018-12-07 | 平安科技(深圳)有限公司 | 音频数据的乐器识别方法及装置、电子设备、存储介质 |
CN109147819A (zh) * | 2018-08-08 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 音频信息处理方法、装置及存储介质 |
CN109801645A (zh) * | 2019-01-21 | 2019-05-24 | 深圳蜜蜂云科技有限公司 | 一种乐音识别方法 |
CN110111773A (zh) * | 2019-04-01 | 2019-08-09 | 华南理工大学 | 基于卷积神经网络的音乐信号多乐器识别方法 |
CN111048110A (zh) * | 2018-10-15 | 2020-04-21 | 杭州网易云音乐科技有限公司 | 乐器识别方法、介质、装置和计算设备 |
-
2021
- 2021-03-24 CN CN202110315495.7A patent/CN113096620A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107195289A (zh) * | 2016-05-28 | 2017-09-22 | 浙江大学 | 一种可编辑的多级音色合成系统及方法 |
WO2017206661A1 (zh) * | 2016-05-30 | 2017-12-07 | 深圳市鼎盛智能科技有限公司 | 语音识别的方法及系统 |
CN108962279A (zh) * | 2018-07-05 | 2018-12-07 | 平安科技(深圳)有限公司 | 音频数据的乐器识别方法及装置、电子设备、存储介质 |
CN109147819A (zh) * | 2018-08-08 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 音频信息处理方法、装置及存储介质 |
CN111048110A (zh) * | 2018-10-15 | 2020-04-21 | 杭州网易云音乐科技有限公司 | 乐器识别方法、介质、装置和计算设备 |
CN109801645A (zh) * | 2019-01-21 | 2019-05-24 | 深圳蜜蜂云科技有限公司 | 一种乐音识别方法 |
CN110111773A (zh) * | 2019-04-01 | 2019-08-09 | 华南理工大学 | 基于卷积神经网络的音乐信号多乐器识别方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113823268A (zh) * | 2021-08-31 | 2021-12-21 | 北京艺旗网络科技有限公司 | 一种音乐智能识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Engel et al. | Neural audio synthesis of musical notes with wavenet autoencoders | |
Vincent et al. | Adaptive harmonic spectral decomposition for multiple pitch estimation | |
De Poli et al. | Sonological models for timbre characterization | |
US10242097B2 (en) | Music selection and organization using rhythm, texture and pitch | |
US9875304B2 (en) | Music selection and organization using audio fingerprints | |
US8535236B2 (en) | Apparatus and method for analyzing a sound signal using a physiological ear model | |
Saitis et al. | Brightness perception for musical instrument sounds: Relation to timbre dissimilarity and source-cause categories | |
Wang et al. | Adaptive time-frequency scaterring for periodic modulation recognition in music signals | |
Van Hedger et al. | Telling in-tune from out-of-tune: widespread evidence for implicit absolute intonation | |
Patil et al. | Biomimetic spectro-temporal features for music instrument recognition in isolated notes and solo phrases | |
Lembke et al. | Acoustical correlates of perceptual blend in timbre dyads and triads | |
CN113096620A (zh) | 一种乐器音色识别方法、系统、设备及存储介质 | |
Lindenbaum et al. | Musical key extraction using diffusion maps | |
CN115331648A (zh) | 音频数据处理方法、装置、设备、存储介质及产品 | |
Le Groux et al. | Perceptsynth: mapping perceptual musical features to sound synthesis parameters | |
CN111696500B (zh) | 一种midi序列和弦进行识别方法和装置 | |
Dubnov | Polyspectral analysis of musical timbre | |
Hsiao et al. | Multiclass MTS for saxophone timbre quality inspection using waveform-shape-based features | |
O’Reilly et al. | Pitch tracking of bird vocalizations and an automated process using YIN-bird | |
Stöter et al. | Unison Source Separation. | |
Schneider et al. | Perception of harmonic and inharmonic sounds: Results from ear models | |
CN112750422B (zh) | 一种歌声合成方法、装置及设备 | |
Tideman | Organization of Electronic Dance Music by Dimensionality Reduction | |
Weihs | Music Data Analysis | |
Feichtner | Single Musical Instrument Recognition-a solved Problem?: An Evaluation of Different Approaches to Musical Instrument Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |