CN108549675A - 一种基于大数据及神经网络的钢琴教学方法 - Google Patents

一种基于大数据及神经网络的钢琴教学方法 Download PDF

Info

Publication number
CN108549675A
CN108549675A CN201810277873.5A CN201810277873A CN108549675A CN 108549675 A CN108549675 A CN 108549675A CN 201810277873 A CN201810277873 A CN 201810277873A CN 108549675 A CN108549675 A CN 108549675A
Authority
CN
China
Prior art keywords
music
data
piano
classification
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810277873.5A
Other languages
English (en)
Other versions
CN108549675B (zh
Inventor
陈振奎
侯凤霞
刘祥国
马红义
屈静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University of Technology
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810277873.5A priority Critical patent/CN108549675B/zh
Publication of CN108549675A publication Critical patent/CN108549675A/zh
Application granted granted Critical
Publication of CN108549675B publication Critical patent/CN108549675B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/036Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal of musical genre, i.e. analysing the style of musical pieces, usually for selection, filtering or classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于大数据及神经网络的钢琴教学方法,对音频文件进行节拍分类,使用训练BP神经网络对不同钢琴音乐流派进行分类识别,采用Thayer的二维情感模型,将音乐的情感类型分为快乐、轻松、忧伤和愤怒四类,将数字音乐文件分别存储于不同存储层,将差异点添加上身份信息标签,云端大数据库将对比后的每一段中节拍及音色的差异点及云端大数据库中对应的音乐文件片段反馈给教学终端。根据不同节奏、流派、情绪的钢琴练习结果评分,结合不同地区、年龄、性别的身份信息,可根据身份信息进行不同优先等级的相似度评判,教学结果评价更具有针对性,并可以针对用户喜欢的音乐内容,找到与其最接近的音乐内容进行练习推荐。

Description

一种基于大数据及神经网络的钢琴教学方法
技术领域
本发明属于影音设备领域,尤其涉及一种基于大数据及神经网络的钢琴教学方法。
背景技术
传统的钢琴教学大多是通过老师人工指导和纠错,这种教学和练习方式效率比较低,而且不同区域、年龄、性别的学员由于其自身生活环境或者学习方式的原因,有不同的音乐类型偏好和习惯,现有教学方式针对性差,教学效果不好。
发明内容
针对现有技术存在的问题,本发明提供了一种基于大数据及神经网络的钢琴教学方法。
本发明是这样实现的,一种基于大数据及神经网络的钢琴教学方法包括:
步骤一、将钢琴教学曲目及线上店铺数据库和线下店铺数据库上传至云端大数据库服务器;
步骤二、对上传至云端大数据库服务器的数字音乐文件进行处理形成统一格式并分帧,对每一帧信号作DFT变换计算幅度频谱,然后将幅度频谱用Mel尺度变换到Mel域,经过等带宽的Mel滤波器组滤波之后,将滤波器的输出能量进行叠加;
步骤三、将分帧后的音频文件通过低通滤波器后将其信息用依据音乐信号停顿构造的二叉树或网格结构分析,检测出音频文件的周期性节奏,以不同的周期性节奏对音频文件进行节拍分类;
步骤四、用训练集训练BP神经网络,在训练过程中根据BP神经网络的预测误差调整网络的权值和阈值,使用训练BP神经网络对不同钢琴音乐流派进行分类识别;
步骤五、将分帧后的音频文件以固定的时间长度分段,根据音乐提取的强度特征,采用Thayer的二维情感模型,将音乐的情感类型分为快乐、轻松、忧伤和愤怒四类;
步骤六、通过钢琴端的教学终端读取弹奏者的身份信息,该身份信息包括所在地理区域信息、年龄信息、性别信息,将云端大数据库服务器分层为节拍数据层、流派数据层、情感数据层、身份信息层,将云端大数据库服务器中的数字音乐文件分别按照节拍分类、音乐流派分类、情感类型分类存储于节拍数据层、流派数据层、情感数据层的不同类别目录存储单元;
步骤七、通过钢琴端的教学终端读取弹奏钢琴输出的音频信息,对该音频信息进行节拍分类、音乐流派分类、音乐情感分类,并通过与云端大数据库服务器中不同层的音乐文件进行相似度对比,确定弹奏钢琴输出的曲目;
步骤八、通过对弹奏钢琴输出的音乐文件与对应云端大数据库服务器中音乐文件分段进行对比,确定每一段中节拍及音色的差异点,将该差异点添加上身份信息标签包括地理区域信息数据标签、年龄信息数据标签、性别信息数据标签,写入对应云端大数据库服务器中音乐文件,云端大数据库服务器对音乐文件进行更新;
步骤九、读取弹奏钢琴输出的音乐文件及教学终端的身份信息,对该音频信息进行节拍分类、音乐流派分类、音乐情感分类,优先通过与云端大数据库服务器中不同层的音乐文件进行身份信息数据标签对比,根据身份信息数据标签的相似程度高低确定优先与节拍数据层、流派数据层、情感数据层中音乐文件进行相似度对比的先后顺序;
步骤十、云端大数据库将步骤九对比后的每一段中节拍及音色的差异点及云端大数据库中对应的音乐文件片段反馈给教学终端。
进一步,步骤七或步骤九中任一项所述基于大数据及神经网络的钢琴教学方法,每一层的比较结果完全相同则相似度为1,每一层的比较结果完全不同则相似度为0,最终相似度比较结果=第一比较层相似度×60%+第二比较层相似度×30%+第三比较层相似度×10%。
进一步,步骤四首先根据倒谱系数法提取古典、流行、通俗、爵士四类音乐特征信号,同时语音信号分别用1,2,3,4标识,提取出的信号分别存储于data1.mat,data2.mat,data3.mat,data4.mat数据库文件中,每组数据为25维,第1维为类别标识,后24维为语音特征信号,把四类语音特征信号合为一组,从中随机选取1500组数据作为训练数据,500组数据作为测试数据,并对训练数据进行归一化处理,根据语音类别标识设定每组语音信号的期望输出值,如标识为1时,期望输出向量为[1,0,0,0]。
进一步,所述基于大数据及神经网络的钢琴教学方法还包括提取音频信息,包括声学特征参数和乐理特征参数,声学特征参数包括短时能量、频谱质心、频谱衰减截止频率、频谱流量、过零率、美尔倒谱系数,乐理特征参数包括音乐的音色、节拍特征。
进一步,所述基于大数据及神经网络的钢琴教学方法还包括根据教学终端的身份信息,优先向教学终端推送节拍及音色的差异点少的音乐文件。
根据不同节奏、流派、情绪的钢琴练习结果评分,结合不同地区、年龄、性别的身份信息,可根据身份信息进行不同优先等级的相似度评判,教学结果评价更具有针对性,并可以根据高得分的钢琴曲进行基于内容的练习曲目推荐:根据歌曲的旋律、节拍、乐曲等内部特征及不同地区、不同年龄、不同性别的特征计算音乐间的相似度,并针对用户喜欢的音乐内容,找到与其最接近的音乐内容进行练习推荐。
附图说明
图1是本发明实施例提供的基于大数据及神经网络的钢琴教学方法的流程图。
具体实施方式
为能进一步了解本发明的发明内容、特点及功效,兹例举以下实施例,并配合附图详细说明如下。
下面结合附图对本发明的结构作详细的描述。
一种基于大数据及神经网络的钢琴教学方法包括:
S101、将钢琴教学曲目及线上店铺数据库和线下店铺数据库上传至云端大数据库服务器;
S102、对上传至云端大数据库服务器的数字音乐文件进行处理形成统一格式并分帧,对每一帧信号作DFT变换计算幅度频谱,然后将幅度频谱用Mel尺度变换到Mel域,经过等带宽的Mel滤波器组滤波之后,将滤波器的输出能量进行叠加;
S103、将分帧后的音频文件通过低通滤波器后将其信息用依据音乐信号停顿构造的二叉树或网格结构分析,检测出音频文件的周期性节奏,以不同的周期性节奏对音频文件进行节拍分类;
S104、用训练集训练BP神经网络,在训练过程中根据BP神经网络的预测误差调整网络的权值和阈值,使用训练BP神经网络对不同钢琴音乐流派进行分类识别;
S105、将分帧后的音频文件以固定的时间长度分段,根据音乐提取的强度特征,采用Thayer的二维情感模型,将音乐的情感类型分为快乐、轻松、忧伤和愤怒四类;
求出强度曲线的包络线,然后根据包络线的形状将音乐分段,然后再根据音色和节奏特征进行细分。如果音色和节奏特征在相邻的窗口之间有较大差异,那么就认为这是一个情感变化点。采用的分段时间长度为16秒,20秒,25秒或者30秒。
S106、通过钢琴端的教学终端读取弹奏者的身份信息,该身份信息包括所在地理区域信息、年龄信息、性别信息,将云端大数据库服务器分层为节拍数据层、流派数据层、情感数据层、身份信息层,将云端大数据库服务器中的数字音乐文件分别按照节拍分类、音乐流派分类、情感类型分类存储于节拍数据层、流派数据层、情感数据层的不同类别目录存储单元;
S107、通过钢琴端的教学终端读取弹奏钢琴输出的音频信息,对该音频信息进行节拍分类、音乐流派分类、音乐情感分类,并通过与云端大数据库服务器中不同层的音乐文件进行相似度对比,确定弹奏钢琴输出的曲目;
S108、通过对弹奏钢琴输出的音乐文件与对应云端大数据库服务器中音乐文件分段进行对比,确定每一段中节拍及音色的差异点,将该差异点添加上身份信息标签包括地理区域信息数据标签、年龄信息数据标签、性别信息数据标签,写入对应云端大数据库服务器中音乐文件,云端大数据库服务器对音乐文件进行更新;
S109、读取弹奏钢琴输出的音乐文件及教学终端的身份信息,对该音频信息进行节拍分类、音乐流派分类、音乐情感分类,优先通过与云端大数据库服务器中不同层的音乐文件进行身份信息数据标签对比,根据身份信息数据标签的相似程度高低确定优先与节拍数据层、流派数据层、情感数据层中音乐文件进行相似度对比的先后顺序;例如钢琴练习者为江浙地区7-10岁男性,则先比较符合这一身份信息的节拍数据层、流派数据层、情感数据层中哪一层的差异点最多,差异点最多的那一层作为第一比较层,差异点最少的那一层作为第三比较层;
S110、云端大数据库将步骤九对比后的每一段中节拍及音色的差异点及云端大数据库中对应的音乐文件片段反馈给教学终端。
步骤S107或步骤S109中任一项所述基于大数据及神经网络的钢琴教学方法,每一层的比较结果完全相同则相似度为1,每一层的比较结果完全不同则相似度为0,最终相似度比较结果=第一比较层相似度×60%+第二比较层相似度×30%+第三比较层相似度×10%。
步骤S104首先根据倒谱系数法提取古典、流行、通俗、爵士四类音乐特征信号,同时语音信号分别用1,2,3,4标识,提取出的信号分别存储于data1.mat,data2.mat,data3.mat,data4.mat数据库文件中,每组数据为25维,第1维为类别标识,后24维为语音特征信号,把四类语音特征信号合为一组,从中随机选取1500组数据作为训练数据,500组数据作为测试数据,并对训练数据进行归一化处理,根据语音类别标识设定每组语音信号的期望输出值,如标识为1时,期望输出向量为[1,0,0,0]。根据BP神经网络理论,在MATLAB平台下编程实现基于BP神经网络的语音特征信号分类算法。根据语音特征信号特点确定BP神经网络的结构为24-25-4,随机初始化神经网络的权值和阈值。
所述基于大数据及神经网络的钢琴教学方法还包括提取音频信息,包括声学特征参数和乐理特征参数,声学特征参数包括短时能量、频谱质心、频谱衰减截止频率、频谱流量、过零率、美尔倒谱系数,乐理特征参数包括音乐的音色、节拍特征。
所述基于大数据及神经网络的钢琴教学方法还包括根据教学终端的身份信息,优先向教学终端推送节拍及音色的差异点少的音乐文件,教学终端可采用PC机或者其他移动终端设备如手机等,与云端大数据库服务器实现信息交互。
根据不同节奏、流派、情绪的钢琴练习结果评分,结合不同地区、年龄、性别的身份信息,可根据身份信息进行不同优先等级的相似度评判,教学结果评价更具有针对性,并可以根据高得分的钢琴曲进行基于内容的练习曲目推荐:根据歌曲的旋律、节拍、乐曲等内部特征及不同地区、不同年龄、不同性别的特征计算音乐间的相似度,并针对用户喜欢的音乐内容,找到与其最接近的音乐内容进行练习推荐。
以上所述仅是对本发明的较佳实施例而已,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所做的任何简单修改,等同变化与修饰,均属于本发明技术方案的范围内。

Claims (5)

1.一种基于大数据及神经网络的钢琴教学方法,其特征在于,该方法包括:
步骤一、将钢琴教学曲目及线上店铺数据库和线下店铺数据库上传至云端大数据库服务器;
步骤二、对上传至云端大数据库服务器的数字音乐文件进行处理形成统一格式并分帧,对每一帧信号作DFT变换计算幅度频谱,然后将幅度频谱用Mel尺度变换到Mel域,经过等带宽的Mel滤波器组滤波之后,将滤波器的输出能量进行叠加;
步骤三、将分帧后的音频文件通过低通滤波器后将其信息用依据音乐信号停顿构造的二叉树或网格结构分析,检测出音频文件的周期性节奏,以不同的周期性节奏对音频文件进行节拍分类;
步骤四、用训练集训练BP神经网络,在训练过程中根据BP神经网络的预测误差调整网络的权值和阈值,使用训练BP神经网络对不同钢琴音乐流派进行分类识别;
步骤五、将分帧后的音频文件以固定的时间长度分段,根据音乐提取的强度特征,采用Thayer的二维情感模型,将音乐的情感类型分为快乐、轻松、忧伤和愤怒四类;
步骤六、通过钢琴端的教学终端读取弹奏者的身份信息,该身份信息包括所在地理区域信息、年龄信息、性别信息,将云端大数据库服务器分层为节拍数据层、流派数据层、情感数据层、身份信息层,将云端大数据库服务器中的数字音乐文件分别按照节拍分类、音乐流派分类、情感类型分类存储于节拍数据层、流派数据层、情感数据层的不同类别目录存储单元;
步骤七、通过钢琴端的教学终端读取弹奏钢琴输出的音频信息,对该音频信息进行节拍分类、音乐流派分类、音乐情感分类,并通过与云端大数据库服务器中不同层的音乐文件进行相似度对比,确定弹奏钢琴输出的曲目;
步骤八、通过对弹奏钢琴输出的音乐文件与对应云端大数据库服务器中音乐文件分段进行对比,确定每一段中节拍及音色的差异点,将该差异点添加上身份信息标签包括地理区域信息数据标签、年龄信息数据标签、性别信息数据标签,写入对应云端大数据库服务器中音乐文件,云端大数据库服务器对音乐文件进行更新;
步骤九、读取弹奏钢琴输出的音乐文件及教学终端的身份信息,对该音频信息进行节拍分类、音乐流派分类、音乐情感分类,优先通过与云端大数据库服务器中不同层的音乐文件进行身份信息数据标签对比,根据身份信息数据标签的相似程度高低确定优先与节拍数据层、流派数据层、情感数据层中音乐文件进行相似度对比的先后顺序;
步骤十、云端大数据库将步骤九对比后的每一段中节拍及音色的差异点及云端大数据库中对应的音乐文件片段反馈给教学终端。
2.如权利要求1所述基于大数据及神经网络的钢琴教学方法,其特征在于,步骤七或步骤九中任一项所述基于大数据及神经网络的钢琴教学方法,每一层的比较结果完全相同则相似度为1,每一层的比较结果完全不同则相似度为0,最终相似度比较结果=第一比较层相似度×60%+第二比较层相似度×30%+第三比较层相似度×10%。
3.如权利要求1所述基于大数据及神经网络的钢琴教学方法,其特征在于,步骤四首先根据倒谱系数法提取古典、流行、通俗、爵士四类音乐特征信号,同时语音信号分别用1,2,3,4标识,提取出的信号分别存储于data1.mat,data2.mat,data3.mat,data4.mat数据库文件中,每组数据为25维,第1维为类别标识,后24维为语音特征信号,把四类语音特征信号合为一组,从中随机选取1500组数据作为训练数据,500组数据作为测试数据,并对训练数据进行归一化处理,根据语音类别标识设定每组语音信号的期望输出值,如标识为1时,期望输出向量为[1,0,0,0]。
4.如权利要求1所述基于大数据及神经网络的钢琴教学方法,其特征在于,还包括提取音频信息,包括声学特征参数和乐理特征参数,声学特征参数包括短时能量、频谱质心、频谱衰减截止频率、频谱流量、过零率、美尔倒谱系数,乐理特征参数包括音乐的音色、节拍特征。
5.如权利要求1所述基于大数据及神经网络的钢琴教学方法,其特征在于,还包括根据教学终端的身份信息,优先向教学终端推送节拍及音色的差异点少的音乐文件。
CN201810277873.5A 2018-03-31 2018-03-31 一种基于大数据及神经网络的钢琴教学方法 Expired - Fee Related CN108549675B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810277873.5A CN108549675B (zh) 2018-03-31 2018-03-31 一种基于大数据及神经网络的钢琴教学方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810277873.5A CN108549675B (zh) 2018-03-31 2018-03-31 一种基于大数据及神经网络的钢琴教学方法

Publications (2)

Publication Number Publication Date
CN108549675A true CN108549675A (zh) 2018-09-18
CN108549675B CN108549675B (zh) 2021-09-24

Family

ID=63517554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810277873.5A Expired - Fee Related CN108549675B (zh) 2018-03-31 2018-03-31 一种基于大数据及神经网络的钢琴教学方法

Country Status (1)

Country Link
CN (1) CN108549675B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109256147A (zh) * 2018-10-30 2019-01-22 腾讯音乐娱乐科技(深圳)有限公司 音频节拍检测方法、装置及存储介质
CN109671332A (zh) * 2019-02-24 2019-04-23 苏州缪斯谈谈科技有限公司 一种乐器辅助智能教学系统及其教学方法
CN111508526A (zh) * 2020-04-10 2020-08-07 腾讯音乐娱乐科技(深圳)有限公司 一种音频节拍信息的检测方法、装置及存储介质
CN111816015A (zh) * 2019-04-11 2020-10-23 上海西陆信息科技有限公司 一种钢琴教育自动评分系统及方法
CN115862572A (zh) * 2022-11-22 2023-03-28 广州珠江艾茉森数码乐器股份有限公司 一种智能钢琴系统及使用方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206775B2 (en) * 2000-07-06 2007-04-17 Microsoft Corporation System and methods for the automatic transmission of new, high affinity media
CN101211643A (zh) * 2006-12-28 2008-07-02 索尼株式会社 音乐编辑装置、方法及程序
CN101471068A (zh) * 2007-12-26 2009-07-01 三星电子株式会社 通过哼唱音乐旋律搜索基于波形的音乐文件的方法和系统
CN101551997A (zh) * 2009-02-25 2009-10-07 北京派瑞根科技开发有限公司 一种乐曲辅助学习系统
JP2010038943A (ja) * 2008-07-31 2010-02-18 Toshiba Corp 音響信号処理装置及び方法
CN102402625A (zh) * 2011-12-28 2012-04-04 深圳市五巨科技有限公司 一种音乐推荐的方法及系统
CN102956230A (zh) * 2011-08-19 2013-03-06 杜比实验室特许公司 对音频信号进行歌曲检测的方法和设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206775B2 (en) * 2000-07-06 2007-04-17 Microsoft Corporation System and methods for the automatic transmission of new, high affinity media
CN101211643A (zh) * 2006-12-28 2008-07-02 索尼株式会社 音乐编辑装置、方法及程序
CN101471068A (zh) * 2007-12-26 2009-07-01 三星电子株式会社 通过哼唱音乐旋律搜索基于波形的音乐文件的方法和系统
JP2010038943A (ja) * 2008-07-31 2010-02-18 Toshiba Corp 音響信号処理装置及び方法
CN101551997A (zh) * 2009-02-25 2009-10-07 北京派瑞根科技开发有限公司 一种乐曲辅助学习系统
CN102956230A (zh) * 2011-08-19 2013-03-06 杜比实验室特许公司 对音频信号进行歌曲检测的方法和设备
CN102402625A (zh) * 2011-12-28 2012-04-04 深圳市五巨科技有限公司 一种音乐推荐的方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刑白夕: "情感驱动的音乐数据挖掘及检索", 《中国优秀博士学位论文全文数据库 哲学与人文科学辑》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109256147A (zh) * 2018-10-30 2019-01-22 腾讯音乐娱乐科技(深圳)有限公司 音频节拍检测方法、装置及存储介质
CN109256147B (zh) * 2018-10-30 2022-06-10 腾讯音乐娱乐科技(深圳)有限公司 音频节拍检测方法、装置及存储介质
CN109671332A (zh) * 2019-02-24 2019-04-23 苏州缪斯谈谈科技有限公司 一种乐器辅助智能教学系统及其教学方法
WO2020168709A1 (zh) * 2019-02-24 2020-08-27 苏州缪斯谈谈科技有限公司 一种乐器辅助智能教学系统及其教学方法
CN111816015A (zh) * 2019-04-11 2020-10-23 上海西陆信息科技有限公司 一种钢琴教育自动评分系统及方法
CN111508526A (zh) * 2020-04-10 2020-08-07 腾讯音乐娱乐科技(深圳)有限公司 一种音频节拍信息的检测方法、装置及存储介质
CN111508526B (zh) * 2020-04-10 2022-07-01 腾讯音乐娱乐科技(深圳)有限公司 一种音频节拍信息的检测方法、装置及存储介质
CN115862572A (zh) * 2022-11-22 2023-03-28 广州珠江艾茉森数码乐器股份有限公司 一种智能钢琴系统及使用方法
CN115862572B (zh) * 2022-11-22 2023-11-03 广州珠江艾茉森数码乐器股份有限公司 一种智能钢琴系统及使用方法

Also Published As

Publication number Publication date
CN108549675B (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN108549675A (zh) 一种基于大数据及神经网络的钢琴教学方法
Nam et al. Deep learning for audio-based music classification and tagging: Teaching computers to distinguish rock from bach
CN103823867B (zh) 一种基于音符建模的哼唱式音乐检索方法及系统
Rao et al. Classification of melodic motifs in raga music with time-series matching
Typke Music retrieval based on melodic similarity
Aucouturier et al. A scale-free distribution of false positives for a large class of audio similarity measures
Chai Automated analysis of musical structure
Sturm Two systems for automatic music genre recognition: What are they really recognizing?
Tenzer Analytical studies in world music
Ramirez et al. Automatic performer identification in commercial monophonic jazz performances
CN112632318A (zh) 一种音频推荐方法、装置、系统及存储介质
Zhang [Retracted] Practice and Exploration of Music Solfeggio Teaching Based on Data Mining Technology
Nagavi et al. Overview of automatic Indian music information recognition, classification and retrieval systems
CN103425901B (zh) 原创声响数据整理器
Zheng Research on the whole teaching of vocal music course in university music performance major based on multimedia technology
CN105895079A (zh) 语音数据的处理方法和装置
CN110853457B (zh) 可互动的音乐教学指导方法
CN208422152U (zh) 智能化乐谱识别与显示装置
Koduri Towards a multimodal knowledge base for Indian art music: A case study with melodic intonation
Font et al. Analysis of the folksonomy of freesound
Kroher The flamenco cante: Automatic characterization of flamenco singing by analyzing audio recordings
Pedgley et al. Materials innovation in acoustic guitars: challenging the tonal superiority of wood
Zhao et al. Music Style Recognition Method Based on Computer-Aided Technology for Internet of Things
Thiesen et al. Duration, song section, entropy: Suggestions for a model of rapid music recognition processes
CN112201100A (zh) 一种中小学艺术素质测评中音乐演唱评分系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20190308

Address after: 102600 No. 11 Lian Lane, Liyuan Village, Huangcun Town, Daxing District, Beijing

Applicant after: Du Yongbo

Address before: 253200 Santuncun 290, Dukouyi Township, Xiajin County, Dezhou City, Shandong Province

Applicant before: Chen Zhenkui

Applicant before: Hou Fengxia

Applicant before: Liu Xiangguo

Applicant before: Ma Hongyi

Applicant before: Qu Jing

TA01 Transfer of patent application right
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Qiu Bo

Inventor after: Chen Zhenkui

Inventor after: Hou Fengxia

Inventor after: Liu Xiangguo

Inventor after: Ma Hongyi

Inventor after: Qu Jing

Inventor before: Chen Zhenkui

Inventor before: Hou Fengxia

Inventor before: Liu Xiangguo

Inventor before: Ma Hongyi

Inventor before: Qu Jing

TA01 Transfer of patent application right

Effective date of registration: 20210908

Address after: 454003 No. 2001 Century Avenue, hi tech Zone, Henan, Jiaozuo

Applicant after: HENAN POLYTECHNIC University

Address before: 102600 No. 11 Lian Lane, Liyuan Village, Huangcun Town, Daxing District, Beijing

Applicant before: Du Yongbo

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210924

CF01 Termination of patent right due to non-payment of annual fee