CN113779301A - 一种音乐教学方法及装置 - Google Patents
一种音乐教学方法及装置 Download PDFInfo
- Publication number
- CN113779301A CN113779301A CN202110948671.0A CN202110948671A CN113779301A CN 113779301 A CN113779301 A CN 113779301A CN 202110948671 A CN202110948671 A CN 202110948671A CN 113779301 A CN113779301 A CN 113779301A
- Authority
- CN
- China
- Prior art keywords
- student
- music
- state
- acquired
- mouth shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000004458 analytical method Methods 0.000 claims abstract description 14
- 230000009471 action Effects 0.000 claims abstract description 8
- 230000001815 facial effect Effects 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 239000012634 fragment Substances 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10009—Improvement or modification of read or write signals
- G11B20/10046—Improvement or modification of read or write signals filtering or equalising, e.g. setting the tap weights of an FIR filter
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Artificial Intelligence (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明涉及一种音乐教学方法及装置,所述方法包括以下步骤:实时获取学员输出的音乐曲段和学员状态,并储存在储存模块当中,所述学员状态包括面部信息状态以及动作状态;将获取的学员输出的音乐曲段进行分析,并与本地相对应的音乐曲段进行对比,给出建议;根据对学员输出的音乐曲段进行的分析,对获取的学员状态进行指导。本发明可以实现在线的精准指导教学,继而提高了学习者的学习效果,有助于提高学员的学习效率。
Description
技术领域
本发明涉及在线教育技术领域,尤其涉及一种音乐教学方法及装置。
背景技术
目前的音乐类在线教学的方法是录播或直播课程、一对一或者一对多的视频连接实时教学。
缺点是乐谱与教师的指导是分离的,教师无法精准指导学生曲子乐谱中出现的多个地方的问题,只能通过口述告知学生曲子乐谱的第几页第几行演奏(演唱)错误,或者实时视频中将曲谱对着镜头点给学生看哪里有问题,或者拍照以后用制图工具圈出来发给学生,但是这种教学方式缺点是不精准,老师的在线教学内容无法与乐谱精准同步,因此急需改进。
发明内容
本发明的目的在于提供一种音乐教学方法及装置,通过实时获取学员输出的音乐曲段和学员状态,并对学员输出的音乐曲段进行分析,与本地相对应的音乐曲段进行对比,给出建议,实现在线的精准指导教学,继而提高了学习者的学习效果,有助于提高学员的学习效率,可以解决背景技术中的问题。
为了解决上述技术问题,本发明提供的音乐教学方法及装置的技术方案具体如下:
第一方面,本发明实施例公开了一种音乐教学方法,包括以下步骤:
实时获取学员输出的音乐曲段和学员状态,并储存在储存模块当中,所述学员状态包括面部信息状态以及动作状态;
将获取的学员输出的音乐曲段进行分析,并与本地相对应的音乐曲段进行对比,给出建议;
根据对学员输出的音乐曲段进行的分析,对获取的学员状态进行指导。
在上述任一方案中优选的是,所述的音乐教学方法,所述储存模块采用Nand-Flash芯片,Nand-Flash芯片的有效存储空间为2GiB,Nand- Flash芯片包含16384个块,每块有64页,每页有2112字节。
在上述任一方案中优选的是,所述的音乐教学方法,所述储存模块包括坏块管理模块,当使用时,驱动层的状态获取函数检测坏块状态,识别出固有坏块并且存储到坏块映射表中,通过驱动层的状态获取函数检测 Flash操作状态,若操作出现特定错误,则被操作块就会被认定为坏块,更新存储到坏块映射表中。
在上述任一方案中优选的是,所述的音乐教学方法,还包括:
通过实时采集学员头部上各个部位的状态,获取作为判断学员输出的音乐曲段是否标准的依据,并根据学员头部上各个部位的状态,对学员进行指导。
在上述任一方案中优选的是,所述的音乐教学方法,对获取的学员输出的音乐曲段进行分析的方法,包括以下步骤:
判断获取的音乐曲段的端点,并对获取的语音音乐曲段进行预处理;
对预处理后的音乐曲段进行特征提取;
对特征提取后的语音进行识别。
在上述任一方案中优选的是,所述的音乐教学方法,所述预处理包括将获取的语音音乐曲段数据分为若干个小段,每一段取一定的数据,相邻下一段与前一段并且有数据重合。
在上述任一方案中优选的是,所述的音乐教学方法,对特征提取后的语音进行识别的方法,包括以下步骤:
对每一段音频L先分成若干帧[L1,L2,L3,...Ln],对每一帧提取特征,则每一帧分别对应特征[c1,c2,c3,...cn];
对提取的特征进行聚类处理,获得D个类别,每个类别对应一个数据库,其中,数据库中均储存有每个类别所对应的特征所表达的含义。
在上述任一方案中优选的是,所述的音乐教学方法,获取的学员状态包括以下步骤:
收集关于相关音乐曲段发音的标准口型图片,并将该口型图片储存在口型图片数据库模板中,并根据口型图片建立口型模板;
实时获取学员在音乐曲段发音的口型图像,对已获得的口型图像,进行灰度化和滤波处理,然后生成口型图片;
根据口型模板,建立口型坐标模板,用(Xc,Yc)表示嘴唇的中心坐标,w0表示外唇宽度,w1表示内唇宽度,h1表示外唇上边缘高度,h2表示内唇上边缘高度,h3表示内唇下边缘高度,h4表示外唇下边缘高度,aoff表示四次曲线中心离坐标原点的偏移量,q0表示上唇部四次曲线偏离抛物线的距离,q1表示下唇部四次曲线偏离抛物线的距离;
将口型坐标模板与学员口型图片进行对比,然后判断学员口型是否发音符合标准要求。
本发明与现有技术相比,具有如下有益效果:
通过实时获取学员输出的音乐曲段和学员状态,并对学员输出的音乐曲段进行分析,与本地相对应的音乐曲段进行对比,给出建议,实现在线的精准指导教学,继而提高了学习者的学习效果,有助于提高学员的学习效率。
第二方面,一种音乐教学装置,包括:
获取模块,用于实时获取学员输出的音乐曲段和学员状态,并储存在储存模块当中,所述学员状态包括面部信息状态以及动作状态,所述储存模块采用Nand-Flash芯片,Nand-Flash芯片的有效存储空间为2GiB, Nand-Flash芯片包含16384个块,每块有64页,每页有2112字节,获取的学员状态包括以下步骤:收集关于相关音乐曲段发音的标准口型图片,并将该口型图片储存在口型图片数据库模板中,并根据口型图片建立口型模板;实时获取学员在音乐曲段发音的口型图像,对已获得的口型图像,进行灰度化和滤波处理,然后生成口型图片;根据口型模板,建立口型坐标模板,用(Xc,Yc)表示嘴唇的中心坐标,w0表示外唇宽度,w1表示内唇宽度,h1表示外唇上边缘高度,h2表示内唇上边缘高度,h3表示内唇下边缘高度,h4表示外唇下边缘高度,aoff表示四次曲线中心离坐标原点的偏移量,q0表示上唇部四次曲线偏离抛物线的距离,q1表示下唇部四次曲线偏离抛物线的距离;
将口型坐标模板与学员口型图片进行对比,然后判断学员口型是否发音符合标准要求;
分析模块,用于将获取的学员输出的音乐曲段进行分析,并与本地相对应的音乐曲段进行对比,给出建议,其中,对获取的学员输出的音乐曲段进行分析的方法,包括以下步骤:判断获取的音乐曲段的端点,并对获取的语音音乐曲段进行预处理;对预处理后的音乐曲段进行特征提取;对特征提取后的语音进行识别,所述预处理包括将获取的语音音乐曲段数据分为若干个小段,每一段取一定的数据,相邻下一段与前一段并且有数据重合;
指导模块,用于根据对学员输出的音乐曲段进行的分析,对获取的学员状态进行指导。
在上述任一方案中优选的是,所述的音乐教学装置,还包括:
判断模块,用于通过实时采集学员头部上各个部位的状态,获取作为判断学员输出的音乐曲段是否标准的依据,并根据学员头部上各个部位的状态,对学员进行指导。
第二方面的有益效果与第一方面的有益效果相同,故在此不再赘述。
附图说明
附图用于对本发明的进一步理解,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1是按照本发明音乐教学方法示意图。
图2是按照本发明音乐教学方法的建立口型坐标模板示意图。
图3是按照本发明音乐教学装置示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了更好地理解上述技术方案,下面将结合说明书附图及具体实施方式对本发明技术方案进行详细说明。
实施例:
第一方面,如图1所示,本发明实施例公开了一种音乐教学方法,包括以下步骤:
步骤1:实时获取学员输出的音乐曲段和学员状态,所述学员状态包括面部信息状态以及动作状态;
步骤2:将获取的学员输出的音乐曲段进行分析,并与本地相对应的音乐曲段进行对比,给出建议;
步骤3:根据对学员输出的音乐曲段进行的分析,对获取的学员状态进行指导。
在步骤1中,本发明实施例所述的音乐教学方法,可以通过声音识别模块将学员输出的音乐曲段进行识别,并储存在储存模块当中,其中,声音识别模块包括语音识别芯片和一些其他的附属电路,能够方便的与主控芯片进行通讯,可以方便的将声音识别模块嵌入到产品中使用,实现语音交互的目的。
在本发明实施例所述的音乐教学方法中,语音识别的过程包括两个阶段:训练和识别。不管是训练还是识别,都必须对输入语音预处理和特征提取。训练阶段所做的具体工作是收集大量的语音语料,经过预处理和特征提取后得到特征矢量参数,最后通过特征建模达到建立训练语音的参考模型库的目的。而识别阶段所做的主要工作是将输入语音的特征矢量参数和参考模型库中的参考模型进行相似性度量比较,然后把相似性最高的输入特征矢量作为识别结果输出。这样,最终就达到了语音识别的目的。
在本发明实施例所述的音乐教学方法中,储存模块采用Nand-Flash 芯片,每个芯片提供的有效存储空间为2GiB,每个芯片包含16384个块,每块有64页,每页有2112字节,其中,2048字节用于存储数据, 64字节用于存放好坏块标记等其他信息,进一步的,在储存模块中,储存模块包括坏块管理模块和损耗均衡模块,坏块管理采用地址重映射的方法,将Nand-Flash芯片的固有坏块和使用坏块映射到坏块替换区来保证被存储数据的可靠性,坏块管理的基础是通过坏块映射表构建坏块索引。在Nand-Flash芯片第一次使用时,通过驱动层的状态获取函数检测坏块状态,识别出固有坏块并且存储到坏块映射表中。在Nand-Flash芯片的正常读写过程中,通过驱动层的状态获取函数检测Flash操作状态,当操作出现特定错误时,被操作块就会被认定为坏块,更新存储到坏块映射表中。实际使用时,在对一个地址进行读写操作前,通过坏块映射表构建的坏块索引,对地址进行重新映射,具有比较高的可靠性。
在步骤1中,本发明实施例所述的音乐教学方法,所述面部信息状态包括学员的脸部状态、眼部状态、张口状态以及舌头状态,通过采集学员头部上各个部位的状态,从而可以作为判断学员输出的音乐曲段是否标准的依据,并根据学员头部上各个部位的状态,可以对学员进行指导,如:通过采集学员嘴部的状态,进行判断学员的发音是否标准,从而对学员进行提醒,提示其嘴部需要怎么发音,从而起到指导的作用。
在步骤1中,本发明实施例所述的音乐教学方法,所述动作状态包括学员的手势、头部以及腿部状态,实时获取学员的手势、头部以及腿部动作,可以作为用于判断学员的发音是否标准的参考,同时,还可以将学员的动作状态与学员的面部信息状态以及输出的标准的音乐曲段结合在一起,根据标准的音乐曲段,从而在一些不同的曲段内,进行提示学员注意自己的工作状态以及面部状态,从而不但能够起到提醒学员发音是的作用,而且还能够将其与工作状态以及面部状态结合,从而使学员的表达更加生动。
在步骤2中,对获取的学员输出的音乐曲段进行分析的方法包括以下步骤:
步骤11:判断获取的音乐曲段的端点,然后对获取的音乐曲段进行预处理,其中,学员通过声带振动发出声音产生信号源,此时的信号是模拟信号,需要通过模数转换器等硬件设备将其转换成数字信号,然后在硬件设备上进行处理。这时的信号既包含人的语音信息,又包含一些干扰和无用的信息,需要经过处理将有用信息提取出来。语音信号存在低频干扰,尤其是50Hz~60Hz工频干扰,需要先将它滤除,以便高频部分的频谱进行提升,如将预处理后的声音通过一个高通滤波器,加强信号中的高频共振峰,消除直流漂移,抑制随机噪声和提升清音部分能量。其传递函数为:Hz=1-αz-1,0.9<α<1,其中,α为预加重系数,一般取值0.9375。
语音信号具有非线性和时变性,不利于分析和处理。因此需要对信号进行线性和时不变处理。具体方法是将语音数据分为很多小段,每一段取240个数据,相邻下一段与前一段有120~160个数据是重合的,即部分数据交叠出现在两段或三段之间。
其中,所述判断获取的音乐曲段的端点采用谱能流法,其计算公式为:其中,G(f,m)是由将原信号做短时傅里叶变换得到的时域和频域共同信息X(f,m)先取模,再时域低通滤波,最后进行非线性压缩得到的,从而可以提高对声音起点判断的准确性。
步骤12:对预处理后的音乐曲段进行特征提取,因为,不同的人发音不一样,即便同一个人发同样的音也存在或多或少的差距,同时环境变化等也会对语音信息造成干扰。因此,需要对预处理后的信号做进一步处理,去除语音信息以外的冗余信息。
步骤13:对特征提取后的语音进行识别,其中,识别方法包括以下步骤:
对每一段音频L先分成若干帧[L1,L2,L3,...Ln],对每一帧提取特征,则每一帧分别对应特征[c1,c2,c3,...cn];
对提取的特征进行聚类处理,获得D个类别,每个类别对应一个数据库,其中,数据库中均储存有每个类别所对应的特征所表达的含义。
在步骤3中,对获取的学员状态进行指导,包括根据学员输出的音乐的旋律,从而对学员进行指导,因为旋律是时变信号,但旋律中的每一个单音音符从发音到结束,其中包含的基音和泛音频率成分不变,只是幅值发生变化,所以从频域角度分析,单音音符具有平稳周期特性,因此,采用傅里叶变换将采集的时间信号样本转换到频率域进行分析,借助快速傅里叶变换,输出的结果是复共轭数据,对复共轭数据进行取模运算,得到样本频率分量的幅值:其中,pi为第i个复频率实部, qi为第i个复频率虚部,其中,N为输入的样本数量,然后再计算输出频率:其中,k为FFT输出分量的下标为输入时域信号的采样频率,转换到频率域,经过以上转换,可以直接得到输入信号中包含的频率及其幅值。
在步骤3中,进一步的,在对获取的学员状态进行指导中,通过以下方法实现,具体包括如下步骤:
步骤31:收集关于相关音乐曲段发音的标准口型图片,并将该口型图片储存在口型图片数据库模板中,并根据口型图片建立口型模板,其中,口型图片为通过具有视频采集功能的工具获取,口型模板是根据人们日常对口型的经验信息确定的,用口型模板来描述唇的形状,适用于大多数嘴型;
步骤32:实时获取学员在音乐曲段发音的口型图像,对已获得的口型图像,进行灰度化和滤波处理,然后生成口型图片,可以较好地区分唇色和肤色;
步骤33:根据口型模板,建立口型坐标模板,用(Xc,Yc)表示嘴唇的中心坐标,w0表示外唇宽度,w1表示内唇宽度,h1表示外唇上边缘高度,h2表示内唇上边缘高度,h3表示内唇下边缘高度,h4表示外唇下边缘高度,aoff表示四次曲线中心离坐标原点的偏移量,q0表示上唇部四次曲线偏离抛物线的距离,q1表示下唇部四次曲线偏离抛物线的距离。
步骤34:将口型坐标模板与学员口型图片进行对比,然后判断学员口型是否发音符合标准要求。
第二方面,第二方面,一种音乐教学装置,包括:
获取模块,用于实时获取学员输出的音乐曲段和学员状态,并储存在储存模块当中,所述学员状态包括面部信息状态以及动作状态,所述储存模块采用Nand-Flash芯片,Nand-Flash芯片的有效存储空间为2GiB, Nand-Flash芯片包含16384个块,每块有64页,每页有2112字节,获取的学员状态包括以下步骤:收集关于相关音乐曲段发音的标准口型图片,并将该口型图片储存在口型图片数据库模板中,并根据口型图片建立口型模板;实时获取学员在音乐曲段发音的口型图像,对已获得的口型图像,进行灰度化和滤波处理,然后生成口型图片;根据口型模板,建立口型坐标模板,用(Xc,Yc)表示嘴唇的中心坐标,w0表示外唇宽度,w1表示内唇宽度,h1表示外唇上边缘高度,h2表示内唇上边缘高度,h3表示内唇下边缘高度,h4表示外唇下边缘高度,aoff表示四次曲线中心离坐标原点的偏移量,q0表示上唇部四次曲线偏离抛物线的距离,q1表示下唇部四次曲线偏离抛物线的距离;
将口型坐标模板与学员口型图片进行对比,然后判断学员口型是否发音符合标准要求;
分析模块,用于将获取的学员输出的音乐曲段进行分析,并与本地相对应的音乐曲段进行对比,给出建议,其中,对获取的学员输出的音乐曲段进行分析的方法,包括以下步骤:判断获取的音乐曲段的端点,并对获取的语音音乐曲段进行预处理;对预处理后的音乐曲段进行特征提取;对特征提取后的语音进行识别,所述预处理包括将获取的语音音乐曲段数据分为若干个小段,每一段取一定的数据,相邻下一段与前一段并且有数据重合;
指导模块,用于根据对学员输出的音乐曲段进行的分析,对获取的学员状态进行指导。
在上述任一方案中优选的是,所述的音乐教学装置,还包括:
判断模块,用于通过实时采集学员头部上各个部位的状态,获取作为判断学员输出的音乐曲段是否标准的依据,并根据学员头部上各个部位的状态,对学员进行指导。
以上仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种音乐教学方法,其特征在于:包括以下步骤:
实时获取学员输出的音乐曲段和学员状态,并储存在储存模块当中,学员状态包括面部信息状态以及动作状态;
将获取的学员输出的音乐曲段进行分析,并与本地相对应的音乐曲段进行对比,给出建议;
根据对学员输出的音乐曲段进行的分析,对获取的学员状态进行指导。
2.根据权利要求1所述的音乐教学方法,其特征在于:储存模块采用Nand-Flash芯片,Nand-Flash芯片的有效存储空间为2GiB,Nand-Flash芯片包含16384个块,每块有64页,每页有2112字节。
3.根据权利要求2所述的音乐教学方法,其特征在于:储存模块包括坏块管理模块,当使用时,驱动层的状态获取函数检测坏块状态,识别出固有坏块并且存储到坏块映射表中,通过驱动层的状态获取函数检测Flash操作状态,若操作出现特定错误,则被操作块就会被认定为坏块,更新存储到坏块映射表中。
4.根据权利要求3所述的音乐教学方法,其特征在于:还包括:
通过实时采集学员头部上各个部位的状态,获取作为判断学员输出的音乐曲段是否标准的依据,并根据学员头部上各个部位的状态,对学员进行指导。
5.根据权利要求4所述的音乐教学方法,其特征在于:对获取的学员输出的音乐曲段进行分析的方法,包括以下步骤:
判断获取的音乐曲段的端点,并对获取的语音音乐曲段进行预处理;
对预处理后的音乐曲段进行特征提取;
对特征提取后的语音进行识别。
6.根据权利要求5所述的音乐教学方法,其特征在于:预处理包括将获取的语音音乐曲段数据分为若干个小段,每一段取一定的数据,相邻下一段与前一段并且有数据重合。
7.根据权利要求6所述的音乐教学方法,其特征在于:对特征提取后的语音进行识别的方法,包括以下步骤:
对每一段音频L先分成若干帧[L1,L2,L3,...Ln],对每一帧提取特征,则每一帧分别对应特征[c1,c2,c3,...cn];
对提取的特征进行聚类处理,获得D个类别,每个类别对应一个数据库,其中,数据库中均储存有每个类别所对应的特征所表达的含义。
8.根据权利要求7所述的音乐教学方法,其特征在于:获取的学员状态包括以下步骤:
收集关于相关音乐曲段发音的标准口型图片,并将该口型图片储存在口型图片数据库模板中,并根据口型图片建立口型模板;
实时获取学员在音乐曲段发音的口型图像,对已获得的口型图像,进行灰度化和滤波处理,然后生成口型图片;
根据口型模板,建立口型坐标模板,用(Xc,Yc)表示嘴唇的中心坐标,w0表示外唇宽度,w1表示内唇宽度,h1表示外唇上边缘高度,h2表示内唇上边缘高度,h3表示内唇下边缘高度,h4表示外唇下边缘高度,aoff表示四次曲线中心离坐标原点的偏移量,q0表示上唇部四次曲线偏离抛物线的距离,q1表示下唇部四次曲线偏离抛物线的距离;
将口型坐标模板与学员口型图片进行对比,然后判断学员口型是否发音符合标准要求。
9.一种音乐教学装置,其特征在于:包括:
获取模块,用于实时获取学员输出的音乐曲段和学员状态,并储存在储存模块当中,所述学员状态包括面部信息状态以及动作状态,所述储存模块采用Nand-Flash芯片,Nand-Flash芯片的有效存储空间为2GiB,Nand-Flash芯片包含16384个块,每块有64页,每页有2112字节;
分析模块,用于将获取的学员输出的音乐曲段进行分析,并与本地相对应的音乐曲段进行对比,给出建议;
指导模块,用于根据对学员输出的音乐曲段进行的分析,对获取的学员状态进行指导。
10.根据权利要求9所述的音乐教学装置,其特征在于:还包括:
判断模块,用于通过实时采集学员头部上各个部位的状态,获取作为判断学员输出的音乐曲段是否标准的依据,并根据学员头部上各个部位的状态,对学员进行指导。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110948671.0A CN113779301A (zh) | 2021-08-18 | 2021-08-18 | 一种音乐教学方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110948671.0A CN113779301A (zh) | 2021-08-18 | 2021-08-18 | 一种音乐教学方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113779301A true CN113779301A (zh) | 2021-12-10 |
Family
ID=78838038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110948671.0A Pending CN113779301A (zh) | 2021-08-18 | 2021-08-18 | 一种音乐教学方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113779301A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114613390A (zh) * | 2022-02-28 | 2022-06-10 | 杭州小伴熊科技有限公司 | 一种音乐教学方法及系统 |
CN114783393A (zh) * | 2022-02-28 | 2022-07-22 | 杭州小伴熊科技有限公司 | 一种用于在线教育的音乐旋律识别方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080004879A1 (en) * | 2006-06-29 | 2008-01-03 | Wen-Chen Huang | Method for assessing learner's pronunciation through voice and image |
CN102663928A (zh) * | 2012-03-07 | 2012-09-12 | 天津大学 | 一种聋人学习说话的电子教学方法 |
CN103092329A (zh) * | 2011-10-31 | 2013-05-08 | 南开大学 | 一种基于唇读技术的唇语输入方法 |
CN107591162A (zh) * | 2017-07-28 | 2018-01-16 | 南京邮电大学 | 基于模式匹配的哭声识别方法及智能看护系统 |
CN112596668A (zh) * | 2020-11-25 | 2021-04-02 | 航天信息股份有限公司 | 一种存储器的坏块处理方法及系统 |
-
2021
- 2021-08-18 CN CN202110948671.0A patent/CN113779301A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080004879A1 (en) * | 2006-06-29 | 2008-01-03 | Wen-Chen Huang | Method for assessing learner's pronunciation through voice and image |
CN103092329A (zh) * | 2011-10-31 | 2013-05-08 | 南开大学 | 一种基于唇读技术的唇语输入方法 |
CN102663928A (zh) * | 2012-03-07 | 2012-09-12 | 天津大学 | 一种聋人学习说话的电子教学方法 |
CN107591162A (zh) * | 2017-07-28 | 2018-01-16 | 南京邮电大学 | 基于模式匹配的哭声识别方法及智能看护系统 |
CN112596668A (zh) * | 2020-11-25 | 2021-04-02 | 航天信息股份有限公司 | 一种存储器的坏块处理方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114613390A (zh) * | 2022-02-28 | 2022-06-10 | 杭州小伴熊科技有限公司 | 一种音乐教学方法及系统 |
CN114783393A (zh) * | 2022-02-28 | 2022-07-22 | 杭州小伴熊科技有限公司 | 一种用于在线教育的音乐旋律识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106531185B (zh) | 基于语音相似度的语音评测方法及系统 | |
Howard | Variation of electrolaryngographically derived closed quotient for trained and untrained adult female singers | |
US7280964B2 (en) | Method of recognizing spoken language with recognition of language color | |
CN101197084A (zh) | 自动化英语口语评测学习系统 | |
CN112908355B (zh) | 一种师范生教学技能量化评价系统及其方法 | |
Wöllner et al. | Perceiving conductors' expressive gestures from different visual perspectives. An exploratory continuous response study | |
CN105427708A (zh) | 一种声乐发音训练系统 | |
CN113779301A (zh) | 一种音乐教学方法及装置 | |
CN111554256B (zh) | 一种基于强弱标准的钢琴视奏能力评价系统 | |
CN105825852A (zh) | 一种英语口语朗读考试评分方法 | |
CN103366735B (zh) | 语音数据的映射方法和装置 | |
CN101751919A (zh) | 一种汉语口语重音自动检测方法 | |
CN103366759A (zh) | 语音数据的测评方法和装置 | |
CN109727608A (zh) | 一种基于中文语音的病态嗓音评估方法 | |
CN109326160A (zh) | 一种英语口语发音校对系统 | |
CN116206496B (zh) | 一种基于人工智能的英语口语练习分析比对系统 | |
CN110364184A (zh) | 基于深度卷积神经网络dcnn和ctc算法的音准评估方法 | |
CN111968675A (zh) | 一种基于手部识别的弦乐器音符比对系统及其使用方法 | |
CN108470476A (zh) | 一种英语发音匹配纠正系统 | |
CN202758611U (zh) | 语音数据的测评装置 | |
Bordonné et al. | Assessing sound perception through vocal imitations of sounds that evoke movements and materials | |
CN110246514A (zh) | 一种基于模式识别的英语单词发音学习系统 | |
CN111210845B (zh) | 一种基于改进自相关特征的病理语音检测装置 | |
Athanasopoulos et al. | 3D immersive karaoke for the learning of foreign language pronunciation | |
Li | General Design of Automatic Correction System for English Pronunciation Errors Based on DTW Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |