CN115050387A - 一种艺术测评中多维度唱奏分析测评方法及系统 - Google Patents
一种艺术测评中多维度唱奏分析测评方法及系统 Download PDFInfo
- Publication number
- CN115050387A CN115050387A CN202210672673.6A CN202210672673A CN115050387A CN 115050387 A CN115050387 A CN 115050387A CN 202210672673 A CN202210672673 A CN 202210672673A CN 115050387 A CN115050387 A CN 115050387A
- Authority
- CN
- China
- Prior art keywords
- audio
- analysis
- examination
- singing
- examinee
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 194
- 238000011156 evaluation Methods 0.000 title claims abstract description 116
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000004364 calculation method Methods 0.000 claims abstract description 49
- 230000008569 process Effects 0.000 claims abstract description 41
- 238000007781 pre-processing Methods 0.000 claims abstract description 35
- 230000033764 rhythmic process Effects 0.000 claims description 100
- 230000008859 change Effects 0.000 claims description 36
- 230000001755 vocal effect Effects 0.000 claims description 24
- 238000001914 filtration Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 238000001228 spectrum Methods 0.000 claims description 9
- 238000007405 data analysis Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 abstract description 16
- 238000005070 sampling Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000010977 unit operation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 238000009432 framing Methods 0.000 description 4
- 238000012854 evaluation process Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000005311 autocorrelation function Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010835 comparative analysis Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000001260 vocal cord Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Electrically Operated Instructional Devices (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
本发明公开了一种艺术测评中多维度唱奏分析测评方法及系统,应用于教学软件技术领域,包括以下步骤:考试信息录入步骤、标准乐谱上传至分析系统步骤、考卷下发步骤、考生试听考试曲目步骤、考生手动开启考试步骤、考试过程录音步骤、考生音频数据上传至系统步骤、音频数据解码步骤、音频数据预处理步骤、音频数据多维分析计算步骤、对比标准乐谱和考生唱奏音频步骤、各向评分和各测评项综合评分输出步骤和测评结果输出步骤。本发明使每一位学生都获得全面、客观、准确且具有一致性的测评结果,使教师将精力完全投入于艺术教育。
Description
技术领域
本发明涉及教学软件技术领域,尤其涉及一种艺术测评中多维度唱奏分析测评方法及系统。
背景技术
现行艺术测评唱奏测评部分评分准则一般由老师凭借专业知识及教学经验对学生的唱歌与乐器演奏进行评分。但此类方法主观性较强且效率低下,无法量化评分标准。由于人工打分过程中存在时间、考试人数、考试环境等多方面限制,使得从多方面对每位学生的唱奏进行准确评分这一要求执行起来有较大难度;同时测评过程打分主要依据教师的个人专业知识及经验,对于整个地区性/全校性的考试,学生成绩完全由老师决定,而教师教学水平和主观评判标注的差异将直接影响考试成绩,这在测评的公平性方面存在一定局限性。
并且在当前人工打分的条件下,艺术测评过程中学生的唱奏内容通常没有录音记录,这使得测评存在过程不透明且结果无法溯源等问题。考试后结果通常由教师手动记录或录入电子档案再对考生的成绩进行分析,以上工作量需耗费大量时间精力来完成,给教师带来极大的工作负担。
在目前国家重视包括声乐与多种乐器演奏在内的艺术教育,但在各年龄段学生数量庞大而艺术教师资源短缺且教学水平各异的情况下,难以使每一位学生都获得全面、客观、准确且具有一致性的测评结果,也无法使教师将精力完全投入于艺术教育。
因此,提供一种艺术测评中多维度唱奏分析测评方法及系统,克服现有技术存在的困难,是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种艺术测评中多维度唱奏分析测评方法及系统,使每一位学生都获得全面、客观、准确且具有一致性的测评结果,使教师将精力完全投入于艺术教育。
为了实现上述目的,本发明采用如下技术方案:
一种艺术测评中多维度唱奏分析测评方法,包括以下步骤:
考试信息录入步骤,将考生基本信息以及考试信息录入系统;
标准乐谱上传至分析系统步骤,用于系统对标准乐谱进行解码分析,提取出标准数据备用;
考卷下发步骤,用于将试卷下发至各学生端,学生进行阅卷并检查系统运行情况;
考生试听考试曲目步骤,用于学生正式考试前熟悉考试内容;
考生手动开启考试步骤,用于学生开启正式考试;
考试过程录音步骤,用于将学生考试过程中的唱奏内容进行录音,形成考生音频数据;
考生音频数据上传至系统步骤,用于将学生考试音频数据上传至系统进行数据分析以及评分;
音频数据解码步骤,用于将导入的考生音频数据进行解码,并提取音频数据部分暂存在系统中;
音频数据预处理步骤,用于对音频数据做初步计算转换为分析类型数据;
音频数据多维分析计算步骤,用于对预处理后的音频数据依照不同分析单元的功能对音频进行分析,通过计算获得目标分析结果,并存储备用;
对比标准乐谱和考生唱奏音频步骤,用于读取标准乐谱上传至分析系统步骤内的标准数据组、考试信息录入步骤中的考试信息进行考生唱奏音频数据进行对比;
各项评分和各测评项综合评分输出步骤,用于将对比标准乐谱和考生唱奏音频步骤中分析结果依照考试信息进行单项评分,根据考试规范将所有单项评分按比例加权进行各项综合评分;
测评结果输出步骤,用于将综合评分、各项评分以及各分析项测评结果输出至学生端。
优选的,考试信息录入步骤中的考生信息包括姓名、学号、性别、年龄、班级、学校和考场;考试信息包括考试项目、考试曲目以及每项分析偏差值和评分规则。
优选的,标准乐谱上传至分析系统步骤中,标准数据包括音准、节奏、歌词、音调和韵律。
优选的,测评结果输出步骤中还包括将艺术测评中唱奏评分以及分析结果下发至老师端和学生端。
一种艺术测评中多维度唱奏分析测评系统,包括:信息预处理模块、音频分析模块和综合评分模块;
信息预处理模块,用于对考生信息、考试信息、唱奏音频的预处理;
音频分析模块,用于对音频数据进行音准、节奏、停顿、音调和韵律的分析,歌词的识别;
综合评分模块,用于对音频数据进行综合评分。
优选的,信息预处理模块包括:考生信息录入单元、唱奏录音单元、考试乐谱分析单元和唱奏音频预处理单元;
考生信息录入单元,用于从考试系统中读取考生个人信息;
唱奏录音单元,用于在考试过程中接收考生唱奏内容并存储为待分析音频文件;
考试乐谱分析单元,用于导入标准乐谱文件并解码分析,提取评分所需信息,包括乐谱节拍类型、唱奏速度,乐谱小节内音符音调、时值、装饰音、强弱变化及对应歌词信息,乐谱内空拍时值信息,乐谱内音符强弱变化信息,建立标准乐谱数据组;
唱奏音频预处理单元,用于对考生唱奏音频进行分析前预处理,包括高频增强处理用于补偿录音过程中损失的高频部分音频数据、重点分析频段滤波处理用于滤除分析频段外音频数据以及分帧加窗处理用于将音频进行切割为帧并整合为数据组。
优选的,音频分析模块包括:停顿分析单元、音准分析单元、节奏分析单元、歌词识别单元、音调分析单元和韵律分析单元;
停顿分析单元,用于计算考生唱奏音频数据组,获得每帧音频的能量值、过零率值以及谱熵值,确定唱奏过程中每处停顿及其持续时间;
音准分析单元,用于计算预处理后考生音频数据组,获得每帧音频数据的频域值;
节奏分析单元,用于计算预处理后考生音频数据组,获得唱奏音频内音符的时域信息;
歌词识别单元,用于识别预处理后考生音频数据组中语音信息,确定声乐测评演唱音频内的歌词;
音调分析单元,用于分析每帧音频数据的频域值,获得唱奏音频内音调变化信息;
韵律分析单元,用于分析预处理后考生音频数据组中数值变化,确定唱奏音频的强弱变化规律。
优选的,综合评分模块包括:音准评分单元、节奏评分单元、歌词评分单元、旋律评分单元、韵律评分单元和综合容错评分单元;
音准评分单元,用于对比标准乐谱和考生唱奏音频的音符音调信息,计算获得音准评分;
节奏评分单元,用于对比标准乐谱和考生唱奏音频的空拍及音符时域信息,综合音符与空拍两个维度,计算获得节奏评分;
歌词评分单元,用于在声乐测评中对比标准乐谱和考生演唱音频的歌词,计算获得歌词评分;
旋律评分单元,用于对比标准乐谱和考生唱奏音频的音调变化信息,计算获得旋律评分;
韵律评分单元,用于对比标准乐谱和考生唱奏音频的强弱变化规律,计算获得韵律评分;
综合容错评分单元,用于根据设定容错率对指定评分结果进行调整,依照不同评分项的设定权重计算获得综合评分。
经由上述的技术方案可知,与现有技术相比,本发明提供了一种艺术测评中多维度唱奏分析测评方法及系统:(1)通过电子化的测评形式,将考生信息导入考试系统,不需要额外进行记录,提高考试信息管理效率;(2)结合头戴式耳机与降噪麦克风进行唱奏测评,考试过程中对考生唱奏内容进行录音并上传至管理系统,使得考试内容透明化、可溯源;(3)考试音频数据经过多重预处理,补偿录音过程中高频率数据损耗还原乐音与人声,滤除非乐音与人声频段数据减少噪音干扰,提高计算结果精度进而保障分析结果准确性;(4)结合多种信号处理算法提取音频内基音频率,通过每帧能量、过零率、谱熵值计算获得音频节奏信息,在声乐测评中进一步采用多维MFCC特征结合DTW模型语音识别方法实现音频内歌词识别,高效计算分析内容;(5)多维度唱奏音频计算,全面分析考生的唱奏水平;(6)将考生性别以及年龄纳入评分考量范围,声乐测评中根据考生声音条件情况适当调整对比模板数据,减少因生理性声音变化引起的评分差异;演奏测评中基于演奏乐器与考生年龄适当调整测评容错;提高艺术测评中唱奏测评的合理性;(7)唱奏评分过程采用标准乐谱信息作为模板进行对比分析,减少环境、时间等因素引起的评分限制,降低评分主观性,保障艺术测评中唱奏测评的客观性与公平性;(8)系统内各评分项占总分比重可依照考试规范灵活调整,满足各地区学校艺术测评中唱奏测评的评分规范,适用范围广泛。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明一种艺术测评中多维度声乐分析测评方法流程图;
图2为本发明一种艺术测评中多维度声乐分析测评系统结构示意图;
图3为本发明信息预处理模块结构示意图;
图4为本发明音频分析模块结构示意图;
图5为本发明综合评分模块结构示意图
图6为本发明信息预处理模块操作流程图;
图7为本发明停顿分析单元操作流程图;
图8为本发明音准分析单元操作流程图;
图9为本发明节奏分析单元操作流程图;
图10为本发明歌词识别单元操作流程图;
图11为本发明音调分析单元操作流程图;
图12为本发明韵律分析单元操作流程图;
图13为本发明音准评分单元操作流程图;
图14为本发明节奏评分单元操作流程图;
图15为本发明歌词评分单元操作流程图;
图16为本发明旋律评分单元操作流程图;
图17为本发明韵律评分单元操作流程图;
图18为本发明综合容错评分单元操作流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
参照图1所示,本实施例公开了一种艺术测评中多维度唱奏分析测评方法,其特征在于,包括以下步骤:
考试信息录入步骤,将考生基本信息以及考试信息录入系统;
标准乐谱上传至分析系统步骤,用于系统对标准乐谱进行解码分析,提取出标准数据备用;
考卷下发步骤,用于将试卷下发至各学生端,学生进行阅卷并检查系统运行情况;
考生试听考试曲目步骤,用于学生正式考试前熟悉考试内容;
考生手动开启考试步骤,用于学生开启正式考试;
考试过程录音步骤,用于将学生考试过程中的唱奏内容进行录音,形成考生音频数据;
考生音频数据上传至系统步骤,用于将学生考试音频数据上传至系统进行评分;
音频数据解码步骤,用于将导入的考生音频数据进行解码,并提取音频数据部分暂存在系统中;
音频数据预处理步骤,用于对音频数据做初步计算转换为分析类型数据;
音频数据多维分析计算步骤,用于对预处理后的音频数据依照不同分析单元的功能对音频进行分析,通过计算获得目标分析结果,并存储备用;
对比标准乐谱和考生唱奏音频步骤,用于读取标准乐谱上传至分析系统步骤内的标准数据组、考试信息录入步骤中的考试信息进行考生唱奏音频数据进行对比;
各项评分和各测评项综合评分输出步骤,用于将对比标准乐谱和考生唱奏音频步骤中分析结果依照考试信息进行单项评分,根据考试规范将所有单项评分按比例加权进行各项综合评分;
测评结果输出步骤,用于将综合评分、各项评分以及各分析项测评结果输出至学生端。
在一个具体实施例中,考试信息录入步骤中的考生信息包括姓名、学号、性别、年龄、班级、学校和考场;考试信息包括考试项目、考试曲目以及每项分析偏差值和评分规则。
在一个具体实施例中,标准乐谱上传至分析系统步骤中,标准数据包括音准、节奏、歌词、音调和韵律。
在一个具体实施例中,考试过程录音步骤中,在伴奏播放至开始唱奏时麦克风开启并对考生唱奏内容进行录音并生成.WAV格式音频文件,考生在完成唱奏后确认考试结束并提交唱奏结果。
在一个具体实施例中,音频数据预处理步骤中,分析在考试过程录音步骤中录制成的音频部分频段损失进行补偿,同时滤除录制过程中收录的噪音。
在一个具体实施例中,测评结果输出步骤中还包括将艺术测评中唱奏评分以及分析结果下发至老师端和学生端。
在一个具体实施例中,音频数据多维分析计算步骤中,多维分析包括:停顿分析、频域分析、时域分析、歌词分析、音调变化和强弱变化规律分析。
在一个具体实施例中,测评结果输出步骤中,将对比标准乐谱和考生唱奏音频步骤和各向评分和各测评项综合评分输出步骤中计算得到的结果封装成JSON格式,并在系统中转换为可视数据形式。
参照图2所示,公开了一种艺术测评中多维度唱奏分析测评系统,包括信息预处理模块、音频分析模块和综合评分模块;
信息预处理模块,用于对考生信息、考试信息、唱奏音频的预处理;
音频分析模块,用于对音频数据进行停顿、音准、节奏、音调和韵律的分析,歌词的识别;
综合评分模块,用于对音频数据进行综合评分。
在一个具体实施例中,如图3所示,信息预处理模块包括:考生信息录入单元、唱奏录音单元、考试乐谱分析单元和唱奏音频预处理单元;
考生信息录入单元,用于从考试系统中读取考生个人信息;
唱奏录音单元,用于在考试过程中接收考生唱奏内容并存储为待分析音频文件;
考试乐谱分析单元,用于导入标准乐谱文件并解码分析,提取评分所需信息,包括乐谱节拍类型、唱奏速度,乐谱小节内音符音调、时值、装饰音、强弱变化及对应歌词信息,乐谱内空拍时值信息,乐谱内音符强弱变化信息,建立标准乐谱数据组;
唱奏音频预处理单元,用于对考生唱奏音频进行分析前预处理,包括高频增强处理用于补偿录音过程中损失的高频部分音频数据、重点分析频段滤波处理用于滤除分析频段外音频数据以及分帧加窗处理用于将音频进行切割为帧并整合为数据组。
在一个具体实施例中,如图4所示,音频分析模块包括:停顿分析单元、音准分析单元、节奏分析单元、歌词识别单元、音调分析单元和韵律分析单元;
停顿分析单元,用于计算考生唱奏音频数据组,获得每帧音频的能量值、过零率值以及谱熵值,确定唱奏过程中每处停顿及其持续时间;
音准分析单元,用于计算预处理后考生音频数据组,获得每帧音频数据的频域值;
节奏分析单元,用于计算预处理后考生音频数据组,获得唱奏音频内音符的时域信息;
歌词识别单元,用于识别预处理后考生音频数据组中歌词信息,确定声乐测评演唱音频内的歌词;
音调分析单元,用于分析每帧音频数据的频域值,获得唱奏音频内音调变化信息;
韵律分析单元,用于分析预处理后考生音频数据组中数值变化,确定唱奏音频的强弱变化规律。
在一个具体实施例中,如图5所示,综合评分模块包括:音准评分单元、节奏评分单元、歌词评分单元、旋律评分单元、韵律评分单元和综合容错评分单元;
音准评分单元,用于对比标准乐谱和考生唱奏音频的音符音调信息,计算获得音准评分;
节奏评分单元,用于对比标准乐谱和考生唱奏音频的空拍及音符时域信息,综合音符与空拍两个维度,计算获得节奏评分;
歌词评分单元,用于在声乐测评中对比标准乐谱和考生演唱音频的歌词,计算获得歌词评分;
旋律评分单元,用于对比标准乐谱和考生唱奏音频的音调变化信息,计算获得旋律评分;
韵律评分单元,用于对比标准乐谱和考生唱奏音频的强弱变化规律,计算获得韵律评分;
综合容错评分单元,用于根据设定容错率对指定评分结果进行调整,依照不同评分项的设定权重计算获得综合评分。
在一个具体实施例中,如图6所示,信息预处理模块操作流程具体如下:
S1:考试信息录入,考生登录考试系统后,本地系统读取该考生在系统内信息以及由教师预先发布的此次考试内容;
进一步地,考试内容由考试项目、考试曲目、考试各项分析偏差阈值以及评分规则(即考试规范)组成;
S2:读取考生性别、年龄信息,将考生信息暂存在本地系统中,作为图13及图16中音准分析项和音调分析项的乐谱标准模板的调整参考,该步骤为后续分析做准备;
S3:考试曲目标准乐谱文件解码,步骤一中本地系统读取考试内容并将考试曲目标准乐谱下载至本地;
进一步地,标准乐谱为musicXML格式文件,系统将待分析项对比所需数据从乐谱文件中<part-list>中读取;
进一步地,将读取到的<attributes>、<direction-type>、<note>等数据类中节拍、音符时值、音调、八度等信息提取计算并转换为适用于分析的数据类型,其中涉及计算如:
1.计算乐谱节拍速度,计算公式为:
其中tbeat为每一拍音符所占时值单位为秒,bpm为乐谱中节拍速度(beatsperminute)
2.计算音符标准频率,计算公式为:
其中fnote为音符标准频率单位为赫兹,n为该音符与中央C音间距离,该音符低于中央C音则距离n为负,相反则距离n为正;
3.计算音符标准时值,计算公式为:
其中tnote为音符标准时值单位为秒,duration为乐谱中音符时值,division为乐谱中单位音符时值相除得到音符节拍长度;
S4:建立待分析项数据模板,搭建标准乐谱数据组,将S3中计算得到的数据整理,结合时间参数生成’Intonation-Time’、’Beat-Time’、’Lyrics-Time’、’Tone-Time’、’Rhythm-Time’五个标准数据模板,若考试项目为声乐演唱则生成上述五个模板,若考试项目为乐器演奏则仅生成除’Lyrics-Time’外的四个模板;
进一步地,将各项分析所需模板整合为Dictionary类型数据并存储备用;
S5:考试过程中麦克风录音,考生在点击开始考试后伴奏开始播放,但此时麦克风并未开启,直到伴奏播放至唱奏开始时间麦克风开启并进行录音,本步骤减少噪音录入并降低数据存储和计算成本;
进一步地,麦克风采样率为16KHz能够满足音频分析识别所需清晰度,且不会过多占用系统内算,在计算量适中情况下保证计算速度;
S6:录音数据上传至系统并解码,考试过程中唱奏录制生成16KHz采样率、16bit带宽单声道模式的.WAV格式音频文件,考生在结束考试后点击确认,本地系统将.WAV格式音频文件上传至服务器等待分析;
进一步地,在音频文件进入分析系统后进行解码操作获取音频数据(这里采用soundfile库内read函数实现);
S7:音频数据均值滤波,随后进行归一化处理将数据转换至适合进行计算的范围内,其中详细计算如下:
1.进行均值滤波去除音频数据中直流分量,计算公式为:
2.进行归一化处理降低后续处理计算量,计算公式为:
其中,x(n)为均值滤波后音频数据组,max(x(n))为均值滤波后音频数据组最大值,经过计算后当前均值滤波后音频数据组被归一化处理后均值滤波数组据代替;
S8:音频数据分帧加窗,本步骤针对S7处理结束音频数据进行,系统固定设置分析用数据帧长、混叠率将音频数据切割为多个短时平稳数据片段即为帧,并由混叠率决定帧移位即相邻两帧之间的重叠区域,以避免相邻两帧的变化;
进一步地,进行加窗操作,由于每一帧的开头结尾都会存在间断,因此分割的帧越多,分帧后音频数据与分帧前音频数据误差越大,通过加窗操作解决问题使分帧后信号变得连贯且每帧音频数据都会表现出周期函数的特性,系统在该步骤使用汉明窗进行处理;
S9:音频数据高频增强滤波,由于S5过程中会造成音频高频部分的损失,造成部分频段失真,所以在进行唱奏分析前需要对音频高频部分进行补偿,计算公式为:
y(n)=x(n)-αx(n-1) (6)
x(n)=y(n) (7)
其中α为预加重系数取值范围通常为0.9~1,x(n)为步骤七中输出的音频数据组,y(n)为预加重后音频数据组,结束计算后S7中输出数据组被预加重后音频数据组替代;
S10:音频数据重点分析频段滤波,S5中将固定频段内声音全部录入,但此过程并不具有选择性与判断性,因此环境中存在的各种噪音也会被采集,而环境噪音的存在将会降低后续计算分析的精度,所以需要通过滤波器对步骤九输出结果进行计算,将人声频段保留并滤除噪声主要存在的频段,本步骤旨在保障后续分析的可靠性(这里采用的scipy.signal库内函数实现);
S11:音频数据分帧加窗,将S10中输出的重点频段滤波后音频数据进行分段,具体操作与S8保持一致。
在一个具体实施例中,如图7所示,停顿分析单元操作的具体内容;
步骤一,读取预处理后音频数据,停顿分析目的在于计算出整个音频内停顿以及发声段的时间位置,因此对于音频数据在频域内的精度要求不高且多重预处理后音频已不适合此处分析,因此读取图二中步骤八输出音频数据;
步骤二,基于音频前后帧数据计算当前帧过零率,过零率体现的是信号过零点的次数,体现其频率特性,在录音过程中若进行唱奏则发出声音存在于特定频率范围,而停顿时由于是无声状态所以频率应无限趋于零,通过过零率计算可以反映出音频数据在不同时间内频率的变化并由此推断有声与停顿,计算公式为:
其中Zn为当前帧过零率,N为一帧长度,n为对应帧数,sgn[]为符号函数,其定义为:
步骤三,设定端点检测各项参数,在进行端点检测计算预设置进行有声或停顿判断所需要的阈值即门限值,并设置有声段与停顿段的长度阈值,防止将较大噪声或唱奏过程中换气或乐器擦碰出声等误判;
步骤四,每帧音频数据计算谱熵值,其内部具体实现步骤为:
1.音频数据进行傅里叶变化将时域信号转化为频域信号,计算公式为:
X(k)=FFT(x(n)) (10)
此处X(k)为傅里叶变换得到的频域信号,x(n)为图二步骤八输出音频数据;
2.每帧频域信号计算总能量,计算公式为:
此处Ek为当前帧能量,N为帧长,Xp为正频率部分;
3.计算一帧内每条谱线概率密度,计算公式为:
其中Pk为当前帧频谱概率密度;
4.计算谱熵值,计算公式为:
其中Hk为当前帧谱熵值,eps为一函数,当没有参数时默认参数为1,返回的是该参数的精度;
5.计算熵能比并归一化,计算公式为:
此处Efk为每帧能熵比,归一化处理后能熵比数组替代原本数据组
步骤五,基于每帧谱熵值及门限值判断此帧是否为有声帧,步骤四计算获得每帧用于判断的数据信息,其内部具体实现步骤如下:
将每帧熵能比数据与与第一阈值比较,找出高于阈值的帧并记录其标号(index);
依照第一次门限比较结果初步划分有声段和停顿段;
步骤六,记录有声段与无声段的数量,及其停顿时间,依据步骤五分析结果记录初步划分的有声段与停顿段数量以及每段帧长
步骤七,检测有声段长度是否大于阈值,其内部具体实现步骤如下:
1.将步骤六获得有声段帧长与最小帧长阈值比较;
2.若有声段帧长小于阈值则判定当前段为噪音干扰;
3.将噪声干扰段判定为无声段并重新划分有声段与无声段;
步骤八,建立音频停顿分析数据组,将有声无声段划分信息包括段数量、段长度、段时间等整合为一完整数据组并暂存在系统中。
在一个具体实施例中,如图8所示,音准分析单元的具体操作内容为:
步骤一,读取预处理后音频数据,音准分析目的在于准确计算出每一帧音频数据的基音频率(即目标发音所对应声带震动频率),所以读取图6中步骤十一输出数据;
步骤二,读取停顿分析单元输出数据,在图7停顿分析单元中已经计算分析获得音频中有声段以及无声段所对应时间节点以及不同段相应帧长,因此可以直接调用此分析结果,对有声段各帧进行分析,减少计算成本和计算时间,本步骤旨在于提高系统分析计算效率;
步骤三,设定音准分析所需相关阈值,相关阈值包括目标分析频率最小值、目标分析频率最大值;
步骤四,参照停顿分析单元所获得结果对有声段进行自相关函数计算(Auto-correlation Function),其内部具体实现步骤为:
1.依照有声无声段分析结果,将音频数据中无声段内包含帧的音准参数设为零;
2.对有声段内每帧进行自相关系数计算,其具体实现步骤为:
2.1取有声段内待分析帧(逐帧计算);
2.2计算该帧自相关系数,计算公式为:
此处Rm为每帧自相关系数;
2.3提取自相关系数中用于分析部分;
步骤五,由自相关参数计算每帧音准参数,其内部具体实现步骤为:
1.依照步骤三设定频率阈值,在阈值范围内找出自相关系数中最大值以及其所在位置;
2.结合频率阈值范围即自相关系数最大值确定该帧基音周期(FundamentalPeriod);
3.结合音频采样频率(Sampling Frequency)与基音周期,计算获得该有声帧基音频率(Fundamental Frequency)即为每帧音准参数;
步骤六,音频音准参数参数滤波降低误差,由于先前步骤无法彻底滤除噪音,所以经过步骤四计算获得基音频率中存在一些野点,为保证用于分析的数据的可靠性,需要对音频基音频率数组进行后处理,其内部具体实现步骤为:
1.对基音频率数组进行中值滤波;
2.对中值滤波后基音频率数组进行平滑滤波;
步骤七,建立音频音准分析数据组,将以上步骤内获得音准相关数据与有声无声段以及各帧相关时间信息整合为一完整数据组并暂存在系统中。
在一个具体实施例中,如图9所示,节奏分析单元的具体操作内容为:
步骤一,读取预处理后音频数据,节奏分析目的在于分析出每一音符变化时间以及持续时间,需要计算音频数据声学参数,所以读取图二中步骤十一输出数据;
步骤二,读取停顿分析单元输出数据,同图四步骤二目标一致,且无声段作为停顿部分纳入节奏分析内;
步骤三,提取图三步骤四中数据包括Xk音频频域数组和Ek音频每帧能量,并计算每帧音频梅尔倒谱系数(Mel-Frequency Cepstral Coefficients)(这里采用的librosa库的librosa.feature.mfcc);
步骤四,使用有声段无声段信息,将无声段设为停顿部分即乐谱中空拍,并记录空拍的开始结束时间以及持续时长;
进一步地,通过分析帧能量Ek和帧过零率Zn,结合每帧音频能量大小及每帧频率变化进一步划分音频数据中的空拍帧;
步骤五,使用每帧音频数据的MFCC进行分析,获得音频内音符变换节点,再次检查音频内由唱奏变为停顿的时间节点;
步骤六,结合步骤四、步骤五的分析结果确定无声段即空拍的开始结束时间点并记录空拍时值,有声段内记录每一音符变化时间点以及每一音符唱奏时值;
步骤七,建立音频节奏分析数据组,将以上步骤内节奏相关数据与音频声学特征数据以及音符空拍相关时间信息整合为一完整数据组并暂存在系统中;
在一个具体实施例中,如图10所示,其中歌词识别单元的具体操作内容如下:
步骤一,图6步骤一中获得考试项目为声乐演唱测评或包含此项,则导入分析系统内预存语音识别模板,该模板为歌词识别专用;
步骤二,读取图9步骤七数据,将音频节奏分析数据用于标记待分析音频,将每帧音频的MFCC用于后续音频特征参数组的建立;
进一步地,读取标准乐谱数据组中’Lyrics-Time’模板,对使用音频节奏分析数据作出的音符时间标记进行修正及补充,获得更完整的音频歌词时间节点;
步骤三,读取图6中步骤十一输出数据,此处需要对音频的时域能量进行准确计算;
步骤四,对音频数据的每帧能量进行计算,计算公式为:
其中en为每帧能量;
步骤五,使用步骤二中每帧MCFF进行计算获得一阶差分MFCC和二阶差分MFCC并整合为固定维度尺寸的音频特征参数数组
步骤六,将步骤二中音频歌词空拍时间节点标记到步骤五建立的音频特征参数数组上,划分单个歌词所属的特征参数且空拍部分将不进行下一步的识别分析默认为无歌词;
进一步地,将每帧数据的en和Zn结合生成能零比,在对每一个歌词范围内的音频帧进行对比分析,将歌词声母段与韵母段分开并确定音节正式进入韵母的时间节点;
进一步地,用歌词韵母声段特征参数替换歌词全部声段特征参数,本步骤旨在提高系统分析速度降低分析数据量,并提高在声乐演唱分析背景下识别的准确定;
步骤七,将每一歌词作为单个字符或单个音节,通过DTW算法进行模板匹配获得相似度最高对比结果作为此歌词韵母分析结果;
进一步地,若无法对此歌词进行识别或识别过后语音模板为找到相似度足够高的对比结果,则对该歌词的声韵母重新分割,其内部具体实现步骤为:
1.降低声韵母能零比的阈值;
2.放宽韵母在整个歌词中所占时长;
3.若调整阈值与比例后再次识别失败,则再进行最后一次范围放宽,若仍无法识别则输出结果此歌词无法识别;
步骤八,建立音频歌词识别数据组,将以上步骤内获得歌词识别结果、声韵母分割数据、音频声学特征参数组以及相关时间信息整合为一完整数据组并暂存在系统中。
在一个具体实施例中,如图11所示,音调分析单元的具体操作内容如下:
步骤一,读取音频音准分析数据组,音调分析基于音频中每一音符的每一帧频率变化;
进一步地,读取音频节奏分析数据组,将每帧音频的基音频率与音频中每一音符的时间数据结合获得每一音符的起止时间以及在音符时值内每一帧的基音频率;
步骤二,分析唱奏过程中每个音符的唱奏情况,通过分析该音符时段内每一帧频率的变化情况对比每帧频率的变化程度,判断音符的唱奏是否平稳;
进一步地,将每帧音符频率再与音符平均频率做计算,通过计算结果对音符唱奏做出评价;
步骤三,结合音频节奏分析数据内的音符空拍的时值信息以及变化的时间节点数据等时域信息和步骤二内每一音符平均频率,绘制完整唱奏过程中的音准变化曲线;
步骤四,建立音频音调分析数据组,将以上步骤内每一音符唱奏评价以及唱奏音准变化曲线以及相关时间信息整合为一完整数据组并暂存在系统中;
在一个具体实施例中,如图12所示,其中韵律分析单元的操作内容如下:
步骤一,对唱奏过程中韵律强弱进行分析需要对录音数据进行分析,多次滤波降低数据间差异不适于数值间强弱判断分析,因此读取图6步骤八中音频数据;
进一步地,对比每帧音频与前后两帧音频间均值差异,计算公式为:
其中Dn-1为当前帧与前一帧之差,Dn+1为后一帧与当前帧之差;
步骤三,分析当前帧与前后帧均值差,若Dn-1为正且差值较大则表示当前帧音量相较于上一帧增强若为负则减弱,同理对Dn+1进行同样分析;
进一步地,结合当前帧与前后帧之间的变化以及三相邻帧之间持续产生的均值变化趋势,判断当前部分为渐强(f,ff)或渐若(p,pp)亦或者是平稳(当前帧与相邻两帧间Dn-1与Dn+1为正或负但绝对值很小);
步骤四,建立音频韵律分析数据组,将帧间均值差与唱奏渐强渐弱变化分析结果以及唱奏过程中强弱变化产生结束时间信息整合为一完整数据组并暂存在系统中;
在一个具体实施例中,如图13所示,音准评分单元的具体操作内容:
步骤一,读取音频音准分析数据组以及乐谱内音准标准数据模板,两组数据为音准评分所需数据;
步骤二,调取艺术测评考试信息及考生个人信息,在声乐演唱测评中由于男女声音域不同女声通常比男声高一个八度,根据考生性别以及当前年龄判断考生是否处于变声期,若考生正处于声带变化阶段,则依照成年同性为参考对测评所用标准数据模板在整体数值上进行适当调整即降低标准音准数据的八度;在乐器演奏测评中根据考试信息中获得当前演奏乐器信息将标准音准数据调整至该乐器音域范围,且根据考生年龄及考试规范适当调整音准范围要求;
步骤三,对音准测评读取预处理中设置的偏差阈值包括音准频率偏差,对每一音符设定对允许偏差范围;
进一步地,读取考试规范中的评分规则,音准对比结果依靠评分规则给出相应分数;
步骤四,通过DTW算法对音准数据与标准数据进行相似度计算,获得结果表示唱奏音频在音准方面与标准模板的接近程度越接近则考生唱奏音准越标准且作为音准评分SDTW;
步骤五,将音准数据与标准数据从第一帧开始进行差值计算,获得唱奏音频与标准模板在每一帧上的频率差,按照预设的偏差阈值对每一帧给出相应分数,并在评分结束后对帧评分加权平均获得唱奏音频偏差评分SDifference;
步骤六,依照步骤三中读取考试规范,在两种评分结果中选择高分或者低分亦或者两种评分按比例加权,获得音准最终评分SIntonation;
步骤七,将音准评分中每帧音频偏差评分、DTW相似度评分以及最终音准评分整合为音频音准评分数据组并暂存在系统中;
在一个具体实施例中,如图14所示,节奏评分单元的具体操作如下:
步骤一,读取音频停顿分析数据组、音频节奏分析数据组、节奏标准数据模板以及空拍标准数据模板,唱奏中的节奏评分由唱奏中节奏变化以及空拍停顿两方面组成;
步骤二,对节奏测评读取预处理中设置的节拍偏移阈值、节拍时值偏差阈值,音符节奏与空拍评分分别采用对应阈值,在声乐演唱测评与乐器演奏测评中阈值设定不同;
进一步地,读取考试规范中的评分规则供后续参考;
步骤三,将音频停顿数据与标准停顿数据进行对比,获得空拍数量差异以及两组数据中每一空拍的时域信息差异包括开始结束时间的偏移和空拍时值差;
进一步地,依照步骤二中读取的空拍相关偏差阈值对每一空拍按偏差程度进行评分,并加权平均获得空拍评分Spause;
步骤四,将音频节奏数据与标准节奏数据包括音符变换时间节点以及音符持续时值结合为可进行相似度计算的数列[(ni,b,ni,e),ti]以及[(NI,b,NI,e),TI],其中n为音频节奏数据中音符i为其indexti表示其时值,N为标准节奏数据中音符I为其indexTI表示其时值,音频和乐谱中空拍也包括在数组中;
步骤五,通过DTW算法与对应音符偏差分析两种方法获得唱奏节奏评分,其内部具体实现步骤为:
对[(ni,b,ni,e),ti]与[(NI,b,NI,e),TI]使用DTW算法计算两节奏数组相似性,相似程度越高则表明考生唱奏的节奏越准确,获得评分SRhythm-DTW;
将[(ni,b,ni,e),ti]以[(NI,b,NI,e),TI]为模板,对音频内每一音符与乐谱相比在时域上的偏差进行对比,如:di,b=|Ni,b-ni,b|,di,e=|Ni,e-ni,e|,di,t=|Ti-ti|,分别计算在开头结尾和时值上的偏差并用绝对值表示,偏差值越小则唱奏节奏越接近标准,结束所有音符与标准数据的对比后按照步骤二中读取的音符节奏相关偏差阈值结合计算结果给出相应评分,并加权平均获得音符节奏评分SRhythm;
步骤六,依照步骤二中读取考试规范对于音符节奏评分,在两种算法中选择高分或者低分亦或者均分作为节奏评分,进一步将Spause与SRhythm按比例加权获得节奏最终评分SBeat;
步骤七,将节奏评分中Spause,SRhythm,SRhythm-DTW以及最终节奏评分SBeat整合为音频节奏评分数据组与分析内容一起暂存在系统中。
在一个具体实施例中,如图15所示,歌词评分单元的具体操作内容:
步骤一,若本次艺术测评考试项目中包含声乐演唱测评,则综合考试评分中包含歌词评分项,此处读取音频歌词识别数据组和歌词标准数据模板;歌词评分旨在将唱奏过程中发声的歌词与标准乐谱中歌词的韵母部分进行对比,确定歌词发音是否大致正确,因为唱奏发声相比于正常说话发声很大程度上受到音调的影响吐字不一定清晰可分辨所以将受影响较大的声母部分排除分析;
步骤二,对歌词测评读取预处理中设置的歌词分析偏差阈值和考试规范中歌词部分的评分规则;
步骤三,对音频歌词数据与标准歌词数据进行对比,其内部具体实现步骤为:
1.逐字将音频数据组与标准数据组内韵母取出,判断是否一致,若一致则说明当前分析的歌词吐字是标准的,并对当前歌词评分得到SLyric-i;
2.若第一步分析得出当前歌词韵母与标准歌词的不一致,则需要进一步分析两韵母所属类别,韵母发音分为:单韵母(sf)、复韵母(cf)、前鼻韵母anv、后鼻韵母(pnv)、介韵(mf)和整体认读音节(sy),例如:finali=(an,anv),FINALi=(un,anv),其中finali为当前分析的歌词韵母FINALi为当前标准数据中韵母,两者不一致但仍属于同一类韵母则说明此歌词的发音不标准所以产生偏差,但仍可以给一定分数;
3.又例如:finali+1=(en,anv),FINALi+1=(ong,pnv),其中歌词韵母与标准数据的韵母不一致,再对比韵母分类时也不属于同一类韵母,则由此判断歌词唱奏错误,在这种情况下不给分;
步骤四,结束每一个韵母的判断分析后依照考试规范进行评分并加权获得最终歌词评分SLyric;
步骤五,将歌词评分中每一歌词韵母的评分结果与最终歌词评分SLyric整合为音频歌词评分数据组并暂存在系统中。
在一个具体实施例中,如图16所示,音调评分单元的具体操作内容为;
步骤一,读取音频音调分析数据组和音调标准数据模板,音调评分通过对比音频与乐谱中的音调变化来实现;
步骤二,对音调测评读取考试规范中音调部分的唱奏评分规则,包括音调与音符唱奏两方面,在声乐演唱测评与乐器演奏测评中使用不同评分规则;
步骤三,依照图七中步骤三对标准音调数据建立乐谱的音准变化曲线;
进一步地,使用DTW算法计算音频数据和标准数据的音准变化曲线相似性,根据音调评分规则由计算得到的音调曲线相似度给出评分STone-DTW;
步骤四,对每一音符的唱奏结合唱奏评分规则和图11步骤二中音符唱奏评价,给出相应分数并将所有音符的评分加权平均获得音符唱奏评分SPerformance;
步骤五,根据评分规则将STone-DTW与SPerformance按比例加权获得最终音调评分为STone;
步骤六,将音调评分中每一音符唱奏的评分与评价、SPerformance、STone-DTW和最终音调评分STone整合为音频音调评分数据组并暂存在系统中。
在一个具体实施例中,如图17所示,韵律评分单元的具体操作如下:
步骤一,读取音频韵律分析数组和韵律标准数据模板,唱奏过程中的韵律表现常通过音符强弱变换实现,在乐谱中在需要强弱变换时会在该音节开头标注如:极弱pp,渐弱p,稍弱mp,稍强mf,渐强f,极强ff,突然增强sf,唱奏时需要根据乐谱上标识对唱奏的力量与音量适当提高,在声乐演唱与乐器演奏中音符的力量与音量结合表现出唱奏内容的强弱;
步骤二,对韵律测评读取考试规范中的评分规则以及预处理中设置的韵律偏差阈值,;
步骤三,对韵律分析数据组与标准韵律数据组中数据进行对比分析,其内部具体实现步骤为:
1.将分析数据组中强弱变换次数与标准数据比较,判断唱奏过程中的韵律表现是否充分完整,若强弱变化次数超过乐谱上次数则根据偏差阈值判断为适当情感增强或错误唱奏表现,并对此给出整体表现分数SEmotion;
2.强弱变化出现的时间节点,进一步地将分析数据与标准数据对比,检查唱奏过程中强弱变化出现的时间节点与表现形式是否正确,是否在合适时间节点做出正确情感表达,例如ri=(ti,p),Ri=(Ti,p),r为音频韵律表现R为乐谱韵律标识,若音频中的韵律表现时间与乐谱中一致或者偏差不大,且按要求进行减弱唱奏则表示当前唱奏表现正确,若与唱奏过程中减弱时间与乐谱上要求偏差较大或者出现ri=(ti,ff),Ri=(Ti,pp)这样韵律表达的情况,则判断为唱奏表现错误;
3.结合考试规范以及韵律偏差阈值,对每一处韵律表现给出评分Sp&f-i并加权平均获得唱奏韵律评分Sp&f;
步骤四,根据考试规范要求对SEmotion与Sp&f按比例加权,获得最终韵律评分SRhythm;
步骤五,将韵律评分中每处韵律分析结果与评分Sp&f和唱奏整体表现SEmotion以及最终韵律评分SRhythm整合为音频韵律评分数据组并暂存在系统中。
在一个具体实施例中,如图18所示,综合容错评分单元的具体操作内容如下:
步骤一,读取音频音准评分数据组、音频节奏评分数据组、音频歌词评分数据组(声乐演唱测评中)、音频音调评分数据组、音频韵律评分数据组,本阶段将结合多维度的评分结果获得对于此次考试唱奏的综合评价与评分;
步骤二,若综合评分读取考试规范中的综合评分规则,包含对每一维度的评分权重以及在此次考试中基于难易点适当放宽某些维度评分的说明;
步骤三,获得唱奏综合评分与考情评价,其内部具体实现步骤为:
对各维度评分SIntonation、SBeat、SLyric、STone以及SRhythm按比例加权获得最终评分SOverall,在乐器演奏测评中默认SLyric为零不进行分析且不计入评分;
结合音准、节奏、歌词、音调、韵律每部分中的评分信息,以及在各部分测评过程中获得的细节小分生成对唱奏整体的评价以及各维度测评的简短内容用于返回学生端;
将唱奏整体的评价以及各维度测评的详细数据分析整合为数据图像结合的形式,用于返回教师端;
步骤四,建立音频综合评分数据组,包括学生端输出数据组和教师端输出数据组,并将此次考试的分综合评分数据组保存在系统中,用于记录留存、方便溯源。
此方法及系统可在艺术测评唱奏考试中实际应用,通过考试信息系统化管理、考试数据采集、考试音频计算处理、多维度唱奏分析、以教材乐谱为标准模板严格执行评分、并为师生反馈全面的唱奏评分结果及评价;教师只需要考前制作考题试卷并录入系统,并在考试过程中安排考生按批次考试即可,每场考试人数可由地区、学校灵活调整;考试过程由考生手动开启减少教师操作;考试音频计算评分全部由线上完成并反馈至考生与学生端,分析过程高效准确、多维度评分提高考试客观性、保障考试公平性,分析评分数据电子化存储方便随时读取帮助教师进行考情分析、明确教学方向,应用前景广泛。
对所公开的实施例的上述说明,按照递进的方式进行,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (8)
1.一种艺术测评中多维度唱奏分析测评方法,其特征在于,包括以下步骤:
考试信息录入步骤,将考生基本信息以及考试信息录入系统;
标准乐谱上传至分析系统步骤,用于系统对标准乐谱进行解码分析,提取出标准数据备用;
考卷下发步骤,用于将试卷下发至各学生端,学生进行阅卷并检查系统运行情况;
考生试听考试曲目步骤,用于学生正式考试前熟悉考试内容;
考生手动开启考试步骤,用于学生开启正式考试;
考试过程录音步骤,用于将学生考试过程中的唱奏内容进行录音,形成考生音频数据;
考生音频数据上传至系统步骤,用于将学生考试音频数据上传至系统进行数据分析以及评分;
音频数据解码步骤,用于将导入的考生音频数据进行解码,并提取音频数据部分暂存在系统中;
音频数据预处理步骤,用于对音频数据做初步计算转换为分析类型数据;
音频数据多维分析计算步骤,用于对预处理后的音频数据依照不同分析单元的功能对音频进行分析,通过计算获得目标分析结果,并存储备用;
对比标准乐谱和考生唱奏音频步骤,用于读取标准乐谱上传至分析系统步骤内的标准数据组、考试信息录入步骤中的考试信息进行考生唱奏音频数据进行对比;
各项评分和各测评项综合评分输出步骤,用于将对比标准乐谱和考生唱奏音频步骤中分析结果依照考试信息进行单项评分,根据考试规范将所有单项评分按比例加权进行各项综合评分;
测评结果输出步骤,用于将综合评分、各项评分以及各分析项测评结果输出至学生端。
2.根据权利要求1所述的一种艺术测评中多维度唱奏分析测评方法,其特征在于,
考试信息录入步骤中的考生信息包括姓名、学号、性别、年龄、班级、学校和考场;考试信息包括考试项目、考试曲目以及每项分析偏差值和评分规则。
3.根据权利要求1所述的一种艺术测评中多维度唱奏分析测评方法,其特征在于,
标准乐谱上传至分析系统步骤中,标准数据包括音准、节奏、歌词、音调和韵律。
4.根据权利要求1所述的一种艺术测评中多维度唱奏分析测评方法,其特征在于,
测评结果输出步骤中还包括将艺术测评中唱奏评分以及分析结果下发至老师端和学生端。
5.一种艺术测评中多维度唱奏分析测评系统,其特征在于,包括信息预处理模块、音频分析模块和综合评分模块;
信息预处理模块,用于对考生信息、考试信息、唱奏音频的预处理;
音频分析模块,用于对音频数据进行音准、节奏、停顿、音调和韵律的分析,歌词的识别;
综合评分模块,用于对音频数据进行综合评分。
6.根据权利要求5所述的一种艺术测评中多维度唱奏分析测评系统,其特征在于,
信息预处理模块包括:考生信息录入单元、唱奏录音单元、考试乐谱分析单元和唱奏音频预处理单元;
考生信息录入单元,用于从考试系统中读取考生个人信息;
唱奏录音单元,用于在考试过程中接收考生唱奏内容并存储为待分析音频文件;
考试乐谱分析单元,用于导入标准乐谱文件并解码分析,提取评分所需信息,包括乐谱节拍类型、唱奏速度,乐谱小节内音符音调、时值、装饰音、强弱变化及对应歌词信息,乐谱内空拍时值信息,乐谱内音符强弱变化信息,建立标准乐谱数据组;
唱奏音频预处理单元,用于对考生唱奏音频进行分析前预处理,包括高频增强处理用于补偿录音过程中损失的高频部分音频数据、重点分析频段滤波处理用于滤除分析频段外音频数据以及分帧加窗处理用于将音频进行切割为帧并整合为数据组。
7.根据权利要求5所述的一种艺术测评中多维度唱奏分析测评系统,其特征在于,
音频分析模块包括:停顿分析单元、音准分析单元、节奏分析单元、歌词识别单元、音调分析单元和韵律分析单元;
停顿分析单元,用于计算考生唱奏音频数据组,获得每帧音频的能量值、过零率值以及谱熵值,确定唱奏过程中每处停顿及其持续时间;
音准分析单元,用于计算预处理后考生音频数据组,获得每帧音频数据的频域值;
节奏分析单元,用于计算预处理后考生音频数据组,获得唱奏音频内音符的时域信息;
歌词识别单元,用于识别预处理后考生音频数据组中歌词信息,确定声乐测评演唱音频内的歌词;
音调分析单元,用于分析每帧音频数据的频域值,获得唱奏音频内音调变化信息;
韵律分析单元,用于分析预处理后考生音频数据组中数值变化,确定唱奏音频的强弱变化规律。
8.根据权利要求5所述的一种艺术测评中多维度唱奏分析测评系统,其特征在于,
综合评分模块包括:音准评分单元、节奏评分单元、歌词评分单元、旋律评分单元、韵律评分单元和综合容错评分单元;
音准评分单元,用于对比标准乐谱和考生唱奏音频的音符音调信息,计算获得音准评分;
节奏评分单元,用于对比标准乐谱和考生唱奏音频的空拍及音符时域信息,综合音符与空拍两个维度,计算获得节奏评分;
歌词评分单元,用于在声乐测评中对比标准乐谱和考生演唱音频的歌词,计算获得歌词评分;
旋律评分单元,用于对比标准乐谱和考生唱奏音频的音调变化信息,计算获得旋律评分;
韵律评分单元,用于对比标准乐谱和考生唱奏音频的强弱变化规律,计算获得韵律评分;
综合容错评分单元,用于根据设定容错率对指定评分结果进行调整,依照不同评分项的设定权重计算获得综合评分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210672673.6A CN115050387A (zh) | 2022-06-14 | 2022-06-14 | 一种艺术测评中多维度唱奏分析测评方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210672673.6A CN115050387A (zh) | 2022-06-14 | 2022-06-14 | 一种艺术测评中多维度唱奏分析测评方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115050387A true CN115050387A (zh) | 2022-09-13 |
Family
ID=83160958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210672673.6A Withdrawn CN115050387A (zh) | 2022-06-14 | 2022-06-14 | 一种艺术测评中多维度唱奏分析测评方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115050387A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578910A (zh) * | 2022-10-18 | 2023-01-06 | 广州市微锋科技有限公司 | 声乐综合训练装置、方法及系统 |
CN117863175A (zh) * | 2023-12-25 | 2024-04-12 | 之江实验室 | 一种弹琴机器人离线评优系统及方法 |
-
2022
- 2022-06-14 CN CN202210672673.6A patent/CN115050387A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578910A (zh) * | 2022-10-18 | 2023-01-06 | 广州市微锋科技有限公司 | 声乐综合训练装置、方法及系统 |
CN117863175A (zh) * | 2023-12-25 | 2024-04-12 | 之江实验室 | 一种弹琴机器人离线评优系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103617799B (zh) | 一种适应于移动设备的英语语句发音质量检测方法 | |
CN115050387A (zh) | 一种艺术测评中多维度唱奏分析测评方法及系统 | |
CN114093386B (zh) | 一种面向教育的多维度歌唱评价方法 | |
CN109545191A (zh) | 一种歌曲中人声起始位置的实时检测方法 | |
Toh et al. | Multiple-Feature Fusion Based Onset Detection for Solo Singing Voice. | |
CN101968958B (zh) | 一种音频数据的比较方法和装置 | |
Kim | Singing voice analysis/synthesis | |
Sharma et al. | Automatic evaluation of song intelligibility using singing adapted STOI and vocal-specific features | |
Hasija et al. | Recognition of children Punjabi speech using tonal non-tonal classifier | |
CN117012230A (zh) | 歌唱发音咬字评价模型 | |
CN113129923A (zh) | 一种艺术测评中多维度唱奏分析测评方法及系统 | |
Kruspe | Application of automatic speech recognition technologies to singing | |
Mary et al. | Evaluation of mimicked speech using prosodic features | |
CN110610721B (zh) | 一种基于歌词演唱准确度的检测系统及方法 | |
Lv et al. | Objective evaluation method of broadcasting vocal timbre based on feature selection | |
Kumar et al. | Formant measure of Indian English vowels for speaker identity | |
Ferreira | Static features in real-time recognition of isolated vowels at high pitch | |
Gerhard | Computationally measurable differences between speech and song | |
Kamaraj et al. | Voice biometric for learner authentication: Biometric authentication | |
Beigi | Audio source classification using speaker recognition techniques | |
Gerhard | Computationally measurable temporal differences between speech and song | |
Panfili | Cross-linguistic acoustic characteristics of phonation: A machine learning approach | |
Yu et al. | Performance scoring of singing voice | |
Pauwels | Exploiting prior knowledge during automatic key and chord estimation from musical audio | |
Ludusan et al. | Exploring the role of formant frequencies in the classification of phonation type |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220913 |
|
WW01 | Invention patent application withdrawn after publication |