CN112133328B - 音频数据的测评信息生成方法和装置 - Google Patents
音频数据的测评信息生成方法和装置 Download PDFInfo
- Publication number
- CN112133328B CN112133328B CN202010768627.7A CN202010768627A CN112133328B CN 112133328 B CN112133328 B CN 112133328B CN 202010768627 A CN202010768627 A CN 202010768627A CN 112133328 B CN112133328 B CN 112133328B
- Authority
- CN
- China
- Prior art keywords
- frequency response
- response curve
- target
- audio data
- standard frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000004044 response Effects 0.000 claims abstract description 200
- 230000015654 memory Effects 0.000 claims description 19
- 238000013210 evaluation model Methods 0.000 claims description 11
- 238000013441 quality evaluation Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000030808 detection of mechanical stimulus involved in sensory perception of sound Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Auxiliary Devices For Music (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本申请公开了音频数据的测评信息生成方法和装置,涉及人工智能领域、大数据领域和深度学习领域。具体实现方案为:获取目标音频数据对应的目标频响曲线;将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度;根据匹配度在多个标准频响曲线中确定目标标准频响曲线;获取目标标准频响曲线对应的目标预设测评信息,并将预设测评信息作为音频数据的测评信息。由此,实现了音频数据的智能化测评,提高了音频数据的测评信息的生成效率,降低了生成成本。
Description
技术领域
本申请涉及人工智能领域、大数据领域和深度学习领域,尤其涉及一种音频数据的测评信息生成方法和装置。
背景技术
通常,音箱、耳机等声学设备最终质量主要表现在音质上,而对音质的评价和检测主要依赖于主观评价。主观评价本质上是一种统计意义上的、客观的、科学的评测,听音员听音结果的信度和效度是最重要的环节。为保证客观公正并得到一个接近准确的测评结果,其测评需要尽量多的听音员,听音员具备一定的资质,即金耳朵,金耳朵是指对一部分特定人群的俗称,这部分人群通过长时间的训练得到非凡的听音经验,对于音响的音质属性或者音乐的基本要素具有超出常人的鉴别和鉴赏能力。
然而上述主观评测人员培训方式和过程非常复杂,需要学习培训课程,需要听音训练的标准软件,目前有三种以上的训练软件,并且需要长时间的训练并且人耳感受比较心理因素及受周围环境的影响而产生对主观评测结果的偏差,并且最后还需要通过测试分级等过程。这种费时、费力、费钱的培训后通过考试的“金耳朵”人员数量很难满足当前对音频数据的高效测评的需要。
发明内容
本申请提出了一种音频数据的测评信息生成方法和装置,实现了音频数据的智能化测评,提高了音频数据的测评信息的生成效率,降低了生成成本。
根据第一方面,提供了一种音频数据的测评信息生成方法,包括:获取目标音频数据对应的目标频响曲线;将所述目标频响曲线与预设的多个标准频响曲线匹配,获取所述目标频响曲线与每个所述标准频响曲线的匹配度;根据所述匹配度在所述多个标准频响曲线中确定目标标准频响曲线;获取所述目标标准频响曲线对应的目标预设测评信息,并将所述预设测评信息作为所述音频数据的测评信息。
根据第二方面,提供了一种音频数据的测评信息生成装置,包括:第一获取模块,用于获取目标音频数据对应的目标频响曲线;第二获取模块,用于将所述目标频响曲线与预设的多个标准频响曲线匹配,获取所述目标频响曲线与每个所述标准频响曲线的匹配度;确定模块,用于根据所述匹配度在所述多个标准频响曲线中确定目标标准频响曲线;第三获取模块,用于获取所述目标标准频响曲线对应的目标预设测评信息,并将所述预设测评信息作为所述音频数据的测评信息。
根据本申请的第三方面,提供了一种电子设备,包括:至少一个处理器;与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述第一方面实施例描述的音频数据的测评信息生成方法。
根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述第一方面实施例描述的音频数据的测评信息生成方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的音频数据的测评信息生成方法流程示意图;
图2是根据本申请第二实施例的频响曲线获取场景示意图;
图3是根据本申请第三实施例的音频数据的测评信息生成流程示意图;
图4是根据本申请第四实施例的音频数据的测评信息生成流程示意图;
图5是根据本申请第五实施例的音频数据的测评信息生成流程示意图;
图6是根据本申请第六实施例的标准频响曲线中关键点的示意图;
图7是根据本申请第七实施例的音频数据的测评信息生成装置的结构示意图;
图8是用来实现本申请实施例的音频数据的测评信息生成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
为了解决上述背景技术中提到的,音频数据的测评信息效率低、成本大的问题,本申请提供了一种智能化的测评信息生成方法,该申请可应用于音频设备,比如智能音箱,蓝牙音箱,家庭影院,电视,车载音响等声学设备的音质主观测评信息的生成场景。
具体而言,图1是根据本申请一个实施例的音频数据的测评信息生成方法的流程图,如图1所示,该方法包括:
步骤101,获取目标音频数据对应的目标频响曲线。
其中,频响曲线不同频率的信号输入到一个系统,有不同的响应(例如输出电压大小值),叫做该系统的频响,进而,以“频率”为横坐标,系统“响应”为纵坐标画2维坐标图,并把不同频率点响应的高度(点)用连线连上,由于响应不可能一样大小,所以连线不会平直,而是曲线,这就是频响曲线。它表征一个系统对不同输入频率响应的大小特征。
另外,本申请实施例的目标音频数据可以来源于智能音箱,蓝牙音箱,家庭影院,电视,车载音响等声学设备。
在实际应用中,为了清晰的采集到目标音频数据,保证获取的目标频响曲线的纯净度,如图2所示,贴近声学设备设置麦克风,采集目标音频数据的电信号,在本申请的一个实施例中,该麦克风可以连接测量处理器,生成对应的目标频响曲线。
在本申请的一个实施例中,正如以上分析的,频响曲线以“频率”为横坐标,系统“响应”为纵坐标,因此,可以提取目标音频数据的频率值和响度值,其中,频率值可以理解为音频值等相位值,响度值可以理解为幅度等幅频值,进而,以频率值为横坐标,以响度值为纵坐标构建目标频响曲线。
步骤102,将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度。
应当理解的是,每一种音质的测评信息都对应于一种唯一的频响曲线,其中,测评信息可以理解为与测评类别对应,比如,包括音色类别、清晰度类别、空间感类别等,每个测评类别下包括多个声学属性,其中,测评信息与声学属性对应,用于具体形容对应声学属性下的主观感受,其中,对于音色属性下的测评信息可以包括“相对真实”等。其中,为了保证测评信息的专业度,如下表1所示,测量信息使用下表1中的描述文字来体现。
表1
参照下表2所示的示例,每个声学属性对应的测评信息都对应于一个频响曲线。其中,在实际应用中,测评信息可以包括上述专业术语之外,为了便于理解也可以对应于对应的解释说明,在生成测评信息时,也可以将对应的解释说明共同提供出来,当然,还可以将对应的声学属性、测评类型等共同提供给对应的终端设备等。比如,对于音色的测评信息包括:音色(测评类型)-平衡性(声学属性)-染色的(测评信息)-不能真实的还原音乐的音色,频响曲线上有峰或谷的存在(解释说明)。
表2
在本实施例中,将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度,即可根据后续标准频响曲线对应的预设测评信息来匹配到适配的测评信息。
步骤103,根据匹配度在多个标准频响曲线中确定目标标准频响曲线。
在本申请的一个实施例中,可以将所有标准频响曲线对应的匹配度排序,将最高匹配度的标准频响曲线作为目标标准频响曲线。
在本申请的另一个实施例中,也可以确定匹配值大于预设匹配值的候选标准频响曲线,在候选标准曲线中随机确定一个标准频响曲线为目标标准频响曲线。
在本实施例中,当没有匹配度大于预设阈值的候选标准曲线时,表示当前目标频响曲线可能是无效的,比如是纯噪音的,此时直接发送报警提醒,提醒用户重新采集目标音频数据等。
步骤104,获取目标标准频响曲线对应的目标预设测评信息,并将预设测评信息作为音频数据的测评信息。
在本实施例中,获取目标标准频响曲线对应的目标预设测评信息,并将预设测评信息作为音频数据的测评信息。比如,直接将目标预设测评信息与目标音频数据绑定存储在预设位置,或者,向预设设备发送携带目标音频数据的标识信息的目标预设测评信息。
需要说明的是,在不同的应用场景中,获取目标标准频响曲线对应的目标预设测评信息的方式不同,示例如下:
示例一:
在本示例中,如图3所示,预先根据大量样本数据,基于人工智能和深度学习技术,获取包括音频样本数据和专业测评信息生成样本对,每个样本对包括音频样本数据和对应的专业测评信息,根据该样本对训练生成测评模型,从而,将目标标准频响曲线输入预设的测评模型,其中,测评模型预先学习得到标准频响曲线和预设测评信息的对应关系,获取测评模型输出的目标预设测评信息,在本实施例中,测评模型也可以输出多个候选预设测评信息和对应的概率值,根据概率值选取最大概率值对应的候选预设测评信息为目标预设测评信息。
在本实施例中,继续参照图3,也可以基于人工智能技术对音频样本数据进行训练,生成声学模型,该声学模型可以直接根据得到的音频数据的音频特征直接生成对应的频响曲线,在实际执行过程中,该声学模型可以提取目标音频数据的数据特征,将该数据特征输入到该声学模型后,可以直接得到对应的目标频响曲线。
综上,本申请实施例的音频数据的测评信息生成方法,获取目标音频数据对应的目标频响曲线,将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度,进而,根据匹配度在多个标准频响曲线中确定目标标准频响曲线,最后,获取目标标准频响曲线对应的目标预设测评信息,并将预设测评信息作为音频数据的测评信息。由此,实现了音频数据的智能化测评,提高了音频数据的测评信息的生成效率,降低了生成成本。
基于上述实施例,应当理解的是,在不同的应用场景下,将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度的方式不同,示例如下:
示例一:
在本示例中,如图4所示,步骤102包括:
步骤201,计算目标频响曲线与多个标准频响曲线中每个标准频响曲线的重合路线段。
在本实施例中,可以直接将目标频响曲线与多个标准频响曲线中每个标准频响曲线,按照图像处理的方式,显示在相同的坐标系下,确定出重合路线段。
步骤202,计算重合路线段的长度与目标频响曲线的总长度的比值,获取目标频响曲线与每个标准频响曲线的匹配度。
在本实施例中,计算重合路线段的长度与目标频响曲线的总长度的比值,获取目标频响曲线与每个标准频响曲线的匹配度,其中,可以直接将比值作为匹配度,又比如,可以根据预设的归一化算法,确定与比值对应的匹配度。
其中,可以直接根据图像处理方式,将重合路线段的中包含的像素数量作为对应的线段长度。
示例二:
在本示例中,如图5所示,步骤102包括:
步骤301,查询预设对应关系,确定与多个标准频响曲线中每个标准频响曲线对应的多个预设关键点。
其中,多个预设关键点通常可以理解为反映了标准频响曲线的曲线走向以及大概覆盖的点的值范围的点,通常为斜率变化的点,以及频响曲线中部的点等,可以在预设的对应关系中存储可以反映每个标准频响曲线唯一性的多个预设关键点。
举例而言,如图6所示,频响曲线A的关键点可以包括1-7,这7个点可以唯一反应标准频响曲线。
步骤302,确定多个关键点中每个关键点对应的横坐标,并在目标频响曲线中确定与每个关键点的横坐标对应的参考关键点。
在本实施例中,确定多个关键点中每个关键点对应的横坐标,并在目标频响曲线中确定与每个关键点的横坐标对应的参考关键点,即确定属于同一个横坐标的参考关键点和关键点。
步骤303,计算每个关键点与对应的参考关键点的纵坐标差值。
步骤304,确定差值小于预设阈值的参考关键点的数量。
其中,预设阈值可以根据实验数据标定,在预设阈值范围内,包容了部分测量误差的存在,且不会导致匹配误差。
步骤305,根据数量与所有参考关键点的总数量的比值,确定目标频响曲线与每个标准频响曲线的匹配度。
可以理解,当大量的参考关键点与对应的参考点重合,则认为目标频响曲线与每个标准频响曲线匹配,即确定差值小于预设阈值的参考关键点的数量,根据数量与所有参考关键点的总数量的比值,确定目标频响曲线与每个标准频响曲线的匹配度,比如,直接将比值作为匹配度,或者,根据预设的归一化算法,确定与比值对应的匹配度。由此,本实施例中,以关键点来确定相似度,大大提高了匹配度的确定效率。
综上,本申请实施例的音频数据的测评信息生成方法,可以在不同的应用场景下,根据不同的实现方式来计算目标频响曲线与每个标准频响曲线的匹配度,进一步提高了音频数据的测评信息生成灵活性。
为了实现上述实施例,本申请还提出了一种音频数据的测评信息生成装置。图7是根据本申请一个实施例的音频数据的测评信息生成装置的结构示意图,如图7所示,该音频数据的测评信息生成装置包括:第一获取模块10、第二获取模块20、确定模块30、第三获取模块40,其中,
第一获取模块10,用于获取目标音频数据对应的目标频响曲线;
第二获取模块20,用于将所述目标频响曲线与预设的多个标准频响曲线匹配,获取所述目标频响曲线与每个所述标准频响曲线的匹配度;
确定模块30,用于根据所述匹配度在所述多个标准频响曲线中确定目标标准频响曲线;
第三获取模块40,用于获取所述目标标准频响曲线对应的目标预设测评信息,并将所述预设测评信息作为所述音频数据的测评信息。
在本申请的一个实施例中,第一获取模块10,具体用于:
提取所述目标音频数据的频率值和响度值;
以所述频率值为横坐标,以所述响度值为纵坐标构建所述目标频响曲线。
需要说明的是,前述对方法实施例的解释说明,也适用于本申请实施例的装置,其实现原理类似,在此不再赘述。
综上,本申请实施例的音频数据的测评信息生成装置,获取目标音频数据对应的目标频响曲线,将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度,进而,根据匹配度在多个标准频响曲线中确定目标标准频响曲线,最后,获取目标标准频响曲线对应的目标预设测评信息,并将预设测评信息作为音频数据的测评信息。由此,实现了音频数据的智能化测评,提高了音频数据的测评信息的生成效率,降低了生成成本。
基于上述实施例,应当理解的是,在不同的应用场景下,将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度的方式不同,示例如下:
示例一:
在本示例中,第二获取模块20,具体用于:
计算目标频响曲线与多个标准频响曲线中每个标准频响曲线的重合路线段;
计算重合路线段的长度与目标频响曲线的总长度的比值,获取目标频响曲线与每个标准频响曲线的匹配度。
示例二:在本示例中,第二获取模块20,具体用于:
查询预设对应关系,确定与多个标准频响曲线中每个标准频响曲线对应的多个预设关键点;
确定多个关键点中每个关键点对应的横坐标,并在目标频响曲线中确定与每个关键点的横坐标对应的参考关键点;
计算每个关键点与对应的参考关键点的纵坐标差值;
确定差值小于预设阈值的参考关键点的数量;
根据数量与所有参考关键点的总数量的比值,确定目标频响曲线与每个标准频响曲线的匹配度。
需要说明的是,前述对方法实施例的解释说明,也适用于本申请实施例的装置,其实现原理类似,在此不再赘述。
综上,本申请实施例的音频数据的测评信息生成装置,可以在不同的应用场景下,根据不同的实现方式来计算目标频响曲线与每个标准频响曲线的匹配度,进一步提高了音频数据的测评信息生成灵活性。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例的音频数据的测评信息生成的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的音频数据的测评信息生成的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的音频数据的测评信息生成的方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的音频数据的测评信息生成的方法对应的程序指令/模块(例如,附图7所示的第一获取模块10、第二获取模块20、确定模块30、第三获取模块40)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的音频数据的测评信息生成的方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据音频数据的测评信息生成的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至音频数据的测评信息生成的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
音频数据的测评信息生成的方法的电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与音频数据的测评信息生成的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,
获取目标音频数据对应的目标频响曲线,将目标频响曲线与预设的多个标准频响曲线匹配,获取目标频响曲线与每个标准频响曲线的匹配度,进而,根据匹配度在多个标准频响曲线中确定目标标准频响曲线,最后,获取目标标准频响曲线对应的目标预设测评信息,并将预设测评信息作为音频数据的测评信息。由此,实现了音频数据的智能化测评,提高了音频数据的测评信息的生成效率,降低了生成成本。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种音频数据的测评信息生成方法,包括:
获取目标音频数据的电信号,根据所述电信号生成目标频响曲线;
将所述目标频响曲线与预设的多个标准频响曲线匹配,获取所述目标频响曲线与每个所述标准频响曲线的匹配度;
根据所述匹配度在所述多个标准频响曲线中确定目标标准频响曲线;
将所述目标标准频响曲线输入预设的测评模型,其中,所述测评模型预先学习得到标准频响曲线和预设测评信息的对应关系;获取所述测评模型输出的目标预设测评信息,并将所述目标预设测评信息作为所述音频数据的音质测评信息。
2.如权利要求1所述的方法,其中,所述获取目标音频数据的电信号,包括:
通过麦克风采集所述目标音频数据的电信号。
3.如权利要求1所述的方法,其中,所述根据所述电信号生成目标频响曲线,包括:
提取所述目标音频数据的频率值和响度值;
以所述频率值为横坐标,以所述响度值为纵坐标构建所述目标频响曲线。
4.如权利要求1所述的方法,其特征在于,所述将所述目标频响曲线与预设的多个标准频响曲线匹配,获取所述目标频响曲线与每个所述标准频响曲线的匹配度,包括:
计算所述目标频响曲线与所述多个标准频响曲线中每个标准频响曲线的重合路线段;
计算所述重合路线段的长度与所述目标频响曲线的总长度的比值,获取所述目标频响曲线与每个所述标准频响曲线的匹配度。
5.如权利要求1所述的方法,其特征在于,所述将所述目标频响曲线与预设的多个标准频响曲线匹配,获取所述目标频响曲线与每个所述标准频响曲线的匹配度,包括:
查询预设对应关系,确定与所述多个标准频响曲线中每个标准频响曲线对应的多个预设关键点;
确定所述多个关键点中每个关键点对应的横坐标,并在所述目标频响曲线中确定与所述每个关键点的横坐标对应的参考关键点;
计算所述每个关键点与对应的参考关键点的纵坐标差值;
确定所述差值小于预设阈值的参考关键点的数量;
根据所述数量与所有参考关键点的总数量的比值,确定所述目标频响曲线与每个所述标准频响曲线的匹配度。
6.一种音频数据的测评信息生成装置,包括:
第一获取模块,用于获取目标音频数据的电信号,根据所述电信号生成目标频响曲线;
第二获取模块,用于将所述目标频响曲线与预设的多个标准频响曲线匹配,获取所述目标频响曲线与每个所述标准频响曲线的匹配度;
确定模块,用于根据所述匹配度在所述多个标准频响曲线中确定目标标准频响曲线;
第三获取模块,用于将所述目标标准频响曲线输入预设的测评模型,其中,所述测评模型预先学习得到标准频响曲线和预设测评信息的对应关系;获取所述测评模型输出的目标预设测评信息,并将所述目标预设测评信息作为所述音频数据的音质测评信息。
7.如权利要求6所述的装置,其中,所述第一获取模块,具体用于:
通过麦克风采集所述目标音频数据的电信号。
8.如权利要求6所述的装置,其中,所述第一获取模块,具体用于:
提取所述目标音频数据的频率值和响度值;
以所述频率值为横坐标,以所述响度值为纵坐标构建所述目标频响曲线。
9.如权利要求6所述的装置,其中,所述第二获取模块,具体用于:
计算所述目标频响曲线与所述多个标准频响曲线中每个标准频响曲线的重合路线段;
计算所述重合路线段的长度与所述目标频响曲线的总长度的比值,获取所述目标频响曲线与每个所述标准频响曲线的匹配度。
10.如权利要求6所述的装置,其中,所述第二获取模块,具体用于:
查询预设对应关系,确定与所述多个标准频响曲线中每个标准频响曲线对应的多个预设关键点;
确定所述多个关键点中每个关键点对应的横坐标,并在所述目标频响曲线中确定与所述每个关键点的横坐标对应的参考关键点;
计算所述每个关键点与对应的参考关键点的纵坐标差值;
确定所述差值小于预设阈值的参考关键点的数量;
根据所述数量与所有参考关键点的总数量的比值,确定所述目标频响曲线与每个所述标准频响曲线的匹配度。
11.一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的音频数据的测评信息生成方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的音频数据的测评信息生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010768627.7A CN112133328B (zh) | 2020-08-03 | 2020-08-03 | 音频数据的测评信息生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010768627.7A CN112133328B (zh) | 2020-08-03 | 2020-08-03 | 音频数据的测评信息生成方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112133328A CN112133328A (zh) | 2020-12-25 |
CN112133328B true CN112133328B (zh) | 2023-07-25 |
Family
ID=73851861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010768627.7A Active CN112133328B (zh) | 2020-08-03 | 2020-08-03 | 音频数据的测评信息生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112133328B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113542983B (zh) * | 2021-07-09 | 2023-06-27 | 安徽聆思智能科技有限公司 | 一种音频信号处理方法、装置、设备及存储介质 |
CN115278503A (zh) * | 2022-07-29 | 2022-11-01 | 中国第一汽车股份有限公司 | 一种车载音响效果的评价方法、装置、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108076219A (zh) * | 2017-11-28 | 2018-05-25 | 广东欧珀移动通信有限公司 | 移动终端及其音频性能的优化方法、计算机可读存储介质 |
CN108111956A (zh) * | 2017-12-26 | 2018-06-01 | 广州励丰文化科技股份有限公司 | 一种基于幅频响应曲线的音响调试方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2165654B (en) * | 1984-10-12 | 1988-05-25 | Yue Lin Thomas Hong | Method and apparatus for evaluating auditory distortions of an audio system |
TW201340677A (zh) * | 2012-03-16 | 2013-10-01 | Askey Technology Jiangsu Ltd | 聲音品質檢測方法與系統 |
US9335300B2 (en) * | 2013-03-15 | 2016-05-10 | Vibrant Corporation | Saw mode-based surface defect system/method |
FR3003114A1 (fr) * | 2013-09-11 | 2014-09-12 | Continental Automotive France | Procede et systeme de test d'un appareil audio |
CN103561377B (zh) * | 2013-11-07 | 2017-03-22 | 美特科技(苏州)有限公司 | 电声产品的最佳化设定方法 |
CN105357613B (zh) * | 2015-11-03 | 2018-06-29 | 广东欧珀移动通信有限公司 | 音频输出设备播放参数的调整方法及装置 |
CN107613429A (zh) * | 2016-07-12 | 2018-01-19 | 杜比实验室特许公司 | 音频安装的评估和调整 |
US10682675B2 (en) * | 2016-11-01 | 2020-06-16 | Texas Instruments Incorporated | Ultrasonic lens cleaning system with impedance monitoring to detect faults or degradation |
US20190087739A1 (en) * | 2017-09-15 | 2019-03-21 | Harman International Industries, Incorporated | Linear model to predict listener preference ratings of headphones |
CN108269578B (zh) * | 2018-02-05 | 2019-10-18 | 百度在线网络技术(北京)有限公司 | 用于处理信息的方法和装置 |
US10959029B2 (en) * | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
CN109362016B (zh) * | 2018-09-18 | 2021-05-28 | 北京小鸟听听科技有限公司 | 音频播放设备及其测试方法和测试装置 |
CN111065036B (zh) * | 2019-12-26 | 2021-08-31 | 北京声智科技有限公司 | 一种麦克风阵列的频响测试方法及装置 |
CN111182434A (zh) * | 2019-12-31 | 2020-05-19 | 深圳市潮流网络技术有限公司 | 一种会议系统麦克风异常检测方法、会议系统及测试系统 |
-
2020
- 2020-08-03 CN CN202010768627.7A patent/CN112133328B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108076219A (zh) * | 2017-11-28 | 2018-05-25 | 广东欧珀移动通信有限公司 | 移动终端及其音频性能的优化方法、计算机可读存储介质 |
CN108111956A (zh) * | 2017-12-26 | 2018-06-01 | 广州励丰文化科技股份有限公司 | 一种基于幅频响应曲线的音响调试方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112133328A (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902659B (zh) | 用于处理人体图像的方法和装置 | |
KR20210038449A (ko) | 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체 | |
EP4099709A1 (en) | Data processing method and apparatus, device, and readable storage medium | |
CN110795542B (zh) | 对话方法及相关装置、设备 | |
CN112133328B (zh) | 音频数据的测评信息生成方法和装置 | |
JP7014163B2 (ja) | 情報処理装置、および情報処理方法 | |
CN112509690A (zh) | 用于控制质量的方法、装置、设备和存储介质 | |
CN113407850B (zh) | 一种虚拟形象的确定和获取方法、装置以及电子设备 | |
CN111695519B (zh) | 关键点定位方法、装置、设备以及存储介质 | |
US20210319802A1 (en) | Method for processing speech signal, electronic device and storage medium | |
CN111107278B (zh) | 图像处理方法、装置、电子设备及可读存储介质 | |
CN111966212A (zh) | 基于多模态的交互方法、装置、存储介质及智能屏设备 | |
US11291911B2 (en) | Visualization of sound data extending functionality of applications/services including gaming applications/services | |
CN111539897A (zh) | 用于生成图像转换模型的方法和装置 | |
CN111986659B (zh) | 建立音频生成模型的方法以及装置 | |
CN111782785B (zh) | 自动问答方法、装置、设备以及存储介质 | |
CN112989134B (zh) | 节点关系图的处理方法、装置、设备及存储介质 | |
CN112328896B (zh) | 用于输出信息的方法、装置、电子设备和介质 | |
CN111104827A (zh) | 图像处理方法、装置、电子设备及可读存储介质 | |
CN111353070A (zh) | 视频标题的处理方法、装置、电子设备及可读存储介质 | |
CN113593602B (zh) | 一种音频处理方法、装置、电子设备和存储介质 | |
CN111681052B (zh) | 一种语音交互方法、服务器和电子设备 | |
CN112581981B (zh) | 人机交互方法、装置、计算机设备和存储介质 | |
CN112201259B (zh) | 声源定位方法、装置、设备和计算机存储介质 | |
CN115130456A (zh) | 语句解析、匹配模型的训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |