CN114900767A - 听力的保护方法、装置、终端设备及存储介质 - Google Patents
听力的保护方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN114900767A CN114900767A CN202210462397.0A CN202210462397A CN114900767A CN 114900767 A CN114900767 A CN 114900767A CN 202210462397 A CN202210462397 A CN 202210462397A CN 114900767 A CN114900767 A CN 114900767A
- Authority
- CN
- China
- Prior art keywords
- age interval
- volume control
- interval
- control mode
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013145 classification model Methods 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims description 51
- 238000012795 verification Methods 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000003062 neural network model Methods 0.000 claims description 20
- 230000005236 sound signal Effects 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 4
- 238000010586 diagram Methods 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/22—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/01—Aspects of volume control, not necessarily automatic, in sound systems
Abstract
本发明公开了一种听力的保护方法、装置、终端设备以及计算机可读存储介质,包括:首先,在实时采集到第一语音信号时,从第一语音信号中提取第一语音特征数据,其中,第一语音信号为耳机设备的佩戴者产生,之后,调用预设的分类模型基于第一语音特征数据确定佩戴者所属的第一年龄区间,最后,确定第一年龄区间对应的音量控制模式,并运行音量控制模式以保护佩戴者的听力。本发明通过获取用户的语音信号,并根据该语音信号确定该用户的年龄区间,从而根据该年龄区间匹配对应的音量控制模式,达到了针对不同年龄区间用户设置不同的音量控制模式,以充分保护该耳机设备使用者听力的效果。
Description
技术领域
本发明涉及耳机领域,尤其涉及一种听力的保护方法、装置、终端设备以及计算机可读存储介质。
背景技术
随着消费电子行业的快速发展,耳机设备的市场占有率越来越高,并且,从未成年人到老年人,耳机设备的使用者覆盖范围也越来越广泛,其中,年轻人已成为了耳机设备的主要使用群体。
而目前的耳机设备主要针对年轻人群体喜欢强有力低音的特点,在定义耳机设备性能的时候会重点强调提升耳机的低频性能,却造成了耳机设备输出的声音信号中低频部分与人体器官产生共振,从而导致耳机设备的在使用过程中对使用者的听力造成较大的损害。
发明内容
本发明实施例通过提供一种听力的保护方法、装置、终端设备以及计算机可读存储介质,旨在针对不同年龄区间的用户设置不同的音量控制模式,以达成充分保护耳机设备使用者听力的效果。
本发明实施例提供一种听力的保护方法,所述听力的保护方法应用于耳机设备,所述方法包括以下步骤:
在实时采集到第一语音信号时,从所述第一语音信号中提取第一语音特征数据,其中,所述第一语音信号为所述耳机设备的佩戴者产生;
调用预设的分类模型基于所述第一语音特征数据确定所述佩戴者所属的第一年龄区间;
确定所述第一年龄区间对应的音量控制模式,并运行所述音量控制模式以保护所述佩戴者的听力。
进一步地,所述第一年龄区间包括成年人年龄区间,所述确定所述第一年龄区间数据对应的音量控制模式的步骤,包括:
若确定所述第一年龄区间为所述成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第一音量控制模式;
所述运行所述音量控制模式以保护所述佩戴者的听力的步骤,包括:
运行所述第一音量控制模式以按照第一频率数值和第一音量数值输出声音信号;其中,所述第一频率数值在预设的频率标准区间内,所述第一音量数值在预设的音量标准区间内。
进一步地,所述第一年龄区间还包括未成年人年龄区间,所述确定所述第一年龄区间数据对应的音量控制模式的步骤,还包括:
若确定所述第一年龄区间为所述未成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第二音量控制模式;
所述运行所述音量控制模式以保护所述佩戴者的听力的步骤,还包括:
运行所述第二音量控制模式以按照第二频率数值和第二音量数值输出声音信号;其中,所述第二频率数值高于所述频率标准区间的最低值,所述第二音量数值低于所述音量标准区间的最高值。
进一步地,所述第一年龄区间还包括老年人年龄区间,所述确定所述第一年龄区间数据对应的音量控制模式的步骤,还包括:
若确定所述第一年龄区间为所述老年人年龄区间,则确定所述第一年龄区间数据对应的音量控制模式为第三音量控制模式;
所述运行所述音量控制模式以保护所述佩戴者的听力的步骤,还包括:
运行所述第三音量控制模式以按照第三频率数值和第三音量数值输出声音信号;其中,所述第三频率数值高于人体共振频率区间的最高值,所述第三音量数值在所述音量标准区间内。
进一步地,所述方法还包括:
获取预设的语音数据库,其中,所述语音数据库根据预先采集的各第二语音信号的第二语音特征数据和各第二年龄区间构建得到;
在所述语音数据库中构建训练集,通过所述训练集进行神经网络训练以得到所述分类模型。
进一步地,所述训练集包括:各第二语音特征数据,和各所述第二语音特征数据各自对应的所述第二年龄区间,所述第二年龄区间包括:成年人年龄区间、未成年人年龄区间及老年人年龄区间,所述通过所述训练集进行神经网络训练以得到所述分类模型的步骤,包括:
将所述各第二语音特征数据作为预设初始神经网络模型的输入,并将所述各第二语音特征数据对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间作为所述预设初始神经网络模型的输出,以基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,将所初始神经网络模型训练成为所述分类模型。
进一步地,所述通过所述训练集进行神经网络训练以得到所述分类模型的步骤,还包括:
在所述语音数据库中构建验证集;
在基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,对所初始神经网络模型进行训练得到待确认模型后,将所述验证集中的标准语音特征数据输入所述待确认模型;
检测所述待确认模型输出的年龄区间与所述验证集中所述标准语音特征数据对应的标准年龄区间是否一致;
若是,则将所述待确认模型作为所述分类模型;
若否,则基于所述训练集继续对所述待确认模型进行神经网络训练以得到所述分类模型。
此外,为实现上述目的,本发明还提供一种听力的保护装置,所述装置包括:
采集提取模块:用于在实时采集到第一语音信号时,从所述第一语音信号中提取第一语音特征数据,其中,所述第一语音信号为所述耳机设备的佩戴者产生;
分类确定模块:用于调用预设的分类模型基于所述第一语音特征数据确定所述佩戴者所属的第一年龄区间;
模式运行模块:用于确定所述第一年龄区间对应的音量控制模式,并运行所述音量控制模式以保护所述佩戴者的听力。
此外,为实现上述目的,本发明还提供一种终端设备,所述终端设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的听力的保护程序,所述听力的保护程序被所述处理器执行时实现如上述中的听力的保护方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有听力的保护程序,所述听力的保护程序被处理器执行时实现如上所述的听力的保护方法的步骤。
本发明实施例提供的听力的保护方法包括:在实时采集到第一语音信号时,从所述第一语音信号中提取第一语音特征数据,其中,所述第一语音信号为所述耳机设备的佩戴者产生,调用预设的分类模型基于所述第一语音特征数据确定所述佩戴者所属的第一年龄区间,确定所述第一年龄区间对应的音量控制模式,并运行所述音量控制模式以保护所述佩戴者的听力。
本发明在用户使用耳机设备的过程中,由终端设备实时采集佩戴者发出的语音信号,并提取该语音信号对应的语音特征数据,之后,该终端设备将该语音特征数据输入该终端设备内预设的分类模型,进而确定该语音信号对应的年龄区间,最后,该终端设备根据该年龄区间数据确定该年龄区间对应的该终端设备中预设的音量控制模式,并运行该音量控制模式以完成对该佩戴者听力的保护。
如此,相比于现有耳机设备强调低频性能的方式,本发明通过获取用户的语音信号,并根据该语音信号确定该用户的年龄区间,从而根据该年龄区间匹配对应的音量控制模式,达到了针对不同年龄区间的用户设置不同的音量控制模式,以充分保护该耳机设备使用者听力的效果。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的终端设备的结构示意图;
图2为本发明听力的保护方法一实施例的流程示意图;
图3为本发明听力的保护方法一实施例中涉及的应用流程示意图;
图4为本发明听力的保护方法一实施例中涉及的分类模型训练流程示意图;
图5为本发明听力的保护方法一实施例中涉及的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请参照图1,图1为本发明实施例方案涉及的硬件运行环境的终端设备结构示意图。
本发明实施例所涉及的终端设备具体可以是耳机设备,当然,该终端设备具体还可以是手机、平板和PC(Personal Computer,个人计算机)等可移动终端设备或者固定式终端设备。
如图1所示,该终端设备可以包括:处理器1001,例如中央处理器(CentralProcessing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及听力的保护程序。
在图1所示的终端设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明终端设备中的处理器1001、存储器1005可以设置在终端设备中,所述终端设备通过处理器1001调用存储器1005中存储的听力的保护程序,并执行本发明实施例提供的听力的保护方法。
基于上述的终端设备,提供本发明听力的保护的各个实施例。
请参照图2,图2为本发明一种听力的保护方法第一实施例的流程示意图。在本实施例中,本发明听力的保护方法,包括以下步骤:
步骤S10:在实时采集到第一语音信号时,从所述第一语音信号中提取第一语音特征数据,其中,所述第一语音信号为所述耳机设备的佩戴者产生;
在本实施例中,终端设备在运行的过程中通过内置的采集装置实时集采该终端设备使用者产生的第一语音信号,并通过该终端设备内置的分类装置提取该第一语音信号中的第一语音特征数据。
示例性地,例如,如图3所示,耳机设备在运行的过程中通过该耳机设备内配置的芯片装置调用该耳机设备内置的微型麦克风以采集该耳机设备的佩戴者实时产生的第一语音信号,并通过该耳机设备内置的分类器提取该第一语音信号中的第一语音特征数据。
需要说明的是,在本实施例中,上述语音特征数据包含功率谱,梅尔倒谱系数,伽马通滤波器系数等数据。
步骤S20:调用预设的分类模型基于所述第一语音特征数据确定所述佩戴者所属的第一年龄区间;
在本实施例中,终端设备调用上述分类装置,通过获取的将上述第一语音特征数据输入该分类装置中的分类模型,以确定为该终端设备使用者所属的第一年龄区间。
示例性地,例如,请参考图3,耳机设备调用内置的分类器,通过将该耳机设备获取的上述第一语音特征数据输入该分类器中预设的分类模型,以获取与该第一语音特征数据对应的第一年龄区间,并将该第一年龄区间确定为该耳机设备的佩戴者所属的第一年龄区间。
步骤S30:确定所述第一年龄区间对应的音量控制模式,并运行所述音量控制模式以保护所述佩戴者的听力。
在本实施例中,终端设备根据上述该终端设备使用者所属的第一年龄区间,在该终端设备内用户预设的各音量控制模式中确定与该第一年龄区间对应的音量控制模式,并按照该音量控制模式控制该终端设备输出的声音信号中的频率数值和音量数值,进而保护该终端设备使用者的听力。
示例性地,例如,请参考图3,耳机设备根据上述该耳机设备的佩戴者所属的第一年龄区间,在该耳机设备存储器内用户存储的各音量控制模式中确定与该第一年龄区间对应的音量控制模式,之后,该耳机设备内集成系统运行与该第一年龄区间对应的该音量控制模式,并按照该音量控制模式控制该耳机设备输出的声音信号中的频率数值和音量数值,进而保护该耳机设备的佩戴者的听力。
需要说明的是,在本实施例中,预设的音量控制模式包括第一音量控制模式、第二音量控制模式及第三音量控制模式,该各种音量控制模式预先由终端设备存储在本地以供该终端设备在输出声音信号时进行选择。应当理解的是,基于实际应用的设计需要,在不同可行的实施方式中,终端设备当然还可以在本地或者从云端下载获取到本实施例中未列举到的其它各种音量控制模式,本发明听力的保护方法并不针对该音量控制模式的具体种类进行限定。
进一步地,在一种可行的实施例中,第一年龄区间包括成年人年龄区间,在上述步骤S30中的“确定所述第一年龄区间对应的音量控制模式”的步骤,具体包括:
步骤S301:若确定所述第一年龄区间为所述成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第一音量控制模式;
需要说明的是,在本实施例中,终端设备预先接收用户触发的年龄区间配置指令,该终端设备根据该指令中封装的预设该第一年龄区间包含成年人年龄区间的内容,来配置该上述年龄区间。
在本实施例中,当终端设备内集成系统对比该终端设备使用者所属的第一年龄区间与上述成年人年龄区间相同时,该终端设备确定与该成年人年龄区间对应的音量控制模式为该用户在该终端设备中存储的各音量控制模式中的第一音量控制模式。
进一步地,在一种可行的实施例中,在上述步骤S30中的“运行所述音量控制模式以保护所述佩戴者的听力”的步骤,具体包括:
步骤S302:运行所述第一音量控制模式以按照第一频率数值和第一音量数值输出声音信号;其中,所述第一频率数值在预设的频率标准区间内,所述第一音量数值在预设的音量标准区间内;
需要说明的是,在本实施例中,终端设备预先接收用户触发的音量控制模式配置指令,并根据该指令内封装的该终端设备输出声音信号时,该声音信号中的第一频率数值和第一音量数值在预设的频率标准区间和音量标准区间内的指令内容,来配置上述第一音量控制模式。
在本实施例中,终端设备内集成系统在确定该成年人年龄区间对应的音量控制模式为该用户在该终端设备中存储的各音量控制模式中的第一音量控制模式后,控制该终端设备以上述第一音量控制模式中的第一频率数值和该第一音量数值输出声音信号。
进一步地,在一种可行的实施例中,第一年龄区间包括未成年人年龄区间,在上述步骤S30中的“确定所述第一年龄区间对应的音量控制模式”的步骤,还包括:
步骤S303:若确定所述第一年龄区间为所述未成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第二音量控制模式;
需要说明的是,在本实施例中,终端设备预先接收用户触发的年龄区间配置指令,该终端设备根据该指令中封装的预设该第一年龄区间包含未成年人年龄区间的内容,来配置该上述年龄区间。
在本实施例中,当终端设备内集成系统对比该终端设备使用者所属的第一年龄区间与上述未成年人年龄区间相同时,该终端设备确定与该未成年人年龄区间对应的音量控制模式为该用户在该终端设备中存储的各音量控制模式中的第二音量控制模式。
进一步地,在一种可行的实施例中,在上述步骤S30中的“运行所述音量控制模式以保护所述佩戴者的听力”的步骤,还包括:
步骤S304:运行所述第二音量控制模式以按照第二频率数值和第二音量数值输出声音信号;其中,所述第二频率数值高于所述频率标准区间的最低值,所述第二音量数值低于所述音量标准区间的最高值;
需要说明的是,在本实施例中,终端设备预先接收用户触发的音量控制模式配置指令,并根据该指令内封装的该终端设备输出声音信号时,该声音信号中的第二频率数值高于频率标注区间的最低值,第二音量数值低于音量标准区间的最高值的指令内容,来配置上述第二音量控制模式。
在本实施例中,终端设备内集成系统在确定该未成年人年龄区间对应的音量控制模式为该用户在该终端设备中存储的各音量控制模式中的第二音量控制模式后,控制该终端设备以上述第二音量控制模式中的第二频率数值和该第二音量数值输出声音信号。
进一步地,在一种可行的实施例中,第一年龄区间包括未成年人年龄区间,在上述步骤S30中的“确定所述第一年龄区间对应的音量控制模式”的步骤,还包括:
步骤S305:若确定所述第一年龄区间为所述老年人年龄区间,则确定所述第一年龄区间数据对应的音量控制模式为第三音量控制模式;
需要说明的是,在本实施例中,终端设备预先接收用户触发的年龄区间配置指令,该终端设备根据该指令中封装的预设该第一年龄区间包含老年人年龄区间的内容,来配置该上述年龄区间。
在本实施例中,当终端设备内集成系统对比该终端设备使用者所属的第一年龄区间与上述老年人年龄区间相同时,该终端设备确定与该老年人年龄区间对应的音量控制模式为该用户在该终端设备中存储的各音量控制模式中的第三音量控制模式。
进一步地,在一种可行的实施例中,在上述步骤S30中的“运行所述音量控制模式以保护所述佩戴者的听力”的步骤,还包括:
步骤S306:运行所述第三音量控制模式以按照第三频率数值和第三音量数值输出声音信号;其中,所述第三频率数值高于人体共振频率区间的最高值,所述第三音量数值在所述音量标准区间内;
需要说明的是,在本实施例中,终端设备预先接收用户触发的音量控制模式配置指令,并根据该指令内封装的该终端设备输出声音信号时,该声音信号中的第三频率数值高于人体共振频率区间的最低值,第三音量数值在上述音量标准区间的指令内容,来配置上述第三音量控制模式。
在本实施例中,终端设备内集成系统在确定该老年人年龄区间对应的音量控制模式为该用户在该终端设备中存储的各音量控制模式中的第三音量控制模式后,控制该终端设备以上述第三音量控制模式中的第三频率数值和该第三音量数值输出声音信号。
进一步地,在一种可行的实施例中,本发明听力的保护方法,还包括:
步骤A:获取预设的语音数据库,其中,所述语音数据库根据预先采集的各第二语音信号的第二语音特征数据和各第二年龄区间构建得到;
步骤B:在所述语音数据库中构建训练集,通过所述训练集进行神经网络训练以得到所述分类模型。
示例性地,例如,请参考图4,该终端设备获取由用户预先采集各第二语音信号的第二语音特征数据和各第二年龄区间构建得到的语音数据库,之后,该终端设备在该语音数据库中构建训练集,并通过该训练集对该终端设备内置的神经网络装置中的初始神经网络模型进行训练,以建立能够通过上述第二语音特征数据得到与该第二语音特征对应的第二年龄区间的分类模型。
进一步地,在一种可行的实施例中,训练集包括:各第二语音特征数据,和各所述第二语音特征数据各自对应的所述第二年龄区间,所述第二年龄区间包括:成年人年龄区间、未成年人年龄区间及老年人年龄区间,在上述步骤B“通过所述训练集对神经网络训练以获得所述分类模型”中,具体包括:
步骤B01:将所述各第二语音特征数据作为预设初始神经网络模型的输入,并将所述各第二语音特征数据对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间作为所述预设初始神经网络模型的输出,以基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,将所初始神经网络模型训练成为所述分类模型;
示例性地,例如,终端设备中配置的神经网络装置将上述各第二语音特征数据设置为该神经网络装置中预设的初始神经网络模型的输入,并将该各第二语音特征数据对应的上述成年人年龄区间、未成年人年龄区间或老年人年龄区间设置为该初始神经网络模型的输出,之后,该终端设备基于该各第二语音特征数据和该各第二语音特征数据对应的年人年龄区间、未成年人年龄区间或老年人年龄区间之间的非线性映射关系对该初始神经网络进行训练,从而将该初始神经网络模型训练为上述分类模型。
进一步地,在一种可行的实施例中,上述步骤B“通过所述训练集对神经网络训练以获得所述分类模型”中,还包括:
步骤B02:在所述语音数据库中构建验证集;
步骤B03:在基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,对所初始神经网络模型进行训练得到待确认模型后,将所述验证集中的标准语音特征数据输入所述待确认模型;
步骤B04:检测所述待确认模型输出的年龄区间与所述验证集中所述标准语音特征数据对应的标准年龄区间是否一致;
步骤B05:若是,则将所述待确认模型作为所述分类模型;
步骤B06:若否,则基于所述训练集继续对所述待确认模型进行神经网络训练以得到所述分类模型。
示例性地,例如,终端设备在上述语音数据库中构建含有用户预先采集的各标准语音信号的标准语音特征数据,和各标准语音特征数据对应的各标准年龄区间的验证集,并获取基于上述各第二语音特征数据和该各第二语音特征数据各自对应的成年人年龄区间、未成年人年龄区间或老年人年龄区间之间的映射关系,对上述初始神经网络进行训练得到的待确认模型,之后,该终端设备将该验证集的标准语音特征数据输入该待确认模型,并通过该终端设备内集成系统检测该待确认模型输出的年龄区间是否为该验证集内该标准语音特征数据对应的标准年龄区间,若该终端设备内集成系统检测该年龄区间为验证集内该标准语音特征数据对应的标准年龄区间,则该系统将该待确认模型作为上述分类模型并存储在该终端设备内置的分类装置中,若该终端设备内集成系统检测该年龄区间不为该验证集中该标准语音特征数据对应的标准年龄区间,则该系统继续调用上述神经网络装置基于上述训练集继续对该待确认模型进行神经网络训练以得到上述分类模型。
在本实施例中,首先,终端设备在运行的过程中通过内置的采集装置时采该终端设备使用者产生的第一语音信号,并通过该终端设备内置的分类装置提取该第一语音信号中的第一语音特征数据,之后,该终端设备将获取的上述第一语音特征数据输入上述分类装置以获取与该第一语音特征数据对应的年龄区间,并将该年龄区间确定为该终端设备使用者所属的第一年龄区间,最后,该终端设备根据上述该终端设备使用者所属的第一年龄区间,在该终端设备内用户预设的各音量控制模式中确定与该第一年龄区间对应的音量控制模式,并按照该音量控制模式控制该终端设备输出的声音信号中的频率数值和音量数值,进而保护该终端设备使用者的听力。
相比于现有耳机设备强调低频性能的方式,本发明通过获取用户的语音信号,并根据该语音信号确定该用户的年龄区间,从而根据该年龄区间匹配对应的音量控制模式,达到了针对不同年龄区间的用户设置不同的音量控制模式,以充分保护该耳机设备使用者听力的效果。
进一步地,本发明还提供一种听力的保护装置,请参照图5,图5为本发明听力的保护装置一实施例的功能模块示意图,如图5所示,本发明听力的保护装置包括:
采集提取模块:用于在实时采集到第一语音信号时,从所述第一语音信号中提取第一语音特征数据,其中,所述第一语音信号为所述耳机设备的佩戴者产生;
分类确定模块:用于调用预设的分类模型基于所述第一语音特征数据确定所述佩戴者所属的第一年龄区间;
模式运行模块:用于确定所述第一年龄区间对应的音量控制模式,并运行所述音量控制模式以保护所述佩戴者的听力。
进一步地,分类确定模块,包括:
第一音量控制模块确定单元:用于若确定所述第一年龄区间为所述成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第一音量控制模式;
进一步地,模式运行模块,包括:
第一音量控制模块运行单元:用于运行所述第一音量控制模式以按照第一频率数值和第一音量数值输出声音信号;其中,所述第一频率数值在预设的频率标准区间内,所述第一音量数值在预设的音量标准区间内。
进一步地,分类确定模块,还包括:
第二音量控制模块确定单元:用于若确定所述第一年龄区间为所述未成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第二音量控制模式;
进一步地,模式运行模块,还包括:
第二音量控制模块运行单元:用于运行所述第二音量控制模式以按照第二频率数值和第二音量数值输出声音信号;其中,所述第二频率数值高于所述频率标准区间的最低值,所述第二音量数值低于所述音量标准区间的最高值;
进一步地,分类确定模块,还包括:
第三音量控制模块确定单元:用于若确定所述第一年龄区间为所述老年人年龄区间,则确定所述第一年龄区间数据对应的音量控制模式为第三音量控制模式;
进一步地,模式运行模块,还包括:
第三音量控制模块运行单元:用于运行所述第三音量控制模式以按照第三频率数值和第三音量数值输出声音信号;其中,所述第三频率数值高于人体共振频率区间的最高值,所述第三音量数值在所述音量标准区间内;
进一步的,分类确定模块,还包括:
语音数据库获取单元:用于获取预设的语音数据库,其中,所述语音数据库根据预先采集的各第二语音信号的第二语音特征数据和各第二年龄区间构建得到;
训练集构建单元:用于在所述语音数据库中构建训练集,通过所述训练集进行神经网络训练以得到所述分类模型。
进一步地,所述训练集包括:各第二语音特征数据,和各所述第二语音特征数据各自对应的所述第二年龄区间,所述第二年龄区间包括:成年人年龄区间、未成年人年龄区间及老年人年龄区间;
训练集构建单元,包括:
分类模型训练子单元:用于将所述各第二语音特征数据作为预设初始神经网络模型的输入,并将所述各第二语音特征数据对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间作为所述预设初始神经网络模型的输出,以基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,将所初始神经网络模型训练成为所述分类模型;
进一步地,分类确定模块,还包括:
验证集构建单元:在所述语音数据库中构建验证集;
待确认模型构建单元:用于在基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,对所初始神经网络模型进行训练得到待确认模型后,将所述验证集中的标准语音特征数据输入所述待确认模型;
待确认模型验证单元:用于检测所述待确认模型输出的年龄区间与所述验证集中所述标准语音特征数据对应的标准年龄区间是否一致;
分类模型确认单元:用于若检测所述待确认模型输出的年龄区间与所述验证集中所述标准语音特征数据对应的标准年龄区间一致,则将所述待确认模型作为所述分类模型;
分类模型更新单元:用于若检测所述待确认模型输出的年龄区间与所述验证集中所述标准语音特征数据对应的标准年龄区间不一致,则基于所述训练集继续对所述待确认模型进行神经网络训练以得到所述分类模型。
本发明还提供一种终端设备,该终端设备上有可在处理器上运行的听力的保护程序,所述终端设备执行所述听力的保护程序时实现如以上任一项实施例所述的听力的保护方法的步骤。
本发明终端设备的具体实施例与上述听力的保护方法各实施例基本相同,在此不作赘述。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质上存储有听力的保护程序,所述听力的保护程序被处理器执行时实现如以上任一项实施例所述的听力的保护方法的步骤。
本发计算机可读存储介质的具体实施例与听力的保护方法各实施例基本相同,在此不作赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种听力的保护方法,其特征在于,所述听力的保护方法应用于耳机设备,所述方法包括以下步骤:
在实时采集到第一语音信号时,从所述第一语音信号中提取第一语音特征数据,其中,所述第一语音信号为所述耳机设备的佩戴者产生;
调用预设的分类模型基于所述第一语音特征数据确定所述佩戴者所属的第一年龄区间;
确定所述第一年龄区间对应的音量控制模式,并运行所述音量控制模式以保护所述佩戴者的听力。
2.如权利要求1所述的听力的保护方法,其特征在于,所述第一年龄区间包括成年人年龄区间,所述确定所述第一年龄区间数据对应的音量控制模式的步骤,包括:
若确定所述第一年龄区间为所述成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第一音量控制模式;
所述运行所述音量控制模式以保护所述佩戴者的听力的步骤,包括:
运行所述第一音量控制模式以按照第一频率数值和第一音量数值输出声音信号;其中,所述第一频率数值在预设的频率标准区间内,所述第一音量数值在预设的音量标准区间内。
3.如权利要求2所述的听力的保护方法,其特征在于,所述第一年龄区间还包括未成年人年龄区间,所述确定所述第一年龄区间数据对应的音量控制模式的步骤,还包括:
若确定所述第一年龄区间为所述未成年人年龄区间,则确定所述第一年龄区间对应的音量控制模式为第二音量控制模式;
所述运行所述音量控制模式以保护所述佩戴者的听力的步骤,还包括:
运行所述第二音量控制模式以按照第二频率数值和第二音量数值输出声音信号;其中,所述第二频率数值高于所述频率标准区间的最低值,所述第二音量数值低于所述音量标准区间的最高值。
4.如权利要求2所述的听力的保护方法,其特征在于,所述第一年龄区间还包括老年人年龄区间,所述确定所述第一年龄区间数据对应的音量控制模式的步骤,还包括:
若确定所述第一年龄区间为所述老年人年龄区间,则确定所述第一年龄区间数据对应的音量控制模式为第三音量控制模式;
所述运行所述音量控制模式以保护所述佩戴者的听力的步骤,还包括:
运行所述第三音量控制模式以按照第三频率数值和第三音量数值输出声音信号;其中,所述第三频率数值高于人体共振频率区间的最高值,所述第三音量数值在所述音量标准区间内。
5.如权利要求1所述的听力的保护方法,其特征在于,所述方法还包括:
获取预设的语音数据库,其中,所述语音数据库根据预先采集的各第二语音信号的第二语音特征数据和各第二年龄区间构建得到;
在所述语音数据库中构建训练集,通过所述训练集进行神经网络训练以得到所述分类模型。
6.如权利要求5所述的听力的保护方法,其特征在于,所述训练集包括:各第二语音特征数据,和各所述第二语音特征数据各自对应的所述第二年龄区间,所述第二年龄区间包括:成年人年龄区间、未成年人年龄区间及老年人年龄区间,所述通过所述训练集进行神经网络训练以得到所述分类模型的步骤,包括:
将所述各第二语音特征数据作为预设初始神经网络模型的输入,并将所述各第二语音特征数据对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间作为所述预设初始神经网络模型的输出,以基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,将所初始神经网络模型训练成为所述分类模型。
7.如权利要求6所述的听力的保护方法,其特征在于,所述通过所述训练集进行神经网络训练以得到所述分类模型的步骤,还包括:
在所述语音数据库中构建验证集;
在基于所述各第二语音特征数据和各自对应的所述成年人年龄区间、所述未成年人年龄区间或所述老年人年龄区间之间的映射关系,对所初始神经网络模型进行训练得到待确认模型后,将所述验证集中的标准语音特征数据输入所述待确认模型;
检测所述待确认模型输出的年龄区间与所述验证集中所述标准语音特征数据对应的标准年龄区间是否一致;
若是,则将所述待确认模型作为所述分类模型;
若否,则基于所述训练集继续对所述待确认模型进行神经网络训练以得到所述分类模型。
8.一种听力的保护装置,其特征在于,所述装置包括:
采集提取模块:用于在实时采集到第一语音信号时,从所述第一语音信号中提取第一语音特征数据,其中,所述第一语音信号为所述耳机设备的佩戴者产生;
分类确定模块:用于调用预设的分类模型基于所述第一语音特征数据确定所述佩戴者所属的第一年龄区间;
模式运行模块:用于确定所述第一年龄区间对应的音量控制模式,并运行所述音量控制模式以保护所述佩戴者的听力。
9.一种终端设备,其特征在于,所述终端设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的听力的保护方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的听力的保护方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210462397.0A CN114900767B (zh) | 2022-04-28 | 2022-04-28 | 听力的保护方法、装置、终端设备及存储介质 |
PCT/CN2022/102134 WO2023206788A1 (zh) | 2022-04-28 | 2022-06-29 | 听力的保护方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210462397.0A CN114900767B (zh) | 2022-04-28 | 2022-04-28 | 听力的保护方法、装置、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114900767A true CN114900767A (zh) | 2022-08-12 |
CN114900767B CN114900767B (zh) | 2023-06-13 |
Family
ID=82720537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210462397.0A Active CN114900767B (zh) | 2022-04-28 | 2022-04-28 | 听力的保护方法、装置、终端设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114900767B (zh) |
WO (1) | WO2023206788A1 (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004205624A (ja) * | 2002-12-24 | 2004-07-22 | Megachips System Solutions Inc | 音声処理システム |
CN103177750A (zh) * | 2011-12-20 | 2013-06-26 | 富泰华工业(深圳)有限公司 | 音频播放装置及其控制方法 |
CN105282345A (zh) * | 2015-11-23 | 2016-01-27 | 小米科技有限责任公司 | 通话音量的调节方法和装置 |
US20160277855A1 (en) * | 2015-03-20 | 2016-09-22 | Innovo IP, LLC | System and method for improved audio perception |
CN106535044A (zh) * | 2016-11-24 | 2017-03-22 | 深圳市傲洲科技有限公司 | 智能音响的播放控制方法以及音乐播放控制系统 |
CN108235204A (zh) * | 2016-12-12 | 2018-06-29 | 塞舌尔商元鼎音讯股份有限公司 | 取得听力数据的电子装置及听力数据取得的方法 |
CN108924687A (zh) * | 2018-07-05 | 2018-11-30 | Oppo(重庆)智能科技有限公司 | 一种音量设置方法和设备、及计算机存储介质 |
CN111179915A (zh) * | 2019-12-30 | 2020-05-19 | 苏州思必驰信息科技有限公司 | 基于语音的年龄识别方法及装置 |
CN114071293A (zh) * | 2020-08-05 | 2022-02-18 | 广东小天才科技有限公司 | 音量模式设置、调节方法、监护终端、智能设备和耳机 |
CN114257191A (zh) * | 2020-09-24 | 2022-03-29 | 原相科技股份有限公司 | 均衡器调整方法和电子装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5626366B2 (ja) * | 2011-01-04 | 2014-11-19 | 富士通株式会社 | 音声制御装置、音声制御方法及び音声制御プログラム |
CN107656461A (zh) * | 2016-07-26 | 2018-02-02 | 青岛海尔洗衣机有限公司 | 一种基于用户年龄调节语音的方法及洗衣机 |
JP6531735B2 (ja) * | 2016-07-28 | 2019-06-19 | 京セラドキュメントソリューションズ株式会社 | 電子機器 |
-
2022
- 2022-04-28 CN CN202210462397.0A patent/CN114900767B/zh active Active
- 2022-06-29 WO PCT/CN2022/102134 patent/WO2023206788A1/zh unknown
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004205624A (ja) * | 2002-12-24 | 2004-07-22 | Megachips System Solutions Inc | 音声処理システム |
CN103177750A (zh) * | 2011-12-20 | 2013-06-26 | 富泰华工业(深圳)有限公司 | 音频播放装置及其控制方法 |
US20160277855A1 (en) * | 2015-03-20 | 2016-09-22 | Innovo IP, LLC | System and method for improved audio perception |
CN105282345A (zh) * | 2015-11-23 | 2016-01-27 | 小米科技有限责任公司 | 通话音量的调节方法和装置 |
CN106535044A (zh) * | 2016-11-24 | 2017-03-22 | 深圳市傲洲科技有限公司 | 智能音响的播放控制方法以及音乐播放控制系统 |
CN108235204A (zh) * | 2016-12-12 | 2018-06-29 | 塞舌尔商元鼎音讯股份有限公司 | 取得听力数据的电子装置及听力数据取得的方法 |
CN108924687A (zh) * | 2018-07-05 | 2018-11-30 | Oppo(重庆)智能科技有限公司 | 一种音量设置方法和设备、及计算机存储介质 |
CN111179915A (zh) * | 2019-12-30 | 2020-05-19 | 苏州思必驰信息科技有限公司 | 基于语音的年龄识别方法及装置 |
CN114071293A (zh) * | 2020-08-05 | 2022-02-18 | 广东小天才科技有限公司 | 音量模式设置、调节方法、监护终端、智能设备和耳机 |
CN114257191A (zh) * | 2020-09-24 | 2022-03-29 | 原相科技股份有限公司 | 均衡器调整方法和电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114900767B (zh) | 2023-06-13 |
WO2023206788A1 (zh) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450337B2 (en) | Multi-person speech separation method and apparatus using a generative adversarial network model | |
CN108511002B (zh) | 危险事件声音信号识别方法、终端和计算机可读存储介质 | |
KR20160098771A (ko) | 음성 기능 운용 방법 및 이를 지원하는 전자 장치 | |
CN103886861B (zh) | 一种控制电子设备的方法及电子设备 | |
CN110364156A (zh) | 语音交互方法、系统、终端及可读存储介质 | |
CN102779509A (zh) | 语音处理设备和语音处理方法 | |
CN108198569A (zh) | 一种音频处理方法、装置、设备及可读存储介质 | |
CN108052818B (zh) | 应用启动方法、装置、存储介质及电子设备 | |
CN104575509A (zh) | 语音增强处理方法及装置 | |
CN110875036A (zh) | 语音分类方法、装置、设备及计算机可读存储介质 | |
CN110111776A (zh) | 基于麦克风信号的语音交互唤醒电子设备、方法和介质 | |
CN110517686A (zh) | 智能音箱端语音开通应用的方法及系统 | |
JP2009178783A (ja) | コミュニケーションロボット及びその制御方法 | |
CN114067782A (zh) | 音频识别方法及其装置、介质和芯片系统 | |
CN111385688A (zh) | 一种基于深度学习的主动降噪方法、装置及系统 | |
CN111835522A (zh) | 一种音频处理方法及装置 | |
CN110728993A (zh) | 一种变声识别方法及电子设备 | |
CN110827834B (zh) | 声纹注册方法、系统及计算机可读存储介质 | |
CN108537019A (zh) | 一种解锁方法及装置、存储介质 | |
CN108174030B (zh) | 定制化语音控制的实现方法、移动终端及可读存储介质 | |
CN114900767B (zh) | 听力的保护方法、装置、终端设备及存储介质 | |
CN113470653A (zh) | 声纹识别的方法、电子设备和系统 | |
CN107154996B (zh) | 来电拦截方法、装置、存储介质及终端 | |
US20190214037A1 (en) | Recommendation device, recommendation method, and non-transitory computer-readable storage medium storing recommendation program | |
CN110232919A (zh) | 实时语音流提取与语音识别系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |