CN116758934B - 一种智能穿戴设备对讲功能的实现方法、系统及介质 - Google Patents
一种智能穿戴设备对讲功能的实现方法、系统及介质 Download PDFInfo
- Publication number
- CN116758934B CN116758934B CN202311043945.7A CN202311043945A CN116758934B CN 116758934 B CN116758934 B CN 116758934B CN 202311043945 A CN202311043945 A CN 202311043945A CN 116758934 B CN116758934 B CN 116758934B
- Authority
- CN
- China
- Prior art keywords
- signal
- audio
- noise
- audio data
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- 230000002452 interceptive effect Effects 0.000 claims abstract description 12
- 230000005236 sound signal Effects 0.000 claims description 97
- 230000006870 function Effects 0.000 claims description 48
- 238000001228 spectrum Methods 0.000 claims description 47
- 230000003068 static effect Effects 0.000 claims description 30
- 238000009432 framing Methods 0.000 claims description 18
- 238000009499 grossing Methods 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 abstract description 9
- 230000002829 reductive effect Effects 0.000 abstract description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1785—Methods, e.g. algorithms; Devices
- G10K11/17853—Methods, e.g. algorithms; Devices of the filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1787—General system configurations
- G10K11/17885—General system configurations additionally using a desired external signal, e.g. pass-through audio such as music or speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本申请提供了一种智能穿戴设备对讲功能的实现方法、系统及介质,该方法包括:获取音频数据,对音频数据进行预处理,得到处理后的音频数据;提取处理后的音频数据的特征,得到音频特征;将音频特征与预设的音频特征进行比较,得到特征偏差率;判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;若小于,则将音频数据按照预定的方式进行传输;通过对音频数据进行噪声干扰处理,降低对讲传输过程中的噪声干扰,提高传输的清晰度。
Description
技术领域
本申请涉及智能穿戴设备对讲领域,具体而言,涉及一种智能穿戴设备对讲功能的实现方法、系统及介质。
背景技术
穿戴式智能设备是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。
广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。随着技术的进步以及用户需求的变迁,可穿戴式智能设备的形态与应用热点也在不断的变化。
现有的智能穿戴设备不具有远程对讲功能,且在对讲过程中由于路程的原因容易为造成音频数据传输失真,造成无法识别音频,造成工作效率的降低。
针对上述问题,目前亟待有效的技术解决方案。
发明内容
本申请的目的在于提供一种智能穿戴设备对讲功能的实现方法、系统及介质,可以通过通过对音频数据进行噪声干扰处理,降低对讲传输过程中的噪声干扰,提高传输的清晰度的技术。
本申请还提供了一种智能穿戴设备对讲功能的实现方法,包括:
获取音频数据,对音频数据进行预处理,得到处理后的音频数据;
提取处理后的音频数据的特征,得到音频特征;
将音频特征与预设的音频特征进行比较,得到特征偏差率;
判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;
若小于,则将音频数据按照预定的方式进行传输。
可选地,在本申请实施例所述的智能穿戴设备对讲功能的实现方法中,所述获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行分帧处理,得到单帧音频信号;
获取相邻帧的音频信号的时变量,判断所述时变量是否大于第一阈值且小于第二阈值;
若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数;
若所述时变量大于第二阈值,则生成跳变信号,将跳变信号进行平滑处理。
可选地,在本申请实施例所述的智能穿戴设备对讲功能的实现方法中,所述若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数,还包括:
获取平滑信号的数量,将平滑信号的数量与预设的数量进行比较;
若平滑信号的数量大于预设的数量,则直接提取音频数据的特征,得到音频特征;
若平滑信号的数量小于预设的数量,则将对应帧的音频信号进行切除或平滑拟合。
可选地,在本申请实施例所述的智能穿戴设备对讲功能的实现方法中,所述获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并将频谱信号映射到低维空间,进行频谱信号的维度转换;
将维度转换后的频谱信号进行处理,得到音频数据。
可选地,在本申请实施例所述的智能穿戴设备对讲功能的实现方法中,所述提取处理后的音频数据的特征,得到音频特征,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并计算频谱信号的特征参数;
根据频谱信号的特征参数计算音频信号的动态特征权重系数与静态特征权重系数;
根据动态特征权重系数得到音频信号的动态特征;
根据静态特征权重系数得到音频信号的静态特征;
将动态特征与静态特征进行融合,得到音频特征。
可选地,在本申请实施例所述的智能穿戴设备对讲功能的实现方法中,所述判断所述特征偏差率是否大于或等于预设的特征偏差率阈值,若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频,包括:
获取噪声特征,将噪声特征与预设的标准噪声进行比较,得到噪声相关性;
判断所述噪声相关性是否大于预设相关性阈值;
若大于或等于,则将噪声信号进行归类,并根据预设的标准噪声进行传输干扰噪声,对噪声信号进行干扰降噪;
若小于,则将噪声信号进行消除。
第二方面,本申请实施例提供了一种智能穿戴设备对讲功能的实现系统,该系统包括:存储器及处理器,所述存储器中包括智能穿戴设备对讲功能的实现方法的程序,所述智能穿戴设备对讲功能的实现方法的程序被所述处理器执行时实现以下步骤:
获取音频数据,对音频数据进行预处理,得到处理后的音频数据;
提取处理后的音频数据的特征,得到音频特征;
将音频特征与预设的音频特征进行比较,得到特征偏差率;
判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;
若小于,则将音频数据按照预定的方式进行传输。
可选地,在本申请实施例所述的智能穿戴设备对讲功能的实现系统中,所述获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行分帧处理,得到单帧音频信号;
获取相邻帧的音频信号的时变量,判断所述时变量是否大于第一阈值且小于第二阈值;
若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数;
若所述时变量大于第二阈值,则生成跳变信号,将跳变信号进行平滑处理。
可选地,在本申请实施例所述的智能穿戴设备对讲功能的实现系统中,所述若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数,还包括:
获取平滑信号的数量,将平滑信号的数量与预设的数量进行比较;
若平滑信号的数量大于预设的数量,则直接提取音频数据的特征,得到音频特征;
若平滑信号的数量小于预设的数量,则将对应帧的音频信号进行切除或平滑拟合。
第三方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中包括智能穿戴设备对讲功能的实现方法程序,所述智能穿戴设备对讲功能的实现方法程序被处理器执行时,实现如上述任一项所述的智能穿戴设备对讲功能的实现方法的步骤。
由上可知,本申请实施例提供的一种智能穿戴设备对讲功能的实现方法、系统及介质,通过获取音频数据,对音频数据进行预处理,得到处理后的音频数据;提取处理后的音频数据的特征,得到音频特征;将音频特征与预设的音频特征进行比较,得到特征偏差率;判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;若小于,则将音频数据按照预定的方式进行传输;通过对音频数据进行噪声干扰处理,降低对讲传输过程中的噪声干扰,提高传输的清晰度的技术。
本申请的其他特征和优点将在随后的说明书阐述,并且,本申请的优点部分地从说明书中变得显而易见,或者通过实施本申请实施例了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的智能穿戴设备对讲功能的实现方法的流程图;
图2为本申请实施例提供的智能穿戴设备对讲功能的实现方法的音频信号处理方法流程图;
图3为本申请实施例提供的智能穿戴设备对讲功能的实现方法的通过频谱信号获取音频数据流程图;
图4为本申请实施例提供的智能穿戴设备对讲功能的实现方法的通过动态特征与静态特征融合获取音频特征流程图;
图5为本申请实施例提供的智能穿戴设备对讲功能的实现系统的结构示意图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到,相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1是本申请一些实施例中的一种智能穿戴设备对讲功能的实现方法的流程图。该智能穿戴设备对讲功能的实现方法用于终端设备中,该智能穿戴设备对讲功能的实现方法,包括以下步骤:
S101,获取音频数据,对音频数据进行预处理,得到处理后的音频数据;
S102,提取处理后的音频数据的特征,得到音频特征;
S103,将音频特征与预设的音频特征进行比较,得到特征偏差率;
S104,判断特征偏差率是否大于或等于预设的特征偏差率阈值;
S105,若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;
S106,若小于,则将音频数据按照预定的方式进行传输。
需要说明的是,通过采集模块(传感器)获取用户的说话声音,将声音进行处理,得到音频数据,首先对音频数据进行初次降噪滤波处理,使音频数据不会出现失真或噪声过大的情况,其次提取音频数据中有用的特征,便于对音频数据进行处理分析,并实现对音频数据的精准降噪,降噪可以通过系统发送一种可以抵消噪声的其他噪声,两种噪声的波形不同,可以实现噪声的相互抵消,从而实现降噪,保证对讲音频数据清楚,更加贴近实际声音。
请参照图2,图2是本申请一些实施例中的一种智能穿戴设备对讲功能的实现方法的音频信号处理方法流程图。根据本发明实施例,获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
S201,获取音频信号,对音频信号进行分帧处理,得到单帧音频信号;
S202,获取相邻帧的音频信号的时变量,判断时变量是否大于第一阈值且小于第二阈值;
S203,若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数;
S204,若时变量大于第二阈值,则生成跳变信号,将跳变信号进行平滑处理。
需要说明的是,通过对不同时间窗口的音频数据进行比对,判断相邻时间点或时间段内音频信号的变化量,可以有效找寻该时间窗口下的干扰信号,从而更加有利于剔除噪声信号,噪声信号不大时,可以通过对噪声信号进行平滑处理,实现噪声信号依旧存在,但是用户几乎听不出来的程度,处理方式简单高效,噪声信号过大时,就会出现跳变信号,则需要进行多次平滑处理,平滑处理可以通过均值法进行处理,得到相对平滑的音频信号。
根据本发明实施例,若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数,还包括:
获取平滑信号的数量,将平滑信号的数量与预设的数量进行比较;
若平滑信号的数量大于预设的数量,则直接提取音频数据的特征,得到音频特征;
若平滑信号的数量小于预设的数量,则将对应帧的音频信号进行切除或平滑拟合。
需要说明的是,当在一个时间窗口下采集的音频信号中平滑信号数量较少时,则说明该段音频信号失真严重,无法提取有效信息,则需要对音频信号进行切除,或进行多段切除,然后对多段信号进行噪声处理,噪声处理之后再进行拟合,保证音频信号的有效。
请参照图3,图3是本申请一些实施例中的一种智能穿戴设备对讲功能的实现方法的通过频谱信号获取音频数据流程图。根据本发明实施例,获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
S301,获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
S302,将加窗信号进行傅里叶变换,得到频谱信号;
S303,对频谱信号进行滤波处理,并将频谱信号映射到低维空间,进行频谱信号的维度转换;
S304,将维度转换后的频谱信号进行处理,得到音频数据。
需要说明的是,对音频信号进行分帧处理,可以将音频信号中微小的失真信号进行提取,也可以对音频信号中微小的噪声信号进行获取,从而使得最终得到的音频数据更加贴近实际值。
请参照图4,图4是本申请一些实施例中的一种智能穿戴设备对讲功能的实现方法的通过动态特征与静态特征融合获取音频特征流程图。根据本发明实施例,提取处理后的音频数据的特征,得到音频特征,包括:
S401,获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
S402,将加窗信号进行傅里叶变换,得到频谱信号,对频谱信号进行滤波处理,并计算频谱信号的特征参数;
S403,根据频谱信号的特征参数计算音频信号的动态特征权重系数与静态特征权重系数;
S404,根据动态特征权重系数得到音频信号的动态特征;
S405,根据静态特征权重系数得到音频信号的静态特征;
S406,将动态特征与静态特征进行融合,得到音频特征。
需要说明的是,将音频信号进行动态特征与静态特征的分割,根据动态特征权重系数与静态特征权重系数判断该段音频信号的侧重点,从而可以有选择的保留动态特征与静态特征之间的比值,在进行动态特征与静态特征融合过程中,更加具有针对性。
根据本发明实施例,判断特征偏差率是否大于或等于预设的特征偏差率阈值,若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频,包括:
获取噪声特征,将噪声特征与预设的标准噪声进行比较,得到噪声相关性;
判断噪声相关性是否大于预设相关性阈值;
若大于或等于,则将噪声信号进行归类,并根据预设的标准噪声进行传输干扰噪声,对噪声信号进行干扰降噪;
若小于,则将噪声信号进行消除。
需要说明的是,通过标准噪声对获取的噪声信号进行分类,针对不同的噪声类别可以生成不同的干扰噪声进行降噪,降噪效果较好。
根据本发明实施例,还包括:
获取音频信号与视频信号,将音频信号与视频信号进行配对,生成解锁信号,并生成信号集;
当再次获取音频信号与视频信号时,将音频信号与信号集中的解锁信号进行比对,得到信号相似度;
判断所述信号相似度是否大于预设的相似度阈值;
若大于或等于,则判定用户与智能穿戴设备匹配成功,对智能穿戴设备进行解锁;
若小于,则判定用户与智能穿戴设备不匹配,生成报警信息进行报警。
需要说明的是,通过提取视频信号中用户面部特征,与解锁信号中用户面部特征进行比对,当满足要求时,则判定该段视频信号满足解锁要求,实现智能穿戴设备与用户的匹配,防止智能穿戴设备丢失时,造成智能穿戴设备信息泄露。
请参照图5,图5是本申请一些实施例中的一种智能穿戴设备对讲功能的实现系统的结构示意图。第二方面,本申请实施例提供了一种智能穿戴设备对讲功能的实现系统5,该系统包括:存储器51及处理器52,存储器51中包括智能穿戴设备对讲功能的实现方法的程序,智能穿戴设备对讲功能的实现方法的程序被处理器执行时实现以下步骤:
获取音频数据,对音频数据进行预处理,得到处理后的音频数据;
提取处理后的音频数据的特征,得到音频特征;
将音频特征与预设的音频特征进行比较,得到特征偏差率;
判断特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;
若小于,则将音频数据按照预定的方式进行传输。
需要说明的是,通过采集模块(传感器)获取用户的说话声音,将声音进行处理,得到音频数据,首先对音频数据进行初次降噪滤波处理,使音频数据不会出现失真或噪声过大的情况,其次提取音频数据中有用的特征,便于对音频数据进行处理分析,并实现对音频数据的精准降噪,降噪可以通过系统发送一种可以抵消噪声的其他噪声,两种噪声的波形不同,可以实现噪声的相互抵消,从而实现降噪,保证对讲音频数据清楚,更加贴近实际声音。
根据本发明实施例,获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行分帧处理,得到单帧音频信号;
获取相邻帧的音频信号的时变量,判断时变量是否大于第一阈值且小于第二阈值;
若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数;
若时变量大于第二阈值,则生成跳变信号,将跳变信号进行平滑处理。
需要说明的是,通过对不同时间窗口的音频数据进行比对,判断相邻时间点或时间段内音频信号的变化量,可以有效找寻该时间窗口下的干扰信号,从而更加有利于剔除噪声信号,噪声信号不大时,可以通过对噪声信号进行平滑处理,实现噪声信号依旧存在,但是用户几乎听不出来的程度,处理方式简单高效,噪声信号过大时,就会出现跳变信号,则需要进行多次平滑处理,平滑处理可以通过均值法进行处理,得到相对平滑的音频信号。
根据本发明实施例,若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数,还包括:
获取平滑信号的数量,将平滑信号的数量与预设的数量进行比较;
若平滑信号的数量大于预设的数量,则直接提取音频数据的特征,得到音频特征;
若平滑信号的数量小于预设的数量,则将对应帧的音频信号进行切除或平滑拟合。
需要说明的是,当在一个时间窗口下采集的音频信号中平滑信号数量较少时,则说明该段音频信号失真严重,无法提取有效信息,则需要对音频信号进行切除,或进行多段切除,然后对多段信号进行噪声处理,噪声处理之后再进行拟合,保证音频信号的有效。
根据本发明实施例,获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并将频谱信号映射到低维空间,进行频谱信号的维度转换;
将维度转换后的频谱信号进行处理,得到音频数据。
需要说明的是,对音频信号进行分帧处理,可以将音频信号中微小的失真信号进行提取,也可以对音频信号中微小的噪声信号进行获取,从而使得最终得到的音频数据更加贴近实际值。
根据本发明实施例,提取处理后的音频数据的特征,得到音频特征,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并计算频谱信号的特征参数;
根据频谱信号的特征参数计算音频信号的动态特征权重系数与静态特征权重系数;
根据动态特征权重系数得到音频信号的动态特征;
根据静态特征权重系数得到音频信号的静态特征;
将动态特征与静态特征进行融合,得到音频特征。
需要说明的是,将音频信号进行动态特征与静态特征的分割,根据动态特征权重系数与静态特征权重系数判断该段音频信号的侧重点,从而可以有选择的保留动态特征与静态特征之间的比值,在进行动态特征与静态特征融合过程中,更加具有针对性。
根据本发明实施例,判断特征偏差率是否大于或等于预设的特征偏差率阈值,若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频,包括:
获取噪声特征,将噪声特征与预设的标准噪声进行比较,得到噪声相关性;
判断噪声相关性是否大于预设相关性阈值;
若大于或等于,则将噪声信号进行归类,并根据预设的标准噪声进行传输干扰噪声,对噪声信号进行干扰降噪;
若小于,则将噪声信号进行消除。
需要说明的是,通过标准噪声对获取的噪声信号进行分类,针对不同的噪声类别可以生成不同的干扰噪声进行降噪,降噪效果较好。
根据本发明实施例,还包括:
获取音频信号与视频信号,将音频信号与视频信号进行配对,生成解锁信号,并生成信号集;
当再次获取音频信号与视频信号时,将音频信号与信号集中的解锁信号进行比对,得到信号相似度;
判断所述信号相似度是否大于预设的相似度阈值;
若大于或等于,则判定用户与智能穿戴设备匹配成功,对智能穿戴设备进行解锁;
若小于,则判定用户与智能穿戴设备不匹配,生成报警信息进行报警。
需要说明的是,通过提取视频信号中用户面部特征,与解锁信号中用户面部特征进行比对,当满足要求时,则判定该段视频信号满足解锁要求,实现智能穿戴设备与用户的匹配,防止智能穿戴设备丢失时,造成智能穿戴设备信息泄露。
本发明第三方面提供了一种计算机可读存储介质,可读存储介质中包括智能穿戴设备对讲功能的实现方法程序,智能穿戴设备对讲功能的实现方法程序被处理器执行时,实现如上述任一项的智能穿戴设备对讲功能的实现方法的步骤。
本发明公开的一种智能穿戴设备对讲功能的实现方法、系统及介质,通过获取音频数据,对音频数据进行预处理,得到处理后的音频数据;提取处理后的音频数据的特征,得到音频特征;将音频特征与预设的音频特征进行比较,得到特征偏差率;判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;若小于,则将音频数据按照预定的方式进行传输;通过对音频数据进行噪声干扰处理,降低对讲传输过程中的噪声干扰,提高传输的清晰度的技术。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (3)
1.一种智能穿戴设备对讲功能的实现方法,其特征在于,包括:
获取音频数据,对音频数据进行预处理,得到处理后的音频数据;
提取处理后的音频数据的特征,得到音频特征;
将音频特征与预设的音频特征进行比较,得到特征偏差率;
判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;
若小于,则将音频数据按照预定的方式进行传输;
所述获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行分帧处理,得到单帧音频信号;
获取相邻帧的音频信号的时变量,判断所述时变量是否大于第一阈值且小于第二阈值;
若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数;
若所述时变量大于第二阈值,则生成跳变信号,将跳变信号进行平滑处理;
所述若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数,还包括:
获取平滑信号的数量,将平滑信号的数量与预设的数量进行比较;
若平滑信号的数量大于预设的数量,则直接提取音频数据的特征,得到音频特征;
若平滑信号的数量小于预设的数量,则将对应帧的音频信号进行切除或平滑拟合;
所述获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并将频谱信号映射到低维空间,进行频谱信号的维度转换;
将维度转换后的频谱信号进行处理,得到音频数据;
所述提取处理后的音频数据的特征,得到音频特征,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并计算频谱信号的特征参数;
根据频谱信号的特征参数计算音频信号的动态特征权重系数与静态特征权重系数;
根据动态特征权重系数得到音频信号的动态特征;
根据静态特征权重系数得到音频信号的静态特征;
将动态特征与静态特征进行融合,得到音频特征;
所述判断所述特征偏差率是否大于或等于预设的特征偏差率阈值,若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频,包括:
获取噪声特征,将噪声特征与预设的标准噪声进行比较,得到噪声相关性;
判断所述噪声相关性是否大于预设相关性阈值;
若大于或等于,则将噪声信号进行归类,并根据预设的标准噪声进行传输干扰噪声,对噪声信号进行干扰降噪;
若小于,则将噪声信号进行消除。
2.一种智能穿戴设备对讲功能的实现系统,其特征在于,该系统包括:存储器及处理器,所述存储器中包括智能穿戴设备对讲功能的实现方法的程序,所述智能穿戴设备对讲功能的实现方法的程序被所述处理器执行时实现以下步骤:
获取音频数据,对音频数据进行预处理,得到处理后的音频数据;
提取处理后的音频数据的特征,得到音频特征;
将音频特征与预设的音频特征进行比较,得到特征偏差率;
判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频;
若小于,则将音频数据按照预定的方式进行传输;
所述获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行分帧处理,得到单帧音频信号;
获取相邻帧的音频信号的时变量,判断所述时变量是否大于第一阈值且小于第二阈值;
若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数;
若所述时变量大于第二阈值,则生成跳变信号,将跳变信号进行平滑处理;
所述若大于第一阈值且小于第二阈值,则生成平滑信号,并将平滑信号进行计数,还包括:
获取平滑信号的数量,将平滑信号的数量与预设的数量进行比较;
若平滑信号的数量大于预设的数量,则直接提取音频数据的特征,得到音频特征;
若平滑信号的数量小于预设的数量,则将对应帧的音频信号进行切除或平滑拟合;
所述获取音频数据,对音频数据进行预处理,得到处理后的音频数据,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并将频谱信号映射到低维空间,进行频谱信号的维度转换;
将维度转换后的频谱信号进行处理,得到音频数据;
所述提取处理后的音频数据的特征,得到音频特征,包括:
获取音频信号,对音频信号进行预加重、加窗分帧处理,得到加窗信号;
将加窗信号进行傅里叶变换,得到频谱信号;
对频谱信号进行滤波处理,并计算频谱信号的特征参数;
根据频谱信号的特征参数计算音频信号的动态特征权重系数与静态特征权重系数;
根据动态特征权重系数得到音频信号的动态特征;
根据静态特征权重系数得到音频信号的静态特征;
将动态特征与静态特征进行融合,得到音频特征;
所述判断所述特征偏差率是否大于或等于预设的特征偏差率阈值,若大于或等于,则生成噪声特征,将噪声信号进行干扰,生成对讲音频,包括:
获取噪声特征,将噪声特征与预设的标准噪声进行比较,得到噪声相关性;
判断所述噪声相关性是否大于预设相关性阈值;
若大于或等于,则将噪声信号进行归类,并根据预设的标准噪声进行传输干扰噪声,对噪声信号进行干扰降噪;
若小于,则将噪声信号进行消除。
3.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括智能穿戴设备对讲功能的实现方法程序,所述智能穿戴设备对讲功能的实现方法程序被处理器执行时,实现如权利要求1所述的智能穿戴设备对讲功能的实现方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311043945.7A CN116758934B (zh) | 2023-08-18 | 2023-08-18 | 一种智能穿戴设备对讲功能的实现方法、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311043945.7A CN116758934B (zh) | 2023-08-18 | 2023-08-18 | 一种智能穿戴设备对讲功能的实现方法、系统及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116758934A CN116758934A (zh) | 2023-09-15 |
CN116758934B true CN116758934B (zh) | 2023-11-07 |
Family
ID=87957647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311043945.7A Active CN116758934B (zh) | 2023-08-18 | 2023-08-18 | 一种智能穿戴设备对讲功能的实现方法、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116758934B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104078050A (zh) * | 2013-03-26 | 2014-10-01 | 杜比实验室特许公司 | 用于音频分类和音频处理的设备和方法 |
CN108831500A (zh) * | 2018-05-29 | 2018-11-16 | 平安科技(深圳)有限公司 | 语音增强方法、装置、计算机设备及存储介质 |
CN111739550A (zh) * | 2019-03-25 | 2020-10-02 | 恩智浦有限公司 | 用于语音增强的音频处理系统 |
CN112102846A (zh) * | 2020-09-04 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、电子设备以及存储介质 |
CN113327626A (zh) * | 2021-06-23 | 2021-08-31 | 深圳市北科瑞声科技股份有限公司 | 语音降噪方法、装置、设备及存储介质 |
CN115348507A (zh) * | 2022-08-09 | 2022-11-15 | 江西联创电声有限公司 | 脉冲噪声抑制方法、系统、可读存储介质及计算机设备 |
CN116403595A (zh) * | 2023-03-08 | 2023-07-07 | 上海璞珺科技有限公司 | 一种抗干扰无线对讲方法、系统、设备及介质 |
-
2023
- 2023-08-18 CN CN202311043945.7A patent/CN116758934B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104078050A (zh) * | 2013-03-26 | 2014-10-01 | 杜比实验室特许公司 | 用于音频分类和音频处理的设备和方法 |
CN108831500A (zh) * | 2018-05-29 | 2018-11-16 | 平安科技(深圳)有限公司 | 语音增强方法、装置、计算机设备及存储介质 |
CN111739550A (zh) * | 2019-03-25 | 2020-10-02 | 恩智浦有限公司 | 用于语音增强的音频处理系统 |
CN112102846A (zh) * | 2020-09-04 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、电子设备以及存储介质 |
CN113327626A (zh) * | 2021-06-23 | 2021-08-31 | 深圳市北科瑞声科技股份有限公司 | 语音降噪方法、装置、设备及存储介质 |
CN115348507A (zh) * | 2022-08-09 | 2022-11-15 | 江西联创电声有限公司 | 脉冲噪声抑制方法、系统、可读存储介质及计算机设备 |
CN116403595A (zh) * | 2023-03-08 | 2023-07-07 | 上海璞珺科技有限公司 | 一种抗干扰无线对讲方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116758934A (zh) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112185352B (zh) | 语音识别方法、装置及电子设备 | |
CN1306472C (zh) | 分布式语音识别系统中用于发送语音活动的系统和方法 | |
CN110706693B (zh) | 语音端点的确定方法及装置、存储介质、电子装置 | |
WO2021184837A1 (zh) | 诈骗电话的识别方法、装置、存储介质及终端 | |
CN108597505B (zh) | 语音识别方法、装置及终端设备 | |
CN110111769B (zh) | 一种电子耳蜗控制方法、装置、可读存储介质及电子耳蜗 | |
JP4551215B2 (ja) | 音声の聴覚明瞭度分析を実施する方法 | |
CN114333912B (zh) | 语音激活检测方法、装置、电子设备和存储介质 | |
CN114360562B (zh) | 语音处理方法、装置、电子设备和存储介质 | |
CN111640411A (zh) | 音频合成方法、装置及计算机可读存储介质 | |
CN112420079B (zh) | 语音端点检测方法和装置、存储介质及电子设备 | |
CN115884032A (zh) | 一种后馈式耳机的智慧通话降噪方法及系统 | |
CN110473563A (zh) | 基于时频特征的呼吸声检测方法、系统、设备及介质 | |
CN111710332B (zh) | 语音处理方法、装置、电子设备及存储介质 | |
US20150325252A1 (en) | Method and device for eliminating noise, and mobile terminal | |
CN111968651A (zh) | 一种基于wt的声纹识别方法及系统 | |
CN112992189B (zh) | 语音音频的检测方法及装置、存储介质及电子装置 | |
CN116758934B (zh) | 一种智能穿戴设备对讲功能的实现方法、系统及介质 | |
CN204117590U (zh) | 语音采集降噪装置以及语音质量评价系统 | |
CN112992153B (zh) | 音频处理方法、声纹识别方法、装置、计算机设备 | |
CN117476031A (zh) | 一种噪声环境下耳机通话语音增强方法及系统 | |
CN116320878A (zh) | 一种基于骨声纹传感器的耳机降噪方法及系统 | |
CN116403595A (zh) | 一种抗干扰无线对讲方法、系统、设备及介质 | |
CN116132875A (zh) | 一种辅听耳机的多模式智能控制方法、系统及存储介质 | |
CN112614492A (zh) | 基于时空信息融合的声纹识别方法、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 4208, Tower A, Hongrongyuan North Station Center, Minzhi Street North Station Community, Longhua District, Shenzhen City, Guangdong Province, 518000 Patentee after: Shenzhen Weike Technology Co.,Ltd. Country or region after: China Address before: 4208, Tower A, Hongrongyuan North Station Center, Minzhi Street North Station Community, Longhua District, Shenzhen City, Guangdong Province, 518000 Patentee before: SHENZHEN WAKE UP TECHNOLOGY CO.,LTD. Country or region before: China |
|
CP03 | Change of name, title or address |