CN112037781B - 语音数据的获取方法和装置 - Google Patents
语音数据的获取方法和装置 Download PDFInfo
- Publication number
- CN112037781B CN112037781B CN202010791234.8A CN202010791234A CN112037781B CN 112037781 B CN112037781 B CN 112037781B CN 202010791234 A CN202010791234 A CN 202010791234A CN 112037781 B CN112037781 B CN 112037781B
- Authority
- CN
- China
- Prior art keywords
- voice data
- compressed
- sampling
- data
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000005070 sampling Methods 0.000 claims abstract description 125
- 238000007906 compression Methods 0.000 claims abstract description 74
- 230000006835 compression Effects 0.000 claims abstract description 72
- 230000015654 memory Effects 0.000 claims description 26
- 238000001914 filtration Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000013144 data compression Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 abstract description 9
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000011084 recovery Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000006837 decompression Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Telephone Function (AREA)
Abstract
本申请公开了语音数据的获取方法和装置,涉及深度学习技术领域和语音识别技术领域。具体实现方案为:响应于语音还原指令,获取与语音还原指令对应的压缩语音数据;获取与压缩语音数据对应的压缩倍数和下采样频率;根据压缩倍数对压缩语音数据解压缩,获取解压语音数据;计算与下采样频率对应的上采样频率,并根据上采样频率对解压语音数据上采样,获取与压缩语音数据对应的目标语音数据。由此,实现了低算力的语音数据还原,便于对语音数据的追溯。
Description
技术领域
本申请涉及深度学习技术领域和语音识别技术领域,尤其涉及一种语音数据的获取方法和装置。
背景技术
随着计算机技术的发展,基于语音的识别技术也越发成熟,相关技术中,获取到语音数据后,基于语音数据提取语音特征,根据语音特征来进行语音控制指令的识别。
然而,在实际应用中,例如获取语音数据的蓝牙耳机由于蓝牙芯片传输能力差,语音识别指令不准确等场景下,需要对获取到的语音指令进行追溯,而现有技术中缺少一种可以对语音数据还原的方式。
发明内容
本公开提供了一种语音数据的获取方法和装置,以解决现有技术中,语音数据无法追溯的技术问题。
根据本公开的一方面,提供了一种语音数据的获取方法,包括:响应于语音还原指令,获取与所述语音还原指令对应的压缩语音数据;获取与所述压缩语音数据对应的压缩倍数和下采样频率;根据所述压缩倍数对所述压缩语音数据解压缩,获取解压语音数据;确定与所述下采样频率对应的上采样频率,并根据所述上采样频率对所述解压语音数据上采样,以获取与所述压缩语音数据对应的目标语音数据。
根据本公开的另一方面,提供了一种语音数据的获取装置,包括:第一获取模块,用于响应于语音还原指令,获取与所述语音还原指令对应的压缩语音数据;第二获取模块,用于获取与所述压缩语音数据对应的压缩倍数和下采样频率;第三获取模块,用于根据所述压缩倍数对所述压缩语音数据解压缩,获取解压语音数据;第四获取模块,用于确定与所述下采样频率对应的上采样频率,并根据所述上采样频率对所述解压语音数据上采样,以获取与所述压缩语音数据对应的目标语音数据。
根据本公开的又一方面,提供了一种电子设备,包括:至少一个处理器;与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述一方面实施例描述的语音数据的获取方法。
根据本公开的还一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述第一方面实施例描述的语音数据的获取方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的语音数据的获取方法的流程示意图;
图2是根据本申请第二实施例的语音数据的获取方法的流程示意图;
图3是根据本申请第三实施例的语音数据的获取场景示意图;
图4是根据本申请第四实施例的语音数据的获取方法的流程示意图;
图5是根据本申请第五实施例的语音数据的获取装置的结构示意图;
图6是根据本申请第六实施例的语音数据的获取装置的结构示意图;
图7是根据本申请第八实施例的语音数据的获取装置的结构示意图;
图8是用来实现本申请实施例的语音数据的获取的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
参考上述背景技术的描述,在语音识别场景下,获取到语音数据的通常为蓝牙耳机等设备,而这些设备中的蓝牙芯片的传输能力差,若是直接将语音数上传至服务器等进行保存,用于后续直接调用语音数据来追溯,则会导致在上传语音数据时,蓝牙芯片负荷较大以及流量的浪费,因此,亟需一种低算力且实用性高的语音数据还原的方式。
下面参考附图描述本申请实施例的语音数据的获取方法和装置,其中,本申请实施例的对语音数据的压缩的执行主体,可以是耳机等具有蓝牙芯片的语音数据获取设备、或者是单片机芯片等算力较低的设备。
具体而言,图1是根据本申请一个实施例的语音数据的获取方法的流程图,如图1所示,该方法包括:
步骤101,响应于语音还原指令,获取与语音还原指令对应的压缩语音数据。
其中,语音还原指令可以为用户触发预设的控件后获取的,也可以是检测到用户的语音指令中包含了“还原播放”等关键词后获取的。
需要说明的是,在不同的应用场景下,获取与语音还原指令对应的压缩语音数据的方式不同,示例如下:
示例一:
在本示例中,语音还原指令中包含压缩语音数据对应的标识信息,该标识信息可以为时间戳、压缩语音数据标号等可以唯一定位到压缩语音数据的信息。
提取该语音还原指令,即可确定与语音还原指令对应的压缩语音数据,进而,在预设的存储位置获取该语音还原指令对应的压缩语音数据。其中,预设的存储位置可以是服务器等存储空间比较大的设备。
示例二:
在本示例中,获取与当前语音还原指令对应的设备标识,比如,通过检测该语音还原指令发出的设备,确定对应的设备标识等,进而,将该设备最近一次语音识别获取到的压缩语音数据,作为与该语音还原指令对应的压缩语音数据。
步骤102,获取与压缩语音数据对应的压缩倍数和下采样频率。
应当理解的是,本申请中的压缩语音数据采用了二次压缩,其中,根据下采样频率采样是第一次压缩,压缩倍数对应的是第二次压缩。
需要说明的是,在不同的应用场景中,获取与压缩语音数据对应的压缩倍数和下采样频率的方式不同,示例说明如下:
示例一:
在本示例中,预先存储压缩语音数据与压缩倍数和下采样频率的对应关系,从而,查询该对应关系,即可获取对应的压缩倍数和下采样频率。
示例二:
在本示例中,提取压缩语音数据中每个采样点的采样时间点和幅度的压缩数据,其中,每个采样点的采样时间点可以理解为采样点的采集时间戳,该采集时间戳可以是采集时标记的,也可以理解为采样点在所有采样点中的顺序编号等可以位移定位出采样点的信息,幅度的压缩数据可以理解为压缩语音数据中的采样点的幅度值。
进而,获取与每个采样点对应的幅度的原始数据,其中,幅度的原始数据可以是查询预设的数据库获取,该预设数据库中存储有采样点的标识信息(比如上述采样时间点)和幅度的原始数据的对应关系,基于该对应关系可以获取对应的幅度的原始数据,也可以是查询在预设的存储器中存储的与该压缩语音数据对应的原始语音数据,基于该原始语音数据来读取每个采样点的幅度的原始数据。
在获取到幅度的原始数据后,计算每个采样点的幅度的原始数据和幅度的压缩数据的比值,获取压缩倍数,即以任意一个采样点的幅度的原始数据和幅度的压缩数据的比值作为压缩倍数,或者是,获取多个采样点的幅度的原始数据和幅度的压缩数据的比值后,将多个采样点对应的多个比值的均值作为压缩倍数。
在本实施例中,计算相邻采样点的采样时间点的时间间隔,获取采样频率,在该实施例中,采样时间点即为采样点的时间戳,比如相邻采样点的时间间隔为a,则将a作为采样频率。
步骤103,根据压缩倍数对压缩语音数据解压缩,获取解压语音数据。
在本实施例中,对压缩语音数据进行逆变换,根据压缩倍数对压缩语音数据解压缩,获取解压语音数据,其中,对压缩语音数据进行解压缩的方式与语音数据压缩的方式对应,将会在下面实施例中涉及到如何对语音数据压缩的过程,说明如何进行解压缩。
步骤104,确定与下采样频率对应的上采样频率,并根据上采样频率对解压语音数据上采样,以获取与压缩语音数据对应的目标语音数据。
本实施例中,通过与压缩步骤执行逆变换的解压缩,实现对语音数据的听感还原,因此,计算下采样频率对应的上采样频率,其中,下采样频率和对应的上采样频率的乘积应当为1,以实现对语音数据的还原,比如,下采样频率为语音数据的采样频率的5倍,则上采样频率应当为采样频率的1/5倍。
在本实施例中,根据上采样频率对解压语音数据上采样,获取与压缩语音数据对应的目标语音数据。其中,目标语音数据可以理解为压缩之前的原始语音数据,目标语音数据获取后可以通过重播等方式,实现语音数据的追溯等场景需要,便于训练语音识别模型等。
由此,本实施例中的语音数据的获取方法,涉及到的压缩语音数据仅仅涉及道了压缩和下采样,压缩逻辑简单,算力降低,且实现了对语音数据的两次压缩,在不占用较多存储资源的基础上,由于算力简单,可以基于简单的解压缩处理进行听感还原,实用性高。
综上,本申请实施例的语音数据的获取方法,响应于语音还原指令,获取与语音还原指令对应的压缩语音数据,进而,获取与压缩语音数据对应的压缩倍数和下采样频率,根据压缩倍数对压缩语音数据解压缩,获取解压语音数据,最后,确定与下采样频率对应的上采样频率,并根据上采样频率对解压语音数据上采样,获取与压缩语音数据对应的目标语音数据。由此,实现了低算力的语音数据还原,便于对语音数据的追溯。
基于上述实施例,为了更清楚的说明语音数据的压缩逻辑,下面具体说明如何对获取到的语音数据进行压缩。其中,本实施例中的压缩执行主体可以是上述耳机等算力较低的设备,也可以是服务器等。
具体而言,在本申请的一个实施例中,如图2所示,在获取与语音还原指令对应的压缩语音数据之前,该语音数据的获取方法还包括:
步骤201,响应于采集到的语音数据,提取语音数据中属于预设频段的目标语音数据。
本实施例中的语音数据可以理解为,在语音识别场景下的蓝牙耳机采集的语音数据等,其中,该蓝牙耳机中的蓝牙芯片包括ARM-CortexM4控制器,从而,由于该控制器的算力较低,本实施例中,在对语音数据压缩时,压缩的逻辑简单,以保证该压缩方式的实用性。
其中,预设频段可以理解为通常语音控制信息所属的声音频带等。
当然,在实际执行过程中,获取的语音数据中会有直流分量,直流分量叠加在信号上,容易使放大器饱和,形成消头,无法完整放大信号,因此,在一些可能的示例中,在对语音数据进行预设片频段的提取之前,还对语音数据进行去直流处理。
在本实施例中,如图3所示,在获取到语音数据后,对语音数据进行两个分路的处理,一路是用来通过模型波束建模的方式来进行语音识别,基于语音识别技术领域中的有关技术来识别语音控制指令等,另一路是用来进行本实施例中的语音数据的压缩上传,其中,继续参照图3,语音识别分路中,需要采用高通滤波器对语音数据进行去直流处理后,对语音数据进行帧移为10ms、帧长为32ms的傅里叶变换,进而,对傅里叶变换后的频域信号进行能量求和进行能量分析,当该能量大于一定值等情况下,将频域信号进行模型波束处理,生成压缩特征后,将压缩特征输入预先训练的识别模型得到语音识别的识别结果,该分路主要在耳机等设备中的控制器中处理。
因此,在压缩分路上,为了不增大算力,复用上述语音识别分路中的去直流处理步骤,对语音数据进行去直流处理。
进一步的,可以根据低通滤波器来对语音数据滤波获取处理预设频段的目标语音数据,在一些可能的实施例中,获取与预设频段对应的第一滤波阶数和截止频率,其中,考虑到耳机等蓝牙设备中的控制器算力的问题,本实施例中的第一滤波阶数设置了上限制,若是第一滤波解释大于该上限制,则将第一滤波阶数确定为上限制。其中,可以根据大量实验数据训练得到深度模型,该深度学习模型基于深度学习领域中的深度学习技术,学习得到预设频段,与第一滤波阶数和截止频率的对应关系,将该预设频段输入对应的深度学习模型,即可得到对应的第一滤波阶数和截止频率。比如,当预设频段对应声音频段时,得到对应的第一滤波阶数为8,截止频率为1KHZ。
步骤202,根据下采样频率对目标语音数据下采样,获取下采样语音数据。
在本申请的一个实施例中,预先根据大量实验数据确定下采样相对于采样频率的最佳倍数,该最佳倍数是根据听音还原效果确定的,在本实施例中,根据听音还原效果确定的最佳倍数可以是5或者10,从而,可以根据采样频率的五倍或者是十倍作为下采样频率,比如,当最佳倍数为10倍,且采样频率为16HZ时,则可以将1600HZ作为下采样频率。
进而,根据下采样频率对目标语音数据下采样,获取下采样语音数据,此时实现了对语音数据的第一次压缩。
步骤203,根据预设的压缩策略对下采样语音数据压缩,获取压缩语音数据。
其中,本实施例中的预设的压缩策略可以理解为对语音数据的第二次压缩。
其中,为了降低压缩的算力,在本申请的一个实施例中,可以直接通过幅度值压缩的方式对下采样语音数据压缩。
在本实施例中,如图4所示,步骤根据预设的压缩策略对下采样语音数据压缩,获取压缩语音数据,包括:
步骤301,根据预设时长间隔将下采样语音数据划分为多个语音数据段。
即将预设时长间隔将下采样语音数据划分为多个语音数据段,其中,该预设时长间隔可以为10ms等,以便于针对每个语音数数据段进行压缩。
步骤302,在多个语音数据段中,确定与多个语音数据段中每个语音数据段对应的n个参考语音数据段,其中,n为大于等于1的自然数。
在一些可能的示例中,可以将每个语音数据段的相邻的前n个语音数据段作为参考语音数据段,比如,当n是1时,则将当前10ms的前10ms的语音数据段作为参考语音数据段。
在另一些可能的示例中,可以在每个语音数据段前的任意选择n个语音数据段作为参考语音数据段。
其中,当语音数据段为第一个语音数据段时,也可以将其相邻的历史n个语音数据段作为参考语音数据段。
步骤303,获取每个语音数据段和与每个语音数据段对应的n个参考语音数据段中包含的所有采样点的幅度值,根据所有采样点的幅度值确定基准幅度值。
应当理解的是,在本实施例中,获取参考语音数据段和当前的语音数据段的采样点的幅度值,确定对应的基准幅度值,以便于根据基准幅度值进行压缩。避免当前语音数据段中的幅度值突然变弱等,导致仅仅基于每个语音数据段中的幅度值进行压缩,导致语音数据失真等。
在一些可能的实施例中,获取每个语音数据段中所有采样点的第一幅度值,获取n个参考语音数据段中所有采样点的第二幅度值,进而,将第一幅度值和第二幅度值中的最大值,确定为基准幅度值。
在另一些可能的实施例中,获取每个语音数据段中所有采样点的第一幅度值,获取n个参考语音数据段中所有采样点的第二幅度值,获取第一幅度值中的第一最大值,获取第二幅度值中的第二最大值,将第一最大值和第二最大值的均值作为基准幅度值。
由此,本实施例中,结合参考语音数据段中的采样点的幅度值确定的基准幅度值更贴近真实的语音数据的波形,基于基准幅度值进行压缩的可操作性更强。
步骤304,根据预设的算法对基准幅度值和每个语音数据段中每个采样点的幅度值计算,获取与每个语音数据段中每个采样点的幅度的压缩数据。
在一些可能的实施例中,预设的算法为:可以计算每个采样点所占的内存大小b,进而,计算每个采样点的幅度值和基准幅度值的比值c,根据b和c的乘积值确定幅度的压缩数据。
在本实施例中,为了便于上述实施例中对压缩倍数的计算,还可以将幅度的压缩数据和对应的基准幅度值绑定存储。
举例而言,当采样频率为16HZ,预设时长间隔为10ms,则10mS是160频点,每个频点16bit,所以每个语音数据段所占内存共320Bytes,进而,在对每个语音数据段进行5倍下采样后,进而,对下采样后的下采样语音数据按照基准幅度值压缩后,将每个语音数据段的内存从320Bytes压缩为16Bytes,其中,对10mS的语音数据段的每个采样点的压缩,即可实现采样点由16bit到相应的4bit的4倍压缩,进行当将基准幅度值与压缩数据绑定存储后,若基准幅度值的内存为2Bytes,每个语音数据段的压缩倍数为17.77(320/(16+2))倍,当下采样为10倍下采样,则每个语音数据段的压缩倍数为32倍左右。
在另一些可能的示例中,直接计算每个采样点的幅度值与基准幅度值的差值,将每个采样点的幅度值与差值进行相减的计算结果作为幅度的压缩数据。
步骤305,根据幅度的压缩数据对每个语音数据段中每个采样点压缩,生成下采样语音数据压缩。
在本实施例中,将每个语音数据段中每个采样点的幅度值调整为对应的幅度的压缩数据,即可实现对采样语音的数据压缩。该压缩逻辑仅仅用到了一个滤波器,且算法逻辑简单,算力较低。
基于此,为了进一步降低对接受语音数据的设备的算力的需求,在获取到压缩语音数据后,将压缩语音数据上传到预设的服务器,在预设的服务器中,进行后续的解压操作,其中,解压操作由于在服务器中等算力较强的设备上,因此,在听音还原时,在获取到上采样的语音数据后,还可以对上采样语音数据输入到第二低通滤波器获取目标语音数据,其中,当在预设的服务器等算力较高的设备中解压时,则第二低通滤波器的第二滤波阶数可以大于第一滤波阶数,第二低通滤波器的截止频率与第一低通滤波器的截止频率相同,其中,第二低通滤波器的介质频率与第一低通滤波器的截止频率相同,但是第二滤波阶数可以远远大于第一滤波阶数,由此,保证了听音还原的质量,当然,当解压是在蓝牙耳机等算力较低的设备,则第二低通滤波器的第二滤波阶数可以等于甚至小于第一滤波阶数,兼顾听音还原质量和算力
综上,本申请实施例的语音数据的获取方法,一方面,压缩逻辑简单,压缩过程算力要求低,实用性较强,另一方面,进行了两次压缩,大大降低了压缩语音数据的内存占用量,更加便于算力较低的设备执行该数据获取方法。
为了实现上述实施例,本申请还提出了一种语音数据的获取装置。图5是根据本申请一个实施例的语音数据的获取装置的结构示意图,如图5所示,该语音数据的获取装置包括:第一获取模块10、第二获取模块20、第三获取模块30、第四获取模块40,其中,
第一获取模块10,用于响应于语音还原指令,获取与语音还原指令对应的压缩语音数据;
第二获取模块20,用于获取与压缩语音数据对应的压缩倍数和下采样频率;
第三获取模块30,用于根据压缩倍数对压缩语音数据解压缩,获取解压语音数据;
第四获取模块40,用于确定与下采样频率对应的上采样频率,并根据上采样频率对解压语音数据上采样,以获取与压缩语音数据对应的目标语音数据。
在本申请的一个实施例中,第二获取模块20,具体用于:
提取压缩语音数据中每个采样点的采样时间点和幅度的压缩数据;
获取与每个采样点的幅度的原始数据;
计算每个采样点的幅度的原始数据和幅度的压缩数据的比值,获取压缩倍数;
计算相邻采样点的采样时间点的时间间隔,获取采样频率。
需要说明的是,前述对方法实施例的解释说明,也适用于本申请实施例的装置,其实现原理类似,在此不再赘述。
综上,本申请实施例的语音数据的获取装置,响应于语音还原指令,获取与语音还原指令对应的压缩语音数据,进而,获取与压缩语音数据对应的压缩倍数和下采样频率,根据压缩倍数对压缩语音数据解压缩,获取解压语音数据,最后,确定与下采样频率对应的上采样频率,并根据上采样频率对解压语音数据上采样,获取与压缩语音数据对应的目标语音数据。由此,实现了低算力的语音数据还原,便于对语音数据的追溯。
基于上述实施例,为了更清楚的说明语音数据的压缩逻辑,下面具体说明如何对获取到的语音数据进行压缩。
在本申请的一个实施例中,如图6所示,在如图5所示的基础上,该装置还包括:提取模块50、第五获取模块60、第六获取模块70,其中,
提取模块50,用于响应于采集到的语音数据,提取语音数据中属于预设频段的目标语音数据;
第五获取模块60,用于根据下采样频率对目标语音数据下采样,获取下采样语音数据;
第六获取模块70,用于根据预设的压缩策略对下采样语音数据压缩,获取压缩语音数据。
在一些可能的实施例中,提取模块50,具体用于:
获取与预设频段对应的第一滤波阶数和截止频率;
根据第一滤波阶数和截止频率设置第一低通滤波器,并根据第一低通滤波器对语音数据滤波获取目标语音数据。
在一些可能的实施例中,如图7所示,在如图6所示的基础上,提取模块50包括:划分单元51、第一确定单元52、第二确定单元53、获取单元54和生成单元55,其中,
划分单元51,用于根据预设时长间隔将下采样语音数据划分为多个语音数据段;
第一确定单元52,用于在多个语音数据段中,确定与多个语音数据段中每个语音数据段对应的n个参考语音数据段,其中,n为大于等于1的自然数;
第二确定单元53,用于获取每个语音数据段和与每个语音数据段对应的n个参考语音数据段中包含的所有采样点的幅度值,根据所有采样点的幅度值确定基准幅度值;
获取单元54,用于根据预设的算法对基准幅度值和每个语音数据段中每个采样点的幅度值计算,获取与每个语音数据段中每个采样点的幅度的压缩数据;
生成单元55,用于根据幅度的压缩数据对每个语音数据段中每个采样点压缩,生成下采样语音数据压缩。
在本申请的一个实施例中,第二确定单元53,具体用于:
获取每个语音数据段中所有采样点的第一幅度值;
获取n个参考语音数据段中所有采样点的第二幅度值;
将第一幅度值和第二幅度值中的最大值,确定为基准幅度值。
在本申请的一个实施例中,第四获取模块40,具体用于:
将上采样后的语音数据输入第二低通滤波器获取目标语音数据,其中,第二低通滤波器的截止频率与第一低通滤波器的截止频率相同。
需要说明的是,前述对方法实施例的解释说明,也适用于本申请实施例的装置,其实现原理类似,在此不再赘述。
综上,本申请实施例的语音数据的获取装置,一方面,压缩逻辑简单,压缩过程算力要求低,实用性较强,另一方面,进行了两次压缩,大大降低了压缩语音数据的内存占用量,更加便于算力较低的设备执行该数据获取方法。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例的语音数据的获取的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音数据的获取的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音数据的获取的方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音数据的获取的方法对应的程序指令/模块(例如,附图5所示的第一获取模块10、第二获取模块20、第三获取模块30、第四获取模块40)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音数据的获取的方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语音数据的获取的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至语音数据的获取的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
语音数据的获取的方法的电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与语音数据的获取的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种语音数据的获取方法,所述方法的执行主体为具有蓝牙芯片的语音数据获取设备,包括:
响应于语音还原指令,获取与所述语音还原指令对应的压缩语音数据;
获取与所述压缩语音数据对应的压缩倍数和下采样频率;
根据所述压缩倍数对所述压缩语音数据解压缩,获取解压语音数据;
确定与所述下采样频率对应的上采样频率,并根据所述上采样频率对所述解压语音数据上采样,以获取与所述压缩语音数据对应的目标语音数据;
在所述获取与所述语音还原指令对应的压缩语音数据之前,还包括:
响应于采集到的语音数据,提取所述语音数据中属于预设频段的所述目标语音数据;
根据所述下采样频率对所述目标语音数据下采样,获取下采样语音数据;
根据预设的压缩策略对所述下采样语音数据压缩,获取所述压缩语音数据;
其中,所述根据预设的压缩策略对所述下采样语音数据压缩,获取所述压缩语音数据,包括:
根据预设时长间隔将所述下采样语音数据划分为多个语音数据段;
在所述多个语音数据段中,确定与所述多个语音数据段中每个语音数据段对应的n个参考语音数据段,其中,n为大于等于1的自然数;
获取所述每个语音数据段和与所述每个语音数据段对应的n个参考语音数据段中包含的所有采样点的幅度值,根据所述所有采样点的幅度值确定基准幅度值;
根据预设的算法对所述基准幅度值和所述每个语音数据段中每个采样点的幅度值计算,获取与所述每个语音数据段中每个采样点的幅度的压缩数据;
根据所述幅度的压缩数据对所述每个语音数据段中每个采样点压缩,生成所述下采样语音数据压缩。
2.如权利要求1所述的方法,其中,所述获取与所述压缩语音数据对应的压缩倍数和下采样频率,包括:
提取所述压缩语音数据中每个采样点的采样时间点和幅度的压缩数据;
获取与所述每个采样点的幅度的原始数据;
计算所述每个采样点的所述幅度的原始数据和所述幅度的压缩数据的比值,获取所述压缩倍数;
计算相邻采样点的采样时间点的时间间隔,获取所述采样频率。
3.如权利要求1所述的方法,所述提取所述语音数据中属于预设频段的所述目标语音数据,包括:
获取与所述预设频段对应的第一滤波阶数和截止频率;
根据所述第一滤波阶数和所述截止频率设置第一低通滤波器,并根据所述第一低通滤波器对所述语音数据滤波获取所述目标语音数据。
4.如权利要求1所述的方法,其中,所述根据所述所有采样点的幅度值确定基准幅度值,包括:
获取所述每个语音数据段中所有采样点的第一幅度值;
获取所述n个参考语音数据段中所有采样点的第二幅度值;
将所述第一幅度值和所述第二幅度值中的最大值,确定为所述基准幅度值。
5.如权利要求3所述的方法,其中,所述获取与所述压缩语音数据对应的目标语音数据,包括:
将所述上采样后的语音数据输入第二低通滤波器获取所述目标语音数据,所述第二低通滤波器的截止频率与所述第一低通滤波器的截止频率相同。
6.一种语音数据的获取装置,所述装置是具有蓝牙芯片的语音数据获取设备,包括:
第一获取模块,用于响应于语音还原指令,获取与所述语音还原指令对应的压缩语音数据;
第二获取模块,用于获取与所述压缩语音数据对应的压缩倍数和下采样频率;
第三获取模块,用于根据所述压缩倍数对所述压缩语音数据解压缩,获取解压语音数据;
第四获取模块,用于确定与所述下采样频率对应的上采样频率,并根据所述上采样频率对所述解压语音数据上采样,以获取与所述压缩语音数据对应的目标语音数据;
所述装置,还包括:
提取模块,用于响应于采集到的语音数据,提取所述语音数据中属于预设频段的所述目标语音数据;
第五获取模块,用于根据所述下采样频率对所述目标语音数据下采样,获取下采样语音数据;
第六获取模块,用于根据预设的压缩策略对所述下采样语音数据压缩,获取所述压缩语音数据;
其中,所述提取模块,包括:
划分单元,用于根据预设时长间隔将所述下采样语音数据划分为多个语音数据段;
第一确定单元,用于在所述多个语音数据段中,确定与所述多个语音数据段中每个语音数据段对应的n个参考语音数据段,其中,n为大于等于1的自然数;
第二确定单元,用于获取所述每个语音数据段和与所述每个语音数据段对应的n个参考语音数据段中包含的所有采样点的幅度值,根据所述所有采样点的幅度值确定基准幅度值;
获取单元,用于根据预设的算法对所述基准幅度值和所述每个语音数据段中每个采样点的幅度值计算,获取与所述每个语音数据段中每个采样点的幅度的压缩数据;
生成单元,用于根据所述幅度的压缩数据对所述每个语音数据段中每个采样点压缩,生成所述下采样语音数据压缩。
7.如权利要求6所述的装置,其中,所述第二获取模块,具体用于:
提取所述压缩语音数据中每个采样点的采样时间点和幅度的压缩数据;
获取与所述每个采样点的幅度的原始数据;
计算所述每个采样点的所述幅度的原始数据和所述幅度的压缩数据的比值,获取所述压缩倍数;
计算相邻采样点的采样时间点的时间间隔,获取所述采样频率。
8.如权利要求6所述的装置,其中,所述提取模块,具体用于:
获取与所述预设频段对应的第一滤波阶数和截止频率;
根据所述第一滤波阶数和所述截止频率设置第一低通滤波器,并根据所述第一低通滤波器对所述语音数据滤波获取所述目标语音数据。
9.如权利要求6所述的装置,其中,所述第二确定单元,具体用于:
获取所述每个语音数据段中所有采样点的第一幅度值;
获取所述n个参考语音数据段中所有采样点的第二幅度值;
将所述第一幅度值和所述第二幅度值中的最大值,确定为所述基准幅度值。
10.如权利要求8所述的装置,其中,所述第四获取模块,具体用于:
将所述上采样后的语音数据输入第二低通滤波器获取所述目标语音数据,
其中,所述第二低通滤波器的截止频率与所述第一低通滤波器的截止频率相同。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的语音数据的获取方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的语音数据的获取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010791234.8A CN112037781B (zh) | 2020-08-07 | 2020-08-07 | 语音数据的获取方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010791234.8A CN112037781B (zh) | 2020-08-07 | 2020-08-07 | 语音数据的获取方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112037781A CN112037781A (zh) | 2020-12-04 |
CN112037781B true CN112037781B (zh) | 2024-01-19 |
Family
ID=73582882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010791234.8A Active CN112037781B (zh) | 2020-08-07 | 2020-08-07 | 语音数据的获取方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112037781B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838477B (zh) * | 2021-09-13 | 2024-08-02 | 上海兆言网络科技有限公司 | 音频数据包的丢包恢复方法、装置、电子设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000003191A (ja) * | 1998-06-16 | 2000-01-07 | Nippon Steel Corp | 音声圧縮伸長装置および記録媒体 |
JP2005057439A (ja) * | 2003-08-01 | 2005-03-03 | Akuseru:Kk | 帯域分割型符号化・復号化方法、及びその方法に用いる復号化装置 |
JP2006119524A (ja) * | 2004-10-25 | 2006-05-11 | Alpine Electronics Inc | 音声再生機および音声再生方法 |
CN1964490A (zh) * | 2005-11-09 | 2007-05-16 | 松下电器产业株式会社 | 一种滤波器及滤波方法 |
CN101138021A (zh) * | 2005-03-14 | 2008-03-05 | 韩国电子通信研究院 | 使用虚拟源位置信息的多声道音频压缩和解压缩方法 |
RU2343563C1 (ru) * | 2007-05-21 | 2009-01-10 | Федеральное государственное унитарное предприятие "ПЕНЗЕНСКИЙ НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЙ ЭЛЕКТРОТЕХНИЧЕСКИЙ ИНСТИТУТ" (ФГУП "ПНИЭИ") | Способ передачи и приема закодированной речи |
CN102790671A (zh) * | 2012-07-20 | 2012-11-21 | 合肥工业大学 | 一种基于ZigBee技术的无线全双工实时语音传输装置和方法 |
CN104170008A (zh) * | 2012-03-15 | 2014-11-26 | 瑞典爱立信有限公司 | 用减少的带宽传送数据样本的方法 |
CN105228069A (zh) * | 2015-09-28 | 2016-01-06 | 南京工程学院 | 一种基于声压级分段的数字助听器宽动态压缩方法 |
CN109769255A (zh) * | 2018-12-21 | 2019-05-17 | 京信通信系统(中国)有限公司 | 数据压缩方法、装置、计算机设备和存储介质 |
CN109889846A (zh) * | 2019-01-16 | 2019-06-14 | 武汉精立电子技术有限公司 | 一种De-Mura表数据的压缩与解压方法、装置及编解码系统 |
-
2020
- 2020-08-07 CN CN202010791234.8A patent/CN112037781B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000003191A (ja) * | 1998-06-16 | 2000-01-07 | Nippon Steel Corp | 音声圧縮伸長装置および記録媒体 |
JP2005057439A (ja) * | 2003-08-01 | 2005-03-03 | Akuseru:Kk | 帯域分割型符号化・復号化方法、及びその方法に用いる復号化装置 |
JP2006119524A (ja) * | 2004-10-25 | 2006-05-11 | Alpine Electronics Inc | 音声再生機および音声再生方法 |
CN101138021A (zh) * | 2005-03-14 | 2008-03-05 | 韩国电子通信研究院 | 使用虚拟源位置信息的多声道音频压缩和解压缩方法 |
CN1964490A (zh) * | 2005-11-09 | 2007-05-16 | 松下电器产业株式会社 | 一种滤波器及滤波方法 |
RU2343563C1 (ru) * | 2007-05-21 | 2009-01-10 | Федеральное государственное унитарное предприятие "ПЕНЗЕНСКИЙ НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЙ ЭЛЕКТРОТЕХНИЧЕСКИЙ ИНСТИТУТ" (ФГУП "ПНИЭИ") | Способ передачи и приема закодированной речи |
CN104170008A (zh) * | 2012-03-15 | 2014-11-26 | 瑞典爱立信有限公司 | 用减少的带宽传送数据样本的方法 |
CN102790671A (zh) * | 2012-07-20 | 2012-11-21 | 合肥工业大学 | 一种基于ZigBee技术的无线全双工实时语音传输装置和方法 |
CN105228069A (zh) * | 2015-09-28 | 2016-01-06 | 南京工程学院 | 一种基于声压级分段的数字助听器宽动态压缩方法 |
CN109769255A (zh) * | 2018-12-21 | 2019-05-17 | 京信通信系统(中国)有限公司 | 数据压缩方法、装置、计算机设备和存储介质 |
CN109889846A (zh) * | 2019-01-16 | 2019-06-14 | 武汉精立电子技术有限公司 | 一种De-Mura表数据的压缩与解压方法、装置及编解码系统 |
Non-Patent Citations (1)
Title |
---|
联合深度编解码网络和时频掩蔽估计的单通道语音增强;时文华等;声学学报;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112037781A (zh) | 2020-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112466275B (zh) | 语音转换及相应的模型训练方法、装置、设备及存储介质 | |
CN112382271B (zh) | 语音处理方法、装置、电子设备和存储介质 | |
CN111177453B (zh) | 控制音频播放的方法、装置、设备及计算机可读存储介质 | |
CN112382294B (zh) | 语音识别方法、装置、电子设备和存储介质 | |
CN103915092A (zh) | 语音识别方法和装置 | |
CN110888926B (zh) | 医疗文本结构化的方法以及装置 | |
CN113407850B (zh) | 一种虚拟形象的确定和获取方法、装置以及电子设备 | |
CN111031373A (zh) | 视频播放方法、装置、电子设备及计算机可读存储介质 | |
CN111832701A (zh) | 模型的蒸馏方法、装置、电子设备及存储介质 | |
EP3836141A2 (en) | Method and apparatus for extracting video clip | |
CN112037781B (zh) | 语音数据的获取方法和装置 | |
CN111753147A (zh) | 相似度处理方法、装置、服务器及存储介质 | |
CN113724398A (zh) | 增强现实方法、装置、设备以及存储介质 | |
CN116935287A (zh) | 视频理解方法和装置 | |
CN110310361B (zh) | 建筑模型实时传输方法、存储介质、设备及系统 | |
CN112466328B (zh) | 呼吸音检测方法、装置和电子设备 | |
CN111178137A (zh) | 检测真实人脸方法、装置、电子设备以及计算机可读存储介质 | |
CN112133328B (zh) | 音频数据的测评信息生成方法和装置 | |
CN112382292A (zh) | 基于语音的控制方法和装置 | |
CN112581933A (zh) | 语音合成模型获取方法、装置、电子设备及存储介质 | |
CN110477866B (zh) | 检测睡眠质量的方法、装置、电子设备和存储介质 | |
CN112562708B (zh) | 非线性回声消除方法、装置、电子设备及存储介质 | |
CN112114886B (zh) | 误唤醒音频的获取方法和装置 | |
CN111708674A (zh) | 用于确定重点学习内容的方法、装置、设备及存储介质 | |
CN114221940A (zh) | 音频数据处理方法、系统、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |