CN112509569B - 语音数据的处理方法、装置、电子设备及存储介质 - Google Patents
语音数据的处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112509569B CN112509569B CN202011328848.9A CN202011328848A CN112509569B CN 112509569 B CN112509569 B CN 112509569B CN 202011328848 A CN202011328848 A CN 202011328848A CN 112509569 B CN112509569 B CN 112509569B
- Authority
- CN
- China
- Prior art keywords
- voice data
- target
- voice
- data
- language type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
Abstract
本申请公开了语音数据的处理方法、装置、电子设备及存储介质,涉及计算机技术领域,具体涉及语音识别、自然语言处理、深度学习等人工智能技术领域。具体实现方案为:接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据;确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息;根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据;采用与目标语音数据对应的语音数据处理引擎处理目标语音数据,能够实现从不同蓝牙耳机采集的语音数据之中提取出有效的语音数据,从而有效地过滤了环境噪音和质量较差的语音数据,并且能够有效丰富了蓝牙耳机的应用场景。
Description
技术领域
本申请涉及计算机技术领域,具体涉及语音识别、自然语言处理、深度学习等人工智能技术领域,尤其涉及语音数据的处理方法、装置、电子设备及存储介质。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
随着科技的发展,耳机已经成为人们生活中必不可少的一部分,大部分耳机通常具备听歌、打电话的功能。
发明内容
提供了一种语音数据的处理方法、装置、电子设备及存储介质。
根据第一方面,提供了一种语音数据的处理方法,包括:接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据;确定与所述第一语音数据对应的第一能量信息,并确定与所述第二语音数据对应的第二能量信息;根据所述第一能量信息和所述第二能量信息,从所述第一语音数据或者所述第二语音数据之中提取出目标语音数据;采用与所述目标语音数据对应的语音数据处理引擎处理所述目标语音数据。
根据第二方面,提供了一种语音数据的处理装置,包括:接收模块,用于接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据;确定模块,用于确定与所述第一语音数据对应的第一能量信息,并确定与所述第二语音数据对应的第二能量信息;提取模块,用于根据所述第一能量信息和所述第二能量信息,从所述第一语音数据或者所述第二语音数据之中提取出目标语音数据;处理模块,用于采用与所述目标语音数据对应的语音数据处理引擎处理所述目标语音数据。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请实施例的语音数据的处理方法。
根据第四方面,提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请实施例公开的语音数据的处理方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3为本申请实施例中的应用示意图;
图4是根据本申请第三实施例的示意图;
图5是根据本申请第四实施例的示意图;
图6是用来实现本申请实施例的语音数据的处理方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的示意图。
其中,需要说明的是,本实施例的语音数据的处理方法的执行主体为语音数据的处理装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
本申请实施例涉及语音识别、自然语言处理、深度学习等人工智能技术领域。
其中,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
自然语言处理,能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
而语音识别,则是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术,语音识别技术主要包括特征提取技术、模式匹配准则及模型训练技术三个方面。
如图1所示,该语音数据的处理方法包括:
S101:接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据。
针对本申请实施例的应用场景可以举例说明如下:
假设用户A和用户B具有同声传译的使用需求,则用户A可以和用户B分别佩戴一只蓝牙耳机,则用户A的蓝牙耳机,可以被称为第一蓝牙耳机,用户B的蓝牙耳机,可以被称为第二蓝牙耳机,而预先可以分别建立第一蓝牙耳机和第二蓝牙耳机与电子设备之间的蓝牙连接,从而可以支持由一个电子设备同时处理两路蓝牙耳机捕获的语音数据。
当分别建立第一蓝牙耳机和第二蓝牙耳机与电子设备之间的蓝牙连接之后,可以由第一蓝牙耳机和第二蓝牙耳机分别捕获相应的语音数据,可以理解的是,蓝牙耳机捕获的语音数据可以是环境声音数据,也可以是佩戴其的用户(A或者B)说话的语音数据。
本申请实施例正是支持在上述应用场景中,由一个电子设备对两路蓝牙耳机的语音数据进行识别处理,上述的第一蓝牙耳机捕获的语音数据,可以被称为第一语音数据,第二蓝牙耳机捕获的语音数据,可以被称为第二语音数据,也即是说,当第一蓝牙耳机和第二蓝牙耳机分别捕获各自的语音数据之后,可以实时地将第一语音数据和第二语音数据传输至电子设备,则由电子设备基于预先建立的蓝牙连接链路,接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据。
S102:确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息。
上述电子设备基于预先建立的蓝牙连接链路,接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据之后,可以即时地触发对第一语音数据和第二语音数据进行解析识别,以从中提取出目标语音数据,其中,捕获的两路语音数据之中的有效语音数据(即非环境噪音和非质量较差的语音数据)可以被称为目标语音数据。
本申请实施例中,为了保障所提取目标语音数据的完整性和准确性,可以确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息。
其中,能量信息,能够用于描述一段语音数据对应的能量情况,比如能量值大小,能量强度值,短时能量分布等等。
与第一语音数据对应的能量信息可以被称为第一能量信息,与第二语音数据对应的能量信息可以被称为第二能量信息。
上述电子设备可以对第一语音数据进行能量解析,从而得到第一能量信息,对第二语音数据进行能量解析,从而得到第二能量信息。
举例而言,当两个用户佩戴好蓝牙耳机,并点击电子设备的屏幕上的开始按钮后,电子设备内置的语音识别类的SDK(Software DevelopmentKit,软件开发工具包)可以同时读取左右两路蓝牙耳机传输的语音数据,同时开启计时器,每隔20毫秒读取一次数据,一次可以读取68个字节,而后,可以从后4位字节的语音数据中解析出能量值,并将解析出的能量值作为相应的能量信息,对此不做限制。
S103:根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据。
上述在确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息之后,可以根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据。
可选地,一些实施例中,根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据,可以是将第一语音数据和第二语音数据之中能量信息较大的语音数据作为初始目标语音数据;从初始目标语音数据之中确定出语音起点和语音尾点;从初始目标语音数据之中提取出目标语音数据,目标语音数据的起点是语音起点,目标语音数据的尾点是语音尾点。
举例而言,由于目标语音数据,是捕获的两路语音数据之中的有效语音数据(即非环境噪音和非质量较差的语音数据),并且由于当用户佩戴蓝牙耳机时,蓝牙耳机较为接近用户的唇部,则通常有效语音数据的能量值较环境噪音的能量值大,则可以将第一语音数据和第二语音数据之中能量信息较大的语音数据作为初始目标语音数据(该初始目标语音数据可以是第一语音数据或者第二语音数据),该初始目标语音之中即包含了目标语音数据。
上述在确定了初始目标语音数据后,可以直接从初始目标语音数据之中提取出目标语音数据,比如初始目标语音数据之中可能包含了用户的喘气声、咳嗽声等等,则本申请中支持首先确定初始目标语音数据,进而从初始目标语音数据之中提取出目标语音数据,能够有效提升有效数据识别的准确性,降低不必要的语音数据处理资源消耗,并且提升语音数据处理的时效性。
比如,上述确定的初始目标语音数据之后,由于初始目标语音数据的后4位字节携带了能量值,则可以将前64位字节的语音数据作为目标语音数据。
具体例如,电子设备之中可以预先配置一个信号库,从而采用该信号库根据两路语音数据的能量值的大小,来检测用户的说话起点,并输出返回值ret,其中若两路语音数据ret=0,说明当前是静音状态,两个用户均未开口说话;若其中一路语音数据的返回值ret>0,说明当前有一个用户在说话;若两路语音数据的返回值ret>0,说明两个用户同时在说话,在检测到语音起点后(ret>0),后面又检测到ret=0,说明此时检测到了语音尾点,从而将语音起点和语音尾点之间的语音数据作为目标语音数据。
当然,也可以采用其它任意可能的方式来从第一语音数据或者第二语音数据之中提取出目标语音数据,比如模型的方式,数学的方式等等,对此不做限制。
S104:采用与目标语音数据对应的语音数据处理引擎处理目标语音数据。
上述在从第一语音数据或者第二语音数据之中提取出目标语音数据之后,可以采用与目标语音数据对应的语音数据处理引擎处理目标语音数据。
也即是说,本申请实施例中的电子设备可以配置多个语音数据处理引擎,不同的语音数据处理引擎配置不同的处理功能,比如翻译的功能、导航的功能、智能问答的功能、文本转换的功能、文档生成的功能等等。
从而支持调用语音数据处理功能,来对目标语音数据进行相应功能的处理,比如对目标语音数据进行翻译、根据目标语音数据进行导航、与目标语音数据进行交互,或者将目标语音数据转换为对应的文本,将目标语音数据处理为文档,使得该文档中包含目标语音数据的语义摘要等等,对此不做限制。
比如,当实现翻译的功能时,可以是对目标语音数据进行语言解析,确定与目标语音数据对应的第一语言类型,并采用第一语言类型对应的语音数据处理引擎,将目标语音数据转换为第二语言类型的语音数据,第一语言类型和第二语言类型不相同。
另外一些实施例中,还可以响应于语音记录请求,确定与语音记录请求对应的语音数据记录引擎;采用语音数据记录引擎对目标语音数据进行文本转换,得到目标文本,从而实现文本转换的功能,进一步丰富了蓝牙耳机的应用场景,提升用户的使用黏性。
也即是说,本申请实施例支持针对电子设备配置语音记录触发控件,从而可以基于该语音记录触发控件接收用户输入的语音记录请求,并控制电子设备响应于语音记录请求,采用语音数据记录引擎对目标语音数据进行文本转换,得到目标文本,实现会议记录。
另外一些实施例中,还可以响应于语音导航请求,确定与语音导航请求对应的语音导航引擎;采用语音导航引擎解析目标语音数据得到导航意图,并采用语音导航引擎获取与导航意图对应的导航信息,从而实现语音导航的功能,有效地丰富了蓝牙耳机的应用场景,提升用户使用体验度。
也即是说,本申请实施例支持针对电子设备配置语音导航触发控件,从而可以基于该语音导航触发控件接收用户输入的语音导航请求,并控制电子设备响应于语音导航请求,采用语音导航引擎解析目标语音数据得到导航意图,并采用语音导航引擎与定位模块进行交互,以获取与导航意图对应的导航信息,对此不做限制。
本实施例中,通过接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据,并确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息,根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据,以及采用与目标语音数据对应的语音数据处理引擎处理目标语音数据,能够实现从不同蓝牙耳机采集的语音数据之中提取出有效的语音数据,从而有效地过滤了环境噪音和质量较差的语音数据,并且能够有效丰富了蓝牙耳机的应用场景。
图2是根据本申请第二实施例的示意图。
如图2所示,该语音数据的处理方法包括:
S201:接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据。
S202:确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息。
S203:根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据。
S201-S203的说明可以参见上述实施例,在此不再赘述。
S204:对目标语音数据进行语言解析,确定与目标语音数据对应的第一语言类型。
上述在从第一语音数据或者第二语音数据之中提取出目标语音数据之后,可以对目标语音数据进行对齐处理,以进一步保障语音数据提取的准确性。
比如,在信号库输出哪路蓝牙耳机所属用户在说话时,SDK将这目标语音数据传输至对应的语音数据处理引擎,而在传输至语音数据处理引擎之前,可以对目标语音数据进行对齐处理,是考虑到信号库在检测时可能消耗一段时间,如果从检测到起点的目标语音数据开始传输至语音数据处理引擎,可能会存在目标语音数据的头部数据丢失的问题,从而本申请实施例中,在信号库检测到语音起点后,可以从本地保存的初始目标语音数据之中回溯(ret-1)包数据,从这包数据开始将目标语音数据传输至语音数据处理引擎。
S205:将对端的蓝牙耳机捕获的语音数据对应的语言类型,作为第二语言类型,其中,当目标语音数据是从第一语音数据之中提取得到时,对端的蓝牙耳机是第二蓝牙耳机,当目标语音数据是从第二语音数据之中提取得到时,对端的蓝牙耳机是第一蓝牙耳机。
其中,语言类型比如英文、中文、日文、德文等等。
本实施例中,将对端的蓝牙耳机捕获的语音数据对应的语言类型,作为第二语言类型,从而辅助后续采用对端的蓝牙耳机捕获的语音数据的第二语言类型作为翻译标准,将目标语音数据的第一语言类型翻译为第二语言类型,从而实现翻译交互的智能性,实现同声传译。
S206:采用第一语言类型对应的语音数据处理引擎,将目标语音数据转换为第二语言类型的语音数据,第一语言类型和第二语言类型不相同。
也即是说,本申请实施例中,不同的语言类型对应的语音数据处理引擎不相同,比如语音数据处理引擎1用于对英文的语音数据进行翻译,语音数据处理引擎2用于对中文的语音数据进行翻译,等等。
则本申请实施例中,支持采用与目标语音数据对应的第一语言类型的语音数据处理引擎,将目标语音数据转换为第二语言类型的语音数据,从而实现翻译交互的智能性。
在具体执行的过程中,可以直接由电子设备在本地执行实时翻译的过程,也可以由电子设备将目标语音数据实时地传输至云服务器,由云服务器来进行实时地语音翻译。
举例而言,在信号库检测到语音起点的同时,可以出发建立上行和下行连接,上行连接用于SDK向云服务器传递语音数据,比如可以TLV数据传输格式(TLV是tag(数据类型),length(数据长度)和value(数据值)的缩写)传递目标语音数据,即第一个字节为目标语音数据的类型、第2到5个字节存储的是目标语音数据的长度,从第六个字节开始存储目标语音数据,下行连接用于接受云服务器下发的结果,也可以是TLV数据传输格式,连接建立成功后,先发一个参数包给云服务器,即将识别所需的参数进行压缩后上传至云服务器,根据信号库检测的语音起点和语音尾点分别向云服务器传入目标语音数据,以触发云服务器根据SDK所发送的目标语音数据,下发翻译的结果。
S207:将第二语言类型的语音数据发送至对端的蓝牙耳机,以触发对端的蓝牙耳机播放第二语言类型的语音数据。
上述在采用第一语言类型对应的语音数据处理引擎,将目标语音数据转换为第二语言类型的语音数据之后,可以实时地将第二语言类型的语音数据发送至对端的蓝牙耳机,以触发对端的蓝牙耳机播放第二语言类型的语音数据,从而实现了同声传译。
参见图3,图3为本申请实施例中的应用示意图,比如电子设备中可以配置两个语音数据处理引擎,不同的语音数据处理引擎对应处理不同的蓝牙耳机采集到的语音数据,比如与第一蓝牙耳机对应的语音处理引擎可以将第一蓝牙耳机采集的语音数据的语言类型处理为第二蓝牙耳机所采集语音数据的语言类型,而与第二蓝牙耳机对应的语音处理引擎可以将第二蓝牙耳机采集的语音数据的语言类型处理为第一蓝牙耳机所采集语音数据的语言类型,在处理完成之后,与第一蓝牙耳机对应的语音处理引擎将处理的结果传输至第二蓝牙耳机,以触发第二蓝牙耳机进行播放,与第二蓝牙耳机对应的语音处理引擎将处理的结果传输至第一蓝牙耳机,以触发第一蓝牙耳机进行播放。
本实施例中,通过接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据,确定与第一语音数据对应的第一能量信息,确定与第二语音数据对应的第二能量信息,根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据,对目标语音数据进行语言解析,确定与目标语音数据对应的第一语言类型,以及采用第一语言类型对应的语音数据处理引擎,将目标语音数据转换为第二语言类型的语音数据,第一语言类型和第二语言类型不相同,将第二语言类型的语音数据发送至对端的蓝牙耳机,以触发对端的蓝牙耳机播放第二语言类型的语音数据,能够实现从不同蓝牙耳机采集的语音数据之中提取出有效的语音数据,从而有效地过滤了环境噪音和质量较差的语音数据,并且能够实现获取任一个蓝牙耳机采集的语音数据,并基于对端的蓝牙耳机采集的语音数据的语言类型对所获取的语音数据进行翻译,可以提高翻译交互的智能性,方便用户携带,且可以实现同声传译。
图4是根据本申请第三实施例的示意图。
如图4所示,该语音数据的处理装置40,包括:
接收模块401,用于接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据;
确定模块402,用于确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息;
提取模块403,用于根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据;
处理模块404,用于采用与目标语音数据对应的语音数据处理引擎处理目标语音数据。
在本申请的一些实施例中,其中,处理模块404,具体用于:
对目标语音数据进行语言解析,确定与目标语音数据对应的第一语言类型;
采用第一语言类型对应的语音数据处理引擎,将目标语音数据转换为第二语言类型的语音数据,第一语言类型和第二语言类型不相同。
在本申请的一些实施例中,参见图5,图5是根据本申请第四实施例的示意图,图5中,该语音数据的处理装置50,包括:接收模块501、确定模块502、提取模块503,以及处理模块504,还包括:
获取模块505,用于将对端的蓝牙耳机捕获的语音数据对应的语言类型,作为第二语言类型,其中,当目标语音数据是从第一语音数据之中提取得到时,对端的蓝牙耳机是第二蓝牙耳机,当目标语音数据是从第二语音数据之中提取得到时,对端的蓝牙耳机是第一蓝牙耳机。
在本申请的一些实施例中,参见图5,还包括:
发送模块506,用于在采用第一语言类型对应的语音数据处理引擎,将目标语音数据转换为第二语言类型的语音数据后,将第二语言类型的语音数据发送至对端的蓝牙耳机,以触发对端的蓝牙耳机播放第二语言类型的语音数据。
在本申请的一些实施例中,其中,处理模块504,还用于:
响应于语音记录请求,确定与语音记录请求对应的语音数据记录引擎;
采用语音数据记录引擎对目标语音数据进行文本转换,得到目标文本。
在本申请的一些实施例中,其中,处理模块504,进一步用于:
响应于语音导航请求,确定与语音导航请求对应的语音导航引擎;
采用语音导航引擎解析目标语音数据得到导航意图,并采用语音导航引擎获取与导航意图对应的导航信息。
在本申请的一些实施例中,其中,提取模块503,具体用于:
将第一语音数据和第二语音数据之中能量信息较大的语音数据作为初始目标语音数据;
从初始目标语音数据之中确定出语音起点和语音尾点;
从初始目标语音数据之中提取出目标语音数据,目标语音数据的起点是语音起点,目标语音数据的尾点是语音尾点。
可以理解的是,本实施例附图5中的语音数据的处理装置50与上述实施例中的语音数据的处理装置40,接收模块501与上述实施例中的接收模块401,确定模块502与上述实施例中的确定模块402,提取模块503与上述实施例中的提取模块403,处理模块504与上述实施例中的处理模块404,可以具有相同的功能和结构。
需要说明的是,前述对语音数据的处理方法的解释说明也适用于本实施例的语音数据的处理装置,此处不再赘述。
本实施例中,通过接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据,并确定与第一语音数据对应的第一能量信息,并确定与第二语音数据对应的第二能量信息,根据第一能量信息和第二能量信息,从第一语音数据或者第二语音数据之中提取出目标语音数据,以及采用与目标语音数据对应的语音数据处理引擎处理目标语音数据,能够实现从不同蓝牙耳机采集的语音数据之中提取出有效的语音数据,从而有效地过滤了环境噪音和质量较差的语音数据,并且能够有效丰富了蓝牙耳机的应用场景。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,图6是用来实现本申请实施例的语音数据的处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音数据的处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音数据的处理方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音数据的处理方法对应的程序指令/模块(例如,附图4所示的接收模块401、确定模块402、提取模块403,以及处理模块404)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音数据的处理方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据执行语音数据的处理方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
该电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与该电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (14)
1.一种语音数据的处理方法,包括:
接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据,其中,蓝牙耳机发送的语音数据包括所述蓝牙耳机捕获的其佩戴者的语音数据;
确定与所述第一语音数据对应的第一能量信息,并确定与所述第二语音数据对应的第二能量信息;
根据所述第一能量信息和所述第二能量信息,从所述第一语音数据或者所述第二语音数据之中提取出目标语音数据,包括:
将所述第一语音数据和所述第二语音数据之中能量信息较大的语音数据作为初始目标语音数据;
从所述初始目标语音数据之中确定出语音起点和语音尾点;
从所述初始目标语音数据之中提取出目标语音数据,所述目标语音数据的起点是所述语音起点,所述目标语音数据的尾点是所述语音尾点;
采用与所述目标语音数据对应的语音数据处理引擎处理所述目标语音数据,其中,所述语音数据处理引擎包括:实现翻译功能的引擎、实现导航功能的引擎、实现智能问答功能的引擎、实现文本转换功能的引擎和实现文档生成功能的引擎。
2.根据权利要求1所述的方法,其中,所述采用与所述目标语音数据对应的语音数据处理引擎处理所述目标语音数据,包括:
对所述目标语音数据进行语言解析,确定与所述目标语音数据对应的第一语言类型;
采用所述第一语言类型对应的语音数据处理引擎,将所述目标语音数据转换为第二语言类型的语音数据,所述第一语言类型和所述第二语言类型不相同。
3.根据权利要求2所述的方法,在所述对所述目标语音数据进行语言解析,确定与所述目标语音数据对应的第一语言类型前,还包括:
将对端的蓝牙耳机捕获的语音数据对应的语言类型,作为所述第二语言类型,其中,当所述目标语音数据是从所述第一语音数据之中提取得到时,所述对端的蓝牙耳机是所述第二蓝牙耳机,当所述目标语音数据是从所述第二语音数据之中提取得到时,所述对端的蓝牙耳机是所述第一蓝牙耳机。
4.根据权利要求3所述的方法,在所述采用所述第一语言类型对应的语音数据处理引擎,将所述目标语音数据转换为第二语言类型的语音数据后,还包括:
将所述第二语言类型的语音数据发送至所述对端的蓝牙耳机,以触发所述对端的蓝牙耳机播放所述第二语言类型的语音数据。
5.根据权利要求1所述的方法,其中,所述采用与所述目标语音数据对应的语音数据处理引擎处理所述目标语音数据,包括:
响应于语音记录请求,确定与所述语音记录请求对应的语音数据记录引擎;
采用所述语音数据记录引擎对所述目标语音数据进行文本转换,得到目标文本。
6.根据权利要求1所述的方法,其中,所述采用与所述目标语音数据对应的语音数据处理引擎处理所述目标语音数据,包括:
响应于语音导航请求,确定与所述语音导航请求对应的语音导航引擎;
采用所述语音导航引擎解析所述目标语音数据得到导航意图,并采用所述语音导航引擎获取与所述导航意图对应的导航信息。
7.一种语音数据的处理装置,包括:
接收模块,用于接收第一蓝牙耳机发送的第一语音数据,并接收第二蓝牙耳机发送的第二语音数据,其中,蓝牙耳机发送的语音数据包括所述蓝牙耳机捕获的其佩戴者的语音数据;
确定模块,用于确定与所述第一语音数据对应的第一能量信息,并确定与所述第二语音数据对应的第二能量信息;
提取模块,用于根据所述第一能量信息和所述第二能量信息,从所述第一语音数据或者所述第二语音数据之中提取出目标语音数据;
处理模块,用于采用与所述目标语音数据对应的语音数据处理引擎处理所述目标语音数据,其中,所述语音数据处理引擎包括:实现翻译功能的引擎、实现导航功能的引擎、实现智能问答功能的引擎、实现文本转换功能的引擎和实现文档生成功能的引擎;
所述提取模块,具体用于:
将所述第一语音数据和所述第二语音数据之中能量信息较大的语音数据作为初始目标语音数据;
从所述初始目标语音数据之中确定出语音起点和语音尾点;
从所述初始目标语音数据之中提取出目标语音数据,所述目标语音数据的起点是所述语音起点,所述目标语音数据的尾点是所述语音尾点。
8.根据权利要求7所述的装置,其中,所述处理模块,具体用于:
对所述目标语音数据进行语言解析,确定与所述目标语音数据对应的第一语言类型;
采用所述第一语言类型对应的语音数据处理引擎,将所述目标语音数据转换为第二语言类型的语音数据,所述第一语言类型和所述第二语言类型不相同。
9.根据权利要求8所述的装置,还包括:
获取模块,用于将对端的蓝牙耳机捕获的语音数据对应的语言类型,作为所述第二语言类型,其中,当所述目标语音数据是从所述第一语音数据之中提取得到时,所述对端的蓝牙耳机是所述第二蓝牙耳机,当所述目标语音数据是从所述第二语音数据之中提取得到时,所述对端的蓝牙耳机是所述第一蓝牙耳机。
10.根据权利要求9所述的装置,还包括:
发送模块,用于在所述采用所述第一语言类型对应的语音数据处理引擎,将所述目标语音数据转换为第二语言类型的语音数据后,将所述第二语言类型的语音数据发送至所述对端的蓝牙耳机,以触发所述对端的蓝牙耳机播放所述第二语言类型的语音数据。
11.根据权利要求7所述的装置,其中,所述处理模块,还用于:
响应于语音记录请求,确定与所述语音记录请求对应的语音数据记录引擎;
采用所述语音数据记录引擎对所述目标语音数据进行文本转换,得到目标文本。
12.根据权利要求7所述的装置,其中,所述处理模块,进一步用于:
响应于语音导航请求,确定与所述语音导航请求对应的语音导航引擎;
采用所述语音导航引擎解析所述目标语音数据得到导航意图,并采用所述语音导航引擎获取与所述导航意图对应的导航信息。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011328848.9A CN112509569B (zh) | 2020-11-24 | 2020-11-24 | 语音数据的处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011328848.9A CN112509569B (zh) | 2020-11-24 | 2020-11-24 | 语音数据的处理方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112509569A CN112509569A (zh) | 2021-03-16 |
CN112509569B true CN112509569B (zh) | 2022-05-17 |
Family
ID=74959694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011328848.9A Active CN112509569B (zh) | 2020-11-24 | 2020-11-24 | 语音数据的处理方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112509569B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240689B (zh) * | 2022-09-15 | 2022-12-02 | 深圳市水世界信息有限公司 | 目标声音确定方法、装置、计算机设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109005480A (zh) * | 2018-07-19 | 2018-12-14 | Oppo广东移动通信有限公司 | 信息处理方法及相关产品 |
CN109994112A (zh) * | 2019-03-12 | 2019-07-09 | 广东美的制冷设备有限公司 | 语音识别设备的控制方法、服务器、语音识别设备及介质 |
CN111540365A (zh) * | 2020-07-10 | 2020-08-14 | 北京声智科技有限公司 | 语音信号确定方法、装置、服务器及存储介质 |
CN111862972A (zh) * | 2020-07-08 | 2020-10-30 | 北京梧桐车联科技有限责任公司 | 语音交互服务方法、装置、设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI408673B (zh) * | 2010-03-17 | 2013-09-11 | Issc Technologies Corp | Voice detection method |
TWI566242B (zh) * | 2015-01-26 | 2017-01-11 | 宏碁股份有限公司 | 語音辨識裝置及語音辨識方法 |
CN106911857B (zh) * | 2017-03-08 | 2020-06-12 | 青岛中云时代信息技术有限公司 | 一种语音数据交互方法及装置 |
-
2020
- 2020-11-24 CN CN202011328848.9A patent/CN112509569B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109005480A (zh) * | 2018-07-19 | 2018-12-14 | Oppo广东移动通信有限公司 | 信息处理方法及相关产品 |
CN109994112A (zh) * | 2019-03-12 | 2019-07-09 | 广东美的制冷设备有限公司 | 语音识别设备的控制方法、服务器、语音识别设备及介质 |
CN111862972A (zh) * | 2020-07-08 | 2020-10-30 | 北京梧桐车联科技有限责任公司 | 语音交互服务方法、装置、设备及存储介质 |
CN111540365A (zh) * | 2020-07-10 | 2020-08-14 | 北京声智科技有限公司 | 语音信号确定方法、装置、服务器及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112509569A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110381389B (zh) | 一种基于人工智能的字幕生成方法和装置 | |
CN109429522A (zh) | 语音交互方法、装置及系统 | |
CN111221984A (zh) | 多模态内容处理方法、装置、设备及存储介质 | |
CN110675873B (zh) | 智能设备的数据处理方法、装置、设备及存储介质 | |
CN110991427A (zh) | 用于视频的情绪识别方法、装置和计算机设备 | |
CN112269862B (zh) | 文本角色标注方法、装置、电子设备和存储介质 | |
CN111862940A (zh) | 基于耳机实现的翻译方法、装置、系统、设备和存储介质 | |
CN112434139A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
CN111144108A (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
CN112466302B (zh) | 语音交互的方法、装置、电子设备和存储介质 | |
CN111966212A (zh) | 基于多模态的交互方法、装置、存储介质及智能屏设备 | |
CN111967569A (zh) | 神经网络结构的生成方法、装置、存储介质及电子设备 | |
CN111968642A (zh) | 语音数据处理方法、装置及智能车辆 | |
US20220027575A1 (en) | Method of predicting emotional style of dialogue, electronic device, and storage medium | |
CN112382287A (zh) | 语音交互方法、装置、电子设备和存储介质 | |
CN111755002B (zh) | 语音识别装置、电子设备和语音识别方法 | |
CN111883127A (zh) | 用于处理语音的方法和装置 | |
CN111177462B (zh) | 视频分发时效的确定方法和装置 | |
CN112509569B (zh) | 语音数据的处理方法、装置、电子设备及存储介质 | |
CN111429924A (zh) | 语音交互方法、装置、机器人及计算机可读存储介质 | |
CN112559715B (zh) | 态度的识别方法、装置、设备及存储介质 | |
CN112382294B (zh) | 语音识别方法、装置、电子设备和存储介质 | |
CN112652304B (zh) | 智能设备的语音交互方法、装置和电子设备 | |
CN112382292A (zh) | 基于语音的控制方法和装置 | |
CN112382279B (zh) | 语音识别方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |