CN116434733A - 一种关于智能安全帽的ai语音交互处理方法 - Google Patents
一种关于智能安全帽的ai语音交互处理方法 Download PDFInfo
- Publication number
- CN116434733A CN116434733A CN202310452213.7A CN202310452213A CN116434733A CN 116434733 A CN116434733 A CN 116434733A CN 202310452213 A CN202310452213 A CN 202310452213A CN 116434733 A CN116434733 A CN 116434733A
- Authority
- CN
- China
- Prior art keywords
- voice
- user
- data
- safety helmet
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 230000008451 emotion Effects 0.000 claims abstract description 18
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000004458 analytical method Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 16
- 230000002452 interceptive effect Effects 0.000 claims description 14
- 238000009432 framing Methods 0.000 claims description 11
- 239000012634 fragment Substances 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 5
- 230000002238 attenuated effect Effects 0.000 claims description 4
- 241001672694 Citrus reticulata Species 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 108090000623 proteins and genes Proteins 0.000 claims description 3
- 210000001260 vocal cord Anatomy 0.000 claims description 3
- 238000013479 data entry Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Helmets And Other Head Coverings (AREA)
Abstract
本发明涉及安全帽语音交互技术领域,具体的说是一种关于智能安全帽的AI语音交互处理方法,包括综合数据录入,数据预处理,特征提取,语言种类识别,语音情绪分析,智能答复,用户反馈,通过在安全帽上安装语音采集端,用于采集用户发出的语音,同时将所处建筑工程的信息录入,用于用户在不同区域之间进行位置转换时发出提醒,将用户发出的语音数据进行预加重、分帧和加窗处理,再通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的各项特征进行提取,本发明智能化程度高,安全性高,语音识别精准度高,系统能够自动升级,在智能安全帽上有着较大的市场前景。
Description
技术领域
本发明涉及一种关于智能安全帽的AI语音交互处理方法,属于安全帽语音交互技术领域。
背景技术
安全帽是对人体头部受坠落物及其他特定因素引起的伤害起防护作用的帽子,是工业企业安全生产必备的劳防用品,由于传统的安全帽面临功能单一、技术含量不高,现在也开发了一些智能安全帽,用于语音交互提醒,在智能安全帽的使用过程中,就需要对语音交互信息进行处理,在申请号为CN201911274649.1的中国发明专利中提出一种实时语音交互处理方法及装置、电子设备、存储介质,通过接收语音会话信息,确定所接收的语音会话信息中是否存在预设的敏感内容;在所述语音会话信息中未存在所述敏感内容时,返回与所述语音会话信息相匹配的语音回复数据;在所述语音会话信息存在所述敏感内容时,返回与所述敏感内容相匹配的语音提醒数据,所述语音提醒数据用于提醒所述语音会话信息中涉及敏感内容。这样,本实施例中可以在语音会话信息存在敏感内容时回复语音提醒数据,可以及时提醒用户,从而使用户及时中止该敏感话题,避免出现用户多次重复的问题,有利于提升用户使语音交互的体验。
然而,上述对比文件提出的语音交互处理方法在智能安全帽的使用过程中不具有针对性,无法适应安全帽的使用环境,在使用时无法针对建筑工程的环境进行提醒,无法进行智能化升级。
有鉴于此特提出本发明。
发明内容
本发明的目的就在于为了解决上述问题而提供一种关于智能安全帽的AI语音交互处理方法,通过在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒,保证了基本语音交互的功能同时,提高了对用户的警示提醒效果,进而提高了用户安全性,增加了对用户的语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,获取的内容将会更加准确,在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级,有助于系统更完善。
本发明通过以下技术方案来实现上述目的,一种关于智能安全帽的AI语音交互处理方法,包括以下步骤:
S1,综合数据录入,在安全帽上安装语音采集端,用于采集用户发出的语音,同时将所处建筑工程的信息录入,用于用户在不同区域之间进行位置转换时发出提醒;
S2,数据预处理,将用户发出的语音数据进行预加重、分帧和加窗处理;
S3,特征提取,通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的各项特征进行提取,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串;
S4,语言种类识别,对语音数据的语音种类进行识别,识别后将语音输出为相应文字;
S5,语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的;
S6,智能答复,根据语音情绪分析步骤中的分析结果,给出相关的智能答复;
S7,用户反馈,在使用完成后,对本日产生的所有语音问答数据进行集合,让客户对不满意的交互项进行反馈,针对反馈意见,对语音交互系统进行升级。
进一步的,在步骤综合数据录入中,具体的操作方法为:在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒。
进一步的,在步骤数据预处理中,预加重的方式为保持信号的低频部分不变,提升信号的高频部分,而去加重衰减信号的低频部分,保持高频部分,预加重/去加重的目的都是提升信号中高频部分的能量,以补偿信道对高频部分衰减过大,在对语音信号s(n)进行分析之前通过滤波器将无效部分滤除,对高频部分加以提升。
进一步的,在数据预处理步骤中,短时分析采用分帧方式,相邻两帧之间的基因可能发生变化,采用重叠取帧的方式,将语音信号进行切割,且保证一定的重复率,语音信号是一个非平稳信号,在发浊音时声带有规律地振动,即基音频率在短时间范围内是相对固定的,语音信号具有短时平稳特性。
进一步的,在步骤特征提取中,具体的方法为:通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的声强、声强级、响度、音高、基音周期、基音频率、谐噪比、频率微扰、振幅微扰、规范化噪声能量数据进行剔除,计算每个片段的短时能量、短时平均幅度、共振峰、声门波、语速和停顿的发声特征,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串。
进一步的,在步骤语言种类识别中,具体的方法为:对语音数据的语音种类进行识别,包括中文、英文、日文、汉语、其他语种,还包括中文普通话和各地的地方方言,在确定用户语音的语种后进行实际内容输出,将语音输出为相应文字。
进一步的,在用户反馈步骤中,具体的方法为:在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级。
本发明的技术效果和优点:本发明通过在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒,保证了基本语音交互的功能同时,提高了对用户的警示提醒效果,进而提高了用户安全性。
本发明相较于传统语音交互处理方法而言,增加了对用户的语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,获取的内容将会更加准确。
本发明还设置了反馈功能,在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级,有助于系统更完善。
附图说明
图1为本发明的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1所示,一种关于智能安全帽的AI语音交互处理方法。
综合数据录入,在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒,保证了基本语音交互的功能同时,提高了对用户的警示提醒效果,进而提高了用户安全性。
数据预处理,将用户发出的语音数据进行预加重、分帧和加窗处理,其中预加重的方式为保持信号的低频部分不变,提升信号的高频部分,而去加重衰减信号的低频部分,保持高频部分,预加重/去加重的目的都是提升信号中高频部分的能量,以补偿信道对高频部分衰减过大,在对语音信号s(n)进行分析之前通过滤波器将无效部分滤除,对高频部分加以提升,语音信号是一个非平稳信号,在发浊音时声带有规律地振动,即基音频率在短时间范围内是相对固定的,语音信号具有短时平稳特性,短时分析采用分帧方式,相邻两帧之间的基因可能发生变化,采用重叠取帧的方式,将语音信号进行切割,且保证一定的重复率。
特征提取,通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的声强、声强级、响度、音高、基音周期、基音频率、谐噪比、频率微扰、振幅微扰、规范化噪声能量数据进行剔除,计算每个片段的短时能量、短时平均幅度、共振峰、声门波、语速和停顿的发声特征,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串。
语言种类识别,对语音数据的语音种类进行识别,包括中文、英文、日文、汉语、其他语种,还包括中文普通话和各地的地方方言,在确定用户语音的语种后进行实际内容输出,将语音输出为相应文字。
语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,相较于传统语音交互处理方法而言,增加了对用户的语音情绪分析,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,获取的内容将会更加准确。
智能答复,根据语音情绪分析步骤中的分析结果,给出相关的智能答复。
用户反馈,在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (7)
1.一种关于智能安全帽的AI语音交互处理方法,其特征在于,包括以下步骤:
S1,综合数据录入,在安全帽上安装语音采集端,用于采集用户发出的语音,同时将所处建筑工程的信息录入,用于用户在不同区域之间进行位置转换时发出提醒;
S2,数据预处理,将用户发出的语音数据进行预加重、分帧和加窗处理;
S3,特征提取,通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的各项特征进行提取,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串;
S4,语言种类识别,对语音数据的语音种类进行识别,识别后将语音输出为相应文字;
S5,语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的;
S6,智能答复,根据语音情绪分析步骤中的分析结果,给出相关的智能答复;
S7,用户反馈,在使用完成后,对本日产生的所有语音问答数据进行集合,让客户对不满意的交互项进行反馈,针对反馈意见,对语音交互系统进行升级。
2.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤综合数据录入中,具体的操作方法为:在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒。
3.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤数据预处理中,预加重的方式为保持信号的低频部分不变,提升信号的高频部分,而去加重衰减信号的低频部分,保持高频部分,预加重/去加重的目的都是提升信号中高频部分的能量,以补偿信道对高频部分衰减过大,在对语音信号s(n)进行分析之前通过滤波器将无效部分滤除,对高频部分加以提升。
4.根据权利要求3所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在数据预处理步骤中,短时分析采用分帧方式,相邻两帧之间的基因可能发生变化,采用重叠取帧的方式,将语音信号进行切割,且保证一定的重复率,语音信号是一个非平稳信号,在发浊音时声带有规律地振动,即基音频率在短时间范围内是相对固定的,语音信号具有短时平稳特性。
5.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤特征提取中,具体的方法为:通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的声强、声强级、响度、音高、基音周期、基音频率、谐噪比、频率微扰、振幅微扰、规范化噪声能量数据进行剔除,计算每个片段的短时能量、短时平均幅度、共振峰、声门波、语速和停顿的发声特征,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串。
6.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤语言种类识别中,具体的方法为:对语音数据的语音种类进行识别,包括中文、英文、日文、汉语、其他语种,还包括中文普通话和各地的地方方言,在确定用户语音的语种后进行实际内容输出,将语音输出为相应文字。
7.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在用户反馈步骤中,具体的方法为:在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310452213.7A CN116434733B (zh) | 2023-04-25 | 2023-04-25 | 一种关于智能安全帽的ai语音交互处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310452213.7A CN116434733B (zh) | 2023-04-25 | 2023-04-25 | 一种关于智能安全帽的ai语音交互处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116434733A true CN116434733A (zh) | 2023-07-14 |
CN116434733B CN116434733B (zh) | 2024-06-07 |
Family
ID=87090754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310452213.7A Active CN116434733B (zh) | 2023-04-25 | 2023-04-25 | 一种关于智能安全帽的ai语音交互处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116434733B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050130110A1 (en) * | 2003-12-16 | 2005-06-16 | Gosling Martin M. | System and method to give a true indication of respondent satisfaction to an electronic questionnaire survey |
CN106227779A (zh) * | 2016-07-18 | 2016-12-14 | 深圳追科技有限公司 | 一种客服系统的人机交互方法 |
CN110664042A (zh) * | 2019-10-30 | 2020-01-10 | 上海工程技术大学 | 一种智能安全帽 |
CN111563150A (zh) * | 2020-04-30 | 2020-08-21 | 广东美的制冷设备有限公司 | 空调器知识库更新方法、空调器、服务器及系统 |
EP3832485A1 (en) * | 2019-12-02 | 2021-06-09 | Koninklijke Philips N.V. | Question answering systems |
CN113593530A (zh) * | 2021-07-26 | 2021-11-02 | 国网安徽省电力有限公司建设分公司 | 一种基于nlp技术的安全帽系统及操作方法 |
WO2021217769A1 (zh) * | 2020-04-27 | 2021-11-04 | 平安科技(深圳)有限公司 | 基于情绪识别的答复方法、装置、计算机设备及存储介质 |
CN113995192A (zh) * | 2021-11-02 | 2022-02-01 | 深圳市轻生活科技有限公司 | 一种语音识别控制智能头盔 |
CN115394287A (zh) * | 2022-07-27 | 2022-11-25 | 科大讯飞股份有限公司 | 混合语种语音识别方法、装置、系统及存储介质 |
CN115545960A (zh) * | 2022-12-01 | 2022-12-30 | 江苏联弘信科技发展有限公司 | 一种电子信息数据交互系统及方法 |
-
2023
- 2023-04-25 CN CN202310452213.7A patent/CN116434733B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050130110A1 (en) * | 2003-12-16 | 2005-06-16 | Gosling Martin M. | System and method to give a true indication of respondent satisfaction to an electronic questionnaire survey |
CN106227779A (zh) * | 2016-07-18 | 2016-12-14 | 深圳追科技有限公司 | 一种客服系统的人机交互方法 |
CN110664042A (zh) * | 2019-10-30 | 2020-01-10 | 上海工程技术大学 | 一种智能安全帽 |
EP3832485A1 (en) * | 2019-12-02 | 2021-06-09 | Koninklijke Philips N.V. | Question answering systems |
WO2021217769A1 (zh) * | 2020-04-27 | 2021-11-04 | 平安科技(深圳)有限公司 | 基于情绪识别的答复方法、装置、计算机设备及存储介质 |
CN111563150A (zh) * | 2020-04-30 | 2020-08-21 | 广东美的制冷设备有限公司 | 空调器知识库更新方法、空调器、服务器及系统 |
CN113593530A (zh) * | 2021-07-26 | 2021-11-02 | 国网安徽省电力有限公司建设分公司 | 一种基于nlp技术的安全帽系统及操作方法 |
CN113995192A (zh) * | 2021-11-02 | 2022-02-01 | 深圳市轻生活科技有限公司 | 一种语音识别控制智能头盔 |
CN115394287A (zh) * | 2022-07-27 | 2022-11-25 | 科大讯飞股份有限公司 | 混合语种语音识别方法、装置、系统及存储介质 |
CN115545960A (zh) * | 2022-12-01 | 2022-12-30 | 江苏联弘信科技发展有限公司 | 一种电子信息数据交互系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116434733B (zh) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yuasa | Creaky voice: A new feminine voice quality for young urban-oriented upwardly mobile American women? | |
McAuliffe et al. | Vocabulary influences older and younger listeners' processing of dysarthric speech | |
Yang et al. | The effect of voice cuing on releasing Chinese speech from informational masking | |
JP5507260B2 (ja) | 発話音声プロンプトを作成するシステム及び技法 | |
CN105304080A (zh) | 语音合成装置及方法 | |
CN116018638A (zh) | 使用话音转换和语音识别模型的合成数据增强 | |
CN104732977A (zh) | 一种在线口语发音质量评价方法和系统 | |
CN110008481B (zh) | 翻译语音生成方法、装置、计算机设备和存储介质 | |
US20210118464A1 (en) | Method and apparatus for emotion recognition from speech | |
CN111370030A (zh) | 语音情感检测方法与装置、存储介质、电子设备 | |
Pérez-Navarro et al. | Local temporal regularities in child-directed speech in Spanish | |
CN101281747A (zh) | 基于声道参数的汉语耳语音声调识别方法 | |
CN116434733B (zh) | 一种关于智能安全帽的ai语音交互处理方法 | |
Hillenbrand et al. | Perception of sinewave vowels | |
CN112349266A (zh) | 一种语音编辑方法及相关设备 | |
Zouhir et al. | A bio-inspired feature extraction for robust speech recognition | |
Greenberg et al. | The analysis and representation of speech | |
Strom et al. | What's in the" pure" prosody? | |
Deng et al. | Speech analysis: the production-perception perspective | |
Sugiyama et al. | The effect of fo fall, downstep, and secondary cues in perceiving Japanese lexical accent | |
Rao MV et al. | Effect of source filter interaction on isolated vowel-consonant-vowel perception | |
Passetti et al. | Voice perception on a voice messaging app: implications for Forensic Phonetics | |
Senan | An evaluation of a psychoacoustic model of the changing-state hypothesis | |
Apandi et al. | An analysis of Malay language emotional speech corpus for emotion recognition system | |
US20240298963A1 (en) | Clinical speech analysis system for childhood speech disorders |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |