CN116434733B - 一种关于智能安全帽的ai语音交互处理方法 - Google Patents

一种关于智能安全帽的ai语音交互处理方法 Download PDF

Info

Publication number
CN116434733B
CN116434733B CN202310452213.7A CN202310452213A CN116434733B CN 116434733 B CN116434733 B CN 116434733B CN 202310452213 A CN202310452213 A CN 202310452213A CN 116434733 B CN116434733 B CN 116434733B
Authority
CN
China
Prior art keywords
voice
user
data
safety helmet
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310452213.7A
Other languages
English (en)
Other versions
CN116434733A (zh
Inventor
刘岗
袁溪清
洪健
张正龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhongnuo Zhilian Technology Co ltd
Original Assignee
Shenzhen Zhongnuo Zhilian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhongnuo Zhilian Technology Co ltd filed Critical Shenzhen Zhongnuo Zhilian Technology Co ltd
Priority to CN202310452213.7A priority Critical patent/CN116434733B/zh
Publication of CN116434733A publication Critical patent/CN116434733A/zh
Application granted granted Critical
Publication of CN116434733B publication Critical patent/CN116434733B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Helmets And Other Head Coverings (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及安全帽语音交互技术领域,具体的说是一种关于智能安全帽的AI语音交互处理方法,包括综合数据录入,数据预处理,特征提取,语言种类识别,语音情绪分析,智能答复,用户反馈,通过在安全帽上安装语音采集端,用于采集用户发出的语音,同时将所处建筑工程的信息录入,用于用户在不同区域之间进行位置转换时发出提醒,将用户发出的语音数据进行预加重、分帧和加窗处理,再通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的各项特征进行提取,本发明智能化程度高,安全性高,语音识别精准度高,系统能够自动升级,在智能安全帽上有着较大的市场前景。

Description

一种关于智能安全帽的AI语音交互处理方法
技术领域
本发明涉及一种关于智能安全帽的AI语音交互处理方法,属于安全帽语音交互技术领域。
背景技术
安全帽是对人体头部受坠落物及其他特定因素引起的伤害起防护作用的帽子,是工业企业安全生产必备的劳防用品,由于传统的安全帽面临功能单一、技术含量不高,现在也开发了一些智能安全帽,用于语音交互提醒,在智能安全帽的使用过程中,就需要对语音交互信息进行处理,在申请号为CN201911274649.1的中国发明专利中提出一种实时语音交互处理方法及装置、电子设备、存储介质,通过接收语音会话信息,确定所接收的语音会话信息中是否存在预设的敏感内容;在所述语音会话信息中未存在所述敏感内容时,返回与所述语音会话信息相匹配的语音回复数据;在所述语音会话信息存在所述敏感内容时,返回与所述敏感内容相匹配的语音提醒数据,所述语音提醒数据用于提醒所述语音会话信息中涉及敏感内容。这样,本实施例中可以在语音会话信息存在敏感内容时回复语音提醒数据,可以及时提醒用户,从而使用户及时中止该敏感话题,避免出现用户多次重复的问题,有利于提升用户使语音交互的体验。
然而,上述对比文件提出的语音交互处理方法在智能安全帽的使用过程中不具有针对性,无法适应安全帽的使用环境,在使用时无法针对建筑工程的环境进行提醒,无法进行智能化升级。
有鉴于此特提出本发明。
发明内容
本发明的目的就在于为了解决上述问题而提供一种关于智能安全帽的AI语音交互处理方法,通过在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒,保证了基本语音交互的功能同时,提高了对用户的警示提醒效果,进而提高了用户安全性,增加了对用户的语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,获取的内容将会更加准确,在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级,有助于系统更完善。
本发明通过以下技术方案来实现上述目的,一种关于智能安全帽的AI语音交互处理方法,包括以下步骤:
S1,综合数据录入,在安全帽上安装语音采集端,用于采集用户发出的语音,同时将所处建筑工程的信息录入,用于用户在不同区域之间进行位置转换时发出提醒;
S2,数据预处理,将用户发出的语音数据进行预加重、分帧和加窗处理;
S3,特征提取,通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的各项特征进行提取,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串;
S4,语言种类识别,对语音数据的语音种类进行识别,识别后将语音输出为相应文字;
S5,语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的;
S6,智能答复,根据语音情绪分析步骤中的分析结果,给出相关的智能答复;
S7,用户反馈,在使用完成后,对本日产生的所有语音问答数据进行集合,让客户对不满意的交互项进行反馈,针对反馈意见,对语音交互系统进行升级。
进一步的,在步骤综合数据录入中,具体的操作方法为:在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒。
进一步的,在步骤数据预处理中,预加重的方式为保持信号的低频部分不变,提升信号的高频部分,而去加重衰减信号的低频部分,保持高频部分,预加重/去加重的目的都是提升信号中高频部分的能量,以补偿信道对高频部分衰减过大,在对语音信号s(n)进行分析之前通过滤波器将无效部分滤除,对高频部分加以提升。
进一步的,在数据预处理步骤中,短时分析采用分帧方式,相邻两帧之间的基因可能发生变化,采用重叠取帧的方式,将语音信号进行切割,且保证一定的重复率,语音信号是一个非平稳信号,在发浊音时声带有规律地振动,即基音频率在短时间范围内是相对固定的,语音信号具有短时平稳特性。
进一步的,在步骤特征提取中,具体的方法为:通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的声强、声强级、响度、音高、基音周期、基音频率、谐噪比、频率微扰、振幅微扰、规范化噪声能量数据进行剔除,计算每个片段的短时能量、短时平均幅度、共振峰、声门波、语速和停顿的发声特征,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串。
进一步的,在步骤语言种类识别中,具体的方法为:对语音数据的语音种类进行识别,包括中文、英文、日文,在确定用户语音的语种后进行实际内容输出,将语音输出为相应文字。
进一步的,在用户反馈步骤中,具体的方法为:在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级。
本发明的技术效果和优点:本发明通过在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒,保证了基本语音交互的功能同时,提高了对用户的警示提醒效果,进而提高了用户安全性。
本发明相较于传统语音交互处理方法而言,增加了对用户的语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,获取的内容将会更加准确。
本发明还设置了反馈功能,在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级,有助于系统更完善。
附图说明
图1为本发明的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1所示,一种关于智能安全帽的AI语音交互处理方法。
综合数据录入,在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒,保证了基本语音交互的功能同时,提高了对用户的警示提醒效果,进而提高了用户安全性。
数据预处理,将用户发出的语音数据进行预加重、分帧和加窗处理,其中预加重的方式为保持信号的低频部分不变,提升信号的高频部分,而去加重衰减信号的低频部分,保持高频部分,预加重/去加重的目的都是提升信号中高频部分的能量,以补偿信道对高频部分衰减过大,在对语音信号s(n)进行分析之前通过滤波器将无效部分滤除,对高频部分加以提升,语音信号是一个非平稳信号,在发浊音时声带有规律地振动,即基音频率在短时间范围内是相对固定的,语音信号具有短时平稳特性,短时分析采用分帧方式,相邻两帧之间的基因可能发生变化,采用重叠取帧的方式,将语音信号进行切割,且保证一定的重复率。
特征提取,通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的声强、声强级、响度、音高、基音周期、基音频率、谐噪比、频率微扰、振幅微扰、规范化噪声能量数据进行剔除,计算每个片段的短时能量、短时平均幅度、共振峰、声门波、语速和停顿的发声特征,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串。
语言种类识别,对语音数据的语音种类进行识别,包括中文、英文、日文,在确定用户语音的语种后进行实际内容输出,将语音输出为相应文字。
语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,相较于传统语音交互处理方法而言,增加了对用户的语音情绪分析,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的,获取的内容将会更加准确。
智能答复,根据语音情绪分析步骤中的分析结果,给出相关的智能答复。
用户反馈,在使用完成后,对本日产生的所有语音问答数据进行集合,将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (6)

1.一种关于智能安全帽的AI语音交互处理方法,其特征在于,包括以下步骤:
S1,综合数据录入,在安全帽上安装语音采集端,用于采集用户发出的语音,同时将所处建筑工程的信息录入,用于用户在不同区域之间进行位置转换时发出提醒;
S2,数据预处理,将用户发出的语音数据进行预加重、分帧和加窗处理;
S3,特征提取,通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的各项特征进行提取,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串;
S4,语言种类识别,对语音数据的语音种类进行识别,识别后将语音输出为相应文字;
S5,语音情绪分析,综合特征提取步骤中的各项数据和语言种类识别步骤中输出的文字内容,分析用户语音内容的同时对其当前情绪进行确定,内容结合情绪确定用户当前语音的目的;
S6,智能答复,根据语音情绪分析步骤中的分析结果,给出相关的智能答复;
S7,用户反馈,在使用完成后,对本日产生的所有语音问答数据进行集合,具体的方法为:将用户重复性的问句筛选出,将其定义为用户不满意的交互项,向用户移动端APP发送反馈问卷,将用户不满意的交互项置于反馈问卷内,并给出不满意的原因选项,分别是未听清和答非所问,如若用户选择答非所问的选项,则让用户填写用户当时语音的具体意思,针对反馈意见,对语音交互系统进行升级。
2.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤综合数据录入中,具体的操作方法为:在安全帽上安装语音采集端,用于采集用户发出的语音,同时对语音进行定位,保证只采集距离最近的语音,将远处语音信息定义为非用户自主语音,同时将所处建筑工程的信息录入,根据工程位置划分为危险区域、轻度危险区域和安全区域,用于用户在不同区域之间进行位置转换时发出提醒。
3.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤数据预处理中,预加重的方式为保持信号的低频部分不变,提升信号的高频部分,而去加重衰减信号的低频部分,保持高频部分,预加重/去加重的目的都是提升信号中高频部分的能量,以补偿信道对高频部分衰减过大,在对语音信号s(n)进行分析之前通过滤波器将无效部分滤除,对高频部分加以提升。
4.根据权利要求3所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在数据预处理步骤中,短时分析采用分帧方式,相邻两帧之间的基因可能发生变化,采用重叠取帧的方式,将语音信号进行切割,且保证一定的重复率,语音信号是一个非平稳信号,在发浊音时声带有规律地振动,即基音频率在短时间范围内是相对固定的,语音信号具有短时平稳特性。
5.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤特征提取中,具体的方法为:通过数据预处理步骤中的预加重、分帧和加窗处理步骤,将采集到的用户的整段语音切割成了语音片段,对语音的声强、声强级、响度、音高、基音周期、基音频率、谐噪比、频率微扰、振幅微扰、规范化噪声能量数据进行剔除,计算每个片段的短时能量、短时平均幅度、共振峰、声门波、语速和停顿的发声特征,通过解码器对输入的信号,根据声学、语言模型及词典,寻找能够以最大概率输出该信号的词串。
6.根据权利要求1所述的一种关于智能安全帽的AI语音交互处理方法,其特征在于,在步骤语言种类识别中,具体的方法为:对语音数据的语音种类进行识别,包括中文、英文、日文,在确定用户语音的语种后进行实际内容输出,将语音输出为相应文字。
CN202310452213.7A 2023-04-25 2023-04-25 一种关于智能安全帽的ai语音交互处理方法 Active CN116434733B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310452213.7A CN116434733B (zh) 2023-04-25 2023-04-25 一种关于智能安全帽的ai语音交互处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310452213.7A CN116434733B (zh) 2023-04-25 2023-04-25 一种关于智能安全帽的ai语音交互处理方法

Publications (2)

Publication Number Publication Date
CN116434733A CN116434733A (zh) 2023-07-14
CN116434733B true CN116434733B (zh) 2024-06-07

Family

ID=87090754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310452213.7A Active CN116434733B (zh) 2023-04-25 2023-04-25 一种关于智能安全帽的ai语音交互处理方法

Country Status (1)

Country Link
CN (1) CN116434733B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227779A (zh) * 2016-07-18 2016-12-14 深圳追科技有限公司 一种客服系统的人机交互方法
CN110664042A (zh) * 2019-10-30 2020-01-10 上海工程技术大学 一种智能安全帽
CN111563150A (zh) * 2020-04-30 2020-08-21 广东美的制冷设备有限公司 空调器知识库更新方法、空调器、服务器及系统
EP3832485A1 (en) * 2019-12-02 2021-06-09 Koninklijke Philips N.V. Question answering systems
CN113593530A (zh) * 2021-07-26 2021-11-02 国网安徽省电力有限公司建设分公司 一种基于nlp技术的安全帽系统及操作方法
WO2021217769A1 (zh) * 2020-04-27 2021-11-04 平安科技(深圳)有限公司 基于情绪识别的答复方法、装置、计算机设备及存储介质
CN113995192A (zh) * 2021-11-02 2022-02-01 深圳市轻生活科技有限公司 一种语音识别控制智能头盔
CN115394287A (zh) * 2022-07-27 2022-11-25 科大讯飞股份有限公司 混合语种语音识别方法、装置、系统及存储介质
CN115545960A (zh) * 2022-12-01 2022-12-30 江苏联弘信科技发展有限公司 一种电子信息数据交互系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8540514B2 (en) * 2003-12-16 2013-09-24 Martin Gosling System and method to give a true indication of respondent satisfaction to an electronic questionnaire survey

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227779A (zh) * 2016-07-18 2016-12-14 深圳追科技有限公司 一种客服系统的人机交互方法
CN110664042A (zh) * 2019-10-30 2020-01-10 上海工程技术大学 一种智能安全帽
EP3832485A1 (en) * 2019-12-02 2021-06-09 Koninklijke Philips N.V. Question answering systems
WO2021217769A1 (zh) * 2020-04-27 2021-11-04 平安科技(深圳)有限公司 基于情绪识别的答复方法、装置、计算机设备及存储介质
CN111563150A (zh) * 2020-04-30 2020-08-21 广东美的制冷设备有限公司 空调器知识库更新方法、空调器、服务器及系统
CN113593530A (zh) * 2021-07-26 2021-11-02 国网安徽省电力有限公司建设分公司 一种基于nlp技术的安全帽系统及操作方法
CN113995192A (zh) * 2021-11-02 2022-02-01 深圳市轻生活科技有限公司 一种语音识别控制智能头盔
CN115394287A (zh) * 2022-07-27 2022-11-25 科大讯飞股份有限公司 混合语种语音识别方法、装置、系统及存储介质
CN115545960A (zh) * 2022-12-01 2022-12-30 江苏联弘信科技发展有限公司 一种电子信息数据交互系统及方法

Also Published As

Publication number Publication date
CN116434733A (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
Yuasa Creaky voice: A new feminine voice quality for young urban-oriented upwardly mobile American women?
Syrdal et al. A perceptual model of vowel recognition based on the auditory representation of American English vowels
Jovičić Formant feature differences between whispered and voiced sustained vowels
McAuliffe et al. Vocabulary influences older and younger listeners' processing of dysarthric speech
CN105304080A (zh) 语音合成装置及方法
Syrdal et al. Applied speech technology
JP5507260B2 (ja) 発話音声プロンプトを作成するシステム及び技法
Yang et al. The effect of voice cuing on releasing Chinese speech from informational masking
CN110008481B (zh) 翻译语音生成方法、装置、计算机设备和存储介质
US20210118464A1 (en) Method and apparatus for emotion recognition from speech
CN111370030A (zh) 语音情感检测方法与装置、存储介质、电子设备
EP3113183A1 (en) Voice clarification device and computer program therefor
TW201806638A (zh) 聽覺訓練裝置、聽覺訓練方法及程式
CN111739536A (zh) 一种音频处理的方法和装置
Pérez-Navarro et al. Local temporal regularities in child-directed speech in Spanish
CN112349266A (zh) 一种语音编辑方法及相关设备
CN101281747A (zh) 基于声道参数的汉语耳语音声调识别方法
CN116434733B (zh) 一种关于智能安全帽的ai语音交互处理方法
Zouhir et al. A bio-inspired feature extraction for robust speech recognition
Hillenbrand et al. Perception of sinewave vowels
Greenberg et al. The analysis and representation of speech
CN110415727B (zh) 宠物情绪识别方法及装置
Sugiyama et al. The effect of fo fall, downstep, and secondary cues in perceiving Japanese lexical accent
Deng et al. Speech analysis: the production-perception perspective
Apandi et al. An analysis of Malay language emotional speech corpus for emotion recognition system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant