CN113920993A - 一种语音交互毛绒玩具的智能唤醒方法及装置 - Google Patents
一种语音交互毛绒玩具的智能唤醒方法及装置 Download PDFInfo
- Publication number
- CN113920993A CN113920993A CN202111248736.7A CN202111248736A CN113920993A CN 113920993 A CN113920993 A CN 113920993A CN 202111248736 A CN202111248736 A CN 202111248736A CN 113920993 A CN113920993 A CN 113920993A
- Authority
- CN
- China
- Prior art keywords
- sound
- human behavior
- voice
- human
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000003062 neural network model Methods 0.000 claims description 13
- 206010011224 Cough Diseases 0.000 claims description 12
- 230000002618 waking effect Effects 0.000 claims description 10
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 6
- 238000005553 drilling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Toys (AREA)
Abstract
本发明涉及一种语音交互毛绒玩具的智能唤醒方法及装置,所述方法包括:获取声音信息,根据所述声音信息构建人体行为声音识别模型;根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音;若为人体行为声音则在设定时长内识别所述毛绒玩具有无振动,若有则唤醒语音交互。本发明提供的语音交互毛绒玩具的智能唤醒方法,使语音交互毛绒玩具具有主动性,提升了用户体验。
Description
技术领域
本发明涉及智能毛绒玩具技术领域,尤其涉及一种语音交互毛绒玩具的智能唤醒方法及装置。
背景技术
随着现代社会娱乐方式的发展,语音交互毛绒玩具比传统毛绒玩具更加生动形象,也就更受消费者喜爱,但是现有技术中语音交互毛绒玩具均采用的是被动唤醒的方式,比如硬件开关唤醒或者设定语音指令唤醒,这些方式是通过用户主动唤醒毛绒玩具进而实现语音交互,不能实现毛绒玩具的主动唤醒,缺乏毛绒玩具与人交互过程中的主动性。
发明内容
有鉴于此,有必要提供一种语音交互毛绒玩具的智能唤醒方法及装置,用以解决现有技术中语音交互毛绒玩具缺乏主动性的问题。
为了解决上述问题,本发明提供一种语音交互毛绒玩具的智能唤醒方法,包括:
获取声音信息,根据所述声音信息构建人体行为声音识别模型;
根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音;
若为人体行为声音则在设定时长内识别所述毛绒玩具有无振动,若有则唤醒语音交互。
进一步地,获取声音信息,根据所述声音信息构建人体行为声音识别模型,包括:
获取不同的人体行为声音和非人体行为声音,根据所述不同的人体行为声音和非人体行为声音得到对应的梅尔频率倒谱系数;
构建初始深度神经网络模型;
根据所述梅尔频率倒谱系数和所述初始深度神经网络模型得到人体行为声音识别模型。
进一步地,获取不同的人体行为声音和非人体行为声音,根据所述不同的人体行为声音和非人体行为声音得到对应的梅尔频率倒谱系数,包括:
获取人体行为声音音频和对应的音频标记、以及非人体行为声音音频和对应的音频标记,根据所述人体行为声音音频和非人体行为声音音频得到对应的梅尔频率倒谱系数。
进一步地,根据所述梅尔频率倒谱系数和所述初始深度神经网络模型得到人体行为声音识别模型,包括:
利用所述梅尔频率倒谱系数、所述人体行为声音音频标记以及非人体行为声音音频标记构建训练样本集,将所述训练样本集输入所述初始深度神经网络模型中进行训练得到所述人体行为声音识别模型。
进一步地,利用所述梅尔频率倒谱系数、所述人体行为声音音频标记以及非人体行为声音音频标记构建训练样本集,包括:
获取不同的说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频,以及不同的说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频对应的音频标记,根据所述说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频得到对应的梅尔频率倒谱系数;
利用所述梅尔频率倒谱系数和所述音频标记形成多组子训练样本集,利用所述子训练样本集构建训练样本集。
进一步地,所述初始深度神经模型包含输入层、隐含层及输出层,所述输入层用于输入梅尔频率倒谱系数,所述输出层用于输出人体行为声音对应数值和非人体行为声音对应数值。
进一步地,根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音,包括:
获取设定时长的实时声音信息放入所述人体行为声音识别模型进行识别,得到模型输出,若所述模型输出是人体行为声音对应数值则识别结果为人体行为声音,若所述模型输出是非人体行为声音对应数值则识别结果为非人体行为声音。
本发明还提供一种语音交互毛绒玩具的智能唤醒装置,包括信息获取模块、数据处理模块及语音交互模块;
所述信息获取模块,用于获取声音信息,根据所述声音信息构建人体行为声音识别模型;
所述数据处理模块,根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音;
所述语音交互模块,若为人体行为声音则在设定时长内识别所述毛绒玩具有无振动,若有则唤醒语音交互。
进一步地,所述数据处理模块包含麦克风和语音识别芯片,所述麦克风用于获取实时声音信息,所述语音识别芯片内置有基于深度神经网络的人体行为声音识别模型程序用于识别获取的实时声音信息;
所述语音交互模块包含振动传感器和扬声器,所述振动传感器用于识别所述毛绒玩具有无振动,所述扬声器用于语音交互。
进一步地,还包括电源模块和主控模块,所述电源模块用于给装置供能,所述主控模块包含主控芯片用于控制整个装置的正常运行。
采用上述实施例的有益效果是:本发明提供的语音交互毛绒玩具的智能唤醒方法,通过构建人体行为声音识别模型,利用模型识别实时获取到的声音信息,若为人体行为声音则能够主动唤醒毛绒玩具进行语音交互,使语音交互毛绒玩具具有主动性,提升了用户体验。
附图说明
图1为本发明提供的语音交互毛绒玩具的智能唤醒方法一实施例的流程示意图;
图2为本发明实施例中提供的人体行为声音识别模型的结构示意图;
图3为本发明提供的语音交互毛绒玩具的智能唤醒装置一实施例的结构框图;
图4为本发明提供的语音交互毛绒玩具的智能唤醒装置一实施例的结构示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本发明提供了一种语音交互毛绒玩具的智能唤醒方法及装置,以下分别进行详细说明。
本发明实施例提供了一种语音交互毛绒玩具的智能唤醒方法,其流程示意图,如图1所示,所述语音交互毛绒玩具的智能唤醒方法包括:
步骤S101、获取声音信息,根据所述声音信息构建人体行为声音识别模型;
步骤S102、根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音;
步骤S103、若为人体行为声音则在设定时长内识别所述毛绒玩具有无振动,若有则唤醒语音交互。
需要说明的是,通过构建人体行为声音识别模型,利用模型识别实时获取到的声音信息,若为人体行为声音则能够主动唤醒毛绒玩具进行语音交互,不是被动地等待人的手动或语音唤醒,而是能够智能地识别周围声音信息,从而主动进行语音交互,使毛绒玩具的语音交互具有主动性,提升了用户体验。
作为一个优选的实施例,获取声音信息,根据所述声音信息构建人体行为声音识别模型,包括:
获取不同的人体行为声音和非人体行为声音,根据所述不同的人体行为声音和非人体行为声音得到对应的梅尔频率倒谱系数;
构建初始深度神经网络模型;
根据所述梅尔频率倒谱系数和所述初始深度神经网络模型得到人体行为声音识别模型。
作为一个优选的实施例,获取不同的人体行为声音和非人体行为声音,根据所述不同的人体行为声音和非人体行为声音得到对应的梅尔频率倒谱系数,包括:
获取人体行为声音音频和对应的音频标记、以及非人体行为声音音频和对应的音频标记,根据所述人体行为声音音频和非人体行为声音音频得到对应的梅尔频率倒谱系数。
一个具体的实施例中,采集2000组不同的说话声音频片段包含男声、女声及不同年龄段、不同音色、不同内容的音频片段,音频片段时长均为3秒;
采集2000组不同的脚步声音频片段包含轻走、重走、慢跑、快跑及在不同地面环境下的音频片段,音频片段时长均为3秒;
采集2000组不同的咳嗽声音频片段包含男声、女声及不同年龄段、不同音调、不同轻重的音频片段,音频片段时长均为3秒;
采集8000组不同的非人体行为声音片段包含日常环境常见声音的音频片段,音频片段时长均为3秒,本实施例中日常环境常见声音选择2000组不同的汽车鸣笛声、2000组不同的汽车行驶声、1000组不同的电钻声、1000组不同的雷声、1000组不同的下雨声及1000组不同的环境白噪声。
作为一个优选的实施例,根据所述梅尔频率倒谱系数和所述初始深度神经网络模型得到人体行为声音识别模型,包括:
利用所述梅尔频率倒谱系数、所述人体行为声音音频标记以及非人体行为声音音频标记构建训练样本集,将所述训练样本集输入所述初始深度神经网络模型中进行训练得到所述人体行为声音识别模型。
一个具体的实施例中,说话声、脚步声、咳嗽声均为人体行为声音,人体行为声音的音频标记为1,汽车鸣笛声、汽车行驶声、电钻声、雷声、下雨声及环境白噪声均为非人体行为声音,非人体行为声音的音频标记为2。
作为一个优选的实施例,利用所述梅尔频率倒谱系数、所述人体行为声音音频标记以及非人体行为声音音频标记构建训练样本集,包括:
获取不同的说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频,以及不同的说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频对应的音频标记,根据所述说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频得到对应的梅尔频率倒谱系数;
利用所述梅尔频率倒谱系数和所述音频标记形成多组子训练样本集,利用所述子训练样本集构建训练样本集。
一个具体的实施例中,所述训练样本集为
Strain={MFCCM1-i|1,MFCCM2-j|1,MFCCM3-k|1,MFCCM4-s|2},
其中,MFCCM1-i|1(i=1,2,…,2000)、MFCCM2-j|1(j=1,2,…,2000)、MFCCM3-k|1(k=1,2,…,2000)、MFCCM4-s|2(s=1,2,…,8000)分别为包含对应梅尔频率倒谱系数的子样本数据集M1、M2、M3、M4,MFCCM1-i为子样本数据集M1中第i组说话声对应的梅尔频率倒谱系数,MFCCM2-j为子样本数据集M2中第j组脚步声对应的梅尔频率倒谱系数,MFCCM3-k为子样本数据集M3中第k组咳嗽声对应的梅尔频率倒谱系数,MFCCM4-s为子样本数据集M4中第s组非人体行为声音对应的梅尔频率倒谱系数。
作为一个优选的实施例,所述初始深度神经网络模型包含输入层、隐含层及输出层,所述输入层用于输入梅尔频率倒谱系数,所述输出层用于输出人体行为声音对应数值和非人体行为声音对应数值。具体的,当输入层输入梅尔频率倒谱系数以及上述训练样本集后,经过隐含层的处理,输出层输出人体行为声音对应数值和非人体行为声音对应数值,可得到人体行为声音识别模型。
一个具体的实施例中,所述人体行为声音识别模型也包含输入层、隐含层及输出层,所述人体行为声音识别模型包含1层输入层,6层隐含层及1层输出层,隐含层的节点数从第一层至第六层分别为32、32、16、16、16、8。
作为一个优选的实施例,根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音,包括:
获取设定时长的实时声音信息放入所述人体行为声音识别模型进行识别,得到模型输出,若所述模型输出是人体行为声音对应数值则识别结果为人体行为声音,若所述模型输出是非人体行为声音对应数值则识别结果为非人体行为声音。
一个具体的实施例中,人体行为声音识别模型的结构示意图,如图2所示,根据实时声音信息得到对应的梅尔频率倒谱系数,输入梅尔频率倒谱系数,输出识别结果,输出数值1表示识别结果为人体行为声音,输出数值2表示识别结果为非人体行为声音。
另一个具体的实施例中,当识别结果为人体行为声音时,获取交互询问音频“主人是你吗?我想和你说说话,快来抱抱我吧”,并开始计时得到起始时间,在所述起始时间至设定时长的结束时间的过程中识别有无振动,设定时长10秒,在10秒内识别有无振动。
本发明实施例提供一种语音交互毛绒玩具的智能唤醒装置,其结构框图,如图3所示,所述语音交互毛绒玩具的智能唤醒装置包括信息获取模块301、数据处理模块302及语音交互模块303;
所述信息获取模块301,用于获取声音信息,根据所述声音信息构建人体行为声音识别模型;
所述数据处理模块302,根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音;
所述语音交互模块303,若为人体行为声音则在设定时长内识别所述毛绒玩具有无振动,若有则唤醒语音交互。
作为一个优选的实施例,所述数据处理模块包含麦克风和语音识别芯片,所述麦克风用于获取实时声音信息,所述语音识别芯片内置有基于深度神经网络的人体行为声音识别模型程序用于识别获取的实时声音信息;
所述语音交互模块包含振动传感器和扬声器,所述振动传感器用于识别所述毛绒玩具有无振动,所述扬声器用于语音交互。
一个具体的实施例中,麦克风不间断采集时长3秒的声音音频,并实时送入语音识别芯片。
作为一个优选的实施例,还包括电源模块和主控模块,所述电源模块用于给装置供能,所述主控模块包含主控芯片用于控制整个装置的正常运行。
一个具体的实施例中,语音交互毛绒玩具的智能唤醒装置的结构示意图,如图4所示,麦克风用于获取实时声音信息,获取到的声音信息在语音识别芯片中进行识别处理,处理结果输入至主控芯片,由主控芯片进行判断是人体行为声音还是非人体行为声音,并决定是否开启振动传感器感应功能识别所述毛绒玩具的振动情况,扬声器用于语音交互,电源模块用于给装置供能。
综上所述,本发明提供的语音交互毛绒玩具的智能唤醒方法及装置通过构建人体行为声音识别模型,利用模型识别实时获取到的声音信息,若为人体行为声音则能够主动唤醒毛绒玩具进行语音交互,若为非人体行为声音则继续获取实时声音信息,不需要被动地等待人的手动或语音唤醒,能够智能地识别周围声音信息,从而主动进行语音交互,增强了毛绒玩具在与人交互过程中的主动性,提升了语音交互毛绒玩具的用户体验。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种语音交互毛绒玩具的智能唤醒方法,其特征在于,包括:
获取声音信息,根据所述声音信息构建人体行为声音识别模型;
根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音;
若为人体行为声音则在设定时长内识别所述毛绒玩具有无振动,若有则唤醒语音交互。
2.根据权利要求1所述的语音交互毛绒玩具的智能唤醒方法,其特征在于,获取声音信息,根据所述声音信息构建人体行为声音识别模型,包括:
获取不同的人体行为声音和非人体行为声音,根据所述不同的人体行为声音和非人体行为声音得到对应的梅尔频率倒谱系数;
构建初始深度神经网络模型;
根据所述梅尔频率倒谱系数和所述初始深度神经网络模型得到人体行为声音识别模型。
3.根据权利要求2所述的语音交互毛绒玩具的智能唤醒方法,其特征在于,获取不同的人体行为声音和非人体行为声音,根据所述不同的人体行为声音和非人体行为声音得到对应的梅尔频率倒谱系数,包括:
获取人体行为声音音频和对应的音频标记、以及非人体行为声音音频和对应的音频标记,根据所述人体行为声音音频和非人体行为声音音频得到对应的梅尔频率倒谱系数。
4.根据权利要求3所述的语音交互毛绒玩具的智能唤醒方法,其特征在于,根据所述梅尔频率倒谱系数和所述初始深度神经网络模型得到人体行为声音识别模型,包括:
利用所述梅尔频率倒谱系数、所述人体行为声音音频标记以及非人体行为声音音频标记构建训练样本集,将所述训练样本集输入所述初始深度神经网络模型中进行训练得到所述人体行为声音识别模型。
5.根据权利要求4所述的语音交互毛绒玩具的智能唤醒方法,其特征在于,利用所述梅尔频率倒谱系数、所述人体行为声音音频标记以及非人体行为声音音频标记构建训练样本集,包括:
获取不同的说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频,以及不同的说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频对应的音频标记,根据所述说话声音频、脚步声音频、咳嗽声音频和非人体行为声音频得到对应的梅尔频率倒谱系数;
利用所述梅尔频率倒谱系数和所述音频标记形成多组子训练样本集,利用所述子训练样本集构建训练样本集。
6.根据权利要求2所述的语音交互毛绒玩具的智能唤醒方法,其特征在于,所述初始深度神经识别模型包含输入层、隐含层及输出层,所述输入层用于输入梅尔频率倒谱系数,所述输出层用于输出人体行为声音对应数值和非人体行为声音对应数值。
7.根据权利要求1所述的语音交互毛绒玩具的智能唤醒方法,其特征在于,根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音,包括:
获取设定时长的实时声音信息放入所述人体行为声音识别模型进行识别,得到模型输出,若所述模型输出是人体行为声音对应数值则识别结果为人体行为声音,若所述模型输出是非人体行为声音对应数值则识别结果为非人体行为声音。
8.一种语音交互毛绒玩具的智能唤醒装置,其特征在于,包括信息获取模块、数据处理模块及语音交互模块;
所述信息获取模块,用于获取声音信息,根据所述声音信息构建人体行为声音识别模型;
所述数据处理模块,根据获取的实时声音信息和所述人体行为声音识别模型判断是人体行为声音还是非人体行为声音;
所述语音交互模块,若为人体行为声音则在设定时长内识别所述毛绒玩具有无振动,若有则唤醒语音交互。
9.根据权利要求8所述的语音交互毛绒玩具的智能唤醒装置,其特征在于,所述数据处理模块包含麦克风和语音识别芯片,所述麦克风用于获取实时声音信息,所述语音识别芯片内置有基于深度神经网络的人体行为声音识别模型程序用于识别获取的实时声音信息;
所述语音交互模块包含振动传感器和扬声器,所述振动传感器用于识别所述毛绒玩具有无振动,所述扬声器用于语音交互。
10.根据权利要求8所述的语音交互毛绒玩具的智能唤醒装置,其特征在于,还包括电源模块和主控模块,所述电源模块用于给装置供能,所述主控模块包含主控芯片用于控制整个装置的正常运行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111248736.7A CN113920993A (zh) | 2021-10-26 | 2021-10-26 | 一种语音交互毛绒玩具的智能唤醒方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111248736.7A CN113920993A (zh) | 2021-10-26 | 2021-10-26 | 一种语音交互毛绒玩具的智能唤醒方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113920993A true CN113920993A (zh) | 2022-01-11 |
Family
ID=79242904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111248736.7A Pending CN113920993A (zh) | 2021-10-26 | 2021-10-26 | 一种语音交互毛绒玩具的智能唤醒方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113920993A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114822521A (zh) * | 2022-04-15 | 2022-07-29 | 广州易而达科技股份有限公司 | 一种音箱的唤醒方法、装置、设备及存储介质 |
CN117995174A (zh) * | 2024-04-07 | 2024-05-07 | 广东实丰智能科技有限公司 | 一种基于人机交互的学习型电动玩具控制方法 |
-
2021
- 2021-10-26 CN CN202111248736.7A patent/CN113920993A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114822521A (zh) * | 2022-04-15 | 2022-07-29 | 广州易而达科技股份有限公司 | 一种音箱的唤醒方法、装置、设备及存储介质 |
CN114822521B (zh) * | 2022-04-15 | 2023-07-11 | 广州易而达科技股份有限公司 | 一种音箱的唤醒方法、装置、设备及存储介质 |
CN117995174A (zh) * | 2024-04-07 | 2024-05-07 | 广东实丰智能科技有限公司 | 一种基于人机交互的学习型电动玩具控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108320733B (zh) | 语音数据处理方法及装置、存储介质、电子设备 | |
CN107481718B (zh) | 语音识别方法、装置、存储介质及电子设备 | |
US20030220796A1 (en) | Dialogue control system, dialogue control method and robotic device | |
CN108711429B (zh) | 电子设备及设备控制方法 | |
CN113920993A (zh) | 一种语音交互毛绒玩具的智能唤醒方法及装置 | |
CN110534099A (zh) | 语音唤醒处理方法、装置、存储介质及电子设备 | |
CN102404278A (zh) | 一种基于声纹识别的点歌系统及其应用方法 | |
CN110444210B (zh) | 一种语音识别的方法、唤醒词检测的方法及装置 | |
CN104575504A (zh) | 采用声纹和语音识别进行个性化电视语音唤醒的方法 | |
CN107972028B (zh) | 人机交互方法、装置及电子设备 | |
CN107871499B (zh) | 语音识别方法、系统、计算机设备及计算机可读存储介质 | |
CN109036395A (zh) | 个性化的音箱控制方法、系统、智能音箱及存储介质 | |
CN109378006A (zh) | 一种跨设备声纹识别方法及系统 | |
CN109887489A (zh) | 基于生成对抗网络的深度特征的语音去混响方法 | |
CN109272991A (zh) | 语音交互的方法、装置、设备和计算机可读存储介质 | |
CN110155075A (zh) | 氛围设备控制方法及相关装置 | |
CN111554303B (zh) | 一种歌曲演唱过程中的用户身份识别方法及存储介质 | |
WO2017177629A1 (zh) | 远讲语音识别方法及装置 | |
KR102355903B1 (ko) | 컨텐츠를 제공하는 전자 장치 및 방법 | |
CN107393539A (zh) | 一种声音密码控制方法 | |
CN112309396A (zh) | 一种ai虚拟机器人状态动态设置系统 | |
CN107993660A (zh) | 用于物联网智能控制系统的语音控制系统 | |
CN113516975A (zh) | 一种智能家居声控开关系统及控制方法 | |
CN116092497A (zh) | 一种基于知识图谱和人工智能的语义云脑机器人 | |
CN109922397A (zh) | 音频智能处理方法、存储介质、智能终端及智能蓝牙耳机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230721 Address after: 725021 Yanhe Commercial Building 2, Fenghuang Community, Yuebinnan Avenue, Hengkou Demonstration Area (Experimental Area), Ankang City, Shaanxi Province Applicant after: Ankang Qinba Manchuang Toys Industry Operation Management Co.,Ltd. Address before: 725021 zone 301, building D, Yanhe commercial building 2, Fenghuang community, yuebinnan Avenue, hengkou demonstration area (experimental area), Ankang City, Shaanxi Province Applicant before: Ankang huizhiqu toy Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right |