CN110265033A - 扩展设备语音交互功能的系统及方法 - Google Patents
扩展设备语音交互功能的系统及方法 Download PDFInfo
- Publication number
- CN110265033A CN110265033A CN201910543651.8A CN201910543651A CN110265033A CN 110265033 A CN110265033 A CN 110265033A CN 201910543651 A CN201910543651 A CN 201910543651A CN 110265033 A CN110265033 A CN 110265033A
- Authority
- CN
- China
- Prior art keywords
- end equipment
- instruction
- voice
- master control
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims abstract description 22
- 238000004458 analytical method Methods 0.000 claims abstract description 4
- 238000002224 dissection Methods 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 5
- YTAHJIFKAKIKAV-XNMGPUDCSA-N [(1R)-3-morpholin-4-yl-1-phenylpropyl] N-[(3S)-2-oxo-5-phenyl-1,3-dihydro-1,4-benzodiazepin-3-yl]carbamate Chemical compound O=C1[C@H](N=C(C2=C(N1)C=CC=C2)C1=CC=CC=C1)NC(O[C@H](CCN1CCOCC1)C1=CC=CC=C1)=O YTAHJIFKAKIKAV-XNMGPUDCSA-N 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 3
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 claims description 2
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 2
- 238000005516 engineering process Methods 0.000 abstract description 13
- 230000006870 function Effects 0.000 description 21
- 230000006854 communication Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明涉及语音交互控制技术,其公开了一种扩展设备语音交互功能的系统及方法,解决传统技术中由于老旧或低端电子设备的语音硬件配置缺失而造成的无法实现语音交互控制功能的问题,从而提升用户的交互体验。该系统包括主控端设备和被控端设备;主控端设备对用户的语音进行拾取和预处理,并进行语音识别和语义分析处理后提取交互控制指令,根据控制指令中的媒资检索需求在媒资库中进行相应资源检索,结合资源检索结果生成最终交互控制指令,进行编码后发送给被控端设备;被控端设备接收来自主控端设备的最终交互控制指令并进行解析处理,执行解析结果中的相关控制指令。本发明适用于对未配置语音硬件的老旧或低端可联网设备进行语音交互功能的扩展。
Description
技术领域
本发明涉及语音交互控制技术,特别涉及一种扩展设备语音交互功能的系统及方法。
背景技术
近年来,人工智能技术蓬勃发展,热度非凡。而语音识别技术作为人工智能技术的重要技术方向,其技术发展与应用落地也日益成熟。目前,绝大部分智能消费电子设备都支持语音技术进行交互控制。基于语音技术的交互控制方式彻底解放了人们的双手,极大的提升了人机交互的用户体验。
语音交互技术涉及语音拾取、音频编码、语音识别、语义识别、媒资检索、指令转译、指令执行等多个环节。因此,语音交互控制功能对设备的硬件配置和系统的资源配置要求较高,比如:要求配置麦克风或麦克风阵列等拾音设备,在语音编码、语音识别等环节要求占用较大的内存和CPU资源等。由于这些硬件条件的制约,导致很多低端的网络消费电子设备和上一代的网络消费电子设备无法使用语音交互控制功能。
发明内容
本发明所要解决的技术问题是:提出一种扩展设备语音交互功能的系统及方法,解决传统技术中由于老旧或低端电子设备的语音硬件配置缺失而造成的无法实现语音交互控制功能的问题,从而提升用户的交互体验。
本发明解决上述技术问题所采用的技术方案是:
扩展设备语音交互功能的系统,包括可通过网络建立连接的至少一个主控端设备和至少一个被控端设备;
所述主控端设备用于对用户的语音进行拾取和预处理,并进行语音识别和语义分析处理后提取交互控制指令,根据交互控制指令中的媒资检索需求在媒资库中进行相应资源检索,结合资源检索结果生成最终交互控制指令,并对最终交互控制指令进行编码后发送给被控端设备;
所述被控端设备用于接收来自主控端设备的最终交互控制指令并进行解析处理,执行解析结果中的相关控制指令。
作为进一步优化,所述被控端设备还用于向主控端设备发送其指令支持集,所述主控端设备还用于在获取被控端设备的指令支持集后进行保存和维护,所述指令支持集采用纯文本的方式进行规范和定义。
本方案中,被控端设备通过向主控端设备同步纯文本方式规范和定义的指令支持集,使得主控端设备能够知晓被控端设备能够支持的指令,便于在后期依据该指令支持集从识别的语音中提取相关指令和对交互控制指令的编码。
作为进一步优化,所述主控端和被控端设备处于同一局域网内。
通过局域网可以建立主控端设备和被控端设备的快速相互发现和连接,从而满足即时语音控制的需求。
作为进一步优化,所述被控端设备为具备联网功能而未搭载语音收发硬件的设备。
对于具备联网功能未搭载语音收发硬件的设备,采用本方案可以扩展出其语音交互功能,从而提升对这类设备的交互控制体验。
作为进一步优化,所述被控端设备还用于在执行相关控制指令后,通过网络向主控端设备反馈执行结果,主控端设备对执行结果进行显示或者语音播放。
若被控端设备为电视机类的显示设备,则用户可以直观地看到设备对交互控制指令的执行情况,而若被控端为空调、冰箱等设备,则用户无法直观知晓设备对交互控制指令是否执行成功,因此这里需要向主控端设备反馈一个执行结果,让用户知晓指令的执行状态。
作为进一步优化,所述主控端设备包括:
语音拾取模块,用于拾取用户输入的语音并进行去噪和平滑处理;
语音识别模块,用于对语音数据进行识别,获取识别结果;
语义处理模块,用于对识别结果进行语义理解处理,获取语义处理结果;
指令提取模块,用于从语义处理结果中提取控制指令;
媒资检索模块,用于当控制指令中含有媒资检索需求时,在媒资库中进行相应资源检索;
指令编码模块,用于结合提取的控制指令和资源检索结果生成最终的交互控制指令并进行编码;
指令收发模块,用于向被控端设备发送编码后的交互控制指令,以及接收被控端反馈的对交互控制指令的执行结果。
作为进一步优化,所述被控端设备包括:
指令接收模块,用于从主控端设备接收编码后的交互控制指令;
指令解码模块,用于对交互控制指令进行解码处理,获取解码出来的交互控制指令;
指令执行模块,用于执行解码出来的交互控制指令;
执行反馈模块,用于向主控设备反馈对交互控制指令的执行结果。
此外,基于上述系统,本发明还提供了一种扩展设备语音交互功能的方法,包括:
a.主控端设备和被控端设备之间建立交互通道;
b.被控端设备向主控端设备同步指令支持集;
c.主控端设备拾取用户输入的语音,对语音预处理后再进行语音识别;
d.主控端设备对语音识别结果进行语义理解处理,获取语义处理结果;
e.主控端设备依据指令支持集对从语义处理结果中提取控制指令;
f.主控端设备判断提取的控制指令中是否包含媒资检索需求,若是,执行步骤g,否则执行步骤h;
g.主控端设备依据媒资检索需求在云端在线媒资库中进行相应检索,获得检索结果,执行步骤i;
h.主控端设备依据指令支持集对提取的控制指令进行编码,获取编码后的交互控制指令,发送给被控端设备,执行步骤j;
i.主控端设备依据指令支持集对提取的控制指令和检索结果进行编码,获取编码后的交互控制指令,发送给被控端设备,执行步骤j;
j.被控端设备依据指令支持集对获取的交互控制指令进行解码处理;
k.被控端设备执行解码获取的交互控制指令,并将执行结果反馈给主控端设备。
作为进一步优化,步骤a中,主控端设备通过主动搜索和在线侦听的方式获取到被控端设备相关信息,并基于此信息与被控端设备之间建立双向的TCP连接通道。
本方案中,被控端设备可以自动在其局域网内发送上线报文,该报文可以被加入同一局域网的主控端设备侦听,并且,主控端设备也可以发送设备搜索请求报文,该请求报文被处于同一局域网的被控端设备获取;从而建立主控端设备与被控端设备之间的快速相互发现。而主动搜索和在线侦听都可以通过UDP广播报文方式实现。
作为进一步优化,步骤b中,所述被控端设备向主控端设备同步指令支持集是指:
被控端设备主动向主控端设备发送其指令支持集,主控设备接收指令支持集后,首先查找本地是否保存有该被控端设备的指令支持集,若已保存,则对此被控端设备历史存储的指令支持集进行更新,若未保存,则直接保存该指令支持集。
本发明的有益效果是:
由于对被控端设备的硬件配置和系统资源配置要求很低,对于绝大部分网络类消费电子产品都具备实施的条件,因此具有广泛的通用性。
只需要采用第三方的主控端设备通过网络建立与被控端设备之间的连接,即可在不增加任何硬件配置及成本的前提下,通过纯软件的方式,为未搭载语音收发硬件的老旧设备和低端设备增加语音交互控制功能,提升这类设备交互控制的体验,给用户带来交互体验的升级。通过本发明的实施,可以极大提升用户对产品的粘性,形成品牌及产品的口碑效应。
附图说明
图1为扩展设备语音交互功能的系统结构框图;
图2为扩展设备语音交互功能的方法流程图。
具体实施方式
本发明旨在提出一种扩展设备语音交互功能的系统及方法,解决传统技术中由于老旧或低端电子设备的语音硬件配置缺失而造成的无法实现语音交互控制功能的问题,从而提升用户的交互体验。
在具体实现上,如图1所示,本发明中的扩展语音交互功能的系统包括主控端设备和被控端设备两大部分,其中主控端设备是独立于被控端设备的第三方设备,也是本发明系统的核心组成设备,承担着本发明系统的核心功能,其硬件资源配置要求较高,且必须配置语音拾取硬件模块,比如目前的智能手机终端、PAD等都可以满足需求;其用于对用户的语音进行拾取和预处理,并进行语音识别和语义分析处理后提取交互控制指令,根据交互控制指令中的媒资检索需求在媒资库中进行相应资源检索,结合资源检索结果生成最终交互控制指令,对最终交互控制指令进行编码后发送给被控端设备;
被控端设备在本发明系统中是一个轻量级设备,其硬件配置要求相对较低,软件功能也相对简易,在本发明中被控端设备主要为未搭载语音收发硬件的老旧设备和低端设备,但是具备联网功能,本发明致力于在这类设备上扩展出语音交互功能,而又无需增加相关硬件。其用于接收来自主控端设备的最终交互控制指令并进行解析处理,执行解析结果中的相关控制指令,并将执行结果反馈给主控端设备。
下面简介主控端设备和被控端设备的功能模块的组成:
主控端设备包括:语音拾取模块、语音识别模块、语义处理模块、指令提取模块、媒资检索模块和指令收发模块;
语音拾取模块,用于拾取用户输入的语音并进行去噪和平滑处理;
语音识别模块,用于对语音数据进行识别,获取识别结果;
语义处理模块,用于对识别结果进行语义理解处理,获取语义处理结果;
指令提取模块,用于从语义处理结果中提取控制指令;
媒资检索模块,用于当控制指令中含有媒资检索需求时,在媒资库中进行相应资源检索;
指令编码模块,用于结合提取的控制指令和资源检索结果生成最终的交互控制指令并进行编码;
指令收发模块,用于向被控端设备发送编码后的交互控制指令,以及接收被控端反馈的对交互控制指令的执行结果。
被控端设备包括:指令接收模块、指令解码模块、指令执行模块和执行反馈模块。
指令接收模块,用于从主控端设备接收编码后的交互控制指令;
指令解码模块,用于对交互控制指令进行解码处理,获取解码出来的交互控制指令;
指令执行模块,用于执行解码出来的交互控制指令;
执行反馈模块,用于向主控设备反馈对交互控制指令的执行结果。
为了建立主控端设备和被控端设备之间的快速连接通道,可以采用局域网实现二者的快速相互发现和连接。二者建立连接通道之后,通过纯文本的数据和指令进行交互。
基于上述系统,本发明实现的扩展设备语音交互功能的方法如图2所示,其包括:
1、主被控端设备协同,并建立交互通信通道:
本步骤中,主控端设备可以加入被控端设备所在的局域网,通过主动搜索和在线侦听的方式获取到被控端设备相关信息,并基于此信息建立双向的TCP连接通道。而主动搜索和在线侦听都可以通过UDP广播报文方式实现。被控端设备相关信息包括设备名称、IP地址、端口号等。
2、被控端设备与主控端设备同步控制指令支持集:
本步骤中,被控设备主动向主控设备发送其指令支持集,主控设备接收指令支持集,通过查找本地是否已经保存了该被控设备的指令支持集,若已保存,则利用新接收的指令支持集对历史存储的指令支持集进行更新,若未保存,则直接保存该指令支持集。这里的“指令支持集”是被控端设备所能够支持的控制指令,采用纯文本的方式进行规范和定义。在后期提取控制指令和编码、解码过程都需要应用到该指令支持集。
3、语音拾取及识别处理:
本步骤中,主控端设备拾取用户的语音输入信息,并对语音数据进行前期处理,包括去噪处理、平滑处理等,然后对语音数据进行识别处理,获取到语音识别之后的结果数据。
4、语义识别处理:
本步骤中,主控端设备对语音识别后的结果数据进行语义理解处理,比如:进行分词和断句处理,处理成机器可以理解的控制指令文本。
5、交互控制指令的提取:
本步骤中,基于语义识别处理的结果,主控端设备可以依据保存的被控端的指令支持集来提取其中的交互控制指令。
6、媒体资源检索:
此步骤并非必要步骤,只适用于在步骤5提取得到的控制指令中包含媒资检索需求的情况,则主控端设备通过检索云端在线媒资库来检索相关的媒资信息,并获取到最终的媒资内容结果。而如果步骤5中提取的交互控制指令中并不含有媒资检索需求,比如仅是对音量的调节、快进、快退调节等操作时,则不需要进入此步骤,而是直接进入步骤7对控制指令进行编码。
7、交互控制指令编码生成及发送:
本步骤中,对于提取的控制指令中包含媒资检索需求的情况,主控端设备根据步骤5和步骤6得到的结果,组织生成最终的交互控制指令,并依据保存的被控端设备的指令支持集表进行编码,然后通过建立的通信通道发送给被控端设备。对于提取的控制指令中不包含媒资检索需求的情况,主控端设备直接依据保存的被控端设备的指令支持集对提取的控制指令进行编码,然后通过建立的通信通道发送给被控端设备。
8、交互控制指令接收及解码:
本步骤中,被控端设备接收到主控端发送的交互控制指令文本,基于被控端设备的指令支持集表进行解码,并生成本地机器可以识别的控制指令。
9、交互控制指令执行及响应:
本步骤中,被控端设备执行步骤8生成的控制指令,并将执行完成后的结果通过双向通信通道反馈给主控端设备。
实施例:
以主控端设备为智能手机,被控端设备为不带语音收发硬件的网络电视为例来阐述本发明中的扩展设备语音交互功能的方法,其包括以下步骤:
(1)智能手机联网上线后,搜索获取到网络电视的相关信息,包括设备名称为“客厅电视1”、IP地址为“192.168.1.100”、端口port为“12345”,并基于此信息建立起智能手机与网络电视间的双向TCP连接通道。
(2)TCP连接通道建立完成后,网络电视主动向智能手机发送其指令支持集,该指令集包括一类系统控制指令组合,包括播放控制、片源切换、场景切换等。智能手机接收到此指令支持集后,同步更新此前已经保存的该网络电视的指令支持集。
(3)用户通过智能手机输入“我想看战狼2”,智能手机对该条语音数据进行去噪处理、平滑处理后,对语音数据进行识别处理,获取到“我想看战狼2”的处理结果。
(4)智能手机对“我想看战狼2”进行语义理解和分词处理,得到“我”“想看”“战狼2”等语义分词。
(5)基于步骤(4)的结果,智能手机设备设备提取其中的交互控制指令:跳转到电影“战狼2”进行播放。
(6)智能手机设备通过媒资检索模块检索云端在线媒资库,查询获取到电影“战狼2”的相关媒资信息,包括电影海报、内容简介、播放链接地址等。
(7)智能手机设备汇总步骤(5)和步骤(6)得到的结果,并依据步骤(2)获取到的指令支持集,组织生成最终的交互控制指令文本串“CMD:Play;FilmBill:addr1;FlimLink:addr2”,然后通过TCP通信通道发送给网络电视设备。
(8)网络电视接收到智能手机端发送的交互控制指令文本,基于指令支持集对该控制指令进行解码,并生成网络电视可以识别的点播播放指令。
(9)网络电视执行点播播放指令,调用相关播放器启动电影“战狼2”的播放,成果播放完成后,将执行播放成功的结果通过双向通信通道反馈给智能手机设备。
至此,完成智能手机语音控制网络电视的流程。如此循环,完成智能手机对网络电视的多轮语音交互控制。
由此可以看出,本发明只需要采用第三方的主控端设备通过网络建立与被控端设备之间的连接,即可在不增加任何硬件配置及成本的前提下,通过纯软件的方式,为未搭载语音收发硬件的老旧设备和低端设备增加语音交互控制功能,提升这类设备交互控制的体验,给用户带来交互体验的升级。通过本发明的实施,可以极大提升用户对产品的粘性,形成品牌及产品的口碑效应。
Claims (10)
1.扩展设备语音交互功能的系统,其特征在于,
包括可通过网络建立连接的至少一个主控端设备和至少一个被控端设备;
所述主控端设备用于对用户的语音进行拾取和预处理,并进行语音识别和语义分析处理后提取交互控制指令,根据交互控制指令中的媒资检索需求在媒资库中进行相应资源检索,结合资源检索结果生成最终交互控制指令,并对最终交互控制指令进行编码后发送给被控端设备;
所述被控端设备用于接收来自主控端设备的最终交互控制指令并进行解析处理,执行解析结果中的相关控制指令。
2.如权利要求1所述的扩展设备语音交互功能的系统,其特征在于,
所述被控端设备还用于向主控端设备发送其指令支持集,所述主控端设备还用于在获取被控端设备的指令支持集后进行保存和维护,所述指令支持集采用纯文本的方式进行规范和定义。
3.如权利要求1所述的扩展设备语音交互功能的系统,其特征在于,
所述主控端和被控端设备处于同一局域网内。
4.如权利要求1所述的扩展设备语音交互功能的系统,其特征在于,
所述被控端设备为具备联网功能而未搭载语音收发硬件的设备。
5.如权利要求1所述的扩展设备语音交互功能的系统,其特征在于,
所述被控端设备还用于在执行相关控制指令后,通过网络向主控端设备反馈执行结果,主控端设备对执行结果进行显示或者语音播放。
6.如权利要求1所述的扩展设备语音交互功能的系统,其特征在于,
所述主控端设备包括:
语音拾取模块,用于拾取用户输入的语音并进行去噪和平滑处理;
语音识别模块,用于对语音数据进行识别,获取识别结果;
语义处理模块,用于对识别结果进行语义理解处理,获取语义处理结果;
指令提取模块,用于从语义处理结果中提取控制指令;
媒资检索模块,用于当控制指令中含有媒资检索需求时,在媒资库中进行相应资源检索;
指令编码模块,用于结合提取的控制指令和资源检索结果生成最终的交互控制指令并进行编码;
指令收发模块,用于向被控端设备发送编码后的交互控制指令,以及接收被控端反馈的对交互控制指令的执行结果。
7.如权利要求1所述的扩展设备语音交互功能的系统,其特征在于,
所述被控端设备包括:
指令接收模块,用于从主控端设备接收编码后的交互控制指令;
指令解码模块,用于对交互控制指令进行解码处理,获取解码出来的交互控制指令;
指令执行模块,用于执行解码出来的交互控制指令;
执行反馈模块,用于向主控设备反馈对交互控制指令的执行结果。
8.扩展设备语音交互功能的方法,其特征在于,包括:
a.主控端设备和被控端设备之间建立交互通道;
b.被控端设备向主控端设备同步指令支持集;
c.主控端设备拾取用户输入的语音,对语音预处理后再进行语音识别;
d.主控端设备对语音识别结果进行语义理解处理,获取语义处理结果;
e.主控端设备依据指令支持集对从语义处理结果中提取控制指令;
f.主控端设备判断提取的控制指令中是否包含媒资检索需求,若是,执行步骤g,否则执行步骤h;
g.主控端设备依据媒资检索需求在云端在线媒资库中进行相应检索,获得检索结果,执行步骤i;
h.主控端设备依据指令支持集对提取的控制指令进行编码,获取编码后的交互控制指令,发送给被控端设备,执行步骤j;
i.主控端设备依据指令支持集对提取的控制指令和检索结果进行编码,获取编码后的交互控制指令,发送给被控端设备,执行步骤j;
j.被控端设备依据指令支持集对获取的交互控制指令进行解码处理;
k.被控端设备执行解码获取的交互控制指令,并将执行结果反馈给主控端设备。
9.如权利要求8所述的扩展设备语音交互功能的方法,其特征在于,
步骤a中,主控端设备通过主动搜索和在线侦听的方式获取到被控端设备相关信息,并基于此信息与被控端设备之间建立双向的TCP连接通道。
10.如权利要求8所述的扩展设备语音交互功能的方法,其特征在于,
步骤b中,所述被控端设备向主控端设备同步指令支持集是指:
被控端设备主动向主控端设备发送其指令支持集,主控设备接收指令支持集后,首先查找本地是否保存有该被控端设备的指令支持集,若已保存,则对此被控端设备历史存储的指令支持集进行更新,若未保存,则直接保存该指令支持集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910543651.8A CN110265033A (zh) | 2019-06-21 | 2019-06-21 | 扩展设备语音交互功能的系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910543651.8A CN110265033A (zh) | 2019-06-21 | 2019-06-21 | 扩展设备语音交互功能的系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110265033A true CN110265033A (zh) | 2019-09-20 |
Family
ID=67920421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910543651.8A Pending CN110265033A (zh) | 2019-06-21 | 2019-06-21 | 扩展设备语音交互功能的系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110265033A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021135604A1 (zh) * | 2019-12-31 | 2021-07-08 | 华为技术有限公司 | 语音控制方法、装置、服务器、终端设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102664009A (zh) * | 2012-05-07 | 2012-09-12 | 乐视网信息技术(北京)股份有限公司 | 一种通过移动通信终端对视频播放装置进行语音控制的系统及方法 |
CN102843595A (zh) * | 2012-08-06 | 2012-12-26 | 四川长虹电器股份有限公司 | 通过终端设备语音控制智能电视的方法 |
EP2860726A2 (en) * | 2011-12-30 | 2015-04-15 | Samsung Electronics Co., Ltd | Electronic apparatus and method of controlling electronic apparatus |
CN105338023A (zh) * | 2014-07-11 | 2016-02-17 | 北京华为数字技术有限公司 | 一种智能设备控制的方法、装置及系统 |
CN105578240A (zh) * | 2015-12-23 | 2016-05-11 | 广州视源电子科技股份有限公司 | 电视终端交互方法和系统 |
CN109243160A (zh) * | 2018-11-19 | 2019-01-18 | 侯力宇 | 一种新型语音家用电器遥控方法和系统 |
CN109246459A (zh) * | 2018-10-30 | 2019-01-18 | 广州金视网络信息工程有限公司 | 基于人工智能机顶盒控制设备的方法、装置和设备 |
CN109658932A (zh) * | 2018-12-24 | 2019-04-19 | 深圳创维-Rgb电子有限公司 | 一种设备控制方法、装置、设备及介质 |
CN109819297A (zh) * | 2017-11-22 | 2019-05-28 | 中国移动通信有限公司研究院 | 一种操作控制方法及机顶盒 |
-
2019
- 2019-06-21 CN CN201910543651.8A patent/CN110265033A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2860726A2 (en) * | 2011-12-30 | 2015-04-15 | Samsung Electronics Co., Ltd | Electronic apparatus and method of controlling electronic apparatus |
CN102664009A (zh) * | 2012-05-07 | 2012-09-12 | 乐视网信息技术(北京)股份有限公司 | 一种通过移动通信终端对视频播放装置进行语音控制的系统及方法 |
CN102843595A (zh) * | 2012-08-06 | 2012-12-26 | 四川长虹电器股份有限公司 | 通过终端设备语音控制智能电视的方法 |
CN105338023A (zh) * | 2014-07-11 | 2016-02-17 | 北京华为数字技术有限公司 | 一种智能设备控制的方法、装置及系统 |
CN105578240A (zh) * | 2015-12-23 | 2016-05-11 | 广州视源电子科技股份有限公司 | 电视终端交互方法和系统 |
CN109819297A (zh) * | 2017-11-22 | 2019-05-28 | 中国移动通信有限公司研究院 | 一种操作控制方法及机顶盒 |
CN109246459A (zh) * | 2018-10-30 | 2019-01-18 | 广州金视网络信息工程有限公司 | 基于人工智能机顶盒控制设备的方法、装置和设备 |
CN109243160A (zh) * | 2018-11-19 | 2019-01-18 | 侯力宇 | 一种新型语音家用电器遥控方法和系统 |
CN109658932A (zh) * | 2018-12-24 | 2019-04-19 | 深圳创维-Rgb电子有限公司 | 一种设备控制方法、装置、设备及介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021135604A1 (zh) * | 2019-12-31 | 2021-07-08 | 华为技术有限公司 | 语音控制方法、装置、服务器、终端设备及存储介质 |
CN113127609A (zh) * | 2019-12-31 | 2021-07-16 | 华为技术有限公司 | 语音控制方法、装置、服务器、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112995706B (zh) | 基于人工智能的直播方法、装置、设备及存储介质 | |
CN109168078B (zh) | 一种视频清晰度切换方法及装置 | |
CN111010589A (zh) | 基于人工智能的直播方法、装置、设备及存储介质 | |
CN110932953A (zh) | 智能家居控制方法、装置、计算机设备及存储介质 | |
CN108646580A (zh) | 控制对象的确定方法及装置、存储介质、电子装置 | |
CN104699676B (zh) | 基于语音识别的信息搜索方法和系统 | |
CN104122979A (zh) | 一种语音控制大屏幕的方法及装置 | |
CN108922528A (zh) | 用于处理语音的方法和装置 | |
CN208675397U (zh) | 一种基于音视频通讯的远程同声传译的装置 | |
CN106993196A (zh) | 一种智能电视的云管理方法及其系统、一种智能电视 | |
CN113741762A (zh) | 一种多媒体播放方法、装置、电子设备和存储介质 | |
CN110971685B (zh) | 内容处理方法、装置、计算机设备及存储介质 | |
CN106792047A (zh) | 一种智能电视的语音控制方法及系统 | |
CN110265033A (zh) | 扩展设备语音交互功能的系统及方法 | |
CN108337556A (zh) | 用于播放影音文件的方法和装置 | |
CN110418181A (zh) | 对智能电视的业务处理方法、装置、智能设备及存储介质 | |
CN110113298A (zh) | 数据传输方法、装置、信令服务器和计算机可读介质 | |
CN104506901B (zh) | 基于电视场景状态及语音助手的语音辅助方法及系统 | |
CN106850605A (zh) | 一种数据处理方法及装置 | |
CN103414720A (zh) | 交互式3d语音服务方法 | |
CN104853252B (zh) | 一种互动的多主页控制方法、装置和系统 | |
CN110730373A (zh) | 带屏设备之间的跨屏推送视频的方法及系统 | |
CN115547321A (zh) | 一种业务处理方法和服务器 | |
CN106303643A (zh) | 遥控方法及装置 | |
CN113299135A (zh) | 题目互动方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190920 |