CN109389975A - 语音辅助系统、服务器装置、设备、其语音辅助方法 - Google Patents
语音辅助系统、服务器装置、设备、其语音辅助方法 Download PDFInfo
- Publication number
- CN109389975A CN109389975A CN201810621047.8A CN201810621047A CN109389975A CN 109389975 A CN109389975 A CN 109389975A CN 201810621047 A CN201810621047 A CN 201810621047A CN 109389975 A CN109389975 A CN 109389975A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- equipment
- voice
- recording
- server unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 28
- 241001269238 Data Species 0.000 claims abstract description 11
- 238000004891 communication Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/083—Recognition networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/086—Recognition of spelled words
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明提供一种语音辅助系统,即使在有多个能够利用语音辅助的设备的情况下,也能够简单地利用语音辅助,而用户不会犹豫使用哪个设备。本发明是进行语音辅助的服务器装置与多个设备能够通信地连接的语音辅助系统,上述多个设备分别经由麦克风将相同的用户话语录音,并将其录音数据发送到上述服务器装置,上述服务器装置接收从上述多个设备分别发送的录音数据,并根据规定的基准对接收到的多个录音数据进行语音识别,由此解释上述用户话语的内容来进行语音辅助。
Description
技术领域
本发明涉及语音辅助系统、服务器装置、设备、其语音辅助方法、以及存储介质。
背景技术
最近,语音辅助安装于各种设备中。这样的语音助理具有解释用户的话语,并执行用语音指示的各种提问的回答、操作的功能。语音助理一般使用语音识别、自然语言处理等技术来解释用户说的内容。
在设备中,通常,若用户发出规定的关键字(起动话语指令),则语音辅助功能起动,用户能够使用语音辅助。现在,由于每个设备都安装有独特的语音助理,所以用户需要对每个提问的设备分开使用关键字,而不方便。例如,在是Windows(注册商标)机器的情况下,关键字为“Hey Cortana”,在是iPhone(注册商标)终端的情况下,关键字是“Hey Siri”,在是Android终端的情况下,关键字是“OK Google”等。
在用户的房间有这些多个设备的情况下,存在用户犹豫使用哪个设备的语音辅助好的情况,另外,需要对每个设备记住关键字,而用户不方便。由于今后IoT越来越普及,各种设备、服务进行合作,则能够利用语音辅助的设备越来越多,所以用户犹豫使哪个设备识别语音、回答的情况更多。
专利文献1:日本特开2013-73240号公报。
发明内容
本发明是鉴于上述而完成的,其目的在于提供在有多个能够利用语音辅助的设备的情况下,也能够简单地利用语音辅助而用户不会犹豫使用哪个设备的语音辅助系统、服务器装置、设备、其语音辅助方法、以及用于计算机执行的程序。
为了解决上述的课题,并实现目的,本发明的第一方式的进行语音辅助的服务器装置与多个设备能够进行通信地连接的语音辅助系统,其中,上述多个设备分别经由麦克风对相同的用户话语录音并将其录音数据发送到上述服务器装置,上述服务器装置接收分别从上述多个设备发送的录音数据,并根据规定的基准对接收到的多个录音数据进行语音识别,由此解释上述用户话语的内容来进行语音辅助。
另外,上述多个设备也可以在经由上述麦克风输入了用户的规定的起动话语指令后,开始用户话语的录音。
另外,也可以是上述多个设备还将录音状态信息分别发送到上述服务器装置,该录音状态信息表示对上述用户话语录音时的录音状态,上述服务器装置在对上述接收到的多个录音数据进行语音识别的情况下,进行与上述录音状态信息对应的加权,来解释上述用户话语的内容。
另外,上述录音状态信息也可以包括录音等级、噪声等级、以及回声中的至少一个信息。
另外,上述录音状态信息也可以包括录音等级、噪声等级、以及回声的全部信息。
另外,上述服务器装置还可以根据规定的优先级选择上述多个设备中输出语音辅助的设备。
另外,上述规定的优先级也可以根据上述设备是否处于使用中、上述设备中使用的输出单元、上述设备与用户的距离、以及上述设备的输出单元的性能中的一个或者多个决定。
另外,为了解决上述的课题,并实现目的,本发明的第二方式的能够进行通信地与多个设备连接且进行语音辅助的服务器装置具备:通信部,用于经由网络与上述多个设备进行数据通信;语音识别部,通过根据规定的基准对经由上述通信部接收到的分别从上述多个设备发送的相同的用户话语的录音数据进行语音识别,来解释上述用户话语的内容;以及语音辅助部,进行与被上述语音识别部解释的上述用户话语的内容对应的语音助理。
另外,上述语音识别部也可以在对上述相同的用户话语的录音数据进行语音识别的情况下,进行与从上述多个设备送出的录音状态信息对应的加权,来解释上述用户话语的内容,上述录音状态信息表示对上述用户话语录音时的录音状态。
另外,上述录音状态信息也可以包括录音等级、噪声等级、以及回声中的至少一个信息。
另外,上述录音状态信息也可以包括录音等级、噪声等级、以及回声的全部信息。
另外,上述语音辅助部也可以根据规定的优先级选择上述多个设备中输出语音辅助的设备。
另外,上述规定的优先级也可以根据上述设备是否处于使用中、上述设备所使用的输出单元的种类、上述设备与用户的距离、以及上述设备的输出单元的性能中的一个或者多个决定。
另外,为了解决上述的课题,并实现目的,本发明的第三方式的能够进行数据通信地与进行语音辅助的服务器装置连接的设备具备:通信部,用于经由网络与上述服务器装置进行数据通信;麦克风,用于输入语音;以及请求部,经由上述麦克风对与其他的设备相同的用户话语录音,并将其录音数据经由上述通信部发送到上述服务器装置。
另外,为了解决上述的课题,并实现目的,本发明的第四方式的能够进行通信地与多个设备连接的服务器装置执行的语音辅助方法包括:语音识别工序,通过根据规定的基准对经由通信部接收到的分别从上述多个设备发送的相同的用户话语的录音数据进行语音识别,来解释上述用户话语的内容;以及语音辅助工序,进行与被上述语音识别工序解释的上述用户话语的内容对应的语音助理。
另外,为了解决上述的课题,并实现目的,本发明的第五方式的存储计算机可执行程序的存储介质,安装于能够进行通信地与多个设备连接的服务器装置的程序使计算机执行:语音识别工序,通过根据规定的基准对经由通信部接收到的分别从上述多个设备发送的相同的用户话语的录音数据进行语音识别,来解释上述用户话语的内容;以及语音辅助工序,进行与被上述语音识别工序解释的上述用户话语的内容对应的语音助理。
根据本发明的上述方式,起到在有多个能够利用语音辅助的设备的情况下,也能够简单地利用语音辅助而用户不会犹豫使用哪个设备这样的效果。
附图说明
图1是表示本实施方式的语音辅助系统的概念图的图。
图2是用于对图1的语音辅助系统的动作的概略进行说明的流程图。
图3是用于对设备的可靠度(权重)进行说明的图。
图4是用于对利用多个设备将用户的话语录音的情况进行说明的图。
图5是用于对设备的可靠度和服务器装置的语音识别部的最终语音识别结果进行说明的图。
图6是用于对服务器装置的语音辅助部执行的输出目的地设备选择处理的具体例子进行说明的说明图。
图7是用于对图1的服务器装置的硬件构成例进行说明的图。
图8是表示图1的设备的硬件构成例的图。
具体实施方式
以下,对应用本实施方式的语音辅助系统、服务器装置、设备、其语音辅助方法、以及用于计算机执行的程序的计算机系统的实施方式进行说明。本发明的构成要素一般在本说明书的附图示出,但能够容易理解也可以通过各种构成广泛地以各种方式配置设计。因此,以下的关于本发明的装置、方法、以及程序的实施方式的更详细的说明并不限定权利要求书所示的本发明的范围,仅示出本发明选择出的实施方式的一个例子,仅示出与本说明书的权利要求书所示的本发明没有矛盾地关于装置、系统以及方法的选择出的实施方式。本领域技术人员能够理解即使没有一个以上的特定细节、或者用其他的方法、部件、材料也能够实现本发明。
(实施方式)
图1是表示本实施方式的语音辅助系统的概念图的图。如图1所示,本实施方式的语音辅助系统1构成为服务器装置10和多个设备20能够经由网络30进行数据通信。
服务器装置10根据来自设备20的语音辅助的请求执行语音辅助。设备20将语音辅助的请求发送到服务器装置10。设备20例如是笔记本PC、台式PC、智能手机、平板手机、平板电脑、智能手表、互联网TV、Homehub、PDA、移动电话、以及各种家电产品等。
网络30具有能够将服务器装置10和多个设备20相互通信地连接的功能,例如为互联网、有线或者无线的LAN(Local Area Network:局域网)等。
在本实施方式中,多个设备20在相同的时机分别经由麦克风对用户的话语录音,并将录音到的用户的话语(录音数据)发送到服务器装置10。服务器装置10对从多个设备20发送出的多个录音数据进行语音识别来解释用户的话语的内容,经由设备20执行语音辅助。由此,在有多个能够利用语音辅助的设备20的情况下,用户也不会犹豫选择哪个设备利用语音辅助。
如图1所示,服务器装置10具备:通信部11,用于经由网络30与多个设备20进行数据通信;语音识别部12,通过根据规定的基准对经由通信部11接收到的分别从多个设备20发送的相同的用户话语的多个录音数据进行语音识别,来解释用户话语的内容;语音辅助部13,执行与被语音识别部12解释后的用户的话语的内容对应的语音助理;以及存储部14。
语音识别部12也可以在对用户话语的多个录音数据进行语音识别的情况下,进行与从多个设备20送出的表示将用户话语录音时的录音状态的录音状态信息对应的加权,来解释用户话语的内容。
语音辅助部13也可以根据规定的优先级选择多个设备20中输出语音辅助的设备。另外,规定的优先级也可以根据设备20是否是使用中、设备20中所使用的输出单元的种类、设备20与用户的距离、以及设备20的输出单元的性能中的一个或者多个决定。
存储部14也可以具备将利用语音辅助的用户名和该用户使用的多个设备的设备信息相关联登录的设备表14a。设备信息也可以包括设备名、机种名、IP地址、所安装的输出单元的种类以及其规格(例如,在扬声器的情况下,输出声压等级、频率特性、交叉频率、输入阻抗、允许输入等,在显示器的情况下,画面尺寸、分辨率等)。在本实施方式中,利用服务器装置10的语音辅助的用户以及其设备信息预先登录于设备表14a。语音辅助部13也可以根据来自设备20的请求向设备表14a登录用户名和设备信息。
在上述服务器装置10中,语音识别部12以及语音辅助部13例如能够由硬件、软件(OS、API、服务、实用程序、库、驱动器、以及应用等程序)的模块、或者其组合构成。另外,也可以通过计算机执行程序,来实现语音识别部12以及语音辅助部13的功能。
如图1所示,多个设备20分别具备:通信部21,用于经由网络30与服务器装置10进行数据通信;麦克风22,用于输入语音;请求部23,经由麦克风22将用户话语录音,且将录音到的用户的话语的数据(录音数据)经由通信部21发送到服务器装置10;以及输出单元24。
输出单元24由液晶、有机EL、等离子体、以及CRT等显示器、扬声器、包括耳塞式耳机(earphone)、头戴式耳机(headphone)的耳麦(headset)、以及打印机等的一个或者多个构成,具有将信息、语音输出到外部的功能。根据设备20,安装的输出单元24的种类、规格不同。
麦克风22例如由单个麦克风、双麦克风、以及阵列麦克风等构成,用于收集用户的话语等语音并输入。
请求部23也可以例如在经由麦克风22输入了用户的规定的起动话语指令(例如,Hello、〇〇)的情况下,将之后的用户话语录音,并将录音到的用户话语的数据(录音数据)经由通信部21发送到服务器装置10。这样,通过在多个设备20使用相同的关键字(起动话语指令),用户不需要对每个设备记住关键字,对于用户来说变得便利。
另外,请求部23也可以将表示对用户话语录音时的录音状态的录音状态信息经由通信部21发送到服务器装置10。录音状态信息例如也可以包括录音等级、噪声等级、回声的影响、与用户(话语的声源)的距离、用户(话语的声源)的方向中的一个或者多个信息。
另外,请求部23也可以发送表示对用户话语录音时的该设备20的使用状态的使用状态信息。使用状态信息例如也可以包括设备20是否是使用中、当前在设备20使用的输出单元、以及设备20与用户的距离等信息。
在上述设备20中,请求部23例如能够由硬件或软件(OS、API、服务、实用程序、库、驱动器、以及应用等程序)的模块、或者其组合构成。另外,也可以通过计算机执行程序,来实现请求部23的功能。
图2是用于对图1的语音辅助系统1的动作的一个例子的概略进行说明的流程图。参照图2对图1的语音辅助系统1的动作的一个例子的概略进行说明。
在图2中,在多个设备20中,若用户说话,则各请求部23经由麦克风22将用户话语录音(步骤S1)。请求部23例如在输入了用户的规定的起动话语指令(例如,Hello,〇〇)的情况下,也可以开始动作来对之后的用户的话语的内容录音。
另外,各请求部23获取表示对用户话语录音时的录音状态的录音状态信息(步骤S2)。并且,各请求部23获取表示当前的设备的使用状态的使用状态信息(步骤S3)。
各请求部23将录音到的用户话语(录音数据)、录音状态信息、以及使用状态信息经由通信部21发送到服务器装置10(步骤S4)。
在服务器装置10中,语音识别部12经由通信部11接收从多个设备20送出的录音到的用户话语(录音数据)、录音状态信息、以及使用状态信息(步骤T1)。
语音识别部12对于接收到的多个录音数据执行语音识别处理(步骤T2)。具体而言,在语音识别处理中,在对多个录音数据进行语音识别的情况下,根据录音状态信息进行加权,来解释最终的用户的话语的内容。
接下来,语音辅助部13执行从多个设备20中选择输出语音辅助的设备的输出目的地设备选择处理(步骤T3)。具体而言,在输出目的地设备选择处理中,参照从多个设备20接收到的使用状态信息以及登录到存储部14的对应的设备信息(安装于设备20的输出单元的种类以及其规格),根据规定的优先级,选择多个设备20中输出语音辅助的设备。此外,输出语音辅助的设备并不局限于送出录音数据的设备,也可以选择其他的设备。
语音辅助部13将选择出的设备10作为输出目的地来执行语音辅助(步骤T4),选择出的设备输出语音辅助(步骤S5)。
图3~图5是用于对服务器装置10的语音识别部12执行的语音识别处理(图2的步骤T2)的一个例子进行说明的说明图。参照图3~图5,对服务器装置10的语音识别部12执行的语音识别处理的具体例子进行说明。
图3是用于对设备20的可靠度(权重)进行说明的图。各设备20的可靠度能够通过可靠度=录音等级的评分+噪声等级的评分+回声的影响的评分计算。评分越高,可靠度越高。录音等级在评分0~5的范围内录音的音量越大,评分越高。噪声等级在评分0~5的范围内,周围的噪声越少,评分越高。从扬声器输出的声音越小,回声的影响的评分越高。
也可以是各设备20的请求部23例如将录音等级、噪声等级、回声的影响的信息作为录音状态信息发送到服务器装置10,服务器装置10的语音识别部12基于录音状态信息计算各设备20的可靠度。另外,各设备20的请求部23也可以计算可靠度=录音等级的评分+噪声等级的评分+回声的影响的评分,并将可靠度作为录音状态信息发送到服务器装置10。
图4是用于对利用多个设备20将用户的话语录音的情况进行说明的图。在图4中,作为多个设备20,在A先生的房间配置有互联网TV20A、Homehub20B、台式PC20C、笔记本PC20D。A先生例如在说出规定的起动话语指令(例如,Hello、〇〇)后,说出(提问)“今天的天气?”。
例如,互联网TV20A靠近A先生且周边噪声也小但正在使用扬声器而有回声,所以可靠度=录音等级(4)+噪声(5)+回声(0)=9。
例如,Homehub20B靠近A先生,且既没有回声的影响,周边噪声也是中度,所以可靠度=录音等级(5)+噪声(3)+回声(5)=13。
例如,台式PC20C录音等级是中度且未使用扬声器,但周围嘈杂,所以可靠度=录音等级(3)+噪声(1)+回声(5)=9。
例如,笔记本PC20D既没有回声的影响,周边噪声也小,但远离A先生,录音音量较小,所以可靠度=录音等级(2)+噪声(4)+回声(5)=11。
在该例中,可靠度从高到低为Homehub20B(可靠度=13)>笔记本PC20D(可靠度=11)>互联网TV20A(可靠度=9)=台式PC20C(可靠度=9)。
图5是用于对设备20的可靠度和服务器装置10的语音识别部12的最终的语音识别结果进行说明的图。在图5中,通过服务器装置10的语音识别部12分别对利用互联网TV20A、Homehub20B、台式PC20C、笔记本PC20D录音到的A先生的话语“今天的天气?”进行语音识别的结果例如为“今天的变化?”、“今天的天气?”、“今天的天下?”、“今天的天气?”。语音识别部12例如也可以对于语音识别结果在全部的设备中相同的部分直接采用相同的部分,对于不同的部分进行基于评价值的加权(例如,也可以采用评价值是规定值以上的设备的结果、或者采用评价值最高的设备的结果。)。
在图5中,例如,“今天的”部分全部相同,所以也可以采用其结果。另外,“天气?”的部分为“变化?”、“天气?”、“天下?”、“天气?”不同,所以也可以采用可靠度高的Homehub20B(可靠度=13)和笔记本PC20D(可靠度=11)的结果“天气?”。而且,语音识别部12也可以采用“今天的天气?”作为最终的语音识别结果。
图6是用于对服务器装置10的语音辅助部13执行的输出目的地设备选择处理(图2的步骤T4)的具体例子进行说明的说明图。参照图6,对服务器装置100的语音辅助部13执行的输出目的地设备选择处理的具体例子进行说明。
语音辅助部13例如能够将选择输出目的地设备的优先级作为1.是否是使用中的设备、2.设备使用的语音输出单元的种类、3.设备的位置(与用户的距离)、4.设备的语音输出单元的性能的顺序。
更具体而言,关于“1.是否是使用中的设备”,例如,判断电源是否接通,并优先使用电源接通的使用中的设备。是因为不能从电源未接通的设备输出。
关于“2.设备使用的语音输出单元的种类”,例如,使用耳麦的情况下,使耳麦比扬声器优先。是因为在用户使用耳麦的情况下,用户期待从耳麦输出。
关于“3.设备的位置(与用户的距离)”,例如,将与用户的距离按大致的距离范围分为近距离(例,0~2m)、中距离(例,2~5m)、远距离(例,5m~),使优先级为近距离>中距离>远距离。
关于“4.设备的语音输出单元的性能的顺序”,在3中为相同的距离范围的情况下,也可以在使用的语音输出单元例如是扬声器的情况下,优先选择安装有能够输出最大的声音(允许的输入最大)的扬声器的设备。另外,也可以在使用的输出单元是显示器的情况下,优先选择安装有画面尺寸最大的显示器的设备。
在图6中,例如,互联网TV20A、Homehub20B、台式PC20C、以及笔记本PC20D全部接通电源,处于使用中。A先生在笔记本PC20D使用耳麦(无线)的情况下,语音辅助部13选择笔记本PC20D作为语音辅助的输出目的地设备。语音辅助部13将语音辅助的回复(例如,“全天晴朗”)发送到笔记本PC20D,笔记本PC20D从耳麦输出语音辅助的回复(例如,“全天晴朗”)。
如以上说明那样,根据本实施方式,多个设备20分别经由麦克风对相同的用户话语录音并将其录音数据发送到服务器装置10,服务器装置10通过根据规定的基准对分别从多个设备20发送的录音数据进行语音识别来解释用户话语的内容,并进行语音辅助。由此,在有多个能够利用语音辅助的设备的情况下,也能够简单地利用语音辅助而用户不会犹豫使用哪个设备。另外,对于相同的用户话语,使用多个设备的录音数据进行语音识别,所以能够使语音识别的精度提高。
另外,根据本实施方式,多个设备20也可以在经由麦克风22输入了用户的规定的起动话语指令之后,开始用户话语的录音。由此,用户能够使用相同的关键字(起动话语指令)来利用语音辅助,不需要对每个设备记住不同的关键字,变得便利。
另外,根据本实施方式,也可以是多个设备20将表示对用户话语录音时的录音状态的录音状态信息分别发送到服务器装置10,服务器装置10在对多个录音数据进行语音识别的情况下,进行与录音状态信息对应的加权,来解释用户话语的内容。由此,能够通过进行与录音状态对应的加权来进一步使语音识别的精度提高。
另外,根据本实施方式,录音状态信息也可以包括录音等级、噪声等级、以及回声的影响的信息中的一个或者多个。由此,能够进一步考虑录音时的录音等级、噪声等级、或者回声的影响进行语音识别。
另外,根据本实施方式,服务器装置10也可以根据规定的优先级选择多个设备中输出语音辅助的设备。由此,能够选择适合的设备作为语音辅助的输出目的地。
另外,根据本实施方式,规定的优先级也可以根据设备是否是使用中、设备所使用的输出单元、设备与用户的距离、以及设备的输出单元的性能中的一个或者多个决定。由此,能够从对于用户更合适的设备输出语音辅助。
(硬件构成例)
参照图7以及图8对上述实施方式的语音辅助系统1的硬件构成例进行说明。图7是用于对图1的服务器装置10的硬件构成例进行说明的图。图8是表示图1的设备20的硬件构成例的图。
如图7所示,服务器装置1具备CPU111、ROM112、内存113、存储器114、输入部104、语音识别引擎117、通信部120、DC-DC转换器122、以及AC适配器123等,各部经由总线直接或者间接地连接。
CPU111负责通过储存于经由总线连接的存储器114的OS130进行服务器装置10整体的控制,并且基于储存于存储器114的各种程序执行处理的功能。ROM112储存BIOS(BasicInput/Output System:基本输入输出系统)112a、数据等。
内存113由高速缓冲存储器、RAM构成,是用作写入执行程序的处理数据的作业区域的可写内存,作为CPU111的执行程序的读取区域。
存储器114例如由SSD、HDD等非易失性的存储装置构成,例如具有存储用于进行Windows(注册商标)等服务器装置10整体的控制的OS130、用于对周边设备进行硬件操作的各种的驱动器131、语音辅助服务器用程序132、用于登录用户名和设备信息的设备表133、以及其他的应用(未图示)等的功能。
语音辅助服务器用程序132是用于对从多个设备20发送的用户话语的录音数据进行语音识别并向用户提供语音辅助的应用。若语音辅助服务器用程序132经由通信部120从多个设备20接收用户话语的录音数据(包括录音状态信息、使用状态信息),则使语音识别引擎117执行语音识别处理(例如,参照图2的步骤T2),并且执行输出目的地设备选择处理(例如,参照图2的步骤T3),经由通过输出目的地设备选择处理选择出的输出目的地设备执行基于语音识别引擎117的最终的语音识别结果的语音辅助。
输入部104是用于用户进行输入操作的用户界面,具备由输入文字、指令等的各种键构成的键盘等。
语音识别引擎117用于对录音到的用户话语(录音数据)进行语音识别来对用户话语的内容进行解释(转换成文本),具体而言,对录音数据进行声学分析,使用声学模型、语言模型、发音词典等语音识别词典转换成文本。语音识别引擎117根据语音辅助服务器用程序132的指示执行语音识别处理(例如,参照图2的步骤T2)。
通信部120用于经由网络以有线或者无线与多个设备20进行数据通信。
AC适配器123与工业电源连接,将AC电压转换成DC电压并输出到DC-DC转换器122。DC-DC转换器122将从AC适配器123供给的DC电压转换成规定的电压并将电力供给到各部。
在上述构成中,CPU111、语音辅助服务器用程序132、以及语音识别引擎117能够实现图1的语音识别部12的功能。另外,CPU111以及语音辅助服务器用程序132能够实现图1的语音辅助部13的功能。
如图8所示,设备20具备控制部210、内存211、存储器212、无线通信部215、通信部216、音频设备217、电源部224、显示器203、以及操作部223等。
显示器203例如由液晶显示器(LCD:Liquid Crystal Display)、有机EL(OrganicElectro-Luminescence:有机电致发光)面板等构成,而显示文字、图形等。
操作部223通过各种按钮等受理利用者的操作,并将与受理的操作对应的指示信号发送到控制部210。
电源部224根据控制部210的控制将从蓄电池或者AC适配器得到的电力供给到包括控制部210的设备20的各部。
通信部216用于经由网络与服务器装置10进行数据通信。
无线通信部215进行基于Bluetooth(注册商标)的通信标准的通信、基于Wi-Fi(Wireless Fidelity:无线保真)的通信标准的通信。
音频设备217具备麦克风205、扬声器206、耳麦端口207、以及DSP218。
麦克风205例如由阵列麦克风构成,收集语音并将语音数据输出到DSP218。扬声器206输出与从DSP218输出的语音数据对应的语音。耳麦端口207用于以有线或者无线连接耳麦300,将从DSP218输出的语音数据输出到耳麦300。
DSP218具备包括A/D转换器、D/A转换器、放大器、以及各种过滤器等的语音处理用LSI以及内存等,在对从麦克风205输入的语音进行A/D转换之后进行语音处理,将语音处理后的语音数据(数字数据)输出到控制部210,或者对从控制部210输入的语音数据(数字)进行D/A转换,并从扬声器206或者耳麦端口207输出。
DSP218具备wake on voice(语音唤醒)功能,构成为在休眠状态下也从电源部224供给电力,在处于休眠状态的情况下也能够从麦克风205收集语音。
DSP218能够根据各麦克风的声音的到达时间的差计算从麦克风(例如,阵列麦克风)205输入的语音的位置情报(其声源的位置(相对于麦克风205的相对位置)、方向),能够判定与用户(声源)的距离以及用户(声源)的方向。
内存211例如由RAM、DRAM等构成,作为暂时存储由控制部210执行的程序、控制部210参照的数据、控制部210的运算结果等的工作区域使用。
存储器212例如是非易失性存储器(例如,EEPROM、SSD),保存控制部210中的处理所利用的程序、数据。存储于存储器212的程序包含用于实现设备20的各功能的OS212a、用于对设备20进行硬件控制的驱动器212b、用于使用服务器装置10的语音辅助的语音辅助客户端用程序(应用)212c、其他的应用(未图示)、以及各种数据等。OS212a介入各种应用与设备之间的通信。
控制部210例如是CPU(Central Processing Unit:中央处理单元)、微处理器、DSP等,统一控制设备20的动作来实现各种功能(模式)。具体而言,控制部210通过根据需要参照存储于存储器212的数据、在内存211展开的数据,并且执行存储于存储器212的程序所包含的命令,来控制显示器203、无线通信部215、通信部216、音频设备217等,由此实现各种功能(模式)。此外,控制部210执行的程序、参照的数据也可以通过利用通信部216、无线通信部215进行的通信从服务器装置下载或者更新。
语音辅助客户端用程序(应用)212c在经由音频设备217输入了用户的规定的起动话语指令之后,将用户话语录音并将其录音数据发送到服务器装置10。另外,语音辅助客户端用程序(应用)212c例如从音频设备217获取录音状态信息并发送到服务器装置10,或者从OS212a获取动作状态信息并发送到服务器装置10。并且,语音辅助客户端用程序(应用)212c在从服务器装置10有语音辅助的输出指示的情况下,经由DSP218使语音从扬声器206、耳麦300输出,或者在显示器203显示。
在上述构成中,控制部210、音频设备217、以及语音辅助客户端用程序(应用)212c等能够实现图1的请求部23的功能。另外,音频设备217、显示器203能够实现图1的输出单元24的功能。
附图标记说明
1...语音辅助系统;10...服务器装置;11...通信部;12...语音识别部;13...语音辅助部;14...存储部;20...设备;21...通信部;22...麦克风;23...请求部;24...输出单元;111...CPU;112...ROM;113...内存;114...存储器;107...LCD;117...语音识别引擎;120...通信部;132...语音辅助服务器用程序;203...显示器;205...麦克风;206...扬声器;207...耳麦端口;210...控制部;211...内存;212...存储器;212c...语音辅助客户端用程序;215...无线通信部;216...通信部;217...音频设备。
Claims (16)
1.一种语音辅助系统,是进行语音辅助的服务器装置与多个设备能够通信地连接的语音辅助系统,其特征在于,
上述多个设备分别经由麦克风将相同的用户话语录音,并将其录音数据发送到上述服务器装置,
上述服务器装置接收从上述多个设备分别发送的录音数据,并根据规定的基准对接收到的多个录音数据进行语音识别,由此解释上述用户话语的内容来进行语音辅助。
2.根据权利要求1所述的语音辅助系统,其特征在于,
上述多个设备在经由上述麦克风输入了用户的规定的起动话语指令后,开始用户话语的录音。
3.根据权利要求1或者2所述的语音辅助系统,其特征在于,
上述多个设备还分别将录音状态信息发送到上述服务器装置,该录音状态信息表示对上述用户话语录音时的录音状态,
上述服务器装置在对上述接收到的多个录音数据进行语音识别的情况下,进行与上述录音状态信息对应的加权,来解释上述用户话语的内容。
4.根据权利要求3所述的语音辅助系统,其特征在于,
上述录音状态信息包括录音等级、噪声等级、以及回声中的至少一个信息。
5.根据权利要求3所述的语音辅助系统,其特征在于,
上述录音状态信息包括录音等级、噪声等级、以及回声的全部信息。
6.根据权利要求1~5中的任意一项所述的语音辅助系统,其特征在于,
上述服务器装置还根据规定的优先级选择上述多个设备中输出语音辅助的设备。
7.根据权利要求6所述的语音辅助系统,其特征在于,
上述规定的优先级根据上述设备是否处于使用中、上述设备中使用的输出单元的种类、上述设备与用户的距离、以及上述设备的输出单元的性能中的一个或者多个决定。
8.一种服务器装置,是与多个设备能够通信地连接且进行语音辅助的服务器装置,其特征在于,具备:
通信部,用于经由网络与上述多个设备进行数据通信;
语音识别部,通过根据规定的基准对经由上述通信部接收到的分别从上述多个设备发送的相同的用户话语的录音数据进行语音识别,来解释上述用户话语的内容;以及
语音辅助部,进行与被上述语音识别部解释的上述用户话语的内容对应的语音助理。
9.根据权利要求8所述的服务器装置,其特征在于,
上述语音识别部在对上述相同的用户话语的录音数据进行语音识别的情况下,进行与从上述多个设备送出的录音状态信息对应的加权,来解释上述用户话语的内容,该录音状态信息表示对上述用户话语录音时的录音状态。
10.根据权利要求9所述的服务器装置,其特征在于,
上述录音状态信息包括录音等级、噪声等级、以及回声中的至少一个信息。
11.根据权利要求9所述的服务器装置,其特征在于,
上述录音状态信息包括录音等级、噪声等级、以及回声的全部信息。
12.根据权利要求8~11中的任意一项所述的服务器装置,其特征在于,
上述语音辅助部根据规定的优先级选择上述多个设备中输出语音辅助的设备。
13.根据权利要求12所述的服务器装置,其特征在于,
上述规定的优先级根据上述设备是否处于使用中、上述设备中使用的输出单元的种类、上述设备与用户的距离、以及上述设备的输出单元的性能中的一个或者多个决定。
14.一种设备,是能够进行数据通信地与进行语音辅助的服务器装置连接的设备,其特征在于,具备:
通信部,用于经由网络与上述服务器装置进行数据通信;
麦克风,用于输入语音;以及
请求部,经由上述麦克风,对与其他的设备相同的用户话语录音,并将其录音数据经由上述通信部发送到上述服务器装置。
15.一种语音辅助方法,是能够进行通信地与多个设备连接的服务器装置执行的语音辅助方法,包括:
语音识别工序,通过根据规定的基准对经由通信部接收到的、分别从上述多个设备发送的相同的用户话语的录音数据进行语音识别,来解释上述用户话语的内容;以及
语音辅助工序,进行与被上述语音识别工序解释的上述用户话语的内容对应的语音助理。
16.一种存储介质,存储计算机可执行程序,该计算机可执行程序是安装于能够进行通信地与多个设备连接的服务器装置的程序,其特征在于,使计算机执行:
语音识别工序,通过根据规定的基准对经由通信部接收到的、分别从上述多个设备发送的、相同的用户话语的录音数据进行语音识别,来解释上述用户话语的内容;以及
语音辅助工序,进行与被上述语音识别工序解释的上述用户话语的内容对应的语音助理。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-154571 | 2017-08-09 | ||
JP2017154571A JP6513749B2 (ja) | 2017-08-09 | 2017-08-09 | 音声アシストシステム、サーバ装置、その音声アシスト方法、及びコンピュータが実行するためのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109389975A true CN109389975A (zh) | 2019-02-26 |
Family
ID=65275407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810621047.8A Pending CN109389975A (zh) | 2017-08-09 | 2018-06-15 | 语音辅助系统、服务器装置、设备、其语音辅助方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10867596B2 (zh) |
JP (1) | JP6513749B2 (zh) |
CN (1) | CN109389975A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111312250A (zh) * | 2020-02-21 | 2020-06-19 | 珠海荣邦电子科技有限公司 | 基于语音的多设备适配控制方法、装置及系统 |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10531157B1 (en) * | 2017-09-21 | 2020-01-07 | Amazon Technologies, Inc. | Presentation and management of audio and visual content across devices |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
WO2019152722A1 (en) | 2018-01-31 | 2019-08-08 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10665244B1 (en) * | 2018-03-22 | 2020-05-26 | Pindrop Security, Inc. | Leveraging multiple audio channels for authentication |
US10600408B1 (en) * | 2018-03-23 | 2020-03-24 | Amazon Technologies, Inc. | Content output management based on speech quality |
US11715042B1 (en) | 2018-04-20 | 2023-08-01 | Meta Platforms Technologies, Llc | Interpretability of deep reinforcement learning models in assistant systems |
US20190327330A1 (en) | 2018-04-20 | 2019-10-24 | Facebook, Inc. | Building Customized User Profiles Based on Conversational Data |
US11676220B2 (en) | 2018-04-20 | 2023-06-13 | Meta Platforms, Inc. | Processing multimodal user input for assistant systems |
US11886473B2 (en) | 2018-04-20 | 2024-01-30 | Meta Platforms, Inc. | Intent identification for agent matching by assistant systems |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
WO2020060311A1 (en) * | 2018-09-20 | 2020-03-26 | Samsung Electronics Co., Ltd. | Electronic device and method for providing or obtaining data for training thereof |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
WO2020150899A1 (zh) * | 2019-01-22 | 2020-07-30 | 京东方科技集团股份有限公司 | 语音控制方法、语音控制装置以及计算机可执行非易失性存储介质 |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
EP3709194A1 (en) | 2019-03-15 | 2020-09-16 | Spotify AB | Ensemble-based data comparison |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
KR20220001522A (ko) | 2019-05-29 | 2022-01-06 | 엘지전자 주식회사 | 장치 정보에 기반하여, 다른 장치를 제어할 수 있는 인공 지능 장치 |
KR102252526B1 (ko) * | 2019-06-07 | 2021-05-14 | 부산대학교 산학협력단 | 경량 IoT 장치를 위한 지능형 음성 서비스 지원 장치 및 방법 |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
KR20190089128A (ko) * | 2019-07-10 | 2019-07-30 | 엘지전자 주식회사 | 음성 인식 방법 및 음성 인식 장치 |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
CN110364161A (zh) | 2019-08-22 | 2019-10-22 | 北京小米智能科技有限公司 | 响应语音信号的方法、电子设备、介质及系统 |
US11094319B2 (en) | 2019-08-30 | 2021-08-17 | Spotify Ab | Systems and methods for generating a cleaned version of ambient sound |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
KR20210050901A (ko) * | 2019-10-29 | 2021-05-10 | 엘지전자 주식회사 | 음성 인식 방법 및 음성 인식 장치 |
US11233490B2 (en) * | 2019-11-21 | 2022-01-25 | Motorola Mobility Llc | Context based volume adaptation by voice assistant devices |
EP3836582B1 (en) * | 2019-12-09 | 2024-01-31 | Google LLC | Relay device for voice commands to be processed by a voice assistant, voice assistant and wireless network |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US20210210099A1 (en) * | 2020-01-06 | 2021-07-08 | Soundhound, Inc. | Multi Device Proxy |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
KR20210098250A (ko) * | 2020-01-31 | 2021-08-10 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11308959B2 (en) | 2020-02-11 | 2022-04-19 | Spotify Ab | Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices |
US11328722B2 (en) * | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US20220036211A1 (en) * | 2020-07-30 | 2022-02-03 | International Business Machines Corporation | User-hesitancy based validation for virtual assistance operations |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
CN112201244A (zh) * | 2020-09-30 | 2021-01-08 | 北京搜狗科技发展有限公司 | 一种记账方法、装置和耳机 |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510425A (zh) * | 2008-02-15 | 2009-08-19 | 株式会社东芝 | 声音识别装置以及用于执行声音识别的方法 |
JP2010085790A (ja) * | 2008-09-30 | 2010-04-15 | Nec Corp | 会話学習支援システム、会話学習支援方法およびプログラム |
US20110295603A1 (en) * | 2010-04-28 | 2011-12-01 | Meisel William S | Speech recognition accuracy improvement through speaker categories |
CN105825855A (zh) * | 2016-04-13 | 2016-08-03 | 联想(北京)有限公司 | 一种信息处理方法及主终端设备 |
CN106030699A (zh) * | 2014-10-09 | 2016-10-12 | 谷歌公司 | 多个设备上的热词检测 |
CN106951209A (zh) * | 2017-03-29 | 2017-07-14 | 联想(北京)有限公司 | 一种控制方法、装置及电子设备 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2614552B2 (ja) * | 1991-06-27 | 1997-05-28 | シャープ株式会社 | 音声認識リモコン装置 |
JPH05249989A (ja) * | 1992-03-06 | 1993-09-28 | Nippondenso Co Ltd | 音声認識制御装置 |
JP4155383B2 (ja) * | 2001-03-05 | 2008-09-24 | アルパイン株式会社 | 音声認識機器操作装置 |
US20110054900A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Hybrid command and control between resident and remote speech recognition facilities in a mobile voice-to-speech application |
JP2014178339A (ja) * | 2011-06-03 | 2014-09-25 | Nec Corp | 音声処理システム、発話者の音声取得方法、音声処理装置およびその制御方法と制御プログラム |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
US10074367B2 (en) * | 2014-03-28 | 2018-09-11 | Panasonic Intellectual Property Management Co., Ltd. | Voice command input device and voice command input method |
KR20160023089A (ko) * | 2014-08-21 | 2016-03-03 | 엘지전자 주식회사 | 디지털 디바이스 및 그 제어 방법 |
US9812128B2 (en) * | 2014-10-09 | 2017-11-07 | Google Inc. | Device leadership negotiation among voice interface devices |
JP6520100B2 (ja) * | 2014-12-15 | 2019-05-29 | オンキヨー株式会社 | 電子機器制御システム、端末装置、及び、サーバー |
KR102306798B1 (ko) * | 2015-03-20 | 2021-09-30 | 삼성전자주식회사 | 에코 제거 방법 및 그 전자 장치 |
EP3311628B1 (en) * | 2015-06-22 | 2021-05-05 | Loose Cannon Systems, Inc. | Portable group communication device |
US10152968B1 (en) * | 2015-06-26 | 2018-12-11 | Iconics, Inc. | Systems and methods for speech-based monitoring and/or control of automation devices |
US9875081B2 (en) * | 2015-09-21 | 2018-01-23 | Amazon Technologies, Inc. | Device selection for providing a response |
KR20170132622A (ko) * | 2016-05-24 | 2017-12-04 | 삼성전자주식회사 | 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법 |
US10257363B2 (en) * | 2016-07-22 | 2019-04-09 | Lenovo (Singapore) Pte. Ltd. | Coordinating input on multiple local devices |
US9972320B2 (en) * | 2016-08-24 | 2018-05-15 | Google Llc | Hotword detection on multiple devices |
-
2017
- 2017-08-09 JP JP2017154571A patent/JP6513749B2/ja active Active
-
2018
- 2018-06-15 CN CN201810621047.8A patent/CN109389975A/zh active Pending
- 2018-08-09 US US16/100,142 patent/US10867596B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510425A (zh) * | 2008-02-15 | 2009-08-19 | 株式会社东芝 | 声音识别装置以及用于执行声音识别的方法 |
JP2010085790A (ja) * | 2008-09-30 | 2010-04-15 | Nec Corp | 会話学習支援システム、会話学習支援方法およびプログラム |
US20110295603A1 (en) * | 2010-04-28 | 2011-12-01 | Meisel William S | Speech recognition accuracy improvement through speaker categories |
CN106030699A (zh) * | 2014-10-09 | 2016-10-12 | 谷歌公司 | 多个设备上的热词检测 |
CN105825855A (zh) * | 2016-04-13 | 2016-08-03 | 联想(北京)有限公司 | 一种信息处理方法及主终端设备 |
CN106951209A (zh) * | 2017-03-29 | 2017-07-14 | 联想(北京)有限公司 | 一种控制方法、装置及电子设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111312250A (zh) * | 2020-02-21 | 2020-06-19 | 珠海荣邦电子科技有限公司 | 基于语音的多设备适配控制方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
US10867596B2 (en) | 2020-12-15 |
US20190051289A1 (en) | 2019-02-14 |
JP6513749B2 (ja) | 2019-05-15 |
JP2019032479A (ja) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109389975A (zh) | 语音辅助系统、服务器装置、设备、其语音辅助方法 | |
KR102261552B1 (ko) | 음성 명령어 제공 방법 및 이를 지원하는 전자 장치 | |
CN111095400A (zh) | 选择系统和方法 | |
JP5996783B2 (ja) | 声紋特徴モデルを更新するための方法及び端末 | |
US10777193B2 (en) | System and device for selecting speech recognition model | |
EP3528243A1 (en) | System for processing user utterance and controlling method thereof | |
CN101145341B (zh) | 改善语音辨识的方法与装置以及语音辨识系统 | |
WO2015102040A1 (ja) | 音声処理装置、音声処理システム、音声処理方法、音声処理用のプログラム製品 | |
US20180293982A1 (en) | Voice assistant extension device and working method therefor | |
CN104954555A (zh) | 一种音量调节方法及系统 | |
CN103546617B (zh) | 一种声音调节的方法及终端 | |
CN107919138B (zh) | 一种语音中的情绪处理方法及移动终端 | |
WO2020001165A1 (zh) | 语音控制方法、装置、存储介质及电子设备 | |
KR102447381B1 (ko) | 통화 중 인공지능 서비스를 제공하기 위한 방법 및 그 전자 장치 | |
CN112334978A (zh) | 支持个性化装置连接的电子装置及其方法 | |
CN110827826A (zh) | 语音转换文字方法、电子设备 | |
CN103888604A (zh) | 一种终端应用模式的切换方法及终端 | |
CN107147767B (zh) | 通话音量控制方法、装置、存储介质及终端 | |
EP3635533B1 (en) | Electronic apparatus for processing user utterance for controlling an external electronic apparatus and controlling method thereof | |
WO2020228226A1 (zh) | 一种纯音乐检测方法、装置及存储介质 | |
US8934886B2 (en) | Mobile apparatus and method of voice communication | |
AU2019201441B2 (en) | Electronic device for processing user voice input | |
CN103426429A (zh) | 语音控制方法和装置 | |
US20190026074A1 (en) | Electronic device and method for expressing natural language | |
CN111902863B (zh) | 用于处理用户语音输入的装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190226 |