CN103533154B - 移动终端及其识别语音的方法 - Google Patents
移动终端及其识别语音的方法 Download PDFInfo
- Publication number
- CN103533154B CN103533154B CN201310269078.9A CN201310269078A CN103533154B CN 103533154 B CN103533154 B CN 103533154B CN 201310269078 A CN201310269078 A CN 201310269078A CN 103533154 B CN103533154 B CN 103533154B
- Authority
- CN
- China
- Prior art keywords
- voice
- recognition data
- voice recognition
- mobile terminal
- speech recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000004891 communication Methods 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 13
- 230000002265 prevention Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 53
- 230000008569 process Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 12
- 238000010295 mobile communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 108090000565 Capsid Proteins Proteins 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000005672 electromagnetic field Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 239000010936 titanium Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 241000256844 Apis mellifera Species 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000011469 building brick Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/271—Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephone Function (AREA)
Abstract
本公开涉及一种移动终端及其识别语音的方法。本公开的实施例涉及与服务器相连接的移动终端的语音识别方法。语音识别方法可以包括:接收用户的语音;将接收到的语音提供给被设置在服务器中的第一语音识别引擎和被设置在移动终端中的第二语音识别引擎;获取第一语音识别数据作为通过第一语音识别引擎识别接收到的语音的结果;获取第二语音识别数据作为通过第二语音识别引擎识别接收到的语音的结果;基于第一和第二语音识别数据中的至少一个估计与用户的意图相对应的功能;当估计的功能需要个人信息时计算第一和第二语音识别数据之间的相似度;以及基于计算的相似度选择第一和第二语音识别数据中的任意一个。
Description
技术领域
本公开涉及一种移动终端,并且更加具体地,涉及一种具有语音识别功能的移动终端及其语音识别方法。
背景技术
终端基于它的移动性能够被分类成移动或者便携式终端和固定终端。此外,移动终端基于它是否能够由用户直接携带可以进一步被分类成手持终端和车载终端。
例如,随着它变成多功能的,能够允许这样的终端捕捉静止图像或运动图像、播放音乐或视频文件、玩游戏、接收广播等,以便实现为综合多媒体播放器。此外,可以考虑改进终端的结构或者软件要素,以支持和增强终端的功能。
对于增强的示例,在移动终端中使用各种算法能够执行语音识别功能。需要大量的数据计算量和资源以实现语音识别功能。由于此,已经引入用于实现适当的资源分布的分布式语音识别系统。然而,即使在这样的分布式语音识别系统中,也已经积极地进行对于增强其语音识别结果的快速性和精确性的研究。
发明内容
因此,本公开的目的是为了提供能够增强语音识别结果的可靠性的移动终端。
本公开的另一目的是为了提供一种移动终端,当执行语音识别功能时,该移动终端能够防止个人信息的泄露。
本公开的实施例涉及一种连接服务器的移动终端的语音识别方法。语音识别方法可以包括:接收用户的语音;将接收到的语音提供给在服务器中提供的第一语音识别引擎以及在移动终端中提供的第二语音识别引擎;获取第一语音识别数据作为通过第一语音识别引擎识别接收到的语音的结果;获取第二语音识别数据作为通过第二语音识别引擎识别接收到的语音的结果;基于第一和第二语音识别数据中的至少一个来估计与用户的意图相对应的功能;当估计的功能需要个人信息时,计算第一和第二语音识别数据之间的相似度;以及基于计算的相似度来选择第一和第二语音识别数据中的任意一个。
根据实施例,语音识别方法可以进一步包括:当估计的功能不需要个人信息时忽略第二语音识别数据。
根据实施例,所述获取第一语音识别数据可以包括:将用于请求第一语音识别数据的请求信号发送到服务器;以及响应于请求信号从服务器接收第一语音识别数据。
根据实施例,语音识别方法可以进一步包括:获得在服务器和移动终端之间连接的网络的状态信息;以及基于网络的状态信息来阻止第一语音识别数据的接收。此外,语音识别方法可以进一步包括:当阻止第一语音识别数据的接收时,使用第二语音识别数据来执行估计的功能。
根据实施例,语音识别方法可以进一步包括显示用于执行个人信息保护功能的菜单按钮;以及当响应于对菜单按钮的触摸输入而执行个人信息保护功能时,阻止接收到的语音被提供给第一语音识别引擎。此外,语音识别方法可以进一步包括使用所选择的任意一个语音识别数据来执行估计的功能。
根据实施例,所述获取第二语音识别数据可以包括参考用于个人信息的数据库来识别接收到的语音。
本公开的实施例涉及一种连接服务器的移动终端。移动终端可以包括麦克风,该麦克风被配置成接收用户的语音;通信单元,该通信单元被配置成将接收的语音发送到服务器,并且接收第一语音识别数据,该第一语音识别数据作为通过在服务器中提供的第一语音识别引擎识别接收到的语音的结果而生成;第二语音识别引擎,该第二语音识别引擎被配置成生成第二语音识别数据作为识别接收到的语音的结果;以及控制器,该控制器被配置成基于第一和第二语音识别数据中的至少一个来估计与用户的意图相对应的功能;以及当估计的功能需要个人信息时计算第一和第二语音识别数据之间的相似度;以及基于计算的相似度来选择第一和第二语音识别数据中的任意一个。
根据实施例,当估计的功能不需要个人信息时,控制器可以忽略第二语音识别数据。
根据实施例,控制器可以获得在服务器和移动终端之间连接的网络的状态信息,以及基于网络的状态信息来阻止第一语音识别数据的接收。此外,当第一语音识别数据的接收被阻止时,控制器使用第二语音识别数据可以执行估计的功能。
根据实施例,移动终端可以进一步包括显示单元,该显示单元被配置成显示用于执行个人信息保护功能的菜单按钮。此外,当响应于对菜单按钮的触摸输入而执行个人信息保护功能时,控制器可以阻止接收到的语音被提供给第一语音识别引擎。
根据实施例,控制器可以使用所选择的任意一个语音识别数据来执行估计的功能。
根据实施例,第二语音识别引擎可以参考用于个人信息的数据库来识别接收到的语音。
附图说明
附图被包括以提供本发明的进一步理解,并且被并入到本说明书中且组成本说明书的一部分,所述附图图示了本发明的实施例并且连同描述一起用作解释本发明的原理。
在附图中:
图1是图示与本公开的实施例相关联的移动终端的框图;
图2A和图2B是图示与本公开相关联的移动终端的外观的透视图;
图3是图示根据本公开的实施例的语音识别系统的框图;
图4是用于解释根据本公开的实施例的移动终端的语音识别方法的流程图;
图5和图6是用于解释根据本公开的实施例的与是否接收到语音识别数据相关联的移动终端的语音识别方法的流程图;
图7是用于解释根据本公开的实施例的与个人信息保护功能相关联的移动终端的语音识别方法的流程图;
图8是图示应用了图7的语音识别方法的移动终端的用户界面的概念视图;
图9是用于解释根据本公开的实施例的与对于语音识别数据的用户选择相关联的移动终端的语音识别方法的流程图;以及
图10是图示应用了图9的语音识别方法的移动终端的用户界面的概念视图。
具体实施方式
在下文中,将参考附图详细地描述本发明的优选实施例,以达到本发明所属领域的普通技术人员能够容易地具体化本发明的程度。然而,可以以各种不同的形式实现本发明,并且因此,本发明不限于图示的实施例。为了清楚地描述本发明,省略了与描述无关的部分,并且在整个说明书中相同的附图标记指定相同的组成元件。
在此公开的移动终端可以包括便携式电话、智能电话、膝上型计算机、数字广播移动终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪等。然而,本领域的技术人员容易地理解的是,除了为移动用途特别地配置的组成元件之外,根据以下描述的配置可以适用于诸如数字TV、台式计算机等的固定终端。
图1是图示与本公开相关联的移动终端100的框图。参考图1,移动终端100可以包括:无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、电源单元190等。然而,如图1中图示的组成元件不是必须要求的,并且可以利用比那些示出的元件更多或者更少的元件来实现移动通信终端。
在下文中,将依序描述移动终端100的组成元件110-190。
无线通信单元110可以包括一个或者多个元件,该一个或多个元件允许在移动终端100和无线通信系统之间进行无线电通信,或者允许在移动终端100和移动终端100所位于的网络之间进行无线电通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短程通信模块114、位置信息模块115等。
广播接收模块111通过广播信道从外部广播管理服务器接收广播信号和/或广播关联信息。广播关联信息可以指的是关于广播信道、广播节目、广播服务提供商等的信息。也可以通过移动通信网络来提供广播关联信息。在这样的情况下,可以由移动通信模块112接收广播关联信息。通过广播接收模块111接收到的广播信号和广播关联信息可以被存储在存储器160中。
移动通信模块112通过移动通信网络将无线电信号传送到基站、外部终端以及服务器中的至少一个,和/或从基站、外部终端以及服务器中的至少一个接收无线电信号。无线电信号可以包括语音呼叫信号、视频呼叫信号或根据文本和/或多媒体消息传送和接收的各种类型的数据。
作为用于支持无线因特网接入的模块的无线因特网模块113可以被内置在移动终端100中,或者被外部地安装到移动终端100。可以使用各种无线因特网接入技术,诸如WLAN(无线LAN)、Wi-Fi、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)等。
短程通信模块114指的是用于支持短程通信的模块。可以使用各种短程通信技术,诸如蓝牙、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(ZigBee)等。
位置信息模块115是用于获取移动终端100的位置的模块,并且存在着作为代表性示例的GPS模块。
随后,参考图1,A/V(音频/视频)输入单元120接收音频或者视频信号,并且A/V(音频/视频)输入单元120可以包括相机121、麦克风122等。相机121在视频电话呼叫或者图像捕捉模式中处理由图像传感器获得的图像帧,诸如静止或者活动图像。已处理的图像帧可以被显示在显示单元151上。由相机121处理的图像帧可以被存储在存储器160中或者通过无线通信单元110被传送到外部设备。根据移动终端的使用环境可以提供两个或者更多相机121。
麦克风122在电话呼叫模式、记录模式、语音识别模式等中通过麦克风接收外部音频信号,并且将音频信号处理成电子语音数据。已处理的语音数据可以被转换成在电话呼叫模式中通过移动通信模块112可传送到移动通信基站的格式,并且被输出。麦克风122可以实现各种类型的噪声消除算法,以消除在接收外部音频信号的处理期间生成的噪声。
用户输入单元130可以生成用于控制终端100的操作的输入数据。用户输入单元130可以配置有键盘、圆顶开关、触摸板(压力/电容)、转向轮(jog wheel)、转向开关等。
感测单元140检测用户接触的存在或者不存在、以及诸如打开或者关闭配置的移动终端100的当前状态、移动终端100的位置、移动终端100的方位、移动终端100的加速或者减速等,并且生成用于控制移动终端100的操作的感测信号。例如,当移动终端100是滑盖电话类型时,感测单元140可以感测滑盖电话的打开或者关闭配置。此外,感测单元140可以感测是否从电源单元190供应电力、或者外部设备是否被耦合到接口单元170。
感测单元140可以包括接近传感器141。此外,感测单元140可以包括用于感测对于显示单元151的触摸操作的触摸传感器(未示出)。
触摸传感器可以被实现为触摸膜、触摸片、触摸板等。触摸传感器可以被配置成将施加给显示单元151的特定部分的压力、或者从显示单元151的特定部分生成的电容转换为电输入信号。触摸传感器可以被配置成不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力。
当触摸传感器和显示单元151形成夹层结构时,显示单元151可以被用作输入装置,而不是输出装置。显示单元151可以被称为“触摸屏”。
当存在通过触摸屏的触摸输入时,对应的信号可以被传送到触摸控制器(未示出)。触摸控制器处理从触摸传感器传递的信号,然后将与被处理的信号相对应的数据传送到控制器180。因此,控制器180可以感测到已经触摸了显示单元151的哪个区域。
当触摸屏是电容类型时,通过根据感测对象的接近度的电磁场变化来检测感测对象的接近。触摸屏可以被分类为接近传感器141。
接近传感器141指的是在没有机械接触的情况下使用电磁场或者红外线来检测感测对象的存在或者不存在的传感器。接近传感器141具有比接触传感器更长的寿命和更加增强的实用性。接近传感器141可以包括透光型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等。
在下文中,为了便于简要解释起见,密切地靠近触摸屏而没有接触的行为将会被称为“接近触摸”,而指示器实质上接触触摸屏的行为将会被称为“接触触摸”。
接近传感器141感测接近触摸和接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等)。可以向触摸屏上输出与感测到的接近触摸和感测到的接近触摸模式有关的信息。
输出单元150可以生成与视觉、听觉、触觉有关的输出。输出单元150可以包括显示单元151、音频输出模块152、报警单元153、触觉模块154等。
显示单元151可以显示(输出)在移动终端100中处理的信息。例如,当移动终端100在电话呼叫模式下操作时,显示单元151可以显示与电话呼叫有关的用户界面(UI)或者图形用户界面(GUI)。当移动终端100在视频呼叫模式或者图像捕捉模式下操作时,显示单元151可以显示捕捉的图像、接收到的图像、UI、GUI等。
显示单元151可以包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器、以及电子墨水显示器中的至少一个。
包括在显示单元151中的显示器(或者显示装置)中的至少一个可以被配置为透明的或者透光型,以允许用户通过其观看外部。其可以被称为透明显示器。典型的透明显示器的示例可以是透明OLED(TOLED)等。显示单元151的背面结构也可以被配置为透光型。在此配置下,用户能够通过由移动终端主体的显示单元151占据的区域来观看定位在移动终端主体的后侧的对象。
根据移动终端100的实现,可以存在两个或者更多显示单元151。例如,多个显示单元151分别可以以单独的或者一体化的方式被放置在一个表面上,或者可以被分别放置在不同的表面上。
音频输出模块152可以在呼叫接收模式、呼叫拨打模式、记录模式、语音选择模式、广播接收模式等中输出从无线通信单元110接收到的或者存储在存储器160中的音频数据。音频输出模块152可以输出与在移动终端100中执行的功能有关的音频信号(例如,告警接收到呼叫或者接收到消息等的声音)。音频输出模块152可以包括接收器、扬声器、蜂鸣器等。
报警单元153输出用于通知来自于移动终端100的事件的发生的信号。从移动终端100发生的事件的示例可以包括接收到呼叫、接收到消息、键信号输入、触摸输入等。报警单元153不仅可以输出视频或者音频信号,而且可以输出其他类型的信号,诸如以振动的方式通知事件的发生的信号。因为可以通过显示单元151或者音频输出单元152输出视频或者音频信号,所以显示单元151和音频输出模块152可以被分类为报警单元153的一部分。
触觉模块154生成用户能够感觉的各种触觉效果。通过触觉模块154生成的触觉效果的代表性示例可以包括振动。通过触觉模块154生成的振动可以具有可控制的强度、可控制的模式等。例如,可以以合成的方式或者以顺序的方式输出不同的振动。
触觉模块154可以生成各种触觉效果,不仅包括振动,而且包括相对于被触摸的皮肤表面垂直移动的针的布置、通过喷射端口或者吸入端口的空气喷射力或者空气吸入力、通过皮肤表面的触摸、与电极的接触、通过诸如静电力的刺激的效果、使用吸热装置或者发热装置而再现冷或者热的感觉等。
触觉模块154可以被配置成通过用户的直接接触,或者使用手指或者手的用户肌肉感觉来传送触觉效果。根据移动终端100的配置,可以提供两个或者更多触觉模块154。
存储器160可以存储用于操作控制器180的程序,或者暂时地存储输入/输出数据(例如,电话簿、消息、静止图像、运动图像等)。存储器160可以存储与在触摸屏上执行触摸输入时输出的各种模式的振动和声音有关的数据。
使用包括闪存型、硬盘型、多媒体卡微型、存储卡型(例如,SD或者DX存储器)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等的任何类型的适合的存储介质可以实现存储器160。此外,移动终端100可以操作在因特网上执行存储器160的存储功能的网络存储器。
接口单元170通常可以被实现成与将便携式终端与外部设备对接。接口单元170可以允许接收来自于外部设备的数据,将电力递送给移动终端100的每个组件,或者将来自于移动终端100的数据传送到外部设备。例如,接口单元170可以包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于耦合具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
识别模块可以被配置为用于存储认证使用移动终端100的权限所需要的各种信息的芯片,其可以包括用户身份模块(UIM)、订户身份模块(SIM)等。此外,可以用一种类型的智能卡实现具有识别模块的装置(在下文中,被称为“识别装置”)。因此,识别装置可以经由端口耦合到移动终端100。
接口单元170可以用作当移动终端100被连接到外部托架时将电力从外部托架供应到移动终端100的路径,或者将用户从托架输入的各种命令信号传输到移动终端100的路径。从托架输入的这样的各种命令信号或者电力可以作为用于识别移动终端100已经被精确地安装到托架的信号而操作。
控制器180通常控制移动终端100的整体操作。例如,控制器180执行与电话呼叫、数据通信、视频呼叫等有关的控制和处理。控制器180可以包括多媒体模块181,该多媒体模块181提供多媒体重放。多媒体模块181可以被配置为控制器180的部分或者单独的组件。控制器180能够执行模式识别处理,以便将触摸屏上的书写或者绘图输入识别为文本或者图像。
电源单元190可以在控制器180的控制下接收外部电力或内部电力,以提供各种组件所需要的电力。
使用软件、硬件、或者其任何组合在计算机或者类似装置可读介质中可以实现在此描述的各种实施例。
对于硬件实现,它可以通过使用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器和被设计成执行在此描述的功能的电子单元中的至少一个来实现。在一些情况下,可以在控制器180本身中实现这样的实施例。
对于软件实现,可以与允许执行至少一个功能或者操作的单独的软件模块一起来实现诸如过程或者功能的实施例。通过以任何适合的编程语言编写的软件应用能够实现软件代码。软件代码可以被存储在存储器160中并且由控制器180执行。
在下文中,将描述处理对移动终端100的用户输入的方法。
用户输入单元130被操纵以接收用于控制移动终端100的操作的命令,并且可以包括多个操纵单元。操纵单元可以被共同地指定为操纵部分,并且如果它是允许用户利用触感执行操纵的触觉方式,则可以采用任何方法。
各种视觉信息可以被显示在显示单元151上。可以以字符、数字、符号、图形、图标等的形式显示视觉信息。对于视觉信息的输入,可以利用预定的布置显示字符、数字、符号、图形、以及图标中的至少一个,以便以键盘的形式来实现。这样的键盘可以被称为所谓的“软键”。
显示单元151可以在整个区域上进行操作或者通过划分成多个区域来进行操作。在后述情况下,多个区域可以被配置成以相关联的方式进行操作。例如,输出窗口和输入窗口可以分别被显示在显示单元151的上部分和下部分上。输出窗口和输入窗口分别可以是被分配以输出或者输入信息的区域。在输入窗口上输出软键,在该软键上显示用于输入电话号码等的数字。当软键被触摸时,与被触摸的软键相对应的数字被显示在输出窗口上。当第一操纵单元被操纵时,将试图进行对于显示在输出窗口上的电话号码的电话呼叫连接,或者显示在输出窗口上的文本将被输入到应用。
显示单元151或者触摸板可以被配置成感测触摸滚动。通过滚动显示单元151或者触摸板,用户可以移动显示在显示单元151上的对象,例如,被放置在图标上的光标或者指示器等。此外,当在显示单元151或者触摸板上移动手指时,通过手指移动的路径可以被视觉地显示在显示单元151上。这对于编辑显示在显示单元151上的图像来说可以是有用的。
为了应对在预定的时间段内一起触摸显示单元151和触摸板的情况,可以实现终端100的一个功能。对于被一起触摸的情况,存在当用户使用他的或者她的拇指和食指夹住移动终端100的主体时的情况。例如,对于在移动终端100中实现的上述功能之一,可以存在对于显示单元151或者触摸板的激活或者去激活。
图2A和图2B是图示与本公开有关的移动终端100的外观的透视图。图2A是图示移动终端100的前视图和侧视图,并且图2B是图示移动终端100的后视图和另一侧视图。
参考图2A,在此公开的移动终端100被设置具有直板式终端主体。然而,本发明不仅限于这种类型的终端,而且可应用于诸如滑盖式、折叠式、旋转式、旋盖式等的各种结构的终端,在其中,以相对可移动的方式相互组合两个或者多个主体。
终端主体包括形成终端的外观的壳体(外壳、外罩、盖等)。在该实施例中,壳体可以被划分为前壳体101和后壳体102。各种电子组件可以被集成在前壳体101和后壳体102之间形成的空间中。至少一个中间壳体可以被附加地设置在前壳体101和后壳体102之间。
壳体可以通过注模成型合成树脂来形成,或者也可以由诸如不锈钢(STS)、钛(Ti)等的金属材料来形成。
显示单元151、音频输出模块152、相机121、用户输入单元130(参考图1)、麦克风122、接口170等可以被布置在终端主体上,主要在前壳体101上。
显示单元151占据前壳体101的大部分。音频输出单元152和相机121被设置在与显示单元151的两端中的一端相邻的区域上,并且用户输入单元131和麦克风122被设置在与其另一端相邻的区域上。用户接口132和接口170等可以被设置在前壳体101和后壳体102的横向表面上。
用户输入单元130被操纵以接收用于控制便携式终端100的操作的命令。用户输入单元130可以包括多个操纵单元131、132。
第一和第二操纵单元131、132可以接收各种命令。例如,第一操纵单元131可以被用于接收命令,诸如开始、结束、滚动等。第二操纵单元132可以被用于接收命令,诸如控制从音频输出单元152输出的音量级别、或者将其切换到显示单元151的触摸识别模式。
参考图2B,相机121’可以被附加地安装在终端主体的后表面,即,后壳体102上。后相机121’具有大体上与前相机121(参考图2A)的方向相对的图像捕捉方向,并且可以具有与前相机121的像素不同数目的像素。
例如,前相机121可以被配置成具有相对少量的像素,并且后相机121’可以被配置成具有相对大量的像素。因此,在前相机121被用于视频通信的情况下,当用户捕捉他的或者她自己的面部并且将其实时地发送到另一方时,这能够减少传输数据的大小。另一方面,后相机121’可以被用于存储高质量图像的用途。
另一方面,相机121、121’可以被以可旋转的和可弹出的方式设置在终端主体中。
闪光灯123和镜子124可以被附加地设置为与后相机121’相邻。当利用相机121’捕捉对象时,闪光灯123朝着该对象发光。当通过使用后相机121’捕捉他自己或者她自己(以自拍模式)时,镜子124允许用户以反射的方式看着他或者她自己的面部等。
后音频输出单元152’可以被附加地设置在终端主体的后表面上。后音频输出单元152’与前音频输出单元152(参考图2A)一起能够实现立体声功能,并且其也可以被用于实现电话呼叫期间的扬声器电话模式。
用于接收广播信号的天线116可以被附加地设置在终端主体的横向表面上。组成广播接收模块111(参考图1)的部分的天线116可以被设置成从终端主体中拉出。
用于将电力供应给便携式终端100的电源单元190可以被安装在终端主体上。电源单元190可以被配置成合并在终端主体中,或者可直接地从终端主体的外部拆卸。
用于检测触摸的触摸板135可以被附加地安装在后壳体102上。与显示单元151(参考图2A)相类似地,可以以透光型来配置触摸板135。可替选地,用于显示视觉信息的后显示单元可以被附加地安装在触摸板135上。这时,可以通过触摸板135来控制显示在前显示单元151和后显示单元的两个表面上的信息。
可以与前壳体101的显示单元151协同地操作触摸板135。触摸板135可以被平行地设置在显示单元151的后侧。触摸板135可以具有与显示单元151相同的大小或者比显示单元151小的大小。
图3是图示根据本公开的实施例的语音识别系统的框图。参考图3,语音识别系统可以包括通过网络相互连接的服务器200和移动终端300,以使用分布式资源处理语音识别。换言之,语音识别系统可以实现分布式语音识别技术。
服务器200可以包括第一语音识别引擎210和第一数据库220。第一语音识别引擎210可以参考第一数据库220识别由移动终端300提供的语音,在该第一数据库220中以一般信息指定信息域。结果,第一语音识别引擎210可以生成第一语音识别数据。服务器200可以将由第一语音识别引擎210生成的第一语音识别数据发送到移动终端300。
移动终端300可以包括麦克风310、第二语音识别引擎320、第二数据库330、通信单元340、显示单元350、以及控制器360。麦克风310可以接收用户的语音。第二语音识别引擎320可以参考第二数据库330识别通过麦克风310接收到的语音,在该第二数据库330中以个人信息指定信息域。结果,第二语音识别引擎320可以生成第二语音识别数据。通信单元340可以通过麦克风310将接收到的语音发送到服务器200,并且响应于其从服务器接收第一语音识别数据。显示单元350可以显示与语音识别相关联的各种信息和控制菜单。控制器360可以控制与语音识别相关联的移动终端的整体操作。
在下文中,将会详细地描述第一和第二语音识别引擎210、310的语音识别处理。为了便于解释,第一和第二语音识别引擎210、310被共同地称为语音识别引擎,并且第一和第二数据库220、330被共同地称为数据库,并且第一和第二语音识别数据被共同地称为语音识别数据。
语音识别引擎在数据库的信息域中使用语音识别算法分析接收到(输入)的语音的意义和上下文。为此,使用语音至文本(STT)算法,语音可以被转换成文本形式的数据并且被存储在数据库中。
使用语音识别算法可以将用户的语音转换成多个数据。在这样的情况下,语音识别引擎可以确定用于多个数据的识别率,并且选择多个数据当中的具有最高识别率的数据作为语音识别结果。
图4是用于解释根据本公开的实施例的移动终端300的语音识别方法的流程图。参考图4,执行通过麦克风310接收用户的语音的处理(S102)。
接下来,执行将接收到的语音提供给第一语音识别引擎210和第二语音识别引擎320的处理(S104)。可以通过麦克风310将语音发送到服务器200,并且将其提供给第一语音识别引擎210。这时,根据网络状态可以阻止到服务器200的语音传输。
然后,执行获取第一语音识别数据作为通过第一语音识别引擎识别语音的结果的处理(S106)。可以从服务器200接收第一语音识别数据。这时,根据网络状态可以阻止来自于服务器200的语音识别。此外,执行获取第二语音识别数据作为通过第二语音识别引擎320识别语音的结果的处理(S108)。
接下来,执行基于第一和第二语音识别数据中的至少一个来估计与用户的意图相对应的功能的处理(S110)。例如,通过口语理解(SLU)工作可以估计与用户的意图相对应的功能。SLU工作指的是从语音识别的句子中提取有意义的信息以推断用户的意图,主要是,提取诸如主要行为、言语动作、所命名的实体等的信息。在此,主要动作表示在用户的说话中透露的用户想要采取的特定行为,并且言语动作表示诸如人、地点、组织、时间等的关键字信息。
接下来,执行确定所估计的功能是否要求个人信息(例如,联系人信息等)的处理(S112)。例如,执行电话呼叫功能需要呼叫对象的个人信息。当所估计的功能要求个人信息时,执行当所估计的功能要求个人信息时计算第一和第二语音识别数据之间的相似度的处理(S114)。在此,相似度能够表示在相互比较的文本内多个字符或者单词彼此一致的比率。例如,当“ABCD”与“ABCF”相比较时,四个字符中的三个相同但是一个是不同的,并且因此,相似度可以被计算为75%。
执行将计算的相似度与预定的基准值(例如,80%)进行比较的处理(S116)。当计算的相似度小于基准值时,即,当确定在第一和第二语音识别数据之间存在大的差异时,执行从第一和第二语音识别数据中选择第一语音识别数据的处理(S118)。因此,所选择的第一语音识别数据可以被用于执行所估计的功能。这时,通过所选择的第一语音识别数据可以修改或者补充所估计的功能以用于其执行。
相反地,当计算的相似度等于或者大于基准值时,即,当确定在第一和第二语音识别数据中存在小的差异时,执行从第一和第二语音识别数据中选择第二语音识别数据的处理(S120)。因此,所选择的第二语音识别数据可以被用于执行所估计的功能。这时,通过所选择的第二语音识别数据可以修改或者补充所估计的功能以用于其执行。
另一方面,当估计的功能不需要个人信息时执行忽略第二语音识别数据的处理(S122)。因此,第一语音识别数据可以被用于执行所估计的功能。
如上所述,根据本公开,在通过相互补充的远程语音识别引擎(第一语音识别引擎)和本地语音识别引擎(第二语音识别引擎)获得的语音识别结果当中,可以选择和使用通过预定算法确定为具有高可靠性的语音识别结果,从而增强移动终端300的语音识别率。
此外,根据本公开,当在语音识别处理期间所估计的功能要求个人信息时,可以使用通过本地语音识别引擎获得的语音识别结果,从而防止与个人信息相关联的语音被远程语音识别引擎识别。换言之,可以防止个人信息被泄露。
此外,根据本公开,能够在网络的故障状态期间忽略远程语音识别引擎的语音识别结果,以消除从远程语音识别引擎接收语音识别结果所需要的延迟,从而增强语音识别的处理速度。
图5和图6是用于解释根据本公开的实施例的与是否接收语音识别数据相关联的移动终端300的语音识别方法的流程图。
参考图5,首先,执行获得服务器200和移动终端300之间所建立的网络的状态的处理(S210)。可以基于传输速度、数据分组损失率等获得网络的状态。
然后,执行确定网络的状态是否差的处理(S220)。当网络状态差时,执行阻止从服务器200接收第一语音识别数据的处理(S230)。
参考图6,首先,执行将对于第一语音识别数据的请求信号发送到服务器200的处理(S310)。可以响应于请求信号从服务器200接收第一语音识别数据。
接下来,执行确定在预定的响应时间内是否接收到第一语音识别数据的处理(S320)。当在预定的响应时间内没有接收到第一语音识别数据时,执行将取消信号发送到服务器的处理,该取消信号用于取消对于第一语音识别数据的请求(S330)。服务器200可以根据取消信号终止第一语音识别数据的生成和传输。
图7是用于解释根据本公开的实施例的与个人信息保护功能相关联的移动终端300的语音识别方法的流程图。参考图7,执行在语音识别模式中显示用于执行个人信息保护功能的菜单按钮的处理(S410)。响应于对菜单按钮的触摸输入可以执行个人信息保护功能。
接下来,执行确定是否执行个人信息保护功能的处理(S420)。当个人信息保护功能被执行时,可以阻止从用户接收到的语音被提供给第一语音识别引擎210。这意指阻止用户的语音被发送到服务器200。
图8是图示应用了图7的语音识别方法的移动终端300的用户界面的概念视图。参考图8,控制器360能够控制显示单元350以显示与语音识别相关联的屏幕图像351。屏幕图像351可以包括用于指示语音识别模式正被执行的指导信息352、用于执行个人信息保护功能的菜单按钮353等。
当感测到对353的触摸输入时,控制器360可以执行个人信息保护功能。当在个人信息保护功能的执行期间通过麦克风310接收到用户的语音时,控制器360可以阻止接收到的语音被提供给第一语音识别引擎210,并且将其提供给第二语音识别引擎320。
第二语音识别引擎320可以参考第一数据库220识别接收到的语音,在该第一数据库220中以个人信息指定信息域,并且第二语音识别引擎320可以将语音识别结果传输到控制器360。控制器360可以基于第二语音识别引擎320的语音识别结果来估计和执行与用户的意图相对应的功能。例如,当识别到从用户接收的“打电话给Kim Tae-Heui”时,控制器360可以估计和执行电话呼叫功能。此外,控制器360可以控制显示单元350以显示与电话呼叫功能相关联的屏幕图像354。
然而,为了执行电话呼叫功能,要求作为个人信息的联系人信息“Kim Tae-Heui”。在这样的情况下,可以使用菜单按钮353手动地执行个人信息保护功能,不将与个人信息相关联的语音发送到服务器200。
图9是用于解释根据本公开的实施例的与语音识别数据的用户选择相关联的移动终端300的语音识别方法的流程图。参考图9,执行显示第一和第二语音识别数据作为第一和第二语音识别引擎210、310的语音识别的结果的处理(S510)。
接下来,执行响应于触摸输入来选择第一和第二语音识别数据中的任意一个的处理(S520)。然后,执行使用所选择的任意一个语音识别数据并且执行所估计的功能的处理(S530)。
图10是图示应用了图9的语音识别方法的移动终端300的用户界面的概念视图。参考图10,控制器360可以控制显示单元350以显示与语音识别相关联的屏幕图像451。屏幕图像451可以包括指导信息452、第一和第二语音识别数据453、454等。
例如,作为识别从用户接收的语音“打电话给Kim Tae-Heui”的结果,以文本形式的第一和第二语音识别数据453、454,诸如“打电话给Kim Tae-Hui”和“打电话给Kim Tae-Heui”,可以被以文本形式显示。这时,在第一和第二语音识别数据453、454中的不同的字符或者单词可以被突出。例如,“Hui”和“Heui”的粗度、颜色、倾斜、以及字体可以被改变以区别其它的字符。另外地,诸如下划线、阴影等的图形效果可以被提供给“Hui”和“Heui”。结果,用户能够以相对的方式直观地识别出什么是更加适合于他或者她的意图的语音识别数据。
控制器360可以响应于触摸输入选择第一和第二语音识别数据453、454中的任意一个。此外,控制器360可以基于所选择的任意一个语音识别数据来估计和执行与用户的意图相对应的功能。例如,当识别到诸如“打电话给Kim Tae-Heui”的语音识别数据454时,控制器360可以估计并且执行电话呼叫功能。
根据本公开,在通过相互补充的远程语音识别引擎(第一语音识别引擎)和本地语音识别引擎(第二语音识别引擎)而获得的语音识别结果当中,可以选择和使用通过预定的算法确定为具有高可靠性的语音识别结果,从而增强移动终端的语音识别率。
此外,根据本公开,当在语音识别处理期间所估计的功能要求个人信息时,可以使用通过本地语音识别引擎获得的语音识别结果,从而防止与个人信息相关联的语音被远程语音识别引擎识别。换言之,能够防止个人信息被泄露。
此外,根据本公开,在网络的故障状态期间能够忽略远程语音识别引擎的语音识别结果,以消除从远程语音识别引擎接收语音识别结果所需要的延迟,从而增强语音识别的处理速度。
根据本公开的实施例,可以在写入程序的介质上将前述方法实现为通过处理器可读的代码。处理器可读介质的示例可以包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储设备等,并且也包括以载波形式实现(例如,经由互联网的传输)的装置。
根据上述实施例的配置和方法将不会以有限的方式应用于前述的移动终端,并且每个实施例的全部或者部分可以被选择性地组合,并且被配置成对其进行各种修改。
Claims (16)
1.一种与服务器相连接的移动终端的语音识别方法,所述方法包括:
接收用户的语音;
将接收到的语音提供给在所述服务器中提供的第一语音识别引擎以及在所述移动终端中提供的第二语音识别引擎;
获取第一语音识别数据作为通过所述第一语音识别引擎识别所述接收到的语音的结果;以及
获取第二语音识别数据作为通过所述第二语音识别引擎识别所述接收到的语音的结果,
其特征在于:
其中,所述方法进一步包括:
基于所述第一语音识别数据和第二语音识别数据中的至少一个来估计与用户的意图相对应的功能;
当估计的功能需要个人信息时,计算所述第一语音识别数据和第二语音识别数据之间的相似度;以及
基于计算的相似度来选择所述第一语音识别数据和第二语音识别数据中的任意一个。
2.根据权利要求1所述的方法,进一步包括:
当估计的功能不需要个人信息时,忽略所述第二语音识别数据。
3.根据权利要求1所述的方法,其中,所述获取第一语音识别数据包括:
将用于请求所述第一语音识别数据的请求信号发送到所述服务器;以及
响应于所述请求信号,从所述服务器接收所述第一语音识别数据。
4.根据权利要求3所述的方法,进一步包括:
获得在所述服务器和所述移动终端之间连接的网络的状态信息;以及
基于所述网络的状态信息来忽略所述第一语音识别数据。
5.根据权利要求4所述的方法,进一步包括:
当忽略所述第一语音识别数据时,使用所述第二语音识别数据来执行估计的功能。
6.根据权利要求1所述的方法,进一步包括:
显示用于执行个人信息保护功能的菜单按钮;以及
当响应于对所述菜单按钮的触摸输入而执行所述个人信息保护功能时,阻止所述接收到的语音被提供给所述第一语音识别引擎。
7.根据权利要求1所述的方法,进一步包括:
使用所选择的任意一个语音识别数据来执行估计的功能。
8.根据权利要求1所述的方法,其中,所述获取第二语音识别数据包括:
参考用于所述个人信息的数据库来识别所述接收到的语音。
9.一种与服务器相连接的移动终端,包括:
麦克风,所述麦克风被配置成接收用户的语音;
通信单元,所述通信单元被配置成将接收到的语音发送到所述服务器,以及接收第一语音识别数据,所述第一语音识别数据作为通过在所述服务器中提供的第一语音识别引擎识别所述接收到的语音的结果而生成;以及
第二语音识别引擎,所述第二语音识别引擎被配置成生成第二语音识别数据作为识别所述接收到的语音的结果,
其特征在于:
其中,所述移动终端进一步包括:
控制器,所述控制器被配置成:
基于所述第一语音识别数据和第二语音识别数据中的至少一个来估计与用户的意图相对应的功能,
当估计的功能需要个人信息时计算所述第一语音识别数据和第二语音识别数据之间的相似度,以及
基于计算的相似度来选择所述第一语音识别数据和第二语音识别数据中的任意一个。
10.根据权利要求9所述的移动终端,其中,当估计的功能不需要个人信息时,所述控制器忽略所述第二语音识别数据。
11.根据权利要求9所述的移动终端,其中,所述控制器获得在所述服务器和所述移动终端之间连接的网络的状态信息,以及基于所述网络的状态信息来忽略所述第一语音识别数据。
12.根据权利要求10所述的移动终端,其中,当所述第一语音识别数据被忽略时,所述控制器使用所述第二语音识别数据来执行估计的功能。
13.根据权利要求9所述的移动终端,进一步包括:
显示单元,所述显示单元被配置成显示用于执行个人信息保护功能的菜单按钮。
14.根据权利要求13所述的移动终端,其中,当响应于对所述菜单按钮的触摸输入而执行所述个人信息保护功能时,所述控制器阻止所述接收到的语音被提供给所述第一语音识别引擎。
15.根据权利要求9所述的移动终端,其中,所述控制器使用所选择的任意一个语音识别数据来执行估计的功能。
16.根据权利要求9所述的移动终端,其中,所述第二语音识别引擎参考用于所述个人信息的数据库来识别所述接收到的语音。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120070353A KR101961139B1 (ko) | 2012-06-28 | 2012-06-28 | 이동 단말기 및 그것의 음성 인식 방법 |
KR10-2012-0070353 | 2012-06-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103533154A CN103533154A (zh) | 2014-01-22 |
CN103533154B true CN103533154B (zh) | 2015-09-02 |
Family
ID=48747311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310269078.9A Active CN103533154B (zh) | 2012-06-28 | 2013-06-28 | 移动终端及其识别语音的方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9147395B2 (zh) |
EP (1) | EP2680257B1 (zh) |
JP (1) | JP5956384B2 (zh) |
KR (1) | KR101961139B1 (zh) |
CN (1) | CN103533154B (zh) |
WO (1) | WO2014003329A1 (zh) |
Families Citing this family (173)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US10114902B2 (en) | 2012-06-29 | 2018-10-30 | Ebay Inc. | Method for detecting and analyzing site quality |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
KR102516577B1 (ko) | 2013-02-07 | 2023-04-03 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
WO2015184186A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
KR102340251B1 (ko) * | 2014-06-27 | 2021-12-16 | 삼성전자주식회사 | 데이터 관리 방법 및 그 방법을 처리하는 전자 장치 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP6418820B2 (ja) * | 2014-07-07 | 2018-11-07 | キヤノン株式会社 | 情報処理装置、表示制御方法、及びコンピュータプログラム |
JP6118838B2 (ja) * | 2014-08-21 | 2017-04-19 | 本田技研工業株式会社 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
KR20160056548A (ko) * | 2014-11-12 | 2016-05-20 | 삼성전자주식회사 | 질의 응답을 위한 디스플레이 장치 및 방법 |
US9934406B2 (en) | 2015-01-08 | 2018-04-03 | Microsoft Technology Licensing, Llc | Protecting private information in input understanding system |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
EP3091422B1 (en) * | 2015-05-08 | 2020-06-24 | Nokia Technologies Oy | Method, apparatus and computer program product for entering operational states based on an input type |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10338959B2 (en) * | 2015-07-13 | 2019-07-02 | Microsoft Technology Licensing, Llc | Task state tracking in systems and services |
KR101910383B1 (ko) * | 2015-08-05 | 2018-10-22 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
CN105206266B (zh) * | 2015-09-01 | 2018-09-11 | 重庆长安汽车股份有限公司 | 基于用户意图猜测的车载语音控制系统及方法 |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
CN106971720A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种更新噪声数据库的机器人语音识别方法及装置 |
CN106971716A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种机器人噪声数据库更新及语音识别装置、方法 |
US10635281B2 (en) | 2016-02-12 | 2020-04-28 | Microsoft Technology Licensing, Llc | Natural language task completion platform authoring for third party experiences |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
WO2018117608A1 (ko) * | 2016-12-20 | 2018-06-28 | 삼성전자 주식회사 | 전자 장치, 그의 사용자 발화 의도 판단 방법 및 비일시적 컴퓨터 판독가능 기록매체 |
KR102502220B1 (ko) | 2016-12-20 | 2023-02-22 | 삼성전자주식회사 | 전자 장치, 그의 사용자 발화 의도 판단 방법 및 비일시적 컴퓨터 판독가능 기록매체 |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
KR102068182B1 (ko) * | 2017-04-21 | 2020-01-20 | 엘지전자 주식회사 | 음성 인식 장치, 및 음성 인식 시스템 |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
KR102033929B1 (ko) * | 2017-06-28 | 2019-10-18 | 포항공과대학교 산학협력단 | 아식칩과 스마트폰을 구비하는 실시간 음성인식 장치 |
KR102413282B1 (ko) * | 2017-08-14 | 2022-06-27 | 삼성전자주식회사 | 개인화된 음성 인식 방법 및 이를 수행하는 사용자 단말 및 서버 |
US10515637B1 (en) | 2017-09-19 | 2019-12-24 | Amazon Technologies, Inc. | Dynamic speech processing |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US11182565B2 (en) | 2018-02-23 | 2021-11-23 | Samsung Electronics Co., Ltd. | Method to learn personalized intents |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10679620B2 (en) * | 2018-03-06 | 2020-06-09 | GM Global Technology Operations LLC | Speech recognition arbitration logic |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11314940B2 (en) | 2018-05-22 | 2022-04-26 | Samsung Electronics Co., Ltd. | Cross domain personalized vocabulary learning in intelligent assistants |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US10922433B2 (en) | 2018-11-26 | 2021-02-16 | Wells Fargo Bank, N.A. | Interrupting receipt of sensitive information |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN109979454B (zh) * | 2019-03-29 | 2021-08-17 | 联想(北京)有限公司 | 数据处理方法及装置 |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
JP7168080B2 (ja) * | 2019-06-04 | 2022-11-09 | 日本電信電話株式会社 | 音声認識制御装置、音声認識制御方法、およびプログラム |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11418875B2 (en) * | 2019-10-14 | 2022-08-16 | VULAI Inc | End-fire array microphone arrangements inside a vehicle |
US11289095B2 (en) | 2019-12-30 | 2022-03-29 | Yandex Europe Ag | Method of and system for translating speech to text |
CN113241066B (zh) * | 2020-01-22 | 2022-04-22 | 广州汽车集团股份有限公司 | 语音交互方法及其系统、语音交互设备 |
CN113241067B (zh) * | 2020-01-22 | 2022-04-22 | 广州汽车集团股份有限公司 | 一种语音交互方法及其系统、语音交互设备 |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112164392A (zh) * | 2020-11-13 | 2021-01-01 | 北京百度网讯科技有限公司 | 确定显示的识别文本的方法、装置、设备以及存储介质 |
EP4156179A1 (de) * | 2021-09-23 | 2023-03-29 | Siemens Healthcare GmbH | Sprachsteuerung einer medizinischen vorrichtung |
KR20230123343A (ko) * | 2022-02-16 | 2023-08-23 | 삼성전자주식회사 | 음성 지원 서비스를 제공하는 방법 및 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1786957A (zh) * | 2004-12-08 | 2006-06-14 | 国际商业机器公司 | 本地与远程语音呈现之间的动态转换 |
KR20060089288A (ko) * | 2005-02-03 | 2006-08-09 | 주식회사 현대오토넷 | 분산 음성 인식 시스템을 이용한 텔레매틱스 시스템의정보 제공 시스템 및 방법 |
WO2010067118A1 (en) * | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
CN102496364A (zh) * | 2011-11-30 | 2012-06-13 | 苏州奇可思信息科技有限公司 | 基于云端网络的交互式语音识别方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3082618B2 (ja) | 1995-03-28 | 2000-08-28 | フジテック株式会社 | エレベータの音声入力装置 |
JP2001142487A (ja) * | 1999-11-11 | 2001-05-25 | Sony Corp | 音声データ入力システム |
US20020138274A1 (en) * | 2001-03-26 | 2002-09-26 | Sharma Sangita R. | Server based adaption of acoustic models for client-based speech systems |
US6738743B2 (en) * | 2001-03-28 | 2004-05-18 | Intel Corporation | Unified client-server distributed architectures for spoken dialogue systems |
GB2383459B (en) | 2001-12-20 | 2005-05-18 | Hewlett Packard Co | Speech recognition system and method |
JP2004272134A (ja) | 2003-03-12 | 2004-09-30 | Advanced Telecommunication Research Institute International | 音声認識装置及びコンピュータプログラム |
JP2004312210A (ja) | 2003-04-04 | 2004-11-04 | R & D Associates:Kk | 個人認証方法、個人認証装置及び個人認証システム |
KR100956941B1 (ko) * | 2003-06-27 | 2010-05-11 | 주식회사 케이티 | 네트워크 상황에 따른 선택적 음성인식 장치 및 그 방법 |
JP4791699B2 (ja) | 2004-03-29 | 2011-10-12 | 中国電力株式会社 | 業務支援システム及び方法 |
US8589156B2 (en) * | 2004-07-12 | 2013-11-19 | Hewlett-Packard Development Company, L.P. | Allocation of speech recognition tasks and combination of results thereof |
US20070276651A1 (en) * | 2006-05-23 | 2007-11-29 | Motorola, Inc. | Grammar adaptation through cooperative client and server based speech recognition |
JP5212910B2 (ja) * | 2006-07-07 | 2013-06-19 | 日本電気株式会社 | 音声認識装置、音声認識方法、および音声認識用プログラム |
US8635243B2 (en) * | 2007-03-07 | 2014-01-21 | Research In Motion Limited | Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application |
KR101326262B1 (ko) * | 2007-12-27 | 2013-11-20 | 삼성전자주식회사 | 음성인식 단말 및 그 방법 |
JP5283947B2 (ja) * | 2008-03-28 | 2013-09-04 | Kddi株式会社 | 携帯端末の音声認識装置、音声認識方法、音声認識プログラム |
US8364481B2 (en) * | 2008-07-02 | 2013-01-29 | Google Inc. | Speech recognition with parallel recognition tasks |
JP5050175B2 (ja) | 2008-07-02 | 2012-10-17 | 株式会社国際電気通信基礎技術研究所 | 音声認識機能付情報処理端末 |
JP5381988B2 (ja) * | 2008-07-28 | 2014-01-08 | 日本電気株式会社 | 対話音声認識システム、対話音声認識方法および対話音声認識用プログラム |
JP2010113678A (ja) * | 2008-11-10 | 2010-05-20 | Advanced Media Inc | 姓名解析方法、姓名解析装置、音声認識装置、および姓名頻度データ生成方法 |
JP5326892B2 (ja) * | 2008-12-26 | 2013-10-30 | 富士通株式会社 | 情報処理装置、プログラム、および音響モデルを生成する方法 |
US8515762B2 (en) * | 2009-01-22 | 2013-08-20 | Microsoft Corporation | Markup language-based selection and utilization of recognizers for utterance processing |
JP5377430B2 (ja) * | 2009-07-08 | 2013-12-25 | 本田技研工業株式会社 | 質問応答データベース拡張装置および質問応答データベース拡張方法 |
JP5464078B2 (ja) * | 2010-06-30 | 2014-04-09 | 株式会社デンソー | 音声認識端末 |
US20130238326A1 (en) * | 2012-03-08 | 2013-09-12 | Lg Electronics Inc. | Apparatus and method for multiple device voice control |
US10354650B2 (en) * | 2012-06-26 | 2019-07-16 | Google Llc | Recognizing speech with mixed speech recognition models to generate transcriptions |
-
2012
- 2012-06-28 KR KR1020120070353A patent/KR101961139B1/ko active IP Right Grant
-
2013
- 2013-06-07 WO PCT/KR2013/005017 patent/WO2014003329A1/en active Application Filing
- 2013-06-13 EP EP13171839.7A patent/EP2680257B1/en active Active
- 2013-06-21 US US13/923,511 patent/US9147395B2/en active Active
- 2013-06-27 JP JP2013134874A patent/JP5956384B2/ja active Active
- 2013-06-28 CN CN201310269078.9A patent/CN103533154B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1786957A (zh) * | 2004-12-08 | 2006-06-14 | 国际商业机器公司 | 本地与远程语音呈现之间的动态转换 |
KR20060089288A (ko) * | 2005-02-03 | 2006-08-09 | 주식회사 현대오토넷 | 분산 음성 인식 시스템을 이용한 텔레매틱스 시스템의정보 제공 시스템 및 방법 |
WO2010067118A1 (en) * | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
CN102496364A (zh) * | 2011-11-30 | 2012-06-13 | 苏州奇可思信息科技有限公司 | 基于云端网络的交互式语音识别方法 |
Also Published As
Publication number | Publication date |
---|---|
US20140006027A1 (en) | 2014-01-02 |
JP5956384B2 (ja) | 2016-07-27 |
EP2680257A1 (en) | 2014-01-01 |
JP2014010456A (ja) | 2014-01-20 |
CN103533154A (zh) | 2014-01-22 |
WO2014003329A1 (en) | 2014-01-03 |
US9147395B2 (en) | 2015-09-29 |
KR20140001711A (ko) | 2014-01-07 |
KR101961139B1 (ko) | 2019-03-25 |
EP2680257B1 (en) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103533154B (zh) | 移动终端及其识别语音的方法 | |
CN108182016B (zh) | 移动终端及其控制方法 | |
CN103811005B (zh) | 移动终端及其控制方法 | |
KR101917691B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR101772979B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
US9380433B2 (en) | Mobile terminal and control method thereof | |
US8423087B2 (en) | Mobile terminal with touch screen and method of processing message using the same | |
EP2658227B1 (en) | Exchange of hand-drawings on touch-devices | |
US8850340B2 (en) | Mobile terminal and method of providing user interface using the same | |
KR101887453B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
EP2824538A1 (en) | Electronic device and control method thereof | |
CN103513763A (zh) | 移动终端及其控制方法 | |
CN105830351A (zh) | 移动终端及其控制方法 | |
CN104796527A (zh) | 移动终端及其控制方法 | |
KR20100054369A (ko) | 단말기 및 그 제어 방법 | |
CN103685722A (zh) | 移动终端及其控制方法 | |
CN103577093A (zh) | 移动终端及其控制方法 | |
CN103810073A (zh) | 移动终端和控制移动终端的方法 | |
KR20100054944A (ko) | 입력 시스템 및 그 제어 방법 | |
KR101739387B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR20130091181A (ko) | 이동 단말기 및 그것의 제어 방법 | |
CN105208146A (zh) | 移动终端及其控制方法 | |
KR101529927B1 (ko) | 단말기 및 그 제어 방법 | |
KR20160072639A (ko) | 이동 단말기 및 그 제어 방법 | |
KR20130060862A (ko) | 이동 단말기 및 그것의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |