CN113900529A - 移动装置上的模态学习 - Google Patents
移动装置上的模态学习 Download PDFInfo
- Publication number
- CN113900529A CN113900529A CN202111185746.0A CN202111185746A CN113900529A CN 113900529 A CN113900529 A CN 113900529A CN 202111185746 A CN202111185746 A CN 202111185746A CN 113900529 A CN113900529 A CN 113900529A
- Authority
- CN
- China
- Prior art keywords
- user input
- computing device
- modality
- user
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 77
- 230000004044 response Effects 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims 1
- 238000013518 transcription Methods 0.000 abstract description 26
- 230000035897 transcription Effects 0.000 abstract description 26
- 238000004590 computer program Methods 0.000 abstract description 16
- 230000003213 activating effect Effects 0.000 abstract description 8
- 230000015654 memory Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 6
- 239000000872 buffer Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 235000011468 Albizia julibrissin Nutrition 0.000 description 2
- 240000005852 Mimosa quadrivalvis Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 240000006394 Sorghum bicolor Species 0.000 description 1
- 235000011684 Sorghum saccharatum Nutrition 0.000 description 1
- 235000009430 Thespesia populnea Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002103 transcriptional effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Acoustics & Sound (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
- Character Discrimination (AREA)
Abstract
本公开涉及移动装置上的模态学习。公开了包括在计算机存储介质上编码并用于移动装置中的交叉输入模态学习的计算机程序的方法、系统和设备。在一个方案中,一种方法包括激活第一模态用户输入模式,其中使用第一模态识别器来识别通过第一模态的方式实现的用户输入;和通过所述第一模态的方式接收用户输入。该方法包括,作为所述第一模态识别器识别用户输入的结果而获得包括特定词项的转录;以及生成至少引用所述特定词项的输入场境数据结构。该方法进一步包括,通过第一模态识别器将输入场境数据结构传输给第二模态识别器,以用于更新与第二模态识别器相关联的第二模态识别模型。
Description
分案说明
本申请属于申请日为2017年9月29日的中国发明专利申请201710909192.1的分案申请。
技术领域
本申请涉及移动装置上的模态学习。
背景技术
智能电话和移动计算装置被配置为支持语音打字,当用户激活移动装置的麦克风功能时,可以开启语音打字。通常,移动计算装置可包括至少两种输入法编辑器(IME),即键盘或文本IME以及语音或言语IME。文本IME支持数字文本的物理输入和显示,而语音IME支持语音输入和言语音频的转录。对于一些移动装置或用户装置,可将键盘IME配置为默认IME,并且因此是装置所采用的预选输入法选项。
当移动装置的用户激活麦克风功能时,用户可引起装置进行从键盘IME到语音IME的切换。在某些情况下,可通过在移动装置的显示器上可见的点亮的麦克风图标来指示该切换。类似地,在语音听写中,手动校正错误转录的单词可以触发IME向触摸键盘输入法的切换。在某些情况下,用户可通过键盘IME输入或键入文本,并且在不知道特定单词的拼写时,用户可以激活装置麦克风并选择通过语音转录来输入该单词。
发明内容
描述了至少包括具有键盘IME和语音IME的移动装置的计算系统。所述系统通过移动装置的语音输入法接收用户输入。系统识别用户输入并生成包括用户所说的特定词项的转录。该系统进一步生成至少引用该特定词项的输入场境数据结构。输入场境数据结构可包括含有所述特定词项的数据结构,以及代表在其中接收了所述特定词项的输入场境或模态的其他数据。
输入场境数据结构通常可包括时间和/或日期参数、与所接收的用户输入相关联的应用程序的指示、以及一个或多个n-gram,所述n-gram可包括与言语音频输入相关联的连续场境项目,例如字母或单词。言语音频对应于通过语音输入法接收的用户输入,并且可包括特定词项的人类言语发音。
然后,系统将生成的输入场境数据结构传输给移动装置的键盘IME,以用于更新通过键盘IME以及语音IME可访问的一个或多个语言模型。输入场境数据结构还可用于更新通过计算系统的多个用户皆可访问的通用语言模型。更新后的语言模型使得在通过移动装置的语音输入法或键盘输入法再次接收特定词项作为用户输入时,键盘IME和语音IME能够识别该特定词项。
在本说明书的一个创造性方案中,描述了一种计算机实现的方法,其包括:激活第一模态用户输入模式,其中使用第一模态识别器来识别通过第一模态的方式实现的用户输入;以及通过第一模态的方式接收用户输入。该方法包括:作为第一模态识别器识别用户输入的结果而获得包括特定词项的转录;以及生成至少引用所述特定词项的输入场境数据结构。该方法进一步包括:通过第一模态识别器将输入场境数据结构传输给第二模态识别器,以用于更新与第二模态识别器相关联的第二模态识别模型。如同本说明书所使用的,模态可以是特定输入模式、通信信道或输入信号路径,其中用户装置在该输入信号路径中接收和/或处理特定类型的用户输入。
在一些实施方式中,该方法进一步包括:激活第二模态用户输入模式,其中使用第二模态识别器来识别通过第二模态的方式实现的用户输入;通过第二模态的方式接收用户输入,用户输入包括特定词项;以及响应于传输而通过第二模态识别器来识别通过第二模态的方式接收的特定词项。在一些实施方式中,通过第二模态识别器识别特定词项包括至少通过用户装置的显示器提供特定词项与第二模态识别器可访问的语言模型相关联的指示。
在一些实施方式中,该方法进一步包括:响应于通过第二模态的方式接收用户输入而激活第一模态用户输入模式,其中所接收的用户输入包括特定词项,且所述特定词项没有被第二模态识别器识别。
在一些实施方式中,第二模态识别器被配置为:检测通过第二模态的方式接收的包括至少引用特定词项的输入场境数据结构的用户输入的出现;递增第一数据计数,第一数据计数跟踪以下情形的出现次数:引用特定词项的输入内容被通过第二模态的方式接收;以及递增第二数据计数,第二数据计数跟踪以下情形的出现次数:与特定词项相对应的用户输入被通过第二模态的方式接收。
在一些实施方式中,该方法进一步包括:生成包括通过第一模态的方式接收的多个用户输入的数据库;以及使用多个用户输入的数据库的至少一个用户输入来更新第一模态识别器或第二模态识别器的至少其中一个可访问的一个或多个通用语言模型。
在一些实施方式中,第一模态用户输入模式包括语音输入模式,其中使用第一模态识别器来识别与人类言语相对应的用户输入。在一些实施方式中,第一模态识别器是语音输入法编辑器(IME),且被配置为接收与包括特定词项的发音的人类言语相对应的音频输入信号。
该方案的其他实施方式包括对应的计算机系统、设备,以及记录在一个或多个计算机存储装置上、分别被配置为进行上述方法的动作的计算机程序。可将一个或多个计算机的系统配置为通过在系统上安装软件、固件、硬件或它们的组合来进行特定的操作或动作,在操作中软件、固件、硬件或它们的组合使得系统进行这些动作。可将一个或多个计算机程序配置为通过包括在数据处理装置执行时使得设备进行这些动作的指令来进行特定的操作或动作。
在本说明书的另一个创造性方案中,描述了一种计算机实现方法,其包括:在计算装置中激活语音用户输入模式,其中使用语音模态识别器来识别通过语音模态的方式实现的用户输入;以及通过语音模态的方式接收用户输入。该方法包括:通过计算装置并作为语音模态识别器识别用户输入的结果,获得包括特定词项的转录;以及生成至少引用特定词项的输入场境数据结构。该方法进一步包括:通过语音模态识别器将输入场境数据结构传输给键入式输入模态识别器,以用于更新与第二模态识别器相关联的键入式模态识别模型。
在本说明书中描述的主题可在特定实施方式中实现,并且可带来以下一个或多个优点。本说明书中的计算系统消除了配置或定义单独的学习模型或逻辑结构以增强计算装置中的键盘IME学习的需要。由于并非编码多个键盘学习模型,通过将不必要的计算最小化,优化了计算装置过程,并提高了处理效率。
所接收的音频输入被转录并传输给本地键盘IME以及通用语言模型,用于全面供多个用户装置使用。例如基于与新的或演化的言语发音相对应的音频输入信号的基于服务器的分析或本地装置的分析,可以有效地实现键盘IME增强。因此,避免了语音的冗余信号分析以及常见单词的键盘用户输入,从而为其他计算和系统传输提供了增强的系统带宽。
除了常见单词之外,基于所描述的主题,现在使得键盘IME能够使用计算装置的语音识别功能来学习新单词。例如,新单词可以对应于在特定口头语言或计算机语言模型中并不存在的词项(例如“selfie”或“bae”)或者用于新地点/位置的命名。
在下面的附图和描述中给出本说明书所述主题的一个或多个实施方式的细节。根据描述、附图和权利要求,该主题的其它特征、方案和优点将变得显而易见。
附图说明
图1示出在示例性计算系统中与交叉模态学习相关的多个界面。
图2示出用于交叉模态学习的示例性计算系统的系统图。
图3是用于交叉模态学习的示例性过程的流程图。
图4是可以与本说明书中所述的计算机实现的方法结合使用的计算系统的方框图。
各个附图中相同的附图标记和标号表示相同的元素。
具体实施方式
图1示出在示例性计算系统中与交叉模态学习相关的多个界面。所述多个界面包括界面102、104、106和108。各个所示界面对应于可以在用户装置110上显示的示例性用户输入屏幕。如图1所示,在一些实施方式中,用户装置110可以对应于移动智能电话装置。
在替代性实施方式中,用户装置110可以是包括例如以下装置的各种计算装置中的一种:膝上型计算机/台式计算机、智能电视、电子阅读装置、流内容装置、游戏机、平板装置或被配置为执行与语音输入法编辑器(IME)以及键盘IME相关联的软件指令和应用程序的其他相关的计算装置。
界面102可以在用户装置110上显示,并且可包括从用户112接收用户输入的应用程序的示例性用户界面。在一些实施方式中,所接收的用户输入是言语或语音输入。如下参考图2更详细所述,用户装置110可包括至少两种IME,即键盘或文本IME以及语音或言语IME。
在一些实施方式中,与各个IME相关联的功能可以在用户装置110可访问的示例性基于云的计算系统中执行。在图1的实施方式中,可将用户装置110配置为使得键盘IME是默认IME,并且因此是被装置110采用的预选输入法选项。界面102可包括麦克风114的数字表示,当用户112引起装置110进行从键盘IME到语音IME的切换时,麦克风114点亮。
用户装置110的用户112可以激活装置110的麦克风功能以开启语音听写。此外可将界面102配置为显示表明“语音输入活跃”的消息。所显示的消息向用户112指示装置110处于语音输入模式并且可接收言语或语音输入。所接收的言语输入可通过装置110(即客户端)或通过基于云的计算系统(即服务器端)在本地转录,以产生转录120。
用户112可以禁用装置110的麦克风功能以关闭语音听写并切换为用户装置110的键盘IME。因此,界面104可以对应于文本、触摸、键盘或通过数字或物理键盘输入法接收给装置110的用户输入的物理输入模式。在一些实施方式中,用户装置110是显示数字键盘的触摸屏装置。可将数字键盘配置为接收与滑动动作、涂鸦动作或手势动作相对应的动作输入116。
用户装置110所接收的触摸或物理输入可以示出为文本122。在一些实施方式中,用户112尝试使用与键盘IME相关联的功能来键入或输入特定词项。例如,特定的词项可以是单词“Milpitas”。在一些实施方式中,用户112可以键入示例性文本或向朋友Bob发出的电子邮件消息。虽然在界面104中没有示出,但该消息可以指示,用户112建议在示例性位置“Milpitas”(加利福尼亚州圣克拉拉县的一个城市)会见Bob。
如下更详细所述,用户装置112的键盘IME可以连接到包括与多种语言相关联的多个单词的示例性语言模型。但是在这种情况下,语言模型不识别键入的单词“Milpitas”。因此,由于模型不识别“Milpitas”一词,与键盘IME相关联的自动更正逻辑例如可能会建议更改或自动更正Milpitas为“mimosas”,如界面104的文本122所示。
类似地,与键盘IME相关联的自动校正或拼写检查逻辑也可向用户112指示,输入的单词“Milpitas”拼写错误。因此,如界面104所示,可通过与装置110的键盘IME相关联的示例性文本建议逻辑来建议如“mimosas”、“Milos”或“miles”这样的示例性单词。响应于用户装置110建议将特定输入的单词改变为另一个单词,用户112可以激活装置110的麦克风功能以开启语音听写。
界面106和界面108提供与交叉模态学习相关联的一个或多个操作的表示。界面106示出当用户112引起装置110进行从键盘IME到语音IME的切换时出现的点亮的麦克风114。在一些实施方式中,交叉模态学习操作可包括激活语音用户输入模式,其中使用语音模态识别器来识别通过语音模态方式实现的用户输入。
例如,从键盘IME到语音IME的切换通常可以对应于激活语音用户输入模式以开启语音听写。此外,语音模态识别器通常可以对应于语音IME,而语音模态通常可以对应于用户装置110的语音输入功能(其中开启了语音听写功能)。如本说明书所使用的,模态可以是特定输入模式、通信信道或输入信号路径,用户装置110在该输入信号路径中接收和/或处理特定类型的用户输入。
再次参考交叉模态学习操作,可通过用户装置110接收通过语音模态方式实现的用户输入。可将语音IME配置为识别用户输入如与包括多个单词的发音的人类言语有关的音频输入。此外,作为语音IME识别用户输入的结果,装置110可获得包括特定词项的转录。例如,在界面106的表示中,可通过用户112按照单词“Milpitas”的人类言语发音的形式来输入提供特定词项。
学习操作可包括获得特定词项或言语发音的转录。因此,如文本124所示,在示例性交叉模态学习操作期间获得口语单词“Milpitas”的转录。在一些实施方式中,用户装置110部分地基于用户装置110内本地发生的数据处理操作来获得转录。而在一些实施方式中,用户装置110部分地基于示例性的基于云或基于服务器的计算系统内远程发生的数据处理操作来获得转录。
在一些实施方式中,虽然语音IME可以正确地识别用户输入并获得准确的转录,但是语音IME语言模型可能不包括特定词项“Milpitas”。因此,引用与语音IME相关联的语言模型的拼写检查逻辑可能不识别转录的词项“Milpitas”。因此,由于单词“Milpitas”没有被识别,所以拼写检查逻辑例如可以向用户112指示,转录的单词“Milpitas”拼写不正确。
响应于接收该指示,用户112可以忽略拼写检查逻辑提供的错误拼写指示。或者,在一些实施方式中,用户装置110可以提示用户112认可接受特定词项“Milpitas”的转录拼写。在界面104中,可将文本124的表示解释为用户112接受了“Milpitas”的拼写是正确的指示。
一经指示用户112接受转录拼写,就将通过语音模态方式接收的特定词项“Milpitas”添加或保存到与语音IME相关联的一个或多个语言模型中。一旦添加到语言模型中,就可以访问该特定词项以用于随后的语音-文本通信。例如,一旦存储在语言模型中,就可以在随后的通信中使用单词“Milpitas”,而不会触发自动更正逻辑或拼写检查逻辑的出现。
交叉模态学习操作还可包括:生成至少引用所述特定词项的输入场境数据结构。例如,可以生成至少包括词项“Milpitas”以及与所接收的用户输入相关联的多个其他词项的输入场境数据结构。在一些实施方式中,多个其他词项可包括用于输入所述特定词项的示例性应用程序以及指示何时收到所述特定词项的时间和/或日期。
交叉模态学习操作还可包括语音模态识别器将输入场境数据结构传输给键盘或物理输入模态识别器,以用于更新与键盘模态识别器相关联的键盘模态识别模型。
例如,可通过语音IME将输入场境数据结构传输给键盘IME。输入场境数据结构可包括词项“Milpitas”,用于输入“Milpitas”的文本/电子邮件消息应用程序的指示,以及用户112通过语音输入法输入“Milpitas”的数据/时间。键盘IME可以与至少包括空间模型(如下所述)和语言模型的键盘模态识别模型相关联。
界面108显示经由键盘或物理输入模式输入到用户装置110的文本126。在一些实施方式中,所传输的输入场境数据结构可用于更新由键盘IME访问的键盘语言模型。更新的键盘语言模型使得用户112能够输入包括特定词项“Milpitas”的文本通信,使得该词项被与键盘IME相关联的拼写检查和/或自动更正逻辑适当地识别。此外,如文本126所示,用户112可基于正在更新为包括特定词项“Milpitas”的键盘IME的空间模型和语言模型来刷写或者用手势表示词项“Milpitas”。
图2示出用于交叉模态学习的示例性计算系统200的系统图。系统200通常包括语音模态识别模型202(语音模型202)、键盘模态识别模型252(键盘模型252)、交叉模态学习模块270(学习模块270)和通用语言模型274(通用LM 274)。
如同本说明书所使用的,词项“模块”意图包括但不限于被配置为执行一个或多个软件程序的一个或多个计算机,所述软件程序包括导致计算机的处理装置执行一个或多个功能的程序代码。词项“计算机”意图包括任何数据处理装置如台式计算机、膝上型计算机、大型计算机、平板装置、服务器、手持装置、移动或智能电话装置、或能够处理数据的任何其他装置。
语音模型202可包括声学模型206、语音模型208和言语IME 210。语音模型202通常被配置为接收音频输入204并执行各种数据和信号处理功能,以识别和提取与以特定语言所说的人类言语相关联的一个或多个单词。
语音模型202可与可从用户装置110访问的一个或多个应用程序结合使用。在一些实施方式中,语音模型202可以部分地由在模块中执行的软件或程序代码、处理器装置、或用户装置110内本地设置的电路组件形成。而在其他实施方式中,语音模型202可以与接收和处理来自装置110的音频信号传输的非本地、云或基于服务器的计算系统相关联。
声学模型206可以是在语音识别中使用的示例性声学模型,以关联音频信号与音素或形成语音音频的其他语言属性之间的关系。通常,声学模型206可以与言语IME 210交互,以识别和关联某些接收的发音,所述发音表现出同与示例性口语单词(例如“MILPITAS”)关联的声学相匹配的声学特性。
语言模型208可以是在语音识别中使用的示例性语言模型,以指定或确定某些单词组合或序列。在一些实施方式中,可将模型208配置为生成单词序列概率因子,其可用于指示特定单词序列或单词组合可能的出现或存在。所确定的单词序列主要对应于言语语料库而不是书面语料库所特有的序列。
语音IME 210可包括语音缓冲器212、识别器214和LM管理器216。语音缓冲器212和缓冲器262可分别包括一个或多个存储器单元,存储器单元被配置为临时缓冲或存储语音或音频信号,以用于通过语音模块202进行数据或信号处理。语音缓冲器212、262可包括一个或多个非暂时性机器可读的存储介质。非暂时性机器可读的存储介质可包括固态存储器、磁盘、光盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程的只读存储器(例如EPROM、EEPROM或闪存)、或能够存储信息的任何其他有形介质。
除了它们各自的缓冲器212和262之外,语音IME 210和键盘IME260(如下所述)可各自包括多个处理装置。处理装置可包括一个或多个处理器(例如微处理器或中央处理单元(CPU))、图形处理单元(GPU)、专用集成电路(ASIC)、或不同处理器的组合。在替代性实施方式中,系统200可包括其他计算资源/装置(例如基于云的服务器),其提供附加处理选项,以用于进行本说明书所述的一个或多个确定和计算。
处理装置通常可包括一个或多个存储单元或存储体,它们是非暂时性机器可读的存储介质。在一些实施方式中,处理装置执行存储器单元中存储的程序指令,以使得系统200及其关联组件发挥本说明书所述的一个或多个功能。
在一些实施方式中,识别器214可以是通过语音IME 210的一个或多个处理器执行的示例性语音识别逻辑、程序指令或算法。例如,识别器214可执行程序代码,以管理所接收的音频输入204的特性的确定、提取和分析。此外,识别器214可执行比较器逻辑,以将所接收的音频输入204的特性与声学模型206以及语言模型208中存储的各种模型参数进行比较。比较结果可以产生基本上对应于系统200的一个或多个用户112所提供的言语发音的文本转录输出。
LM管理器216可包括控制和/或管理对于语言模型208的一个或多个模型参数的访问的示例性访问或管理逻辑。例如,可将LM管理器216配置为基于所接收的音频输入204的特定特征(通过识别器214来确定和分析)来访问语言模型208的某些参数。例如,识别器214可将所接收的音频输入204的特征识别为包括与英语或西班牙语相对应的一个或多个单词发音。因此,LM管理器216将访问与英语口语、西班牙语口语、或两者相关联的语言模型208的模型参数。
通常,识别器214和LM管理器216可进行交互或合作,以执行各种数据处理和信号处理功能。执行这些功能能够完成进行语音音频输入识别和将语音音频转换为文本转录所必须的处理步骤。
如上所述,语音模型202以及键盘模型252分别可以与从用户装置110可访问的一个或多个应用程序结合使用。示例性应用程序可包括电子邮件应用程序、文本消息应用程序、即时消息应用程序、网络浏览应用程序、映射应用程序、或配置为接收用户输入(例如语音音频输入、数字文本输入、字母数字输入、字符输入、或数字图像输入)的任何其他应用程序。
可将交叉模态学习模块270配置为执行程序代码,以部分地生成输入场境数据结构而用于语音模型202与键盘模型252之间以及学习模块270与通用语言模型274之间的传输。在一些实施方式中,学习模块270可以基于从用户装置110、语音IME 210、以及键盘IME262的处理器接收的参数信号来集合多个参数值。
例如,学习模块270可接收指示与系统200的相应IME结合使用的特定应用程序的参数值,以接收文本或语音用户输入。此外,用户装置110可提供指示何时通过相应IME接收特定语音或键入的词项以及相关联的场境单词的日期和时间参数。此外,相应IME可提供与所接收的语音或键入的输入相关联的n-gram场境或完整的转录格。
学习模块270可基于所接收的参数值生成输入场境数据结构272,并且有助于在相应的IME 210、IME 260之间以及在学习模块270与通用LM274之间传输所生成的数据结构272。在一些实施方式中,通用LM274从学习模块270接收输入场境数据结构272,输入场境数据结构272被通用LM 274用于更新多个用户皆可访问的语言模型。
在一些实施方式中,系统200可提供一个或多个参数值或数据结构272,以生成包括由系统200通过键盘或语音模态所接收的多个用户输入的数据库。参数值和数据结构272可包括一个或多个特定词项或新单词。该数据库可以至少部分地与通用语言模型274相关联。此外,在一些实施方式中,通用LM 274可包括与各种不同的口语和输入模态相对应的各种单独的语言模型。系统200可以使用多个用户输入的数据库的至少一个用户输入来更新通用LM 274的一个或多个语言模型。
在替代性实施方式中,通用LM 274可以向学习模块270提供可包括从其他通用用户所接收的新单词或特定词项的数据结构和/或参数值。然后,学习模块270可生成一个或多个输入场境数据结构272,然后输入场境数据结构272被传输给语音模型202或键盘模型252中的其中一个,以更新它们各自的语言模型208和258。因此,在一些实施方式中,键盘IME 260和语音IME 210可以基于从通用LM 274接收的参数或数据结构学习新的特定词项。
键盘模型252可包括空间模型256、语言模型258和键盘IME 260。键盘模型252通常被配置为接收与字母、数字和被显示为形成单词或短语的数字文本的其他字符相对应的触摸/物理键盘输入254。
与上述语音模型202很相似,键盘模型252也可以部分地由模块中执行的软件或程序代码、处理器装置、或用户装置110内本地设置的电路组件形成。而在其他实施方式中,键盘模型252可以与接收和处理来自装置110的音频信号传输的非本地、云或基于服务器的计算系统相关联。
除了空间模型256之外,语言模型258和键盘IME 260的功能的技术描述可以类似于上述语言模型208和语音IME 210的描述。为了清楚和简洁起见,可通过指出相对于语言模型208的技术区别来描述语言模型258。同样,可通过指出相对于语音IME 210的技术区别来描述键盘IME260。
语言模型258可用于键盘文本识别,以确定某些字母组合或序列。在一些实施方式中,可将模型258配置为生成字母或单词序列概率因子,其可用于指示特定单词序列或单词组合可能的出现或存在。所确定的字母和单词序列主要对应于书面语料库而不是言语语料库所特有的序列。
在一些实施方式中,识别器264可以是键盘IME 260的一个或多个处理器执行的文本识别逻辑、程序指令或算法。例如,识别器264可执行程序代码,以管理所接收的文本输入254的特性的确定、提取和分析。此外,识别器214可执行比较器逻辑,以将所接收的文本输入254的空间特性与空间模型256以及语言模型258中存储的各种模型参数进行比较。
空间模型256可以是在文本预测中使用的示例性空间模型,以关联字母的空间坐标或字母之间的空间关系,从而预测经由用户装置110的键盘输入的键入、刷写或者用手势表示的单词。通常,空间模型256可与键盘IME 260交互,以确定和关联在空间上与形成关联于某些书面语料库的单词的字母相对应的键盘输入。
系统200通常可包括以下操作性处理和功能。用户112可以向用户装置110说话或提供语音输入,语音输入包括语言模型208或语音IME210中未包括或未知的单词发音。例如,用户112通过说出特定词项(例如“Milpitas”)向用户装置110说话。声学模型206可与语音模型202的其他组件交互,以准确地转录口头输入204,从而在示例性应用程序中将“Milpitas”显示为文本218。
在一些实施方式中,用户112将向应用程序指示,用户112接受特定词项的转录拼写。例如,语音模型202可执行程序代码,以检测或确定用户112是否修改了语音模型202所生成的转录。在一些实施方式中,在不修改提议的转录文本218的情况下,用户112继续输入附加的语音输入,或在“Milpitas”前后手动键入/输入文本,然后,语音模型202可以确定,用户112接受了语音到文本的转录218。
如果语音模型202确定用户112接受了转录词项“Milpitas”,那么系统200可将该特定词项存储在语言模型208和/或通用LM 274中。在一些实施方式中,当系统200将先前未知的特定词项存储在系统的各种不同的语言模型中时,这些存储操作可以有效地构成实时学习功能。
通常,系统200可执行数据处理和存储操作,使得系统及其关联IME可通过基于服务器端云的学习处理以及本地客户端的学习处理这两者来学习新的口头词项。换言之,第一次用户112向装置110说出新单词并且语音模型202能够识别与声学模型206的参数相匹配且被用户接受为正确转录的发音;系统200将识别该单词,将该单词保存到语音LM 208,并传输包括该单词的数据结构。
所传输的数据结构将至少被键盘模型252接收,以供键盘IME 260使用。因此,当用户112随后准确地键入、用手势表示或刷写“Milpitas”的特定文本串时,键盘IME 260将该单词识别为是语言模型258已知的。因此,系统200将学习特定词项,保存为由语音/言语IME210使用的词项,并将其传送给键盘IME 260,使得在用户112向装置110键入或说出其他输入内容的时候,键盘模型252也可以学习该特定词项。
在一些实施方式中,在通过语音IME 210传输并通过键盘IME 260接收特定输入场境数据结构272之后,用户112可激活键盘模态输入模式。在该模式中,使用键盘模态识别器(即键盘IME 260)识别通过键盘/文本模态的方式实现的用户输入。然后,系统200可通过键盘模态的方式接收用户输入254,且输入254可包括特定词项“Milpitas”。键盘模型252响应于语音IME 210和/或学习模块270传输输入场境数据结构272而学习特定词项“Milpitas”。在学习该特定词项“Milpitas”之后,键盘IME 260可识别通过键盘/文本模态的方式接收的该特定词项。
在一些实施方式中,通过键盘IME 260识别特定词项“Milpitas”可包括用户装置110的显示器向用户112提供指示。例如,显示器可向用户112指示,已经将特定词项添加或保存到语言模型258。在一些实施方式中,在将“Milpitas”添加到LM 258之后,用户112可以键入示例性文本短语(例如“Drive to Milpitas”),并接收通过键盘模型252识别该单词的一般性指示。例如,在不触发例如与模型252相关联的拼写检查或自动更正逻辑的情况下,该指示可对应于包括单词“Milpitas”的文本显示268。
在一些实施方式中,可将系统200配置为检测通过键盘模型252接收的包括至少引用特定词项(例如“Milpitas”)的文本内容或文本格的用户输入的出现。例如,可将系统200配置为检测何时通过键盘IME260接收示例性短语或文本格(例如“Drive to Milpitas”)。一般而言,系统200将在首先学习特定词项之后检测特定词项的出现。
响应于检测引用特定词项的文本内容,系统200可递增第一数据计数,第一数据计数跟踪以下情形的出现次数:引用特定词项的文本内容被通过键盘模态的方式接收。在一些实施方式中,系统200还可以递增第二数据计数,第二数据计数跟踪以下情形的出现次数:与特定词项相对应的用户输入被通过第二模态的方式接收。例如,除了检测和递增对包括特定词项的接收的文本格的数据计数之外,系统200还可以检测和递增跟踪特定词项的个别出现而不是包括所述特定词项的文本格的出现的数据计数。
在一些实施方式中,系统200可使用第一数据计数和第二数据计数来生成与特定词项相关联的集合统计数据的数据集。数据集中的其他统计数据例如可包括特定词项的拼写和大小写的变化。此外,可以与指示特定词项在各种不同的文本或言语场境(例如“Driveto Milpitas”、“Meet at MILPITAS”、“Let’s eat at milpitas”)中的使用的场境变化相关联地来集合统计数据。在一些实施方式中,可通过系统200来使用所生成的集合统计数据的数据集,以偏置、改进或增强各个模型202、252内的键盘输入或语音输入学习功能。
在其他实施方式中,可将所生成的集合统计数据的数据集传输给通用LM 274。例如,通用LM 274可从系统200接收与可能尝试输入特定词项“Milpitas”的不同用户相关联的各种输入。如前面段落所述,在某些情况下,系统200的一个或多个用户可能错误地拼写“Milpitas”或可能使用不正确的大写。特定词项的这种不正确或不当使用可不用于更新通用LM 274的一个或多个语言模型。或者,对于阈值数量的用户112正确使用特定词项的情况,系统200将使得通用LM 274的语言模型以特定词项的最适当使用进行更新。
图3是用于交叉模态学习的示例性过程300的流程图。在步骤302,过程300包括激活第一模态用户输入模式,其中使用第一模态识别器识别通过第一模态的方式实现的用户输入。在一些实施方式中,激活第一模态用户输入模式包括在示例性移动装置(例如装置110)中从键盘IME切换为语音IME。第一模态可以与语音模态相对应,所述语音模态与开启语音听写的用户装置110的语音输入功能相关。此外,第一模态识别器可与语音IME 210相对应。
在步骤304,过程300通过第一模态的方式接收用户输入。在一些实施方式中,所接收的用户输入可以是与包括一个或多个单词发音的人类言语相对应的音频输入。此外,所接收的用户输入可包括通过语音IME 210识别的一个或多个特定词项。
在步骤306,作为第一模态识别器识别用户输入的结果,过程300获得包括特定词项的转录。在一些实施方式中,识别用户输入可包括系统200的语音识别模型处理音频输入,以解析一个或多个单词。被解析的单词可包括特定词项,且系统200可基于根据所接收的言语发音识别的被解析的单词来生成文本转录。在一些实施方式中,部分地通过远程服务器或基于云的计算系统来生成转录。随后可通过装置110从计算系统获得所生成的转录。
在步骤308,过程300包括生成至少引用特定词项的输入场境数据结构。在一些实施方式中,输入场境数据结构可包括特定词项以及其他项目,例如用于输入特定词项的示例性应用程序、用户输入的言语发音的一个或多个n-gram、以及指示何时接收特定词项的时间和/或日期。
在步骤310,过程300包括通过第一模态识别器将输入场境数据结构传输给第二模态识别器。在过程300的步骤312,将所传输的输入场境数据结构用于更新与第二模态识别器相关联的第二模态识别模型。第二模态可以与同用户装置110的键盘输入功能(其中使用数字或物理键盘来输入文本内容)相关的键盘或物理输入模态相对应。此外,第二模态识别器可与键盘IME 260相对应。
在一些实施方式中,第二模态识别模型可与至少包括空间模型256和语言模型258的键盘模态识别模型252相对应。在一些实施方式中,所传输的输入场境数据结构可用于更新通过键盘IME访问的键盘语言模型。更新后的键盘语言模型可使得用户装置110能够接收包括特定词项的输入文本通信,从而使得例如可通过与键盘IME相关联的拼写检查和/或自动更正逻辑来适当地识别该词项。
本说明书所述主题和功能操作的实施例可在数字电子电路中、在按照有形方式实现的计算机软件或固件中、在包括本说明书公开的结构及其结构等同物的计算机硬件中实现,或者在它们的一个或多个的组合中实现。本说明书所述主题的实施例可作为一个或多个计算机程序实现,即在有形的非暂时性程序载体上编码的计算机程序指令的一个或多个模块,以用于通过数据处理设备执行或控制数据处理设备的操作。
也可称为或描述为程序、软件、软件应用、模块、软件模块、脚本、或代码的计算机程序可以按照任何形式的编程语言来编写,包括编译或解释语言、或声明性或程序性语言,并且可以按照任何形式来配置,包括作为独立程序或者作为适用于计算环境的模块、组件、子例程或其他单元。计算机程序可以但不一定对应于文件系统中的文件。
可将程序存储在保存其他程序或数据的文件的一部分中(例如存储在标记语言文档中的一个或多个脚本),存储在专用于所考虑的程序的单个文件中,或者存储在多个协同文件中,例如存储一个或多个模块、子程序或代码部分的文件。可将计算机程序配置为在一个计算机上或多个计算机上执行,所述多个计算机布置在一个站点或者分布在多个站点并由通信网络互连。
图4是可用于实现本文所述系统和方法的计算装置400、450的方框图,所述计算装置作为客户端,或者作为服务器或多个服务器。计算装置400意图表示各种形式的数字计算机,例如笔记本电脑、台式机、工作站、个人数字助理、服务器、刀片服务器、大型机和其他适当的计算机。计算装置450意图表示各种形式的移动装置,例如个人数字助理、移动电话、智能电话、智能手表、头戴式装置和其他类似的计算装置。这里所示的组件、它们的连接和关系以及它们的功能仅仅是示例性的,并非要限制在本文所述和/或要求保护的实施方式。
计算装置400包括处理器402、存储器404、存储装置406、连接到存储器404和高速扩展端口410的高速接口408、以及连接到低速总线414和存储装置406的低速接口412。组件402、404、406、408、410和412各自使用各种总线互连,并且可安装在公共主板上或者视情况以其他方式安装。处理器402可以处理在计算装置400内执行的指令,包括存储在存储器404中或存储装置406上的指令,以在外部输入/输出装置例如连接到高速接口408的显示器416上显示用于GUI的图形信息。在其他实施方式中,可以视情况使用多个处理器和/或多个总线以及多个存储器和多种类型的存储器。此外,可将多个计算装置400与提供必要操作的各个部分的各个装置(例如作为服务器组、刀片服务器组或多处理器系统)相连接。
存储器404在计算装置400内存储信息。在一个实施方式中,存储器404是计算机可读的介质。在一个实施方式中,存储器404是易失性存储器单元。在另一个实施方式中,存储器404是非易失性存储器单元。
存储装置406能够为计算装置400提供大容量存储。在一个实施方式中,存储装置406是计算机可读的介质。在各种不同的实施方式中,存储装置406可以是硬盘装置、光盘装置、或磁带装置、闪存或其他类似的固态存储装置、或装置的阵列,包括存储区域网络或其他配置中的装置。在一个实施方式中,在信息载体中按照有形方式实现计算机程序产品。计算机程序产品包含指令,在执行时,指令实施一个或多个方法(例如上述方法)。信息载体是计算机或机器可读的介质,例如存储器404、存储装置406、或处理器402上的存储器。
高速控制器408管理计算装置400的带宽密集型操作,而低速控制器412管理较低的带宽密集型操作。这种任务分配只是示例性的。在一个实施方式中,高速控制器408连接到存储器404、显示器416(例如通过图形处理器或加速器),以及连接到可容纳各种扩展卡(未示出)的高速扩展端口410。在实施方式中,低速控制器412连接到存储装置406和低速扩展端口414。可包括各种通信端口(例如USB、蓝牙、以太网、无线以太网)的低速扩展端口可以例如通过网络适配器连接到一个或多个输入/输出装置,例如键盘、指示装置、扫描仪或网络装置(例如交换机或路由器)。
可以按照多种不同的形式实现计算装置400,如图所示。例如可将它实现为标准服务器420,或者在一组这样的服务器中多次实现。也可将它实现为机架式服务器系统424的一部分。此外,它可以在个人计算机(例如膝上型计算机422)中实现。或者,来自计算装置400的组件可以与移动装置(例如装置450)中的其他组件(未示出)组合。这些装置各自可包含计算装置400、450的一个或多个,且整个系统可由相互通信的多个计算装置400、450组成。
计算装置450包括处理器452、存储器464、输入/输出装置(例如显示器454)、通信界面466、收发器468以及其他组件。装置450还可设置存储装置(例如微驱动器或其他装置),以提供附加存储。组件450、452、446、454、466和468各自使用各种总线互连,并且可将若干组件安装在公共主板上,或者视情况以其他方式安装。
处理器452可以处理用于在计算装置450内执行的指令,包括在存储器464中存储的指令。处理器还可包括单独的模拟处理器和数字处理器。处理器例如可提供用于装置450的其他组件的协调,例如用户界面的控制、通过装置450运行的应用、以及通过装置450进行的无线通信。
处理器452可通过连接到显示器454的控制界面458和显示界面456与用户进行通信。显示器454例如可以是TFT LCD显示器或OLED显示器或其他适当的显示技术。显示界面456可包括适当的电路,以用于驱动显示器454向用户呈现图形和其它信息。控制界面458可从用户接收命令并将其转换以提交给处理器452。此外,可提供与处理器452通信的外部界面462,从而实现装置450与其他装置的近区域通信。外部接口462例如可用于有线通信(例如经由对接程序)或用于无线通信(例如经由蓝牙或其他此类技术)。
存储器464在计算装置450内存储信息。在一个实施方式中,存储器464是计算机可读的介质。在一个实施方式中,存储器464是易失性存储器单元。在另一个实施方式中,存储器464是非易失性存储器单元。扩展存储器474还可通过扩展接口472来提供并连接到装置450,扩展接口472例如可包括SIMM卡接口。这种扩展存储器474可为装置450提供额外的存储空间,或者还可存储用于装置450的应用或其他信息。具体而言,扩展存储器474可包括用于执行或补充上述过程的指令,并且还可包括安全信息。因此,例如可提供扩展存储器474作为用于装置450的安全模块,并且可用允许安全使用装置450的指令来编程。此外,可经由SIMM卡以及附加信息来提供安全应用,例如以不可攻击的方式将识别信息放置在SIMM卡上。
存储器例如可包括闪存和/或MRAM存储器,如下所述。在一个实施方式中,在信息载体中按照有形方式实现计算机程序产品。计算机程序产品包含指令,当执行所述指令时,指令实施一个或多个方法(例如上述方法)。信息载体是计算机或机器可读的介质,例如存储器464、扩展存储器474、或处理器452上的存储器。
装置450可通过通信接口466以无线方式进行通信,在必要时通信接口466可包括数字信号处理电路。通信接口466可在如下各种模式或协议下提供通信,例如GSM语音呼叫、SMS、EMS、或MMS消息传送、CDMA、TDMA、PDC、WCDMA、CDMA2000、或GPRS等等。这种通信例如可通过射频收发器468发生。此外,可发生短距离通信,例如使用蓝牙、WiFi、或其他此类收发器(未示出)。此外,GPS接收器模块470可向装置450提供附加的无线数据,可以视情况通过在装置450上运行的应用来使用这些数据。
装置450也可使用音频编解码器460以可听见的方式通信,音频编解码器460可从用户接收语音信息并将其转换为可用的数字信息。同样,音频编解码器460可以例如通过扬声器例如在装置450的听筒中为用户产生可听见的声音。这种声音可包括来自语音电话呼叫的声音,可包括记录的声音(例如语音消息、音乐文件等等),并且还可包括通过在装置450上操作的应用所产生的声音。
可以按照多种不同的形式来实现计算装置450,如图所示。例如,可将它实现为移动电话480。也可将它实现为智能电话482、个人数字助理或其他类似的移动装置的一部分。
本文所述系统和技术的各种实施方式可以在数字电子电路、集成电路、专门设计的ASIC、计算机硬件、固件、软件和/或它们的组合中实现。这些各种实施方式可包括一个或多个计算机程序中的实施方式,所述计算机程序在包括至少一个可编程处理器的可编程系统上可执行和/或可解释,所述可编程处理器可以是专用或通用的并连接为从存储系统、至少一个输入装置、以及至少一个输出装置接收数据和指令,以及向存储系统、至少一个输入装置、以及至少一个输出装置传输数据和指令。
这些计算机程序也称为程序、软件、软件应用程序或代码,并且包括用于可编程处理器的机器指令,并且可按照高级程序性语言和/或面向对象的编程语言和/或汇编/机器语言的形式来实现。如同本文所使用的,术语“机器可读的介质”、“计算机可读的介质”是指用于向可编程处理器提供机器指令和/或数据的任何计算机程序产品、设备和/或装置,例如磁盘、光盘、存储器、可编程逻辑器件(PLD),包括接收作为机器可读的信号的机器指令的机器可读的介质。术语“机器可读的信号”是指用于向可编程处理器提供机器指令和/或数据的任何信号。
为了提供与用户的交互,可以在具有用于向用户显示信息的显示装置(例如CRT(阴极射线管)或LCD(液晶显示器)显示屏)以及用户可以用来向计算机提供输入的键盘和指示装置(例如鼠标或轨迹球)的计算机上实现本文所述的系统和技术。其他类型的装置也可用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感觉反馈,例如视觉反馈、听觉反馈或触觉反馈;并且可按照任何形式接收来自用户的输入,包括声音、语音或触觉输入。
本文所述的系统和技术可以在包括后端组件(例如作为数据服务器)或包括中间件组件(例如应用服务器)或包括前端组件(例如具有用户可以用来与本文所述的系统和技术的实施方式交互的图形用户界面或Web浏览器的客户端计算机),或包括这些后端组件、中间件组件、前端组件的任意组合的计算系统中实现。系统的组件可通过数字数据通信的任何形式或介质(例如通信网络)互连。通信网络的示例包括局域网(LAN)和广域网(WAN)以及因特网。
计算系统可包括客户端和服务器。客户端和服务器一般远离彼此,且通常通过通信网络进行交互。客户端和服务器的关系凭借在各个计算机上运行并相互具有客户端-服务器关系的计算机程序而产生。
除了以上描述之外,还可向用户提供如下控制:允许用户对于本文所述系统、程序或特征是否可以以及何时可以进行用户信息(例如关于用户社交网络、社交行为或活动、专业、用户的偏好、或用户的当前位置的信息)的收集、以及是否从服务器给用户发送内容或通信进行选择。此外,某些数据可以在存储或使用之前以一种或多种方式进行处理,从而消除个人身份信息。例如,在一些实施例中,可以对用户的身份进行处理,从而不能对用户确定个人身份信息,或者在获得位置信息(例如城市、邮政编码或州层级)的情况下可将用户的地理位置模糊化,从而不能确定用户的具体位置。因此,用户可以控制关于用户收集哪些信息、如何使用该信息、以及向用户提供哪些信息。
已经描述了多个实施例。但是应当理解,在不背离本发明的主旨和范围的情况下,可以进行各种修改。例如,可以以重新排序、增加、或去除步骤的方式使用以上示出的流程的各种形式。此外,虽然已经描述了支付系统和方法的若干应用,但是应当认识到,可以构思很多其他应用。因此,其它实施例均落入所附权利要求的范围内。
虽然本说明书包含许多具体的实施细节,但是这些细节不应视为对所要求保护的范围的限制,而仅仅是对于具体实施例而言所特有的特征的描述。在单独实施例的情况下本说明书所述的某些特征也可以在单个实施例中以组合方式实现。相反,在单独实施例的情况下所述的各种特征也可以独立地或以任何合适的子组合的方式在多个实施例中实现。此外,虽然上文可将所述特征描述为按照某些组合起作用,甚至一开始像这样地要求保护,但是在某些情况下,可以从要求保护的组合中去除该组合的一个或多个特征,并且所要求保护的组合可以针对子组合或子组合的变体。
类似地,虽然在附图中按照特定顺序描述操作,但是这不应理解为要求按照所示特定顺序或按照连续顺序执行这些操作,或者进行所有所示操作以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应理解为在所有实施例中都需要这种分离,并且应当理解,所述程序组件和系统一般可以一起集成在单个软件产品中或打包成多个软件产品。
已经描述了所述主题的特定实施例。其他实施例均落入所附权利要求的范围。例如,权利要求中列举的动作可以按照不同的顺序执行,并且仍然实现期望的结果。作为一个示例,附图中所示的过程不一定需要所示的特定顺序或连续顺序来实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。
Claims (20)
1.一种计算机实现的方法,包括:
由计算设备经由与所述计算设备相关联的第一用户输入模式接收特定词项的用户输入;
由所述计算设备生成与所述特定词项相关联的参数值,其中,所述参数值是基于与所述第一用户输入模式相对应的第一模态识别模型;
基于所述参数值来生成至少引用所述特定词项的输入场境数据结构;和
由所述计算设备向和与所述计算设备相关联的第二用户输入模式相对应的第二模态识别模型发送用于训练所述第二模态识别模型的所述输入场境数据结构。
2.根据权利要求1所述的方法,还包括:
由所述计算设备基于用户指示来确定所述特定词项的转录版本是否正确,其中,所述转录版本是基于所述第一模态识别模型。
3.根据权利要求1所述的方法,其中,所述第一模态识别模型与第一语言模型相对应,并且所述第二模态识别模型与第二语言模型相对应。
4.根据权利要求1所述的方法,其中,所述第一模态识别模型与语言模型相对应,并且所述第二模态识别模型与空间模型相对应。
5.根据权利要求1所述的方法,其中,所述第一用户输入模式与基于键盘的用户输入模式相对应,并且所述第二用户输入模式与基于语音的用户输入模式相对应。
6.根据权利要求5所述的方法,其中,所述基于语音的用户输入模式与基于云的自动言语识别器相关联。
7.根据权利要求5所述的方法,其中,所述基于语音的用户输入模式与声学模型相关联,所述声学模型被配置为将发音直接与转录的词相匹配。
8.根据权利要求1所述的方法,还包括:
由所述计算设备接收将所述计算设备从所述第一用户输入模式切换到所述第二用户输入模式的用户指示;和
响应于所述用户指示,从所述第一用户输入模式切换到所述第二用户输入模式。
9.根据权利要求1所述的方法,还包括:
由所述计算设备在从所述第一模态识别模型接收所述输入场境数据结构之前,经由与所述计算设备相关联的所述第二用户输入模式接收包括所述特定词项的第二用户输入;
响应于所述第二模态识别模型未识别所述特定词项,提供错误转录的词项以供由所述计算设备显示;和
由所述计算设备在从所述第一模态识别模型接收所述输入场境数据结构之后,所述特利用定词项的正确版本的显示来替换所述错误转录的词项的所述显示。
10.根据权利要求1所述的方法,其中,所述第一用户输入模式与基于语音的用户输入模式相对应,并且所述方法还包括:
基于声学模型来生成所述特定词项的文本版本。
11.根据权利要求10所述的方法,还包括:
向所述用户提供所述特定词项的所述文本版本以供由所述计算设备显示;和
由所述计算设备接收所述特定词项的所述文本版本是所述特定词项的正确版本的用户指示。
12.根据权利要求1所述的方法,还包括:
由所述计算设备经由所述第二用户输入模式接收包括第二词项的第二用户输入;
响应于所述第二模态识别模型未识别所述第二用户输入,提供所述第二模态识别模型与所述第二词项相关联的错误转录的词项作为最高识别假设以供由所述计算设备显示;
在所述计算设备提供所述错误转录的词项以供显示之后,由所述计算设备接收将所述计算设备从所述第二用户输入模式切换到所述第一用户输入模式的用户指示;
在所述计算设备已经从所述第二用户输入模式切换到所述第一用户输入模式之后由所述计算设备接收提供所述错误转录的词项的校正的第三用户输入。
13.根据权利要求1所述的方法,还包括:
生成指示所述特定词项的场境变化的统计数据;和
利用所述统计数据来更新与所述计算设备相关联的一个或多个模态识别模型。
14.根据权利要求1所述的方法,还包括:
生成指示所述特定词项的场境变化的统计数据;
由所述计算设备向全局模型发送所述统计数据;和
由所述计算设备至少部分地基于由所述全局模型确定所述统计数据与来自阈值数量的用户计算设备的数据一致,更新与所述计算设备相关联的一个或多个模态识别模型。
15.根据权利要求1所述的方法,还包括:
生成包括经由所述第一用户输入模式接收的多个用户输入的数据库;和
使用所述多个用户输入中的至少一个用户输入来更新一个或多个模态识别模型能够访问的全局模型。
16.根据权利要求15所述的方法,其中,所述第二模态识别模型是键盘语言模型,并且所述方法还包括:
使用所更新的全局模型来更新所述键盘语言模型。
17.根据权利要求15所述的方法,其中,所述第一模态识别模型是言语模型,并且所述方法还包括:
使用所更新的全局模型来更新所述言语模型。
18.一种包括一个或多个计算机可读介质的制品,所述一个或多个计算机可读介质具有存储在其上的计算机可读指令,所述计算机可读指令在由计算设备的一个或多个处理器执行时,使所述计算设备执行以下操作:
经由与所述计算设备相关联的第一用户输入模式接收特定词项的用户输入;
生成与所述特定词项相关联的参数值,其中,所述参数值是基于与所述第一用户输入模式相对应的第一模态识别模型;
基于所述参数值来生成至少引用所述特定词项的输入场境数据结构;和
向和与所述计算设备相关联的第二用户输入模式相对应的第二模态识别模型发送用于训练所述第二模态识别模型的所述输入场境数据结构。
19.一种计算设备,包括:
一个或多个处理器;和
数据存储,其中,所述数据存储具有存储在其上的计算机可读指令,所述计算机可读指令在由所述一个或多个处理器执行时,使所述计算设备执行以下操作:
经由与所述计算设备相关联的第一用户输入模式接收特定词项的用户输入;
生成与所述特定词项相关联的参数值,其中,所述参数值是基于与所述第一用户输入模式相对应的第一模态识别模型;
基于所述参数值来生成至少引用所述特定词项的输入场境数据结构;和
向和与所述计算设备相关联的第二用户输入模式相对应的第二模态识别模型发送用于训练所述第二模态识别模型的所述输入场境数据结构。
20.根据权利要求19所述的计算设备,其中,所述计算机可执行指令在由所述一个或多个处理器执行时,还使所述计算设备执行以下操作:
由所述计算设备基于用户指示来确定所述特定词项的转录版本是否正确,其中,所述转录版本是基于所述第一模态识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111185746.0A CN113900529B (zh) | 2016-12-29 | 2017-09-29 | 移动装置上的模态学习 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/393,676 US10831366B2 (en) | 2016-12-29 | 2016-12-29 | Modality learning on mobile devices |
US15/393,676 | 2016-12-29 | ||
CN202111185746.0A CN113900529B (zh) | 2016-12-29 | 2017-09-29 | 移动装置上的模态学习 |
CN201710909192.1A CN108255290B (zh) | 2016-12-29 | 2017-09-29 | 移动装置上的模态学习 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710909192.1A Division CN108255290B (zh) | 2016-12-29 | 2017-09-29 | 移动装置上的模态学习 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113900529A true CN113900529A (zh) | 2022-01-07 |
CN113900529B CN113900529B (zh) | 2024-07-09 |
Family
ID=59501553
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111185746.0A Active CN113900529B (zh) | 2016-12-29 | 2017-09-29 | 移动装置上的模态学习 |
CN201710909192.1A Active CN108255290B (zh) | 2016-12-29 | 2017-09-29 | 移动装置上的模态学习 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710909192.1A Active CN108255290B (zh) | 2016-12-29 | 2017-09-29 | 移动装置上的模态学习 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10831366B2 (zh) |
EP (2) | EP4235369B1 (zh) |
KR (4) | KR102453194B1 (zh) |
CN (2) | CN113900529B (zh) |
DE (1) | DE202017105669U1 (zh) |
WO (1) | WO2018125288A1 (zh) |
Families Citing this family (110)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
EP3937002A1 (en) | 2013-06-09 | 2022-01-12 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) * | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10747427B2 (en) * | 2017-02-01 | 2020-08-18 | Google Llc | Keyboard automatic language identification and reconfiguration |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
CN107300986B (zh) * | 2017-06-30 | 2022-01-18 | 联想(北京)有限公司 | 输入法切换方法及装置 |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10531157B1 (en) * | 2017-09-21 | 2020-01-07 | Amazon Technologies, Inc. | Presentation and management of audio and visual content across devices |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
USD874491S1 (en) * | 2017-11-04 | 2020-02-04 | Kika Tech (Cayman) Holdings Co., Limited | Display screen with computer-generated graphical user interface |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10600408B1 (en) * | 2018-03-23 | 2020-03-24 | Amazon Technologies, Inc. | Content output management based on speech quality |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
KR102592907B1 (ko) * | 2018-06-22 | 2023-10-23 | 삼성전자주식회사 | 텍스트 입력 디바이스 및 그 방법 |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10679610B2 (en) * | 2018-07-16 | 2020-06-09 | Microsoft Technology Licensing, Llc | Eyes-off training for automatic speech recognition |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11315553B2 (en) * | 2018-09-20 | 2022-04-26 | Samsung Electronics Co., Ltd. | Electronic device and method for providing or obtaining data for training thereof |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
EP3709194A1 (en) | 2019-03-15 | 2020-09-16 | Spotify AB | Ensemble-based data comparison |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN109948530B (zh) * | 2019-03-19 | 2021-08-31 | 福州大学 | 基于交叉学习的行人再识别性能提升方法 |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10719596B1 (en) * | 2019-07-22 | 2020-07-21 | Capital One Services, Llc | System, method, and computer-accessible medium for authentication via handwriting style |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11094319B2 (en) | 2019-08-30 | 2021-08-17 | Spotify Ab | Systems and methods for generating a cleaned version of ambient sound |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11308959B2 (en) | 2020-02-11 | 2022-04-19 | Spotify Ab | Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices |
US11328722B2 (en) * | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
USD957451S1 (en) * | 2020-05-22 | 2022-07-12 | Autel Intelligent Technology Corp., Ltd. | Display screen or portion thereof of a device with transitional graphical user interface |
USD942998S1 (en) * | 2020-05-22 | 2022-02-08 | Autel Intelligent Technology Corp., Ltd. | Display screen or portion of a device with transitional graphical user interface |
USD957454S1 (en) * | 2020-05-22 | 2022-07-12 | Autel Intelligent Technology Corp., Ltd. | Display screen or portion thereof of a device with transitional graphical user interface |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
KR20220055296A (ko) | 2020-10-26 | 2022-05-03 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090306980A1 (en) * | 2008-06-09 | 2009-12-10 | Jong-Ho Shin | Mobile terminal and text correcting method in the same |
CN102272827A (zh) * | 2005-06-01 | 2011-12-07 | 泰吉克通讯股份有限公司 | 利用语音输入解决模糊的手工输入文本输入的方法和装置 |
US20140282212A1 (en) * | 2013-03-15 | 2014-09-18 | Gary Shuster | System, method, and apparatus that facilitates modifying a textual input |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7720682B2 (en) * | 1998-12-04 | 2010-05-18 | Tegic Communications, Inc. | Method and apparatus utilizing voice input to resolve ambiguous manually entered text input |
US6629073B1 (en) * | 2000-04-27 | 2003-09-30 | Microsoft Corporation | Speech recognition method and apparatus utilizing multi-unit models |
US20030233237A1 (en) | 2002-06-17 | 2003-12-18 | Microsoft Corporation | Integration of speech and stylus input to provide an efficient natural input experience |
US20040243415A1 (en) | 2003-06-02 | 2004-12-02 | International Business Machines Corporation | Architecture for a speech input method editor for handheld portable devices |
WO2009016729A1 (ja) * | 2007-07-31 | 2009-02-05 | Fujitsu Limited | 音声認識用照合ルール学習システム、音声認識用照合ルール学習プログラムおよび音声認識用照合ルール学習方法 |
US8140335B2 (en) * | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US20110270820A1 (en) * | 2009-01-16 | 2011-11-03 | Sanjiv Agarwal | Dynamic Indexing while Authoring and Computerized Search Methods |
EP2339576B1 (en) | 2009-12-23 | 2019-08-07 | Google LLC | Multi-modal input on an electronic device |
US8494852B2 (en) | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
US8782556B2 (en) * | 2010-02-12 | 2014-07-15 | Microsoft Corporation | User-centric soft keyboard predictive technologies |
JP5642809B2 (ja) | 2010-03-12 | 2014-12-17 | ニュアンス コミュニケーションズ, インコーポレイテッド | 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム |
US20110307255A1 (en) * | 2010-06-10 | 2011-12-15 | Logoscope LLC | System and Method for Conversion of Speech to Displayed Media Data |
US8532994B2 (en) * | 2010-08-27 | 2013-09-10 | Cisco Technology, Inc. | Speech recognition using a personal vocabulary and language model |
US20130226892A1 (en) | 2012-02-29 | 2013-08-29 | Fluential, Llc | Multimodal natural language interface for faceted search |
US10354650B2 (en) * | 2012-06-26 | 2019-07-16 | Google Llc | Recognizing speech with mixed speech recognition models to generate transcriptions |
US8713433B1 (en) * | 2012-10-16 | 2014-04-29 | Google Inc. | Feature-based autocorrection |
US8832589B2 (en) | 2013-01-15 | 2014-09-09 | Google Inc. | Touch keyboard using language and spatial models |
US9058805B2 (en) * | 2013-05-13 | 2015-06-16 | Google Inc. | Multiple recognizer speech recognition |
US9779724B2 (en) * | 2013-11-04 | 2017-10-03 | Google Inc. | Selecting alternates in speech recognition |
US20170124770A1 (en) * | 2014-03-15 | 2017-05-04 | Nitin Vats | Self-demonstrating object features and/or operations in interactive 3d-model of real object for understanding object's functionality |
CA2887291A1 (en) * | 2014-04-02 | 2015-10-02 | Speakread A/S | Systems and methods for supporting hearing impaired users |
EP3193328B1 (en) * | 2015-01-16 | 2022-11-23 | Samsung Electronics Co., Ltd. | Method and device for performing voice recognition using grammar model |
US10178301B1 (en) * | 2015-06-25 | 2019-01-08 | Amazon Technologies, Inc. | User identification based on voice and face |
US9443519B1 (en) * | 2015-09-09 | 2016-09-13 | Google Inc. | Reducing latency caused by switching input modalities |
KR20170046291A (ko) * | 2015-10-21 | 2017-05-02 | 삼성전자주식회사 | 전자 기기, 그의 음향 모델 적응 방법 및 음성 인식 시스템 |
-
2016
- 2016-12-29 US US15/393,676 patent/US10831366B2/en active Active
-
2017
- 2017-07-18 EP EP23176768.2A patent/EP4235369B1/en active Active
- 2017-07-18 KR KR1020217011572A patent/KR102453194B1/ko active IP Right Grant
- 2017-07-18 KR KR1020237036510A patent/KR20230151086A/ko not_active Application Discontinuation
- 2017-07-18 WO PCT/US2017/042502 patent/WO2018125288A1/en active Search and Examination
- 2017-07-18 KR KR1020197016913A patent/KR102244607B1/ko active IP Right Grant
- 2017-07-18 KR KR1020227034080A patent/KR102596446B1/ko active IP Right Grant
- 2017-07-18 EP EP17746260.3A patent/EP3538979B1/en active Active
- 2017-09-19 DE DE202017105669.4U patent/DE202017105669U1/de active Active
- 2017-09-29 CN CN202111185746.0A patent/CN113900529B/zh active Active
- 2017-09-29 CN CN201710909192.1A patent/CN108255290B/zh active Active
-
2020
- 2020-10-06 US US17/064,173 patent/US11435898B2/en active Active
-
2022
- 2022-08-31 US US17/823,545 patent/US11842045B2/en active Active
-
2023
- 2023-11-22 US US18/517,825 patent/US20240086063A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102272827A (zh) * | 2005-06-01 | 2011-12-07 | 泰吉克通讯股份有限公司 | 利用语音输入解决模糊的手工输入文本输入的方法和装置 |
US20090306980A1 (en) * | 2008-06-09 | 2009-12-10 | Jong-Ho Shin | Mobile terminal and text correcting method in the same |
US20140282212A1 (en) * | 2013-03-15 | 2014-09-18 | Gary Shuster | System, method, and apparatus that facilitates modifying a textual input |
Also Published As
Publication number | Publication date |
---|---|
KR102244607B1 (ko) | 2021-04-26 |
DE202017105669U1 (de) | 2018-04-16 |
EP4235369B1 (en) | 2024-09-04 |
CN108255290B (zh) | 2021-10-12 |
KR102596446B1 (ko) | 2023-10-31 |
US20180188948A1 (en) | 2018-07-05 |
KR20210046840A (ko) | 2021-04-28 |
US11842045B2 (en) | 2023-12-12 |
KR20220136515A (ko) | 2022-10-07 |
US20210019046A1 (en) | 2021-01-21 |
EP3538979A1 (en) | 2019-09-18 |
EP4235369A2 (en) | 2023-08-30 |
KR102453194B1 (ko) | 2022-10-11 |
WO2018125288A1 (en) | 2018-07-05 |
US10831366B2 (en) | 2020-11-10 |
US20240086063A1 (en) | 2024-03-14 |
CN108255290A (zh) | 2018-07-06 |
US20220413696A1 (en) | 2022-12-29 |
KR20190082294A (ko) | 2019-07-09 |
KR20230151086A (ko) | 2023-10-31 |
CN113900529B (zh) | 2024-07-09 |
US11435898B2 (en) | 2022-09-06 |
EP4235369A3 (en) | 2023-10-18 |
EP3538979B1 (en) | 2023-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108255290B (zh) | 移动装置上的模态学习 | |
US11037566B2 (en) | Word-level correction of speech input |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |