CN1591315A - 用于高级交互接口的语义对象同步理解 - Google Patents
用于高级交互接口的语义对象同步理解 Download PDFInfo
- Publication number
- CN1591315A CN1591315A CNA2004100856494A CN200410085649A CN1591315A CN 1591315 A CN1591315 A CN 1591315A CN A2004100856494 A CNA2004100856494 A CN A2004100856494A CN 200410085649 A CN200410085649 A CN 200410085649A CN 1591315 A CN1591315 A CN 1591315A
- Authority
- CN
- China
- Prior art keywords
- input
- user
- computer
- implemented method
- computer implemented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001360 synchronised effect Effects 0.000 title claims description 5
- 230000002452 interceptive effect Effects 0.000 title description 4
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000006870 function Effects 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 4
- 230000008676 import Effects 0.000 claims description 3
- 150000003839 salts Chemical class 0.000 claims 2
- 238000010200 validation analysis Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 2
- 238000004458 analytical method Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000003909 pattern recognition Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013523 data management Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241001673391 Entandrophragma candollei Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/193—Formal grammars, e.g. finite state automata, context free grammars or word networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- User Interface Of Digital Computer (AREA)
- Character Discrimination (AREA)
- Machine Translation (AREA)
Abstract
一种方法和系统提供一种语音输入模式,它在音频字幕生成仍然在进行中时动态的报告部分语义分析。该语义分析可以被计算同时结果立即被报告回给用户。实际结果是传统地在系统时机被执行的任务现在在用户时机中被执行,因此提出了一个重大的对依次发言的口语对话的原始状态的违背。
Description
技术领域
本发明涉及在计算机系统中信息的访问和再现。更详细的说,本发明涉及使用识别和理解来访问信息。
近来,科技已经进步到允许用户通过提供语音命令来在一台计算机上访问信息。根据收到的用户命令,计算机系统在用户输入上执行语音识别,并且进一步处理该输入,来确定用户的意图,以使该计算机系统执行期望的动作。
在某些情况中,由用户提供的输入是不完整或者不明确的,这就要求计算机系统以可视或可听的提示的形式来向用户请求进一步的信息。这样,一个在用户和计算机系统之间的对话就可以被建立,其中双方轮流提出问题,答案和/或确认直到用户的意图被确定并且动作可以被执行。在其它的情况中,创建这样的对话对于和计算机系统交互是首选模式。
语音应用程序语言标签(SALT)已经被引入以促进语音作为用于现代用户接口设计的可行的输入/输出模态。SALT的设计目的在于使普通的语音任务易于编程,也允许直接实现高级的性能。SALT是为许多应用程序设计的。一种是,例如,基于电话的、单纯语音的应用程序,它仅仅通过口头对话与用户进行交互。
SALT括语音输入和输出对象(“收听”和“提示”),它具有一个模式设计用以结合技术来检测用户的时机的开始和结束。相应的,许多语音应用程序采用需要用户标记用户时机开始的用户接口。一些计算机系统包括可佩戴计算机,语音使能的模式的或多模式的(为由诸如鼠标等输入装置所选择的区域提供语音输入)设备以及其他不需要使用眼睛的应用程序。然而,在这些中的任何一种环境中,关于用户和计算机系统在对话中的时机的明确定义仍然存在。
然而,人类交谈通常不遵循参与者之间明确的、依次发言的对话。相反地,交谈可能包括一个参与者的确认、证实、疑问等,而另一方提供的信息可能强烈的影响、轻微的影响或甚至毫不影响正在提供信息的说话者的方式。人类说话者喜欢这种自然交谈的形式。同样的,为了允许这种会话的进行,电话系统采用了全双工技术。
相反地,基于对话的接口采用硬性的在用户和计算机系统间依次发言的操作模式,这使得计算机系统在处理和进行后续的动作之前要等待用户对话结束。尽管为简单的反馈,比如诸如一系列的圆点在计算机屏幕上行进的可视化指示进度,可以提供给用户某种计算机系统至少正在处理某些东西的保证,但是直到用户结束他/她的时机并且计算机系统响应时,由计算机系统理解的程度是不可知的。
从而,存在一个在基于识别和理解的计算机系统中进行改进的需求。这种改进将提供一种系统或方法来访问信息,它通过对用户来说更自然而变得更易用。
发明概述
一个方法和系统提供一种语音输入模式,它在音频字幕生成仍然在进行中时动态的报告部分语义分析。该语义分析可以被计算同时结果立即被报告回给用户。实际结果是传统中在系统时机被执行的任务现在在用户时机中间被执行,因此提出了一个重大的对依次发言的口语对话的原始状态的违背。
概括地说,本发明的一个方面包括用于与计算机系统相互作用的计算机可执行方法。该方法包括从用户接收输入,并且捕获该输入用于处理。然后顺序的或者同时的对输入进行识别,以确定与该输入的第一部分有关的语义信息并且输出语义对象。语义对象包括以被计算机应用程序处理的格式的数据,该计算机应用程序根据与第一部分的语义信息一通被识别的输入(例如,文本,加密文本,压缩文本,等等)。像上面所提出的一样,执行识别并且输出语义对象,同时继续捕获输入的后序部分。该方法可以被实现来用于例如语音的可听输入和非可听输入,例如,可视输入或笔迹识别。
上述方法可以以一种计算机可读媒体实现,该计算机可读媒体包括可以被计算设备可读的指令,当执行该计算机指令时,促使该计算设备处理信息并且实现该方法。在另一个实施例中,计算机可读媒体可以包括指令,该指令用来建立语言模型用以执行识别和理解。该语言模型根据所识别的输入来以一种格式提供数据,并且为接收到的输入提供语义信息。
附图的简要说明
图1是数据表示系统的框图。
图2是计算设备操作环境的平面图。
图3是图2中的计算设备的框图。
图4是电话的平面图。
图5是通用计算机的框图。
图6是用于客户机/服务器系统的体系结构的框图。
图7是语音识别和理解模块的框图。
优选实施例的详细说明
图1是数据表示系统10的框图,该系统基于语音输入再现数据。系统10包括语音接口模块12,语音识别和理解模块14以及数据再现模块16。用户以声音搜索的形式提供输入到语音接口模块12。语音接口模块12从用户收集语音信息,并且提供表示其的信号。在输入语音已经被语音接口模块12收集以后,语音识别和理解模块14使用语音识别器来识别语音并且执行语音理解,其中在本发明的一个方面,提供至此接收到的输入的部分语义分析,而且音频语音输入仍然被捕获。
部分语义分析,典型地包括对于接收到的输入的文本(或表示输入文本的其他数据),以及确定的语义信息,被提供给应用程序模块16,该模块可以采取许多不同形式。例如,在一个实施例中,该应用程序模块16可以是个人信息管理器,其被用来发送,接收和回复电子邮件,管理会议等等。这样,用户可以提供可听的命令来完成这些任务。然而,更重要的,应用程序模块16可以提供交互式的反馈和/或作用于如它接收到的一样的部分语义分析信息,从而为用户提供用于应用程序模块16的高交互接口。例如,在操作的语音单一模式中,输出20可以包括回复到用户的可听的语句,然而,当然,可能执行关于该应用程序的其它任务。部分语义分析或语义对象可以被用于在该应用程序中实行对话逻辑。例如,该对话逻辑可以表示对于基于一个或更多语义对象的用户的一个选项,或者多个或选项列表。
这样使得允许系统10可以根据部分表达立即报告结果,即,在用户时机结束之前。换句话说,通过使用反向频道通信来报告和执行通常地与系统时机有关的任务,用户和系统时机的定义是模糊的。多数常规的对话学习,尤其是那些基于人与人的对话,经常认为暗道通信是非打扰的反馈,该反馈仅仅传达简单信号,例如肯定,否定,或中立确认。然而,由输出20提供的反馈可以潜在地传送更多信息,以致有些打扰到正在进行的用户表达,该表达可能或可能不会引起用户来澄清该用户的意图或意向。然而,这种途径在用户和系统10之间提供更逼真的人类对话,这样在很多情况下将不被认为是让人苦恼的,而是让用户变得更舒适,并且慢慢的灌输给用户其期望将被理解的信心。
在这一点上,应当注意到本发明并不局限于仅仅是语音的操作环境,而且还可以包括根据部分语义分析或对象的处理而对用户的其他形式的反馈。例如,在上面讨论的应用程序中,应用程序模块16执行电子邮件任务,该输出20可以包括可视反馈,例如仅仅根据接收的短语激活电子邮件模块,例如在来自用户的不间断命令中的“发送电子邮件”包括“发送电子邮件给Bob”其中对短语“给Bob”的处理,可能导致应用程序模块在数据存储18中访问更多信息,并且提出姓“Bob”的人的名单。因此看到这个列表,用户确认计划有意的接收者“Bob Green”,然后他将被选择,因为系统将为根据由应用程序接收到的部分表达“Bob Green”提供另一个语义对象,并且处理将导致“Bob Green”被选择。
如同上面指出的一样,该应用程序模块16可以采用许多形式,其中本发明所下面进一步讨论的方面可能是有用的。不加以限定,该应用程序模块16也可以是口授模块,用来提供该用户的语音输入的逐字的输出。然而,通过处理用于部分输入的语义信息以及输入的短语,可以得到更加精确的转录。
尽管上面描述了关于来自于用户的包括语音命令的输入,本发明的各个方面也可以适用于其他输入的形式,例如手写输入,DTMF,手势或可视指示。
给定处理部分语义分析或对象的主要的适用范围,描述通常的计算设备可能是有用的,该计算设备可以运行于上面描述的系统10中。正如本领域的技术人员理解的一样,系统10的组件可以位于单一的计算机内部或分布于使用网络连接和协议的分布式计算环境中。
现在参照图2,移动设备的示范性形式在30被举例说明,例如数据管理设备(PIM,PDA或类似物)。然而,预期本发明也可以使用下面讨论的其他计算设备来实现。例如,电话和/或数据管理设备将受益于本发明。与现有的便携式个人信息管理设备和其他便携式电子设备相比,这种设备将具有更大的效用。
在图2中举例说明的数据管理移动设备的示范性形式中,移动设备30包括外壳32并且具有包括显示器34的用户接口,该显示器使用连同输入笔的触感显示屏幕。输入笔33被用来在指定的坐标处按压或接触该显示器34来选择一区域,以可选择的移动光标的开始位置,或用来提供命令信息,例如通过做手势或手写输入。可选择的或作为附加,一个或更多的按钮35可以为了导航而被包括在设备30上。此外,也可以提供其他输入机制,如滚轮,滚柱或类似物。然而,应当注意本发明并不倾向于限定于这些输入机制。例如,其他输入形式可以包括可视输入,例如通过计算机视觉。
现在参考图3,一流程图举例说明了包括移动设备30的功能组件。中央处理单元(CPU)50执行软件控制函数。CPU50与显示器34耦合以便生成的文本和图形图标与在显示器34上出现的控制软件一致。扬声器43可以典型的通过数模转换器59耦合到CPU50来提供音频输出。被用户下载或输入到移动设备30的数据被存储在双向连接到CPU50的非易失性的读/写随机存取存储器54上。随机存取存储器(RAM)54为由CPU50执行的指令提供易失的存储,并存储临时数据,例如寄存器值。配置选项的缺省值和其他变量被存储在只读存储器(ROM)58中。ROM58也可以被用来存储设备的操作系统软件,用来控制移动设备30的基本功能和其他操作系统核函数(例如,载入软件组件到RAM54中)。
RAM54也可以作为代码存储器,以与在PC机上用来存储应用程序的硬盘驱动器的功能类似的方式来存储。应当注意尽管非易失性存储器被用来存储代码,它可以可选择的被存储在不被用来执行代码的易失性存储器中。
无线信号可以由移动设备通过无线收发器52传输/接收,该收发器被连接到CPU50。可选择的通信接口60也可以被用来从计算机上直接下载数据(例如,桌面计算机),或者从有线网络,如果期望的话。因此,接口60可以包括各种形式的通信设备,例如,红外链接,调制解调器,网卡,或类似物。
移动设备30包括麦克风29,以及模数(A/D)转换器37,和在存储器54中存储的可选的识别程序(语音,DTMF,笔迹,手势或计算机视觉)。以举例的方式,相应来自设备30的用户的音频信息的指令或命令,麦克风29提供语音信号,该语音信号被A/D转换器37数字化。语音识别程序可以执行标准化和/或在数字语音信号上的特征提取功能以来获取立即语音识别结果。使用无线收发器52或通信接口60,语音数据可以被传输到远程识别识别服务器204,该远程服务器在下面被描述,并且在图6中的体系结构中被举例说明。然后识别结果可以被转回到移动设备30用于在其上再现(例如,可视的和/或可听的),并且最后传输到网络服务器202(图6),其中网络服务器202和移动设备30以客户机/服务器关系运行。
相似的处理可以被用于输入的其他形式。例如,手写输入可以被使用或不使用在设备30上的预处理而被数字化。类似于语音数据,这种输入的形式可以被传输到用于识别的识别服务器204,其中识别结果被返回到设备30和/或网络服务器202至少一个上。同样的,DTMF数据,手势数据和可视数据可以被类似的处理。根据输入的形式,设备30(和下面讨论的客户机的其他形式)将包括必需的硬件,例如用于可视输出的照相机。
图4是便携式电话80的示范性实施例的平面图。电话80包括显示器82和小键盘84。通常,图3的框图应用到图4中的电话,尽管可能需要必须来实行其他功能的附加电路。例如,作为电话运行所必须的收发器将被图3中的实施例所需要;然而,这种电路对本发明来说是不相关的。
除了上面描述的便携式或移动计算设备,应当理解本发明可以与许多的其他计算设备一起使用,例如通用桌面计算机。例如,本发明将允许具有受限的物理能力的用户来输入或键入文本到计算机或其他计算设备中,然而其他的常规输入设备,例如全字母-数字键盘,太难以操作。
本发明也可以与许多其他的通用目的或特定目的计算系统,环境或配置一起使用。对于用户来说公知的适于与本发明一起使用的计算设备,环境,和/或配置的例子包括,但不局限于,常规电话(没有屏幕),个人计算机,服务器计算机,手持或膝上设备,图形输入板计算机,多处理器系统,基于微处理器的系统,机顶盒,可编程消费电子装置,网络PC,迷你计算机,大型计算机,包括上述任何系统或设备的分布式计算环境,和类似设备。
下面是在图5中描述的通用目的计算机120的简要描述。然而,计算机120也仅仅是合适的计算环境的一个例子,并不倾向于建议任何对于本发明的使用或功能的范围的限制。计算机120也不应当被解释具有关于这里举例的组件的任何一个或组合的任何相关性和要求。
本发明可以被描述在计算机可执行指令的常规环境中,例如被计算机执行的程序模块。通常,程序模块包括例程,程序,对象,组件,数据结构,等等,它们执行特定任务或实现特定抽象数据类型。本发明也可以在分布式计算环境中实现,其中由通过通信网络被链接的远程处理设备执行的任务。在一分布式计算环境中,程序模块既可以位于本地又可以位于远程计算机存储媒体中,该计算机存储媒体包括存储器存储设备。由程序和模块执行的任务在下面辅以附图加以描述。那些本领域的技术人员可以以计算机可执行指令实现说明书和附图,该计算机指令可以被写成计算机可读媒体的任何形式。
参考附图5,计算机120的组件可以包括,但并不局限于,处理器单元140,系统存储器150和系统总线141,该系统总线将包括系统存储器的各种系统组件到处理单元140。系统总线141可以是总线结构的几种类型的任意一种,该总线结构包括存储器总线或存储器控制器,外围总线,以及使用各种总线体系结构的任何一种的本地总线。以举例的方式,但不是限制,这种体系结构包括工业标准体系结构(ISA)总线,通用串行总线(USB),微通道体系结构(MCA)总线,扩展工业标准结构(EISA)总线,视频电子标准协会(VESA)本地总线,以及公知的作为中间总线的外设部件互连(PCI)总线。计算机120典型的包括各种计算机可读媒体。计算机可读媒体可以是任意可被计算机120访问的可用媒体,包括易失性和非易失性媒体,可移动和不可移动媒体。作为例子,但不局限于,计算机可读媒体可以包含计算机存储媒体和通信媒体。计算机存储媒体包括以任何方法或技术实现的易失性和非易失性,可移动和非可移动媒体,用来存储信息,比如计算机可读指令、数据结构、程序模块或其他数据。计算机存储媒体包括,但不局限于,RAM(随机访问存储器),ROM(只读存储器)、EEPROM(电擦写可编程只读存储器)、闪存或其他内存技术,CD-ROM、数字多功能盘(DVD)、或其他光盘存储,盒式磁带、磁带、磁盘存储或其他磁存储设备,或任意其他媒体,该媒体可用来存储期望的信息并可以被计算机120存取。
通信媒体在如载波或其他传输机制这样的调制数据信号中典型地包括表现计算机可读指令,数据结构,程序模块或其他数据,并包括任何信息传输媒体。术语“调制数据信号”表示一种信号拥有一个或更多的特性,其可以像用编码信号中地信息的方式来设置或改变。作为例子,但不局限于,通信媒体包括如有线网络或直接有线连接这样的有线媒体和如声学,FR,红外这样的无线媒体和其他无线媒体。以上任意的组合也应该包括在计算机可读媒体范畴之内。
系统内存150包括易失和/或非易失内存形态的计算机存储媒体,比如只读存储器(ROM)151和随机存取存储器(RAM)152。基本输入/输出系统153(BIOS),包括基本例程来帮助在计算机120内部各元件之间传输信息,比如在启动期间,它典型的存储在ROM151中。RAM152典型包括数据和/或程序模块,它们可立即访问和/或当即被处理单元140运行。作为例子,但不局限于,图5图示了操作系统154,应用程序155,其他程序模块156,和程序数据157。
计算机120也可以包括其他可移动/非可移动,易失性/非易失性计算机存储媒体。只作为例子,图5图示了硬盘驱动器161,它读取或写入非可移动的非易失性的磁媒体;磁盘驱动器171,它读取或写入可移动的非易失性的磁盘172;以及光盘驱动器175,它读取或写入可移动的非易失性的光盘176比如CD-ROM或其他光学媒体。其他可用于示范操作环境中的可移动/不可移动,易失性/非易失性计算机存储媒体包括,但不局限于,磁带,闪存卡,数字多功能盘,数字视频磁带,固态RAM,固态ROM和类似物。硬盘驱动器161典型的通过如接口160这样的不可移动内存接口连接到系统总线141上,磁盘驱动器171和光盘驱动器175典型的通过如接口170这样的可移动内存借口连接到系统总线141上。
前面讨论过的并在图5中图示的驱动器和它们相关的计算机存储媒体为计算机120提供了计算机可读指令、数据结构、程序模块和其他数据的存储。图5中,举个例子,硬盘驱动器161被说明用来存储操作系统164,应用程序165,其他程序模块166,和程序数据167。注意,这些组件可以一致于也可以不同于操作系统154,应用程序155,其他程序模块156,和程序数据157。操作系统164,应用程序165,其他程序模块166,和程序数据167在这里被赋予了不同的标号来说明,至少,它们是不同的复本。
用户可以输入命令和信息到计算机120,通过输入设备比如键盘182,麦克风183,和指示设备181,比如鼠标,轨迹球或触摸板。其他输入设备(未示出)可以包括操纵杆,游戏手柄,卫星天线,扫描仪,或类似物。这些和其他的输入设备通常通过耦合到系统总线的用户输入接口180连接到处理单元140,但是可以通过其他接口和总线结构连接,比如并行端口,游戏端口或通用串行总线(USB)。监视器184或其他类型的显示设备也通过如视频接口185这样的接口连接到系统总线141。除了监视器,计算机还可以包括其他外围输出设备比如扬声器187和打印机186,它们通过输出外围接口188连接。
计算机120使用逻辑连接到如远程计算机194这样的一台或更多的远程计算机上,可以运行在网络环境中。远程计算机194可以是个人计算机,手持设备,服务器,路由器,网络PC,对等设备或其他通用网络节点,并典型的包括许多或全部上面提及的关于计算机120的元件。图5中描述的逻辑连接包括局域网(LAN)191和广域网(WAN)193,也可以包括其他网络。这种网络环境在办公室、企业计算机网络、企业内部网和互联网是很平常的。
当在LAN网络环境中使用时,计算机120通过网络接口或适配器190连接到局域网191。当在WAN网络环境中使用时,计算机120典型包括调制解调器192或其他在如INTERNET的WAN193上建立通信的方式。调制解调器192,其可以是内置的或外置的,可以通过用户输入接口180或其他适当的机制连接到系统总线141上。在网络环境中,所描述的和计算机120相关的程序模块或其中的一部分,可以被存储在远程内存存储设备上。作为例子,但不局限于,图5说明了远程应用程序195位于远端计算机194。值得注意的是所示的网络连接是示范性的,并且其他在计算机间建立通信连接的方式也可以使用。
图6说明了对于基于识别和数据再现的网络的体系结构200,该体系结构是本发明的一个示范性环境。通常,存储在网络服务器202的信息可以通过如移动设备30或计算机120这样的客户机100被存取(它们在这里代表计算设备的其他形式,该计算设备具有显示屏幕、麦克风、照相机、触感屏,等等,如同根据输入的形式要求的那样),或者通过电话80,其中信息要求可听得见,或者通过电话80根据压下的按键所产生的声音,其中来自网络服务器202的信息只提供可听的反馈给用户。
在这个实施例中,体系结构200是统一化的,其中无论信息是否是从客户端100或从电话80中使用语音识别获得的,单个识别服务器204可以支持任意一个操作模式。并且,体系结构200使用广为人知的标记语言(例如,HTML,XHTML,cHTML,XML,WML,和类似的语言)的扩展来操作。因此,在网络服务器202上存储的信息也可以使用广为人知的可在这些标记语言中找到的图形用户接口(GUI)方法访问。通过使用广为人知的标记语言的扩展,在网络服务器202上的创作更容易,并且遗留下来现存的应用程序也能被容易的修改以包含语音识别。
通常,客户机100使用浏览器执行通常如206所指示的由网络服务器202提供的HTML页面、脚本或类似物。作为一个例子,当需要语音识别时,语音数据,其可以为数字化的音频信号或其中音频信号已经被如前该的客户机100处理过的语音特性,提供给识别服务器204连同语音识别时使用的文法指示或语言模型220,该模型可以是由客户端100提供。换种方式,语音服务器204也可以包括语言模型220。识别服务器204的实现可以采用许多形式,其中之一已经被图示,但是通常包括识别器211。如果期望或者合适,识别的结果为了在本地再现而被提供回给客户机100。如果期望,文本一语音模块222可以被用于将语音文本提供给客户端。通过识别进行信息编译且如果使用任何图形用户接口,客户机100发送信息给网络服务器202用来进一步处理并且如果必要进行接收进一步的HTML页面/脚本。
如图6所示,客户机100,网络服务器202和识别服务器204通常通过网络205互相连接、独立编址,这里是如互联网的广域网。因此这些设备中的任何一些都不必彼此物理上位置相邻。特别是,网络服务器202不必包括识别服务器204。以这种方式,在网络服务器上的设计可以专注于应用程序上,而不要求作者需要知道识别服务器204的复杂性。相反的,识别服务器204可以独立设计并连接到网络205上,并且,被更新和改进而网络服务器202端不需要进一步的改变。网络服务器202也可以包括创作机制,它可以动态生成客户端标记和脚本。在更进一步的实施例中,网络服务器202,识别服务器204和客户端100可以依赖于实现机器的功能而被组合。举一个实例,如果客户端100包括通用目的计算机,如个人计算机,客户端可以包括识别服务器204。同样的,如果想要,网络服务器202和识别服务器204可以合并成单个机器。
通过电话80访问网络服务器包括电话80到有线或无线电话网络208的连接,依次,连接电话80到第三方网关210。网关210连接电话80到电话语音浏览器212。电话语音浏览器212包括媒体服务器214,它提供电话接口和语音浏览器216。与客户端100相似,电话语音浏览器212从网络服务器202接收到HTML页面/脚本或类似物,在一个实施例中,HTML网页/脚本形态类似于提供给客户端100的HTML网页/脚本的形态。以这种方式,网络浏览器202不需要分别支持客户端100和电话80,甚至分别支持标准的GUI客户端。相反的,可以使用通用的标记语言。并且,像客户机100,从由电话80传输的可听信号进行的语音识别被从语音浏览器216提供给识别服务器204,或者通过网络205,或者通过直连线207,例如,使用TCP/IP。网络服务器202,识别服务器204和电话语音浏览器212可以在任何合适的计算环境中被实施,比如图5中举例的通用目的桌面计算机。
已经描述了系统10中不同的环境和体系结构功能,现在给出对于系统10中不同组件和功能更具体的描述。图7描述了语音识别和理解模块14的框图。从语音接口模块12中接收到的输入语音被发送到语音识别和理解模块14。语音识别和理解模块14包括识别引擎306,它有一个相关语言模型310。当输入被接收到时,识别引擎306使用语言模型310来标识出每个短语的可能的表面语义结构,该结构构成输入,并提供部分语义解析或对象。不像等待用户完成发言然后才处理接收到的输入的系统,模块14仅仅基于目前所被接收到的输入持续地提供语义对象。
识别引擎306基于部分发言提供至少一个表面语义输出对象。在一些实施例中,识别引擎306能为每一个可选的结构提供一个以上可选的表面语义对象。
尽管图7中说明了提供语音输入的示例,但是本发明可以用于笔迹识别,手势识别或图形用户接口(用户接口具有键盘或其他输入设备)。如本领域中众所周知的,在这些其他的实施例中,语音识别引擎306被合适的识别引擎替代。对于图形用户接口,文法(拥有语言模型)是关联到用户输入的,比如通过输入盒。因此,基于这种输入方式,用户的输入以一致的方式被处理而没有重大的改变。
前面讨论过的交互对话,他也包括其他由系统10基于部分语义解析或对象反馈的形式,可以使用SALT(语音应用程序语言标签)或其他语音、手写和模式识别API(应用程序接口),该API支持语言模型结构,该结构能基于为给定应用程序选择的大纲和语义对象同步解码提供语义信息。SALT是一个正在开发中的标准用来比如从个人计算机、电话、平板PC和无线移动设备上访问信息、应用程序、网络服务,也可以应用于不通过网络互连的应用程序接口。SALT扩展现存的标记语言比如HTML、XHTML和XML。XALT1.0规范可以从HTTP://WWW.SALTforum.org在线获取。应该注意的是SALT可以基于用户输入提供语义信息,比如从语音服务器204中,这种信息形成在发表完成之后提供给数据再现模块16的对象。然而正如下面进一步讨论的那样,SALT可以以不预先企图提供部分语义解析或对象的方式使用。使用SALT扩展或类似的其他API扩展,为高度交互事件驱动的用户交互提供支持。
如示例中使用SALT,SALT收听对象可以被用来执行语音识别和理解任务。这是因为其设计遵从把语音理解看作一种模式识别的观点和表示,就像语音识别。两者都是力求从最好的匹配给出的语音信号的可能的结果集合中找到模式。对于语音识别,要找到的模式是一个单词串,然而,为了理解,是一个语义对象树。传统的语音识别任务指挥搜索过程用一个语言模型在包含可能单词的字符串中的搜索过程。多少有一些近似,语音理解任务可以指导相同的搜索引擎适用语义模型来组成合适的语义对象树。类似于通常具备一个词典以及从字典条目组成语段的规则的语言模型,语义模型具备一个所有语义对象的字典以及组成它们的规则。当识别结果是文本串时,理解结果是一棵语义对象树。
虽然可以扩充文字索引(N-gram)来返回结构化的搜索结果,但是大多数典型语音理解应用程序基于概率上下文无关文法(PCFG)其中设计者可以指定组成语义对象的规则,在没有大规模的被注释为语料库的训练数据情况下。制定这样的规则的一种方法是将对于搜索引擎的生成指示关联到每个PCFG规则和生成指示,该关联关于如何把PCFG解析树转换成语义对象树。用微软语音应用程序接口(SAPI)编写的一个例子(它也是一个可以在本发明中使用的语音API的例子)格式如下所示:
<rule name=”nyc”> <list> <phrase>new york?city</phrase> <phrase>?the big apple</phrase> </list> <output> <city_location> <city>New York</city> <state>New York</state> <country>USA</country> </city_location> </output> </rule> ... <rule name=”NewMeeting”> <rulerefmin=”0”name=”CarrierPhrase”/> <rulerefmax=”inf”name=”ApptProperty”/> <output> <dp n="d12"/> <NewMeeting> <DateTime> <xsl:apply-templates select=”//Date”/> <xsl:apply-templates select==”//Time”/> <xsl:apply-templates select=”//Duration”/> </DateTime/> <Invitees> <xsl:apply-templates select=”//Person”/> </Invitees> .... </NewMeeting> </output> </rule> <rule name=”Apptproperty”> <list> <rulerefname=”Date”/> <rulerefname=”Duration”/> <rulerefname=”Time”/> <rulerefname=”Person”max=”inf”/> .... </list> </rule> ....
该文法片断包含三条规则。第一条,一个命名为“nyc”的前置终结符列出了纽约市的表达式。例子中的<output>标志扩起了构造语义对象的规则。当搜索路径离开文法节点时被调用,该节点被令牌标记为马上处理。这种情况下,一个语义对象,在XML中用<city_location>单元所描绘的,当搜索路径离开“nyc”规则时被创建。这个语义对象依次由三个语义对象组成:城市名字,州和国家名字分别的缩写。
语义对象的组成也可以是一个动态过程,比如,安排一个新的会议。例如,当用户完成指定会议属性比如日期、时间、长度、参加者时,一个NewMeeting语义对象将被处理。模板可以用来粘贴其他的语义对象要素到NewMeeting语义对象。同样的原理也适用于其他没有在这里示出的规则。作为一个例子,一个发言“安排一个与Li Deng和Alex Acero的会见,在一月一日,为期一个小时”将会导致如下的语义对象:
<NewMeeting> <DateTime> <Date>01/01/2003</Date> <Duration>3600</Duration> </DateTime> <Invitees> <Person>LiDeng</Person> <Person>Alex Acero</Person> </Invitees> </NewMeeting>
在真正的应用程序中,提高PCFG覆盖率是一个令人畏惧的任务。因此理想的是能用N-gram来在其他事物中构造功能短语,它不携带关键语义信息但通常具有在句法结构上相当大的变化(比如,“MayI...”,“Could you show me...”,“Please show me...”)。在一个实施例中,语言模型310包含一个语义语言模型,它组合了PCFG和N-gram。该技术也可以与使用的统一的语言模型有些细微的差别。统一语言模型是对传统类别N-gram的自然扩展,除了它允许CFG片断,不仅仅是单词列表,也将被作为N-gram中单独的令牌被构造。识别器306不停的使用这个模型产生文本串,它们被连续的解析。这样统一语言模型被设计来结合某种语言结构以辅助文本翻译。
另一方面说,语义语言模型旨在使用解码器或识别器起来搜索语义结构,它通常被PCFG更好的捕获。因此,替代内嵌CFG片段到N-gram,通过创建一个特殊的对应于感兴趣的一个N-gram的PCFG前端终结符,PCFG被用于包含N-gram。在微软SAPI文法格式中,这可以使用一个前端终结符用XML<dictation>标志来指示,就像在
LCFG<dictation max=″inf″>RCFG
中,其中LCFG和RCFG分别指示了内嵌的N-gram文本的左和右。搜索过程把<dictation>标志当作一个令牌并扩展到N-gram中,好像进入一个正规的非终结符一样。标签上的最大属性指定了可以被N-gram消化的单词的最大值。在这个N-gram内部,单词串可能将PCFG插入通过补偿N-gram而被计算,更具体,
P(Wn|Wn-1,Wn-2,...)=λP(Wn|Ngram,Wn-1,Wn-2,...)+
(1-λ)P(Wn|RCFG)P(RCFG|Wwn-1,Wn-2,...)
其中λ是N-gram内插权重,P(RCFG|Wn-1,...)使用N-gram的补偿概率,即,Wn被当作它是一个不在词汇表中的单词。在一个实施例中,术语P(Wn|RCFG)假设只有二进制数值依赖于是否N-gram达到了最大单词串长度和单词是否在CFG片断覆盖之内。由于从PCFG中得出的单词往往具有更高的概率,真正属于被CFG覆盖的路径拥有即使当最大N-gram单词计数设置为无限时胜出它们的N-gram技术部分的趋势。除了功能短语之外,嵌入的N-gram也可以被用于使用像属性一样的口述来构造语义对象。举个例子,在我们的任务模拟的会议主题如,
<rule name=″ApptSubject″>
<p><dictation max=″inf″/></p>
更具体的考虑K.Wang描述的语义语言模型,“在一个模式识别框架之中的对话系统的语义模型”,在Proc.ASRU-2001,Trento Italy,2001中,它因此通过引用全部合并进来。
本发明更进一步的方面包括SALT收听对象的全新使用。SALT提供一组XML元素,和相关的属性及DOM(文档对象模型)对象属性、事件和方法,它可以同源标记文档联合使用,来将语音接口应用到源页面中。通常,主要的元素包括:
<prompt...>用于语音合成配置和提示音播放
<listen...>用于语音识别器配置,识别执行,后期处理和录音。
<dtmf...>用于DTMF的配置和控制
<smex...>用来同平台组件进行通用目的的通信
收听和dtmf对象也包含文法和绑定控制:
<grammar...>用来指定输入文法资源
<bind...>用来处理识别结果
收听元素可以包括一个“模式”属性来区分识别的三种模式,它命令识别服务器(比如204)怎样和何时返回结果。结果的返回意味着适当的时候提供“OnReco”事件或激活“bind”元素。
在第一种模式“自动”中,语音平台,而不是应用程序,是在什么时候停止识别过程的控制之中的。该模式为电话或自动对讲机环境而发展。一旦识别结果可用,和/或有一段时间过去并指示静音,语音平台自动停止识别器并返回结果,然后它能通过绑定元素与合适的域关联。
在第二种操作模式“单一”中,识别结果的返回要在显式对“停止”的调用的控制下。停止调用对应用户产生的比如“笔-抬起”事件,这种模式为用于多样模式的环境而发展,其中设备允许语音输入,但是用户通常在哪个和何时选择域的控制之下,比如通过笔尖33(图1)的使用。
语音识别器的第三种操作模式是“多样模式”。这种操作模式用于“打开麦克”或在口述环境中。通常,在这种操作模式中,识别结果被以一时间间隔返回直到一个显式停止调用被收到或其他相关于未识别输入的时段或要开始收听的最大时间已经超过。通常,在这种操作模式中,对于每一个被识别的短语,一个“onReco”事件就要发出并且结果直到接收到stop()调用才返回。
然而这种操作模式,像本发明的其他方面,可以为搜索引擎提供一种方法向用户揭示更多的交互能力,通过允许它们来立刻报告何时达到一个显著的语言学上的界碑。基于时间同步解码的搜索算法是广为人知的并且可以以直接的方式被使用于这种模式。一个这样的算法被描述在H.Ney,S.Ortamanns,“连续语音识别的动态程序查找”,IEEE信号处理杂志,64-83页,1999。对于语音识别,语言学上的界碑通常对应于一个单词或一个短语的边界。假定它们一旦可用,SALT多样模式识别可以因此用来动态显示的单词串,一个UI效果一般在许多商业听写软件中见到。然而,在本发明中,多样模式可以把语义对象的实例当作语言学上的界碑和报告等,即提供某种响应作为所理解的内容的功能,也用一种动态方式返回关于它们的应用程序。这再现给应用程序设计者好像SALT正执行一个语义对象同步理解。
这种操作模式通过把它与多样模式的环境比较可以更好的理解。在多样模式的环境下,用户指定一个域,比如当说话时,通过指向和保持笔尖在输入字段。当用户可以在一个通用域轻击并说出一段精心设计的句子来用单句填充许多域,轻击-讲话接口不过使用户的眼睛和手参与进来,计划对于大多数情况不适用。另外,虽然轻击-讲话反映丰富的返回通道通信,它显示音量和后台口头语言过程的进度条,那些反馈仅仅在速度和精度方面提供对于口头语言处理质量的非常原始的线索。这对于长句子可能潜在的存在更多的问题,其中错误可能传播到更广的范围,最后在仅仅验证和改正识别和理解输出方面需要更努力。既然易用性研究看起来预示着长句子是一个关键区分因素,它示例了语音工具像不只键盘增强或其他的,令人满意的UI经验是绝对需要的以成功地使用语音作为可行的形态。
为了促进人类-计算机的知觉作为达到共同目标的紧密合作伙伴,当它们一旦可用时,通过报告部分的语义分析或对象,语义对象同步理解是有效的。在一个实施例中,这被通过使用SALT中收听元素的多样模式来实现。特别的,对于收听元素一个多样模式被指定并且然后所有的识别文法被指定用于将被识别的输入语音。结果的委派也在收听对象中被指定。例如,HTML输入代码来获取必需的信息,比如日期、时间、定位、主题、和会议出席者,等等,来一个新的会议的创办可能采用如下表格:
<listen mode=”multiple”...> <grammar src=”subject.grm”/> <grammar src=”date.grm”/> <grammar src=”time_duration.grm”/> <grammar src=”attendees.grm”/> <bind targetElement=”date” value=”//start_time” targetElement=”duration” value=”//DateTime/duration”/> ... </listen>
多样文法为识别用一个空转换循环回到入口点来构成一个并行搜索空间。以这种模式,SALT允许收听对象当文法一旦退出就产生一个事件。该事件派生一个并行过程,当后台音频采集和识别进行中时来依次的调用绑定指令,因此对用户产生了影响,当对于一个拥有可视化域表示的应用程序的一个语音指令还正在发出时,表格上的相应域被填充。
对于不需要可见的应用程序用户接口,可能被期望伴有语音输出。在那种情况下,SALT提示对象可能被用来给出一个立即地反馈。例如,下面的SALT提示对象可以用来基于数据域中的动态内容合成响应,且语音合成可以用如下附加的SALT绑定指令来引发:
<promptid=”say_date”> on<value targetElemenT=”date”/> </prompt> ... <listen...> <bind targetElement=”date” value=”//date” targetElement=”say_date” targetMethod=”Start”/> ... </listen>
实际结果就是用户感觉好像他/她正和另一个不仅仅是记录下来还复述所听到的事物的参与者交谈,如在“安排一个为期两个小时(为期:两小时)的会议(新会议)在下个星期二(2002年10月29日)两点(下午两点钟开始)”,其中圆括号中提供的短语描绘了听得见的和/或可视的提示(它也能被同步)返回给用户。
应该注意的是,SALT允许设计者附加定制的识别事件处理程序,当使用SALT绑定指令时,它执行超出简单分配的复杂的计算。在上例中,日期标准化可以用语义文法完成,然而,它并不能简化高级的引用分解(比如,“安排一个会议给Li Deng和他的主管”)。对于这种情况,算法可以被实现为对于正确的事件处理程序可访问的脚本,以访问存储的数据来探知未定义的引用。这种算法被描述在K.Wang,“一个使用概率推论的平面有基对话系统”,在Proc.ICSLP-2000,中国北京,2002年和欧洲专利申请EP 1199630A2,公布于2002年4月24日,它特此通过引用它们的全部被结合进来。
应该注意的是虽然对于收听对象存在多样模式操作,在本发明中,这种模式仅仅为在比如听写环境中接收到的输入提供文本。然而,这本发明的这个方面,作为正在接收到的输入的部分结果不仅仅是文本,也包括附属于文本的相应的语义信息,因此输出包含部分语义分析或对象,它能如上该的被使用来提供给用户更高质量的反馈,即计算机已经正确的理解了所接收到的信息。依赖于接受部分语义分析或对象的应用程序的完善度,系统可以基于接收到的部分语义分析提供回给用户确定、备选、修正和说明。
虽然在多样模式的应用程序中都知道包括多重文法来允许用户提前讲话,因而,提供能力来提供没有指出的信息,使用收听单元在多样模式操作中可能更好,因为它提供给用户一个更高的理解的指示。在一个只有语音的应用程序中,生成一个对话的自然形式,然而如果采用使用可视化再现,一个应用程序可以开始处理(采取行动、显示中期的结果或选项等等,例如通过弹出窗口)仅仅基于用户目前所提供的部分语义分析,且当用户连续讲话时。
虽然本发明已经被结合具体的实施例描述,本领域的技术人员将意识到可以采取形式上和细节上的改变而不违背本发明的思想和范围。
Claims (24)
1.一个计算机实现的方法,用来与计算机系统交互,该方法包括:
从用户接收输入并捕获输入用于处理;并
根据输入进行识别来确定符合输入的最初部分的语义信息并输出一个语义对象,该语义对象包含以一种要被计算机应用程序处理的格式存在的数据并与已经被识别的输入和最初部分的语义信息一致,其中进行识别和输出语义对象被执行同时对于后续的输入部分的捕获继续执行。
2.如权利要求1所述的计算机实现的方法,还进一步包括:
建立一个语言模型来进行识别和理解,该语言模型适合提供以一种要被计算机应用程序处理的格式存在的数据并与接收到的输入一致并对接收到的输入提供语义信息。
3.如权利要求2所述的计算机实现的方法,其中语言模型包括N-gram语言模型和上下文无关文法语言模型的结合。
4.如权利要求3所述的计算机实现的方法,其中建立一个语言模型包括为识别而定义将被使用的多重文法。
5.如权利要求4所述的计算机实现的方法,其中建立一个语言模型包括使用应用程序接口来未识别定义多重文法来使用。
6.如权利要求5所述的计算机实现的方法,其中建立一个语言模型包括使用SALT。
7.如权利要求6所述的计算机实现的方法,其中处理输入包括在多样模式中实现SALT的收听对象。
8.如权利要求1或2所述的计算机实现的方法,其中输出语义对象包括以文本格式输出数据。
9.如权利要求8所述的计算机实现的方法,其中接收和捕获输入包括从用户接收和捕获可听的输入。
10.如权利要求9所述的计算机实现的方法,其中接收和捕获输入包括从用户接收和捕获语音输入。
11.如权利要求1或2所述的计算机实现的方法,其中接收和捕获输入包括从用户接收和捕获手写输入。
12.如权利要求1或2所述的计算机实现的方法,其中接收和捕获输入包括从用户接收和捕获可视输入。
13.如权利要求1或2所述的计算机实现的方法,还进一步包括当用户提供输入时再现信息给用户,该信息是收到的语义对象的功能。
14.如权利要求13所述的计算机实现的方法,其中再现信息包括通过再现作为一个对于语义对象的语义信息的功能的信息确认已经收到的。
15.如权利要求14所述的计算机实现的方法,其中再现信息包括再现信息作为与已经被识别的输入一致的数据的功能。
16.如权利要求15所述的计算机实现的方法,其中再现信息包括向用户再现一个选项作为与已经被识别的输入一致的数据的功能。
17.如权利要求16所述的计算机实现的方法,其中再现信息包括向用户再现多个的选项作为与已经被识别的输入一致的数据的功能。
18.如权利要求13所述的计算机实现的方法,其中再现信息包括向用户再现一个可听的提示。
19.如权利要求18所述的计算机实现的方法,其中再现信息包括向用户再现一个可视化的指示。
20.如权利要求19所述的计算机实现的方法,其中再现信息包括向用户再现同步的可听的和可视化的指示。
21.一个计算机可读介质包括计算机可读的指令,当它被实现时,促使计算机执行任何前述方法权利要求中的方法之一。
22.一个系统,适合于执行任何前述方法权利要求的方法之一。
23.一个计算机可读介质包括可由计算机设备读取的指令,包括:
一个模块适合于从用户接收输入并捕获输入来处理,该模块适合于根据输入执行识别来确定符合输入的最初部分的语义信息并适合输出语义对象,其包含以一种要被计算机应用程序处理的格式存在的数据并与已经被识别的输入和最初部分的语义信息一致,其中进行识别和输出语义对象被执行同时对于后续的输入部分的捕获继续执行。
24.一个计算机可读介质,可由计算机设备可读的指令,包括:
一个模块被配置来执行选择的任务,该模块适合同步地与用于输入一致的接收语义对象,每个语义对象包括以一种要被计算机应用程序处理的格式存在的数据并与从用户输入的部分一致并且语义信息符合从用户输入的部分,该模块适合采取行动作为同步的处理语义对象的一个功能。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/447,399 US8301436B2 (en) | 2003-05-29 | 2003-05-29 | Semantic object synchronous understanding for highly interactive interface |
US10/447,399 | 2003-05-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1591315A true CN1591315A (zh) | 2005-03-09 |
CN100424632C CN100424632C (zh) | 2008-10-08 |
Family
ID=33131588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2004100856494A Expired - Lifetime CN100424632C (zh) | 2003-05-29 | 2004-05-31 | 用于高级交互接口的语义对象同步理解 |
Country Status (13)
Country | Link |
---|---|
US (1) | US8301436B2 (zh) |
EP (1) | EP1482479B1 (zh) |
JP (1) | JP4768969B2 (zh) |
KR (1) | KR101066741B1 (zh) |
CN (1) | CN100424632C (zh) |
AU (1) | AU2004201993A1 (zh) |
BR (1) | BRPI0401847A (zh) |
CA (1) | CA2467134C (zh) |
HK (1) | HK1070730A1 (zh) |
MX (1) | MXPA04005121A (zh) |
RU (1) | RU2352979C2 (zh) |
TW (1) | TW200513884A (zh) |
ZA (1) | ZA200403493B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101529410B (zh) * | 2006-04-07 | 2013-11-06 | Pp联合有限公司 | 具有综合质量管理的报告生成 |
CN104679472A (zh) * | 2015-02-13 | 2015-06-03 | 百度在线网络技术(北京)有限公司 | 人机语音交互方法和装置 |
CN106463114A (zh) * | 2015-03-31 | 2017-02-22 | 索尼公司 | 信息处理设备、控制方法及程序 |
CN107146623A (zh) * | 2017-04-07 | 2017-09-08 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别方法、装置和系统 |
CN109074802A (zh) * | 2016-12-30 | 2018-12-21 | 谷歌有限责任公司 | 分组化音频信号的调制 |
CN111512362A (zh) * | 2017-11-16 | 2020-08-07 | 软银机器人欧洲公司 | 用于对话会话管理的系统和方法 |
CN114582314A (zh) * | 2022-02-28 | 2022-06-03 | 江苏楷文电信技术有限公司 | 基于asr的人机音视频交互逻辑模型设计方法 |
Families Citing this family (179)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US20080313282A1 (en) | 2002-09-10 | 2008-12-18 | Warila Bruce W | User interface, operating system and architecture |
US8301436B2 (en) | 2003-05-29 | 2012-10-30 | Microsoft Corporation | Semantic object synchronous understanding for highly interactive interface |
US7555533B2 (en) * | 2003-10-15 | 2009-06-30 | Harman Becker Automotive Systems Gmbh | System for communicating information from a server via a mobile communication device |
DE602004010054T2 (de) * | 2004-01-19 | 2008-03-06 | Harman Becker Automotive Systems Gmbh | Betätigung eines Sprachdialogsystems |
DE602004014893D1 (de) | 2004-01-29 | 2008-08-21 | Daimler Ag | Multimodale Dateneingabe |
EP1560200B8 (en) * | 2004-01-29 | 2009-08-05 | Harman Becker Automotive Systems GmbH | Method and system for spoken dialogue interface |
JP4309829B2 (ja) * | 2004-10-28 | 2009-08-05 | ソフトバンクモバイル株式会社 | 情報端末装置 |
US20060170956A1 (en) | 2005-01-31 | 2006-08-03 | Jung Edward K | Shared image devices |
US9910341B2 (en) | 2005-01-31 | 2018-03-06 | The Invention Science Fund I, Llc | Shared image device designation |
US9325781B2 (en) | 2005-01-31 | 2016-04-26 | Invention Science Fund I, Llc | Audio sharing |
US9082456B2 (en) | 2005-01-31 | 2015-07-14 | The Invention Science Fund I Llc | Shared image device designation |
US9124729B2 (en) | 2005-01-31 | 2015-09-01 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
US9489717B2 (en) | 2005-01-31 | 2016-11-08 | Invention Science Fund I, Llc | Shared image device |
CN101111885A (zh) * | 2005-02-04 | 2008-01-23 | 株式会社查纳位资讯情报 | 使用抽出的声音数据生成应答声音的声音识别系统 |
US9076208B2 (en) | 2006-02-28 | 2015-07-07 | The Invention Science Fund I, Llc | Imagery processing |
US9621749B2 (en) | 2005-06-02 | 2017-04-11 | Invention Science Fund I, Llc | Capturing selected image objects |
US9093121B2 (en) | 2006-02-28 | 2015-07-28 | The Invention Science Fund I, Llc | Data management of an audio data stream |
US20070222865A1 (en) | 2006-03-15 | 2007-09-27 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Enhanced video/still image correlation |
US9451200B2 (en) | 2005-06-02 | 2016-09-20 | Invention Science Fund I, Llc | Storage access technique for captured data |
US9942511B2 (en) | 2005-10-31 | 2018-04-10 | Invention Science Fund I, Llc | Preservation/degradation of video/audio aspects of a data stream |
US9167195B2 (en) | 2005-10-31 | 2015-10-20 | Invention Science Fund I, Llc | Preservation/degradation of video/audio aspects of a data stream |
US9191611B2 (en) | 2005-06-02 | 2015-11-17 | Invention Science Fund I, Llc | Conditional alteration of a saved image |
US9819490B2 (en) | 2005-05-04 | 2017-11-14 | Invention Science Fund I, Llc | Regional proximity for shared image device(s) |
US8964054B2 (en) | 2006-08-18 | 2015-02-24 | The Invention Science Fund I, Llc | Capturing selected image objects |
US9001215B2 (en) | 2005-06-02 | 2015-04-07 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
US10003762B2 (en) | 2005-04-26 | 2018-06-19 | Invention Science Fund I, Llc | Shared image devices |
US20070098348A1 (en) * | 2005-10-31 | 2007-05-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Degradation/preservation management of captured data |
US9967424B2 (en) | 2005-06-02 | 2018-05-08 | Invention Science Fund I, Llc | Data storage usage protocol |
US20060253272A1 (en) * | 2005-05-06 | 2006-11-09 | International Business Machines Corporation | Voice prompts for use in speech-to-speech translation system |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US20070120980A1 (en) | 2005-10-31 | 2007-05-31 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Preservation/degradation of video/audio aspects of a data stream |
US8244545B2 (en) * | 2006-03-30 | 2012-08-14 | Microsoft Corporation | Dialog repair based on discrepancies between user model predictions and speech recognition results |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
KR20090110242A (ko) * | 2008-04-17 | 2009-10-21 | 삼성전자주식회사 | 오디오 신호를 처리하는 방법 및 장치 |
KR101599875B1 (ko) * | 2008-04-17 | 2016-03-14 | 삼성전자주식회사 | 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 부호화 방법 및 장치, 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 복호화 방법 및 장치 |
KR20090110244A (ko) * | 2008-04-17 | 2009-10-21 | 삼성전자주식회사 | 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치 |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8600761B2 (en) * | 2008-09-09 | 2013-12-03 | The Boeing Company | Hands-free and non-visually occluding object information interaction system |
EP2196989B1 (en) | 2008-12-10 | 2012-06-27 | Nuance Communications, Inc. | Grammar and template-based speech recognition of spoken utterances |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
KR20110036385A (ko) * | 2009-10-01 | 2011-04-07 | 삼성전자주식회사 | 사용자 의도 분석 장치 및 방법 |
WO2011046127A1 (ja) * | 2009-10-14 | 2011-04-21 | 日本電気株式会社 | データ収集システム、携帯端末、シール及びデータ収集方法 |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
WO2012017525A1 (ja) * | 2010-08-04 | 2012-02-09 | パイオニア株式会社 | 処理装置及びコマンド入力支援方法 |
US9600135B2 (en) * | 2010-09-10 | 2017-03-21 | Vocollect, Inc. | Multimodal user notification system to assist in data capture |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
CN102645970B (zh) * | 2011-02-22 | 2015-10-28 | 鸿富锦精密工业(深圳)有限公司 | 移动向量触发控制方法及使用其的电子装置 |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8782601B2 (en) * | 2011-09-30 | 2014-07-15 | Bmc Software, Inc. | Systems and methods for applying dynamic relational typing to a strongly-typed object-oriented API |
US9753528B2 (en) | 2011-12-21 | 2017-09-05 | Intel Corporation | Mechanism for facilitating power extension service at computing devices |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9224386B1 (en) | 2012-06-22 | 2015-12-29 | Amazon Technologies, Inc. | Discriminative language model training using a confusion matrix |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9292487B1 (en) * | 2012-08-16 | 2016-03-22 | Amazon Technologies, Inc. | Discriminative language model pruning |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9230560B2 (en) | 2012-10-08 | 2016-01-05 | Nant Holdings Ip, Llc | Smart home automation systems and methods |
RU2530267C2 (ru) * | 2012-11-28 | 2014-10-10 | Общество с ограниченной ответственностью "Спиктуит" | Способ коммуникации пользователя с информационной диалоговой системой |
KR101732137B1 (ko) * | 2013-01-07 | 2017-05-02 | 삼성전자주식회사 | 원격 제어 장치 및 전력 제어 방법 |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9135243B1 (en) * | 2013-03-15 | 2015-09-15 | NetBase Solutions, Inc. | Methods and apparatus for identification and analysis of temporally differing corpora |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
DE112014002747T5 (de) | 2013-06-09 | 2016-03-03 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten |
CN105265005B (zh) | 2013-06-13 | 2019-09-17 | 苹果公司 | 用于由语音命令发起的紧急呼叫的系统和方法 |
CN105264655B (zh) | 2013-06-25 | 2018-08-03 | 英特尔公司 | 具有局部层间互连的单片三维(3d)ic |
RU2637874C2 (ru) * | 2013-06-27 | 2017-12-07 | Гугл Инк. | Генерирование диалоговых рекомендаций для чатовых информационных систем |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10747880B2 (en) * | 2013-12-30 | 2020-08-18 | University Of Louisiana At Lafayette | System and method for identifying and comparing code by semantic abstractions |
RU2571373C2 (ru) * | 2014-03-31 | 2015-12-20 | Общество с ограниченной ответственностью "Аби ИнфоПоиск" | Метод анализа тональности текстовых данных |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
EP3149728B1 (en) | 2014-05-30 | 2019-01-16 | Apple Inc. | Multi-command single utterance input method |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
CN107113222B (zh) | 2014-06-06 | 2020-09-01 | 谷歌有限责任公司 | 基于环境的主动聊天信息系统 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US10074009B2 (en) | 2014-12-22 | 2018-09-11 | International Business Machines Corporation | Object popularity detection |
US9836452B2 (en) | 2014-12-30 | 2017-12-05 | Microsoft Technology Licensing, Llc | Discriminating ambiguous expressions to enhance user experience |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083697B2 (en) | 2015-05-27 | 2018-09-25 | Google Llc | Local persisting of data for selectively offline capable voice action in a voice-enabled electronic device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9966073B2 (en) | 2015-05-27 | 2018-05-08 | Google Llc | Context-sensitive dynamic update of voice to text model in a voice-enabled electronic device |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
CN105161097A (zh) * | 2015-07-23 | 2015-12-16 | 百度在线网络技术(北京)有限公司 | 语音交互方法及装置 |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US9996517B2 (en) * | 2015-11-05 | 2018-06-12 | Lenovo (Singapore) Pte. Ltd. | Audio input of field entries |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
CN109643742A (zh) | 2016-08-26 | 2019-04-16 | 英特尔公司 | 集成电路器件结构和双侧制造技术 |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20190354557A1 (en) * | 2017-06-20 | 2019-11-21 | Tom Kornblit | System and Method For Providing Intelligent Customer Service |
US10845937B2 (en) | 2018-01-11 | 2020-11-24 | International Business Machines Corporation | Semantic representation and realization for conversational systems |
US20190213284A1 (en) | 2018-01-11 | 2019-07-11 | International Business Machines Corporation | Semantic representation and realization for conversational systems |
CN108446459B (zh) * | 2018-03-01 | 2022-03-22 | 云南师范大学 | 基于模糊语义推理的炼焦过程耗热量影响因素优化方法 |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4831550A (en) * | 1986-03-27 | 1989-05-16 | International Business Machines Corporation | Apparatus and method for estimating, from sparse data, the probability that a particular one of a set of events is the next event in a string of events |
DE3723078A1 (de) * | 1987-07-11 | 1989-01-19 | Philips Patentverwaltung | Verfahren zur erkennung von zusammenhaengend gesprochenen woertern |
DE3739681A1 (de) * | 1987-11-24 | 1989-06-08 | Philips Patentverwaltung | Verfahren zum bestimmen von anfangs- und endpunkt isoliert gesprochener woerter in einem sprachsignal und anordnung zur durchfuehrung des verfahrens |
US5263117A (en) * | 1989-10-26 | 1993-11-16 | International Business Machines Corporation | Method and apparatus for finding the best splits in a decision tree for a language model for a speech recognizer |
US5477451A (en) * | 1991-07-25 | 1995-12-19 | International Business Machines Corp. | Method and system for natural language translation |
US5502774A (en) * | 1992-06-09 | 1996-03-26 | International Business Machines Corporation | Automatic recognition of a consistent message using multiple complimentary sources of information |
CA2141221A1 (en) | 1992-09-04 | 1994-03-17 | Jaime G. Carbonell | Integrated authoring and translation system |
JP3378595B2 (ja) | 1992-09-30 | 2003-02-17 | 株式会社日立製作所 | 音声対話システムおよびその対話進行制御方法 |
US5384892A (en) * | 1992-12-31 | 1995-01-24 | Apple Computer, Inc. | Dynamic language model for speech recognition |
EP0645757B1 (en) | 1993-09-23 | 2000-04-05 | Xerox Corporation | Semantic co-occurrence filtering for speech recognition and signal transcription applications |
US5615296A (en) * | 1993-11-12 | 1997-03-25 | International Business Machines Corporation | Continuous speech recognition and voice response system and method to enable conversational dialogues with microprocessors |
US5675819A (en) | 1994-06-16 | 1997-10-07 | Xerox Corporation | Document information retrieval using global word co-occurrence patterns |
US5752052A (en) * | 1994-06-24 | 1998-05-12 | Microsoft Corporation | Method and system for bootstrapping statistical processing into a rule-based natural language parser |
US5689617A (en) * | 1995-03-14 | 1997-11-18 | Apple Computer, Inc. | Speech recognition system which returns recognition results as a reconstructed language model with attached data values |
IT1279171B1 (it) * | 1995-03-17 | 1997-12-04 | Ist Trentino Di Cultura | Sistema di riconoscimento di parlato continuo |
US5710866A (en) * | 1995-05-26 | 1998-01-20 | Microsoft Corporation | System and method for speech recognition using dynamically adjusted confidence measure |
US5680511A (en) | 1995-06-07 | 1997-10-21 | Dragon Systems, Inc. | Systems and methods for word recognition |
JPH09114488A (ja) | 1995-10-16 | 1997-05-02 | Sony Corp | 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車 |
EP0801786B1 (en) * | 1995-11-04 | 2000-06-28 | International Business Machines Corporation | Method and apparatus for adapting the language model's size in a speech recognition system |
US6567778B1 (en) * | 1995-12-21 | 2003-05-20 | Nuance Communications | Natural language speech recognition using slot semantic confidence scores related to their word recognition confidence scores |
US5913193A (en) * | 1996-04-30 | 1999-06-15 | Microsoft Corporation | Method and system of runtime acoustic unit selection for speech synthesis |
US5937384A (en) * | 1996-05-01 | 1999-08-10 | Microsoft Corporation | Method and system for speech recognition using continuous density hidden Markov models |
US5835888A (en) * | 1996-06-10 | 1998-11-10 | International Business Machines Corporation | Statistical language model for inflected languages |
US5963903A (en) * | 1996-06-28 | 1999-10-05 | Microsoft Corporation | Method and system for dynamically adjusted training for speech recognition |
JPH1097280A (ja) | 1996-09-19 | 1998-04-14 | Hitachi Ltd | 音声画像認識翻訳装置 |
US5819220A (en) * | 1996-09-30 | 1998-10-06 | Hewlett-Packard Company | Web triggered word set boosting for speech interfaces to the world wide web |
US5905972A (en) * | 1996-09-30 | 1999-05-18 | Microsoft Corporation | Prosodic databases holding fundamental frequency templates for use in speech synthesis |
US5829000A (en) * | 1996-10-31 | 1998-10-27 | Microsoft Corporation | Method and system for correcting misrecognized spoken words or phrases |
GB9701866D0 (en) | 1997-01-30 | 1997-03-19 | British Telecomm | Information retrieval |
DE19708183A1 (de) * | 1997-02-28 | 1998-09-03 | Philips Patentverwaltung | Verfahren zur Spracherkennung mit Sprachmodellanpassung |
US6073091A (en) * | 1997-08-06 | 2000-06-06 | International Business Machines Corporation | Apparatus and method for forming a filtered inflected language model for automatic speech recognition |
WO1999021106A1 (en) | 1997-10-20 | 1999-04-29 | Microsoft Corporation | Automatically recognizing the discourse structure of a body of text |
RU2119196C1 (ru) | 1997-10-27 | 1998-09-20 | Яков Юноевич Изилов | Способ лексической интерпретации слитной речи и система для его реализации |
US6154722A (en) * | 1997-12-18 | 2000-11-28 | Apple Computer, Inc. | Method and apparatus for a speech recognition system language model that integrates a finite state grammar probability and an N-gram probability |
US6182039B1 (en) * | 1998-03-24 | 2001-01-30 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus using probabilistic language model based on confusable sets for speech recognition |
US6141641A (en) * | 1998-04-15 | 2000-10-31 | Microsoft Corporation | Dynamically configurable acoustic model for speech recognition system |
US6188976B1 (en) * | 1998-10-23 | 2001-02-13 | International Business Machines Corporation | Apparatus and method for building domain-specific language models |
US6415256B1 (en) * | 1998-12-21 | 2002-07-02 | Richard Joseph Ditzik | Integrated handwriting and speed recognition systems |
US6314402B1 (en) | 1999-04-23 | 2001-11-06 | Nuance Communications | Method and apparatus for creating modifiable and combinable speech objects for acquiring information from a speaker in an interactive voice response system |
US6081799A (en) * | 1999-05-05 | 2000-06-27 | International Business Machines Corporation | Executing complex SQL queries using index screening for conjunct or disjunct index operations |
US6553345B1 (en) * | 1999-08-26 | 2003-04-22 | Matsushita Electric Industrial Co., Ltd. | Universal remote control allowing natural language modality for television and multimedia searches and requests |
US6434529B1 (en) | 2000-02-16 | 2002-08-13 | Sun Microsystems, Inc. | System and method for referencing object instances and invoking methods on those object instances from within a speech recognition grammar |
US7031908B1 (en) * | 2000-06-01 | 2006-04-18 | Microsoft Corporation | Creating a language model for a language processing system |
US6865528B1 (en) * | 2000-06-01 | 2005-03-08 | Microsoft Corporation | Use of a unified language model |
TW472232B (en) | 2000-08-11 | 2002-01-11 | Ind Tech Res Inst | Probability-base fault-tolerance natural language understanding method |
US6785651B1 (en) | 2000-09-14 | 2004-08-31 | Microsoft Corporation | Method and apparatus for performing plan-based dialog |
US6934683B2 (en) | 2001-01-31 | 2005-08-23 | Microsoft Corporation | Disambiguation language model |
US20020152075A1 (en) * | 2001-04-16 | 2002-10-17 | Shao-Tsu Kung | Composite input method |
EP1410381A4 (en) | 2001-05-04 | 2005-10-19 | Unisys Corp | DYNAMIC GENERATION OF VOICE APPLICATION INFORMATION FROM A WEB SERVER |
CN1279465C (zh) * | 2001-05-04 | 2006-10-11 | 微软公司 | Web启用的识别体系结构 |
JP3961780B2 (ja) | 2001-05-15 | 2007-08-22 | 三菱電機株式会社 | 言語モデル学習装置およびそれを用いた音声認識装置 |
JP4094255B2 (ja) | 2001-07-27 | 2008-06-04 | 日本電気株式会社 | コマンド入力機能つきディクテーション装置 |
JP4000828B2 (ja) | 2001-11-06 | 2007-10-31 | 株式会社デンソー | 情報システム、電子機器、プログラム |
US7200559B2 (en) * | 2003-05-29 | 2007-04-03 | Microsoft Corporation | Semantic object synchronous understanding implemented with speech application language tags |
US8301436B2 (en) | 2003-05-29 | 2012-10-30 | Microsoft Corporation | Semantic object synchronous understanding for highly interactive interface |
-
2003
- 2003-05-29 US US10/447,399 patent/US8301436B2/en active Active
-
2004
- 2004-05-07 ZA ZA200403493A patent/ZA200403493B/en unknown
- 2004-05-11 AU AU2004201993A patent/AU2004201993A1/en not_active Abandoned
- 2004-05-11 EP EP04102035.5A patent/EP1482479B1/en not_active Expired - Lifetime
- 2004-05-13 CA CA2467134A patent/CA2467134C/en not_active Expired - Lifetime
- 2004-05-20 TW TW093114295A patent/TW200513884A/zh unknown
- 2004-05-27 BR BR0401847-8A patent/BRPI0401847A/pt not_active IP Right Cessation
- 2004-05-27 JP JP2004158359A patent/JP4768969B2/ja not_active Expired - Lifetime
- 2004-05-28 RU RU2004116303/09A patent/RU2352979C2/ru not_active IP Right Cessation
- 2004-05-28 KR KR1020040038493A patent/KR101066741B1/ko active IP Right Grant
- 2004-05-28 MX MXPA04005121A patent/MXPA04005121A/es not_active Application Discontinuation
- 2004-05-31 CN CNB2004100856494A patent/CN100424632C/zh not_active Expired - Lifetime
-
2005
- 2005-04-19 HK HK05103321.9A patent/HK1070730A1/zh not_active IP Right Cessation
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101529410B (zh) * | 2006-04-07 | 2013-11-06 | Pp联合有限公司 | 具有综合质量管理的报告生成 |
CN104679472A (zh) * | 2015-02-13 | 2015-06-03 | 百度在线网络技术(北京)有限公司 | 人机语音交互方法和装置 |
CN106463114A (zh) * | 2015-03-31 | 2017-02-22 | 索尼公司 | 信息处理设备、控制方法及程序 |
CN106463114B (zh) * | 2015-03-31 | 2020-10-27 | 索尼公司 | 信息处理设备、控制方法及程序存储单元 |
CN109074802A (zh) * | 2016-12-30 | 2018-12-21 | 谷歌有限责任公司 | 分组化音频信号的调制 |
CN109074802B (zh) * | 2016-12-30 | 2023-08-08 | 谷歌有限责任公司 | 分组化音频信号的调制 |
CN107146623A (zh) * | 2017-04-07 | 2017-09-08 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别方法、装置和系统 |
CN107146623B (zh) * | 2017-04-07 | 2021-03-16 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别方法、装置和系统 |
CN111512362A (zh) * | 2017-11-16 | 2020-08-07 | 软银机器人欧洲公司 | 用于对话会话管理的系统和方法 |
CN114582314A (zh) * | 2022-02-28 | 2022-06-03 | 江苏楷文电信技术有限公司 | 基于asr的人机音视频交互逻辑模型设计方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20040103443A (ko) | 2004-12-08 |
AU2004201993A1 (en) | 2004-12-16 |
US8301436B2 (en) | 2012-10-30 |
RU2004116303A (ru) | 2005-11-10 |
RU2352979C2 (ru) | 2009-04-20 |
CA2467134A1 (en) | 2004-11-29 |
HK1070730A1 (zh) | 2005-06-24 |
US20040243419A1 (en) | 2004-12-02 |
JP2004355629A (ja) | 2004-12-16 |
CN100424632C (zh) | 2008-10-08 |
EP1482479A1 (en) | 2004-12-01 |
MXPA04005121A (es) | 2005-06-10 |
EP1482479B1 (en) | 2016-09-28 |
JP4768969B2 (ja) | 2011-09-07 |
BRPI0401847A (pt) | 2005-03-08 |
CA2467134C (en) | 2013-03-05 |
TW200513884A (en) | 2005-04-16 |
ZA200403493B (en) | 2006-04-26 |
KR101066741B1 (ko) | 2011-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100424632C (zh) | 用于高级交互接口的语义对象同步理解 | |
JP4768970B2 (ja) | 音声アプリケーション言語タグとともに実装される理解同期意味オブジェクト | |
JP6819988B2 (ja) | 音声対話装置、サーバ装置、音声対話方法、音声処理方法およびプログラム | |
US9349367B2 (en) | Records disambiguation in a multimodal application operating on a multimodal device | |
US20080208586A1 (en) | Enabling Natural Language Understanding In An X+V Page Of A Multimodal Application | |
JP2009059378A (ja) | ダイアログを目的とするアプリケーション抽象化のための記録媒体及び方法 | |
US11093110B1 (en) | Messaging feedback mechanism | |
CN104485105A (zh) | 一种电子病历生成方法和电子病历系统 | |
EP2126748A1 (en) | Speech-enabled web content searching using a multimodal browser | |
CN109256133A (zh) | 一种语音交互方法、装置、设备及存储介质 | |
Rouillard | Web services and speech-based applications around VoiceXML. | |
CN110740212B (zh) | 基于智能语音技术的通话接听方法、装置及电子设备 | |
Milhorat | An open-source framework for supporting the design and implementation of natural-language spoken dialog systems | |
Fischer et al. | Towards multi-modal interfaces for embedded devices | |
Wang | Semantic object synchronous understanding in SALT for highly interactive user interface. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150505 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150505 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |