CN101030368B - 在保持情感的同时跨通道进行通信的方法和系统 - Google Patents
在保持情感的同时跨通道进行通信的方法和系统 Download PDFInfo
- Publication number
- CN101030368B CN101030368B CN2007100054266A CN200710005426A CN101030368B CN 101030368 B CN101030368 B CN 101030368B CN 2007100054266 A CN2007100054266 A CN 2007100054266A CN 200710005426 A CN200710005426 A CN 200710005426A CN 101030368 B CN101030368 B CN 101030368B
- Authority
- CN
- China
- Prior art keywords
- emotion
- text
- content
- communication
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 728
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000004321 preservation Methods 0.000 title description 2
- 230000006854 communication Effects 0.000 claims abstract description 385
- 238000004891 communication Methods 0.000 claims abstract description 384
- 238000004458 analytical method Methods 0.000 claims abstract description 200
- 238000013519 translation Methods 0.000 claims abstract description 26
- 230000033764 rhythmic process Effects 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 14
- 244000188472 Ilex paraguariensis Species 0.000 claims 1
- 230000002996 emotional effect Effects 0.000 description 54
- 230000008569 process Effects 0.000 description 40
- 238000006243 chemical reaction Methods 0.000 description 25
- 238000005065 mining Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 16
- 238000007726 management method Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 16
- 230000001413 cellular effect Effects 0.000 description 14
- 238000007689 inspection Methods 0.000 description 14
- 230000008878 coupling Effects 0.000 description 13
- 238000010168 coupling process Methods 0.000 description 13
- 238000005859 coupling reaction Methods 0.000 description 13
- 230000008909 emotion recognition Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000001131 transforming effect Effects 0.000 description 6
- 238000000429 assembly Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000008570 general process Effects 0.000 description 5
- 238000002386 leaching Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000000712 assembly Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000011049 filling Methods 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000003071 parasitic effect Effects 0.000 description 2
- 206010012374 Depressed mood Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- GPUADMRJQVPIAS-QCVDVZFFSA-M cerivastatin sodium Chemical compound [Na+].COCC1=C(C(C)C)N=C(C(C)C)C(\C=C\[C@@H](O)C[C@@H](O)CC([O-])=O)=C1C1=CC=C(F)C=C1 GPUADMRJQVPIAS-QCVDVZFFSA-M 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000009418 renovation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/0018—Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Abstract
跨话音和文本通信通道的情感被提取、保持和转化。接收话音通信并关于情感内容对其进行分析。利用单词识别技术概括地了解通信的文本内容。随后关于情感内容分析文本内容。比较从单词识别得到的单词和短语与文本挖掘数据库中的情感单词和短语。所述两种分析得到的情感随后被作为情感元数据,标记文本内容。通过利用文本和情感转化释义,话音通信的文本和情感置标抽象也可被转化。转化后的情感元数据被用于情感挖掘在第二语言的文化中具有情感内涵的单词。这些单词随后替换翻译文本中的对应单词。转化后的文本和情感单词被调制成合成话音,并通过利用从转化后的情感元数据得到的情感话音模式,调整讲话方式。
Description
技术领域
本发明涉及跨越话音和文本通信转换保持情感。
背景技术
人类话音通信可由两个要素表征:内容和讲话方式(delivery)。于是,理解和重复人类语音涉及分析和重复语音的内容,以及内容的表达方式。自然的语音识别系统使设备能够识别整个句子并解释它们。多数研究致力于从连续的人类语音译解文本,从而使说话者能够更自然的讲话(称为自动语音识别(ASR))。大词汇量ASR系统的工作原理在于每个口语单词可被分解成语言音素的声音表现。音素是语言中能够传递含义的不同的最小语音单元。英语包含构成整个口语的大约四十个独立的不同音素,例如辅音、元音和其它声音。最初,语音被滤除与音素不一致的游离声音(stray sound)、语调和音高,随后被转化成中性的单调音频流。单词识别涉及从过滤后的语音的声波中提取音素,随后创建代表单词实例的概率的音素的加权链,最后根据单词的加权链评估单词的正确解释的概率。在大词汇量语音识别中,对词表中的每个音素(有时称为HMM音素)训练隐式Markov模型(HMM)。在识别中,计算链中的每个HMM的似然性,按照最高的似然性对观测的链分类。在词汇量较小的语音识别中,可对词表中的每个单词训练HMM。
人类语音通信向听众传递不同于词典的信息,比如讲话者的情绪状态。通过推断包含在人类讲话方式中的声音和韵律信息,可从话音推定情感。从话音推断情感的技术利用情绪状态的依赖于讲话者的复杂模型,这些复杂模型使人想起为话音识别而创建的那些模型。最近, 提出了情感识别系统,其工作原理在于情感(或者讲话者的情绪状态)可被提取成构成讲话方式的子情感单元(即,讲话方式的特定音高、语调、节奏和振幅,或者它们的组合)的声学表现。目的是利用可被组合成代表讲话者的情绪状态的情感单元模型的这些预定子情感语音模式来识别语音的情感内容。但是,不同于把语音过滤成中性的单调音频流的文本识别,为了更准确地识别情感单元,语音的语调、音色并且在某种程度上,语音的性别不被改变。可对每个子情感单元训练隐式Markov模型,并且在识别期间,计算链中每个HMM的似然性,按照情感的最高似然性对观测链分类。
发明内容
本发明涉及在保持通信的情感内容的同时,跨越通信通道的通信。话音通信被接收并关于情感内容对其进行分析。从通信中提取话音模式,并与话音模式-情感释义(definition)进行比较。利用单词识别技术:通过从话音通信中提取话音模式,并比较这些话音模式与话音模式-文本释义,分析话音通信,概略地了解通信的文本内容。随后可关于情感内容分析从单词识别得到的文本内容。从单词识别得到的单词和短语与文本挖掘数据库中的单词和短语进行比较。这两种分析得到的情感随后被用作情感元数据,标记文本内容。
源语言的话音通信的文本和情感置标抽象(abstraction)被翻译成目标语言,随后被进行话音合成并相对于情感进行调整。通过利用目标语言的情感转化释义,情感元数据被转化成目标语言的情感元数据。通过利用文本翻译释义,文本被翻译成目标语言的文本。另外,转化的情感元数据被用于情感挖掘在目标语言的文化中具有情感内涵的单词。情感单词随后替换目标语言文本中的对应单词。翻译后的文本和情感单词被调制成合成话音。通过利用转化后的情感元数据,可相对于情感调整合成话音的讲话方式。通过相对于情感话音模式情感挖掘情感-话音模式字典,得到对合成的话音模式的修改,所述修改被用于更改调制话音的讲话方式。
文本和情感置标抽象可作为它们原始的话音通信的产物(artifact)被保存在内容管理系统中。随后可利用原始通信的语境的情感条件,搜索这些产物,而不是通过传统的文本搜索。在内容管理系统接收关于通信产物的查询,所述查询包含某一情感值和语境值。相对于语境对所有产物的记录分类(sort),随后相对于情感对匹配的记录分类。所得到的在语境约束内包含匹配的情感元数据的产物被传送给请求者以供检查。请求者识别一个或多个特定的产物,所述一个或多个特定的产物随后被内容管理器取回并被转发给请求者。请求者可把文本和情感元数据翻译成不同的语言,并合成音频消息,同时保持原始通信的情感内容,如同上面刚刚说明的那样。
根据本发明的一个方面,公开了一种保持话音通信的情感内容的方法,包括:接收话音通信;分析话音通信,获得表示该话音通信的第一情感内容;分析话音通信的文本内容,获得表示该话音通信的第二情感内容;利用第一情感内容和第二情感内容之一作为情感元数据标记该话音通信的文本内容,从而保持该话音通信的情感内容。
附图说明
结合附图,参考例证实施例的下述说明将更好地理解本发明,其中:
图1A是描述现有技术的识别人类语音的单词内容的一般过程的流程图;
图1B是描述现有技术的识别人类语音的情感内容的一般过程的流程图;
图2表示根据本发明的一个例证实施例,在保持通信的情感内容的时候,产生和处理通信流的情感通信体系结构的逻辑组件;
图3是根据本发明的一个例证实施例的情感置标组件的逻辑结构图;
图4表示例证的语境简表,所述语境简表包括指定讲话者的语言、方言、地理区域和个性属性的简表信息;
图5是根据本发明的一个例证实施例的情感转化组件的逻辑结构图;
图6是根据本发明的一个例证实施例的内容管理系统的逻辑结构图;
图7是描述根据本发明的一个例证实施例的识别通信中的文本和情感,并保持情感的方法的流程图;
图8A和8B是描述根据本发明的一个例证实施例的在保持情感的时候,转换通信的方法的流程图;
图9是描述根据本发明的一个例证实施例的在保持情感的时候,依据情感和语境搜索通信产物数据库的方法的流程图;
图10描述根据本发明的一个例证实施例的各种例证网络布局,以及具体体现产生、处理和保持通信的情感内容的情感处理体系结构的装置。
根据附图和下面的详细说明,本发明的其它特征将是明显的。
具体实施方式
本领域的技术人员会认识到,本发明可被具体化为一种方法、系统或计算机程序产品。因此,本发明可采取纯硬件实施例,纯软件实施例(包括固件、常驻软件、微代码等),或者组合这里一般都被称为“电路”或“模块”的软件和硬件的实施例的形式。此外,本发明可以采取计算机可用存储介质上的计算机程序产品的形式,所述计算机可用存储介质具有包含于其中的计算机可用程序代码。
可利用任何适当的计算机可读介质。计算机可用或计算机可读介质可以是(但不限于)电、磁、光、电磁、红外或半导体系统、设备、装置或传播介质。计算机可读介质的更具体例子(非穷尽列表)可包括:具有一条或多条导线的电连接,便携式计算机磁盘,硬盘,随机存取存储器(RAM),只读存储器(ROM),可擦可编程只读存储器(EPROM或闪速存储器),光纤,便携式光盘只读存储器(CD-ROM),光存储装置,传输介质,比如支持因特网或企业内部网的那些传输介质,或者磁存储装置。注意计算机可用或计算机可读介质甚至可以是纸张或者程序被打印于其上的另一适当介质,当借助例如纸张或其它介质的光学扫描可以电子方式获得程序,所述程序随后被编译、解释或者以适当的方式处理(如果需要的话),并且随后被保存在计算机存储器中时。在本文的上下文中,计算机可用或计算机可读介质可以是能够包含、 保存、传递、传播或者传送程序供指令执行系统、设备或装置使用或者与指令执行系统、设备或装置结合使用的任意介质。
此外,计算机可读介质可包括可由计算机服务器传送的载波或载波信号,所述计算机服务器可包括因特网、外联网、内联网、万维网、ftp地置或者可广播、单播或者以其它方式传递本发明的一个实施例的其它服务。本发明的各个实施例可被保存在一起,或者在空间或时间上分布在一个或多个设备间。
执行本发明的操作的计算机程序代码可用面向对象的编程语言编写,比如Java7、Smalltalk或C++。但是,执行本发明的操作的计算机程序代码也可用常规的过程编程语言编写,比如“C”编程语言。程序代码可完全在用户的计算机上运行,部分在用户的计算机上运行,作为独立的软件包,部分在用户的计算机上并且部分在远程计算机上,或者完全在远程计算机上运行。在后一情况下,远程计算机可通过局域网(LAN)或广域网(WAN)与用户的计算机连接,或者可对外部计算机实现连接(例如,利用因特网服务提供商经由因特网连接到外部计算机)。
适合于保存和/或执行程序代码的数据处理系统包括通过系统总线直接或者间接与存储元件耦接的至少一个处理器。存储元件可包括在程序代码的实际执行期间采用的本地存储器,大容量存储器,和提供至少一些程序代码的临时存储,以减少在执行期间,必须从大容量存储器取回代码的次数的高速缓冲存储器。
输入/输出或I/O装置(包括但不限于键盘、显示器、指示装置等)可直接与系统耦接,或者通过居间的I/O控制器与系统耦接。
网络适配器也可与系统耦接,从而使数据处理系统能够通过居间的专用或公用网络与其它数据处理系统或者远程打印机或存储装置耦接。调制解调器、线缆调制解调器和以太网卡只是目前可用的网络适配器类型的几个例子。
基本的人类情绪可被分成惊讶、平静(愉快)、赞同(满足)、英勇、骄傲、厌恶、愤怒、欲望(贪婪)和恐惧(不过其它情绪也是可识别的)。 通过分析讲话者的话音中的语音模式,包括语音的音高、语调、节奏和振幅特性,依据人类语音的情感内容可识别这些基本情绪。在与关于口头交流的特定语言、方言和/或地理区域的具体人类情感对应的通信中,一般的语音模式可被识别。情感语音模式通常和个人本身一样独特。个人往往会为他们的听众改进其语音模式,并借用准确地表达他们的情绪状态的情感语音模式。于是,如果已知讲话者的身份,那么听众能够使用讲话者的个人情感语音模式来更准确地分析她的情绪状态。
情感话音分析能够把显示愉快、放松或平静的语音模式和倾向于表示不愉快、紧张或兴奋的语音模式区分开。例如,就特定讲话者而论,愉快、放松或平静话音模式被识别成具有低-中等/平均音高;清晰、正常并且连续的语调;规则或周期的节奏;和低-中等的振幅。相反,在特定讲话者的话音模式中,可依据低-高音高(或者可变化的音高),低、高或者不断变化的语调,快速、缓慢或者不断变化的节奏和很低-很高的振幅识别不愉快、紧张和兴奋。但是从所有其它可能的语音情感中提取特定的语音情感是一项比把兴奋的语音和安静的语音模式区分开困难得多的任务。例如,平静、赞同和骄傲可能都具有类似的话音模式,仅仅利用话音模式分析不可能辨别出这三种情感。此外,辨认某些人类情感的程度对理解讲话者的情绪状态至关重要。讲话者是极度反感还是接近于愤怒?讲话者是极度高傲还是适度惊讶?讲话者在向听众表达满意还是欲望?
从人类语言中提取文本和情感信息的现有技术依赖于识别话音中的语音模式,以便确定文本和情感的话音分析。一般来说,事先创建两组独立的话音模式模型,以便关于其文本和情感内容分析特定讲话者的话音。第一组模型代表讲话者的特定单词的语音模式,第二组模型代表讲话者的情绪状态的语音模式。
就第一模型来说,上面在其它地方讨论的基本语言单位的初级概率模型的目录可被用于建立单词表象。通过关于45个音素模型和2个另外的音素模型(一个用于静默,另一个用于在滤波之后保留的残余 噪声),把模型链接在一起,可构成英语中的每个单词的一个模型。对照单词模型匹配各序列的特征观察的统计模型以便进行识别。
通过推断包含在人类讲话方式中的声音和韵律信息,可从话音推定情感。情感识别系统的工作原理在于情感(或者讲话者的情绪状态)可被提取成构成语音的子情感单元(即,讲话方式的特定音高、语调、节奏和振幅,或者它们的组合)的声学表现。通过创建多个代表讲话者的情绪状态的概率的子情感语音模式观察链,确定语音的情感内容。对每个子情感单元训练情感单元模型,并且在识别期间,计算链中每个子情感语音模式的似然性,按照情感的最高似然性对观测链分类。
图1A是描述现有技术的识别人类语音的单词内容的一般过程的流程图。图1B是描述现有技术的识别人类语音的情感内容的一般过程的流程图。识别语音中的单词的一般单词识别过程通过接收具有人类语音流的音频通信通道(步骤102)而开始。由于通信流可能包含不会包含语言音素的寄生噪声和话音模式,因此通信流被过滤,以滤除和语言音素不一致的游离声音,语调和音高(步骤104)。过滤通信流可从得到音素解答的概率低的分析中除去噪声,从而提高性能。随后通过以预定的采样率,例如每秒10000个样本对语音采样,单调的模拟流被数字化(步骤106)。在具有固定的帧长度(约20-30毫秒)的重叠帧中捕捉数字流内的特征,以便保证与音素关联的每个特征的起点和终点被包括在一帧中(步骤108)。随后,关于语言音素分析所述帧,提取所述语言音素(步骤110),并且所述语言音素被连接成表示文本单词的概率的多个音素链(步骤112)。对照讲话者的语言中的单词的音素模型,检查音素链寻找单词解答(word solution)(或者最好的单词解答)(步骤114),从具有最高分数的音素链中确定单词解答。可根据讲话者对单词的使用频率(或者依据其它的尺度,比如对于特定语言该单词的使用频率)对该单词的音素模型加权。通过对单词使用的训练或者手动输入,可完成音素加权过程。随后结束图1A的过程。
另外,也可形成表示在由一串单词解答构成的句子的上下文中潜在单词解答的概率的多个识别单词链(步骤114)。所述句子的上下文中 最可能的单词解答以文本的形式被返回(步骤116),随后结束图1A的过程。
如图1B中描述的从人类语音中提取情感的一般过程通过接收人类语音的通信流而开始(步骤122)。和单词识别不同,根据由范围广泛的音高、语调和振幅构成的人类话音模式评估语音的情感内容。为此,模拟语音在几乎不过滤的情况下被数字化,并且模拟语音不被转化成单调的音频(步骤124)。采样率稍高于单词识别的采样率,介于每秒12000和15000帧之间。在具有固定持续时间的重叠帧中捕捉数字流内的特征(步骤126)。在帧中识别子情感话音模式并提取所述子情感话音模式(步骤128)。子情感话音模式被组合在一起,从而形成表示情感单元的概率的多个链(步骤130)。对照相应情感的情感单元模型和单词解答输出,检查所述多个链,寻找情感解答(或者最配合的情感)(步骤132)。随后结束图1B的过程。
本发明的目的在于在保持情感的同时,通过话音和文本通道通信。图2是在保持通信的情感内容的时候,产生和处理通信流的情感通信体系结构的逻辑组件的例证实施例的图。情感通信体系结构200一般由两个子组件构成:情感转化组件250和情感置标组件210。情感通信体系结构200的分为两部分的组件均与一对包含双向情感释义的情感字典连接:情感-文本/短语字典220和情感-话音模式字典222。字典被填充以基于通信语境的释义。情感置标组件210接收包括情感内容的通信(例如具有语音情感的语音),识别语音中的单词,并把识别的单词抄录成文本。除了单词之外,情感置标组件210还关于情感对通信进行分析。情感置标组件210利用字典从通信推断情感。随后用情感元信息标记所得到的文本。具有情感置标的文本输出占用比话音少得多的空间,从而更易于搜索,并且保持初始通信的情感。
也可在情感置标组件210接收用户发出的选择命令,所述选择命令指定通信中的特定单词、短语、句子和段落供情感分析之用。这些命令还可指定哪种分析,文本模式分析(文本挖掘)或话音分析将被用于从通信的所选部分提取情感。
情感转化组件250接收通信,一般是具有情感置标元数据的文本,并解析情感内容。情感转化组件250把文本合成为自然语言,根据伴随文本的情感元数据,相对于情感调整讲话方式的语调、节奏和振幅。另一方面,在调制通信流之前,情感转化组件250可把文本和情感元数据翻译成听众的语言。
虽然在图2中情感通信体系结构200被描述成包含两个子组件,情感转化组件250和情感置标语言210,不过这些组件可被单独部署在不同的设备上。例如,由于其与语音识别系统的兼容性较差,从蜂窝电话机传来的话音通信效果差是众所周知的。在蜂窝电话机上部署情感置标组件210可改进语音识别效率,因为是在蜂窝电话机进行语音识别,而不是对从蜂窝电话机接收的话音进行语音识别。就处理情感转化组件250来说,家用娱乐系统一般为听力受损者加上文本字幕,但是没有情感提示。在家用娱乐系统中部署情感转化组件250会便于字幕包括字幕文本的情感线索,例如表示情感的图标,符号和标点字符。此外,情感转化组件250还可使未受损伤的观众把音频转化成情感转化组件250中的翻译字典所支持的任何语言,同时保持初始通信语言的情感。
情感通信体系结构200实质上可被包含在发送、接收或传送人类通信的任何装置中(例如,无线和有线电话机、计算机、手持式装置、记录和话音捕捉装置、音频娱乐组件(电视机、环绕声和收音机)等)。此外,通过利用公共的情感-短语字典和情感-话音模式字典,情感通信体系结构200的分为二部分的结构使得能够在保持情感内容的时候,跨越各种媒介(例如人类话音、合成话音、文本和带有情感暗示的文本)有效地提取和表达情感。
参见图3,根据本发明的一个例证实施例表示了情感置标组件210的结构。情感置标组件210的用途是有效并且准确地把人类通信转换成文本和情感元数据,而不管媒体类型,同时保持初始通信的情感内容。根据本发明的一个例证实施例,情感置标组件210对音频通信流进行两种情感分析,根据通信中的语音模式(语音的音高、语调、节奏 和振幅特性)译解情感内容的话音模式分析,和从语音通信中的文本模式得到情感内容的文本模式分析(文本挖掘)。
情感置标组件210产生的带有情感置标的文本数据可被存档在数据库中以便未来搜索或训练,或者被传送给包括情感转化组件250的其它装置,以便再现保持初始通信的情感的语音。可选的是,情感置标组件210还可用输出文本点缀其它类型的元数据,包括选择控制元数据,即当该部分被递送为语音时,情感转化组件250用于介绍恰当的频率和音高的选择控制元数据,以及字义数据。
情感置标组件210接收可用于产生带情感元数据的文本的三种独立类型的数据:通信语境信息、通信本身,以及可伴随某些媒体类型的情感标记或情感图标。语境信息被用于选择通信的最适当的语境简表(profile),所述语境简表被用于填充特定通信的情感字典。利用情感字典,从语音通信中提取情感。也可根据伴随文本通信的情感图标推断情感。
根据本发明的一个实施例,利用文本模式分析和话音分析从通信中推断出情感。情感-话音模式字典222包含用于从通信中的话音模式推断出情感的情感-话音模式释义,而情感-文本/短语字典220包含用于从通信中的文本模式推断出情感的情感-文本模式释义。字典释义可在多个讲话者间是类属的和抽象的,或者特定于特殊的讲话者,听众和通信环境。虽然这些释义可能和短语一样复杂,不过它们也可和标点符号一样不完整。由于情感-文本/短语字典220将被用于从话音通信中文本挖掘抄录的文本,以及直接从文本通信中文本挖掘文本通信,因此情感-文本/短语字典220包含关于可推断情感内容的单词、短语、标点符号和其它词典和语法的情感释义。
类属或默认的字典将提供用于推断通信中的情感的合意的主流结果。可关于特定的讲话者、听众和通信环境优化字典释义,并且在优化的情况下,字典释义能够获得高度准确的情感识别结果,但是主流结果明显不及。通过手动或者自动训练,类属字典可被优化,从而向最频繁使用的文本模式(单词和短语)和话音模式提供较高的权重,以及向文本和话音模式提供学习的情感内容。
讲话者根据听众和通信环境(即,讲话者和听众之间的通信场合或类型)改变他的文本模式和话音模式,以便在通信中表达情感。一般来说,同一人会选择不同的单词(和文本模式)及话音模式向不同的听众,和/或在不同的环境下表达同样的情感。例如,父亲会选择表达他对犯错的儿子的不满的特定单词,并改变其讲话方式的正常话音模式以增强他对该事件的愤怒。但是,对于工作场所的类似事件,同一讲话者通常会选择与在家庭环境所使用的不同的单词(和文本模式),并改变其话音模式,以表达他对工作场所中的同样事件的愤怒。
由于通信中用于表达情感的文本和话音模式依赖于通信的背境,因此通信的背境提供一种使字典中的最准确的情感释义相互关联,以便从包含在通信中的文本和话音模式推导情感的机制。通信的语境涉及讲话者、听众和通信的环境,于是,语境简表由讲话者和听众的身份,以及通信的环境定义,并且特定于讲话者和听众的身份以及通信的环境。用户的语境简表定义在特定语境中,对于用户来说类属字典和经过训练的字典之间的差异。本质上,语境简表提供根据语境参数提高字典的准确性的手段。
例如,讲话者简表规定讲话者的语言,方言和地理区域,还规定定义讲话者的通信的唯一性的个人属性(示于图4中)。通过应用讲话者简表,可对讲话者的语境优化字典。听众简表规定听众的种类,或者通信针对的是谁,例如熟人、亲属、商业伙伴等。听众简表甚至可包括听众的子类信息,例如,如果听众是熟人,那么该听众是不亲近的熟人还是朋友。讲话者的个性属性是学到的赋予讲话者个性的单词和短语的情感内容。这些属性也被用于修改讲话者用于向听众表达情感的单词和语音模式的字典释义,不过个性属性通常是学来的与他们一般接受的情感内容不一致或者甚至相反的单词和短语的情感内容。
应在情感置标组件210对任何接收的通信确定简表信息,以便为特定讲话者/用户和通信语境,即听众和通信环境选择和修改字典条目。在语境分析器230,通信的语境信息被手动输入情感置标组件210中。另一方面,语境分析器230可从通信的环境,或者通信媒体自动 推导通信的语境。语境分析器230关于讲话者和听众的身份以及通信环境分析直接与通信相关的信息,讲话者和听众的身份以及通信环境被用于从简表数据库212选择现有的简表。例如,如果情感置标组件210被包含在蜂窝电话机中,那么语境分析器230认为讲话者/用户的身份是电话机的所有者,并根据包含在保存于电话机中的地址簿中的信息和连接信息(例如电话号码、即时消息屏幕姓名或电子邮件地址)识别听众(或收听者)。随后再一次可根据从话音分析器232接收的信息,从简表数据库212选择语境简表。
如果直接语境信息并不易于供通信之用,那么语境分析器230最初选择类属或默认简表,随后试图利用在分析通信期间学来的和讲话者及听众有关的信息更新简表。根据通信中的话音模式可确定讲话者的身份。这种情况下,话音分析器232试图通过比较会话中的话音模式与已识别讲话者的话音模式,识别讲话者。如果话音分析器232根据话音模式识别出讲话者的话音,那么告知语境分析器230,语境分析器230随后从简表数据库212选择该讲话者的语境简表,并把其转发给话音分析器232和文本/短语分析器236。这里同样地,尽管分析器具有讲话者的简表,不过该简表并不完整,不提供完整的语境信息,因为对于通信来说,听众和环境信息未知。利用听众和环境信息可为讲话者识别一个更好的简表。如果讲话者不能被识别,那么利用默认的语境简表继续进行分析。本发明的一个优点在于所有的通信可以其原始形式并且和情感置标元数据一起存档于内容管理系统600(下面参考图6说明)。于是,当对于讲话者来知道了完整的语境简表时,讲话者的通信可用于第二遍的情感分析。如果训练显著改变讲话者的语境简表,那么在训练之后还可进行后续的多遍情感分析。
一旦通信的语境被确定,确定了通信语境的简表,并且选择了话音模式和文本/短语字典,那么在情感置标组件210接收的真实通信可被转换成文本,并与表示讲话者的情绪状态的情感元数据组合。情感置标组件210接收的通信媒体是话音或文本,但是文本通信还可包括表示情感的情感图标(情感图标一般指的是与文本组合,并且表示情感 的形象符号,例如笑脸或皱眉的脸),表示情感的标点符号,例如感叹号,或者由排版的标点字符产生的情感符号,比如“:-)”,“:-(”和“;-)”。
语音通信被供给话音分析器232,话音分析器232执行两种主要功能:它识别单词,并且它根据音频通信识别情感。利用任何已知的单词识别系统进行单词识别,比如通过匹配从音频流中提取的连接在一起的语言音素链和预先构成的音素单词模型(其结果被发送给抄录器234)。通过匹配从音频流提取的连接在一起的子情感语音模式链与预先构成的情感单元模型,可类似地进行情感识别(其结果被直接发送给置标引擎238)。另一方面,可以实现计算强度不太高的情感提取算法,该算法匹配音频流中的话音模式与情感的话音模式(而不是把子情感话音模式单元连接成串)。话音模式包括包含在讲话方式中的特定音高、语调、节奏和振幅,或者它们的组合。
通过利用任何公知的语音识别算法,包括隐式Markov建模(HMM),例如上面关于图1A说明的隐式Markov建模(HMM),在话音分析器232内进行单词识别。一般来说,模拟音频通信信号被滤除不能产生音素解答的寄生噪声,并且滤波后的信号以预定的采样率(对于西欧语言和它们的衍生语言,大约每秒8000-10000个样本)被数字化。随后,采用声学模型布局提取数字化信号的重叠帧(具有固定的帧长度)内与一组语言音素(对欧洲语言及它们的衍生语言识别的35-55个独特音素,不过对于更复杂的口语,可能存在多达数千个独特的音素)的已知模式相关联的特征。随后根据音素链与音素单词模型相关联的概率,把提取的音素连接成链。由于可不同于其字典词汇地说出某一单词,因此具有最高的匹配概率分数的音素单词模型代表该单词。通过对所有常见的发音变化纳入HMM模型,包括在子音素层面的一些话音分析和/或修改声学模型布局来反映发音的变化,在词汇和发出的语音之间可提高分数的可靠性。
可在通信中的相邻单词的上下文中核实具有高匹配概率的单词。按照和各串语言音素形成特定单词的音素模型的可能相配者相同的方式,根据单词相配者在特定句子模型的上下文中的概率,各串观测的 单词也可根据被一起连接成一个句子模型。如果单词释义在相邻单词的上下文中有意义,那么该匹配被核实。如果否,那么检查具有次高分数的单词。由于识别通信中的情感依赖于情感-短语字典220中的文本挖掘,并且由于抄录的文本可能翻译自源语言,因此就本发明来说,核实单词相配者特别有用。
多数单词只具有与对于该单词接受的一种主要释义相关联的一种发音和单一拼写。于是,通过检查单词(和单词含意)相配者在由通信中的其它识别单词构成的句子的上下文中的概率分数,可核实多数识别的单词。如果两个观测的音素模型具有类似的概率分数,那么依据它们在句子模型的上下文中的含意,可对它们进行进一步的分析。在句子的上下文中具有最高概率分数的单词被选作最可能的单词。
相反,一些单词具有一种以上的含意和/或一种以上的拼写。例如,同音异义词是发音相同(即,具有相同的音素模型),但是具有不同的拼写,并且每种拼写具有一种或多种独立含意的单词(例如,fore和four,或者to、too和two)。当把识别的同音异义词抄录成文本字符时,以及对于从它们的含意提取同音异义词可能传递的情感内容来说,这些不确定性特别成问题。通过利用句子模型中单词含意的上下文分析,对于该句子模型来说,所识别单词的一个同音异义词含意将比所有其它同音异义词含意得分更高,因为在句子的上下文中,只有一个同音异义词含意有意义。从具有最可能含意的同音异义词,即,具有最高分数的同音异义词获得单词拼写。同形异音异义词是发音相同,拼写相同并且具有两种或者更多的不同含意的单词。如果一种拼写具有一种以上的含意,那么同音异义词也可以是同形异音异义词。同形异音异义词不会对抄录造成任何特殊的问题,因为不存在任何拼写不确定性。但是,同形异音异义词会产生在尝试文本挖掘以便从同形异音异义词提取情感内容,或者把同形异音异义词翻译成另一种语言之前应解决的释义不确定性。这里同样地,可根据句子模型中同形异音异义词含意的概率分数,确定同形异音异义词的最可能的含意。一旦最可能的释义被确定,释义信息就可作为元信息被传送给抄录器 234供情感提取之用,以及传送给情感置标引擎238,作为含意元数据包含为情感置标元数据的一部分,含意元数据有益于把同形异音异义词翻译成其它语言。
抄录器234从话音分析器232接收单词解答和任何伴随的含意元数据,并把它们抄录成文本解答。利用来自话音分析器232的元数据(如果可用的话)解决同音异义词拼写。抄录的文本解答随后被发送给情感置标引擎238和文本/短语分析器236。
话音分析器232内的情感识别过程的工作原理多少使人联想起利用HMM,并且如上关于图1B描述的单词识别。但是,从子情感话音模式链产生子情感单元模型并不象产生用于概率比较的单词音素模型那样直接。就美国的英语口语,一些研究人员已识别了100种以上的子情感话音模式(情感单元)。在各种文化之间,甚至在使用共同语言的那些文化,比如加拿大和英国之间,子情感话音模式的构成和结构也变化极大。另外,由子情感话音模式链构成的情感模型有点不明确,尤其是当与它们的配对的音素单词模型相比时更是如此。于是,观测的子情感模型会导致最适当的情感单元模型的较低概率分数,或者更坏,它会导致统计上与不正确的情感单元模型的分数不能区别的分数。
根据例证实施例,由于将从音频流中探测较大数量的子情感话音模式(已识别了100种以上的子情感话音模式),因此在几乎不过滤模拟音频信号的情况下,在话音分析器232内进行情感识别过程。模拟信号以通常比单词识别更高的采样率(通常在12000样本/秒以上,一直到15000样本/秒)被数字化。在数字化信号的具有固定帧长度的重叠帧内进行特征提取,以容纳和子情感话音模式相关联的数字特征的不同起点和终点。根据观测的子情感话音模式链和特定情感的情感单元模型相关联的概率,提取的子情感话音模式被组合成子情感话音模式链,并根据正确匹配的概率分数求解情感。
另一方面,话音分析器232可采用需要较少计算容量的鲁棒性较低的情感提取过程。这可通过减少将通过情感分析来求解的离散情感的数量来实现。通过组合离散情感和类似的子情感话音模式模型,可 为每种情感构成话音模式模板,所述话音模式模板可被用于匹配在音频中观测到的话音模式。这和单词识别中,关于较小词汇量的模板匹配的意思相同。
话音分析器232还执行一组辅助功能,包括讲话者话音分析,听众和语境评估,以及单词含意分析。在一些情况下,讲话者的身份可能未知,通过利用默认的语境简表进行话音分析。在一种情况下,语境分析器230将传送包含在简表数据库212中的每个讲话者简表的讲话者话音模式信息。随后,话音分析器232同时为单词识别、情感识别和讲话者话音模式识别分析话音。如果通信中的语音和一种话音模式匹配,那么话音分析器232通知语境分析器230,语境分析器230随后发送该讲话者的更完整的语境简表。
实际上,话音分析器232可被实现成两个独立的分析器,一个用于关于语言音素分析通信流,另一个用于关于子情感话音模式分析通信流(未示出)。
在文本/短语分析器236从话音分析器232,或者直接从文本通信流接收文本通信。文本/短语分析器236通过文本挖掘情感-文本/短语字典220,根据包含在通信流中的文本模式推断情感。当在情感-文本/短语字典220中找到匹配的单词或短语时,该单词的情感释义提供对讲话者的情绪状态的推断。这种情感分析依赖于字典中明确的文本模式-情感释义。只有在情感-短语字典中被释义的单词和短语才能够产生通信的情感暗示。文本/短语分析器236独立地或者结合话音分析器232的话音分析推断情感。和其它字典条目相比,讲话者频繁使用的字典单词和短语被赋予较高的权重,指示讲话者打算通过选择这些词汇来表达特定情感的概率较高。
通过使用特定于语言的文本挖掘数据库,文本挖掘解决方案提高精度和速度,优于仅仅进行话音分析。在文本挖掘情感-文本/短语字典220被用于分析特定人的语音的情况下,可手动或者自动地进一步训练该字典,从而向用户最频繁使用的短语和学到的这些短语的情感内容提供更高的权重。该信息可被保存在用户的简表中。
如上所述,情感置标组件210利用两种独立的情感分析,话音模式分析(话音分析器232)和文本模式分析(文本/短语分析器236)从话音通信流得出情感。可为情感分析有选择地指定文本或话音通信,并且同样地可指定待执行的情感分析的类型。话音和文本/短语分析器232和236接收置标命令,以便有选择地调用情感分析器,以及情感置标引擎238。置标命令对应于为情感分析和后续的情感置标指定通信的一个片断的置标选择。根据一个例证实施例,为情感分析有选择地标记话音和/或音频通信的多个片断,而剩余部分并不关于其情感内容被分析。对通信进行情感分析的决定可由讲话者、听众或另一用户手动启动。例如,用户可以只选择通信的多个部分进行情感分析。另一方面,可在无人类干预的情况下自动标出通信中供情感分析之用的多个选择部分。例如,在通信的起点并且之后持续预定的时间为情感分析标记通信流,以便识别讲话者的情绪状态。在初始分析之后,根据用于优化效率和精度的时间算法为进一步的情感分析对通信进行标记。
置标选择命令可由讲话者中听众实时发出,或者可在之后对记录的语音进行所述选择。例如,听众可把传输中的口头通信转换成文本,以便包含在电子邮件、即时消息或其它文本通信中。但是,用情感标记文本会导致不可接受的长延迟。一种解决方案是只突出口头通信的代表讲话者的情绪状态的全部语调和音质的某些片断,或者另一方面,突出其中在口头讲话方式中,讲话者似乎异常激昂或者表现出强烈情感的片断。
根据本发明的另一例证实施例,由特定的情感分析器,即话音分析器232或文本/短语分析器236有选择地标记通信以便进行情感分析。情感分析器的选择可以情感分析器的效率、精度或可用性为基础,或者以其它一些参数为基础。这种组合中话音和文本的相对使用将依赖于多个因素,包括可用的机器资源(话音分析通常对机器资源的需求程度更高),语境的适合性等。例如,可能一种情感分析可更快地从通信流推导出情感,但是精度稍低,而另一种分析可从通信流得到更准确的情感暗示,但是较慢。从而,在一些情况下主要依赖于一种分析, 在其它情况下,另一种分析被依赖为主要的分析。另一方面,一种分析可用于推断情感,并在用情感标记文本之前,用另一种分析证明其合格。
通信置标也可以是自动的,并被用于根据预定参数有选择地调用话音分析或文本/短语分析。在情感置标组件210内由话音分析器232和文本/短语分析器236任意之一或者这两者从通信提取情感。文本/短语分析器236根据讲话者用于表达消息的单词和短语(或者在文本通信的情况下,可推断情感内容的标点符号及其它词汇和语法),关于讲话者的情绪状态文本挖掘情感-短语字典220。话音分析器232通过从口头通信中提取表现出情感的话音模式(它是表征情感的口头讲话方式的音高、语调、节奏和振幅),识别情感。由于这两种情感分析技术分析通信中的不同模式,即话音和文本,因此这两种技术可被用于求解不同的情感结果。例如,一种情感分析可被专用于分析讲话者的明显的情绪状态,而另一种情感分析可被专用于分析讲话者的微妙的情绪状态。在一些情况下,讲话者可能小心地选择单词来掩饰明显的情感。但是,讲话者口头讲话方式的音高、语调、节奏和振幅方面的无意识变化可示出微妙或者受抑制的情感内容。于是,在一些情况下,话音分析器232可从通信中的话音模式中识别出受讲话者选择的词汇抑制的情感。由于讲话者避免使用带感情的单词,因此文本/短语分析器236采用的文本挖掘在导出情感方面会无效。另一方面,讲话者可能试图控制他的情感话音模式。这种情况下,通过文本挖掘,文本/短语分析器236会比话音分析器232更准确地推断情感,因为话音模式受到抑制。
自动通信置标还可为具体通信识别最准确的一种情感分析,并使用该种情感分析而排除另一种情感分析。这里,两种情感分析器最初都被允许得到情感结果,并且相互对照地检查结果的一致性。一旦优先于一种情感分析选择了另一种情感分析,那么利用更准确的方法标记通信以便进行分析。但是,自动通信置标将利用未经选择的情感分析器为核实分析随便标记选择。自动通信置标还可识别通信的最有效 的情感分析器(最快并且具有最低的错误率),只利用该分析器标记通信以便进行分析,并按照类似的方式不断核实最佳效率。
如上所述,多数情感提取过程可识别九种或十种基本人类情感,并且可能识别每种情感的两种或三种程度或级别。但是,情感可被进一步分类到其它情绪状态,例如,爱、喜悦/平静/快乐、惊讶、英勇、骄傲、希望、赞同/满意、厌倦、期待、懊悔、悲哀、羡慕、妒忌/欲望/贪婪、厌恶/讨厌、悲伤、内疚、恐惧/忧虑、生气(反感/不悦/激怒-愤怒)和憎恨(不过其它情感类别也是可识别的)。此外,更复杂的情感可具有多于两种或三种的级别。例如,评论员提到五级,或者有时七级的生气;从反感和不悦到愤慨和愤怒。根据本发明的另一例证实施例,公开一种分级情感提取过程,其中一种情感分析器提取讲话者的大体情绪状态,另一种情感分析器确定所述大体情绪状态的具体级别。例如,首先选择文本/短语分析器236文本挖掘情感-短语字典220,以根据通信的词汇确定讲话者的大体情绪状态。一旦确定了大体的情绪状态,分级情感提取过程只选择某些语音片断供文本/短语分析器236分析。随后用识别的讲话者的大体情绪状态标记通信的片断供话音分析器232分析。
根据本发明的另一例证实施例,一种分析可被用于选择另一种分析的特殊变形。例如,文本分析(文本挖掘)的结果可被用作引导,或者用于微调话音分析。一般来说,许多模型被用于话音分析,为通信选择最适当的模型纯粹是猜测。但是,由于除了话音分析之外,本发明还对同一通信利用文本分析,因此文本分析可被用于选择适合于通信语境的模型子组。由于通信语境的变化,话音分析模型可在通信之间变化。
如上所述,人类往往会和通信的语境并且随着时间改进他们对情感单词和话音模式的选择。一种训练机制包括话音分析器232不断更新与情感单词和话音模式相关的使用频率分数。另外,可从讲话者使用的单词和短语推断出一些学到的情感内容。用户从话音分析器232检查更新的简表数据,接受、拒绝或者接受简表信息的选定部分。接 受的简表信息被用于更新讲话者的适当语境简表。另一方面,一些或者全部简表信息将被自动用于更新讲话者的语境简表,例如更新与预定的情感单词或话音模式相关的使用频率权重。
置标引擎238被配置成情感置标组件210的输出部分,并且具有用情感元数据标记文本的主要职责。置标引擎238从抄录器234接收文本流,或者直接从文本源,即从电子邮件、即时消息或者其它文本通信接收文本通信。置标引擎238还从文本/短语分析器236和话音分析器232接收情感暗示。这些推断可以采取标准化的情感元数据的形式,并且立即与文本组合。另一方面,情感暗示首先被变换成适合于与文本组合的标准化情感元数据。置标引擎238还从包含情感的某些类型的文本通信,比如电子邮件、即时消息等接收情感标记和情感图标。这些类型的情感暗示可被直接映射成对应的情感元数据,并与对应的文本通信流组合。置标引擎238还可接收并用情感元数据标记原始通信流(例如直接来自电话机、录音带或麦克风的原始话音或音频通信)。
置标引擎238还接收对应于置标选择的控制信号。控制信号启动置标引擎238,如果引擎正常地在OFF状态下工作,或者另一方面,控制信号禁用置标引擎238,如果引擎正常地在ON状态下工作。
带有置标元数据的文本从置标引擎238输出给情感转化组件250以便进一步处理,或者输出给内容管理系统600以便存档。从置标引擎238输出的带有情感元数据的任何原始通信也可作为情感产物被保存在内容管理系统600中供搜索之用。
参见图5,根据本发明的一个例证实施例表示了情感转化组件250的逻辑结构。情感转化组件250的用途是有效地把文本和情感置标元数据转化成例如话音通信,包括相对于情感准确地调整讲话方式的语调、上扬(camber)和频率。情感转化组件250把文本和情感元数据翻译成另一种方言或语言。情感转化组件250还可情感挖掘与翻译后的情感元数据一致的单词和文本模式,以便包含为翻译后的文本的一部分。情感转化组件250被配置成接受在情感置标组件210产生的情 感置标元数据,不过还可接受其它情感元数据,比如可能存在于电子邮件和即时消息中的情感图标、情感字符、情感符号等。
情感转化组件250由两个独立的体系结构组成:文本和情感转化体系结构272,及语音和情感合成体系结构270。文本和情感转化体系结构272把文本,比如从情感置标组件210接收的文本翻译成和初始通信不同的语言或方言。此外,文本和情感转化体系结构272利用情感-情感字典255中的一组情感-情感释义,把情感数据从在一种文化中表达的情感元数据转换成与另一种文化相关的情感元数据。可选的是,文化调整后的情感元数据随后被用于借助该种语言的文化所共有的情感单词和文本模式修改翻译后的文本。翻译后的文本和翻译后的情感元数据可直接用在诸如电子邮件和即时消息之类的文本通信中,或者另一方面,翻译后的情感元数据首先被转换成与媒体相一致的标点符号或情感图标。如果要求话音,那么翻译后的文本和翻译后的情感元数据被提供给语音和情感合成体系结构270,语音和情感合成体系结构270把文本调制成听得见的单词声音,并利用翻译后的情感元数据调整带有情感的讲话方式。
进一步就文本和情感转化体系结构272而论,带有情感元数据的文本由解析器52接收和分离。文本中的情感元数据被传送给情感转化器254,文本被转发给文本转化器252。用户选择文本-文本字典253内的文本-文本释义,以便把文本翻译成用户的语言。如果文本是英语并且用户是法国人,那么文本-文本释义把英语翻译成法语。文本-文本字典253可包含每种语言中的多种方言的全面的大量文本-文本释义。文本转化器252利用用户语言(可用还有方言)中的文本的输入文本,对内部文本-文本字典进行文本挖掘。类似于文本翻译,情感转化器254情感挖掘情感-情感字典255,以便匹配与所翻译语言的文化相一致的情感元数据。从所翻译语言的文化,即用户的文化的观点来看,转化后的情感元数据更准确地表示情感。
文本转化器252还被端接,以便从情感转化器254接收转化后的情感元数据。借助该情感信息,文本转化器252能够关于表达该情感 的单词和短语(不过针对的是听众的文化)文本挖掘情感-文本/短语字典220。实际上,文本转化器252实际情感挖掘与从情感转化器254接收的转化后的情感元数据相关的单词、短语、标点符号和其它词汇。
在情感转化体系结构272的情感转化器还可接收情感选择控制信号,用于有选择地转化情感元数据。在电子邮件或即时消息中,控制信号可以是醒目的,它向情感转化体系结构272指示关于文本的情感置标的存在。例如,消息的作者可以突出消息的一部分,或者标记响应的一部分,并使情感与之联系起来。当以语音的形式传送该部分时,该标记将被情感转化体系结构272用于引入适当的频率和音高。
可选的是,情感转化器254还可产生能够容易地与在文本转化器272产生的文本相结合的情感图标或其它情感字符。带有情感图标的文本易于适应于电子邮件和即时消息接发系统。
应重申的是,情感-文本/短语字典220包含按照基于通信的语境,提供给情感转化组件250的简表信息选择、修改和加权的双向情感-文本/短语释义(包括单词、短语、标点符号及其它词汇和语法)的字典。在讨论情感置标组件210的上下文中,简表信息与讲话者相关,更准确的说,简表信息与控制利用情感置标组件的设备的人相关。许多设备既利用情感转化组件250又利用情感置标组件210,情感转化组件250和情感置标组件210分别与情感-文本/短语字典220端接。于是,按照设备的所有者(或者控制该设备的人)的简表,选择、修改和加权双向情感-文本/短语释义。从而,当所有者是通信的讲话者(或者书面通信的作者)时,所述双向释义被用于从包含在通信中的单词和短语中文本挖掘情感。相反,当所有者是听众(或者通信的接收者)时,双向释义被用于根据伴随文本的情感元数据,文本挖掘表达讲话者的情绪状态的单词和短语。
就情感合成体系结构270来说,文本和情感置标元数据被用于合成人类语音。话音合成器258从文本转化器252接收输入文本或者已关于情感调整的文本。利用任何公知的算法,比如基于HMM的语音合成进行该合成。总之,合成的话音一般以具有常规频率和恒定振幅, 即不具有任何可识别的情感话音模式的单调音频的形式被输出。
合成的话音随后在话音情感调整器260被接收,话音情感调整器260调整话音的音高、语调和振幅,并根据它接收的情感信息改变讲话方式的频率或节奏。情感信息采取可从位于情感转化组件250外部的来源,比如电子邮件或者即时消息、搜索结果接收的情感元数据的形式,或者可改为是来自情感转化器254的转化后的情感元数据。话音情感调整器260从情感-话音模式字典222取回与情感元数据对应的话音模式。这里同样地,利用用户的语境简表选择情感-话音模式释义,但是这种情况下,用户独有的个性简表一般被忽略,并不用于进行情感调整。
在话音情感调整器260还接收情感选择控制信号,用于选择带有情感话音模式调整的合成话音。在电子邮件或即时消息中,控制信号可以是醒目的,这向话音情感调整器260指示关于文本的情感置标的存在。例如,消息的作者可以突出消息的一部分,或者标记响应的一部分,并使情感与之联系起来。当以语音的形式传送该部分时,该标记将被情感合成体系结构270用于使话音情感调整器260能够引入适当的频率和音高。
如上所述,一旦通信的情感内容已被分析,并且创建了情感元数据,那么通信就可被存档。通常,只有文本和伴随的情感元数据被存档为通信的语境和情感的产物,因为元数据保持了原始通信的情感。但是在一些情况下,原始音频通信也被存档,例如用于训练数据。音频通信也可包含具有对应的情感元数据的数据道(data track)。
参见图6,根据本发明的一个例证实施例说明内容管理系统。内容管理系统600可与任何网络连接,可与因特网连接,或者可以是独立的设备,比如本地PC、膝上型计算机等。内容管理系统600包括数据处理和通信组件,服务器602,和存储、存档数据库610。服务器620还包含带情感语境搜索引擎606,可选的是,可包括嵌入式情感通信体系结构604。嵌入式情感通信体系结构604不是进行带情感语境的搜索所必需的,但是可用于训练语境简表或者从客户机卸载处理。
文本和单词搜索极其普通,但是,有时重要的不是正在说内容,而是如何表达该内容,即重要的不是单词,而是如何表达这些单词。例如,如果管理人员想要在工作场所中的同事间的表现出平和情绪状态,或者满意感的通信的例子,那么管理人员将进行文本搜索。在搜索之前,管理人员必须识别在工作场所中使用的,表明平和感觉的具体单词,随后用这些单词搜索通信。单词“content”可被视为一个搜索项。虽然文本搜索可能返回一些准确的命中结果,例如其中讲话者宣布“I am content with...”的命中结果,不过这些结果会被其它不准确的命中结果(其中,单词“content”被用在提取中,用作隐喻,或者用在讨论满足情感的任何通信中)所掩盖。此外,由于单词“content”是同音异义字,因此文本搜索还会产生关于其其它含意的不准确命中结果。
相反,根据本发明的一个例证实施例,可根据通信语境和情感搜索通信数据库。搜索查询可由服务器602内的带情感文本搜索引擎606接收。所述查询至少指定一种情感。搜索引擎606随后搜索通信存档数据库610的情感元数据,寻找具有该情感的通信。随后返回结果608,结果608从对应于元数据的表现出该情感的通信中识别具有该情感,并且具有相关一段话的通信。结果608被转发给被转发给请求者以便进行最终选择或者改进。
仅仅只有带情感的通信的例子并不特别有用;相反,有用的是在特殊的语境中如何表达特定的情感,例如在股东年会上在公司高级职员与股东之间,在电话会议,或者销售会议,或者在客户在场的情况下,或者在讨论中在上级和下级之间,或者在审问中,在警察与嫌疑犯之间,或者甚至在美国国情咨文中在美国总统和美国国会之间。从而,查询还指定其中可表达特定情感的通信语境。
就前面的例子来说,如果管理人员想要了解如何在工作场所中的同事之间传达情感,比如平和或者满意,那么管理人员可向情感搜索引擎606发出关于语境的查询。该查询确定情感“满意”和通信的语境,讲话者和听众,例如同事之间的关系,并且还可指定语境媒体,比如语音邮件。搜索引擎606随后搜索存档于存档数据库610中的同事之 间的所有语音邮件通信,寻找平和或满意情感元数据。结果608随后被返回给管理人员,结果608包括证明所得到的电子邮件通信的平和情感内容的典型段落。管理人员随后可检查所述典型段落,并根据例子选择供下载的最适当语音邮件。另一方面,管理人员可改进搜索并继续进行。
根据上面所述可认识到,最理想的是,搜索引擎606搜索与通信相关的元数据,而不是搜索通信本身的文本或音频内容。此外,情感搜索结果608返回自带情感置标的文本,而不是返回自音频。
根据本发明的一个例证实施例,根据语境和情感搜索外语通信的数据库,同时所得到的通信被翻译成请求者的语言,用适合于指定情感并且与所翻译语言的文本相一致的替换单词进行修改,随后所得到的通信被调制为语音,其中关于与所翻译语言的文化相一致的指定情感调整语音模式。从而,一个国家的人可关于情感搜索另一国家中通信的存档记录,观察如何用他们自己的语言转化该情感。如前所述,基本的人类情感可超越文化障碍;于是对于语言来说,用于创建情感元数据的情感置标语言是透明的。从而,只有查询的语境部分需要被转化。对于这种情况,请求者从情感转化组件250发出一个查询,所述查询在带情感语境搜索引擎606被接收。该查询的需要被转化的任意部分被提供给嵌入式情感通信体系结构604的情感转化组件。搜索引擎608搜索与存档的通信相关的元数据,并获得一个结果。
由于搜索跨越语言障碍,因此在被请求者查看之前,结果被转化。可在用户操作的情感转化组件250本地进行所述转化,或者可由情感通信体系结构604进行所述转化,结果608以转化的形式被传送给请求者。总之,文本和情感都与请求者的语言相一致地被转化。这里同样地,请求者检查结果,并选择特定的通信。所得到的通信随后被翻译成请求者的语言,用适合于指定的情感,并且与所翻译语言的文本一致的替换单词修改。另外,请求者可选择收听该通信而不是查看它。所得到的通信被调制为自然语音,其中关于与所翻译语言的文本相一致的指定情感调整语音模式。
如上所述,情感提取过程以及带情感的转化过程的准确性取决于为用户创建和保持准确的语境简表信息。语境简表信息可在内容管理系统600创建或者至少在内容管理系统600训练,随后被用于更新位于用户可访问的各个设备和计算机上的简表数据库中的语境简表信息。利用内容管理系统600,可以后台任务的形式执行简表训练。这假定音频通信已和情感置标文本一起被存档。用户仅仅依据语境选择通信,随后指定该语境下的哪个通信应被用作训练数据。依照音频流如上所述地继续进行训练,同时话音分析器232不断依据使用频率对情感单词和话音模式评分。
图7是描述根据本发明的一个例证实施例的识别通信中的情感的方法的流程图。通过确定会话的语境,即讲话者和听众是谁,以及通信的环境怎样,开始该过程(步骤702)。语境信息的用途是识别用于填充一对情感字典的语境简表,一个情感字典用于情感文本分析,另一个情感字典用于情感话音分析。由于多数人为他们的听众和环境改变他们的词汇和语音模式,即讲话方式,因此了解语境信息便于高度准确地推断情感,因为可以只用该通信语境下最相关的释义填充所述字典。如果语境信息未知,那么有时可推断所述语境信息(步骤703)。例如,如果讲话者/用户利用PC或蜂窝电话机向朋友发送话音消息,那么讲话者的身份识别可被假定为设备的所有者,可根据用于发送消息的地址簿或索引识别听众。环境当然是话音通信。随后使用语境信息来选择用于分析消息的情感内容的最适当简表(步骤704)。预期每个设备具有大量可用于填充所述字典的全面的情感释义;用于填充文本挖掘字典的情感文本分析释义,和用于填充话音分析字典的情感话音分析释义(步骤706和708)。简表信息将指定讲话者信息,比如他的语言、方言和地理区域。可以只用和该信息相关的情感释义填充字典。在许多情况下,该信息足以获得可接受的情感结果。但是,简表信息还可指定听众信息,即,听众与讲话者的关系。随后用与听众相关的情感释义,即,明确与听众相关的情感文本和话音模式来填充字典。
借助字典,接收通信流(步骤710),并通过从数字化话音中的特 征提取单词进行话音识别(步骤712)。随后,进行检查以确定是否为情感分析选择了该部分的语音(实质上只是转化后的单词)(步骤714)。如果未选择该部分来进行情感分析,那么文本被输出(步骤728),检查通信是否结束(步骤730)。如果否,那么过程返回步骤710,接收更多的语音,并关于另外的文本识别话音(步骤712)。
返回步骤714,如果语音已被指定用于情感分析,那么进行检查,以确定是否应进行情感话音分析(步骤716)。如自始至终所述那样,本发明有选择地采用话音分析和文本模式分析从通信推断情感。在一些情况下,最好优先于一种分析调用另一种分析,或者同时调用这两种分析,或者都不调用。如果对通信的该部分不应使用情感话音分析,那么进行第二次检查,以确定是否应进行情感文本分析(步骤722)。如果对通信的该部分也不应使用情感文本分析,那么无情感置标地输出文本(步骤728),检查通信是否结束(步骤730),并重复返回步骤710。
如果在步骤716,确定应进行情感话音分析,那么对照情感-话音模式字典中的情感话音模式检查通信中的话音模式(步骤718)。如果对于通信中的话音模式识别了一种情感,那么用代表该情感的元数据标记该文本(步骤720)。元数据向用户提供对于从语音通信保持的情感的直观提示。这些提示可以是醒目的颜色,情感字符或符号,文本格式或者情感图标。类似地,如果在步骤722,确定应进行情感文本分析,那么分析通信中的文本模式。这伴随着关于出自通信的文本,文本挖掘情感-短语字典(步骤724)。如果发现匹配,那么再次用表示情感的元数据标记该文本(步骤726)。这种情况下,输出带情感置标的文本(步骤728),检查通信是否结束(步骤730),重复返回步骤710,直到通信结束为止。显然,在一些情况下,在情感话音分析和情感文本分析之间判优,而不是对文本重复情感置标是有益的。例如,如果一种分析首先得到结果,那么另一种分析可停止。另一方面,一种分析可提供一般的情感元数据,而另一种分析可提供更特定的情感元数据,即一种分析推断情感,另一种分析推断情感的强度级别。另外,一种分析可能在确定某些情感方面比另一种分析更准确,从而更准确的分析被 专门用于用情感标记该文本。
图8A和8B是根据本发明的一个例证实施例,说明在不同通信机制之间保持情感的方法的流程图。这种情况下,用户一般不是讲话者,而是听众或读者。该过程特别适合于用户正在接收来自另一用户的即时消息,或者用户已访问通信的文本产物的情况。为该通信语境中的听众选择最适合的语境简表(步骤802)。根据听众简表信息,情感文本分析释义填充文本挖掘字典,情感话音分析释义填充话音分析字典(步骤804和806)。随后进行检查,以确定是否要对文本和情感置标进行转化(步骤808)。如果否,那么接收带情感置标的文本(步骤812),并解析情感信息(步骤814)。随后进行检查,以确定文本是否被标记以便进行情感调整(步骤820)。这里,情感调整指的是对于该情感,准确地调整合成话音的语调、节奏和频率。如果不需要调整,那么进行最后的检查,以确定是否把文本合成为音频(步骤832)。如果否,那么连同情感置标一起输出文本(步骤836)。如果存在更多的文本,那么过程返回步骤820,在不对文本进行翻译的情况下完成该过程。相反,如果在步骤832,决定把文本合成为音频,那么文本被调制(步骤834),并以音频的形式输出(步骤836)。
返回步骤820,如果文本被标记以便进行情感调整,那么利用情感-情感字典中的文化情感-情感释义转化情感元数据(步骤822)。情感-情感释义并不改变元数据的格式,因为对于各种语言和文化来说是透明的,但是它确实会考虑到文化差异调整情感的等级。例如,如果在两种文化之间,情感的级别是不同的,那么情感-情感释义把情感的等级调整为与用户的文化相一致。总之,随后文本(情感)挖掘情感-单词/短语字典,寻找在用户的文化中表达该情感的单词(步骤824)。该步骤把表达该情感的单词添加到文本中。进行最后的检查,以确定是否把文本合成为音频(步骤826),如果是,那么文本被调制(步骤828),并考虑到情感调整合成话音的语调、节奏和频率(步骤830),并以带情感的音频的形式输出(步骤836)。
返回步骤808,如果文本和情感置标要被转化,那么用从文本和 置标的原始语言到用户语言的译文填充文本-文本字典(步骤810)。随后,接收带情感置标的文本(步骤813),并解析情感信息(步骤815)。利用文本-文本字典把文本从原始语言翻译成用户的语言(步骤818)。该过程随后继续检查文本是否被标记以便进行情感调整(步骤820),并利用情感-情感字典中的释义,把情感元数据转化成用户的文化(步骤822)。对情感-单词/短语字典进行情感挖掘,寻找表达与用户的文化相一致的情感单词(步骤824)。进行检查以确定是否把文本合成为音频(步骤826)。如果否,那么输出转化后的文本(连同转化后的情感)(步骤836)。否则,文本被调制(步骤828),通过改变合成话音的语调、节奏频率,考虑到情感调整调制的话音(步骤830)。带情感的合成话音被输出(步骤836)。从步骤813重复该过程,直到文本已被输出为音频为止,随后该过程结束。
图9是根据本发明的一个例证实施例,说明在保持情感的时候,依据情感和语境搜索话音产物数据库的方法的流程图。档案包含被保存为带情感置标的文本,并且在情感被保持为情感置标的情况下代表初始话音通信的话音和/或语音通信产物。该过程从对特定语境下的带情感的产物的查询开始(步骤902)。例如,请求者可能希望查看在演讲中带有“激动”情感的产物。响应该请求,搜索所有的产物,以寻找查询的语境(演讲)中的所请求情感元数据(激动)(步骤904)。识别搜索结果(步骤906),与“激动”元数据对应的产物的一部分在结果中被再现(步骤908),并被返回给请求者(步骤910)。用户随后选择产物(步骤912),对应的文本和置标被传送给请求者(步骤916)。另一方面,请求者返回改进的查询(步骤918),如上面刚刚讨论的那样搜索该查询。
应明白产物以带置标的文本的形式被保存在存档数据库中,不过创建自带情感的话音通信。情感被变换成情感置标,语音被变换成文本。这种保存通信的机制把情感保持为元数据。对于各种语言来说,情感元数据是透明的,允许外语文本的依据情感的简单搜索。此外,由于通信产物是带情感置标的文本,因此它们能够容易地翻译成另一种语言。此外,利用上面关于图8A和8B说明的过程,能够为任何搜 索结果和/或转化容易地产生带情感的合成话音。
本发明的讨论可被再分成三个一般实施例:在进行或不进行语言翻译的情况下,把带情感置标元数据的文本转换成话音通信(图2、5和8A-8B);在利用两种独立的情感分析技术保持话音通信的情感的时候,把话音通信转换成文本(图2、3和7);和依据情感和语境搜索通信产物数据库,并且取回结果,同时保持情感(图6和9)。虽然上面讨论了这些实施例中每个实施例的各个方面,不过这些实施例可被嵌入各种装置和设备中,以支持通信通道之间的保持通信的情感内容的各种通信。下面的讨论举例说明实现本发明的例证实施例。
图10说明各种例证的网络布局,所述网络布局具有包含用于产生、处理和保持通信的情感内容的情感处理体系结构的设备。应明白图中描述的网络布局只是用于举例说明本发明的各个方面。图10被再分成四个独立的网络布局:信息(IT)网络1010;PSTN网络(陆线电话)1042;无线/蜂窝网络1050和媒体分发网络1060。每个网络可被看作支持一种特殊类型的内容,但是实际上每个网络支持多种内容类型。例如,虽然IT网络1010被视为数据网络,不过数据的内容可以采取信息通信,话音和音频通信(语音电子邮件、VoIP电话、电话会议和音乐),多媒体娱乐(电影、电视和有线节目及视频会议)的形式。类似地,无线/蜂窝网络1050被视为语音通信网络(电话、语音电子邮件和电话会议);它还可用于其它音频内容,比如接收点播音乐或者商业音频节目。另外,无线/蜂窝网络1050支持连接数据处理设备和多媒体娱乐(电影、电视和有线节目以及视频会议)的数据通信。对于PSTN网络1042和媒体分发网络1060可进行类似的类推。
就本发明来说,情感通信体系结构200可被嵌入与这些网络连接的某些设备或装置上,或者设备可独立地包含情感置标组件210或情感转化组件250。情感通信体系结构200、情感置标组件210和情感转化组件250内的逻辑元件分别在图2、3和5中描述,而在情感置标组件210和情感转化组件250中实现的方法分别在图7、图8A和8B中例示的流程图中说明。
就IT网络1010来说,网络布局包含局域网(LAN)和广域网(WAN),比如因特网。LAN布局可由边界路由器,服务器1022和与服务器1022连接的本地设备(PDA 1020、PC 1012和1016、以及膝上型计算机1018)限定。WAN布局可被定义成在WAN 1028上连接的网络和设备(包括服务器1022,PDA 1020,PC 1012和1016以及膝上型计算机1028的LAN,和服务器1032,膝上型计算机1026)。预期这些设备中的一些或者全部可配置有内部或外部音频输入/输出组件(麦克风和扬声器),例如,PC 1012被表示成具有外部麦克风1014和外部扬声器1013。
网络设备还可配置有本地或远程情感处理能力。回想起情感通信体系结构200包含情感置标组件210和情感转化组件250。另外回想起情感置标组件210接收包括情感内容的通信(例如带语音情感的人类语音),识别语音中的单词和情感,输出带情感置标的文本,从而初始通信中的情感被保持。另一方面,情感转化组件250接收一般包括带情感置标元数据的文本的通信,修改并把文本合成为自然语言,并根据伴随文本的情感元数据,相对于情感调整讲话方式的语调、节奏和振幅。通过例子将更清楚地理解这些网络设备如何处理和保持通信的情感内容。
根据本发明的一个例证实施例,在进行或不进行语言翻译的情况下,带情感置标元数据的文本被转换成话音通信。下面将关于即时消息接发(IM)说明本发明的这方面。PC、膝上型计算机、PDA、蜂窝电话机、电话机或者其它网络设备的用户利用PC 1012或1016之一,膝上型计算机1018、1026、1047中1067之一,PDA 1020或1058之一,蜂窝电话机1056或1059之一,或者甚至利用电话机1046、1048或1049之一,产生包括情感暗示的文本消息。情感暗示可包括情感图标,重点强调,标点符号或者表现出情感的一些其它强调。根据本发明的一个例证实施例,产生消息的设备可配置也可不配置标记文本的情感置标组件210。总之,带情感置标的文本消息被传送给包括独立的情感转化组件250,或者在情感通信体系结构200中的情感转化组 件250的设备,例如膝上型计算机1026。情感置标应是标准的格式,或者包含可被情感转化组件250识别成情感内容的标准置标元数据。如果情感置标不可识别,那么通过利用发送者的简表信息(参见图4),文本和非标准情感置标可被包括情感置标组件210的任何设备处理成标准化的情感置标元数据。
一旦在情感转化组件250收到文本和情感置标元数据,那么接收者可在两种内容传递模式,例如文本或语音之间选择。文本消息的接收者还可指定内容传递的语言。语言选择被用于用适当的文本释义填充文本-文本字典253,以便把文本翻译成选择的语言。语言选择还被用于用适当的情感释义填充情感-情感字典255,以便把情感转化成所选语言的文化,以及用适当的话音模式释义填充情感-话音模式字典222,以便相对于情感调整合成的音频话音。语言选择还规定哪些单词和短语释义适合于填充情感-短语字典220,用于情感挖掘为所选语言的文化所特有的带情感的单词。
可选的是,除了选择语言之外,接收者还可选择内容传递的方言,以便把文本和情感内容翻译成语言的特定方言。这种情况下,文本-文本字典253、情感-情感字典255、情感-话音模式字典222和情感-短语字典220都根据需要相对于方言被修改。如果需要的话,接收者还可选择地理区域,以便改变与特定地理区域相一致的内容传递。另外,接收者可能还希望内容传递与他自己的通信个性相符合。这种情况下,还用来自接收者的简表的个性属性修改每个文本-文本字典,情感-情感字典,情感-话音模式字典和情感-短语字典中的释义。这样做时,本发明将把文本和标准化的情感置标转换成与接收者所使用的相一致的文本(语音),同时保持并转换与接收者所使用的相一致的情感内容,以表达他的情绪状态。在字典释义被更新的情况下,消息随后可被处理。
情感转化组件250可产生文本消息或音频消息。假定接受者想把到来的消息转换成文本消息(同时保持情感内容),那么情感转化组件250接收文本以及情感元数据置标,情感转化器254把从消息中的情 感置标得到的情感内容转换成与所选语言的文化相一致的情感暗示。情感转化器254使用适当的情感-情感字典来得出这些情感暗示,并产生转化后的情感置标。转化后的情感被传给文本转化器252。文本转化器252利用文本-文本字典253中的适当释义,把文本从到来的消息翻译成选择的语言(可选的是,考虑到方言、地理区域和个性翻译消息)。情感元数据可帮助从情感-短语字典220中选择目标语言中的正确单词、单词短语、词汇和/或语法,从而用目标语言表达情感。这是通过在情感置标组件210中利用情感-短语字典220,使用文本分析来得出情感信息的反转,因此双向字典是有用的。首先,把文本从源语言翻译成目标语言,例如从英语翻译成法语。随后,如果存在与英语文本相关的情感,比如悲伤,那么在最终输出的翻译文本中将使用适当的法语单词。另外注意,出自情感-短语字典220的情感替代物可以仅仅是语法方面的变化,例如标点符号或者是词汇的复杂修改,比如插入或者替换目标语言的翻译文本的一个短语。
返回图3,通过利用来自情感转化器254的情感信息,文本转化器252情感挖掘情感-短语字典220,寻找表达通信情感的情感单词。如果情感挖掘成功,那么文本转换器252把对应单词的情感单词、短语或标点符号包括在文本中,因为情感单词和接收者的文化一致地更准确表达消息中的情感。在一些情况下,翻译文本将代替通过情感挖掘得到的情感单词。翻译的消息文本内容,以及该文化的情感单词随后可一起提供给接收者,同时相对于所述文化,从消息的情感内容转化情感置标。
另一方面,如果接收者希望以音频消息的形式传递消息(同时保持情感内容),那么情感转化组件250如上所述处理带情感置标的文本,但是把带有替换的情感单词的翻译文本传给话音合成器258,话音合成器258把文本调制成可听的声音。一般来说,话音合成器使用预定的声学和韵律信息,所述预定的声学和韵律信息产生具有单调音频表现的调制音频,所述单调音频表现具有预定的音高和恒定的振幅,以及规则且重复的节奏。利用来自情感转化器254的情感置标,可修 改所述预定的声学和韵律信息,以便相对于情感调整话音。话音情感调整器260从情感转化器254接收调制的话音和情感置标,并利用情感-话音模式字典222中的释义相对于情感修改调制话音中的话音模式。随后可为接收者播放转化的消息音频内容以及该文化的情感单词,同时相对于所述文件,从消息的情感内容转化情感话音模式。
在接收者不可以使用可视显示装置或者不能把他的注意力集中于消息的可视记录的情况下,从文本消息生成音频消息(包括翻译)特别有用。此外,接收者的设备不必配备情感通信体系结构200或者情感转化组件250。取而代之的是,位于发送者和接收者之间的服务器可处理文本消息,同时保持内容。例如,如果接收者正在使用不带视频显示器的标准电话机,那么靠近电话机1046、1048和1049之一的接收者之间的位于PSTN C.O.的服务器,例如服务器1042可提供通信处理,同时保持情感。最后,尽管关于即时消息说明了上面的例子,不过另一方面,消息可以是包括情感暗示、情感图标等的电子邮件或者其它类型的文本消息。
根据本发明的另一例证实施例,通过利用两种独立的情感分析技术,与情感同时地从话音通信得到文本,利用文本的情感置标元数据保持话音通信的情感。如上简要所述,如果通信不是采取包括文本和标准化的情感置标元数据的形式,那么在情感转化组件250能够处理该通信之前,通信由情感置标组件210转换。情感置标组件210实际上可被集成在配有接收音频通信流的麦克风的任何装置或设备中,包括PC 1012或1016,膝上型计算机1018、1026、1047或1067,PDA1020或1058,蜂窝电话机1056或1059,或者电话机1046、1048或1049任意之一。另外,尽管服务器一般不会通过麦克风首先接收人音频通信,不过它们会接收电子形式的音频通信。于是,情感置标组件210也可被集成到服务器1022、1032、1042、1052和1062中,不过实用的是,既包括情感置标组件210又包括情感转化组件250的情感通信体系结构200将被集成在多数服务器上。
最初,在话音通信可被处理之前,用基于通信中的特定话音的品 质的释义填充情感置标组件210内的情感-话音模式字典222和情感-短语字典220。由于话音和其演说者一样独特,因此相对于该演说者修改用于分析通信的文本内容和情感内容的释义。特别有益于实现这些修改的一种机制是把任何潜在讲话者的简表保存在简表数据库中。简表包括相对于通信的特定听众和环境,与每个讲话者相关联的字典释义和修改。所述释义和修改被用于更新在通信的环境中,单个讲话者的特定特性的默认字典。从而,情感-话音模式字典222和情感-短语字典220只需要包含潜在讲话者的特定语言的默认释义。
在用关于讲话者、听众和通信环境的适当释义填充情感-话音模式字典222和情感-短语字典220的情况下,能够继续进行在保持情感的同时,把话音通信转换成带情感置标的文本的任务。为了说明本发明,情感通信体系结构200被嵌入PC 1012内。用户对着PC 1012的麦克风1014说话,情感通信体系结构200的情感置标组件210接收话音通信(人类语音),它包括情感内容(语音情感)。音频通信流在话音分析器232被接收,话音分析器232执行两种独立的功能:它关于单词分析语音模式(语音识别);还关于情感分析语音模式(情感识别),即,它从音频通信中识别单词并且识别情感。通过利用任何自动语音识别(ASR)技术,例如利用隐式Markov模型(HMM),从话音通信得到单词。当在通信中识别出了单词时,单词被传给抄录器234和情感标记引擎238。抄录器234把单词转换成文本,随后把文本实例发送给文本/短语分析器236。情感置标引擎238缓存该文本,直到它收到与文本对应的情感为止,随后用情感元数据标记该文本。
通过对音频通信流进行两种情感分析,从话音通信得出情感。话音分析器232进行话音模式分析,以便从话音模式(语音的音高、语调、节奏和振幅特性)译解情感内容。几乎同时地,文本/短语分析器236对从抄录器234接收的抄录文本进行文本模式分析(文本挖掘),以便从语音通信的文本内容得出情感内容。就话音模式分析而论,话音分析器232比较话音通信的音高、语调、节奏和振幅话音模式与保存在情感-话音模式字典222中的话音模式。可利用任何话音模式分析技术 继续该分析,当从话音模式中识别出情感匹配时,情感暗示被传给情感置标引擎238。就文本模式分析而论,文本/短语分析器236用从抄录器234接收的文本对情感-短语字典220进行文本挖掘。当从文本模式中识别出情感匹配时,情感暗示也被传给情感置标引擎238。情感置标引擎用来自话音分析器232和文本/短语分析器236之一或者这两者的情感暗示标记从抄录器234接收的文本。
根据本发明的另一例证实施例,话音通信产物被存档成带情感置标元数据的文本,并利用情感和语境进行搜索。搜索结果被取回,同时保持初始话音通信的情感内容。一旦通信的情感内容已被分析,并且产生了情感元数据,文本流就可被直接发送给另一设备以便调制成音频通信和/或转化,或者通信可被存档以供搜索。通常,只有文本和伴随的情感元数据被存档成通信的语境和情感的产物,不过话音通信也可被存档。注意在图10中,每个服务器1022、1032、1042、1052和1062分别与存储数据库1024、1034、1044、1054和164连接。每个服务器还可具有如上关于图6说明的嵌入式带情感语境搜索引擎,从而每个服务器执行内容管理功能。通过搜索特定通信中的情感,任意数据库1024、1034、1044、1054和1064中的话音通信产物可被取回,随后被翻译成另一种语言,而不会丢失原始话音通信的情感。
例如,如果PC 1012的用户想要回顾报告中报告者表现出担心或忧虑的外语新报告的例子,那么用户进行访问。用户利用新报告的语境下的情感项担心和/或忧虑向内容管理系统,比如说服务器1022提交搜索请求。嵌入服务器1022中的带情感语境搜索引擎识别数据库1014中的所有新报告产物,并关于担心或忧虑置标搜索与这些报告相关联的情感元数据。搜索结果被返回给PC 1012的用户,并识别带有该情感的通信。出自新报告的与担心置标元数据对应的相关段落被突出显示以供检查。用户从结果中选择一个新报告,所述新报告是具有担心或忧虑情感的新报告的典型代表,服务器1022的内容管理系统取回该新报告产物,并将其传送给PC 1012。显然内容管理系统发送带情感置标的文本,PC 1012的用户能够检查所述文本和置标,或者在 进行转化或不进行转化的情况下,借助情感调整把其合成为话音。本例中,由于用户在搜索外语报告,因此翻译是预期的。此外,用户可以仅仅以文本形式检查翻译后的搜索结果,而不必话音合成许可证,或者在选择某一报告之前可选择听取所有的结果。
通过利用如上刚刚说明的本发明,用户可接收话音通信的抽象,转化抽象的文本和情感内容,并在情感与用户的文化相符合的情况下用用户的语言听取通信。在一个例子中,讲话者为说不同语言的接收者产生一个音频消息。该语音通信在具有集成的情感通信体系结构200的PC 1012被接收。通过利用适合于讲话者的字典释义,该话音通信被转换成利用情感置标元数据保持语音的情感的文本,并被传送给接收者。带情感置标的文本在接收者的设备,例如具有集成的情感通信体系结构200的膝上型计算机1026被接收。通过利用适合于接收者的语言和文化的字典释义,文本和情感被转化,与接收者的文化相一致的情感单词被包括在该文本中。文本随后被话音合成,并考虑到情感对合成的讲话方式进行调整。当然,PC 1012的用户可指定用利用情感元数据合成的话音调整文本的哪些部分。
另一方面,讲话者的设备和/或接收者的设备可以不配备情感通信体系结构200,或者情感置标组件210或情感转化组件250任意之一。这种情况下,利用具有嵌入的情感通信体系结构的服务器远程处理通信流。例如,原始语音通信流可由不具有从话音提取文本和情感的固有能力的电话机1046、1048或1049传送。话音通信随后由具有单板情感通信体系结构200或者至少具有情感标记组件210的网络服务器,比如位于PSTN C.O.的服务器1042处理(在服务器1022,来自PC 1016的话音可被转换成带情感置标的文本)。在任意一种情况下,带情感置标的文本被转发给膝上型计算机1026。相反,在膝上型计算机1026产生的带情感置标的文本可在服务器处理。这里,文本和情感被转化,与接收者的文化相一致的情感单词被包括在文本中。文本随后可被调制成话音,并关于情感调整合成的话音。情感调整后的合成话音随后以音频消息的形式被发送给电话机1046、1048或1049或者 PC 1016任意之一,因为这些设备不具有单板文本/情感变换和转化能力。
另外应明白情感置标组件210可用于把不标准的情感置标和情感图标转换成可由情感转化组件识别的标准化的情感置标元数据。例如,文本消息、电子邮件或即时消息在具有嵌入的情感置标组件210的设备,比如PDA 1020被接收(另一方面,也可在该设备产生消息)。通信是文本的,从而没有话音可供处理,但是通信包含不标准的情感图标。情感置标组件210中的文本/短语分析器识别这些文本字符,并关于如上所述传给置标引擎的情感对这些文本字符进行文本挖掘。
在不同通信通道之间,例如蜂窝电话话音通信和PC文本通信之间,或者PC电子邮件通信和电话语音邮件通信之间的跨平台通信中,上面刚刚说明的本发明的各个方面特别有用。此外,由于每个通信被转换成文本,并且把原始话音通信的情感保持为情感置标元数据,因此原始通信可被有效地翻译成任何其它语言,同时相对于该语言的文化,准确地表现情感。
根据另一例证实施例,一些设备可配有情感置标组件210或情感转化组件250任意之一,但是不配备情感通信体系结构200例如,因其质量较差,蜂窝电话话音传输是声名狼藉的,这导致差的文本识别(可能导致不太准确的情感识别)。于是,蜂窝电话机1056和1059配有情感置标组件210以便本地处理话音通信,同时依赖于位于蜂窝C.O.的服务器1052利用其嵌入的情感通信体系结构200处理到来的带情感置标的文本。从而,输出的话音通信被有效处理,而蜂窝电话机1056和1059并不负担本地支持情感转化组件的职责。
类似地,监视器1066、1068和1069并不具有通过空中和电缆传送话音通信的能力,于是,不需要情感置标能力。它们对听力受损者使用文本字幕,但是没有情感提示。于是,使位于媒体分发中心的服务器1062配备用情感标记文本的能力会有助于监视器1066、1068和1069的听力受损者欣赏接收的媒体。另外,通过在监视器1066、1068和1069(或者在机顶盒中)嵌入情感转化组件250,外语媒体可被翻译 成本国语言,同时利用来自服务器1062的转换后的带情感置标的文本,保持原始通信的情感。媒体网络1060,例如膝上型计算机1067的用户也将能够依据情感搜索数据库1064,寻找娱乐媒体,并基于该搜索定购内容。例如,通过搜索戏剧或喜剧台词或者电影独白。
附图中的流程图和方框图图解说明根据本发明的各个实施例的系统、方法和计算机程序产品的可能实现的体系结构、功能性和操作。在这点上,流程图或方框图中的每个方框可代表代码的一个模块,一个片断或者一部分,所述代码包含用于实现指定的逻辑功能的一个或多个可执行指令。另外应注意的是在一些备选实现中,方框中提及的功能可不按照附图中指出的顺序发生。例如,接连表示的两个方框事实上可基本同时地被执行,或者有时可按照相反的顺序执行方框,取决于所涉及的功能性。另外注意方框图和/或流程图的每个方框,以及方框图和/或流程图中的方框的组合可由执行指定功能或动作的基于专用硬件的系统,或者专用硬件和计算机指令的组合来实现。
这里使用的术语只是用于说明特定的实施例,并不是对本发明的限制。这里使用的单数术语“一个”还意图包括复数形式,除非上下文另有明确说明。另外要明白当在本说明书中使用时,术语“包含”指定所陈述的特征、整数、步骤、操作、元件和/组件的存在,但是并不排除一个或多个其它特征、整数、步骤、操作、元件、组件和/或它们的群体的存在或增加。
Claims (44)
1.一种保持话音通信的情感内容的方法,包括:
接收话音通信;
针对文本内容分析话音通信;
分析话音通信,获得表示该话音通信的第一情感内容;
分析话音通信的文本内容,获得表示该话音通信的第二情感内容;
识别第一情感内容和第二情感内容之一;以及
利用识别的第一情感内容和第二情感内容之一作为情感元数据标记该话音通信的文本内容,从而保持该话音通信的情感内容。
2.按照权利要求1所述的方法,其中分析话音通信的文本内容,获得表示该话音通信的第二情感内容还包括:
获得文本内容的至少一个单词;
访问多个文本-情感释义;和
比较出自文本内容的所述至少一个单词与所述多个文本-情感释义。
3.按照权利要求2所述的方法,还包括:
获得文本内容的单词短语、标点符号、词汇和语法之一;
访问多个文本-情感释义;和
比较所述单词短语、标点符号、词汇和语法之一与所述多个文本-情感释义。
4.按照权利要求1所述的方法,其中分析话音通信,获得表示该话音通信的第一情感内容还包括:
评估第二情感内容;和
根据第二情感内容的评估选择话音分析模型。
5.按照权利要求1所述的方法,其中识别第一情感内容和第二情感内容之一包括:
比较第一情感内容和第二情感内容;和
根据第一情感内容和第二情感内容的比较,来识别第一情感内容和第二情感内容之一。
6.按照权利要求1所述的方法,其中识别第一情感内容和第二情感内容之一还包括:
根据话音通信的分析的属性,对话音通信的分析分级;
根据文本内容的分析的属性,对文本内容的分析分级;
根据话音通信的分析的分级和文本内容的分析的分级,来识别第一情感内容和第二情感内容之一。
7.按照权利要求6所述的方法,其中话音通信的分析的属性和文本内容的分析的属性是相应分析的准确性和工作效率之一。
8.按照权利要求2所述的方法,还包括:
根据话音通信的语言、话音通信的方言和话音通信的讲话者,选择多个话音模式-情感释义;和
根据话音通信的语言、话音通信的方言和话音通信的讲话者,选择多个文本-情感释义。
9.按照权利要求8所述的方法,其中话音模式-情感释义包含关于音高、语调、节奏和振幅之一的话音模式。
10.按照权利要求2所述的方法,还包括:
根据话音通信的讲话者、话音通信的讲话者的听众和话音通信的环境,选择多个文本-情感释义;和
根据话音通信的讲话者、话音通信的讲话者的听众和话音通信的环境,选择多个话音模式-情感释义。
11.按照权利要求1所述的方法,其中针对文本内容分析话音通信还包括:
从话音通信提取话音模式;
访问多个话音模式-文本释义;和
比较提取的话音模式与多个话音模式-文本释义;并且
分析话音通信的文本内容,获得表示该话音通信的第二情感内容还包括:
获得文本内容的至少一个单词;
访问多个文本-情感释义;和
比较出自文本内容的所述至少一个单词与所述多个文本-情感释义。
12.一种保持话音通信的情感内容的方法,包括:
接收第一语言通信,所述第一语言通信包含用情感元数据标记的文本,其中用情感元数据标记文本是采用权利要求1-11之一的方法标记的;
把情感元数据转化成第二语言情感元数据;
把文本翻译成第二语言文本;
针对第二语言情感信息分析第二语言情感元数据;和
把第一语言通信中的第二语言情感信息与第二语言文本相结合。
13.按照权利要求12所述的方法,其中第二语言情感信息是文本、短语、标点符号、词汇或语法之一。
14.按照权利要求13所述的方法,还包括:
话音合成第二语言文本和第二语言情感文本;和
利用第二语言情感元数据调整合成的话音。
15.按照权利要求13所述的方法,其中针对第二语言情感信息分析第二语言情感元数据还包括:
接收至少一个第二语言情感元数据;
访问多个话音情感-文本模式释义,所述多个话音情感-文本模式释义基于第二语言;
比较所述至少一个第二语言情感元数据与所述多个话音情感-文本模式释义。
16.按照权利要求14所述的方法,还包括:
基于第二语言选择所述多个话音情感-文本模式释义。
17.按照权利要求15所述的方法,其中利用第二语言情感元数据调整合成的话音还包括:
接收至少一个第二语言情感元数据;
访问多个情感-话音模式释义,其中话音模式包含音高、语调、节奏和振幅之一;
匹配所述至少一个第二语言情感元数据与所述多个情感-话音模式释义之一,所述多个情感-话音模式释义基于第二语言;和
利用与匹配的情感-话音模式释义对应的话音模式,改变合成的话音的合成话音模式。
18.一种查询通信产物记录的方法,包括:
从请求者接收对通信产物的查询,所述产物把话音通信表现成带置标情感元数据的文本内容;
从查询解析语境值;
从查询解析情感值;
根据语境值对多个通信产物记录分类;
依据语境值识别至少一个通信产物记录,其中所述至少一个通信产物记录为包含情感元数据标记的话音通信的文本内容,该情感元数据是采用权利要求1-11之一的方法标记的;
依据情感值对至少一个识别的通信产物分类;
识别至少一个结果通信产物;和
把识别的至少一个结果通信产物转发给请求者。
19.按照权利要求18所述的方法,其中语境值与通信的语境相关联。
20.按照权利要求18所述的方法,其中情感值与产物的情感元数据相关联。
21.按照权利要求18所述的方法,还包括:
用与查询的情感值相一致的情感元数据标记识别的至少一个结果通信产物的一部分。
22.按照权利要求18所述的方法,还包括:
从请求者接收对于通信产物的第二查询;
从第二查询解析语境值;
从第二查询解析更新的情感值;
依据更新的情感值和更新的语境值之一,识别至少一个更新结果通信产物记录;和
把识别的至少一个更新的结果通信产物转发给请求者。
23.一种保持话音通信的情感内容的系统,包括:
用于接收话音通信的装置;
用于针对文本内容分析话音通信的装置;
用于分析话音通信,获得表示该话音通信的第一情感内容的装置;
用于分析话音通信的文本内容,获得表示该话音通信的第二情感内容的装置;
用于识别第一情感内容和第二情感内容之一的装置;以及
用于利用识别的第一情感内容和第二情感内容之一作为情感元数据标记该话音通信的文本内容的装置,从而保持该话音通信的情感内容。
24.按照权利要求23所述的系统,其中用于分析话音通信的文本内容,获得表示该话音通信的第二情感内容的装置还包括:
用于获得文本内容的至少一个单词的装置;
御用访问多个文本-情感释义的装置;和
用于比较出自文本内容的所述至少一个单词与所述多个文本-情感释义的装置。
25.按照权利要求24所述的系统,还包括:
用于获得文本内容的单词短语、标点符号、词汇和语法之一的装置;
用于访问多个文本-情感释义的装置;和
用于比较所述单词短语、标点符号、词汇和语法之一与所述多个文本-情感释义的装置。
26.按照权利要求23所述的系统,其中用于分析话音通信,获得表示该话音通信的第一情感内容的装置还包括:
用于评估第二情感内容的装置;和
用于根据第二情感内容的评估选择话音分析模型的装置。
27.按照权利要求23所述的系统,其中用于识别第一情感内容和第二情感内容之一的装置包括:
用于比较第一情感内容和第二情感内容的装置;和
其中所述用于识别第一情感内容和第二情感内容之一的装置中根据第一情感内容和第二情感内容的比较,来识别第一情感内容和第二情感内容之一。
28.按照权利要求23所述的系统,其中用于用于识别第一情感内容和第二情感内容之一的装置包括:
用于根据话音通信的分析的属性,对话音通信的分析分级的装置;
用于根据文本内容的分析的属性,对文本内容的分析分级的装置;
其中所述用于识别第一情感内容和第二情感内容之一的装置中根据话音通信的分析的分级和文本内容的分析的分级,来识别第一情感内容和第二情感内容之一。
29.按照权利要求28所述的系统,其中话音通信的分析的属性和文本内容的分析的属性是相应分析的准确性和工作效率之一。
30.按照权利要求24所述的系统,还包括:
御用根据话音通信的语言、话音通信的方言和话音通信的讲话者,选择多个话音模式-情感释义的装置;和
用于根据话音通信的语言、话音通信的方言和话音通信的讲话者,选择多个文本-情感释义的装置。
31.按照权利要求30所述的系统,其中话音模式-情感释义包含关于音高、语调、节奏和振幅之一的话音模式。
32.按照权利要求24所述的系统,还包括:
用于根据话音通信的讲话者、话音通信的讲话者的听众和话音通信的环境,选择多个文本-情感释义的装置;和
用于根据话音通信的讲话者、话音通信的讲话者的听众和话音通信的环境,选择多个话音模式-情感释义的装置。
33.按照权利要求23所述的系统,其中用于针对文本内容分析话音通信的装置还包括:
用于从话音通信提取话音模式的装置;
用于访问多个话音模式-文本释义的装置;和
用于比较提取的话音模式与多个话音模式-文本释义的装置;并且
用于分析话音通信的文本内容,获得表示该话音通信的第二情感内容的装置还包括:
用于获得文本内容的至少一个单词的装置;
用于访问多个文本-情感释义的装置;和
用于比较出自文本内容的所述至少一个单词与所述多个文本-情感释义的装置。
34.一种保持话音通信的情感内容的系统,包括:
用于接收第一语言通信的装置,所述第一语言通信包含用情感元数据标记的文本,其中用情感元数据标记文本是采用权利要求1-11之一的方法标记的;
用于把情感元数据转化成第二语言情感元数据的装置;
用于把文本翻译成第二语言文本的装置;
用于针对第二语言情感信息分析第二语言情感元数据的装置;和
用于把第一语言通信中的第二语言情感信息与第二语言文本相结合的装置。
35.按照权利要求34所述的系统,其中第二语言情感信息是文本、短语、标点符号、词汇或语法之一。
36.按照权利要求35所述的系统,还包括:
用于话音合成第二语言文本和第二语言情感文本的装置;和
用于利用第二语言情感元数据调整合成的话音的装置。
37.按照权利要求35所述的系统,其中用于针对第二语言情感信息分析第二语言情感元数据的装置还包括:
用于接收至少一个第二语言情感元数据的装置;
用于访问多个话音情感-文本模式释义,所述多个话音情感-文本模式释义基于第二语言的装置;
用于比较所述至少一个第二语言情感元数据与所述多个话音情感-文本模式释义的装置。
38.按照权利要求36所述的系统,还包括:
用于基于第二语言选择所述多个话音情感-文本模式释义的装置。
39.按照权利要求37所述的方法,其中用于利用第二语言情感元数据调整合成的话音的装置还包括:
用于接收至少一个第二语言情感元数据的装置;
用于访问多个情感-话音模式释义的装置,其中话音模式包含音高、语调、节奏和振幅之一;
用于匹配所述至少一个第二语言情感元数据与所述多个情感-话音模式释义之一的装置,所述多个情感-话音模式释义基于第二语言;和
用于利用与匹配的情感-话音模式释义对应的话音模式,改变合成的话音的合成话音模式的装置。
40.一种查询通信产物记录的系统,包括:
用于从请求者接收对通信产物的查询的装置,所述产物把话音通信表现成带置标情感元数据的文本内容;
用于从查询解析语境值的装置;
用于从查询解析情感值的装置;
用于根据语境值对多个通信产物记录分类的装置;
用于依据语境值识别至少一个通信产物记录的装置,其中所述至少一个通信产物记录为包含情感元数据标记的话音通信的文本内容,该情感元数据是采用权利要求1-11之一的方法标记的;
用于依据情感值对至少一个识别的通信产物分类的装置;
用于识别至少一个结果通信产物的装置;和
用于把识别的至少一个结果通信产物转发给请求者的装置。
41.按照权利要求40所述的系统,其中语境值与通信的语境相关联。
42.按照权利要求40所述的系统,其中情感值与产物的情感元数据相关联。
43.按照权利要求40所述的系统,还包括:
用于用与查询的情感值相一致的情感元数据标记识别的至少一个结果通信产物的一部分的装置。
44.按照权利要求40所述的系统,还包括:
用于从请求者接收对于通信产物的第二查询的装置;
用于从第二查询解析语境值的装置;
用于从第二查询解析更新的情感值的装置;
用于依据更新的情感值和更新的语境值之一,识别至少一个更新结果通信产物记录的装置;和
用于把识别的至少一个更新的结果通信产物转发给请求者的装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/367,464 US7983910B2 (en) | 2006-03-03 | 2006-03-03 | Communicating across voice and text channels with emotion preservation |
US11/367,464 | 2006-03-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101030368A CN101030368A (zh) | 2007-09-05 |
CN101030368B true CN101030368B (zh) | 2012-05-23 |
Family
ID=38472468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2007100054266A Active CN101030368B (zh) | 2006-03-03 | 2007-02-08 | 在保持情感的同时跨通道进行通信的方法和系统 |
Country Status (3)
Country | Link |
---|---|
US (2) | US7983910B2 (zh) |
KR (1) | KR20070090745A (zh) |
CN (1) | CN101030368B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108364655A (zh) * | 2018-01-31 | 2018-08-03 | 网易乐得科技有限公司 | 语音处理方法、介质、装置和计算设备 |
Families Citing this family (413)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8214214B2 (en) * | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
US7664629B2 (en) * | 2005-07-19 | 2010-02-16 | Xerox Corporation | Second language writing advisor |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US8156083B2 (en) * | 2005-12-01 | 2012-04-10 | Oracle International Corporation | Database system that provides for history-enabled tables |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
US7827155B2 (en) * | 2006-04-21 | 2010-11-02 | Microsoft Corporation | System for processing formatted data |
US8549492B2 (en) * | 2006-04-21 | 2013-10-01 | Microsoft Corporation | Machine declarative language for formatted data processing |
US20080003551A1 (en) * | 2006-05-16 | 2008-01-03 | University Of Southern California | Teaching Language Through Interactive Translation |
US8706471B2 (en) * | 2006-05-18 | 2014-04-22 | University Of Southern California | Communication system using mixed translating while in multilingual communication |
US8150692B2 (en) * | 2006-05-18 | 2012-04-03 | Nuance Communications, Inc. | Method and apparatus for recognizing a user personality trait based on a number of compound words used by the user |
US8032355B2 (en) * | 2006-05-22 | 2011-10-04 | University Of Southern California | Socially cognizant translation by detecting and transforming elements of politeness and respect |
US8032356B2 (en) * | 2006-05-25 | 2011-10-04 | University Of Southern California | Spoken translation system using meta information strings |
US8340956B2 (en) * | 2006-05-26 | 2012-12-25 | Nec Corporation | Information provision system, information provision method, information provision program, and information provision program recording medium |
US20080019281A1 (en) * | 2006-07-21 | 2008-01-24 | Microsoft Corporation | Reuse of available source data and localizations |
JP5225847B2 (ja) * | 2006-09-08 | 2013-07-03 | パナソニック株式会社 | 情報処理端末、音楽情報生成方法、およびプログラム |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
WO2008032787A1 (fr) * | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
FR2906056B1 (fr) * | 2006-09-15 | 2009-02-06 | Cantoche Production Sa | Procede et systeme d'animation d'un avatar en temps reel a partir de la voix d'un interlocuteur. |
US8694318B2 (en) * | 2006-09-19 | 2014-04-08 | At&T Intellectual Property I, L. P. | Methods, systems, and products for indexing content |
GB2443027B (en) * | 2006-10-19 | 2009-04-01 | Sony Comp Entertainment Europe | Apparatus and method of audio processing |
US10963648B1 (en) * | 2006-11-08 | 2021-03-30 | Verizon Media Inc. | Instant messaging application configuration based on virtual world activities |
TWI454955B (zh) * | 2006-12-29 | 2014-10-01 | Nuance Communications Inc | 使用模型檔產生動畫的方法及電腦可讀取的訊號承載媒體 |
EP2122610B1 (en) * | 2007-01-31 | 2018-12-26 | Telecom Italia S.p.A. | Customizable method and system for emotional recognition |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8041589B1 (en) * | 2007-04-10 | 2011-10-18 | Avaya Inc. | Organization health analysis using real-time communications monitoring |
US8977631B2 (en) * | 2007-04-16 | 2015-03-10 | Ebay Inc. | Visualization of reputation ratings |
US7996210B2 (en) * | 2007-04-24 | 2011-08-09 | The Research Foundation Of The State University Of New York | Large-scale sentiment analysis |
US8721554B2 (en) | 2007-07-12 | 2014-05-13 | University Of Florida Research Foundation, Inc. | Random body movement cancellation for non-contact vital sign detection |
US8170872B2 (en) * | 2007-12-04 | 2012-05-01 | International Business Machines Corporation | Incorporating user emotion in a chat transcript |
SG153670A1 (en) * | 2007-12-11 | 2009-07-29 | Creative Tech Ltd | A dynamic digitized visual icon and methods for generating the aforementioned |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8239189B2 (en) * | 2008-02-26 | 2012-08-07 | Siemens Enterprise Communications Gmbh & Co. Kg | Method and system for estimating a sentiment for an entity |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US9077933B2 (en) | 2008-05-14 | 2015-07-07 | At&T Intellectual Property I, L.P. | Methods and apparatus to generate relevance rankings for use by a program selector of a media presentation system |
US9202460B2 (en) * | 2008-05-14 | 2015-12-01 | At&T Intellectual Property I, Lp | Methods and apparatus to generate a speech recognition library |
US9192300B2 (en) | 2008-05-23 | 2015-11-24 | Invention Science Fund I, Llc | Acquisition and particular association of data indicative of an inferred mental state of an authoring user |
US9161715B2 (en) * | 2008-05-23 | 2015-10-20 | Invention Science Fund I, Llc | Determination of extent of congruity between observation of authoring user and observation of receiving user |
CN101304391A (zh) * | 2008-06-30 | 2008-11-12 | 腾讯科技(深圳)有限公司 | 一种基于即时通讯系统的语音通话方法及系统 |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US9460708B2 (en) | 2008-09-19 | 2016-10-04 | Microsoft Technology Licensing, Llc | Automated data cleanup by substitution of words of the same pronunciation and different spelling in speech recognition |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US8731588B2 (en) * | 2008-10-16 | 2014-05-20 | At&T Intellectual Property I, L.P. | Alert feature for text messages |
US8364487B2 (en) * | 2008-10-21 | 2013-01-29 | Microsoft Corporation | Speech recognition system with display information |
CN101727904B (zh) * | 2008-10-31 | 2013-04-24 | 国际商业机器公司 | 语音翻译方法和装置 |
US20110224969A1 (en) * | 2008-11-21 | 2011-09-15 | Telefonaktiebolaget L M Ericsson (Publ) | Method, a Media Server, Computer Program and Computer Program Product For Combining a Speech Related to a Voice Over IP Voice Communication Session Between User Equipments, in Combination With Web Based Applications |
CN101751923B (zh) * | 2008-12-03 | 2012-04-18 | 财团法人资讯工业策进会 | 语音情绪的分类方法及其情绪语意模型的建立方法 |
US8606815B2 (en) * | 2008-12-09 | 2013-12-10 | International Business Machines Corporation | Systems and methods for analyzing electronic text |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US8351581B2 (en) | 2008-12-19 | 2013-01-08 | At&T Mobility Ii Llc | Systems and methods for intelligent call transcription |
CN102257566A (zh) * | 2008-12-19 | 2011-11-23 | 皇家飞利浦电子股份有限公司 | 用于适配通信的方法和系统 |
US8600731B2 (en) * | 2009-02-04 | 2013-12-03 | Microsoft Corporation | Universal translator |
EP2419872A4 (en) * | 2009-04-12 | 2013-01-30 | Brookeside Group Inc | MEASUREMENT OF VEGETABLE STATES AND THEIR EXPRESSION IN TONE |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US20110015921A1 (en) * | 2009-07-17 | 2011-01-20 | Minerva Advisory Services, Llc | System and method for using lingual hierarchy, connotation and weight of authority |
WO2011011413A2 (en) * | 2009-07-20 | 2011-01-27 | University Of Florida Research Foundation, Inc. | Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data |
US20110066438A1 (en) * | 2009-09-15 | 2011-03-17 | Apple Inc. | Contextual voiceover |
US20110082695A1 (en) * | 2009-10-02 | 2011-04-07 | Sony Ericsson Mobile Communications Ab | Methods, electronic devices, and computer program products for generating an indicium that represents a prevailing mood associated with a phone call |
TWI430189B (zh) * | 2009-11-10 | 2014-03-11 | Inst Information Industry | 訊息擬真處理系統、裝置及方法 |
US20110112821A1 (en) * | 2009-11-11 | 2011-05-12 | Andrea Basso | Method and apparatus for multimodal content translation |
US8682649B2 (en) * | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
US20110116608A1 (en) * | 2009-11-18 | 2011-05-19 | Gwendolyn Simmons | Method of providing two-way communication between a deaf person and a hearing person |
EP2507723A1 (en) * | 2009-12-04 | 2012-10-10 | Intellisist, Inc. | Converting a message via a posting converter |
US8634701B2 (en) * | 2009-12-04 | 2014-01-21 | Lg Electronics Inc. | Digital data reproducing apparatus and corresponding method for reproducing content based on user characteristics |
KR101377459B1 (ko) * | 2009-12-21 | 2014-03-26 | 한국전자통신연구원 | 자동 통역 장치 및 그 방법 |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9015046B2 (en) * | 2010-06-10 | 2015-04-21 | Nice-Systems Ltd. | Methods and apparatus for real-time interaction analysis in call centers |
US20120016674A1 (en) * | 2010-07-16 | 2012-01-19 | International Business Machines Corporation | Modification of Speech Quality in Conversations Over Voice Channels |
US8965768B2 (en) * | 2010-08-06 | 2015-02-24 | At&T Intellectual Property I, L.P. | System and method for automatic detection of abnormal stress patterns in unit selection synthesis |
CN102385858B (zh) * | 2010-08-31 | 2013-06-05 | 国际商业机器公司 | 情感语音合成方法和系统 |
US9767221B2 (en) * | 2010-10-08 | 2017-09-19 | At&T Intellectual Property I, L.P. | User profile and its location in a clustered profile landscape |
KR101160193B1 (ko) * | 2010-10-28 | 2012-06-26 | (주)엠씨에스로직 | 감성적 음성합성 장치 및 그 방법 |
US9053095B2 (en) * | 2010-10-31 | 2015-06-09 | Speech Morphing, Inc. | Speech morphing communication system |
US9269077B2 (en) * | 2010-11-16 | 2016-02-23 | At&T Intellectual Property I, L.P. | Address book autofilter |
US20120130717A1 (en) * | 2010-11-19 | 2012-05-24 | Microsoft Corporation | Real-time Animation for an Expressive Avatar |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
JP5494468B2 (ja) * | 2010-12-27 | 2014-05-14 | 富士通株式会社 | 状態検出装置、状態検出方法および状態検出のためのプログラム |
US9613028B2 (en) | 2011-01-19 | 2017-04-04 | Apple Inc. | Remotely updating a hearing and profile |
US11102593B2 (en) | 2011-01-19 | 2021-08-24 | Apple Inc. | Remotely updating a hearing aid profile |
WO2012100051A2 (en) * | 2011-01-20 | 2012-07-26 | Ipc Systems, Inc. | User interface displaying communication information |
US8781836B2 (en) | 2011-02-22 | 2014-07-15 | Apple Inc. | Hearing assistance system for providing consistent human speech |
CN102651217A (zh) * | 2011-02-25 | 2012-08-29 | 株式会社东芝 | 用于合成语音的方法、设备以及用于语音合成的声学模型训练方法 |
US8630860B1 (en) * | 2011-03-03 | 2014-01-14 | Nuance Communications, Inc. | Speaker and call characteristic sensitive open voice search |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9202465B2 (en) * | 2011-03-25 | 2015-12-01 | General Motors Llc | Speech recognition dependent on text message content |
US20120265533A1 (en) * | 2011-04-18 | 2012-10-18 | Apple Inc. | Voice assignment for text-to-speech output |
CN103493040A (zh) * | 2011-04-21 | 2014-01-01 | 索尼公司 | 从文本中确定情感的方法 |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8886530B2 (en) * | 2011-06-24 | 2014-11-11 | Honda Motor Co., Ltd. | Displaying text and direction of an utterance combined with an image of a sound source |
KR101801327B1 (ko) * | 2011-07-29 | 2017-11-27 | 삼성전자주식회사 | 감정 정보 생성 장치, 감정 정보 생성 방법 및 감정 정보 기반 기능 추천 장치 |
US9763617B2 (en) * | 2011-08-02 | 2017-09-19 | Massachusetts Institute Of Technology | Phonologically-based biomarkers for major depressive disorder |
US8706472B2 (en) * | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130124190A1 (en) * | 2011-11-12 | 2013-05-16 | Stephanie Esla | System and methodology that facilitates processing a linguistic input |
KR20130055429A (ko) * | 2011-11-18 | 2013-05-28 | 삼성전자주식회사 | 감정 세그먼트 기반의 감정 인식 장치 및 방법 |
US9159236B2 (en) | 2011-12-01 | 2015-10-13 | Elwha Llc | Presentation of shared threat information in a transportation-related context |
US9053096B2 (en) | 2011-12-01 | 2015-06-09 | Elwha Llc | Language translation based on speaker-related information |
US9245254B2 (en) * | 2011-12-01 | 2016-01-26 | Elwha Llc | Enhanced voice conferencing with history, language translation and identification |
US8934652B2 (en) | 2011-12-01 | 2015-01-13 | Elwha Llc | Visual presentation of speaker-related information |
US9368028B2 (en) | 2011-12-01 | 2016-06-14 | Microsoft Technology Licensing, Llc | Determining threats based on information from road-based devices in a transportation-related context |
US9064152B2 (en) | 2011-12-01 | 2015-06-23 | Elwha Llc | Vehicular threat detection based on image analysis |
US10875525B2 (en) | 2011-12-01 | 2020-12-29 | Microsoft Technology Licensing Llc | Ability enhancement |
US8811638B2 (en) | 2011-12-01 | 2014-08-19 | Elwha Llc | Audible assistance |
US9107012B2 (en) | 2011-12-01 | 2015-08-11 | Elwha Llc | Vehicular threat detection based on audio signals |
WO2013085409A1 (ru) * | 2011-12-08 | 2013-06-13 | Общество С Ограниченной Ответственностью Базелевс-Инновации | Способ анимации sms-сообщений |
US9348479B2 (en) * | 2011-12-08 | 2016-05-24 | Microsoft Technology Licensing, Llc | Sentiment aware user interface customization |
US8862462B2 (en) * | 2011-12-09 | 2014-10-14 | Chrysler Group Llc | Dynamic method for emoticon translation |
US9378290B2 (en) | 2011-12-20 | 2016-06-28 | Microsoft Technology Licensing, Llc | Scenario-adaptive input method editor |
US9628296B2 (en) | 2011-12-28 | 2017-04-18 | Evernote Corporation | Fast mobile mail with context indicators |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US20130282808A1 (en) * | 2012-04-20 | 2013-10-24 | Yahoo! Inc. | System and Method for Generating Contextual User-Profile Images |
US9275636B2 (en) * | 2012-05-03 | 2016-03-01 | International Business Machines Corporation | Automatic accuracy estimation for audio transcriptions |
US9075760B2 (en) | 2012-05-07 | 2015-07-07 | Audible, Inc. | Narration settings distribution for content customization |
US20140258858A1 (en) * | 2012-05-07 | 2014-09-11 | Douglas Hwang | Content customization |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9460082B2 (en) | 2012-05-14 | 2016-10-04 | International Business Machines Corporation | Management of language usage to facilitate effective communication |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
WO2013184667A1 (en) * | 2012-06-05 | 2013-12-12 | Rank Miner, Inc. | System, method and apparatus for voice analytics of recorded audio |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
CN110488991A (zh) | 2012-06-25 | 2019-11-22 | 微软技术许可有限责任公司 | 输入法编辑器应用平台 |
US9678948B2 (en) | 2012-06-26 | 2017-06-13 | International Business Machines Corporation | Real-time message sentiment awareness |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
CN103543979A (zh) * | 2012-07-17 | 2014-01-29 | 联想(北京)有限公司 | 一种输出语音的方法、语音交互的方法及电子设备 |
US10957310B1 (en) | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
US20140058721A1 (en) * | 2012-08-24 | 2014-02-27 | Avaya Inc. | Real time statistics for contact center mood analysis method and apparatus |
KR101911999B1 (ko) | 2012-08-30 | 2018-10-25 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 피처 기반 후보 선택 기법 |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9402576B2 (en) | 2012-09-12 | 2016-08-02 | International Business Machines Corporation | Electronic communication warning and modification |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US8983836B2 (en) | 2012-09-26 | 2015-03-17 | International Business Machines Corporation | Captioning using socially derived acoustic profiles |
JP5727980B2 (ja) * | 2012-09-28 | 2015-06-03 | 株式会社東芝 | 表現変換装置、方法およびプログラム |
CN102999485A (zh) * | 2012-11-02 | 2013-03-27 | 北京邮电大学 | 一种基于公众汉语网络文本的现实情感分析方法 |
CN103810158A (zh) * | 2012-11-07 | 2014-05-21 | 中国移动通信集团公司 | 一种语音翻译方法及装置 |
US20140136208A1 (en) * | 2012-11-14 | 2014-05-15 | Intermec Ip Corp. | Secure multi-mode communication between agents |
RU2530268C2 (ru) | 2012-11-28 | 2014-10-10 | Общество с ограниченной ответственностью "Спиктуит" | Способ обучения информационной диалоговой системы пользователем |
US9336192B1 (en) | 2012-11-28 | 2016-05-10 | Lexalytics, Inc. | Methods for analyzing text |
CN103024521B (zh) * | 2012-12-27 | 2017-02-08 | 深圳Tcl新技术有限公司 | 节目筛选方法、系统及具有该系统的电视 |
US9690775B2 (en) | 2012-12-27 | 2017-06-27 | International Business Machines Corporation | Real-time sentiment analysis for synchronous communication |
CN103903627B (zh) * | 2012-12-27 | 2018-06-19 | 中兴通讯股份有限公司 | 一种语音数据的传输方法及装置 |
US9460083B2 (en) * | 2012-12-27 | 2016-10-04 | International Business Machines Corporation | Interactive dashboard based on real-time sentiment analysis for synchronous communication |
TR201802631T4 (tr) * | 2013-01-21 | 2018-03-21 | Dolby Laboratories Licensing Corp | Program Ses Şiddeti ve Sınır Meta Verilere Sahip Sesli Enkoder ve Dekoder |
TWI573129B (zh) * | 2013-02-05 | 2017-03-01 | 國立交通大學 | 編碼串流產生裝置、韻律訊息編碼裝置、韻律結構分析裝置與語音合成之裝置及方法 |
US9105042B2 (en) | 2013-02-07 | 2015-08-11 | Verizon Patent And Licensing Inc. | Customer sentiment analysis using recorded conversation |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
KR102108500B1 (ko) * | 2013-02-22 | 2020-05-08 | 삼성전자 주식회사 | 번역 기반 통신 서비스 지원 방법 및 시스템과, 이를 지원하는 단말기 |
US20140257806A1 (en) * | 2013-03-05 | 2014-09-11 | Nuance Communications, Inc. | Flexible animation framework for contextual animation display |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
CN105027197B (zh) | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US9432325B2 (en) | 2013-04-08 | 2016-08-30 | Avaya Inc. | Automatic negative question handling |
WO2014168777A1 (en) * | 2013-04-10 | 2014-10-16 | Dolby Laboratories Licensing Corporation | Speech dereverberation methods, devices and systems |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
TWI508057B (zh) * | 2013-07-15 | 2015-11-11 | Chunghwa Picture Tubes Ltd | 語音辨識系統以及方法 |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
CN105580004A (zh) | 2013-08-09 | 2016-05-11 | 微软技术许可有限责任公司 | 提供语言帮助的输入方法编辑器 |
US9715492B2 (en) | 2013-09-11 | 2017-07-25 | Avaya Inc. | Unspoken sentiment |
CN103533168A (zh) * | 2013-10-16 | 2014-01-22 | 深圳市汉普电子技术开发有限公司 | 一种情感信息交互方法、系统及情感互动装置 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9241069B2 (en) | 2014-01-02 | 2016-01-19 | Avaya Inc. | Emergency greeting override by system administrator or routing to contact center |
US9413891B2 (en) * | 2014-01-08 | 2016-08-09 | Callminer, Inc. | Real-time conversational analytics facility |
KR102222122B1 (ko) * | 2014-01-21 | 2021-03-03 | 엘지전자 주식회사 | 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기 |
US11295730B1 (en) | 2014-02-27 | 2022-04-05 | Soundhound, Inc. | Using phonetic variants in a local context to improve natural language understanding |
US9183831B2 (en) | 2014-03-27 | 2015-11-10 | International Business Machines Corporation | Text-to-speech for digital literature |
US9712680B2 (en) | 2014-05-14 | 2017-07-18 | Mitel Networks Corporation | Apparatus and method for categorizing voicemail |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
CN104008091B (zh) * | 2014-05-26 | 2017-03-15 | 上海大学 | 一种基于情感值的网络文本情感分析方法 |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
CN104063427A (zh) * | 2014-06-06 | 2014-09-24 | 北京搜狗科技发展有限公司 | 一种基于语义理解的表情输入方法和装置 |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11289077B2 (en) * | 2014-07-15 | 2022-03-29 | Avaya Inc. | Systems and methods for speech analytics and phrase spotting using phoneme sequences |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
CN104184658A (zh) * | 2014-09-13 | 2014-12-03 | 邹时晨 | 一种聊天系统 |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9667786B1 (en) * | 2014-10-07 | 2017-05-30 | Ipsoft, Inc. | Distributed coordinated system and process which transforms data into useful information to help a user with resolving issues |
US11051702B2 (en) | 2014-10-08 | 2021-07-06 | University Of Florida Research Foundation, Inc. | Method and apparatus for non-contact fast vital sign acquisition based on radar signal |
JP6446993B2 (ja) * | 2014-10-20 | 2019-01-09 | ヤマハ株式会社 | 音声制御装置およびプログラム |
CN104317883B (zh) * | 2014-10-21 | 2017-11-21 | 北京国双科技有限公司 | 网络文本处理方法及装置 |
US9659564B2 (en) * | 2014-10-24 | 2017-05-23 | Sestek Ses Ve Iletisim Bilgisayar Teknolojileri Sanayi Ticaret Anonim Sirketi | Speaker verification based on acoustic behavioral characteristics of the speaker |
CN105635393A (zh) * | 2014-10-30 | 2016-06-01 | 乐视致新电子科技(天津)有限公司 | 通信录的处理方法和装置 |
JP6464703B2 (ja) * | 2014-12-01 | 2019-02-06 | ヤマハ株式会社 | 会話評価装置およびプログラム |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9786299B2 (en) * | 2014-12-04 | 2017-10-10 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
CN104537036B (zh) * | 2014-12-23 | 2018-11-13 | 华为软件技术有限公司 | 一种分析语言特征的方法及装置 |
US9722965B2 (en) * | 2015-01-29 | 2017-08-01 | International Business Machines Corporation | Smartphone indicator for conversation nonproductivity |
JP2016162163A (ja) * | 2015-03-02 | 2016-09-05 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
CN104699675B (zh) * | 2015-03-18 | 2018-01-30 | 北京交通大学 | 翻译信息的方法和装置 |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US10395555B2 (en) * | 2015-03-30 | 2019-08-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing optimal braille output based on spoken and sign language |
JP6594646B2 (ja) * | 2015-04-10 | 2019-10-23 | ヴイストン株式会社 | ロボット及びロボット制御方法並びにロボットシステム |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
CN104853257A (zh) * | 2015-04-30 | 2015-08-19 | 北京奇艺世纪科技有限公司 | 字幕显示方法和装置 |
US9833200B2 (en) | 2015-05-14 | 2017-12-05 | University Of Florida Research Foundation, Inc. | Low IF architectures for noncontact vital sign detection |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
WO2016206019A1 (zh) * | 2015-06-24 | 2016-12-29 | 冯旋宇 | 机顶盒语言控制方法及系统 |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10387846B2 (en) * | 2015-07-10 | 2019-08-20 | Bank Of America Corporation | System for affecting appointment calendaring on a mobile device based on dependencies |
US10387845B2 (en) * | 2015-07-10 | 2019-08-20 | Bank Of America Corporation | System for facilitating appointment calendaring based on perceived customer requirements |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
KR102209689B1 (ko) * | 2015-09-10 | 2021-01-28 | 삼성전자주식회사 | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 |
US9665567B2 (en) * | 2015-09-21 | 2017-05-30 | International Business Machines Corporation | Suggesting emoji characters based on current contextual emotional state of user |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
CN105334743B (zh) * | 2015-11-18 | 2018-10-26 | 深圳创维-Rgb电子有限公司 | 一种基于情感识别的智能家居控制方法及其系统 |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
CN105575404A (zh) * | 2016-01-25 | 2016-05-11 | 薛明博 | 一种基于语音识别的心理检测方法及系统 |
CN107092606B (zh) * | 2016-02-18 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种搜索方法、装置及服务器 |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
RU2632126C1 (ru) * | 2016-04-07 | 2017-10-02 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система предоставления контекстуальной информации |
US10244113B2 (en) * | 2016-04-26 | 2019-03-26 | Fmr Llc | Determining customer service quality through digitized voice characteristic measurement and filtering |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
CN106899486B (zh) * | 2016-06-22 | 2020-09-25 | 阿里巴巴集团控股有限公司 | 一种消息显示方法及装置 |
SG11201900484VA (en) * | 2016-07-21 | 2019-02-27 | Oslabs Pte Ltd | A system and method for multilingual conversion of text data to speech data |
US10423722B2 (en) | 2016-08-18 | 2019-09-24 | At&T Intellectual Property I, L.P. | Communication indicator |
US10579742B1 (en) * | 2016-08-30 | 2020-03-03 | United Services Automobile Association (Usaa) | Biometric signal analysis for communication enhancement and transformation |
CN106325127B (zh) * | 2016-08-30 | 2019-03-08 | 广东美的制冷设备有限公司 | 一种使家电表达情绪的方法及装置、空调 |
CN106372059B (zh) * | 2016-08-30 | 2018-09-11 | 北京百度网讯科技有限公司 | 信息输入方法和装置 |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10210147B2 (en) * | 2016-09-07 | 2019-02-19 | International Business Machines Corporation | System and method to minimally reduce characters in character limiting scenarios |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10339925B1 (en) * | 2016-09-26 | 2019-07-02 | Amazon Technologies, Inc. | Generation of automated message responses |
JP7000671B2 (ja) * | 2016-10-05 | 2022-01-19 | 株式会社リコー | 情報処理システム、情報処理装置、及び情報処理方法 |
US10147424B1 (en) * | 2016-10-26 | 2018-12-04 | Intuit Inc. | Generating self-support metrics based on paralinguistic information |
US10135989B1 (en) | 2016-10-27 | 2018-11-20 | Intuit Inc. | Personalized support routing based on paralinguistic information |
US10158758B2 (en) | 2016-11-02 | 2018-12-18 | International Business Machines Corporation | System and method for monitoring and visualizing emotions in call center dialogs at call centers |
US10135979B2 (en) | 2016-11-02 | 2018-11-20 | International Business Machines Corporation | System and method for monitoring and visualizing emotions in call center dialogs by call center supervisors |
EP3537432A4 (en) * | 2016-11-07 | 2020-06-03 | Yamaha Corporation | LANGUAGE SYNTHESIS PROCEDURE |
US10957306B2 (en) * | 2016-11-16 | 2021-03-23 | International Business Machines Corporation | Predicting personality traits based on text-speech hybrid data |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US20180226073A1 (en) * | 2017-02-06 | 2018-08-09 | International Business Machines Corporation | Context-based cognitive speech to text engine |
JP6866715B2 (ja) * | 2017-03-22 | 2021-04-28 | カシオ計算機株式会社 | 情報処理装置、感情認識方法、及び、プログラム |
CN109417504A (zh) * | 2017-04-07 | 2019-03-01 | 微软技术许可有限责任公司 | 自动聊天中的语音转发 |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
CN107193969B (zh) * | 2017-05-25 | 2020-06-02 | 南京大学 | 一种自动生成小说文本情感曲线并预测推荐的方法 |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
CN107423364B (zh) | 2017-06-22 | 2024-01-26 | 百度在线网络技术(北京)有限公司 | 基于人工智能的回答话术播报方法、装置及存储介质 |
US10431203B2 (en) * | 2017-09-05 | 2019-10-01 | International Business Machines Corporation | Machine training for native language and fluency identification |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
CN107818786A (zh) * | 2017-10-25 | 2018-03-20 | 维沃移动通信有限公司 | 一种通话语音处理方法、移动终端 |
US10530719B2 (en) * | 2017-11-16 | 2020-01-07 | International Business Machines Corporation | Emotive tone adjustment based cognitive management |
US10691770B2 (en) * | 2017-11-20 | 2020-06-23 | Colossio, Inc. | Real-time classification of evolving dictionaries |
CN107919138B (zh) * | 2017-11-30 | 2021-01-08 | 维沃移动通信有限公司 | 一种语音中的情绪处理方法及移动终端 |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10225621B1 (en) | 2017-12-20 | 2019-03-05 | Dish Network L.L.C. | Eyes free entertainment |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
JP7010073B2 (ja) * | 2018-03-12 | 2022-01-26 | 株式会社Jvcケンウッド | 出力内容制御装置、出力内容制御方法、及び出力内容制御プログラム |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
CN108536802B (zh) * | 2018-03-30 | 2020-01-14 | 百度在线网络技术(北京)有限公司 | 基于儿童情绪的交互方法及装置 |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11538128B2 (en) | 2018-05-14 | 2022-12-27 | Verint Americas Inc. | User interface for fraud alert management |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
KR102067446B1 (ko) * | 2018-06-04 | 2020-01-17 | 주식회사 엔씨소프트 | 자막 생성 방법 및 시스템 |
WO2020027619A1 (ko) * | 2018-08-02 | 2020-02-06 | 네오사피엔스 주식회사 | 순차적 운율 특징을 기초로 기계학습을 이용한 텍스트-음성 합성 방법, 장치 및 컴퓨터 판독가능한 저장매체 |
KR20200015418A (ko) | 2018-08-02 | 2020-02-12 | 네오사피엔스 주식회사 | 순차적 운율 특징을 기초로 기계학습을 이용한 텍스트-음성 합성 방법, 장치 및 컴퓨터 판독가능한 저장매체 |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11195507B2 (en) * | 2018-10-04 | 2021-12-07 | Rovi Guides, Inc. | Translating between spoken languages with emotion in audio and video media streams |
US10936635B2 (en) * | 2018-10-08 | 2021-03-02 | International Business Machines Corporation | Context-based generation of semantically-similar phrases |
CN111048062B (zh) * | 2018-10-10 | 2022-10-04 | 华为技术有限公司 | 语音合成方法及设备 |
US10761597B2 (en) * | 2018-10-18 | 2020-09-01 | International Business Machines Corporation | Using augmented reality technology to address negative emotional states |
US10981073B2 (en) * | 2018-10-22 | 2021-04-20 | Disney Enterprises, Inc. | Localized and standalone semi-randomized character conversations |
US10887452B2 (en) | 2018-10-25 | 2021-01-05 | Verint Americas Inc. | System architecture for fraud detection |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
CN111192568B (zh) * | 2018-11-15 | 2022-12-13 | 华为技术有限公司 | 一种语音合成方法及语音合成装置 |
US10891939B2 (en) * | 2018-11-26 | 2021-01-12 | International Business Machines Corporation | Sharing confidential information with privacy using a mobile phone |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11514886B2 (en) * | 2019-01-11 | 2022-11-29 | Lg Electronics Inc. | Emotion classification information-based text-to-speech (TTS) method and apparatus |
US11159597B2 (en) | 2019-02-01 | 2021-10-26 | Vidubly Ltd | Systems and methods for artificial dubbing |
US11157549B2 (en) * | 2019-03-06 | 2021-10-26 | International Business Machines Corporation | Emotional experience metadata on recorded images |
US11202131B2 (en) | 2019-03-10 | 2021-12-14 | Vidubly Ltd | Maintaining original volume changes of a character in revoiced media stream |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11138379B2 (en) | 2019-04-25 | 2021-10-05 | Sorenson Ip Holdings, Llc | Determination of transcription accuracy |
CN110046356B (zh) * | 2019-04-26 | 2020-08-21 | 中森云链(成都)科技有限责任公司 | 标签嵌入的微博文本情绪多标签分类方法 |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11176332B2 (en) | 2019-08-08 | 2021-11-16 | International Business Machines Corporation | Linking contextual information to text in time dependent media |
KR20190104941A (ko) * | 2019-08-22 | 2019-09-11 | 엘지전자 주식회사 | 감정 정보 기반의 음성 합성 방법 및 장치 |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US20240154833A1 (en) * | 2019-10-17 | 2024-05-09 | Hewlett-Packard Development Company, L.P. | Meeting inputs |
US11587561B2 (en) * | 2019-10-25 | 2023-02-21 | Mary Lee Weir | Communication system and method of extracting emotion data during translations |
US10992805B1 (en) * | 2020-01-27 | 2021-04-27 | Motorola Solutions, Inc. | Device, system and method for modifying workflows based on call profile inconsistencies |
CN111653265B (zh) * | 2020-04-26 | 2023-08-18 | 北京大米科技有限公司 | 语音合成方法、装置、存储介质和电子设备 |
US11043220B1 (en) | 2020-05-11 | 2021-06-22 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
KR20210144443A (ko) * | 2020-05-22 | 2021-11-30 | 삼성전자주식회사 | 인공지능 가상 비서 서비스에서의 텍스트 출력 방법 및 이를 지원하는 전자 장치 |
KR20210150842A (ko) * | 2020-06-04 | 2021-12-13 | 삼성전자주식회사 | 음성 또는 문자를 번역하는 전자 장치 및 그 방법 |
US20210392230A1 (en) * | 2020-06-11 | 2021-12-16 | Avaya Management L.P. | System and method for indicating and measuring responses in a multi-channel contact center |
CN111986687B (zh) * | 2020-06-23 | 2022-08-02 | 合肥工业大学 | 基于交互式解码的双语情感对话生成系统 |
GB2610785A (en) * | 2020-06-29 | 2023-03-15 | Mod9 Tech | Phrase alternatives representation for automatic speech recognition and methods of use |
US11405506B2 (en) | 2020-06-29 | 2022-08-02 | Avaya Management L.P. | Prompt feature to leave voicemail for appropriate attribute-based call back to customers |
CN111898377A (zh) * | 2020-07-07 | 2020-11-06 | 苏宁金融科技(南京)有限公司 | 一种情感识别方法、装置、计算机设备及存储介质 |
US11521642B2 (en) | 2020-09-11 | 2022-12-06 | Fidelity Information Services, Llc | Systems and methods for classification and rating of calls based on voice and text analysis |
US11907678B2 (en) | 2020-11-10 | 2024-02-20 | International Business Machines Corporation | Context-aware machine language identification |
CN112562687B (zh) * | 2020-12-11 | 2023-08-04 | 天津讯飞极智科技有限公司 | 音视频处理方法、装置、录音笔和存储介质 |
US11743380B2 (en) * | 2021-03-15 | 2023-08-29 | Avaya Management L.P. | System and method for context aware audio enhancement |
CN113506562B (zh) * | 2021-07-19 | 2022-07-19 | 武汉理工大学 | 基于声学特征与文本情感特征融合的端到端语音合成方法及系统 |
DE102021208344A1 (de) | 2021-08-02 | 2023-02-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Sprachsignalbearbeitungsvorrichtung, Sprachsignalwiedergabesystem und Verfahren zum Ausgeben eines entemotionalisierten Sprachsignals |
FR3136884A1 (fr) * | 2022-06-28 | 2023-12-22 | Orange | Compression audio à très bas débit |
US20240071365A1 (en) * | 2022-08-24 | 2024-02-29 | Veritone, Inc. | Systems and methods for automated synthetic voice pipelines |
WO2024112393A1 (en) * | 2022-11-21 | 2024-05-30 | Microsoft Technology Licensing, Llc | Real-time system for spoken natural stylistic conversations with large language models |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010049596A1 (en) * | 2000-05-30 | 2001-12-06 | Adam Lavine | Text to animation process |
US20030154076A1 (en) * | 2002-02-13 | 2003-08-14 | Thomas Kemp | Method for recognizing speech/speaker using emotional change to govern unsupervised adaptation |
US6959080B2 (en) * | 2002-09-27 | 2005-10-25 | Rockwell Electronic Commerce Technologies, Llc | Method selecting actions or phases for an agent by analyzing conversation content and emotional inflection |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5860064A (en) | 1993-05-13 | 1999-01-12 | Apple Computer, Inc. | Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system |
US5617855A (en) | 1994-09-01 | 1997-04-08 | Waletzky; Jeremy P. | Medical testing device and associated method |
US6173260B1 (en) * | 1997-10-29 | 2001-01-09 | Interval Research Corporation | System and method for automatic classification of speech based upon affective content |
US6665644B1 (en) * | 1999-08-10 | 2003-12-16 | International Business Machines Corporation | Conversational data mining |
US6332143B1 (en) * | 1999-08-11 | 2001-12-18 | Roedy Black Publishing Inc. | System for connotative analysis of discourse |
US7359492B2 (en) | 1999-09-08 | 2008-04-15 | Ameritech Corporation | Method and apparatus for converting a voice signal received from a remote telephone to a text signal |
US20020072900A1 (en) * | 1999-11-23 | 2002-06-13 | Keough Steven J. | System and method of templating specific human voices |
US6859778B1 (en) * | 2000-03-16 | 2005-02-22 | International Business Machines Corporation | Method and apparatus for translating natural-language speech using multiple output phrases |
US6308154B1 (en) * | 2000-04-13 | 2001-10-23 | Rockwell Electronic Commerce Corp. | Method of natural language communication using a mark-up language |
US7089504B1 (en) * | 2000-05-02 | 2006-08-08 | Walt Froloff | System and method for embedment of emotive content in modern text processing, publishing and communication |
US6453294B1 (en) * | 2000-05-31 | 2002-09-17 | International Business Machines Corporation | Dynamic destination-determined multimedia avatars for interactive on-line communications |
TWI221574B (en) | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
US6963839B1 (en) * | 2000-11-03 | 2005-11-08 | At&T Corp. | System and method of controlling sound in a multi-media communication application |
JP2002268699A (ja) | 2001-03-09 | 2002-09-20 | Sony Corp | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 |
JP2002304188A (ja) | 2001-04-05 | 2002-10-18 | Sony Corp | 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体 |
CN1159702C (zh) * | 2001-04-11 | 2004-07-28 | 国际商业机器公司 | 具有情感的语音-语音翻译系统和方法 |
US7013427B2 (en) * | 2001-04-23 | 2006-03-14 | Steven Griffith | Communication analyzing system |
GB0113570D0 (en) * | 2001-06-04 | 2001-07-25 | Hewlett Packard Co | Audio-form presentation of text messages |
US6876728B2 (en) * | 2001-07-02 | 2005-04-05 | Nortel Networks Limited | Instant messaging using a wireless interface |
US7483832B2 (en) * | 2001-12-10 | 2009-01-27 | At&T Intellectual Property I, L.P. | Method and system for customizing voice translation of text to speech |
US7277859B2 (en) * | 2001-12-21 | 2007-10-02 | Nippon Telegraph And Telephone Corporation | Digest generation method and apparatus for image and sound content |
US7401020B2 (en) | 2002-11-29 | 2008-07-15 | International Business Machines Corporation | Application of emotion-based intonation and prosody to speech in text-to-speech systems |
US6895257B2 (en) | 2002-02-18 | 2005-05-17 | Matsushita Electric Industrial Co., Ltd. | Personalized agent for portable devices and cellular phone |
US20030163311A1 (en) * | 2002-02-26 | 2003-08-28 | Li Gong | Intelligent social agents |
EP1345207B1 (en) | 2002-03-15 | 2006-10-11 | Sony Corporation | Method and apparatus for speech synthesis program, recording medium, method and apparatus for generating constraint information and robot apparatus |
JP2003295882A (ja) * | 2002-04-02 | 2003-10-15 | Canon Inc | 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム |
US7137070B2 (en) * | 2002-06-27 | 2006-11-14 | International Business Machines Corporation | Sampling responses to communication content for use in analyzing reaction responses to other communications |
US20040111272A1 (en) * | 2002-12-10 | 2004-06-10 | International Business Machines Corporation | Multimodal speech-to-speech language translation and display |
US8478645B2 (en) * | 2003-04-07 | 2013-07-02 | Sevenecho, Llc | Method, system and software for digital media narrative personalization |
EP1498872A1 (en) | 2003-07-16 | 2005-01-19 | Alcatel | Method and system for audio rendering of a text with emotional information |
US20050021344A1 (en) | 2003-07-24 | 2005-01-27 | International Business Machines Corporation | Access to enhanced conferencing services using the tele-chat system |
US7451084B2 (en) * | 2003-07-29 | 2008-11-11 | Fujifilm Corporation | Cell phone having an information-converting function |
US7296027B2 (en) * | 2003-08-06 | 2007-11-13 | Sbc Knowledge Ventures, L.P. | Rhetorical content management with tone and audience profiles |
KR20060123074A (ko) * | 2003-08-29 | 2006-12-01 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 콘텐트 정보의 사용자 프로파일 제어 렌더링 |
JP2005352311A (ja) | 2004-06-11 | 2005-12-22 | Nippon Telegr & Teleph Corp <Ntt> | 音声合成装置および音声合成プログラム |
US7599838B2 (en) * | 2004-09-01 | 2009-10-06 | Sap Aktiengesellschaft | Speech animation with behavioral contexts for application scenarios |
EP1667031A3 (en) * | 2004-12-02 | 2009-01-14 | NEC Corporation | HTML-e-mail creation system |
US20060122834A1 (en) * | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US8065157B2 (en) * | 2005-05-30 | 2011-11-22 | Kyocera Corporation | Audio output apparatus, document reading method, and mobile terminal |
WO2007017853A1 (en) * | 2005-08-08 | 2007-02-15 | Nice Systems Ltd. | Apparatus and methods for the detection of emotions in audio interactions |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
US8972268B2 (en) * | 2008-04-15 | 2015-03-03 | Facebook, Inc. | Enhanced speech-to-speech translation system and methods for adding a new word |
US8224652B2 (en) * | 2008-09-26 | 2012-07-17 | Microsoft Corporation | Speech and text driven HMM-based body animation synthesis |
US8340267B2 (en) * | 2009-02-05 | 2012-12-25 | Microsoft Corporation | Audio transforms in connection with multiparty communication |
JP5066242B2 (ja) * | 2010-09-29 | 2012-11-07 | 株式会社東芝 | 音声翻訳装置、方法、及びプログラム |
-
2006
- 2006-03-03 US US11/367,464 patent/US7983910B2/en active Active
-
2007
- 2007-01-25 KR KR1020070007860A patent/KR20070090745A/ko not_active Application Discontinuation
- 2007-02-08 CN CN2007100054266A patent/CN101030368B/zh active Active
-
2011
- 2011-04-04 US US13/079,694 patent/US8386265B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010049596A1 (en) * | 2000-05-30 | 2001-12-06 | Adam Lavine | Text to animation process |
US20030154076A1 (en) * | 2002-02-13 | 2003-08-14 | Thomas Kemp | Method for recognizing speech/speaker using emotional change to govern unsupervised adaptation |
US6959080B2 (en) * | 2002-09-27 | 2005-10-25 | Rockwell Electronic Commerce Technologies, Llc | Method selecting actions or phases for an agent by analyzing conversation content and emotional inflection |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108364655A (zh) * | 2018-01-31 | 2018-08-03 | 网易乐得科技有限公司 | 语音处理方法、介质、装置和计算设备 |
Also Published As
Publication number | Publication date |
---|---|
CN101030368A (zh) | 2007-09-05 |
US7983910B2 (en) | 2011-07-19 |
US20070208569A1 (en) | 2007-09-06 |
KR20070090745A (ko) | 2007-09-06 |
US20110184721A1 (en) | 2011-07-28 |
US8386265B2 (en) | 2013-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101030368B (zh) | 在保持情感的同时跨通道进行通信的方法和系统 | |
US10410627B2 (en) | Automatic language model update | |
KR102582291B1 (ko) | 감정 정보 기반의 음성 합성 방법 및 장치 | |
CN107516511B (zh) | 意图识别和情绪的文本到语音学习系统 | |
US8594995B2 (en) | Multilingual asynchronous communications of speech messages recorded in digital media files | |
US9318100B2 (en) | Supplementing audio recorded in a media file | |
US9196241B2 (en) | Asynchronous communications using messages recorded on handheld devices | |
WO2017067206A1 (zh) | 个性化多声学模型的训练方法、语音合成方法及装置 | |
CN109448704A (zh) | 语音解码图的构建方法、装置、服务器和存储介质 | |
Gibbon et al. | Spoken language system and corpus design | |
RU2692051C1 (ru) | Способ и система для синтеза речи из текста | |
Schuppler et al. | GRASS: the Graz corpus of Read And Spontaneous Speech. | |
US20080162559A1 (en) | Asynchronous communications regarding the subject matter of a media file stored on a handheld recording device | |
CN116092472A (zh) | 一种语音合成方法和合成系统 | |
CN108364655A (zh) | 语音处理方法、介质、装置和计算设备 | |
CN116129868A (zh) | 一种结构化画本的生成方法和生成系统 | |
US8219402B2 (en) | Asynchronous receipt of information from a user | |
CN112201225A (zh) | 一种语料获取的方法、装置、可读存储介质和电子设备 | |
CN111489742A (zh) | 声学模型训练方法、语音识别方法、装置及电子设备 | |
Carson-Berndsen | Multilingual time maps: portable phonotactic models for speech technology | |
KR20180103273A (ko) | 음성 합성 장치 및 음성 합성 방법 | |
Milhorat | An open-source framework for supporting the design and implementation of natural-language spoken dialog systems | |
ELNOSHOKATY | CINEMA INDUSTRY AND ARTIFICIAL INTELLIGENCY DREAMS | |
Subcommittee | White Paper-Indian Language Resources--Speech Subcommittee Report | |
CN118016048A (zh) | 语音交互方法、装置、计算机设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |