CN107846350A - 一种语境感知网络聊天的方法、计算机可读介质和系统 - Google Patents
一种语境感知网络聊天的方法、计算机可读介质和系统 Download PDFInfo
- Publication number
- CN107846350A CN107846350A CN201710672575.1A CN201710672575A CN107846350A CN 107846350 A CN107846350 A CN 107846350A CN 201710672575 A CN201710672575 A CN 201710672575A CN 107846350 A CN107846350 A CN 107846350A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- context
- answer
- aware
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 210000005036 nerve Anatomy 0.000 claims abstract description 47
- 239000013598 vector Substances 0.000 claims abstract description 28
- 238000002360 preparation method Methods 0.000 claims abstract description 10
- 230000001537 neural effect Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004513 sizing Methods 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 5
- 238000010200 validation analysis Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims 3
- 230000007787 long-term memory Effects 0.000 claims 3
- 238000012549 training Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009223 counseling Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Transfer Between Computers (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种语境感知网络聊天的方法、计算机可读介质和系统。所述语境感知网络聊天的方法包括接收用户的语音;将所述用户的语音转化为准备回答的问题;确定准备回答的所述问题的问题类型;根据语境感知神经会话模式至少生成一个对应所述问题的答案;验证通过语境感知神经会话模式生成的答案;向用户传达验证后的所述答案;所述语境感知神经会话模式会考虑所述问题的语境信息,并且将所述问题的所述语境信息分解为多个高维向量。
Description
技术领域
本发明涉及计算机信息领域,特别涉及一种语境感知网络聊天的方法、计算机可读介质和系统。
背景技术
随着电子商务的出现,在电子商务网址上访问到满足消费者需要和商业需求的信息变得至关重要。导航指引的菜单和通过大部分商业网址提供的关键词搜索有很多限制,如他们往往因为冗长和呆板的反应会击溃和阻挠用户。在特定的网址上的用户兴趣常常随着鼠标点击次数的增加呈指数型的减少。因此,缩短交互的路径来提供有用的信息是关键。
许多电子商务网址尝试通过提供关键词搜索能力来解决问题,然而,关键词搜索引擎常常需要用户知道领域特定术语。不幸的是,关键词搜索不允许用户精确地描述用户需求,更为重要的是,关键词搜索缺乏对搜索词和语句的语义意思的理解。例如,关键词搜索通常无法理解“夏天的衣服(summer dress)”,应该会在女士衣服下搜索“裙子(dress)”,与之相反的是,“礼服衬衣”很可能是在男士衣服下搜索“衬衣”,“衬衣”的搜索常常会显示几十或者几百个项目,而这些项目对于有特定风格和模式的人来说是无用的。
由于上述所说的限制,当前的解决方案是自然语言(多种形式)对话,即,网络聊天。网络聊天应用于各种领域,例如,呼叫中心/路由应用,邮件路由,信息检索和数据访问,和电话银行等等,最近网络聊天在访问大量用户数据中越来越受欢迎。
然而,根据现有技术,现有的网络聊天技术通常限制于具特定领域和应用(例如预定飞机票)并且需要手动输入规则。进一步来说,在用户和机器人之间真实的对话中,用户的语境相当多是复杂且不断变化的,因此,语境感知和主动式技术网络聊天系统是急需应用于网络聊天系统。
本发明公开的方法及其系统用于解决现有技术中的一个或者多个问题。
发明内容
本发明提供了一种语境感知网络聊天的方法,所述语境感知网络聊天的方法包括接收用户的语音;将所述用户的语音转化为准备回答的问题;确定准备回答的所述问题的问题类型;根据语境感知神经会话模式至少生成一个对应所述问题的答案;验证通过语境感知神经会话模式生成的答案;向用户传递验证后的所述答案;所述语境感知神经会话模式考虑到所述问题的语境信息,并且将所述问题的所述语境信息分解为多个高维度向量。
本发明还提供了一种具有计算机程序的非暂时性计算机可读介质,当由处理器执行时,执行语境感知网络聊天的方法,其特征在于,所述方法包括:接收用户的语音;将所述用户的语音转化为准备回答的问题;确定准备回答的所述问题的问题类型;根据语境感知神经会话模式至少生成一个对应所述问题的答案;验证通过语境感知神经会话模式生成的答案;向用户传递验证后的所述答案;其中,所述语境感知神经会话模式考虑到所述问题的语境信息,并且将所述问题的所述语境信息分解为多个高维度向量。
本发明还提供了一种语境感知网络聊天的系统,所述语境感知网络聊天的系统包括问题获取模块用于接收用户的语音,并将所述用户的语音转化为准备回答的问题;问题确定模块用于确定准备回答的所述问题的问题类型;语境感知神经会话模块用于根据语境感知神经会话模式至少生成一个对应所述问题的答案;证据验证模块用于验证通过语境感知神经会话模式生成的答案;答案传递模块向用户传递验证后的所述答案。
本依据本发明充分公开的权利要求书、说明书、以及附图,本领域技术人员将充分理解本发明的其他方面内容。
以下附图仅仅是用于解释本发明的具体实施例,并不限制本发明的范围。
附图说明
图1为本发明具体实施方式的工作环境示意图;
图2为本发明具体实施方式的计算系统的结构框图;
图3为本发明具体实施方式的语境感知网络聊天的系统;
图4为本发明具体实施方式的语境感知网络聊天的方法的流程图;
图5为本发明具体实施方式的神经会话模式。
具体实施方式
为了便于理解本发明,下面参照相关附图对本发明进行更全面的描述。下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚,完整地描述。除非另外指出,在各图中相同的参考数字用于相同的部件。显然,描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
机器人系统是企业众多任务中至关重要的一项,机器人系统与它的供应商和伙伴必须清晰的交流,不仅仅是比喻还有字面意思,与客户进行持续性的对话,这是维持客户关系的关键。具有信息搜索和任务导向对话特征的交流是商业应用五大语族的核心:客户服务,咨询台,网址导航,引导销售,和技术支持。
消费服务对应于消费者关于产品和服务常见问题,例如,询问如何申请车贷和房贷。咨询台对应内部员工问题:例如,对应HR问题。网址导航向客户指引复杂网址相关部分。“网址礼宾”对于帮助人们确定信息或者服务对应在公司网址哪一个地方是十分有用的。引导销售可提供在销售过程中回答问题和指引,尤其是,向新消费者售卖复杂商品。技术支持对应技术问题,例如诊断机器的问题。
在商业中,清晰的交流是获取、服务和维系客户的关键。公司常常向潜在客户普及他们产品和服务,与此同时,通过清楚了解他们客户需求增强客户满意度和客户维系。虽然,客户常常对通过网址无效的搜索感到沮丧,并且延迟许多天后才邮件回应。因此,对于客户询问能准确和及时的回答是最为理想的。
现有网络聊天系统着重于训练问题和回答的配对和向单个客户推荐最有可能的回答,但是没有考虑到语境信息。语境信息涉及到有关于文本理解的信息,例如,在文本中命名事件的身份:人,地点,书,等等。在文本中命名事件的信息:生日,地理位置,发布日期,等等,解释信息:主题,关键字,和衡量标准,日期等等。
也就是说,传统的网络聊天仅仅处理用户和交流,但是在回答用户时,没有将交流对话放入语境中,在许多应用中只考虑用户和交流是不够的,例如,应用暂时语境,旅游交流系统可以提供不同于夏天假日推荐的冬天假日推荐,类似的,在客户对话系统中,确定何时向用户传递什么内容。因此在特定情况下非常需要在会话系统中融入语境信息。
根据应用于神经机器翻译的神经网络将序列映射到序列,改善英语对法语,英语对德语的翻译任务。因为普通的递归神经网络(RNNs)容许梯度消失,采用变形的长短期记忆(LSTM)的递归神经网络,此外,提出机器人和会话代理。然而,大多数系统需要具有许多步骤的相对复杂加工流水线,并且相对应的方法没有考虑到所述用户的语境的改变。
本发明根据神经会话模式提供了一种语境感知网络聊天方法,所述方法考虑到将语境特征。所述神经会话模式可以终端对终端训练,因此,可以显著性减少的手动输入规则的需求。本发明提供的语境感知网络聊天的方法可以将语境信息融入神经会话模式中,这可以使网络聊天在与用户交流的时候意识到语境。与每个词相关中所述语境实值输入向量以简化训练过程。将从所述语境中学习所述向量用于传递模式化的语句的语境信息。
图1为本发明具体实施方式的工作环境示意图100。如图1所示,环境100包括用户终端102,服务器104,用户106,和网络110,其中也可以包括其他设备。
所述用户终端102指具有一定运算能力的任何合适的用户移动终端,比如可穿戴设备(例如智能手表,智能手环),移动电话,智能电话,平板电脑,个人电脑(PC),服务器电脑,笔记本电脑,掌上电脑(PDA)等。
所述服务器104包括任何合适的服务器计算机或若干个向用户106提供个性化内容的服务器计算机。例如,所述服务器104可提供云端计算机服务器。所述服务器104也可能在其他服务器和用户用户终端102之间促进交流、存储数据、处理数据。所述用户用户终端102,和服务器104可以通过一个或多个交流网络110相互交流,比如有线网络,电话网络,和/或卫星网络,等。
所述用户106通过用户终端102实现搜索和检索各种内容以及其他兴感趣的活动,或者说,如果所述移动用户终端102使用语音识别引擎,移动感应器,或深度相机,所述用户可以通过语音,手势或肢体语言去控制所述用户终端102。所述用户106可能是单个用户或者若干用户,比如家庭成员。
可以在任何适合计算电路平台中实施所述用户用户终端102,和/或服务器104。图2为能够实现用户终端102和/或服务器104具体实施的计算系统的结构框图。
如图2所示,计算机系统200包括处理器202,存储介质204,显示器206,通讯模块208,数据库214以及外围设备212。其中某些设备可被省略,也可以包括其他设备。
处理器202可以包括任何合适的一个或多个处理器。甚至,处理器202可以包括用于多线程或并行处理的多个核心。存储介质204可以包括内存模块,比如ROM,RAM,闪存模块,以及大容量存储器,比如CD-ROM和硬盘等。存储介质204存储有计算机程序,当处理器202执行这些计算机程序时,可以实现各种方法步骤。
具体的,外围设备212包括各种传感器和I/O设备,比如键盘和鼠标等。通讯模块208包括用于通过交流网络建立连接的网络交互设备。数据库214包括用于存储某种数据的一个或多个数据库和用于完成在存储数据中的某种操作的已存储数据库,如数据库搜索。
返回到图1,所述用户终端102和/或服务器104通过使用语境感知网络聊天的系统,图3为本发明具体实施方式的语境感知网络聊天的系统。如图3所示语境感知网络聊天的系统300包括问题获取模块301,问题确定模块302,语境感知神经会话模块303,证据验证模块304,并且答案传递模块305。
所述问题获取模块301可用于接收用户的问题,可通过各种方式获取所述用户的问题,例如,文本,语音,手语,在具体实施中,所述问题获取模块301可以通过语音识别引擎用于接收用户语音和向对应的问题传输客户的语音。
所述问题确定模块302可用于分析问题和确定问题类型。分析所述问题涉及到推导所述问题的语义意义(问题实际意义是什么)。所述问题确定模块302可用于通过推导所述问题嵌入多少部分或意义来分析问题。问题的特征可用于问答匹配学习。
特别是,所述问题确定模块302可用于识别定型词(LAT)。定型词类型是指问题中的一个词或者名词短语,所述词或者名词短语是用于在完全没有试图理解其语义情况下指定回答类型。一个决定备选答案是否为LAT的例子是一种重要的分数类型和关键错误的共同来源。例如,指定问题“推荐我一些餐厅”,所述问题分析模块302可用于分析语句语法和推断回答问题的地点。
所述语境感知神经会话模块303可用于根据语境感知神经会话模式生成对应问题的答案序列,换言之,使用来自于问题分析来的数据以生成备选答案。特别是即使所述语境没有出现,当接收到问题时,所述语境感知神经会话模块303可用于识别所述问题的语境信息。例如,如输入情感感知神经会话模式,所述语境感知神经会话模块303可用于增加时间和事件等等。
更甚是,所述语境感知神经会话模块303可用于推断问题的答案即使在训练集中证据很难出现,这些都是非常重要的,这是因为所述训练数据没有包括关于每个用户的每个属性的详细信息。所述语境感知神经会话模块303可用于根据不同事件生成的会话内容学习事件表示,在生成相似回答的事件中可以有相似的嵌入。因此,在所述向量空间周围的所述训练数据可以增加情感感知神经会话模式的生成能力。
所述证据有效模块304用于证实通过语境感知神经会话模块303生成的所述答案。虽然生成所述答案,但是用户不一定接受所述答案。因此,证据有效模块304可以用于计算质量控制的置信度分数。在具体实施例中,在所述问题和所述答案之间的KL距离上计算所述置信度分数,然后在0和1之间归一化。
例如,可提供预决定置信度分数作为标准,如果所计算的置信度分数大于所述预定的置信度分数,则认为对应的答案是有效的,所述答案传递模块305用于向所述用户传递有效答案。如果已计算的置信度分数小于所预定的置信度分数,则认为对应的答案是无效的。然后所述语境感知神经会话模块303会生成新的答案直至答案是有效的为止。另外,所述有效答案可用于训练后续问题。
本发明还提供一种语境感知网络聊天的方法。为了考虑到所述语境信息,所述语境感知网络聊天的方法形成具有语境的回答,可以用嵌入的向量代表每个事件。例如,将影响答案的内容和类型的事件信息编码(例如,天气,交通),图4为本发明具体实施方式的语境感知网络聊天的方法流程图。
如图4所示,首先,接收用户语音(S402)。所述用户的语音是实时或者录制的,并且通过麦克风接收所述用户的语音然后转化为数字格式或者数据文件。也可以以数字格式的数据或者数据文件形式接收所述用户的语音。可以用任何合适的方法接收语音。
进一步,将所述用户的语音转化为准备回答的问题(S404)。即,通过用户用他/她的语音提出所述问题,在一具体实施例中,将所述用户的声音识别为文本并通过分析所述文本获取所述问题。或者分析所述用户的语音数据来获取所述问题或更多问题。在另一具体实施例中,用其他方式接收将要回答的所述问题,例如,文本,手语,不仅仅限于语音。
然后,分析准备回答的问题用户来确定问题的类型(S406)。例如,准备回答的问题可以与时间,地点或位置等等有关。通过推导准备回答的问题中嵌入多少部分或意义来分析所述准备回答的问题。在一具体实施例中,通过识别定型词(LAT)决定所述问题的类型。例如,指定问题“向我推荐一些餐厅”,分析语句语法,并推断准备回答的问题与地点有关。
在确定问题类型之后,根据语境感知神经会话模块至少生成一个回答所述问题的答案(S408)。即,根据来自于步骤S406的数据生成备选答案。根据语境感知神经会话模块生成准备回答的问题的答案序列,所述答案按照一定顺序排列,例如偏好顺序。
尤其是,当通过语境感知神经会话模块接收问题时,所述语境感知神经会话模块识别所述语境信息即使没有语境出现。例如,当输入语境感知神经会话模式时,所述语境感知神经会话模块303可用于增加时间和事件等等。
图5为本发明具体实施方式的神经会话模式。如图5所示,在语句中的每个标记与事件级别表示vi∈Rk*1有关,在标准的序列对序列模块中(SEQ2SEQ),可以用源LSTM将一个语句S编码为向量表示hS。然后,对于目标端的每个特征,可以组合所述表示来获取隐藏单元,并且在之前的时间步骤,当前时间步骤中所述单词表示和语境嵌入vi中通过目标LSTM生成所述表示。
所述语境感知神经会话模块可增加编码所述事件信息vi的隐藏层,从而使回答具有语境感知。所有包括事件i的会话可以共享所述嵌入vi。在训练期间向每个神经部分逆传播单词预测错误来学习{vi}。
此外,所述语境感知会话模式能够推断问题的回答即使证据在训练集中并不容易出现,其中,所述语境感知会话模式与所述训练数据一样重要,所述训练数据没有包括关于每个用户的每个属性的详细信息。所述语境感知会话模式可以根据不同事件生成的会话内容来学习事件表示。并且生成相似回答的事件倾向于有相似的插入,因此,在所述向量空间周边的所述训练数据可以增加模式的生成能力。
例如,考虑在冬季生成问答对“推荐一些好玩的地方”和“我觉得塔霍湖不错”,在训练过程中所述语境感知会话模式可以加时间,地点,人物和其他语境信息作为输入,可以嵌入考虑了语境信息的餐厅表示进入语境感知会话模式中。然后,在冬天,所述“美国塔霍湖”是比较好的回答。在所述测试过程中,当所述问题中问道餐厅,“在塔霍湖的B.J餐厅如何”,所述语境感知神经会话模式可以检测到这个问题在夏天提出,并且当注意到“塔霍湖”不是最接近当前语境时,推荐比B.J餐厅更好的结果。
然后将所述步骤S408转化为通过考虑到语境EC={ec1,ec2,…,ecm},得到回答语句或者给定的输入语句X={x1,x2,…,xn}的回答Y={y1,y2,…,yn},其中,x代表问题中的一个单词,并且y代表答案中的一个单词。将寻找所述答案语句Y的问题转化为通过最大化概率P(yt|yt-1,…,y1,ec)预测y的值。采用神经网络来学习没有利用手动输入规则的语句表示。
典型的神经会话模式每次可以提供具有每个输入门、记忆门和输出门的语句,其中分别定义为it,ft,和ot。xt指的是时间步骤t中关于单个文本单元的向量,ht指通过xt和ht-1组合在时间步骤t中由LSTM模型计算的向量,ct指在时间步骤t中所述单元格状态向量,并且θ是指所述sigmoid函数。然而,每个时间步骤t的所述向量表示ht如下所示:
ct=ftct-1+itlt (2)
其中W是指已学习和已训练的因素,并且Wi,Wf,Wo,Wl∈RK*2K。
不同于序列对序列生成任务,每个输入X与已预测的输出序列:Y={y1,y2,…,yn}配对,输出和按顺序预测的标记分布可以用softmax函数表示的:
其中f(ht-1,eyt)指在ht-1和eyt的激活函数。每个语句都可以用一个特殊的语句结束符EOS。因此,在解码过程中,当预测到EOS标记时,结束所述解码算法。在每个时间步骤中,对单词预测采用是贪心法或集束搜索。
通过证据验证模块验证所述语境感知神经会话模式生成的答案(S410)。虽然生成了所述答案,所述用户不能接受所述答案。因此,可以提供质量控制的置信度分数。在一具体实施例中,在问题和答案之间计算在归一化KL距离(在0和1之间)中的所述置信度分数。所述KL距离的计算是本领域普通技术人员容易得到的,因此不在这里解释。
例如,提供预定置信度作为标准,并且根据所述答案的已计算置信度分数决定所述答案是否有效(S411)。如果所述已计算的置信度分数大于所述预定的置信度分数,则考虑对应的答案是有效的并将所述有效答案传给所述用户(S412)。如果所述计算置信度分数比预定置信度分数小,所述对应答案视为无效,重复所述步骤S408和S410和S411直至所述答案确定为有效。另外,所述有效答案可用于训练未来答案。
本发明所述方法和语境感知网络聊天系统可以考虑语境信息后回应所述用户或者回答问题。为了实现更多问题、答案和语境的精准表示,可以向所述语境感知神经会话模式输入所述语境信息。即,在系统级将所述语境信息输入到网络聊天中。所述语境感知神经会话模式可以同时学习所述语境和问答配对,利用语境感知神经会话模式,训练所述问答配对无需人工输入规则,并将所述语境信息分解至多个高维向量,例如,人物,和机构,客体,代理,突发事件,目的,事件,地点,表现形式,概念/抽象概念,关系等等。
通过分析问题中的所述语境后,用更好答案匹配所述用户的问题。即,所述网络聊天可向用户提供更多相关答案,并所述用户可以在不同语境中寻找他们所需的服务和产品,明显地改善了用户体验。没有手动输入规则也可以将本发明提供的方法和语境感知网络聊天的系统应用于各种有趣应用中。
另外,本发明提供的方法和语境感知网络聊天的系统可以为考虑采用语境信息的方法和系统提供总的学习框架。嵌入语境表示的已学习单词可以用于将来其他任务中,在将来,在推荐系统中代表语境信息的高维向量可以用于个性化。
本实例的技术将进一步理解,本实施例中公开的各种说明模块和方法步骤可以在电子硬件,计算机软件,或软硬件上实现,为了更为清晰的说明软硬件的互换性,以上主要从功能方面描述了各种说明性单元和步骤。是否能在软硬件上实现所述功能取决于全系统上的具体应用和加载的设计限制。技术人员可以在每个具体应用中应用各种方法实现所述功能,但是这种实施应该解释为在本发明保护范围内。
本所公开实施例的描述用于向本领域普通技术人员说明本发明。对所述实施例的各种修改对本领域普通技术人员是显而易见的,并且在本发明实施例中给出的一般性原则在不脱离本发明的精神或者范围的情况下,也可以应用于其他实施例中。因此,本发明不限于所述实施例中,但是适用于与本实施例所公开的原则和新特征相一致的最广领域。
Claims (20)
1.一种语境感知网络聊天的方法,其特征在于,所述方法包括:
接收用户的语音;
将所述用户的语音转化为准备回答的问题;
确定准备回答的所述问题的问题类型;
根据语境感知神经会话模式至少生成一个对应所述问题的答案;
验证通过语境感知神经会话模式生成的所述答案;
向用户传达验证后的所述答案;
其中,所述语境感知神经会话模式会考虑所述问题的语境信息,并且将所述问题的所述语境信息分解为多个高维向量。
2.根据权利要求1所述的语境感知网络聊天的方法,其特征在于,确定准备回答的所述问题的问题类型包括:
识别准备回答的所述问题的定型词。
3.根据权利要求1所述的语境感知网络聊天的方法,其特征在于,根据语境感知神经会话模式至少生成一个对应于所述问题的答案包括:
提供输入语句X={x1,x2,…,xn},通过考虑到语境EC={ec1,ec2,…,ecm}得到回答语句Y={y1,y2,…,yn},其中,x表示在所述输入语句中的词,y代表在回答语句中的词,所述回答语句Y代表答案,并且所述输入语句X代表准备回答的问题。
4.根据权利要求3所述的语境感知网络聊天的方法,其特征在于,提供所述输入语句X={x1,x2,…,xn},通过考虑到语境EC={ec1,ec2,…,ecm}得到回答语句Y={y1,y2,…,yn}包括:
通过最大化概率P(yt|yt-1,…,y1,ec)来预测y的值。
5.根据权利要求4所述的语境感知网络聊天的方法,其特征在于,通过最大化概率P(yt|yt-1,…,y1,ec)来预测y的值包括:
通过所述语境感知神经会话模式,提供具有输入门为it、记忆门为ft,输出门ot的输入语句;及
通过以下步骤计算单位时间步骤t的向量表示为ht
Ct=ftct-1+itlt
<mrow>
<msubsup>
<mi>h</mi>
<mi>t</mi>
<mi>s</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>o</mi>
<mi>t</mi>
</msub>
<mo>*</mo>
<mi>t</mi>
<mi>a</mi>
<mi>n</mi>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>c</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中Wi,Wf,Wo,Wl∈RK*2K,W是指已学习和已训练因素,xt是指在时间步骤t中单个文本单元的向量,ht指通过xt和ht-1组合在时间步骤t中由长短期记忆模型计算的向量,ct指在时间步骤t中所述单元格状态向量,θ是指所述sigmoid函数。
6.根据权利要求5所述的语境感知网络聊天的方法,其特征在于,包括:
根据softmax函数计算输出分布和按顺序预测的标记分布:
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>Y</mi>
<mo>|</mo>
<mi>X</mi>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Pi;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>y</mi>
</msub>
</msubsup>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>|</mo>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Pi;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>y</mi>
</msub>
</msubsup>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>e</mi>
<mrow>
<mi>y</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</msub>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>e</mi>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
其中,f(ht-1,eyt)指在ht-1和eyt之间的激活函数。
7.根据权利要求6所述的语境感知网络聊天的方法,其特征在于,
当预测到EOS标记时,结束所述输入语句的解码。
8.根据权利要求1所述的语境感知网络聊天的方法,其特征在于,所述验证通过语境感知神经会话模式生成的答案包括:
计算通过所述语境感知神经会话模式生成的答案的置信度分数,其中所述置信度分数是问题和答案之间的归一化KL距离。
9.一种具有计算机程序的非暂时性计算机可读介质,当由处理器执行时,执行语境感知网络聊天的方法,其特征在于,所述方法包括:
接收用户的语音;
将所述用户的语音转化为准备回答的问题;
确定准备回答的所述问题的问题类型;
根据语境感知神经会话模式至少生成一个对应所述问题的答案;
验证通过语境感知神经会话模式生成的答案;
向用户传递验证后有效的答案;
其中,所述语境感知神经会话模式考虑到所述问题的语境信息,并且将所述问题的所述语境信息分解为多个高维向量。
10.根据权利要求9所述的具有计算机程序的非暂时性计算机可读介质,其特征在于,所述确定准备回答的所述问题的问题类型包括:
识别准备回答的所述问题的定型词。
11.根据权利要求9所述的具有计算机程序的非暂时性计算机可读介质,其特征在于,根据所述语境感知神经会话模式至少生成一个对应于所述问题的答案包括:
假设输入语句X={x1,x2,…,xn},通过考虑到语境EC={ec1,ec2,…,ecm}得到回答语句Y={y1,y2,…,yn},其中,x表示在所述输入语句中的词,y代表在回答语句中的词,所述回答语句Y代表答案,并且所述输入语句X代表准备回答的问题。
12.根据权利要求11所述的具有计算机程序的非暂时性计算机可读介质,其特征在于,所述提供输入语句X={x1,x2,…,xn},通过考虑到语境EC={ec1,ec2,…,ecm}寻找回答语句Y={y1,y2,…,yn}包括:
通过最大化概率P(yt|yt-1,…,y1,ec)来预测y的值。
13.根据权利要求12所述的具有计算机程序的非暂时性计算机可读介质,其特征在于,所述通过最大化概率P(yt|yt-1,…,y1,ec)来预测y的值包括:
通过所述语境感知神经会话模式,提供具有输入门为it、记忆门为ft,输出门ot的输入语句;及
通过以下步骤计算单位时间步骤t的向量表示为ht
ct=ftct-1+itlt
<mrow>
<msubsup>
<mi>h</mi>
<mi>t</mi>
<mi>s</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>o</mi>
<mi>t</mi>
</msub>
<mo>*</mo>
<mi>t</mi>
<mi>a</mi>
<mi>n</mi>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>c</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中Wi,Wf,Wo,W1∈RK*2K,W是指已学习和已训练因素,xt是指在时间步骤t中关于单个文本单元的向量,ht指通过xt和ht-1组合在时间步骤t中由长短期记忆模型计算的向量,ct指在时间步骤t中所述单元格状态向量,并且θ是指所述sigmoid函数;
根据softmax函数计算输出和按顺序预测的标记分布:
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>Y</mi>
<mo>|</mo>
<mi>X</mi>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Pi;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>y</mi>
</msub>
</msubsup>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>|</mo>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Pi;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>y</mi>
</msub>
</msubsup>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>e</mi>
<mrow>
<mi>y</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</msub>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>e</mi>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
其中,f(ht-1,eyt)指在ht-1和eyt之间的激活函数。
14.根据权利要求9所述的具有计算机程序的非暂时性计算机可读介质,其特征在于,所述验证通过语境感知神经会话模式生成的答案包括:
计算通过所述语境感知神经会话模式生成的答案的置信度分数,其中所述置信度分数是问题和答案之间的归一化KL距离。
15.一种语境感知网络聊天的系统,其特征在于,所述系统包括:
问题获取模块:用于接收用户的语音,并将所述用户的语音转化为准备回答的问题;
问题确定模块:用于确定准备回答的所述问题的问题类型;
语境感知神经会话模块:用于根据语境感知神经会话模式至少生成一个对应所述问题的答案;
证据验证模块:用于验证通过语境感知神经会话模式生成的答案;
答案传递模块:用于向用户传递验证后有效的答案。
16.根据权利要求书15所述的语境感知网络聊天的系统,其特征在于,所述问题确定模块包括:
识别准备回答的所述问题的定型词。
17.根据权利要求书15所述的语境感知网络聊天的系统,其特征在于,所述语境感知神经会话模块包括:
提供输入语句X={x1,x2,…,xn},通过考虑到语境EC={ec1,ec2,…,ecm}得到回答语句Y={y1,y2,…,yn},其中,x表示在所述输入语句中的词,y代表在回答语句中的词,所述回答语句Y代表答案,并且所述输入语句X代表准备回答的问题。
18.根据权利要求书17所述的语境感知网络聊天的系统,其特征在于,所述语境感知神经会话模块包括:
通过最大化概率P(yt|yt-1,…,y1,ec)来预测y的值。
19.根据权利要求书18所述的语境感知网络聊天的系统,其特征在于,所述语境感知神经会话模块包括:
通过所述语境感知神经会话模式,提供具有输入门为it、记忆门为ft,输出门ot的输入语句;及
通过以下步骤计算单位时间步骤t的向量表示为ht
ct=ftct-1+itlt
<mrow>
<msubsup>
<mi>h</mi>
<mi>t</mi>
<mi>s</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>o</mi>
<mi>t</mi>
</msub>
<mo>*</mo>
<mi>t</mi>
<mi>a</mi>
<mi>n</mi>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>c</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中Wi,Wf,Wo,Wl∈RK*2K,W是指已学习和已训练因素,xt是指在时间步骤t中关于单个文本单元的向量,ht指通过xt和ht-1组合在时间步骤t中由长短期记忆模型计算的向量,ct指在时间步骤t中所述单元格状态向量,并且θ是指所述sigmoid函数;
根据softmax函数计算输出和按顺序预测的标记分布:
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>Y</mi>
<mo>|</mo>
<mi>X</mi>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Pi;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>y</mi>
</msub>
</msubsup>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>|</mo>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Pi;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>y</mi>
</msub>
</msubsup>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>e</mi>
<mrow>
<mi>y</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</msub>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>e</mi>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
其中,f(ht-1,eyt)指在ht-1和eyt之间的激活函数。
20.根据权利要求书15所述的语境感知网络聊天的系统,其特征在于,所述证据验证模块包括:
计算通过所述语境感知神经会话模式生成的答案的置信度分数,其中所述置信度分数是问题和答案之间的归一化KL距离。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/269,551 | 2016-09-19 | ||
US15/269,551 US20180082184A1 (en) | 2016-09-19 | 2016-09-19 | Context-aware chatbot system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107846350A true CN107846350A (zh) | 2018-03-27 |
CN107846350B CN107846350B (zh) | 2022-01-21 |
Family
ID=61620476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710672575.1A Active CN107846350B (zh) | 2016-09-19 | 2017-08-08 | 一种语境感知网络聊天的方法、计算机可读介质和系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180082184A1 (zh) |
CN (1) | CN107846350B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111695342A (zh) * | 2020-06-12 | 2020-09-22 | 复旦大学 | 基于语境信息的文本内容校正方法 |
CN112528678A (zh) * | 2019-09-19 | 2021-03-19 | 国际商业机器公司 | 基于上下文信息的对话系统 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11238090B1 (en) | 2015-11-02 | 2022-02-01 | Narrative Science Inc. | Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from visualization data |
US10747823B1 (en) | 2014-10-22 | 2020-08-18 | Narrative Science Inc. | Interactive and conversational data exploration |
US11288328B2 (en) | 2014-10-22 | 2022-03-29 | Narrative Science Inc. | Interactive and conversational data exploration |
US11341338B1 (en) | 2016-08-31 | 2022-05-24 | Narrative Science Inc. | Applied artificial intelligence technology for interactively using narrative analytics to focus and control visualizations of data |
US11170038B1 (en) | 2015-11-02 | 2021-11-09 | Narrative Science Inc. | Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from multiple visualizations |
US10719542B1 (en) | 2017-02-17 | 2020-07-21 | Narrative Science Inc. | Applied artificial intelligence technology for ontology building to support natural language generation (NLG) using composable communication goals |
US10600406B1 (en) * | 2017-03-20 | 2020-03-24 | Amazon Technologies, Inc. | Intent re-ranker |
US11042708B1 (en) | 2018-01-02 | 2021-06-22 | Narrative Science Inc. | Context saliency-based deictic parser for natural language generation |
US10963649B1 (en) | 2018-01-17 | 2021-03-30 | Narrative Science Inc. | Applied artificial intelligence technology for narrative generation using an invocable analysis service and configuration-driven analytics |
US11600194B2 (en) * | 2018-05-18 | 2023-03-07 | Salesforce.Com, Inc. | Multitask learning as question answering |
US11005786B2 (en) | 2018-06-28 | 2021-05-11 | Microsoft Technology Licensing, Llc | Knowledge-driven dialog support conversation system |
US20200007380A1 (en) * | 2018-06-28 | 2020-01-02 | Microsoft Technology Licensing, Llc | Context-aware option selection in virtual agent |
US10580176B2 (en) | 2018-06-28 | 2020-03-03 | Microsoft Technology Licensing, Llc | Visualization of user intent in virtual agent interaction |
US11232270B1 (en) | 2018-06-28 | 2022-01-25 | Narrative Science Inc. | Applied artificial intelligence technology for using natural language processing to train a natural language generation system with respect to numeric style features |
US10853577B2 (en) * | 2018-09-21 | 2020-12-01 | Salesforce.Com, Inc. | Response recommendation system |
US11176598B2 (en) | 2018-12-10 | 2021-11-16 | Accenture Global Solutions Limited | Artificial intelligence and machine learning based conversational agent |
US10909180B2 (en) * | 2019-01-11 | 2021-02-02 | International Business Machines Corporation | Dynamic query processing and document retrieval |
US10949613B2 (en) | 2019-01-11 | 2021-03-16 | International Business Machines Corporation | Dynamic natural language processing |
US11183186B2 (en) | 2019-01-16 | 2021-11-23 | International Business Machines Corporation | Operating a voice response system |
US11341330B1 (en) | 2019-01-28 | 2022-05-24 | Narrative Science Inc. | Applied artificial intelligence technology for adaptive natural language understanding with term discovery |
CN110032630B (zh) * | 2019-03-12 | 2023-04-18 | 创新先进技术有限公司 | 话术推荐设备、方法及模型训练设备 |
US11183203B2 (en) | 2019-04-16 | 2021-11-23 | International Business Machines Corporation | Neural representation of automated conversational agents (chatbots) |
US11303587B2 (en) * | 2019-05-28 | 2022-04-12 | International Business Machines Corporation | Chatbot information processing |
US11657094B2 (en) * | 2019-06-28 | 2023-05-23 | Meta Platforms Technologies, Llc | Memory grounded conversational reasoning and question answering for assistant systems |
CN110309283B (zh) * | 2019-06-28 | 2023-03-21 | 创新先进技术有限公司 | 一种智能问答的答案确定方法及装置 |
US11894129B1 (en) * | 2019-07-03 | 2024-02-06 | State Farm Mutual Automobile Insurance Company | Senior living care coordination platforms |
CN111090664A (zh) * | 2019-07-18 | 2020-05-01 | 重庆大学 | 基于神经网络的高仿人多模式对话方法 |
US11367527B1 (en) | 2019-08-19 | 2022-06-21 | State Farm Mutual Automobile Insurance Company | Senior living engagement and care support platforms |
US10691897B1 (en) | 2019-08-29 | 2020-06-23 | Accenture Global Solutions Limited | Artificial intelligence based virtual agent trainer |
CN110633357A (zh) * | 2019-09-24 | 2019-12-31 | 百度在线网络技术(北京)有限公司 | 语音交互方法、装置、设备和介质 |
CN110647617B (zh) * | 2019-09-29 | 2022-04-19 | 百度在线网络技术(北京)有限公司 | 对话引导模型的训练样本构建方法和生成模型的方法 |
KR102342343B1 (ko) * | 2019-10-10 | 2021-12-22 | 한국전자기술연구원 | 적응형 대화를 위한 장치 |
CN110955770A (zh) * | 2019-12-18 | 2020-04-03 | 圆通速递有限公司 | 一种智能对话系统 |
US11657076B2 (en) * | 2020-04-07 | 2023-05-23 | American Express Travel Related Services Company, Inc. | System for uniform structured summarization of customer chats |
CN111966799A (zh) * | 2020-07-27 | 2020-11-20 | 厦门快商通科技股份有限公司 | 智能客服方法、客服机器人、计算机设备及存储介质 |
CN112380326B (zh) * | 2020-10-10 | 2022-07-08 | 中国科学院信息工程研究所 | 一种基于多层感知的问题答案抽取方法及电子装置 |
US11935651B2 (en) | 2021-01-19 | 2024-03-19 | State Farm Mutual Automobile Insurance Company | Alert systems for senior living engagement and care support platforms |
US11881216B2 (en) | 2021-06-08 | 2024-01-23 | Bank Of America Corporation | System and method for conversation agent selection based on processing contextual data from speech |
US11889153B2 (en) | 2022-05-11 | 2024-01-30 | Bank Of America Corporation | System and method for integration of automatic response generating systems with non-API applications |
US11977779B2 (en) | 2022-05-11 | 2024-05-07 | Bank Of America Corporation | Smart queue for distributing user requests to automated response generating systems |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120265531A1 (en) * | 1999-11-12 | 2012-10-18 | Bennett Ian M | Speech based learning/training system using semantic decoding |
CN104050256A (zh) * | 2014-06-13 | 2014-09-17 | 西安蒜泥电子科技有限责任公司 | 基于主动学习的问答方法及采用该方法的问答系统 |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
CN105590626A (zh) * | 2015-12-29 | 2016-05-18 | 百度在线网络技术(北京)有限公司 | 持续语音人机交互方法和系统 |
US20160154792A1 (en) * | 2014-12-01 | 2016-06-02 | Microsoft Technology Licensing, Llc | Contextual language understanding for multi-turn language tasks |
CN105787560A (zh) * | 2016-03-18 | 2016-07-20 | 北京光年无限科技有限公司 | 基于循环神经网络的对话数据交互处理方法及装置 |
CN105912692A (zh) * | 2016-04-22 | 2016-08-31 | 华讯方舟科技有限公司 | 一种智能语音对话的方法和装置 |
CN105930452A (zh) * | 2016-04-21 | 2016-09-07 | 北京紫平方信息技术股份有限公司 | 一种识别自然语言的智能应答方法 |
US20160260426A1 (en) * | 2015-03-02 | 2016-09-08 | Electronics And Telecommunications Research Institute | Speech recognition apparatus and method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8805759B1 (en) * | 2006-09-06 | 2014-08-12 | Healthcare Interactive, Inc. | System and method for psychographic profiling of targeted populations of individuals |
CN102884822B (zh) * | 2010-05-11 | 2016-06-01 | 诺基亚技术有限公司 | 用于确定用户场景的方法和装置 |
US10200824B2 (en) * | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9799327B1 (en) * | 2016-02-26 | 2017-10-24 | Google Inc. | Speech recognition with attention-based recurrent neural networks |
US10332508B1 (en) * | 2016-03-31 | 2019-06-25 | Amazon Technologies, Inc. | Confidence checking for speech processing and query answering |
US10187394B2 (en) * | 2016-03-31 | 2019-01-22 | Microsoft Technology Licensing, Llc | Personalized inferred authentication for virtual assistance |
-
2016
- 2016-09-19 US US15/269,551 patent/US20180082184A1/en not_active Abandoned
-
2017
- 2017-08-08 CN CN201710672575.1A patent/CN107846350B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120265531A1 (en) * | 1999-11-12 | 2012-10-18 | Bennett Ian M | Speech based learning/training system using semantic decoding |
CN104050256A (zh) * | 2014-06-13 | 2014-09-17 | 西安蒜泥电子科技有限责任公司 | 基于主动学习的问答方法及采用该方法的问答系统 |
US20160154792A1 (en) * | 2014-12-01 | 2016-06-02 | Microsoft Technology Licensing, Llc | Contextual language understanding for multi-turn language tasks |
US20160260426A1 (en) * | 2015-03-02 | 2016-09-08 | Electronics And Telecommunications Research Institute | Speech recognition apparatus and method |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
CN105590626A (zh) * | 2015-12-29 | 2016-05-18 | 百度在线网络技术(北京)有限公司 | 持续语音人机交互方法和系统 |
CN105787560A (zh) * | 2016-03-18 | 2016-07-20 | 北京光年无限科技有限公司 | 基于循环神经网络的对话数据交互处理方法及装置 |
CN105930452A (zh) * | 2016-04-21 | 2016-09-07 | 北京紫平方信息技术股份有限公司 | 一种识别自然语言的智能应答方法 |
CN105912692A (zh) * | 2016-04-22 | 2016-08-31 | 华讯方舟科技有限公司 | 一种智能语音对话的方法和装置 |
Non-Patent Citations (1)
Title |
---|
GEORGE SAON,等: ""Unfolded Recurrent Neural Networks for Speech Recognition"", 《15TH?ANNUAL CONFERENCE OF THE INTERNATIONAL SPEECH COMMUNICATION ASSOCIATION》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528678A (zh) * | 2019-09-19 | 2021-03-19 | 国际商业机器公司 | 基于上下文信息的对话系统 |
CN111695342A (zh) * | 2020-06-12 | 2020-09-22 | 复旦大学 | 基于语境信息的文本内容校正方法 |
CN111695342B (zh) * | 2020-06-12 | 2023-04-25 | 复旦大学 | 基于语境信息的文本内容校正方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180082184A1 (en) | 2018-03-22 |
CN107846350B (zh) | 2022-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107846350A (zh) | 一种语境感知网络聊天的方法、计算机可读介质和系统 | |
US10853717B2 (en) | Creating a conversational chat bot of a specific person | |
CN110569377B (zh) | 一种媒体文件的处理方法和装置 | |
KR102436293B1 (ko) | 이미지 데이터에 적어도 부분적으로 기초하여 액션을 수행하기 위한 에이전트 결정 | |
CN111932144B (zh) | 一种客服坐席分配方法、装置、服务器及存储介质 | |
CN114766091A (zh) | 利用助理系统的任务持久性的用户控制的任务执行 | |
CN111368548A (zh) | 语义识别方法及装置、电子设备和计算机可读存储介质 | |
CN113590849A (zh) | 多媒体资源分类模型训练方法和多媒体资源推荐方法 | |
CN103080927A (zh) | 使用搜索结果的自动路由 | |
Chen et al. | Cognitive computing on unstructured data for customer co-innovation | |
CN109392309A (zh) | 建立与非注册资源的基于音频的网络会话 | |
CN117332072B (zh) | 对话处理、语音摘要提取以及目标对话模型训练方法 | |
Maher et al. | AI and deep learning-driven chatbots: a comprehensive analysis and application trends | |
CN114330704A (zh) | 语句生成模型更新方法、装置、计算机设备和存储介质 | |
CN117271745A (zh) | 一种信息处理方法、装置及计算设备、存储介质 | |
CN116563034A (zh) | 基于人工智能的购买预测方法、装置、设备及存储介质 | |
CN109951859A (zh) | 无线网络连接推荐方法、装置、电子设备及可读介质 | |
CN112328871B (zh) | 一种基于rpa模块的回复生成方法、装置、设备及存储介质 | |
CN111914077A (zh) | 定制化话术推荐方法、装置、计算机设备及存储介质 | |
CN115482019A (zh) | 一种活动关注度预测方法、装置、电子设备和存储介质 | |
Sobhana et al. | Navbot—College Navigation Chatbot Using Deep Neural Network | |
CN116661940B (zh) | 组件识别方法、装置、计算机设备和存储介质 | |
CN111813910B (zh) | 客服问题的更新方法、系统、终端设备及计算机存储介质 | |
US11457074B2 (en) | Using outcome-targeted gap predictions to identify a digital resource | |
US20220329545A1 (en) | Intelligent Assistant Content Generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 516006 TCL science and technology building, No. 17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co.,Ltd. Address before: 516006 23rd floor, TCL science and technology building, 17 Huifeng 3rd road, Zhongkai hi tech Development Zone, Huizhou City, Guangdong Province Applicant before: TCL Corp. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |