CN111783429A - 信息处理方法、装置、电子设备以及存储介质 - Google Patents
信息处理方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN111783429A CN111783429A CN202010759411.4A CN202010759411A CN111783429A CN 111783429 A CN111783429 A CN 111783429A CN 202010759411 A CN202010759411 A CN 202010759411A CN 111783429 A CN111783429 A CN 111783429A
- Authority
- CN
- China
- Prior art keywords
- sentence
- statement
- processed
- vector
- complete
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 30
- 238000003860 storage Methods 0.000 title claims abstract description 29
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 claims abstract description 65
- 238000012545 processing Methods 0.000 claims abstract description 56
- 239000013598 vector Substances 0.000 claims description 241
- 238000012549 training Methods 0.000 claims description 182
- 230000003993 interaction Effects 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 14
- 238000013473 artificial intelligence Methods 0.000 abstract description 14
- 230000000694 effects Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229910052573 porcelain Inorganic materials 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种信息处理方法、装置、电子设备以及存储介质,可适用于人工智能以及大数据等领域。该方法包括:获取待处理语句和待处理语句对应的上文语句;若待处理语句为省略句的情况下,则确定待处理语句的第一语句特征和上文语句的第二语句特征;根据第一语句特征和第二语句特征,生成待处理语句对应的完整语句;根据完整语句进行相应的处理。采用本申请实施例,可将用户输入的省略句恢复为完整语句,可提高对用户输入语句的信息处理效果。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种信息处理方法、装置、电子设备以及存储介质。
背景技术
随机人工智能(Artificial Intelligence,AI)的不断发展,在人机交互过程中,用户为了简单快速的表达自己的意图,通常会在当前语句中省略之前曾经提到过的信息。也就是说,用户输入的语句常常会成为省略部分词语的省略句。
对于用户输入的省略句,现有技术通常即遍历上文语句的所有词汇后,进一步判断上文语句中的各词汇是否为当前省略句所省略的词语。在确定出当前省略所省略的词语之后,还需要在当前省略句中找到正确的插入位置,过程繁琐,效率低下。并且由于在口语语境中存在大量不规范的句法结构,因此上述方法往往会导致省略句恢复为完整句的准确性较低。
因此,如何快速准确将用户输入的省略句恢复为完整语句成为亟需解决的问题。
发明内容
本申请实施例提供一种信息处理方法、装置、电子设备以及存储介质,可将用户输入的省略句恢复为完整语句,可提高对用户输入语句的信息处理效果。
第一方面,本申请实施例提供一种信息处理方法,该方法包括:
获取待处理语句和上述待处理语句对应的上文语句;
若上述待处理语句为省略句,则确定上述待处理语句的第一语句特征和上述上文语句的第二语句特征;
根据上述第一语句特征和上述第二语句特征,生成上述待处理语句对应的完整语句;
根据上述完整语句进行相应的处理。
第二方面,本申请实施例提供了一种信息处理装置,该装置包括:
获取模块,用于获取待处理语句和上述待处理语句对应的上文语句;
确定模块,用于若确定上述待处理语句为省略句,则确定上述待处理语句的第一语句特征和上述上文语句的第二语句特征;
生成模块,用于根据上述第一语句特征和上述第二语句特征,生成上述待处理语句对应的完整语句;
处理模块,用于根据上述完整语句进行相应的处理。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器和存储器,该处理器和存储器相互连接;
该存储器用于存储计算机程序;
该处理器被配置用于在调用所述计算机程序时,执行上述第一方面和/或第一方面任一种可能的实现方式提供的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行以实现上述第一方面和/或第一方面任一种可能的实施方式所提供的方法。
第五方面,本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述第一方面和/或第一方面任一种可能的实施方式所提供的方法。
在本申请实施例中,通过确定待处理语句的语句特征和上文语句的语句特征,可在无需遍历上文语句所有词的情况下,直接基于待处理语句和上文语句的语句特征生成待处理语句对应的完整语句,效率更高。此外,由于本申请可直接基于上述语句特征生成完整语句,可避免完整语句存在语法结构不规范等问题,适用性高。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本申请实施例提供的待处理语句的一表示示意图;
图1b是本申请实施例提供的待处理语句的另一表示示意图;
图2是本申请实施例提供的信息处理方法的一流程示意图;
图3a是本申请实施例提供的人机交互的第一种场景示意图;
图3b是本申请实施例提供的人机交互的第二种场景示意图;
图3c是本申请实施例提供的人机交互的第三种场景示意图;
图4是本申请实施例提供的完整语句的生成方法的一流程示意图;
图5是本申请实施例提供的确定完整语句的一场景示意图;
图6a是本申请实施例提供的人机交互的第四种场景示意图;
图6b是本申请实施例提供的人机交互的第五种场景示意图;
图7是本申请实施例提供的信息处理方法的另一流程示意图;
图8是本申请实施例提供的完整语句的生成方法的另一流程示意图;
图9是本申请实施例提供的确定完整语句的另一场景示意图;
图10是本申请实施例提供的确定完整语句的又一场景示意图
图11是本申请实施例提供的语句生成模型的训练方法的流程示意图;
图12是本申请实施例提供的信息处理装置的结构示意图;
图13是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供的信息处理方法可适用于人工智能的多种领域,如基于自然语言处理(Nature Language processing,NLP)的人机交互、云技术(Cloud technology)中的云计算、人工智能云服务以及大数据领域中的相关数据计算处理领域,旨在当用户输入的待处理语句为省略句的情况下,确定待处理语句所对应的完整语句,从而根据完整语句进行相应的处理。其中,上述待处理语句为避免重复、突出关键信息并与其上文语句紧密连接的省略句,即在本申请实施例中为在脱离上文语句情况下不具备明确语义的语句。
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答等。
云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。本申请实施例所提供的信息处理方法可基于云技术中的云计算(cloud computing)实现。
云计算是指通过网络以按需、易扩展的方式获得所需资源,是网格计算(GridComputing)、分布式计算(Distributed Computing)、并行计算(Parallel Computing)、效用计算(Utility Computing)、网络存储(Network StorageTechnologies)、虚拟化(Virtualization)、负载均衡(Load Balance)等传统计算机和网络技术发展融合的产物。
人工智能云服务,一般也被称作是AIaaS(AI as a Service,AI即服务)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的人工智能服务进行拆分,并在云端提供独立或者打包的服务,如确定省略语句所对应的完整语句,进而根据完整语句完成相应服务等。
大数据(Big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。随着云时代的来临,大数据也吸引了越来越多的关注。基于大数据需要特殊的技术,以有效地实施本实施例所提供的信息处理方法,其中适用于大数据的技术,包括大规模并行处理数据库、数据挖掘、分布式文件系统、分布式数据库、以及上述云计算等。
在一些可行的实施方式中,待处理语句及其对应的上文语句包括但不限于人工智能领域下的智能问答、智能翻译以及语义分析等过程中,用于查询、命令或者交流等的语句信息,具体可基于实际应用场景需求确定,在此不做限制。如在用户在人机对话过程中通过输入的语音、文字等对话信息之后,智能设备需要确定其中的待处理语句(省略句)所表达的真实含义以了解用户的真实意图,从而执行用户真实意图所对应的操作或者向用户提供其真实意图所对应的相关信息。或者,在智能翻译过程中,当待翻译语句中出现待处理语句(省略句)时,智能设备需要联合其上文语句确定待处理语句对应的完整语句以获取待处理语句的真正语义,进而实现准确翻译。
其中,上述智能设备包括但不限于移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等移动终端以及诸如数字TV、台式计算机等固定终端,具体也可基于实际应用场景需求确定,在此不做限制。
例如,如图1a所示,图1a是本申请实施例提供的待处理语句的一表示示意图。在图1a中,语句1“放一首周杰伦的歌”和语句2“放一首他的晴天”为完整的上下文语句,如果只存在语句2的情况下,无法确定“他”的具体指代,因此语句2为待处理语句,语句1为语句2对应的上文语句。再例如,如图1b所示,图1b是本申请实施例提供的待处理语句的另一表示示意图。在图1b中,语句3“放一首七里香”和语句4“女生版的”为完整的上下文语句,如果只存在语句4的情况下,无法确定“女生版的”具体指何种指令或者意图,因此语句4为待处理语句,语句3为语句4对应的上文语句。
请参见图2,图2是本申请实施例提供的信息处理方法的一流程示意图,该方法可以由任一电子设备执行,如可以是服务器或者用户终端,也可以是用户终端和服务器交互完成,可选的,可以由服务器执行,对于需要提供用户的结果,可以由服务器将结果发送给用户终端,通过用户终端展示给用户。其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(ContentDelivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器或服务器集群。用户终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,用户终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,但并不局限于此。
如图2所示,本申请实施例提供的信息处理方法包括如下步骤:
S11、获取待处理语句和待处理语句对应的上文语句。
在一些可行的实施方式中,在获取待处理语句和待处理语句对应的上文语句时,可通过人机交互界面获取用户输入的查询语句、指令语句以及相对应的上文语句。例如,可通过音频采集装置(如麦克风)等采集用户输入的语音,通过语义分析的得到用户输入的语音所对应的待处理语句及其对应的上文语句。如图3a所示,图3a是本申请实施例提供的人机交互的第一种场景示意图。在图3a中,用户在人机界面输入“放一首周杰伦的歌”之后,机器人在人机交互界面向用户回复处理结果“好的,为您播放周杰伦的青花瓷”,以完成当前用户意图理解及播放歌曲。当用户再次输入“换一首他的晴天”以更换播放曲目时,在此阶段可基于人机交互界面获取用户输入的待处理语句“换一首他的晴天”及其上文语句“放一首周杰伦的歌”。
如图3b所示,图3b是本申请实施例提供的人机交互的另一场景示意图。在图3b中,用户在人机界面输入“放一首七里香”之后,机器人在人机交互界面向用户回复处理结果“为您播放周杰伦的七里香”,以完成当前用户意图理解及播放歌曲。当用户再次输入“女生版的”以更换播放曲目时,在此阶段可基于人机交互界面获取用户输入的待处理语句“女生版的”及其上文语句“放一首七里香”。其中,在图3a和图3b中,待处理语句及其上文语句中的任一语句均可通过人机界面上的数字键盘、语音采集、或者图片识别等获取,在此不做限制。
可选的,还可根据用户通过点击相关提示信息触发的信心作为待处理语句或者对应的上文语句。如图3c所示,图3c是本申请实施例提供的人机交互的又一场景示意图。在图3c中,当用户通过点击人机交互界面上的提示信息时,如“放一首周杰伦的歌”之后,可获取用户所点击的语句信息作为用户输入的“换一首他的晴天”的上文语句。不难发现,“换一首他的晴天”为待处理语句,且该待处理语句同样可通过人机界面获取点击其他提示信息、语音、图片以及文字等方式输入。
需要特别说明的是,待处理语句及其对应的上文语句的获取可通过上述一种或者多种获取方式实现,也可通过其他信息采集方式获取,具体可基于实际应用场景需求确定,在此不做限制。
S12、在确定待处理语句为省略句的情况下,确定待处理语句的第一语句特征和上文语句的第二语句特征。
在一些可行的实施方式中,在确定待处理语句为省略句的情况下,可先将待处理语句以及待处理语句的上文语句所包含的各词用词向量表示,进而编码器对待处理语句的词向量进行编码得到待处理语句的语句特征,以及对上文语句的词向量进行编码得到上文语句的语句特征。为方便描述,以下将待处理语句的语句特征称为第一语句特征,将上文语句的语句特征成为第二语句特征。其中,待处理语句和上文语句中的词可以为词语,也可为一个字,在此不做限制。
其中,上述编码器具体可以采用神经网络结构实现,且神经网络包括但不限于循环神经网络(Recurrent Neural Networks,RNN)、长短期记忆人工神经网络(Long Short-Term Memory,LSTM)以及门控循环单元(Gated Recurrent Unit,GRU)、transformer结构等,具体可基于实际应用场景需求配置和选择,在此不做限制。
具体的,可基于热独编码分别将待处理语句和上文语句中的各词用向量表示,得到待处理语句中各词对应的词向量以及上文语句中各词对应的词向量。或者,可基于word2vector模型分别将待处理语句和上文语句中的各词用向量表示,得到待处理语句中各词对应的词向量以及上文语句中各词对应的词向量。进一步的,为降低基于上述方法所得到的词向量的维度以便于提升待处理语句的第一语句特征和上文语句的第二语句特征的确定效率,可进一步通过嵌入层将基于热独编码得到的词向量,或者将基于word2vector模型得到的词向量进行降维处理,以得到最终用于确定待处理语句的第一语句特征的各个词向量,以及最终用于确定上文语句的第二语句特征的各个词向量。
需要特别说明的是,上述确定待处理语句中各词对应的词向量和上文语句中各词对应的词向量的方法仅为示例,具体可基于实际应用场景需求确定,在此不做限制。其中,在将待处理语句的最后插入EOS(End Of Sentence)符号以表示待处理语句的结尾以便基于编码器对待处理语句各词的词向量进行编码时确定编码终止时刻。同理,在将上文语句中各词表示为词向量之后,可在最后一个词的词向量之后定义EOS(End Of Sentence)以表示上文语句的结尾,以便基于编码器对上文语句各词的词向量进行编码时确定编码终止时刻。
在得到待处理语句中各词对应的词向量后,可将待处理语句中各词对应的词向量输入编码器,从而将编码器编码终止时生成的语义向量作为待处理语句的第一语句特征。其中,由于输入编码器的任一词向量所对应的隐状态由该词向量的上一词向量所对应的隐状态和该时刻输入的词向量确定,因此可在将待处理语句的所有词向量输入神经网络之后,将最后的隐藏层输出作为待处理语句的语义向量,从而得到待处理语句的第一语句特征。
同理,可将上文语句中各词对应的词向量输入神经网络,从而将编码器编码终止时生成的语义向量作为上文语句的第二语句特征。其中,由于输入编码器的任一时刻的隐状态由该时刻的上一时刻的隐状态和该时刻输入的词向量确定,因此可在将上文语句的所有词向量输入神经网络之后,将最后的隐藏层输出作为上文语句的语义向量,从而得到上文语句的第二语句特征。
S13、根据第一语句特征和第二语句特征,生成待处理语句对应的完整语句。
在一些可行的实施方式中,在确定待处理语句的第一语句特征和上文语句的第二语句特征之后,可基于解码器对第一语句特征和第二语句特征进行相应的解码处理,以生成待处理语句对应的完整语句,具体可参见图4,图4是本申请实施例提供的完整语句的生成方法的一流程示意图。图4所示的完整语句的生成方法可包括如下步骤:
S131、将第一语句特征和第二语句特征拼接,并对拼接后的语句特征进行解码得到解码特征。
在一些可行的实施方式中,由于待处理语句和上文语句分别对应独立的语句特征,如果基于编码器分别对待处理语句的第一语句特征和上文语句的第二语句特征分别进行解码,将会得到第一语句特征对应的解码结果和第二语句特征对应的解码结果两种解码结果,无法基于两种解码结果预测待处理语句对应的完整语句。因此,在得到第一语句特征和第二语句特征之后,可将第一语句特征和第二语句特征进行拼接,得到拼接后的一个单独的语句特征,从而基于神经网络对拼接后的语句特征进行解码,以得到待处理语句对应的完整语句。
其中,在对拼接后的语句特征进行解码的解码器同样可采用神经网络结构实现,且神经网络包括但不限于循环神经网络(Recurrent Neural Networks,RNN)、长短期记忆人工神经网络(Long Short-Term Memory,LSTM)以及门控循环单元(Gated RecurrentUnit,GRU)等,且可以采用与编码环节不同的神经网络,或者上述解码器也可基于beamsearch算法、transformer结构实现,具体可基于实际应用场景需求配置和选择,在此不做限制。
S132、根据解码特征生成待处理语句对应的完整语句。
在一些可行的实施方式中,解码特征表示一个词向量。具体的,在基于神经网络对拼接后的语句特征进行解码开始前,需要将开始解码符号(start)对应的起始向量输入神经网络,以便神经网络基于起始向量对拼接后的语句特征进行解码。其中,解码器在解码过程中,每次解码输出一个词向量,用于表示待处理语句对应的完整语句中的一个词对应的词向量。因此,对于解码器输出的词向量,可将其再次输入至解码器中以根据该词向量继续对拼接后的语句特征进行解码,得到该词向量对应的词的下一个词的词向量。重复上述解码步骤,直至解码器输出结束符号(eos),或者达到解码器的最大解码长度时,停止解码过程。此时可将解码器输出的词向量转化为对应的词,从而基于转化得到的词生成待处理语句对应的完整语句。
可选的,当上述解码器在上述循环解码的过程中输出重复解码特征时,可在解码器中引入coverage机制,以减少解码器重复解码特征的输出,从而进一步提升待处理语句对应的完整语句的准确性。
下面结合图5对图4所示的完整语句的确定方法进行说明,图5是本申请实施例提供的确定完整语句的一场景示意图。在图5中,上文语句为“我要看庆余年”,待处理语句为“看第13集”,其中,上文语句中各词对应的词向量为c1,c2…cn-1,待处理语句中各词对应的词向量为q1,q2…qn-1。通过编码器对上文语句对应的词向量c1,c2…cn-1进行编码后得到上文语句的第二语句特征h1cn,通过编码器对待处理语句对应的词向量q1,q2…qm-1进行编码后得到待处理语句的第一语句特征h2qm。其中,h1为上文语句对应的编码器的最终的隐状态,h2为待处理语句对应的编码器的最终的隐状态,并且第二语句特征h1cn为上文语句对应的语义编码,第一语句特征h2qm为用于表示待处理语句的语义编码,第二语句特征h1cn用于表示上文语句的语义编码。进一步的,将待处理语句的第一语句特征h2qm和上文语句的第二语句特征第二语句特征h1cn进行拼接,得到用于基于解码器解码的拼接后的语句特征D。
进一步的,基于解码器对拼接后的语句特征D进行解码得到词向量y1,y2…yz。如图5中的完整语句为“我要看庆余年”,词向量序列y1,y2…yz分别对应“我要看庆余年”的每个词的词向量。其中,解码器对拼接后的语句特征D进行解码后,首先得到词向量y1,进而将词向量y1编码器使得编码器基于词向量y1和拼接后的语句特征D进行解码,得到完整语句所对应的第二个词向量y2。重复上述步骤直至达到编码器的最大解码长度或者输出结束符号eos时,解码结束,此时将解码得到的所有词向量y1,y2…yz转换为文字,得到待处理语句对应的完整语句,即图5中的“我要看庆余年第13集”。
S14、根据待处理语句对应的完整语句进行相应的处理。
在一些可行的实施方式中,待处理语句对应的完整语句为将待处理语句中的省略成分补全之后的语句,其语义与待处理语句在上文语句的语境下的语义一致,也就是说,待处理语句对应的完整语句可在无任何语境下完整表征用户对应的待处理语句的真实语义。由此可知,待处理语句对应的完整语句同待处理语句一样,可以表示用户的指示性意图以及查询意图等,具体可基于实际应用场景需求确定,在此不做限制。
进一步的,可基于待处理语句对应的完整语句所表征的真实语义,执行该完整语句所对应的操作,并将处理结果向用户展示。其中,完整语句对应的操作可基于该完整语句的真实语义确定,如当完整语句为请求语句时,其对应的请求意图可以为查询天气、查找电话、播放歌曲以及打开应用程序等,具体可基于实际应用场景需求确定,在此不做限制。其中,在向用户展示处理结果时,可在执行相应的指示意图对应的操作之后,通过人机交互界面向用户展示操作信息,以告知用户完成对应操作。或者,可在执行相应的请求意图对应的请求操作后,通过人机交互界面向用户展示请求结果。
可选的,在向用户展示处理结果时,还可通过语音向用户播报处理结果,或者通过预设展示界面向用户展示处理结果。其中,上述预设展示界面可以为其他应用程序展示界面、信息展示界面等,具体也可基于实际应用场景需求确定,在此不做限制。
参见图6a,图6a是本申请实施例提供的人机交互的第四种场景示意图。在图6a中,用户输入的待处理语句为“换一首他的晴天”,其对应的上文语句为“放一首周杰伦的歌”。当用户输入待处理语句之后,可根据待处理语句及其上文语句将待处理语句中的省略成分进行补齐,得到待处理语句对应的完整语句,即图6a中的“放一首周杰伦的晴天”。进而,可直接为用户播放周杰伦的晴天,并将对应的处理结果通过人机交互界面向用户展示,或者通过语音播报等方式向用户播报处理结果,即图6a中“正在为您播放周杰伦的晴天”以告知用户已执行相对应的播放操作。其中,在确定出完整语句之后,可将其通过人机交互界面向用户展示以向用户确认是否与其表达的指示意图一致,也可不通过人机交互界面向用户展示,直接执行“放一首周杰伦的晴天”对应的播放操作。
参见图6b,参见图6b,图6b是本申请实施例提供的人机交互的第五种场景示意图。在图6b中,用户输入的待处理语句为“深圳呢?”,其对应的上文语句为“本周北京天气怎么样?”。当用户输入待处理语句之后,可根据待处理语句及其上文语句将待处理语句中的省略成分进行补齐,得到待处理语句对应的完整语句,即图6b中的“本周深圳天气怎么样?”。进而,通过人机交互界面向用户展示处理结果,或者通过语音播报等方式向用户播报处理结果,即图6b中“深圳本周均为阴天。”以告知用户已执行相对应的处理。其中,在确定出完整语句之后,也可将其通过人机交互界面向用户展示以向用户确认是否与其表达的请求意图一致,也可不通过人机交互界面向用户展示,直接执行“本周深圳天气怎么样?”该请求意图对应的相应处理。
在本申请实施例中,在本申请实施例中,通过确定待处理语句的语句特征和上文语句的语句特征,可在无需遍历上文语句所有词的情况下,直接基于待处理语句和上文语句的语句特征生成待处理语句对应的完整语句,效率更高。此外,由于本申请可直接基于上述语句特征生成完整语句,可避免完整语句存在语法结构不规范等问题,适用性高。
并且,本申请实施例可通过人机交互界面获取用户输入的待处理语句和上文语句,通过生成待处理语句对应的完整语句,可准确理解用户的真实意图并通过人机交互界面向用户展示对应的处理结果,进一步提升用户体验。
参见图7,图7是本申请实施例提供的信息处理方法的另一流程示意图。该方法可以由任一电子设备执行,如可以是服务器或者用户终端,也可以是用户终端和服务器交互完成,可选的,可以由服务器执行,对于需要提供用户的结果,可以由服务器将结果发送给用户终端,通过用户终端展示给用户。图7所示的信息处理方法可包括如下步骤:
S21、获取待处理语句和待处理语句对应的上文语句。
S22、若待处理语句为省略句,则确定待处理语句的第一语句特征和上文语句的第二语句特征。
在一些可行的实施方式中,上述步骤S21至S22的具体实施方式可参见图2中步骤S11至S12所示的实现方式,在此不再赘述。
S23、将第一语句特征和第二语句特征拼接,并对拼接后的语句特征进行解码得到解码特征。
在一些可行的实施方式中,上述步骤S23的具体实施方式可参见图4中步骤S131所示的实现方式,在此不再赘述。
S24、获取待处理语句对应的第一句向量,以及上文语句对应的第二句向量。
在一些可行的实施方式中,在基于编码器对待处理语句对应的词向量进行编码时,还可获取编码器对每一词向量进行编码时所得到的该词对应的特征词向量。其中,任一词向量对应的特征词向量由该词向量及相对应的隐状态确定。基于上述方式可在编码器的编码阶段得到待处理语句的每个词向量所对应的特征词向量,并将待处理语句的每个词向量对应点的特征词向量所构成的向量序列称为待处理语句对应的句向量。
同理,基于上述实现方式可得到上文语句对应的句向量,为方便描述,以下将待处理语句对应的句向量称为第一句向量,将上文语句对应的句向量称为第二句向量。
S25、根据解码特征、第一句向量和第二句向量,生成待处理语句对应的完整语句。
在一些可行的实施方式中,虽然在基于编码器对待处理语句对应的词向量以及上文语句对应的词向量进行编码的过程中,每一词向量均会对下一词向量的编码产生影响。但是在实际应用中,并不是每一个词向量都会对之后的词向量产生影响,或者每一个词向量对之后的词向量所产生的影响程度不同。因此在得到第一句向量和第二句向量之后,可结合解码器的输出的解码特征生成待处理语句对应的完整语句。具体可参见图8,图8是本申请实施例提供的完整语句的生成方法的另一流程示意图。图8所示的完整语句的生成方法可包括如下步骤:
S251、根据解码特征和第一句向量,确定第一句向量对应的第一解码结果,根据解码特征和第二句向量,确定第二句向量对应的第二解码结果。
在一些可行的实施方式中,对于第一句向量对应的第一解码结果,可基于注意力机制和第一句向量得到第一句向量对应的注意力分布。具体可将解码器输出的解码特征与第一句向量相乘即可得到第一句向量对应的注意力分布,或者可采用其他注意力机制,基于解码器输出的解码特征和第一句向量得到第一句向量对应的注意力分布。其中,第一句向量对应的注意力分布表示第一句向量中各词向量的重要程度,即待处理语句中各词的重要程度,重要程度越高,注意力权重值越大。
进一步的,可将第一句向量对应的注意力分布通过全连接层和softmax函数处理,将第一句向量对应的注意力分布中的每个权重值归一化为0至1的值。其中,第一句向量对应的第一解码结果中的值表示该值所对应的待处理语句中的词在完整语句中所出现的概率,越大出现,相对应的词的出现概率越高。
同理,对于第二句向量对应的第二解码结果,可基于注意力机制和第二句向量得到第二句向量对应的注意力分布。具体可将解码器输出的解码特征与第二句向量相乘即可得到第二句向量对应的注意力分布,或者可采用其他注意力机制,基于解码器输出的解码特征和第二句向量得到第二句向量对应的注意力分布。其中,第二句向量对应的注意力分布表示第二句向量中各词向量的重要程度,即上文语句中各词的重要程度,重要程度越高,注意力权重值越大。
进一步的,可将第二句向量对应的注意力分布通过全连接层和softmax函数处理,将第二句向量对应的注意力分布中的每个权重值归一化为0至1的值。其中,第二句向量对应的第二解码结果中的值表示该值所对应的待处理语句中的词在完整语句中所出现的概率,越大出现,相对应的词的出现概率越高。
其中,第一解码结果对应的全连接层的输出节点的数量、第二解码结果对应的全连接层的输出节点的数量均与预设词典中的词数相同。也就是说,对于第一解码结果,只存在于预设词典中的词而不存在与待处理语句中的词所对应的值为0;对于第二解码结果,对于第二解码结果,只存在于预设词典中的词而不存在与上文语句中的词所对应的值为0。
S252、根据第一句向量、第二句向量以及解码特征得到第三解码结果。
在一些可行的实施方式中,可将第一句向量与第一句向量对应的第一解码结果相乘,得到第一句向量对应的第一特征向量。其中,第一特征向量用于表示第一句向量中的各词向量在基于相对应的出现概率进行加权处理后的特征向量。换句话说,第一句向量对应的第一特征向量可表示为,在待处理语句中各词的重要程度影响下的待处理语句对应的特征向量。
同理,可将第二句向量与第二句向量对应的第二解码结果相乘,得到第二句向量对应的第二特征向量。其中,第二特征向量用于表示第二句向量中的各词向量在基于相对应的出现概率进行加权处理后的特征向量。换句话说,第二句向量对应的第二特征向量可表示为,在上文语句中各词的重要程度影响下的上文语句对应的特征向量。
进一步的,将第一句向量对应的第一特征向量、第二句向量对应的第二特征向量以及解码器输出的解码特征进行拼接,并将拼接后的特征向量通过全连接层和softmax函数处理,得到第三解码结果。其中,第三解码结果中的任一值对应预设词典中的一个词,且第三解码结果中任一值为0至1的常数,用于表示该值对应的预设词典中的词在待处理语句对应的完整语句中所出现的概率。其中,对于第三解码结果中的任一值,其值越大,表示该值在预设词典中对应的词在待处理语句对应的完整语句中出现的概率越大。
需要特别说明的是,第三解码结果对应的全连接层的输出节点同样与预设词典中的词的数量相同,也就是说第一解码结果、第二解码结果以及第三解码结果具有相同的维数。
S253、根据第一解码结果、第二解码结果以及第三解码结果,生成待处理语句对应的完整语句。
在一些可行的实施方式中,类似的,可同样将第一句向量对应的第一特征向量、第二句向量对应的第二特征向量以及解码器输出的解码特征进行拼接,并将拼接后的特征向量通过全连接层和softmax函数处理,得到第一解码结果对应的第一权重、第二解码结果对应的第二权重以及第三解码结果对应的第三权重。其中,第一权重用于表示待处理语句中的词相对于待处理语句对应的完整语句的重要程度,第二权重用于表示上文语句中的词相对待处理语句对应的完整语句的重要程度,第三权重用于表示预设词典中的词相对于待处理语句对应的完整语句的重要程度。其中,上述第一权重、第二权重以及第三权重的和为1,并且用于确定第一权重、第二权重以及第三权重的全连接层的输出节点的数量为3,每一输出节点分别对应一项权重。
进一步的,可基于第一权重对第一解码结果进行加权、基于第二权重对第二解码结果进行加权以及基于第三权重对第三解码结果进行加权并求和,得到最终的解码结果。在最终的解码结果中,每一个值表示一个词在待处理语句对应的完整语句中的出现概率,值越大出现概率越高,此时可将最大的值所对应的词确定为待处理语句对应的完整语句中的一个词。
基于此,将上述确定出的完整语句中的一个词的词向量输入解码器中,基于待处理语句和上文语句所对应的拼接后的语句特征,结合上述实现方式得到该词在待处理语句对应的完整语句中的下一个词。循环上述过程直至基于解码器停止解码时,基于得到的所有词生成待处理语句对应的完整语句。
下面结合图9对图8所示的完整语句的确定方法进行说明,图9是本申请实施例提供的确定完整语句的另一场景示意图。在图9中,上文语句为“我要看庆余年”,待处理语句为“看第13集”,其中,上文语句中各词对应的词向量为c1,c2…cn-1,待处理语句中各词对应的词向量为q1,q2…qn-1。通过编码器对上文语句对应的词向量c1,c2…cn-1进行编码后得到上文语句的第二语句特征h1cn,通过编码器对待处理语句对应的词向量q1,q2…qm-1进行编码后得到待处理语句的第一语句特征h2qm,将待处理语句的第一语句特征h2qm和上文语句的第二语句特征第二语句特征h1cn进行拼接,得到拼接后的语句特征D,od为基于解码器对拼接后的语句特征D进行解码后得到的解码特征,该解码特征用于确定待处理语句对应的完整语句中的一个词。
进一步的,获取编码器对上文语句对应的词向量c1,c2…cn-1进行编码时输出的第二句向量oc={oc1,oc2…ocn-1,ocn},以及编码器对待处理语句对应的词向量q1,q2…qm-1进行编码时输出的第一句向量oq={oq1,oq2…oqm-1,oqm}。基于解码特征od和第一句向量oq={oq1,oq2…oqm-1,oqm}得到第一句向量对应的第一解码结果aq,基于解码特征od和第二句向量得到第二句向量对应的第二解码结果ac。
另一方面,将第一句向量oq={oq1,oq2…oqm-1,oqm}与第一解码结果aq相乘得到第一句向量对应的第一特征向量bq,将第二句向量oc={oc1,oc2…ocn-1,ocn}与第二解码结果ac相乘得到第二句向量对应的第二特征向量bc,进而将第一特征向量bq、第二特征向量bc、以及解码特征od一起,分别输入不同的全连接层以得到第三解码结果av,以及第一解码结果aq对应的第一权重pq、第二解码结果ac对应的第二权重pc和第三解码结果av对应的第三权重pv。
最终,可基于第一权重pq对第一解码结果aq进行加权、基于第二权重pc对第二解码结果ac进行加权以及基于第三权重pv对第三解码结果av进行加权并求和,得到最终的解码结果,并将解码结果中概率最大的值所对应的字为y1。将y1对应的词向量输入解码器中,以使解码器在y1的基础之上重复上述过程,直至达到编码器的最大解码长度或者输出结束符号(eos)时解码结束,此时基于得到的y1,y2…yz可生成待处理语句对应的完整语句,即图9中的“我要看庆余年第13集”。
可选的,当上述解码器在上述循环解码的过程中输出重复解码特征时,可在解码器中引入coverage机制,以减少解码器重复解码特征的输出,从而进一步提升待处理语句对应的完整语句的准确性。
结合图10对图9所示的场景进行进一步说明,图10是本申请实施例提供的确定完整语句的又一场景示意图。图10所示的场景为本实施例提供的确定完整语句的一种具体实现方式。在图10中,c1,c2…cn-1为上文语句对应的词或者词向量,eos为结束符号;q1,q2…qn-1为待处理语句对应的词或者词向量,eos为结束符号。将c1,c2…cn-1以及q1,q2…qn-1分别通过嵌入层(Embedding)进行处理,并采用RNN结构的编码器对嵌入层处理后的向量进行编码,得到上文语句的第二语句特征h1cn。同理通过RNN结构的编码器可获得待处理语句的第一语句特征h2qm。
其中,oc={oc1,oc2…ocn-1,ocn}为待处理语句对应的第一句向量,oc={oc1,oc2…ocn-1,ocn}为上文语句对应的第二句向量,c_attn_dist为对应图9中的第二解码结果ac,q_attn_dist为对应图9中的第一解码结果aq,q_attn_vector对应图9中的第一特征向量bq,c_attn_vector对应图9中的第二特征向量bc,vocab_dist对应图9中的第三解码结果av,p_v,p_c,p_q分别对应图9中的第三权重pv、第二权重pc以及第一权重pq,forwad表示全连接层。并且,上述所涉及到的各种处理方式均与图9中的具体实现方式一致,在此不再赘述。
S26、根据完整语句进行相应的处理。
在一些可行的实施方式中,上述步骤S26的具体实施方式可参见图2中步骤S14所示的实现方式,在此不再赘述。
在本申请实施例中,通过确定待处理语句的语句特征和上文语句的语句特征,可在无需遍历上文语句所有词的情况下,直接基于待处理语句和上文语句的语句特征生成待处理语句对应的完整语句,效率更高。此外,基于待处理语句的语句特征和上文语句的语句特征,可确定待处理语句对应的解码结果和上文语句的解码结果,进而通过解码器输出的解码特征到预设词典的解码结果。由于解码结果可表示相对应的语句或者预设词典中的词在完整语句中的出现概率,因此基于上述解码结果及其相对应的权重,可准确确定完整语句中的每一个词,进一步提升生成的完整语句的准确性,进一步避免完整语句存在语法结构不规范等问题,适用性高。本申请实施例可通过人机交互界面获取用户输入的待处理语句和上文语句,通过生成待处理语句对应的完整语句,可准确理解用户的真实意图并通过人机交互界面向用户展示对应的处理结果,进一步提升用户体验。
在一些可行的实施方式中,对于图2以及图7所示的信息处理方法,为避免在待处理语句为完整语句时采用上述处理方式会导致信息处理效率降低的问题,可在获取到待处理语句之后,先确定一下该语句是否为省略句。本申请的可选实施例中,可以根据待处理语句及其上文语句确定待处理语句是否该待处理语句是否为省略句。当然,也可以采用其他的确定语句是否为省略句的方式。
可选的,可以通过语句判别模型来确定待处理语句是否为省略句,如可将待处理语句及其对应的上文语句输入语句判别模型,通过语句判别模型确定待处理语句是否为省略句。其中,上述语句判别模型可以为基于BERT(Bidirectional EncoderRepresentations from Transformers,基于transformer的双向编码器)模型的判别模型、基于支持向量机模型以及其他分类模型、算法等,具体可基于实际应用场景需求确定,在此不做限制。
例如,对于BERT模型,在将待处理语句和待处理语句对应的上文语句输入BERT模型之前,在上文语句和待处理语句之间插入[SEP]符号,以对待处理语句和上文语句进行分割。同时在待处理语句和上文语句所构成的序列之前插入[CLS]符号,并通过BERT模型对待处理语句、上文语句以及上述两种符号所组成的序列进行处理,并将[CLS]符号的输出作为模型输出结果(0或1)。当[CLS]符号的输出结果为1时,说明待处理语句为省略句,当[CLS]符号的输出结果为0时,说明待处理语句不是省略句。
在一些可行的实施方式中,图2和图7中所示的待处理语句对应的完整语句的生成方法可通过语句生成模型实现。其中,语句生成模型的训练方式可参见图11,图11是本申请实施例提供的语句生成模型的训练方法的流程示意图。图11所示的语句生成模型的训练方法可包括如下步骤:
S31、获取第一训练数据,基于第一训练数据对初始模型进行自监督预训练,得到预训练后的模型。
在一些可行的实施方式中,第一训练数据可基于多种方式获取,具体可基于实际应用场景需求确定,在此不做限制。如人工录入、采集不同场景下的对话数据、基于大数据技术从语料库中获取以及从网络、书籍采集等等。
需要特别说明的是,第一训练数据包括第一预训练数据或第二预训练数据中的至少一项。基于第一训练数据对初始模型进行自监督预训练,得到预训练后的模型,使得预训练后的模型具备一定的语句预测能力和/或语句补齐能力。
当第一训练数据包括第一预训练数据时,第一预训练数据中的每个训练样本包括样本输入和样本输出。第一预训练数据中的每个训练样本的样本输入包括各样本语句及其对应的上文语句,该样本输出包括每个样本语句对应的下文语句。
在基于第一预训练数据对初始模型进行预训练时,将第一预训练数据中每个训练样本的样本输入作为初始模型的输入,此时初始模型的输出为第一预训练数据中的样本输入所对应的预测语句。其中,第一预训练所对应的训练损失表征了各第一预训练数据中各样本输出与相对应的预测语句之间的差异。基于第一预训练数据和第一预训练对应的训练损失,对初始模型进行的不断的迭代训练,直至第一预训练数据对应的训练损失收敛,此时第一预训练结束。
此时,基于第一预训练数据对初始模型进行第一预训练后的模型,可具备在任何场景下基于任一语句及其上文语句,预测该语句的下一语句的能力。
当第一训练数据包括第二预训练数据时,第二预训练数据中的每个训练样本包括语义确实语句及其对应的完整语句。其中,每个语义缺失语句可以为缺少主语、宾语等成分的语句。
在基于第二预训练数据对初始模型进行第二预训练时,初始模型的输入为第二预训练数据中的语义缺失语句,输出为语义缺失语句对应预测语句,所述第二预训练所对应的训练损失表征了各第二预训练数据中语义确实语句对应的完整语句与对应的预测语句之间的差异。基于第二预训练数据和第二预训练对应的训练损失,对初始模型进行的不断的迭代训练,直至第二预训练数据对应的训练损失收敛,此时第二预训练结束。
此时,基于第二预训练数据对初始模型进行第二预训练后的模型,可具备语句补齐的能力。
需要特别说明的是,上述第一预训练和上述第二预训练仅为语句生成模型训练过程中的部分训练过程,并且第一预训练和第二预训练可同时存在,也可只存在一种,第一预训练和第二预训练同时存在时的先后训练顺序可基于实际应用场景需求确定,在此不做限制。
S32、获取第二训练数据,根据第二训练数据对预训练后的模型进行训练,直至满足预设的训练结束条件,将训练停止时的模型确定为语句生成模型。
在一些可行的实施方式中,第二训练数据的获取可参见步骤S31中第一训练数据的获取方式,在此不再赘述。其中,第二训练数据的每个训练样本包括样本输入和样本标签,样本输入包括样本语句及其对应的上文语句,样本标签用于保证第二训练数据中各样本语句对应的完整语句。其中,第二训练数据中的每个样本语句为省略句。
进一步的,基于第二训练数据对预训练后的模型进行进一步训练,直至满足预设的训练结束条件时停止训练,将停止训练时的模型确定为最终的语句生成模型。其中,在基于第二训练数据对预训练后的模型进行训练的过程中,预训练后的模型的输入为第二训练数据中的每个样本语句及其对应的上文语句,模型的输出为第二训练数据中每个样本语句对应的预测语句。其中,该训练过程中的训练损失表征了模型输出的预测语句与相对应的样本标签之间的差异。其中,上述预设的训练结束条件可以是指模型的训练损失函数收敛。也就是说,此时的模型的完整语句的生成能力趋于稳定,第二训练结束从而得到具备准确生成任一语句的完整语句的能力的语句生成模型。
在本申请实施例中,通过确定待处理语句的语句特征和上文语句的语句特征,可在无需遍历上文语句所有词的情况下,直接基于待处理语句和上文语句的语句特征生成待处理语句对应的完整语句,效率更高。同时可准确确定完整语句中的每一个词,进一步提升生成的完整语句的准确性,进一步避免完整语句存在语法结构不规范等问题,适用性高。本申请实施例可通过人机交互界面获取用户输入的待处理语句和上文语句,通过生成待处理语句对应的完整语句,可准确理解用户的真实意图并通过人机交互界面向用户展示对应的处理结果,进一步提升用户体验。与此同时,通过第一训练数据对初始模型进行预训练,以及第二训练数据对预训练后的模型进行进一步训练的多种训练方式,可使得最终得到的语句生成模型准确生成待处理语句对应的完整语句。
参见图12,图12是本申请实施例提供的信息处理装置的结构示意图。本申请实施例提供的信息处理装置1包括:
获取模块11,用于获取待处理语句和上述待处理语句对应的上文语句;
确定模块12,用于若上述待处理语句为省略句,则确定上述待处理语句的第一语句特征和上述上文语句的第二语句特征;
生成模块13,用于根据上述第一语句特征和上述第二语句特征,生成上述待处理语句对应的完整语句;
处理模块14,用于根据上述完整语句进行相应的处理。
在一些可行的实施方式中,上述获取模块11,用于:
获取用户通过人机交互界面输入的待处理语句;
上述处理模块14,用于:
根据上述完整语句进行相应的处理,并将处理结果提供个上述用户。
在一些可行的实施方式中,上述待处理语句为请求语句;上述处理模块14,用于:
根据上述完整语句,确定上述请求语句对应的请求意图;
获取上述请求意图对应的请求结果,将上述请求结果提供给上述用户。
在一些可行的实施方式中,上述生成模块13,用于:
将上述第一语句特征和上述第二语句特征拼接,并对拼接后的语句特征进行解码得到解码特征;
根据上述解码特征生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述获取模块11,还用于:
获取上述待处理语句对应的第一句向量,以及上述上文语句对应的第二句向量;
上述生成模块13,用于:
根据上述解码特征、上述第一句向量和上述第二句向量,生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述生成模块13,用于:
根据上述解码特征和上述第一句向量,确定上述第一句向量对应的第一解码结果;
根据上述解码特征和上述第二句向量,确定上述第二句向量对应的第二解码结果;
根据上述第一句向量、上述第二句向量以及上述解码特征得到第三解码结果;
根据上述第一解码结果、上述第二解码结果以及上述第三解码结果,生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述生成模块13,用于:
根据上述第一句向量和上述第一解码结果,确定上述第一句向量对应的第一特征向量;
根据上述第二句向量和上述第二解码结果,确定上述第二句向量对应的第二特征向量;
根据上述第一特征向量、上述第二特征向量和上述解码特征得到第三解码结果。
在一些可行的实施方式中,上述生成模块13,用于:
根据上述第一特征向量、上述第二特征向量和上述解码特征,得到上述第一解码结果对应的第一权重、上述第二解码结果对应的第二权重以及上述第三解码结果对应的第三权重;
根据上述第一解码结果、上述第二解码结果、上述第三解码结果、上述第一权重、上述第二权重以及上述第三权重,生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述确定模块12,还用于:
根据上述待处理语句和上述上文语句,确定上述待处理语句是否为省略句。
在一些可行的实施方式中,上述确定上述待处理语句的第一语句特征和上述上文语句的第二语句特征,以及根据上述第一语句特征和上述第二语句特征,生成上述待处理语句对应的完整语句是通过训练装置实现的;
上述训练装置,用于:
获取第一训练数据;
基于上述第一训练数据对初始模型进行自监督预训练,得到预训练后的模型;
获取第二训练数据,上述第二训练数据的每个训练样本包括第一样本输入及其对应的第一样本标签,上述第一样本输入包括第一样本语句及其对应的上文语句,上述第一样本标签用于表征上述第一样本语句对应的完整语句,上述第一样本语句为省略句;
根据上述第二训练数据对上述预训练后的模型进行训练,直至满足预设的训练结束条件,将训练停止时的模型确定为上述语句生成模型。
在一些可行的实施方式中,上述第一训练数据包括第一预训练数据或第二预训练数据中的至少一项;
上述第一预训练数据中的每个训练样本包括第二样本输入和样本输出,上述第二样本输入包括第二样本语句及其对应的上文语句,上述样本输出包括上述第二样本语句对应的下文语句;
上述第二预训练数据中的每个训练样本包括语义缺失语句及其对应的完整语句;
其中,在基于第一预训练数据对上述初始模型进行第一预训练时,上述初始模型的输入为上述第二样本输入,输出为上述第二样本输入对应的第一预测语句,上述第一预训练所对应的训练损失表征了各训练样本对应的样本输出与第一预测语句之间的差异;
在基于第二预训练数据对上述初始模型进行第二预训练时,上述初始模型的输入为上述语义缺失语句,输出为上述语义缺失语句对应的第二预测语句,上述第二预训练所对应的训练损失表征了各训练样本对应的完整语句与第二预测语句之间的差异。
具体实现中,上述信息处理装置1可通过其内置的各个功能模块执行如上述图2、图4、图7、图8和/或图11中各个步骤所提供的实现方式,具体可参见上述各个步骤所提供的实现方式,在此不再赘述。
在本申请实施例中,在本申请实施例中,通过确定待处理语句的语句特征和上文语句的语句特征,可在无需遍历上文语句所有词的情况下,直接基于待处理语句和上文语句的语句特征生成待处理语句对应的完整语句,效率更高。同时可准确确定完整语句中的每一个词,进一步提升生成的完整语句的准确性,进一步避免完整语句存在语法结构不规范等问题,适用性高。本申请实施例可通过人机交互界面获取用户输入的待处理语句和上文语句,通过生成待处理语句对应的完整语句,可准确理解用户的真实意图并通过人机交互界面向用户展示对应的处理结果,进一步提升用户体验。与此同时,通过第一训练数据对初始模型进行预训练,以及第二训练数据对预训练后的模型进行进一步训练的多种训练方式,可使得最终得到的语句生成模型准确生成待处理语句对应的完整语句。
参见图13,图13是本申请实施例提供的电子设备的结构示意图。如图13所示,本实施例中的电子设备1000可以包括:处理器1001,网络接口1004和存储器1005,此外,上述电子设备1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1004可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图13所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在图13所示的电子设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的计算机程序,以实现:
获取待处理语句和上述待处理语句对应的上文语句;
若确定上述待处理语句为省略句,则确定上述待处理语句的第一语句特征和上述上文语句的第二语句特征;
根据上述第一语句特征和上述第二语句特征,生成上述待处理语句对应的完整语句;
根据上述完整语句进行相应的处理。
在一些可行的实施方式中,上述处理器1001用于:
获取用户通过人机交互界面输入的待处理语句;
根据上述完整语句进行相应的处理,并将处理结果提供给上述用户。
在一些可行的实施方式中,上述待处理语句为请求语句;上述处理器1001用于:
根据上述完整语句,确定上述请求语句对应的请求意图;
获取上述请求意图对应的请求结果,将上述请求结果提供给上述用户。
在一些可行的实施方式中,上述处理器1001用于:
将上述第一语句特征和上述第二语句特征拼接,并对拼接后的语句特征进行解码得到解码特征;
根据上述解码特征生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述处理器1001还用于:
获取上述待处理语句对应的第一句向量,以及上述上文语句对应的第二句向量;
根据上述解码特征、上述第一句向量和上述第二句向量,生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述处理器1001用于:
根据上述解码特征和上述第一句向量,确定上述第一句向量对应的第一解码结果;
根据上述解码特征和上述第二句向量,确定上述第二句向量对应的第二解码结果;
根据上述第一句向量、上述第二句向量以及上述解码特征得到第三解码结果;
根据上述第一解码结果、上述第二解码结果以及上述第三解码结果,生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述处理器1001用于:
根据上述第一句向量和上述第一解码结果,确定上述第一句向量对应的第一特征向量;
根据上述第二句向量和上述第二解码结果,确定上述第二句向量对应的第二特征向量;
根据上述第一特征向量、上述第二特征向量和上述解码特征得到第三解码结果。
在一些可行的实施方式中,上述处理器1001用于:
根据上述第一特征向量、上述第二特征向量和上述解码特征,得到上述第一解码结果对应的第一权重、上述第二解码结果对应的第二权重以及上述第三解码结果对应的第三权重;
根据上述第一解码结果、上述第二解码结果、上述第三解码结果、上述第一权重、上述第二权重以及上述第三权重,生成上述待处理语句对应的完整语句。
在一些可行的实施方式中,上述处理器1001还用于:
根据上述待处理语句和上述上文语句,确定上述待处理语句是否为省略句。
在一些可行的实施方式中,上述确定上述待处理语句的第一语句特征和上述上文语句的第二语句特征,以及根据上述第一语句特征和上述第二语句特征,生成上述待处理语句对应的完整语句是通过语句生成模型实现的;其中,该语句生成模型是通过以下方式训练得到的:
获取第一训练数据;
基于上述第一训练数据对初始模型进行自监督预训练,得到预训练后的模型;
获取第二训练数据,上述第二训练数据的每个训练样本包括第一样本输入及其对应的第一样本标签,上述第一样本输入包括第一样本语句及其对应的上文语句,上述第一样本标签用于表征上述第一样本语句对应的完整语句,上述第一样本语句为省略句;
根据上述第二训练数据对上述预训练后的模型进行训练,直至满足预设的训练结束条件,将训练停止时的模型确定为上述语句生成模型。
在一些可行的实施方式中,上述第一训练数据包括第一预训练数据或第二预训练数据中的至少一项;
上述第一预训练数据中的每个训练样本包括第二样本输入和样本输出,上述第二样本输入包括第二样本语句及其对应的上文语句,上述样本输出包括上述第二样本语句对应的下文语句;
上述第二预训练数据中的每个训练样本包括语义缺失语句及其对应的完整语句;
其中,在基于第一预训练数据对上述初始模型进行第一预训练时,上述初始模型的输入为上述第二样本输入,输出为上述第二样本输入对应的第一预测语句,上述第一预训练所对应的训练损失表征了各训练样本对应的样本输出与第一预测语句之间的差异;
在基于第二预训练数据对上述初始模型进行第二预训练时,上述初始模型的输入为上述语义缺失语句,输出为上述语义缺失语句对应的第二预测语句,上述第二预训练所对应的训练损失表征了各训练样本对应的完整语句与第二预测语句之间的差异。
应当理解,在一些可行的实施方式中,上述处理器1001可以是中央处理单元(central processing unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application specific integratedcircuit,ASIC)、现成可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。该存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器的一部分还可以包括非易失性随机存取存储器。例如,存储器还可以存储设备类型的信息。
具体实现中,上述电子设备1000可通过其内置的各个功能模块执行如上述图2、图4、图7、图8和/或图11中各个步骤所提供的实现方式,具体可参见上述各个步骤所提供的实现方式,在此不再赘述。
在本申请实施例中,基于待处理语句的语句特征和上文语句的语句特征,可确定待处理语句对应的解码结果和上文语句的解码结果,进而通过解码器输出的解码特征到预设词典的解码结果。与此同时,通过第一训练数据对初始模型进行预训练,以及第二训练数据对预训练后的模型进行进一步训练的多种训练方式,可使得最终得到的语句生成模型准确生成待处理语句对应的完整语句。本申请实施例可通过人机交互界面获取用户输入的待处理语句和上文语句,通过生成待处理语句对应的完整语句,可准确理解用户的真实意图并通过人机交互界面向用户展示对应的处理结果,进一步提升用户体验。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,被处理器执行以实现图2、图4、图7、图8和/或图11中各个步骤所提供的方法,具体可参见上述各个步骤所提供的实现方式,在此不再赘述。
上述计算机可读存储介质可以是前述任一实施例提供的任务处理装置的内部存储单元,例如电子设备的硬盘或内存。该计算机可读存储介质也可以是该电子设备的外部存储设备,例如该电子设备上配备的插接式硬盘,智能存储卡(smart media card,SMC),安全数字(secure digital,SD)卡,闪存卡(flash card)等。上述计算机可读存储介质还可以包括磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(randomaccess memory,RAM)等。进一步地,该计算机可读存储介质还可以既包括该电子设备的内部存储单元也包括外部存储设备。该计算机可读存储介质用于存储该计算机程序以及该电子设备所需的其他程序和数据。该计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述图2、图4、图7、图8和/或图11中任一种可能的实施方式所提供的方法。
本申请的权利要求书和说明书及附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置展示该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (14)
1.一种信息处理方法,其特征在于,所述方法包括:
获取待处理语句和所述待处理语句对应的上文语句;
若所述待处理语句为省略句,则确定所述待处理语句的第一语句特征和所述上文语句的第二语句特征;
根据所述第一语句特征和所述第二语句特征,生成所述待处理语句对应的完整语句;
根据所述完整语句进行相应的处理。
2.根据权利要求1所述的方法,其特征在于,所述获取待处理语句包括:
获取用户通过人机交互界面输入的待处理语句;
所述根据所述完整语句进行相应的处理,包括:
根据所述完整语句进行相应的处理,并将处理结果提供给所述用户。
3.根据权利要求2所述的方法,其特征在于,所述待处理语句为请求语句;所述根据所述完整语句进行相应的处理,并将处理结果提供给所述用户,包括:
根据所述完整语句,确定所述请求语句对应的请求意图;
获取所述请求意图对应的请求结果,将所述请求结果提供给所述用户。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第一语句特征和所述第二语句特征,生成所述待处理语句对应的完整语句,包括:
将所述第一语句特征和所述第二语句特征拼接,并对拼接后的语句特征进行解码得到解码特征;
根据所述解码特征生成所述待处理语句对应的完整语句。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取所述待处理语句对应的第一句向量,以及所述上文语句对应的第二句向量;
所述根据解码特征生成所述待处理语句对应的完整语句,包括:
根据所述解码特征、所述第一句向量和所述第二句向量,生成所述待处理语句对应的完整语句。
6.根据权利要求5所述的方法,其特征在于,所述根据所述解码特征、所述第一句向量和第二句向量,生成所述待处理语句对应的完整语句,包括:
根据所述解码特征和所述第一句向量,确定所述第一句向量对应的第一解码结果;
根据所述解码特征和所述第二句向量,确定所述第二句向量对应的第二解码结果;
根据所述第一句向量、所述第二句向量以及所述解码特征得到第三解码结果;
根据所述第一解码结果、所述第二解码结果以及所述第三解码结果,生成所述待处理语句对应的完整语句。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第一句向量、所述第二句向量以及所述解码特征得到第三解码结果,包括:
根据所述第一句向量和所述第一解码结果,确定所述第一句向量对应的第一特征向量;
根据所述第二句向量和所述第二解码结果,确定所述第二句向量对应的第二特征向量;
根据所述第一特征向量、所述第二特征向量和所述解码特征得到第三解码结果。
8.根据权利要求7所述的方法,其特征在于,所述根据所述第一解码结果、所述第二解码结果以及所述第三解码结果,生成所述待处理语句对应的完整语句,包括:
根据所述第一特征向量、所述第二特征向量和所述解码特征,得到所述第一解码结果对应的第一权重、所述第二解码结果对应的第二权重以及所述第三解码结果对应的第三权重;
根据所述第一解码结果、所述第二解码结果、所述第三解码结果、所述第一权重、所述第二权重以及所述第三权重,生成所述待处理语句对应的完整语句。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述待处理语句和所述上文语句,确定所述待处理语句是否为省略句。
10.根据权利要求1至8中任一项所述的方法,其特征在于,所述确定所述待处理语句的第一语句特征和所述上文语句的第二语句特征,以及根据所述第一语句特征和所述第二语句特征,生成所述待处理语句对应的完整语句是通过语句生成模型实现的;
其中,所述语句生成模型是通过以下方式训练得到的:
获取第一训练数据;
基于所述第一训练数据对初始模型进行自监督预训练,得到预训练后的模型;
获取第二训练数据,所述第二训练数据的每个训练样本包括第一样本输入及其对应的第一样本标签,所述第一样本输入包括第一样本语句及其对应的上文语句,所述第一样本标签用于表征所述第一样本语句对应的完整语句,所述第一样本语句为省略句;
根据所述第二训练数据对所述预训练后的模型进行训练,直至满足预设的训练结束条件,将训练停止时的模型确定为所述语句生成模型。
11.根据权利要求10所述的方法,其特征在于,所述第一训练数据包括第一预训练数据或第二预训练数据中的至少一项;
所述第一预训练数据中的每个训练样本包括第二样本输入和样本输出,所述第二样本输入包括第二样本语句及其对应的上文语句,所述样本输出包括所述第二样本语句对应的下文语句;
所述第二预训练数据中的每个训练样本包括语义缺失语句及其对应的完整语句;
其中,在基于第一预训练数据对所述初始模型进行第一预训练时,所述初始模型的输入为所述第二样本输入,输出为所述第二样本输入对应的第一预测语句,所述第一预训练所对应的训练损失表征了各训练样本对应的样本输出与第一预测语句之间的差异;
在基于第二预训练数据对所述初始模型进行第二预训练时,所述初始模型的输入为所述语义缺失语句,输出为所述语义缺失语句对应的第二预测语句,所述第二预训练所对应的训练损失表征了各训练样本对应的完整语句与第二预测语句之间的差异。
12.一种信息处理装置,其特征在于,所述装置包括:
获取模块,用于获取待处理语句和所述待处理语句对应的上文语句;
确定模块,用于若确定所述待处理语句为省略句,则确定所述待处理语句的第一语句特征和所述上文语句的第二语句特征;
生成模块,用于根据所述第一语句特征和所述第二语句特征,生成所述待处理语句对应的完整语句;
处理模块,用于根据所述待处理语句对应的完整语句进行相应的处理。
13.一种电子设备,其特征在于,包括处理器和存储器,所述处理器和存储器相互连接;
所述存储器用于存储计算机程序;
所述处理器被配置用于在调用所述计算机程序时,执行如权利要求1至11任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行以实现权利要求1至11任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010759411.4A CN111783429B (zh) | 2020-07-31 | 2020-07-31 | 信息处理方法、装置、电子设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010759411.4A CN111783429B (zh) | 2020-07-31 | 2020-07-31 | 信息处理方法、装置、电子设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783429A true CN111783429A (zh) | 2020-10-16 |
CN111783429B CN111783429B (zh) | 2024-06-07 |
Family
ID=72766587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010759411.4A Active CN111783429B (zh) | 2020-07-31 | 2020-07-31 | 信息处理方法、装置、电子设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783429B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112783324A (zh) * | 2021-01-14 | 2021-05-11 | 科大讯飞股份有限公司 | 人机交互方法及设备、计算机存储介质 |
CN112949263A (zh) * | 2021-04-15 | 2021-06-11 | 北京小米移动软件有限公司 | 文本调整方法、装置、电子设备和存储介质 |
CN113204619A (zh) * | 2021-04-30 | 2021-08-03 | 平安科技(深圳)有限公司 | 基于自然语言处理的语句补全方法、装置、设备及介质 |
US12124810B2 (en) | 2021-04-15 | 2024-10-22 | Beijing Xiaomi Mobile Software Co., Ltd. | Text adjustment method, electronic device and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180052829A1 (en) * | 2016-08-16 | 2018-02-22 | Samsung Electronics Co., Ltd. | Machine translation method and apparatus |
CN107885756A (zh) * | 2016-09-30 | 2018-04-06 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN108334487A (zh) * | 2017-07-14 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 缺失语意信息补全方法、装置、计算机设备和存储介质 |
WO2019072166A1 (zh) * | 2017-10-10 | 2019-04-18 | 腾讯科技(深圳)有限公司 | 语义分析方法、装置和存储介质 |
WO2019079922A1 (zh) * | 2017-10-23 | 2019-05-02 | 腾讯科技(深圳)有限公司 | 会话信息处理方法及其装置、存储介质 |
CN111160010A (zh) * | 2019-12-31 | 2020-05-15 | 苏州思必驰信息科技有限公司 | 缩略句理解模型的训练方法及系统 |
-
2020
- 2020-07-31 CN CN202010759411.4A patent/CN111783429B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180052829A1 (en) * | 2016-08-16 | 2018-02-22 | Samsung Electronics Co., Ltd. | Machine translation method and apparatus |
CN107885756A (zh) * | 2016-09-30 | 2018-04-06 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN108334487A (zh) * | 2017-07-14 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 缺失语意信息补全方法、装置、计算机设备和存储介质 |
WO2019072166A1 (zh) * | 2017-10-10 | 2019-04-18 | 腾讯科技(深圳)有限公司 | 语义分析方法、装置和存储介质 |
WO2019079922A1 (zh) * | 2017-10-23 | 2019-05-02 | 腾讯科技(深圳)有限公司 | 会话信息处理方法及其装置、存储介质 |
CN111160010A (zh) * | 2019-12-31 | 2020-05-15 | 苏州思必驰信息科技有限公司 | 缩略句理解模型的训练方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112783324A (zh) * | 2021-01-14 | 2021-05-11 | 科大讯飞股份有限公司 | 人机交互方法及设备、计算机存储介质 |
CN112783324B (zh) * | 2021-01-14 | 2023-12-01 | 科大讯飞股份有限公司 | 人机交互方法及设备、计算机存储介质 |
CN112949263A (zh) * | 2021-04-15 | 2021-06-11 | 北京小米移动软件有限公司 | 文本调整方法、装置、电子设备和存储介质 |
US12124810B2 (en) | 2021-04-15 | 2024-10-22 | Beijing Xiaomi Mobile Software Co., Ltd. | Text adjustment method, electronic device and storage medium |
CN113204619A (zh) * | 2021-04-30 | 2021-08-03 | 平安科技(深圳)有限公司 | 基于自然语言处理的语句补全方法、装置、设备及介质 |
CN113204619B (zh) * | 2021-04-30 | 2022-05-20 | 平安科技(深圳)有限公司 | 基于自然语言处理的语句补全方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111783429B (zh) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109658928B (zh) | 一种家庭服务机器人云端多模态对话方法、装置及系统 | |
CN109964223B (zh) | 会话信息处理方法及其装置、存储介质 | |
CN113762322B (zh) | 基于多模态表示的视频分类方法、装置和设备及存储介质 | |
US11769018B2 (en) | System and method for temporal attention behavioral analysis of multi-modal conversations in a question and answer system | |
CN111783429B (zh) | 信息处理方法、装置、电子设备以及存储介质 | |
CN110234018B (zh) | 多媒体内容描述生成方法、训练方法、装置、设备及介质 | |
CN111625660A (zh) | 对话生成方法、视频评论方法、装置、设备及存储介质 | |
CN113392265A (zh) | 多媒体处理方法、装置及设备 | |
CN112650842A (zh) | 基于人机交互的客服机器人意图识别方法及相关设备 | |
CN114330966A (zh) | 一种风险预测方法、装置、设备以及可读存储介质 | |
CN113887237A (zh) | 多意图文本的槽位预测方法、装置及计算机设备 | |
CN116306603A (zh) | 标题生成模型的训练方法和标题生成方法、装置和介质 | |
CN116757224A (zh) | 意图理解方法、装置、设备和介质 | |
CN115115984A (zh) | 视频数据处理方法、装置、程序产品、计算机设备和介质 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN113343692A (zh) | 搜索意图的识别方法、模型训练方法、装置、介质及设备 | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN116451700A (zh) | 目标语句生成方法、装置、设备及存储介质 | |
CN115860013A (zh) | 对话消息处理方法、装置、系统、设备及介质 | |
CN112818688B (zh) | 文本处理方法、装置、设备及存储介质 | |
CN112749553B (zh) | 视频文件的文本信息处理方法、装置和服务器 | |
CN110851581B (zh) | 一种模型参数确定方法、装置、设备及存储介质 | |
CN117521674B (zh) | 对抗信息的生成方法、装置、计算机设备和存储介质 | |
CN118571208B (zh) | 语音合成方法及装置 | |
CN114417875B (zh) | 数据处理方法、装置、设备、可读存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40030660 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |