CN114490974A - 信息自动回复方法、装置、系统、电子设备及可读介质 - Google Patents
信息自动回复方法、装置、系统、电子设备及可读介质 Download PDFInfo
- Publication number
- CN114490974A CN114490974A CN202111675861.6A CN202111675861A CN114490974A CN 114490974 A CN114490974 A CN 114490974A CN 202111675861 A CN202111675861 A CN 202111675861A CN 114490974 A CN114490974 A CN 114490974A
- Authority
- CN
- China
- Prior art keywords
- message
- reply
- chat
- information
- chat tool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3334—Selection or weighting of terms from queries, including natural language queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Library & Information Science (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了信息自动回复方法、装置、系统、电子设备及可读介质,方法中,响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。本发明通过将信息自动回复加载在输入法应用中,实现基于聊天工具的远程人机交互的目的,并且拓展了非商业化目的的人机交互领域。
Description
技术领域
本发明涉及输入法应用技术领域,尤其涉及一种信息自动回复方法、装置、系统、电子设备及可读介质。
背景技术
随着互联网技术的飞速发展,产品或服务的市场方向已使用智能客服助手,通过识别咨询信息中的关键字,在诸多候选答案中选择较为准确的答复,因此给用户提供个性化服务的对话机器人已成为各大公司及学术研究机构研发的方向和重点。
但是本申请发明人研究发现,现有对话机器人产生的目的大多是为了更好的售卖产品或服务,并不能帮助普通人之间进行沟通交流。如果直接将市面上的对话机器人应用到普通人之间的沟通中,需要针对各种问题构建各种回答并精确设计选择逻辑,需要投入巨大的人力,并且通过上下文之间的依赖关系的设计会非常复杂,规则之间也会存在冲突,基于对话场景中的回复,若没有了解语料意图,那回复信息差强人意,无法达到沟通的目的。现有对话机器人大多嵌套于聊天工具设计中,输入法领域未发现智能聊天有关的技术方案。
发明内容
为解决背景技术中的技术问题,本申请实施例通过提供一种信息自动回复方法、装置、系统、电子设备及可读介质,通过将信息自动回复加载在输入法应用中,实现基于聊天工具的远程人机交互的目的,并且拓展了非商业化目的的人机交互领域。
第一方面,本申请实施例提供了一种信息自动回复方法,所述方法包括:
响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;
响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息后,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;
响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
进一步地,响应于所述输入法应用程序根据本地的所述聊天工具中的所述第一消息生成所述第二消息后自动输入到本地的所述聊天工具中,以传输给远端的所述聊天工具,以使远端用户基于两端所述聊天工具执行与所述输入法应用程序的远程人机交互的目的。
进一步地,在所述输入法应用程序中,除所述自动回复配置以外,还设置有用户输入配置;
当响应于本地聊天工具中触发的目标事件为,关联输入法应用程序的所述用户输入配置时,接收用户的信息输入作为第二消息执行回复。
进一步地,响应于本地的所述聊天工具触发的目标事件,通过所述输入法应用程序中的自动回复配置替代本地用户触发的信息输入配置。
进一步地,所述对话处理模型采用Transformer网络架构通过大量对话语料训练形成。进一步地,利用所述对话处理模型识别所述第一消息中的文字或图片的语料信息时,利用自然语言处理技术及文字识别技术对所述第一消息中的文字或图片进行清洗、分词,获得包括单字、词语在内的有效语料元素,剔除所述第一消息中有效语料元素之外的其他元素信息,以满足解析要求。
第二方面,本申请实施例提供了一种信息自动回复装置,包括:
关联模块,配置为响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;
对话处理模块,配置为响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;
信息回复模块,配置为响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
第三方面,本申请实施例提供了一种信息自动回复系统,包括:远程用户端、本地用户端以及云端,云端分别与远程用户端、本地用户端通信连接;所述远程用户端和本地用户端均配置有聊天工具和输入法应用程序;
所述云端响应于远程用户在所述远程用户端的所述聊天工具中调用输入法应用程序中的用户输入配置,获取第一消息,并反馈给所述本地用户端,以及接收所述本地用户端中回复的第二消息反馈给所述远程用户端;
其中,所述本地用户端响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
第四方面,本申请实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如第一方面中任一所述的方法。
第五方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如第一方面中任一所述的方法。
本申请实施例中提供的多个技术方案,至少具有如下技术效果:
1、由于采用了将对话处理模型加载到输入法程序中,并通过聊天工具实现远程人机交互的目的,相比现有输入法技术中解决如何将语言表达符号进行“电子化”目的,方便用户在电子设备上便于记录或沟通,而无基于用户可选择自动回复功能的输入载体。在时间碎片化的现代社会,利用输入法程序配置自动回复,可以在本地用户无法及时回复对方信息时,可帮助人们自动回复信息,且可自动回复表情,促进沟通。
2、由于采用了Transformer模型,自动生成文字,而且还能够生成表情;也即在获取了文字特征的同时,也获取了图片的特征,既而能够同时生成文字与表情,进行自动回复。且在训练模型时,避免了为表情“打标签”等繁琐的数据标注工作,节省人力物力。
3、聊天内容根据不同应用场景,不限于闲聊型、任务型、对话型。
附图说明
图1为本申请实施例一中现有聊天工具交互示意图;
图2为本申请实施例一中信息自动回复方法流程图;
图3为本申请实施例二中信息自动回复装置模块图;
图4为本申请实施例三中信息自动回复系统示意图。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
实施例一
本申请实施例提供了一种信息自动回复方法。在描述本实施例中消息自动回复方法之前,先分别描述聊天工具和输入法应用程序。聊天工具可以理解为常规的即时聊天工具,比如QQ、微信、Facebook Messenger、Facebook Messenger等等。利用聊天工具执行即时沟通时,本地用户端、远程用户端通过聊天工具所属服务器(云端)通信连接,本地用户端和远程用户端加载有相同的聊天工具,输入法应用程序不受限制,本实施例利用本地用户端进行信息自动回复的表述。
参考附图1所示,在利用聊天工具执行正常的即时聊天时,本地用户端的用户以及远程用户端的用户各自利用对应的输入法应用程序执行信息输入,本地用户通过本地用户端上的聊天工具调用加载输入法应用程序,输入聊天信息后,映射到聊天工具中,相应的远端用户通过远端用户端上的聊天工具调用加载输入法应用程序,在远端用户执行输入聊天信息后,也映射到聊天工具中,本地用户以及远端用户通过聊天工具中双方的语料信息即可了解对方意图。而实施例针对这一聊天过程进行了改进,在输入法应用程序中配置人机交互设计。
参考附图2所示,本实施例的信息自动回复方法包括如下步骤。
步骤S100,响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置。
本实施例中对输入法应用程序以及聊天工具进行了改进,聊天工具可以选择执行实时关联输入法应用程序中的自动回复配置。也就是说,输入法应用程序可以进行用户输入配置,也可以进行自动回复配置。本实施例中,在所述输入法应用程序中,除所述自动回复配置以外,还设置有用户输入配置;当响应于本地聊天工具中触发的目标事件为,关联输入法应用程序的所述用户输入配置时,接收用户的信息输入作为第二消息执行回复。当所述聊天工具实时关联输入法应用程序中的自动回复配置时,执行本实施例中信息自动回复方法的技术方案。
在实时信息自动回复方法时,响应于本地的所述聊天工具触发的目标事件,通过所述输入法应用程序中的自动回复配置替代本地用户触发的信息输入配置。
步骤S200,响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息后,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容。
本实施例中对话处理模型采用Transformer网络架构通过大量对话语料训练形成。当然,针对对话处理模型当然不限于Transformer网络架构,本实施例中为使模型达到最优效果,采用Transformer网络架构进行模型训练。响应于所述对话处理模型根据语料信息生成回复内容之前,需要预先构建的Transformer网络,训练生成所需的所述对话处理模型。Transformer网络区别于现有CNN卷积神经网络、RNN循环神经网络,为使模型训练出SOTA效果,直接采用Transformer网络架构,一方面可以解决神经网络中训练慢的问题,另一方面可以进行self-attention机制的快速并行,并且可以增加到非常深的深度,充分发挥出深度学习模型的特性,提升模型处理的准确率。
本实施例中的所述Transformer网络包括输入层,通过所述输入层获取第一消息中的有效语料元素。
也就是说,本实施例利用所述对话处理模型识别所述第一消息中的文字或图片的语料信息时,利用自然语言处理技术及文字识别技术对所述第一消息中的文字或图片进行清洗、分词,获得包括单字、词语在内的有效语料元素,剔除所述第一消息中有效语料元素之外的其他元素信息,以满足解析要求。进一步说明,在输入层中对第一消息中的语料信息进行处理,获取第一消息中的有效语料元素。可以看出,对第一消息执行清洗、分词的目的在于获取模型训练或识别所需的目标格式,比如,第一消息为“你在干嘛?”,那么清洗过程首先去掉标点符号“?”,利用自然语言处理技术分成“你”、“在干嘛”,其中间用空格表示。如果第一消息直接是图片,那么识别图片中的文字信息或者提取图片关联的文字信息后,再进行自然语言处理分词。
进一步说明,本实施例中由于将对话处理模型设置在输入法应用程序中,那么在获取模型训练所需的数据集,比如训练集、测试集,可以基于自然语言处理技术直接利用输入法应用程序的应用后台进行网络抓取相关适配人类逻辑思维语言形式的数据集,在此本实施例不一一叙述,可以采用现有任意常规的数据集采集技术。
本实施例中的所述Transformer网络包括编码层,所述编码层配置有首尾相连的多个结构相同的编码器。每个所述编码器按元素流向包括自注意力子层、前馈神经网络子层。本实施例中可以设置六个编码器,每个编码器中设置一个自注意力子层和一个前馈神经网络子层。向量列表中的语料元素向量并列依次经过各编码器中的自注意力子层、前馈神经网络子层。
其中,在自注意力子层中利用矩阵实现各个语料元素的自注意力计算,具体包括如下步骤:
步骤S210,利用词嵌入算法将语料信息中的语料元素转换为词向量,按照输入序列组成向量列表,且每个语料元素被嵌入512维向量。可以知道,在将输入序列中的每个语料元素进行词嵌入后,没有语料元素都会经过编码器中的自注意力子层和前馈神经网络子层。在自注意力子层,每个语料元素都有各自的路径流,且该些路径流之间存在依赖关系,而在前馈神经网络子层中,不存在依赖关系,因此在前馈神经网络子层中,各语料元素并行执行各种路径。
步骤S220,编码器中的自注意力子层同时接收多个语料元素的词向量,各个词向量通过与预设的三个权重矩阵相乘后获取每个语料元素的查询向量、键向量、值向量,这三个新向量在维度上比词向量更低,维度为64维,而词向量和编码器的输入/输出向量,从而可以使多头注意力(multi-head attention)的大部分计算保持不变。
举例说明,有效语料信息为{语料元素1、语料元素2},语料元素1的词向量X1,语料元素2的词向量X2,查询向量权重矩阵WQ,键向量权重矩阵WK,值向量权重矩阵WV,通过词向量X1与查询向量权重WQ相乘得到语料元素1的查询向量Q1,以此类推,得到语料元素1的键向量K1以及值向量V1。相应的语料元素2中计算出查询向量Q2、键向量K2以及值向量V2。
计算出语料元素1中查询向量Q1、键向量K1以及值向量V1后,对语料元素1进行自注意力打分。基于自然语言处理算法的逻辑,按照输入序列可知,每个语料元素的关注度值不同,本实施例中语料元素1中的分值可以通过语料元素1的键向量和查询向量点积计算获得,比如语料元素1的分值为Q1*K1,语料元素2的分值为Q2*K2。
进一步说明,在训练时,可以表现为查询矩阵、键矩阵和值矩阵,将语料元素1的词向量输入到矩阵X1中,将其乘以训练的权重矩阵(WQ、WK、WV)。
步骤S230,将各个语料元素的分值除以预定参数值,然后通过softmax传递结果。其中softmax表示为利用softmax函数将各个语料元素的分值归一化,得到的第一消息中的语料元素的分值都是正值且和为1。预定参数值可以为键向量维度的平方根,本实施例中键向量维度64的平方根为8,以此达到编码梯度更稳定的目的。
其中,可以看出softmax分值决定了每个语料元素对编码当下位置的贡献,一方面可以获取最高的softmax分值,同时也会关注与之相关的语料元素的分值。
步骤S240,将每个语料元素的词向量乘以softmax分值,以此通过语料元素路径流上的依赖关系关注语义上相关的语料元素。
步骤S250,对加权值进行求和,表示为将输入序列中所有的语料元素的词向量并行加权求和计算。其中,每个语料元素的权重可以通过对应的键向量与查询向量点积后,通过softmax计算获得,以此得到各语料元素在自注意力子层中输入序列所在位置的输出。
进一步说明,将所有语料元素的注意力头拼接起来,乘以权重矩阵,该权重矩阵时模型中联合训练的,结果是一个融合所有注意力头信息的矩阵,将该矩阵结果传送给前馈神经网络子层。
所述Transformer网络除了包括编码层,还设有解码层,解码层配置有首尾相连的多个结构相同的解码器。各解码器按元素流向包括自注意力子层、编码-解码自注意力子层以及前馈神经网络子层。编码器通过处理输入序列开启工作。顶端编码器的输出之后会变转化为一个包含键向量K和值向量V的注意力向量集。该些向量被每个解码器用于自身的“编码-解码注意力子层”。在完成编码阶段后,则开始解码阶段。解码阶段的每个步骤都会输出一个输出序列的元素,重复执行直至所有语料元素解码结束,解码器中的自注意力层表现的模式与编码器不同:在解码器中,自注意力层只被允许处理输出序列中更靠前的那些位置。在softmax步骤前,它会把后面的位置给隐去。编码-解码注意力子层的工作方式基本就像多头自注意力层一样,通过下一层来创造查询矩阵,并且从编码器的输出中取得键/值矩阵。本实施例中的解码层最后会输出一个实数向量。
所述Transformer网络包括线性变换和Softmax层,基于解码层中输出的实数向量,利用线性变换将实数向量的浮点数转变成语料元素。其中,线性变换基于全连接神经网络,可以将解码层中的实数向量映射到一个比它大得多的、被称作对数几率(logits)的向量里。通过Softmax层把那些分值变成概率(都为正数、上限1.0)。概率最高的被选中,将其对应的答复语料元素作为输出。
可以看出,模型的权重都被随机的生成,未经训练的模型产生的概率分布在每个语料元素里,且都赋予了随机的数值,通过回复内容进行比较,利用反向传播算法来略微调整所有模型的权重,生成更接近结果的回复内容。
步骤S300,响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
可以看出,在本实施例中响应于所述输入法应用程序根据本地的所述聊天工具中的所述第一消息生成所述第二消息后自动输入到本地的所述聊天工具中,以传输给远端的所述聊天工具,以使远端用户基于两端所述聊天工具执行与所述输入法应用程序的远程人机交互的目的。
实施例二
参考附图3所示,本申请实施例提供了一种信息自动回复装置,采用实施例一中的方法,包括如下模块。
关联模块100,配置为响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置。
对话处理模块200,配置为响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容。
信息回复模块300,配置为响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
实施例三
参考附图4所示,本申请实施例提供了一种信息自动回复系统,采用实施例一中的方法,包括如下:远程用户端、本地用户端以及云端,云端分别与远程用户端、本地用户端通信连接。
远程用户端和本地用户端均配置有聊天工具和输入法应用程序。
所述云端响应于远程用户在所述远程用户端的所述聊天工具中调用输入法应用程序中的用户输入配置,获取第一消息,并反馈给所述本地用户端,以及接收所述本地用户端中回复的第二消息反馈给所述远程用户端。
其中,所述本地用户端响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息后,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
实施例四
在一种实施例中,本实施例提供了一种电子设备,包括:一个或多个处理器;存储器用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如实施例一中任一所述的方法。
在另一种实施例中,本实施例提供了一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如实施例一中任一所述的方法。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种信息自动回复方法,其特征在于,所述方法包括:
响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;
响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息后,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;
响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
2.如权利要求1所述的信息自动回复方法,其特征在于,响应于所述输入法应用程序根据本地的所述聊天工具中的所述第一消息生成所述第二消息后自动输入到本地的所述聊天工具中,以传输给远端的所述聊天工具,以使远端用户基于两端所述聊天工具执行与所述输入法应用程序的远程人机交互的目的。
3.如权利要求1所述的信息自动回复方法,其特征在于,在所述输入法应用程序中,除所述自动回复配置以外,还设置有用户输入配置;
当响应于本地聊天工具中触发的目标事件为,关联输入法应用程序的所述用户输入配置时,接收用户的信息输入作为第二消息执行回复。
4.如权利要求3所述的信息自动回复方法,其特征在于,响应于本地的所述聊天工具触发的目标事件,通过所述输入法应用程序中的自动回复配置替代本地用户触发的信息输入配置。
5.如权利要求1所述的信息自动回复方法,其特征在于,所述对话处理模型采用Transformer网络架构通过大量对话语料训练形成。
6.如权利要求1或5所述的信息自动回复方法,其特征在于,利用所述对话处理模型识别所述第一消息中的文字或图片的语料信息时,利用自然语言处理技术及文字识别技术对所述第一消息中的文字或图片进行清洗、分词,获得包括单字、词语在内的有效语料元素,剔除所述第一消息中有效语料元素之外的其他元素信息,以满足解析要求。
7.一种信息自动回复装置,采用权利要求1-6任意一项所示的方法,其特征在于,包括:
关联模块,配置为响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;
对话处理模块,配置为响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息后,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;
信息回复模块,配置为响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
8.一种信息自动回复系统,采用权利要求1-6任意一项所示的方法,其特征在于,包括:远程用户端、本地用户端以及云端,云端分别与远程用户端、本地用户端通信连接;所述远程用户端和本地用户端均配置有聊天工具和输入法应用程序;
所述云端响应于远程用户在所述远程用户端的所述聊天工具中调用输入法应用程序中的用户输入配置,获取第一消息,反馈给所述本地用户端,以及接收所述本地用户端中回复的第二消息反馈给所述远程用户端;
其中,所述本地用户端响应于本地的聊天工具触发的目标事件,在所述目标事件中,所述聊天工具实时关联输入法应用程序中的自动回复配置;响应于所述聊天工具触发接收的第一消息,利用训练生成的对话处理模型识别所述第一消息中文字或图片的语料信息后,解析获取语料信息中的聊天意图,生成并输出适配于所述聊天意图的回复内容;响应于所述输入法应用程序生成的回复内容,通过所述聊天工具将所述回复内容作为第二消息执行自动回复。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111675861.6A CN114490974A (zh) | 2021-12-31 | 2021-12-31 | 信息自动回复方法、装置、系统、电子设备及可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111675861.6A CN114490974A (zh) | 2021-12-31 | 2021-12-31 | 信息自动回复方法、装置、系统、电子设备及可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114490974A true CN114490974A (zh) | 2022-05-13 |
Family
ID=81510690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111675861.6A Pending CN114490974A (zh) | 2021-12-31 | 2021-12-31 | 信息自动回复方法、装置、系统、电子设备及可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114490974A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115002053A (zh) * | 2022-06-14 | 2022-09-02 | 北京百度网讯科技有限公司 | 互动方法、装置和电子设备 |
-
2021
- 2021-12-31 CN CN202111675861.6A patent/CN114490974A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115002053A (zh) * | 2022-06-14 | 2022-09-02 | 北京百度网讯科技有限公司 | 互动方法、装置和电子设备 |
CN115002053B (zh) * | 2022-06-14 | 2024-02-13 | 北京百度网讯科技有限公司 | 互动方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110838288B (zh) | 一种语音交互方法及其系统和对话设备 | |
CN109670035B (zh) | 一种文本摘要生成方法 | |
JP2020537777A (ja) | 発言のユーザ意図を識別するための方法および装置 | |
CN112100354B (zh) | 人机对话方法、装置、设备及存储介质 | |
WO2019046463A1 (en) | SYSTEM AND METHOD FOR THE DEFINITION OF DIALOGUE INTENTIONS AND THE CONSTRUCTION OF INTENTION RECOGNITION MODELS WITHOUT PRIOR KNOWLEDGE | |
CN113268609B (zh) | 基于知识图谱的对话内容推荐方法、装置、设备及介质 | |
CN110853626B (zh) | 基于双向注意力神经网络的对话理解方法、装置及设备 | |
CN114168749A (zh) | 一种基于知识图谱和疑问词驱动的问题生成系统 | |
CN110795549B (zh) | 短文本对话方法、装置、设备及存储介质 | |
WO2022048194A1 (zh) | 事件主体识别模型优化方法、装置、设备及可读存储介质 | |
US20220358292A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
CN117435716B (zh) | 电网人机交互终端的数据处理方法及系统 | |
CN110795913A (zh) | 一种文本编码方法、装置、存储介质及终端 | |
CN111444399B (zh) | 回复内容的生成方法、装置、设备及可读存储介质 | |
CN111666400B (zh) | 消息获取方法、装置、计算机设备及存储介质 | |
CN115470338B (zh) | 一种基于多路召回的多场景智能问答方法和系统 | |
CN111291172A (zh) | 用于处理文本的方法和装置 | |
CN111368066B (zh) | 获取对话摘要的方法、装置和计算机可读存储介质 | |
CN110717027A (zh) | 多轮智能问答方法、系统以及控制器和介质 | |
CN115146124A (zh) | 问答系统应答方法及其装置、设备、介质、产品 | |
CN110909174B (zh) | 一种基于知识图谱的简单问答中实体链接的改进方法 | |
CN114417872A (zh) | 一种合同文本命名实体识别方法及系统 | |
CN117972033A (zh) | 大模型幻觉检测方法、装置、计算机设备及存储介质 | |
CN116166688A (zh) | 基于自然语言交互的业务数据检索方法、系统及处理设备 | |
CN111597816A (zh) | 一种自注意力命名实体识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |