CN116644164A - 基于多层注意力的对话生成方法、装置、设备及介质 - Google Patents
基于多层注意力的对话生成方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN116644164A CN116644164A CN202310611759.2A CN202310611759A CN116644164A CN 116644164 A CN116644164 A CN 116644164A CN 202310611759 A CN202310611759 A CN 202310611759A CN 116644164 A CN116644164 A CN 116644164A
- Authority
- CN
- China
- Prior art keywords
- attention
- vector
- sentence vector
- sentence
- topic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 438
- 230000011218 segmentation Effects 0.000 claims abstract description 116
- 230000004927 fusion Effects 0.000 claims abstract description 47
- 230000007246 mechanism Effects 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 37
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000306 recurrent effect Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种可用于医疗或金融领域的基于多层注意力的对话生成方法,包括:对对话文本进行分词,得到分词序列集;利用第一编码器对分词序列集进行编码,得到主题句向量集;利用注意力机制对主题句向量集赋权,得到最终句向量集;利用第二编码器对最终句向量集进行融合编码,计算融合向量与主题句向量集的相似度,根据相似度对主题句向量集进行加权求和,得到整体主题向量;利用自注意力机制对最终句向量集进行赋权,得到注意力向量集;利用解码器对整体主题向量及注意力向量集进行解码并拼接,得到回答文本。本发明还提出一种基于多层注意力的对话生成装置、电子设备以及存储介质。本发明可以提高对话生成准确率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于多层注意力的对话生成方法、装置、电子设备及计算机可读存储介质。
背景技术
随着深度学习及神经网络的发展,对话生成系统已成为人工智能领域中研究特点,特别是多轮对话的场景广泛应用于人机交互、智能家居、金融客服、医疗问诊及社交机器人等不同行业,对话生成的准确性至关重要。
当前在多轮对话的场景中,常常只引入词与词之间注意力机制,只能关注到当前句子的语义,忽略了句子之间的注意力,从而对当前对话生成句子准确性造成偏差;并且每一轮对话都会包含隐藏的主题信息,主题会直接影响多轮对话中的语义线索,只引入词与词之间注意力机制,导致缺少主题信息,从而使对话生成的句子偏离主题,造成对话生成的准确率低。
发明内容
本发明提供一种基于多层注意力的对话生成方法、装置及计算机可读存储介质,其主要目的在于解决进行对话生成的准确率较低的问题。
为实现上述目的,本发明提供的一种基于多层注意力的对话生成方法,包括:
获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集;
利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集;
利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量;
利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集;
利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
可选地,所述利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,包括:
利用预训练完成的第一编码器中正向循环网络顺序对所述分词序列集中各个分词序列进行编码,得到正向句向量集;
利用所述第一编码器中反向循环网络反向对所述分词序列集中各个分词序列进行编码,得到反向句向量集;
拼接所述前向句向量集及所述反向句向量集中对应位置的向量,得到主题句向量集。
可选地,所述对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集,包括:
利用预设全连接层中注意力机制计算所述主题句向量集中每个主题句向量的注意力权重;
将所述每个主题句向量的注意力权重与对应的主题句向量进行相乘,得到权重主题句向量集,将所述权重主题句向量集中权重主题句向量与对应的主题句向量相加,得到最终句向量集。
可选地,所述利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,包括:
利用预训练完成的第二编码器中第一隐藏层对所述最终句向量集中第一最终句向量进行加权求和,得到第一最终句隐藏层向量;
利用所述第二编码器中第二隐藏层对所述最终句向量集中第二最终句向量及所述第一最终句隐藏层向量进行加权求和,得到第二最终句隐藏层向量,顺序对最终句向量进行加权求和,直至最终句向量集中最后一句向量遍历完成,得到融合编码向量。
可选地,所述利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集,包括:
将所述最终句向量集中的最终句向量复制三份,得到第一最终句向量集、第二最终句向量集及第三最终句向量集;
将所述第一最终句向量集中首个最终句向量与所述第二最终句向量集中所有最终句向量分别进行内积计算,得到第一内积值集,对所述第一内积值进行归一化处理得到第一自注意力权重集,将所述第一自注意力权重集分别与所述第三最终句向量集中首个最终句向量相乘,得到第一上下文注意力向量集;
将所述第一最终句向量集中第二个最终句向量与所述第二最终句向量集中所有最终句向量分别进行内积计算,得到第二内积值集,对所述第二内积值集进行归一化处理得到第二自注意力权重集,将所述第二自注意力权重集分别与所述第三最终句向量集中第二个最终句向量相乘,得到第二上下文注意力向量集;
对所述第一上下文注意力向量集集所述第二上下文注意力向量集进行全连接处理,得到目标上下文注意力向量集。
可选地,所述利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,包括:
随机生成一词向量作为第一词向量;
利用预设解码器对所述第一词向量、所述整体主题向量及所述目标上下文注意力向量进行N次解码,直至检测到终止符时,得到回答词集,其中所述N为大于1的整数。
可选地,所述利用预训练完成的第一编码器中正向循环网络顺序对所述分词序列集中各个分词序列进行编码,得到正向句向量集,包括:
利用预训练完成的第一编码器中正向循环网络的第一节点,分别对所述分词序列集中各个分词序列的首个分词进行编码,得到各个分词序列对应的首个分词向量;
利用所述第一编码器中正向循环网络的第二节点,分别对所述首个分词向量及对应各个分词序列中下一个分词进行编码,得到各个分词序列对应的第二分词向量,直至各个分词序列中所有分词遍历完成,整合所有分词向量,得到正向句向量集。
为了解决上述问题,本发明还提供一种基于多层注意力的对话生成装置,所述装置包括:
分词模块,用于获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集;
词注意力赋权模块,用于利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集;
主题向量融合模块,用于利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量;
句注意力赋权模块,用于利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集;
解码模块,用于利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于多层注意力的对话生成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于多层注意力的对话生成方法。
本发明实施例通过获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集,利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集,从词注意力的角度对所述主题句向量赋予权重,使得最终句向量能够更好的体现在整个对话文本中的语义及对当前对话生成文本的影响程度,从而使得对话生成文本的准确率更高;进一步地,利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量,充分考虑到每个句子及整个对话文本的主题信息,使得后续的对话生成文本与主题的相关度更高,从而使得对话生成的准确率更高;更进一步地,利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集,使得在对话场景中充分关注到上下文信息,使得对话生成文本的准确率更高;利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本,充分结合词注意力、句子上下文注意力及主题信息,使得对话生成文本的准确率更高。因此本发明提出的基于多层注意力的对话生成方法、装置、电子设备及计算机可读存储介质,可以解决进行对话文本生成准确率低的问题。
附图说明
图1为本发明一实施例提供的基于多层注意力的对话生成方法的流程示意图;
图2为图1所示基于多层注意力的对话生成方法中其中一个步骤的详细实施流程示意图;
图3为图1所示基于多层注意力的对话生成方法中其中另一个步骤的详细实施流程示意图;
图4为本发明一实施例提供的基于多层注意力的对话生成装置的功能模块图;
图5为本发明一实施例提供的实现所述基于多层注意力的对话生成方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于多层注意力的对话生成方法。所述基于多层注意力的对话生成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于多层注意力的对话生成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于多层注意力的对话生成方法的流程示意图。在本实施例中,所述基于多层注意力的对话生成方法包括:
S1、获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集。
本发明实施例中,所述对话文本为多轮对话任务中的文本,例如问诊平台中医患对话文本,包含多句对话文本。
本发明实施例中,可以根据标点符号对所述对话文本进行分句,得到文本分句序列,其中所述文本分句序列包含所述对话文本中所有的句子,进一步利用jieba分词工具、THULAC分词工具等常用分词工具分别文本分句序列中各个分句进行分词,得到各个句子对应的分词序列。
S2、利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集。
本发明实施例中,所述预训练完成的第一编码器可以为双向门控循环神经网络(Gate Recurrent Unit Network,简称GRU)模型,所述第一编码器包含正向循环网络及反向循环网络。
详细地,参阅图2所示,S2中所述利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,包括:
S21、利用预训练完成的第一编码器中正向循环网络顺序对所述分词序列集中各个分词序列进行编码,得到正向句向量集;
S22、利用所述第一编码器中反向循环网络反向对所述分词序列集中各个分词序列进行编码,得到反向句向量集;
S23、拼接所述前向句向量集及所述反向句向量集中对应位置的向量,得到主题句向量集。
进一步地,所述S21包括:
利用预训练完成的第一编码器中正向循环网络的第一节点,分别对所述分词序列集中各个分词序列的首个分词进行编码,得到各个分词序列对应的首个分词向量;
利用所述第一编码器中正向循环网络的第二节点,分别对所述首个分词向量及对应各个分词序列中下一个分词进行编码,得到各个分词序列对应的第二分词向量,直至各个分词序列中所有分词遍历完成,整合所有分词向量,得到正向句向量集。
本发明实施例中,所述分词序列集中其中一个序列为c={c1,c2,…,cX},利用预训练完成的第一编码器中正向循环网络的第一节点对第一个分词c1进行编码得到首个分词向量h1;利用所述第一编码器中正向循环网络的第二节点对第二个分词c2及首个分词向量h1进行编码,得到第二分词向量h2;直至利用所述第一编码器中正向循环网络的第X节对第X个分词cN及X-1个分词向量hX-1进行编码,得到第X个分词向量hX及序列c对应的向量{h1,h2,…,hX}。
本发明实施例中,进一步地,利用所述第一编码器中反向循环网络反向对分词序列c={c1,c2,…,cN}进行编码,从最后一个分词cN开始直至分词序列中所有分词遍历完成,编码方法与正向编码的方式相同,不在此进行赘述。
本发明实施例中,利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,使得后续对话生成文本更加贴近对话主题,从而使得对话生成文本的准确率更高。
本发明其中一实施例中,所述预设全连接层为限制性的神经网络。
更进一步地,S2中所述对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集,包括:
利用预设全连接层中注意力机制计算所述主题句向量集中每个主题句向量的注意力权重;
将所述每个主题句向量的注意力权重与对应的主题句向量进行相乘,得到权重主题句向量集,将所述权重主题句向量集中权重主题句向量与对应的主题句向量相加,得到最终句向量集。
本发明实施例中,所述主题句向量集中每个主题句向量的注意力权重的加和限制为1。
本发明实施例中,对所述主题句向量赋予权重,使得最终句向量能够更好的体现在整个对话文本中的语义及对当前对话生成文本的影响程度,从而使得对话生成文本的准确率更高。
S3、利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量。
本发明实施例中,所述预训练完成的第二编码器为双向门控循环神经网络(GateRecurrent Unit Network,简称GRU)模型。
详细地,S3中所述利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,包括:
利用预训练完成的第二编码器中第一隐藏层对所述最终句向量集中第一最终句向量进行加权求和,得到第一最终句隐藏层向量;
利用所述第二编码器中第二隐藏层对所述最终句向量集中第二最终句向量及所述第一最终句隐藏层向量进行加权求和,得到第二最终句隐藏层向量,顺序对最终句向量进行加权求和,直至最终句向量集中最后一句向量遍历完成,得到融合编码向量。
本发明其中一实施例中,将所述最终句向量集{l1,l2,…,lm},其中l1为第一个句子的最终句向量,作为预训练完成的第二编码器的输入序列,利用预训练完成的第二编码器中第一隐藏层对所述最终句向量集中第一最终句向量l1进行加权求和,得到第一最终句隐藏层向量l1t;利用所述第二编码器中第二隐藏层对所述最终句向量集中第二最终句向量l2及所述第一最终句隐藏层向量l1t进行加权求和,得到第二最终句隐藏层向量l2t;直至利用所述第m编码欧氏距离、皮尔逊相关系数等算法分别计算所述融合编码向量/>与所述主题句向量集中各个主题句向量的相似度,得到m个相似度,利用softmax对所述相似度进行归一化计算,得到句注意力权重集β={β1,β2,…,βm};进一步利用所述句注意力权重集β={β1,β2,…,βm}对所述主题句向量集进行加权求和,得到包含整体主题信息的整体主题向量。
本发明实施例中,将所述融合编码向量与所述主题句向量集中各个主题句向量的相似度的归一化值作为每个主题句向量的权重,计算整体主题信息的整体主题向量,充分考虑到整个对话文本的主题信息,使得后续的对话生成文本与主题的相关度更高,从而使得对话生成的准确率更高。
S4、利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集。
详细地,参阅图3所示,所述S4包括:
S41、将所述最终句向量集中的最终句向量复制三份,得到第一最终句向量集、第二最终句向量集及第三最终句向量集;
S42、将所述第一最终句向量集中首个最终句向量与所述第二最终句向量集中所有最终句向量分别进行内积计算,得到第一内积值集,对所述第一内积值进行归一化处理得到第一自注意力权重集,将所述第一自注意力权重集分别与所述第三最终句向量集中首个最终句向量相乘,得到第一上下文注意力向量集;
S43、将所述第一最终句向量集中第二个最终句向量与所述第二最终句向量集中所有最终句向量分别进行内积计算,得到第二内积值集,对所述第二内积值集进行归一化处理得到第二自注意力权重集,将所述第二自注意力权重集分别与所述第三最终句向量集中第二个最终句向量相乘,得到第二上下文注意力向量集;
S44、对所述第一上下文注意力向量集集所述第二上下文注意力向量集进行全连接处理,得到目标上下文注意力向量集。
本发明实施例中,将所述最终句向量集中的最终句向量{l1,l2,…,lm}复制三份,得到第一最终句向量集{k1,k2,…,km}、第二最终句向量集{q1,q2,…,qm}及第三最终句向量集{v1,v2,…,vm};将所述第一最终句向量集中首个最终句向量k1与所述第二最终句向量集{q1,q2,…,qm}中所有最终句向量分别进行内积计算,得到第一内积值集,对所述第一内积值进行归一化处理得到第一自注意力权重集,将所述第一自注意力权重集分别与v1相乘,得到第一上下文注意力向量集。
本发明实施例中,进一步地,将所述第一最终句向量集中第二个最终句向量k2与所述第二最终句向量集{q1,q2,…,qm}中所有最终句向量分别进行内积计算,得到第二内积值集,对所述第二内积值集进行归一化处理得到第二自注意力权重集,将所述第二自注意力权重集分别与v2相乘,得到第二上下文注意力向量集。
本发明实施例中,根据所述最终句向量集中各个最终句向量之间的注意力,得到融合每个句子上下文的向量,使得在对话场景中不仅仅关注到当前文本,还关注到上下文信息,使得对话生成文本的准确率更高。
S5、利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
本发明实施例中,所述预设解码器可以为双向门控循环神经网络(GateRecurrent Unit Network,简称GRU)模型。
详细地,S5中所述利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,包括:
随机生成一词向量作为第一词向量;
利用预设解码器对所述第一词向量、所述整体主题向量及所述目标上下文注意力向量进行N次解码,直至检测到终止符时,得到回答词集,其中所述N为大于1的整数。
本发明其中一实施例中,利用预设解码器对所述第一词向量、所述整体主题向量及所述目标上下文注意力向量进行解码,得到第一目标回答词;当未检测到终止符时,将所述第一目标回答词作为上一时刻目标回答词,利用所述预设解码器对所述上一时刻目标回答词、所述整体主题向量及所述目标上下文注意力向量进行解码,得到第二目标回答词,直至检测到终止符时,得到第N目标回答词,将所有的目标回答词整合为回答词集。
本发明另一实施例中,可以根据预设的回答文本长度限定预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码的结束时刻。
本发明实施例通过获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集,利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集,从词注意力的角度对所述主题句向量赋予权重,使得最终句向量能够更好的体现在整个对话文本中的语义及对当前对话生成文本的影响程度,从而使得对话生成文本的准确率更高;进一步地,利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量,充分考虑到每个句子及整个对话文本的主题信息,使得后续的对话生成文本与主题的相关度更高,从而使得对话生成的准确率更高;更进一步地,利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集,使得在对话场景中充分关注到上下文信息,使得对话生成文本的准确率更高;利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本,充分结合词注意力、句子上下文注意力及主题信息,使得对话生成文本的准确率更高。因此本发明提出的基于多层注意力的对话生成方法,可以解决进行对话文本生成准确率低的问题。
如图4所示,是本发明一实施例提供的基于多层注意力的对话生成装置的功能模块图。
本发明所述基于多层注意力的对话生成装置100可以安装于电子设备中。根据实现的功能,所述基于多层注意力的对话生成装置100可以包括分词模块101、词注意力赋权模块102、主题向量融合模块103、句注意力赋权模块104及解码模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述分词模块101,用于获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集;
所述词注意力赋权模块102,用于利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集;
所述主题向量融合模块103,用于利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量;
所述句注意力赋权模块104,用于利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集;
所述解码模块105,用于利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
详细地,本发明实施例中所述基于多层注意力的对话生成装置100中所述的各模块在使用时采用与上述图1至图3中所述的基于多层注意力的对话生成方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现基于多层注意力的对话生成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于多层注意力的对话生成程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于多层注意力的对话生成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于多层注意力的对话生成程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于多层注意力的对话生成程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集;
利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集;
利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量;
利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集;
利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集;
利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集;
利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量;
利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集;
利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于多层注意力的对话生成方法,其特征在于,所述方法包括:
获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集;
利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集;
利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量;
利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集;
利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
2.如权利要求1所述的基于多层注意力的对话生成方法,其特征在于,所述利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,包括:
利用预训练完成的第一编码器中正向循环网络顺序对所述分词序列集中各个分词序列进行编码,得到正向句向量集;
利用所述第一编码器中反向循环网络反向对所述分词序列集中各个分词序列进行编码,得到反向句向量集;
拼接所述前向句向量集及所述反向句向量集中对应位置的向量,得到主题句向量集。
3.如权利要求1所述的基于多层注意力的对话生成方法,其特征在于,对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集,包括:
利用预设全连接层中注意力机制计算所述主题句向量集中每个主题句向量的注意力权重;
将所述每个主题句向量的注意力权重与对应的主题句向量进行相乘,得到权重主题句向量集,将所述权重主题句向量集中权重主题句向量与对应的主题句向量相加,得到最终句向量集。
4.如权利要求1所述的基于多层注意力的对话生成方法,其特征在于,所述利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,包括:
利用预训练完成的第二编码器中第一隐藏层对所述最终句向量集中第一最终句向量进行加权求和,得到第一最终句隐藏层向量;
利用所述第二编码器中第二隐藏层对所述最终句向量集中第二最终句向量及所述第一最终句隐藏层向量进行加权求和,得到第二最终句隐藏层向量,顺序对最终句向量进行加权求和,直至最终句向量集中最后一句向量遍历完成,得到融合编码向量。
5.如权利要求1所述的基于多层注意力的对话生成方法,其特征在于,所述利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集,包括:
将所述最终句向量集中的最终句向量复制三份,得到第一最终句向量集、第二最终句向量集及第三最终句向量集;
将所述第一最终句向量集中首个最终句向量与所述第二最终句向量集中所有最终句向量分别进行内积计算,得到第一内积值集,对所述第一内积值进行归一化处理得到第一自注意力权重集,将所述第一自注意力权重集分别与所述第三最终句向量集中首个最终句向量相乘,得到第一上下文注意力向量集;
将所述第一最终句向量集中第二个最终句向量与所述第二最终句向量集中所有最终句向量分别进行内积计算,得到第二内积值集,对所述第二内积值集进行归一化处理得到第二自注意力权重集,将所述第二自注意力权重集分别与所述第三最终句向量集中第二个最终句向量相乘,得到第二上下文注意力向量集;
对所述第一上下文注意力向量集集所述第二上下文注意力向量集进行全连接处理,得到目标上下文注意力向量集。
6.如权利要求1至5中任一项所述的基于多层注意力的对话生成方法,其特征在于,所述利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,包括:
随机生成一词向量作为第一词向量;
利用预设解码器对所述第一词向量、所述整体主题向量及所述目标上下文注意力向量进行N次解码,直至检测到终止符时,得到回答词集,其中所述N为大于1的整数。
7.如权利要求2所述的基于多层注意力的对话生成方法,其特征在于,所述利用预训练完成的第一编码器中正向循环网络顺序对所述分词序列集中各个分词序列进行编码,得到正向句向量集,包括:
利用预训练完成的第一编码器中正向循环网络的第一节点,分别对所述分词序列集中各个分词序列的首个分词进行编码,得到各个分词序列对应的首个分词向量;
利用所述第一编码器中正向循环网络的第二节点,分别对所述首个分词向量及对应各个分词序列中下一个分词进行编码,得到各个分词序列对应的第二分词向量,直至各个分词序列中所有分词遍历完成,整合所有分词向量,得到正向句向量集。
8.一种基于多层注意力的对话生成装置,其特征在于,所述装置包括:
分词模块,用于获取多轮对话任务中的对话文本,对所述对话文本进行分词处理,得到分词序列集;
词注意力赋权模块,用于利用预训练完成的第一编码器,对所述分词序列集中的分词序列进行编码,得到主题句向量集,并对所述主题句向量集的每个主题句向量赋予注意力权重,得到最终句向量集;
主题向量融合模块,用于利用预训练完成的第二编码器对所述最终句向量集进行融合编码,得到融合编码向量,并分别计算所述融合编码向量与所述主题句向量集中各个主题句向量的相似度,对所述相似度进行归一化计算,得到句注意力权重集,根据所述句注意力权重集对所述主题句向量集中对应的主题句向量进行加权求和,得到整体主题向量;
句注意力赋权模块,用于利用自注意力机制对所述最终句向量集进行自注意力赋权,得到目标上下文注意力向量集;
解码模块,用于利用预设解码器对所述整体主题向量及所述目标上下文注意力向量进行解码,得到回答词集,按顺序拼接所述生成词集,得到所述对话文本的回答句子文本。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于多层注意力的对话生成方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于多层注意力的对话生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310611759.2A CN116644164A (zh) | 2023-05-26 | 2023-05-26 | 基于多层注意力的对话生成方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310611759.2A CN116644164A (zh) | 2023-05-26 | 2023-05-26 | 基于多层注意力的对话生成方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116644164A true CN116644164A (zh) | 2023-08-25 |
Family
ID=87622460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310611759.2A Pending CN116644164A (zh) | 2023-05-26 | 2023-05-26 | 基于多层注意力的对话生成方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116644164A (zh) |
-
2023
- 2023-05-26 CN CN202310611759.2A patent/CN116644164A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022134759A1 (zh) | 关键词生成方法、装置、电子设备及计算机存储介质 | |
CN109471895B (zh) | 电子病历表型抽取、表型名称规范化方法及系统 | |
CN112069302A (zh) | 会话意图识别模型的训练方法、会话意图识别方法及装置 | |
CN114822812A (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN112131368B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN113947095B (zh) | 多语种文本翻译方法、装置、计算机设备及存储介质 | |
CN114021582A (zh) | 结合语音信息的口语理解方法、装置、设备及存储介质 | |
CN111966811A (zh) | 意图识别和槽填充方法、装置、可读存储介质及终端设备 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN114780701B (zh) | 自动问答匹配方法、装置、计算机设备及存储介质 | |
CN114358023B (zh) | 智能问答召回方法、装置、计算机设备及存储介质 | |
CN113486659B (zh) | 文本匹配方法、装置、计算机设备及存储介质 | |
CN113157853B (zh) | 问题挖掘方法、装置、电子设备及存储介质 | |
CN116383766A (zh) | 基于多模态数据的辅诊方法、装置、设备及存储介质 | |
CN116705345A (zh) | 医疗实体标注方法、装置、设备及存储介质 | |
CN116468025A (zh) | 电子病历结构化方法、装置、电子设备及存储介质 | |
CN116665878A (zh) | 改善累计误差的智能问诊方法、装置、设备及存储介质 | |
CN113705692B (zh) | 基于人工智能的情感分类方法、装置、电子设备及介质 | |
CN116644164A (zh) | 基于多层注意力的对话生成方法、装置、设备及介质 | |
KR20220168924A (ko) | 셀프 어텐션 기반 문자 인식 방법 및 장치 | |
CN113887201A (zh) | 文本定长纠错方法、装置、设备及存储介质 | |
CN112749264A (zh) | 基于智能机器人的问题分发方法、装置、电子设备及存储介质 | |
CN113515931B (zh) | 文本纠错方法、装置、计算机设备及存储介质 | |
CN113792539B (zh) | 基于人工智能的实体关系分类方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |