CN110781663B - 文本分析模型的训练方法及装置、文本分析方法及装置 - Google Patents

文本分析模型的训练方法及装置、文本分析方法及装置 Download PDF

Info

Publication number
CN110781663B
CN110781663B CN201911031207.4A CN201911031207A CN110781663B CN 110781663 B CN110781663 B CN 110781663B CN 201911031207 A CN201911031207 A CN 201911031207A CN 110781663 B CN110781663 B CN 110781663B
Authority
CN
China
Prior art keywords
answer
sample
text
loss value
text analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911031207.4A
Other languages
English (en)
Other versions
CN110781663A (zh
Inventor
陈楠
唐剑波
李长亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Kingsoft Interactive Entertainment Technology Co ltd
Beijing Kingsoft Digital Entertainment Co Ltd
Original Assignee
Chengdu Kingsoft Interactive Entertainment Technology Co ltd
Beijing Kingsoft Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Kingsoft Interactive Entertainment Technology Co ltd, Beijing Kingsoft Digital Entertainment Co Ltd filed Critical Chengdu Kingsoft Interactive Entertainment Technology Co ltd
Priority to CN201911031207.4A priority Critical patent/CN110781663B/zh
Publication of CN110781663A publication Critical patent/CN110781663A/zh
Application granted granted Critical
Publication of CN110781663B publication Critical patent/CN110781663B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本申请提供文本分析模型的训练方法及装置、文本分析方法及装置。其中,所述训练方法包括:获取样本文本、样本问题和答案标签;将样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量;基于分类单元输出向量确定样本答案存在信息,并将样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值,基于注意力单元输出向量确定样本答案,并将样本答案与答案标签中的正确答案进行计算,生成第二损失值;基于第一损失值和第二损失值生成第三损失值,并基于第三损失值对文本分析模型进行迭代训练,直至达到训练停止条件。本申请所述的方法可以有效提高文本分析模型的准确率。

Description

文本分析模型的训练方法及装置、文本分析方法及装置
技术领域
本申请涉及自然语言处理技术领域,特别涉及文本分析模型的训练方法及装置、文本分析方法及装置、计算设备及计算机可读存储介质。
背景技术
自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向,它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。
对于自然语言处理任务,通常选用双向注意力神经网络模型模型(BidirectionalEncoder Representation from Transformers,BERT)进行处理。现有的BERT模型在进行阅读理解任务时,仅仅通过对答案起点位置和答案终点位置做位置分类,来确定待分析文本中是否存在答案以及答案具体是什么,准确性有待提高。
发明内容
有鉴于此,本申请实施例提供了文本分析模型的训练方法及装置、文本分析方法及装置、计算设备及计算机可读存储介质,以解决现有技术中存在的技术缺陷。
本申请实施例公开了一种文本分析模型的训练方法,包括:
获取样本文本、样本问题和答案标签;
将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量;
基于所述分类单元输出向量确定样本答案存在信息,并将所述样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值;
基于所述注意力单元输出向量确定样本答案,并将所述样本答案与答案标签中的正确答案进行计算,生成第二损失值;
基于所述第一损失值和第二损失值生成第三损失值,并基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件。
进一步地,在所述获取样本文本、样本问题和答案标签之后,还包括:
将样本文本和样本问题进行分词处理,获得词单元集合;
所述将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量,包括:
将所述词单元集合输入至文本分析模型中进行处理,生成首个词单元的分类单元输出向量和每一个词单元的注意力单元输出向量。
进一步地,所述将所述词单元集合输入至文本分析模型中进行处理,包括:
将所述词单元集合输入至文本分析模型的注意力单元中进行处理,生成每一个词单元的注意力单元输出向量;
将首个词单元的注意力单元输出向量输入至分类单元中进行处理,生成首个词单元的分类单元输出向量。
进一步地,所述基于所述分类单元输出向量确定样本答案存在信息,包括:
S11、基于所述首个词单元的分类单元输出向量判断所述样本文本中是否存在所述样本问题的答案,若是,则执行步骤S12,若否,则执行步骤S13;
S12、生成存在答案标签,并将所述存在答案标签作为样本答案存在信息;
S13、生成不存在答案标签,并将所述不存在答案标签作为样本答案存在信息。
进一步地,所述基于所述注意力单元输出向量确定样本答案,包括:
将每一个所述词单元的注意力单元输出向量进行线性与非线性处理,获得每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率;
基于所述每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率确定样本答案。
进一步地,所述基于所述第一损失值和第二损失值生成第三损失值,包括:
确定所述第一损失值的权重值和所述第二损失值的权重值;
基于所述第一损失值的权重值以及第二损失值的权重值进行加权求和处理,生成第三损失值。
进一步地,所述基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件,包括:
S21、判断所述第三损失值是否处于稳定状态,若是,则执行步骤S22,若否,则执行步骤S23;
S22、基于所述第三损失值对所述文本分析模型进行更新;
S23、停止训练。
本申请还提供一种文本分析方法,包括:
获取待分析文本和待回答问题;
将所述待分析文本和待回答问题输入至文本分析模型中进行处理,确定答案存在信息并确定所述待回答问题的答案;
其中所述文本分析模型是通过上述的训练方法训练得到的。
进一步地,所述确定答案存在信息,包括:
S31、判断所述待分析文本中是否存在所述待回答问题的答案,若是,则执行步骤S32,若否,则执行步骤S33;
S32、生成存在答案标签,并将所述存在答案标签作为答案存在信息;
S33、生成不存在答案标签,并将所述不存在答案标签作为答案存在信息。
本申请还提供一种文本分析模型的训练装置,包括:
样本获取模块,被配置为获取样本文本、样本问题和答案标签;
样本处理模块,被配置为将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量;
第一计算模块,被配置为基于所述分类单元输出向量确定样本答案存在信息,并将所述样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值;
第二计算模块,被配置为基于所述注意力单元输出向量确定样本答案,并将所述样本答案与答案标签中的正确答案进行计算,生成第二损失值;
迭代训练模块,被配置为基于所述第一损失值和第二损失值生成第三损失值,并基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件。
本申请还提供一种文本分析装置,包括:
获取模块,被配置为获取待分析文本和待回答问题;
处理模块,被配置为将所述待分析文本和待回答问题输入至文本分析模型中进行处理,确定答案存在信息并确定所述待回答问题的答案;
其中所述文本分析模型是通过上述的训练方法训练得到的。
本申请还提供一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述文本分析模型的训练方法或文本分析方法的步骤。
本申请还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现所述文本分析模型的训练方法或文本分析方法的步骤。
本申请提供的文本分析模型的训练方法及装置,一方面通过在文本分析模型的注意力单元后设置分类单元,并利用分类单元生成样本答案存在信息,判断样本文本中是否存在样本问题的答案,再与答案标签中的答案存在信息进行对比和计算,得到第一损失值,另一方面将文本分析模型生成的样本答案与正确答案进行对比和计算,得到第二损失值,最后基于上述两个损失值加权求和得到的第三损失值对文本分析模型进行迭代训练,在对样本文本、样本问题进行特征提取、特征分析、寻找问题答案的基础上,进一步地关注了样本文本中是否存在样本问题的答案,且将判断“有无答案”以及“答案是什么”两部分特征相结合对文本分析模型进行训练,可以有效提高文本分析模型的准确率。
本申请提供的文本分析方法及装置,在对待分析文本进行分析以寻找待回答问题答案的基础上,增加了对于待分析文本中是否存在待回答问题的答案的判断,可以有效提高阅读理解问答的准确率和效率,避免在待分析文本中不存在待回答问题的答案的情况下,依旧生成错误答案的问题形成误导。
附图说明
图1是本申请实施例的计算设备的结构示意图;
图2是本申请实施例的文本分析模型的训练方法的步骤流程示意图;
图3是本申请实施例的文本分析模型的训练方法的步骤流程示意图;
图4是本申请实施例的文本分析模型的训练方法的步骤流程示意图;
图5是本申请实施例的文本分析方法的步骤流程示意图;
图6是本申请实施例的文本分析方法的步骤流程示意图;
图7是本申请实施例的文本分析模型的训练装置的结构示意图;
图8是本申请实施例的文本分析装置的结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
词单元(token):对输入文本做任何实际处理前,都需要将其分割成诸如词、标点符号、数字或字母等语言单元,这些单元被称为词单元。对于英文文本,字单元可以是一个单词、一个标点符号、一个数字等,对于中文文本,最小的字单元可以是一个词语、一个字、一个标点符号、一个数字等。
BERT模型:一种双向注意力神经网络模型。BERT模型可以通过左、右两侧上下文来预测当前词和通过当前句子预测下一个句子。BERT模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的文本的语义表示,然后将文本的语义表示在特定NLP任务中作微调,最终应用于该NLP任务。
F1值:以单词为单位,统计预测的答案和标准答案之间的准确率和召回率,再通过下面公式技术F1值。F1=2*R*P/(R+P)
准确率(Precision):P=TP/(TP+FP)。通俗地讲,就是预测正确的正例数据占预测为正例数据的比例。
召回率(Recall):R=TP/(TP+FN)。通俗地讲,就是预测为正例的数据占实际为正例数据的比例。
在本申请中,提供了一种文本分析模型的训练方法及装置、计算设备及计算机可读存储介质,在下面的实施例中逐一进行详细说明。
图1是示出了根据本说明书一实施例的计算设备100的结构框图。该计算设备100的部件包括但不限于存储器110和处理器120。处理器120与存储器110通过总线130相连接,数据库150用于保存数据。
计算设备100还包括接入设备140,接入设备140使得计算设备100能够经由一个或多个网络160通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本说明书的一个实施例中,计算设备100的上述部件以及图1中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图1所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备100还可以是移动式或静止式的服务器。
其中,处理器120可以执行图2所示方法中的步骤。图2是示出了根据本申请一实施例的文本分析模型的训练方法的示意性流程图,包括步骤S210至步骤S250。
S210、获取样本文本、样本问题和答案标签。
具体地,样本文本为包含有一定信息内容的书面文本,其可以是一句话、一段文字、多段文字、一篇文章或多篇文章等各种篇幅的文本,也可以是中文文本、英文文本、俄文文本等各种语言文本,本申请对此不做限制。
样本问题为要求回答或解释的题目,既可以是与样本文本中的信息内容相关联的问题,也可以是与样本文本中的信息内容无关联的问题,本申请对此不做限制。
答案标签包括与样本文本、样本问题相对应的答案存在信息以及正确答案。其中,答案存在信息是用于标识样本文本中是否存在样本问题的答案的信息,其可以是任何能够区分有答案或答案的标识,比如,可以为“有答案”/“无答案”或“存在答案”/“不存在答案”,也可以以“(1,0)”标识有答案/“(0,1)”标识无答案,或是其他方式均可,本申请对此不做限制。正确答案是样本问题的正确答案,需要说明的是,正确答案通常为样本文本中的内容,在样本文本中不存在样本问题的答案的情况下,正确答案为空,但是在样本问题可以根据公知常识得到正确答案的情况下,正确答案可以为根据公知常识得到的正确答案,本申请对此不做限制。
例如,若样本文本包括“‘落霞与孤鹜齐飞,秋水共长天一色’出自王勃所作的《滕王阁序》”,样本问题包括“《滕王阁序》的作者是谁?”则答案标签包括答案存在信息“有答案”和正确答案“王勃”。若样本文本包括“《唐诗三百首》是一部流传很广的唐诗选集”,样本问题包括“李白是哪朝诗人?”则答案标签包括“无答案”,正确答案可以为空,也可以为“唐朝”。
S220、将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量。
具体地,所述文本分析模型为BERT模型,且文本分析模型中依次包括注意力单元和分类单元。
进一步地,将样本文本和样本问题进行分词处理,获得词单元集合,再将所述词单元集合输入至文本分析模型中进行处理,生成首个词单元的分类单元输出向量和每一个词单元的注意力单元输出向量。
更进一步地,将所述词单元集合输入至文本分析模型的注意力单元中进行处理,生成每一个词单元的注意力单元输出向量;再将首个词单元的注意力单元输出向量输入至分类单元中进行处理,生成首个词单元的分类单元输出向量。
具体地,注意力单元中既可以仅仅包括一个注意力层,也可以包括两个或多个注意力层,注意力单元的输出向量即为注意力单元中最后一个注意力层的输出向量。例如,假设注意力单元包括12个注意力层,那么注意力单元的输出向量即为第12个注意力层的输出向量。
分类单元包括一个二分类层,用于判断样本文本中是否存在样本问题的答案,在样本文本中存在样本问题的答案的情况下,其输出为(1,0),在样本文本中不存在样本问题的情况下,其输出为(0,1)。
例如,假设文本分析模型中的注意力单元包括3个注意力层,样本文本包括“‘落霞与孤鹜齐飞,秋水共长天一色’出自王勃所作的《滕王阁序》”,样本问题包括“《滕王阁序》的作者是谁?”对上述样本文本和样本问题进行分词处理,得到词单元集合[CLS、SEP、落、霞、……是、谁、SEP],其中,CLS为句首标志符号,SEP为分句标志符号,将上述词单元集合进行嵌入处理后输入至文本分析模型注意力单元的第一注意力层中进行特征提取,生成第一注意力层的输出向量[A11、A12、A13、A14……A142、A143],将上述第一注意力层的输出向量输入至第二注意力层中进行特征提取,生成第二注意力层的输出向量[A21、A22、A23、A24……A242、A243],将上述第二注意力层的输出向量输入至第三注意力层中进行特征提取,生成第三注意力层的输出向量[A31、A32、A33、A34……A342、A343],并将上述第三注意力层的输出向量作为注意力单元的输出向量。将词单元集合中首个词单元“CLS”第三注意力层的输出向量A31输入至分类单元中进行处理,得到分类单元的输出向量B1
分类单元及二分类层的设置,可以对样本文本中是否存在样本问题进行准确的判断,辅助提升模型的准确率。
S230、基于所述分类单元输出向量确定样本答案存在信息,并将所述样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值。
具体地,样本答案存在信息是基于分类单元的输出向量得到的用于标识样本文本中是否存在样本问题的答案的信息,其可以是任何能够区分有答案或答案的标识,本申请对此不做限制。
具体地,可以将所述样本答案存在信息与答案标签中的样本答案存在信息进行对比,通过损失函数计算损失值,并将上述损失值作为第一损失值。
在实际应用中,损失函数可以为如分类交叉熵、最大熵函数等,本申请对此不做限制。
通过损失函数计算第一损失值,可以在训练过程中明确模型分析得出的有无答案的情况与真实的有无答案的情况之间的差异,并根据差异调整模型以提高模型的准确率。
进一步地,所述步骤S230包括步骤S310至步骤S330,如图3所示。
S310、基于所述首个词单元的分类单元输出向量判断所述样本文本中是否存在所述样本问题的答案,若是,则执行步骤S320,若否,则执行步骤S330。
S320、生成存在答案标签,并将所述存在答案标签作为样本答案存在信息。
S330、生成不存在答案标签,并将所述不存在答案标签作为样本答案存在信息。
具体地,首个词单元的分类单元输出向量包括(1,0)和(0,1)两种,那么在首个词单元的分类单元输出向量为(1,0)的情况下,样本文本中存在样本问题的答案,则可以生成存在答案标签“有答案”,并将上述存在答案标签作为样本答案存在信息,在首个词单元的分类单元输出向量为(0,1)的情况下,样本文本中不存在样本问题的答案,则可以生成不存在答案标签“无答案”,并将上述不存在答案标签作为样本答案存在信息。
S240、基于所述注意力单元输出向量确定样本答案,并将所述样本答案与答案标签中的正确答案进行计算,生成第二损失值。
进一步地,可以将每一个所述词单元的注意力单元输出向量进行线性与非线性处理,获得每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率;再基于所述每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率确定样本答案。
具体地,在获得每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率之后,以作为样本答案开始位置概率最高的词单元与作为样本答案结束位置概率最高的词单元之间的内容作为样本答案。
例如,假设样本文本“‘落霞与孤鹜齐飞,秋水共长天一色’出自王勃所作的《滕王阁序》”中每一个词单元作为答案开始位置的概率分别为[x1,x2,x3……x30],每一个词单元作为答案结束位置的概率分别为[y1,y2,y3……y30],其中,答案开始位置的概率中,x19概率值最大,答案结束位置的概率中,y20概率值最大,则样本答案为“王勃”。
具体地,可以将所述样本答案与答案标签中的正确答案进行对比,通过损失函数计算损失值,并将上述损失值作为第二损失值。
在实际应用中,损失函数可以为如分类交叉熵、最大熵函数等,本申请对此不做限制。
例如,假设样本答案为“王勃”,答案标签中的正确答案为“作者是王勃”,将上述样本答案和答案标签中的正确答案进行最大熵损失函数的计算,得到损失值为0.1,则0.1即为第二损失值。
通过损失函数计算第二损失值,可以在训练过程中明确模型分析得出的答案与标准答案之间的差异,并根据差异调整模型以提高模型的准确率。
S250、基于所述第一损失值和第二损失值生成第三损失值,并基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件。
进一步地,确定所述第一损失值的权重值和所述第二损失值的权重值;基于所述第一损失值的权重值以及第二损失值的权重值进行加权求和处理,生成第三损失值。
需要说明的是,对于第一损失值与第二损失值的权重值可以通过训练得到,且第一损失值的权重值与第二损失值的权重值之和为1。
更进一步地,所述步骤S250还包括步骤S410至步骤S430,如图4所示。
S410、判断所述第三损失值是否处于稳定状态,若是,则执行步骤S420,若否,则执行步骤S430。
S420、基于所述第三损失值对所述文本分析模型进行更新。
S430、停止训练。
具体地,判断第三损失值是否处于稳定状态的条件可以为判断第三损失值是否趋于稳定,若第三损失值的波动仍然较大,则基于上述第三损失值对文本分析模型进行更新,若第三损失值已趋于稳定,则停止训练。
更为具体地,可以将当前次训练得到的第三损失值与上一次训练得到的第三损失值相比,若当前次训练得到的第三损失值与上一次训练得到的第三损失值之间的差值大于预设差值,则基于当前次训练得到的第三损失值对文本分析模型进行更新,若当前次训练得到的第三损失值与上一次训练得到的第三损失值之间的差值小于预设差值,则停止训练。
例如,假设将包括有多个样本文本、样本问题和答案标签的样本集合输入至文本分析模型中进行训练,预先设置在相邻两次训练得到的第三损失值之间的差值小于0.1的情况下,停止训练。将样本集合输入至文本分析模型中后,第一次训练得到的第三损失值为0.60,第二次训练得到的损失值为0.40,与第一次训练得到的第三损失值之间的差值为0.20,大于0.10,继续训练,第三次训练得到的第三损失值为0.30,与第二次训练得到的第三损失值之间的差值为0.10,继续训练,第四次训练得到的第三损失值为0.25,与第三次训练得到的第三损失值之间的差值为0.05,大于0.10,停止训练。
另外,判断第三损失值是否处于稳定状态的条件还可以为判断第三损失值是否小于预设损失值阈值,若第三损失值大于或等于预设损失值阈值,则判断第三损失值未处于稳定状态,并基于第三损失值对文本分析模型进行更新和训练,若第三损失值小于预设损失值阈值,则判断第三损失值处于稳定状态,停止更新和训练。或是以其他方式判断第三损失值是否存于稳定状态均可,本申请对此不做限制。
下面结合具体的例子对本实施例进行进一步说明。
例如,假设样本文本包括“故宫是中国明清两代的皇家宫殿,占地七十二万平方米”,样本问题包括“故宫占地面积为多少?”,答案标签包括答案存在信息“有答案”和正确答案“七十二万平方米”。
将样本文本和样本问题进行分词处理,获得词单元集合[CLS、故、宫、是、中、国……多、少、SEP]。
假设文本分析模型中的注意力单元包括6层注意力层,将上述词单元集合输入至文本分析模型中,首先经过注意力单元的处理后,生成词单元集合中每一个词单元的注意力单元输出向量[C1、C2、C3、C4……C35、C36],将首个词单元的注意力单元输出向量C1输入至分类单元中进行处理,生成分类单元输出向量(1,0)。
基于上述首个词单元的分类单元输出向量(1,0),得到样本答案存在信息为“有答案”,将其与答案标签中的答案存在信息进行损失函数的计算,得到第一损失值为0.05。
将上述每个词单元的注意力单元输出向量进行线性映射与非线性变换处理,获得每一个词单元作为答案开始位置的概率[0.10,0.33.0.25.0.19,0.15,0.21,0.42,0.13,0.32,0.11,0.22,0.23,0.13,0.16,0.20,0.19,0.67,0.39,0.54,0.03.0.20.0.19,0.12,0.21,0.43,0.13,0.32,0.17,0.27,0.23,0.23,0.10,0.24,0.19,0.08,0.02]和每一个词单元作为答案结束位置的概率[0.05,0.13.0.25.0.24,0.10,0.13,0.12,0.23,0.30,0.11,0.14,0.19,0.14,0.28,0.20,0.11,0.17,0.27,0.33,0.09.0.15.0.49,0.32,0.28,0.70,0.42,0.22,0.07,0.25,0.23,0.22,0.09,0.16,0.16,0.10,0.10]。
可以看出,第17个词单元作为答案开始位置的概率最高,第25个词单元作为答案结束位置的概率最高,则样本答案为“占地七十二万平方米”。
将样本答案“占地七十二万平方米”,与正确答案“七十二万平方米”进行损失函数计算,得到第二损失值为0.2。
假设第一损失值与第二损失值的权重值均为0.5,则第三损失值为0.1×0.5+0.2×0.5=0.15。
假设预设损失值阈值为0.10,第三损失值大于预设损失值阈值,对文本分析模型进行更新并迭代训练。
本实施例提供的文本分析模型的训练方法,一方面通过在文本分析模型的注意力单元后设置分类单元,并利用分类单元生成样本答案存在信息,判断样本文本中是否存在样本问题的答案,再与答案标签中的答案存在信息进行对比和计算,得到第一损失值,另一方面将文本分析模型生成的样本答案与正确答案进行对比和计算,得到第二损失值,最后基于上述两个损失值加权求和得到的第三损失值对文本分析模型进行迭代训练,在对样本文本、样本问题进行特征提取、特征分析、寻找问题答案的基础上,进一步地关注了样本文本中是否存在样本问题的答案,且将判断“有无答案”以及“答案是什么”两部分相结合对文本分析模型进行训练,对于base版的文本分析模型,F1值提高了2.6%,对于large版的文本分析模型,F1值提高了0.7%,可以有效提高文本分析模型的准确率。
如图5所示,一种文本分析方法,其特征在于,包括步骤S510至步骤S520。
S510、获取待分析文本和待回答问题。
S520、将所述待分析文本和待回答问题输入至文本分析模型中进行处理,确定答案存在信息并确定所述待回答问题的答案。
其中所述文本分析模型是通过上述实施例所述的训练方法训练得到的。
进一步地,所述步骤S520,还包括步骤S610至S630,如图6所示。
S610、判断所述待分析文本中是否存在所述待回答问题的答案,若是,则执行步骤S620,若否,则执行步骤S630。
S620、生成存在答案标签,并将所述存在答案标签作为答案存在信息。
S630、生成不存在答案标签,并将所述不存在答案标签作为答案存在信息。
下面结合具体的例子对本实施例进行进一步说明。
例如,假设获取到待分析文本包括“丝绸之路是古代中国与外国交通贸易和文化交往的通道”,待回答问题包括“丝绸之路起源于哪个朝代?”。
将待分析文本和待回答问题进行分词处理,生成词单元集合[CLS、丝、绸……朝、代、SEP]。
将上述词单元集合输入至文本分析模型中,经过注意力单元的处理,生成每一个词单元的注意力单元输出向量[E1、E2、E3、E4……E37、E38],将上述每一个词单元的注意力单元输出向量进行线性映射与非线性变换处理,得到第7个词单元作为答案开始位置的概率最高,第10个词单元作为答案结束位置的概率最高,生成答案“古代中国”。将首个词单元的注意力单元输出向量E1输入至分类单元中进行处理,生成分类单元输出向量(0,1),得到答案存在信息为“无答案”。
本实施例提供的文本分析方法及装置,在对待分析文本进行分析寻找待回答问题答案的基础上,增加了对于待分析文本中是否存在待回答问题的答案的判断,可以有效提高阅读理解问答的准确率和效率,避免在待分析文本中不存在待回答问题的答案的情况下,依旧生成错误答案的问题。
如图7所示,一种文本分析模型的训练装置,包括:
样本获取模块710,被配置为获取样本文本、样本问题和答案标签;
样本处理模块720,被配置为将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量;
第一计算模块730,被配置为基于所述分类单元输出向量确定样本答案存在信息,并将所述样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值;
第二计算模块740,被配置为基于所述注意力单元输出向量确定样本答案,并将所述样本答案与答案标签中的正确答案进行计算,生成第二损失值;
迭代训练模块750,被配置为基于所述第一损失值和第二损失值生成第三损失值,并基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件。
可选地,所述文本分析模型的训练装置,还包括:
样本分词模块,将样本文本和样本问题进行分词处理,获得词单元集合;
所述样本处理模块720,进一步被配置为:
将所述词单元集合输入至文本分析模型中进行处理,生成首个词单元的分类单元输出向量和每一个词单元的注意力单元输出向量。
可选地,所述样本处理模块720,进一步被配置为:
将所述词单元集合输入至文本分析模型的注意力单元中进行处理,生成每一个词单元的注意力单元输出向量;
将首个词单元的注意力单元输出向量输入至分类单元中进行处理,生成首个词单元的分类单元输出向量。
可选地,所述第一计算模块730,进一步被配置为:
第一判断模块,被配置为基于所述首个词单元的分类单元输出向量判断所述样本文本中是否存在所述样本问题的答案,若是,则执行第一生成模块,若否,则执行第二生成模块;
第一生成模块,被配置为生成存在答案标签,并将所述存在答案标签作为样本答案存在信息;
第二生成模块,被配置为生成不存在答案标签,并将所述不存在答案标签作为样本答案存在信息。
可选地,所述第二计算模块740,进一步被配置为:
将每一个所述词单元的注意力单元输出向量进行线性与非线性处理,获得每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率;
基于所述每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率确定样本答案。
可选地,所述迭代训练模块750,进一步被配置为:
确定所述第一损失值的权重值和所述第二损失值的权重值;
基于所述第一损失值的权重值以及第二损失值的权重值进行加权求和处理,生成第三损失值。
可选地,所述迭代训练模块750,进一步被配置为:
第二判断模块,被配置为判断所述第三损失值是否处于稳定状态,若是,则执行更新模块,若否,则执行停止模块;
更新模块,被配置为基于所述第三损失值对所述文本分析模型进行更新;
停止模块,被配置为停止训练。
本实施例提供的文本分析模型的训练装置,一方面通过在文本分析模型的注意力单元后设置分类单元,并利用分类单元生成样本答案存在信息,判断样本文本中是否存在样本问题的答案,再与答案标签中的答案存在信息进行对比和计算,得到第一损失值,另一方面将文本分析模型生成的样本答案与正确答案进行对比和计算,得到第二损失值,最后基于上述两个损失值加权求和得到的第三损失值对文本分析模型进行迭代训练,在对样本文本、样本问题进行特征提取、特征分析、寻找问题答案的基础上,进一步地关注了样本文本中是否存在样本问题的答案,且将判断“有无答案”以及“答案是什么”两部分相结合对文本分析模型进行训练,可以有效提高文本分析模型的准确率。
如图8所示,一种文本分析装置,包括:
获取模块810,被配置为获取待分析文本和待回答问题;
处理模块820,被配置为将所述待分析文本和待回答问题输入至文本分析模型中进行处理,确定答案存在信息并确定所述待回答问题的答案;
其中所述文本分析模型是通过上述的训练方法训练得到的。
可选地,所述处理模块820,进一步被配置为:
第三判断模块,被配置为判断所述待分析文本中是否存在所述待回答问题的答案,若是,则执行第三生成模块,若否,则执行第四生成模块;
第三生成模块,被配置为生成存在答案标签,并将所述存在答案标签作为答案存在信息;
第四生成模块,被配置为生成不存在答案标签,并将所述不存在答案标签作为答案存在信息。
本实施例提供的文本分析装置,在对待分析文本进行分析寻找待回答问题答案的基础上,增加了对于待分析文本中是否存在待回答问题的答案的判断,可以有效提高阅读理解问答的准确率和效率,避免在待分析文本中不存在待回答问题的答案的情况下,依旧生成错误答案的问题。
本申请一实施例还提供一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现以下步骤:
获取样本文本、样本问题和答案标签;
将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量;
基于所述分类单元输出向量确定样本答案存在信息,并将所述样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值;
基于所述注意力单元输出向量确定样本答案,并将所述样本答案与答案标签中的正确答案进行计算,生成第二损失值;
基于所述第一损失值和第二损失值生成第三损失值,并基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述文本分析模型的训练方法或文本分析方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的文本分析模型的训练方法或文本分析方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述文本分析模型的训练方法或文本分析方法的技术方案的描述。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。

Claims (13)

1.一种文本分析模型的训练方法,其特征在于,包括:
获取样本文本、样本问题和答案标签,其中,所述答案标签包括与样本文本、样本问题相对应的答案存在信息以及正确答案;
将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量;
基于所述分类单元输出向量确定样本答案存在信息,并将所述样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值;
基于所述注意力单元输出向量确定样本答案,并将所述样本答案与答案标签中的正确答案进行计算,生成第二损失值;
基于所述第一损失值和第二损失值生成第三损失值,并基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件。
2.根据权利要求1所述的文本分析模型的训练方法,其特征在于,在所述获取样本文本、样本问题和答案标签之后,还包括:
将样本文本和样本问题进行分词处理,获得词单元集合;
所述将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量, 包括:
将所述词单元集合输入至文本分析模型中进行处理,生成首个词单元的分类单元输出向量和每一个词单元的注意力单元输出向量。
3.根据权利要求2所述的文本分析模型的训练方法,其特征在于,所述将所述词单元集合输入至文本分析模型中进行处理,包括:
将所述词单元集合输入至文本分析模型的注意力单元中进行处理,生成每一个词单元的注意力单元输出向量;
将首个词单元的注意力单元输出向量输入至分类单元中进行处理,生成首个词单元的分类单元输出向量。
4.根据权利要求2所述的文本分析模型的训练方法,其特征在于,所述基于所述分类单元输出向量确定样本答案存在信息,包括:
S11、基于所述首个词单元的分类单元输出向量判断所述样本文本中是否存在所述样本问题的答案,若是,则执行步骤S12,若否,则执行步骤S13;
S12、生成存在答案标签,并将所述存在答案标签作为样本答案存在信息;
S13、生成不存在答案标签,并将所述不存在答案标签作为样本答案存在信息。
5.根据权利要求2所述的文本分析模型的训练方法,其特征在于,所述基于所述注意力单元输出向量确定样本答案,包括:
将每一个所述词单元的注意力单元输出向量进行线性与非线性处理,获得每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率;
基于所述每一个词单元作为样本答案开始位置的概率和作为样本答案结束位置的概率确定样本答案。
6.根据权利要求1所述的文本分析模型的训练方法,其特征在于,所述基于所述第一损失值和第二损失值生成第三损失值,包括:
确定所述第一损失值的权重值和所述第二损失值的权重值;
基于所述第一损失值的权重值以及第二损失值的权重值进行加权求和处理,生成第三损失值。
7.根据权利要求1所述的文本分析模型的训练方法,其特征在于,所述基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件,包括:
S21、判断所述第三损失值是否处于稳定状态,若是,则执行步骤S22,若否,则执行步骤S23;
S22、基于所述第三损失值对所述文本分析模型进行更新;
S23、停止训练。
8.一种文本分析方法,其特征在于,包括:
获取待分析文本和待回答问题;
将所述待分析文本和待回答问题输入至文本分析模型中进行处理,确定答案存在信息并确定所述待回答问题的答案;
其中所述文本分析模型是通过上述权利要求1-7中任意一项所述的训练方法训练得到的。
9.根据权利要求8所述的文本分析方法,其特征在于,所述确定答案存在信息,包括:
S31、判断所述待分析文本中是否存在所述待回答问题的答案,若是,则执行步骤S32,若否,则执行步骤S33;
S32、生成存在答案标签,并将所述存在答案标签作为答案存在信息;
S33、生成不存在答案标签,并将所述不存在答案标签作为答案存在信息。
10.一种文本分析模型的训练装置,其特征在于,包括:
样本获取模块,被配置为获取样本文本、样本问题和答案标签,其中,所述答案标签包括与样本文本、样本问题相对应的答案存在信息以及正确答案;
样本处理模块,被配置为将所述样本文本和样本问题输入至文本分析模型中进行处理,生成分类单元输出向量和注意力单元输出向量;
第一计算模块,被配置为基于所述分类单元输出向量确定样本答案存在信息,并将所述样本答案存在信息与答案标签中的答案存在信息进行计算,生成第一损失值;
第二计算模块,被配置为基于所述注意力单元输出向量确定样本答案,并将所述样本答案与答案标签中的正确答案进行计算,生成第二损失值;
迭代训练模块,被配置为基于所述第一损失值和第二损失值生成第三损失值,并基于所述第三损失值对所述文本分析模型进行迭代训练,直至达到训练停止条件。
11.一种文本分析装置,其特征在于,包括:
获取模块,被配置为获取待分析文本和待回答问题;
处理模块,被配置为将所述待分析文本和待回答问题输入至文本分析模型中进行处理,确定答案存在信息并确定所述待回答问题的答案;
其中所述文本分析模型是通过上述权利要求1-7中任意一项所述的训练方法训练得到的。
12.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述指令时实现权利要求1-7或者8-9任意一项所述方法的步骤。
13.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-7或者8-9任意一项所述方法的步骤。
CN201911031207.4A 2019-10-28 2019-10-28 文本分析模型的训练方法及装置、文本分析方法及装置 Active CN110781663B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911031207.4A CN110781663B (zh) 2019-10-28 2019-10-28 文本分析模型的训练方法及装置、文本分析方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911031207.4A CN110781663B (zh) 2019-10-28 2019-10-28 文本分析模型的训练方法及装置、文本分析方法及装置

Publications (2)

Publication Number Publication Date
CN110781663A CN110781663A (zh) 2020-02-11
CN110781663B true CN110781663B (zh) 2023-08-29

Family

ID=69386945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911031207.4A Active CN110781663B (zh) 2019-10-28 2019-10-28 文本分析模型的训练方法及装置、文本分析方法及装置

Country Status (1)

Country Link
CN (1) CN110781663B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111382269B (zh) * 2020-03-02 2021-07-23 拉扎斯网络科技(上海)有限公司 文本分类模型训练方法、文本分类方法及相关装置
CN113496282A (zh) * 2020-04-02 2021-10-12 北京金山数字娱乐科技有限公司 一种模型训练方法及装置
CN111428005A (zh) * 2020-04-12 2020-07-17 中信银行股份有限公司 标准问答对确定方法、装置及电子设备
CN113536801A (zh) * 2020-04-16 2021-10-22 北京金山数字娱乐科技有限公司 阅读理解模型的训练方法及装置、阅读理解方法及装置
CN113590768B (zh) * 2020-04-30 2023-10-27 北京金山数字娱乐科技有限公司 一种文本关联度模型的训练方法及装置、问答方法及装置
CN112131366B (zh) * 2020-09-23 2024-02-09 腾讯科技(深圳)有限公司 训练文本分类模型及文本分类的方法、装置及存储介质
CN113792120B (zh) * 2021-04-08 2023-09-15 北京金山数字娱乐科技有限公司 图网络的构建方法及装置、阅读理解方法及装置
CN113392638A (zh) * 2021-06-11 2021-09-14 北京世纪好未来教育科技有限公司 文本评估方法、装置、设备及介质
CN117236329B (zh) * 2023-11-15 2024-02-06 阿里巴巴达摩院(北京)科技有限公司 文本分类方法、装置及相关设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040356A1 (en) * 2010-09-24 2012-03-29 International Business Machines Corporation Providing question and answers with deferred type evaluation using text with limited structure
CN109558477A (zh) * 2018-10-23 2019-04-02 深圳先进技术研究院 一种基于多任务学习的社区问答系统、方法及电子设备
CN109766418A (zh) * 2018-12-13 2019-05-17 北京百度网讯科技有限公司 用于输出信息的方法和装置
CN109816111A (zh) * 2019-01-29 2019-05-28 北京金山数字娱乐科技有限公司 阅读理解模型训练方法以及装置
CN109933792A (zh) * 2019-03-11 2019-06-25 海南中智信信息技术有限公司 基于多层双向lstm和验证模型的观点型问题阅读理解方法
CN110222152A (zh) * 2019-05-29 2019-09-10 北京邮电大学 一种基于机器阅读理解的问题答案获取方法及系统
CN110347802A (zh) * 2019-07-17 2019-10-18 北京金山数字娱乐科技有限公司 一种文本分析方法及装置
CN110348535A (zh) * 2019-07-17 2019-10-18 北京金山数字娱乐科技有限公司 一种视觉问答模型训练方法及装置
CN110377710A (zh) * 2019-06-17 2019-10-25 杭州电子科技大学 一种基于多模态融合的视觉问答融合增强方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103221952B (zh) * 2010-09-24 2016-01-20 国际商业机器公司 词法答案类型置信度估计和应用的方法和系统
US10997221B2 (en) * 2018-04-07 2021-05-04 Microsoft Technology Licensing, Llc Intelligent question answering using machine reading comprehension

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040356A1 (en) * 2010-09-24 2012-03-29 International Business Machines Corporation Providing question and answers with deferred type evaluation using text with limited structure
CN109558477A (zh) * 2018-10-23 2019-04-02 深圳先进技术研究院 一种基于多任务学习的社区问答系统、方法及电子设备
CN109766418A (zh) * 2018-12-13 2019-05-17 北京百度网讯科技有限公司 用于输出信息的方法和装置
CN109816111A (zh) * 2019-01-29 2019-05-28 北京金山数字娱乐科技有限公司 阅读理解模型训练方法以及装置
CN109933792A (zh) * 2019-03-11 2019-06-25 海南中智信信息技术有限公司 基于多层双向lstm和验证模型的观点型问题阅读理解方法
CN110222152A (zh) * 2019-05-29 2019-09-10 北京邮电大学 一种基于机器阅读理解的问题答案获取方法及系统
CN110377710A (zh) * 2019-06-17 2019-10-25 杭州电子科技大学 一种基于多模态融合的视觉问答融合增强方法
CN110347802A (zh) * 2019-07-17 2019-10-18 北京金山数字娱乐科技有限公司 一种文本分析方法及装置
CN110348535A (zh) * 2019-07-17 2019-10-18 北京金山数字娱乐科技有限公司 一种视觉问答模型训练方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的情感分类与评价对象判别;陈楠;《中国优秀硕士学位论文全文数据库信息科技辑》;全文 *

Also Published As

Publication number Publication date
CN110781663A (zh) 2020-02-11

Similar Documents

Publication Publication Date Title
CN110781663B (zh) 文本分析模型的训练方法及装置、文本分析方法及装置
CN110795543B (zh) 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN108536679B (zh) 命名实体识别方法、装置、设备及计算机可读存储介质
CN111177393B (zh) 一种知识图谱的构建方法、装置、电子设备及存储介质
CN110309514A (zh) 一种语义识别方法及装置
CN109960728B (zh) 一种开放域会议信息命名实体识别方法及系统
CN111666427B (zh) 一种实体关系联合抽取方法、装置、设备及介质
JP2023529939A (ja) マルチモーダルpoi特徴の抽出方法及び装置
CN109685056A (zh) 获取文档信息的方法及装置
EP4113357A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
CN113268609A (zh) 基于知识图谱的对话内容推荐方法、装置、设备及介质
CN110609886A (zh) 一种文本分析方法及装置
CN110347802A (zh) 一种文本分析方法及装置
CN110795934B (zh) 语句分析模型的训练方法及装置、语句分析方法及装置
CN111177402A (zh) 基于分词处理的评价方法、装置、计算机设备及存储介质
CN115858758A (zh) 一种多非结构化数据识别的智慧客服知识图谱系统
CN111368066B (zh) 获取对话摘要的方法、装置和计算机可读存储介质
CN113051384B (zh) 基于对话的用户画像抽取方法及相关装置
CN114077655A (zh) 一种答案抽取模型的训练方法及装置
CN112084788A (zh) 一种影像字幕隐式情感倾向自动标注方法及系统
CN116595023A (zh) 地址信息的更新方法和装置、电子设备及存储介质
CN114492460B (zh) 基于衍生提示学习的事件因果关系抽取方法
CN113420121B (zh) 文本处理模型训练方法、语音文本处理方法及装置
CN115934904A (zh) 文本处理方法以及装置
CN111339760A (zh) 词法分析模型的训练方法、装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant