CN112036169B - 事件识别模型优化方法、装置、设备及可读存储介质 - Google Patents

事件识别模型优化方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN112036169B
CN112036169B CN202010912118.7A CN202010912118A CN112036169B CN 112036169 B CN112036169 B CN 112036169B CN 202010912118 A CN202010912118 A CN 202010912118A CN 112036169 B CN112036169 B CN 112036169B
Authority
CN
China
Prior art keywords
event
character
keyword
classification
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010912118.7A
Other languages
English (en)
Other versions
CN112036169A (zh
Inventor
李超
吴海山
殷磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN202010912118.7A priority Critical patent/CN112036169B/zh
Publication of CN112036169A publication Critical patent/CN112036169A/zh
Application granted granted Critical
Publication of CN112036169B publication Critical patent/CN112036169B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开了一种事件识别模型优化方法、装置、设备及可读存储介质,方法包括:将各类事件对应的训练文本输入字符事件信息提取模块,提取得到训练文本中各字符与各类事件的字符事件关联信息;将字符事件关联信息和训练文本输入事件分类模块进行分类,得到训练文本对应的事件分类结果;将字符事件关联信息和训练文本对应的关键词标注输入关键词识别模块进行识别,得到关键词识别损失;基于事件分类结果和训练文本对应的事件类型标注计算分类损失,并优化关键词识别损失和分类损失以优化事件识别模型。本发明中添加了事件关键词信息来作为事件分类指导,避免了模型对事件理解不足或方向性错误而导致的事件识别错误问题,提高了事件分类准确率。

Description

事件识别模型优化方法、装置、设备及可读存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种事件识别模型优化方法、装置、设备及可读存储介质。
背景技术
在现在很多金融场景中,需要分析媒体报道的很多金融事件以帮助投资决策,甚至是构建量化金融建模指标。事件识别(Event Detective,ED)是要识别文本中的事件类型。目前一种事件识别方法是无触发词的事件多分类方法,预先采用大量的各种事件类型的文本对多分类模型进行训练,采用训练好的事件多分类模型来进行事件识别。由于事件类别较多、划分较细,一些类别的事件样本量又很少,导致事件多分类模型进行事件识别的准确率不高。
发明内容
本发明的主要目的在于提供一种事件识别模型优化方法、装置、设备及可读存储介质,旨在目前的事件多分类模型进行事件识别的准确率不高的问题。
为实现上述目的,本发明提供一种事件识别模型优化方法,待优化的事件识别模型包括字符事件信息提取模块、事件分类模块和关键词识别模块,所述方法包括以下步骤:
将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息;
将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果;
将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失;
基于所述事件分类结果和所述训练文本对应的事件类型标注计算分类损失,并优化所述关键词识别损失和所述分类损失以优化所述事件识别模型。
可选地,所述字符事件信息提取模块包括第一语义理解编码器和第一事件编码信息,
所述将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息的步骤包括:
将所述训练文本输入所述第一语义理解编码器中进行编码,得到所述训练文本中各字符对应的字符编码信息;
对所述字符编码信息和所述第一事件编码信息进行关联运算,得到所述字符事件关联信息。
可选地,所述第一事件编码信息包括各类事件对应的编码信息,
所述基于所述关键词识别损失和所述分类损失优化所述事件识别模型的步骤之前,还包括:
基于所述第一事件编码信息计算各类事件两两之间编码信息的相似度,并将各相似度相加得到事件编码惩罚值;
所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
优化所述事件编码惩罚值、所述关键词识别损失和所述分类损失以优化所述事件识别模型。
可选地,所述事件分类模块包括第二语义理解编码器、第二事件编码信息和事件分类器,
所述将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果的步骤包括:
将所述训练文本输入所述第二语义理解编码器进行编码,得到所述训练文本对应的文本编码信息;
对所述文本编码信息和所述第二事件编码信息进行关联运算,得到文本事件关联信息;
将所述训练文本、所述字符事件关联信息和所述文本事件关联信息输入所述事件分类器,得到所述训练文本对应的事件分类结果。
可选地,所述关键词识别模块包括条件随机场,所述字符事件关联信息为注意力矩阵,所述注意力矩阵的各行对应各类事件,各列对应所述训练文本中各字符,
所述将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失的步骤包括:
将所述注意力矩阵进行转置得到转置矩阵;
将所述转置矩阵和所述关键词标注输入所述条件随机场得到最大似然概率,将所述最大似然概率取负数后作为所述关键词识别损失。
可选地,所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
对所述关键词识别损失和所述分类损失进行加权求和得到总损失;
基于所述总损失计算所述事件识别模型中各个模型参数对应的梯度值;
并根据所述梯度值更新所述各个模型参数,以优化所述事件识别模型。
可选地,所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤之后,还包括:
当检测到优化后的事件识别模型满足预设模型条件时,将优化后的事件识别模型作为目标事件识别模型;
将待识别文本输入所述目标事件识别模型的字符事件信息提取模块,提取得到所述待识别文本中各字符与各类事件的字符事件关联信息;
将所述待识别文本的字符事件关联信息和所述待识别文本输入所述目标事件识别模型中的事件分类模块,得到所述待识别文本的事件分类结果。
为实现上述目的,本发明提供一种事件识别模型优化装置,待优化的事件识别模型包括字符事件信息提取模块、事件分类模块和关键词识别模块,所述装置包括:
提取模块,用于将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息;
分类模块,用于将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果;
识别模块,用于将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失;
优化模块,用于基于所述事件分类结果和所述训练文本对应的事件类型标注计算分类损失,并优化所述关键词识别损失和所述分类损失以优化所述事件识别模型。
为实现上述目的,本发明还提供一种事件识别模型优化设备,所述事件识别模型优化设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的事件识别模型优化程序,所述事件识别模型优化程序被所述处理器执行时实现如上所述的事件识别模型优化方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有事件识别模型优化程序,所述事件识别模型优化程序被处理器执行时实现如上所述的事件识别模型优化方法的步骤。
本发明中,通过设置包含字符事件信息提取模块、关键词识别模块和事件分类模块的待优化事件识别模型,并通过将各类事件对应的训练文本输入字符事件信息提取模块,提取得到训练文本中各字符与各类事件的字符事件关联信息;将字符事件关联信息和训练文本输入事件分类模块进行分类,得到训练文本对应的事件分类结果;将字符事件关联信息和训练文本对应的关键词标注输入关键词识别模块进行识别,得到关键词识别损失;基于事件分类结果和训练文本对应的事件类型标注计算分类损失,并基于关键词识别损失和分类损失优化事件识别模型。在优化过程中,通过优化关键词识别损失,使得关键词识别模块识别关键词的准确率提高,进而使得字符事件信息提取模块提取字符与事件之间关联关系的准确率提高,并使得字符事件信息提取模块提取到的字符事件关联信息中携带事件关键词信息;通过事件分类损失的优化,使得事件分类模块能够基于准确的字符事件关联信息和训练文本的语义理解信息作出准确的事件分类结果;由于相比于现有的无触发词的事件多分类方法,本发明中添加了包含事件关键词信息的字符事件关联信息来作为事件分类指导,避免了模型对事件理解不足或方向性错误而导致的事件识别错误问题,提高了事件分类准确率;并且,因为有字符事件关联信息作为指导,相比于单依据文本的语义理解信息做分类,分类依据更丰富,从而在样本量少的情况下,也能够有较好的分类准确率;且,相比于触发词本实施例中的关键词的标注要求低,从而使得标注更加简单,降低了标注数据的时间成本,提高了模型优化和部署的效率;又由于本发明提供的仍然是一种分类模型,从语义理解层面上进行事件分类,从而不存在基于触发词的事件识别方法的诸多问题。即,本发明提供了一种充分混合无触发词的事件多分类方法和基于触发词事件识别方法的混合方案,既没有两者的缺陷,又融合了两者的优势。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的结构示意图;
图2为本发明事件识别模型优化方法第一实施例的流程示意图;
图3为本发明实施例方案涉及的一种事件识别模型的模型结构示意图;
图4为本发明事件识别模型优化装置较佳实施例的功能示意图模块图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图。
需要说明的是,本发明实施例事件识别模型优化设备可以是智能手机、个人计算机和服务器等设备,在此不做具体限制。
如图1所示,该事件识别模型优化设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的设备结构并不构成对事件识别模型优化设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及事件识别模型优化程序。其中,操作系统是管理和控制设备硬件和软件资源的程序,支持事件识别模型优化程序以及其它软件或程序的运行。待优化的事件识别模型包括字符事件信息提取模块、事件分类模块和关键词识别模块。在图1所示的设备中,用户接口1003主要用于与客户端进行数据通信;网络接口1004主要用于服务器建立通信连接;处理器1001可以用于调用存储器1005中存储的事件识别模型优化程序,并执行以下操作:
将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息;
将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果;
将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失;
基于所述事件分类结果和所述训练文本对应的事件类型标注计算分类损失,并优化所述关键词识别损失和所述分类损失以优化所述事件识别模型。
进一步地,所述字符事件信息提取模块包括第一语义理解编码器和第一事件编码信息,所述将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息的步骤包括:
将所述训练文本输入所述第一语义理解编码器中进行编码,得到所述训练文本中各字符对应的字符编码信息;
对所述字符编码信息和所述第一事件编码信息进行关联运算,得到所述字符事件关联信息。
进一步地,所述第一事件编码信息包括各类事件对应的编码信息,
所述基于所述关键词识别损失和所述分类损失优化所述事件识别模型的步骤之前,处理器1001可以用于调用存储器1005中存储的事件识别模型优化程序,还执行以下操作:
基于所述第一事件编码信息计算各类事件两两之间编码信息的相似度,并将各相似度相加得到事件编码惩罚值;
所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
优化所述事件编码惩罚值、所述关键词识别损失和所述分类损失以优化所述事件识别模型。
进一步地,所述事件分类模块包括第二语义理解编码器、第二事件编码信息和事件分类器,
所述将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果的步骤包括:
将所述训练文本输入所述第二语义理解编码器进行编码,得到所述训练文本对应的文本编码信息;
对所述文本编码信息和所述第二事件编码信息进行关联运算,得到文本事件关联信息;
将所述训练文本、所述字符事件关联信息和所述文本事件关联信息输入所述事件分类器,得到所述训练文本对应的事件分类结果。
进一步地,所述关键词识别模块包括条件随机场,所述字符事件关联信息为注意力矩阵,所述注意力矩阵的各行对应各类事件,各列对应所述训练文本中各字符,
所述将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失的步骤包括:
将所述注意力矩阵进行转置得到转置矩阵;
将所述转置矩阵和所述关键词标注输入所述条件随机场得到最大似然概率,将所述最大似然概率取负数后作为所述关键词识别损失。
进一步地,所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
对所述关键词识别损失和所述分类损失进行加权求和得到总损失;
基于所述总损失计算所述事件识别模型中各个模型参数对应的梯度值;
并根据所述梯度值更新所述各个模型参数,以优化所述事件识别模型。
进一步地,所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤之后,处理器1001还可以用于调用存储器1005中存储的事件识别模型优化程序,并执行以下操作:
当检测到优化后的事件识别模型满足预设模型条件时,将优化后的事件识别模型作为目标事件识别模型;
将待识别文本输入所述目标事件识别模型的字符事件信息提取模块,提取得到所述待识别文本中各字符与各类事件的字符事件关联信息;
将所述待识别文本的字符事件关联信息和所述待识别文本输入所述目标事件识别模型中的事件分类模块,得到所述待识别文本的事件分类结果。
基于上述的结构,提出事件识别模型优化方法的各实施例。
参照图2,图2为本发明事件识别模型优化方法第一实施例的流程示意图。需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。本发明事件识别模型优化方法执行主体可以是智能手机、个人计算机和服务器等设备,以下各个实施例中省略执行主体进行描述。在本实施例中,事件识别模型优化方法包括:
步骤S10,将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息;
目前存在基于触发词的事件识别方法和不需要触发词的事件多分类方法这两种事件识别方法。前者是依据文本中是否存在事件的触发词来判断文本中是否存在该事件,该方法存在一些缺陷:1、定义触发词的主观性比较大,特别是中文没有边界,哪段短语足够作为一个触发词很主观,而且触发词标注的准确率要求较高,从而增加了人工标注难度,导致训练数据生产效率和准确性都较低,从而影响事件识别的效果;2、事件复杂度较高,一个事件可能由多个基础事件触发词组成,或者文本中不存在任何事件的触发词,从而需要基于语义理解才能判别事件类型,例如“标准值10ml-50ml,实际检测尽然达到150ml”这个句子实际上是超标事件,但是句子没有超标事件的触发词,从而导致事件识别错误;3、多个事件可能公用一个触发词,例如“回应深交所监管函”,监管函属于收到监管函事件的触发词,此短语同时属于回复监管事件的触发词,即存两个事件的触发词存在重叠问题,从而导致无法准确依据触发词判断事件类型,特别是事件越细分越多,导致这种现象就更加普遍更加严重。
后者是直接依据对文本的语义理解进行事件分类,由于不需要触发词,也就不存在上述方法的缺陷,但是该方法也存在一些缺陷:需要分类的事件类别多,分类难度大;各类事件的样本量可能差别很大,存在严重样本不均衡问题和少样本问题;事件有时发生在特定主体或者场合中,分类模型无法根据事件描述理解去分类,另外由于可能样本量也不充足,模型容易把这些特定的场景固定识别为某些事件,即模型是为了分类而分类。
本发明实施例中,旨在提供一种结合事件多分类方法和触发词方法的混合方案,既没有两者的缺陷,又能够融合两者的优势。
具体地,在本实施例中,预先可采集用于训练事件识别模型的各类事件对应的训练文本,也即,各个训练文本所属的事件类型不同。训练文本的采集方式可采用常用的模型训练数据采集方式,在此不进行详细赘述。
可预先设置一个待优化的事件识别模型,该事件识别模型包括字符事件信息提取模块、事件分类模块和关键词识别模块,各个模块中都设置有相应的模型参数,这些模型参数可以是初始化的,优化事件识别模型即优化这些模型参数,以提高事件识别模型的识别准确率,也即提高对文本进行事件分类的准确率。
其中,字符事件信息提取模块设置为用于提取文本中各个字符和各类事件之间的字符事件关联信息。也即,文本中部分字符是与某类事件具有强关联关系的该类事件的关键词,字符事件信息提取模块就是要提取文本中哪些字符与哪类事件或哪几类事件之间存在强关联关系。例如,文本中有“告警”这个词,则“告警”这两个字符与“告警”这一类型的事件之间存在很强的关联关系,对事件识别模型的优化过程,就是要使得字符事件信息提取模块学习到从文本中准确地提取出这些关联关系。其中,事件的类别数和名称可以是预先设置好的,例如,设置10种类别的事件,分别是“告警”、“罚款”和“监禁”等等。具体事件的类别数和名称可以根据文本事件识别的应用场景来定,例如,金融领域可设定一些金融事件。字符事件信息提取模块可以采用常用的文本信息提取模型结构来实现,在此不作限制。字符事件关联信息的数据形式具体不作限制,例如可以设置为矩阵形式或张量形式,即,该字符事件关联信息能够表示文本中每个字符分别与每类事件之间的关联关系即可,关联关系可以是关联的紧密程度,紧密程度可以用数值大小来体现。
关键词识别模块设置为用于基于字符事件信息提取模块输出的字符事件关联信息进行关键词识别,并给出关键词识别损失,进而通过优化关键词识别损失的方式,来优化字符事件信息提取模块,以使得字符事件信息提取模块能够准确地提取文本中的字符事件关联信息。
事件分类模块设置为用于基于训练文本的语义理解信息和字符事件信息提取模块输出的字符事件关联信息作出事件分类的分类结果,具体可以是二分类也可以是多分类。事件识别模型的优化训练过程,就是要使得事件分类模块学习到如何基于训练文本的语义理解信息和字符事件关联信息作出准确的分类。字符事件关联信息中包含了文本中各个字符与各类事件的关联关系强弱的信息,也即包含了某类事件的关键词信息,事件分类模块在基于语义理解信息进行分类的基础上,还基于关键词信息的指导,从而相比于不需要触发词的事件多分类方法仅依据语义理解信息来分类,本实施例中的事件分类模块有更多的分类依据,从而在样本量少的情况下,也能够有较好的分类准确率,且,关键词信息指导避免了事件分类模块对文本事件理解不足和出现方向性错误的问题,也即提高了分类准确率。
在采用训练文本来训练待优化的事件识别模型的过程中,要对事件识别模型进行至少一轮的优化。一轮优化过程中,将各个训练文本分别输入事件识别模型中的字符事件信息提取模块,经过字符事件信息提取模块处理,提取得到训练文本的字符事件关联信息。其中,不需要对训练文本进行分词处理。需要说明的是,各个训练文本是分别处理的,但处理过程相同,故以下描述中,或采用训练文本的描述代表各个训练文本。
步骤S20,将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果;
在得到训练文本的字符事件关联信息后,将字符事件关联信息和训练文本输入事件分类模块。其中,事件分类模块中可包括一个语义理解信息提取模块和事件分类器,该语义理解信息提取模块用于提取训练文本的语义理解信息,事件分类器用于基于语义理解信息和字符事件关联信息进行分类。语义理解信息提取模块和事件分类器均可采用现有的模型结构。事件分类模块也可以是仅包括一个事件分类器,该事件分类器内包含语义信息提取的功能单元。事件分类模块对字符事件关联信息和训练文本进行分类处理,得到训练文本对应的事件分类结果。当分类任务是二分类时,即判别文本是否属于某一类型事件时,事件分类结果可以是表示训练文本是属于该类型事件的概率。当分类任务是多分类时,即判别文本属于多类事件中哪一类或哪几类时,事件分类结果可以是包括训练文本分别属于每一类事件的概率。
步骤S30,将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失;
将训练文本的字符事件关联信息和训练文本对应的关键词标注输入关键词识别模块进行识别,得到关键词识别损失。其中,预先可根据训练文本所属的事件类别,标注出训练文本中与该类别的事件相关的关键词,并可采用常用的标注工具生成符合格式需求的标注数据,进而得到该训练文本的关键词标注。关键词识别模块可采用常用的命名实体识别器来实现,例如采用条件随机场(CRF)或隐马尔可夫模型(HMM)等。关键词识别模型的输入数据设置为字符事件关联信息和关键词标注,输出为关键词识别结果和关键词识别损失。其中,关键词识别结果为表示文本中哪些字符属于关键词的结果,关键词识别损失为表示关键词识别结果与关键词标注之间差距的损失,关键词识别结果和关键词识别损失的数据形式在本实施例中不作限制。
需要说明的是,本实施例中标注的关键词与触发词并不相同,关键词的范围要大于触发词,也即,只要与事件类型相关的词,均可以将其标注为关键词,不一定要达到触发词的条件。并且由于本实施例中的事件识别模型是以字符事件关联信息中携带的关键词信息为辅助进行事件分类,而不是仅依靠关键词进行分类,所以对关键词标注的准确度要求小于触发词,使得关键词标注更加简单,从而降低了人工标注的时间成本,提高了模型的训练效率。
步骤S40,基于所述事件分类结果和所述训练文本对应的事件类型标注计算分类损失,并优化所述关键词识别损失和所述分类损失以优化所述事件识别模型。
预先可标注训练文本的事件类型,即标注训练文本属于哪一类事件,并可采用常用的标注工具生成符合格式需求的标注数据,得到事件类型标注。在得到训练文本的事件分类结果后,基于事件分类结果和训练文本对应的事件类型标注计算分类损失。分类损失的计算方式可采用常用的模型分类损失计算方式,在本实施例中不作限制。
在计算得到关键词识别损失和分类损失后,可通过优化关键词识别损失和分类损失来优化事件识别模型。优化损失即使得损失尽量减小。两个损失可以同时优化,也可以先后优化,优化损失的方式可以采用常用的损失优化方式。至此完成了一轮模型优化过程。
进一步地,所述步骤S40中优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
步骤S401,对所述关键词识别损失和所述分类损失进行加权求和得到总损失;
步骤S402,基于所述总损失计算所述事件识别模型中各个模型参数对应的梯度值;
步骤S403,并根据所述梯度值更新所述各个模型参数,以优化所述事件识别模型。
在一实施方式中,可将关键词识别损失和分类损失加权求和,以同时优化两个损失,优化损失的方式可以是采用梯度下降算法等常用的损失优化方式。具体地,将关键词识别损失和分类损失进行加权求和得到总损失,两个损失对应的权重可以预先设置,权重大小表示两个损失所占的比重;按照梯度下降算法和反向传播算法根据总损失计算得到事件识别模型中各个部分的模型参数分别对应的梯度值,模型参数包括字符事件信息提取模块、关键词识别模块和事件分类模块中的模型参数;再根据各个梯度值对应更新的各个模型参数,各个模型参数均得到更新后,事件识别模型就得到了更新,也即事件识别模型得到了一轮优化。
在经过多轮优化后,若检测到优化后的事件识别模型满足预设模型条件,则确定优化后的事件识别模型为最终的目标事件识别模型。其中,预设模型条件可以是总损失收敛,或达到一个预定的训练时长,或达到一个预定的优化次数,或事件识别模型的分类准确率达到一个预定的准确率等等。
得到目标事件识别模型后,可采用目标事件识别模型对需要进行事件识别的文本进行识别,得到该文本的事件类型。
在本实施例中,通过设置包含字符事件信息提取模块、关键词识别模块和事件分类模块的待优化事件识别模型,并通过将各类事件对应的训练文本输入字符事件信息提取模块,提取得到训练文本中各字符与各类事件的字符事件关联信息;将字符事件关联信息和训练文本输入事件分类模块进行分类,得到训练文本对应的事件分类结果;将字符事件关联信息和训练文本对应的关键词标注输入关键词识别模块进行识别,得到关键词识别损失;基于事件分类结果和训练文本对应的事件类型标注计算分类损失,并基于关键词识别损失和分类损失优化事件识别模型。在优化过程中,通过优化关键词识别损失,使得关键词识别模块识别关键词的准确率提高,进而使得字符事件信息提取模块提取字符与事件之间关联关系的准确率提高,并使得字符事件信息提取模块提取到的字符事件关联信息中携带事件关键词信息;通过事件分类损失的优化,使得事件分类模块能够基于准确的字符事件关联信息和训练文本的语义理解信息作出准确的事件分类结果;由于相比于现有的无触发词的事件多分类方法,本实施例中添加了包含事件关键词信息的字符事件关联信息来作为事件分类指导,避免了模型对事件理解不足或方向性错误而导致的事件识别错误问题,提高了事件分类准确率;并且,因为有字符事件关联信息作为指导,相比于单依据文本的语义理解信息做分类,分类依据更丰富,从而在样本量少的情况下,也能够有较好的分类准确率;且,相比于触发词本实施例中的关键词的标注要求低,从而使得标注更加简单,降低了标注数据的时间成本,提高了模型优化和部署的效率;又由于本实施例提供的仍然是一种分类模型,从语义理解层面上进行事件分类,从而不存在基于触发词的事件识别方法的诸多问题。即,本实施例提供了一种充分混合无触发词的事件多分类方法和基于触发词事件识别方法的混合方案,既没有两者的缺陷,又融合了两者的优势。
进一步地,在一实施方式中,为提高关键词标注的效率,可获取训练文本所属事件类型对应的预设种子关键词和备选词;采用预设词向量模型将所述预设种子关键词和所述备选词分别转换为词向量;计算所述备选词的词向量与所述预设种子关键词的词向量之间的相似度,并选取相似度大于预设相似度的备选词添加至所述事件类型对应的关键词库;将所述训练文本与所述关键词库中各关键词进行匹配,以确定所述训练文本中的关键词,并采用所述训练文本中的关键词对所述训练文本进行序列化标注得到所述关键词标注。
具体地,可获取训练文本所属事件类型对应的预设种子关键词和备选词。其中,预设种子关键词可以是人工从属于该事件类型的文本中选出的一些关键词,这些关键词可以是少量的,从而节省人工选取的时间。备选词则很广泛,可以将属于该事件类型的大量文本进行分词,分词得到的词均可作为备选词。也即,要基于种子关键词从备选关键词中自动扩展出该事件类型的关键词。
进一步地,预设种子关键词可以是从属于该事件类型的大量文本中提取的高频词,例如,将在大量文本中出现超过N次的词作为种子关键词,其中,N可以根据需要进行设置。
采用预设词向量模型将预设种子关键词和备选词分别转换为词向量(wordembedding),其中,预设词向量模型可以采用常用的能够将词汇转换为向量表示的模型,例如word2vec模型,该模型是一群用来产生词向量的相关模型。
分别计算备选词的词向量与各个预设种子关键词的词向量之间的相似度,若某个备选词的词向量与某个预设种子关键词的词向量之间的相似度大于预设相似度,则将该备选词添加至该事件类型对应的关键词库中,以备采用关键词库中的关键词对该事件类型的文本进行关键词标注。
对于该事件类型的训练文本,将该训练文本与该事件类型的关键词库中的各个关键词进行匹配,也即,匹配训练文本中是否存在关键词库中的关键词,若存在,则可确定匹配成功的关键词就是该训练文本的关键词。其中,匹配可以是采用正则匹配方式。采用该训练文本中的关键词对该训练文本进行序列化标注得到关键词标注。其中,序列化标注的目的是使得关键词标注的数据形式满足关键词识别模块的输入数据的形式,故,序列化标注的方式可根据关键词识别模块所采用的模型结构来选取,例如,可以采用BIO标注方法,该方法为常用的序列化标注方法。
在本实施例中,通过获取训练文本所属事件类型对应的预设种子关键词和备选词,采用预设词向量模型将预设种子关键词和备选词分别转换为词向量;计算备选词的词向量与预设种子关键词的词向量之间的相似度,并选取相似度大于预设相似度的备选词添加至事件类型对应的关键词库;将训练文本与关键词库中各关键词进行匹配,以确定训练文本中的关键词,并采用训练文本中的关键词对训练文本进行序列化标注得到关键词标注。使得关键词标注只需要对每类事件选取少量的种子关键词,即可根据种子关键词扩展出大量的关键词,并自动匹配训练文本中的关键词,从而提高了关键词标注的效率。
进一步地,基于上述第一实施例,提出本发明事件识别模型优化方法第二实施例,在本实施例中,所述步骤S10包括:
步骤S101,将所述训练文本输入所述第一语义理解编码器中进行编码,得到所述训练文本中各字符对应的字符编码信息;
在本实施例中,字符事件信息提取模块包括第一语义理解编码器和第一事件编码信息。其中,第一语义理解编码器可以采用常用成熟的模型例如BERT(BidirectionalEncoder Representation from Transformers,一种预训练模型)或LSTM(Long Short-Term Memory,长短期记忆网络)来实现,用于对文本进行编码,得到文本中各个字符对应的字符编码信息。第一事件编码信息可以是对各类事件的编码表示(event embedding),可以随机初始化,并在事件识别模型的优化过程中作为模型参数进行优化,以使得各类事件的编码信息有效地代表各类事件。
在优化过程中,将训练文本输入第一语义理解编码器中进行编码,得到训练文本中各个字符对应的字符编码信息。可以理解的是,字符编码信息的准确度是随着优化轮次的增加而逐渐优化的。
步骤S102,对所述字符编码信息和所述第一事件编码信息进行关联运算,得到所述字符事件关联信息。
对字符编码信息和第一事件编码信息进行关联运算,得到字符事件关联信息。其中,关联运算可以是线性运算,例如加减乘除等运算组合的线性运算,具体不作限制。关联运算后,得到每个字符与每类事件之间的关联关系,构成字符事件关联信息。具体地,字符编码信息可以是矩阵形式,每一行对应一个字符的编码信息,第一事件编码信息也可以是矩阵形式,每一行对应一类事件的编码信息;经过关联运算后得到的字符事件关联信息也可以是矩阵形式,各个行对应各个字符,各个列对应各类事件,那么矩阵中的元素表示对应行的字符与对应列的该类事件之间的关联关系的强弱,或者,也可以是各个行对应各类事件,各个列对应各个字符;也即,实质上得到了一个字符与事件的注意力矩阵(charattention)。
在本实施例中,通过设置包括第一语义理解编码器和第一事件编码信息的字符事件信息提取模块,采用第一语义理解编码器提取训练文本中的字符编码信息,再采用字符编码信息与第一事件编码信息进行关联运算,得到包含训练文本中各个字符与各类事件之间关联关系的字符事件关联信息,并通过优化关键词识别损失来使得字符事件信息提取模块提取到准确的字符事件关联信息,进而能够指导事件分类模块作出准确的事件分类结果。
进一步地,在一实施方式中,所述方法还包括:
步骤S50,基于所述第一事件编码信息计算各类事件两两之间编码信息的相似度,并将各相似度相加得到事件编码惩罚值;
第一事件编码信息包括各类事件对应的编码信息,第一事件编码信息预先是随机初始化的,在模型优化过程中,通过对关键词识别损失和事件分类损失的优化,使得第一事件编码信息逐渐优化,从而能够更加准确地代表各类事件。
当事件类别较多、划分比较细时,可能会导致事件识别模型容易在差异较小的事件类型之间作出错误,例如,A和B两个事件类型很相似,则模型可能容易会将A类型事件的文本判别为B类型,将B类型事件的文本判别为B类型。
在本实施例中,为进一步提高事件识别模型在这种情况下的分类准确率,增加一个惩罚机制,该惩罚机制目的在于加大各类事件两两之间编码信息的差异,从而使得事件识别模型能够准确地区分各类事件,作出准确地分类结果。
具体地,在优化过程中,基于第一事件编码信息计算各类事件两两之间编码信息的相似度,并将各个相似度相加得到事件编码惩罚值。例如,当事件识别的目标类别有A、B和C三类事件时,第一事件编码信息包括A、B和C三类事件分别对应的编码信息va、vb和vc,计算A、B、C三类事件两两之间编码信息的相似度,也即计算va和vb、va和vc以及vb和vc之间的相似度,将三个相似度相加,得到事件编码惩罚值。其中,计算两个编码信息之间的相似度可以采用简单的对比方法,即判断两者相同的部分占总体部分的比例。当事件的编码信息是向量形式时,也可通过计算两个向量之间的内积,来计算两个编码信息之间的相似度,若两个向量正交,即差异最大时,内积为0,否则内积变大。当第一事件编码信息是矩阵形式,各行分别表示各类事件的编码向量时,也可以采用如下方式来计算事件两两之间编码信息的相似度,即:可以将矩阵中各个元素进行归一化处理,得到归一化矩阵;将归一化矩阵乘以该归一化矩阵的转置,得到一个矩阵;该矩阵中第一行第一列的元素是第一类事件自己与自己的编码信息之间的内积,应当是1,第一行第二列的元素是第一类事件的编码信息与第二类事件的编码信息的内积,第二行第一列的元素是第二类事件的编码信息与第一类事件的编码信息的内积,以此类推;为避免重复,将该矩阵中的上三角元素或下三角元素取出,然后求和就可得到事件编码惩罚值。
所述步骤S40中优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
步骤S404,优化所述事件编码惩罚值、所述关键词识别损失和所述分类损失以优化所述事件识别模型。
在计算得到关键词识别损失、分类损失和事件编码惩罚值后,可通过优化关键词识别损失、分类损失和事件编码惩罚值来优化事件识别模型。三个损失可以同时优化,也可以先后优化,优化损失的方式可以采用常用的损失优化方式。至此完成了一轮模型优化过程。
进一步地,在一实施方式中,可将事件编码惩罚值、关键词识别损失和分类损失加权求和,以同时优化三个损失,优化损失的方式可以是采用梯度下降算法等常用的损失优化方式。具体地,将事件编码惩罚值、关键词识别损失和分类损失进行加权求和得到总损失,三个损失对应的权重可以预先设置,权重大小表示三个损失所占的比重;按照梯度下降算法和反向传播算法根据总损失计算得到事件识别模型中各个部分的模型参数分别对应的梯度值,模型参数包括字符事件信息提取模块、关键词识别模块和事件分类模块中的模型参数;再根据各个梯度值对应更新各个模型参数,各个模型参数均得到更新后,事件识别模型就得到了更新,也即事件识别模型得到了一轮优化。
在本实施例中,通过在事件识别模型的损失函数中添加事件编码惩罚值,并优化事件编码惩罚值,使得事件编码惩罚值尽量减小,从而使得各类事件的编码信息之间差异性增大,从而使得事件识别模型能够更容易区分各类事件,进而在事件类别多、划分细的情况下,也能够作出准确的事件识别结果。
进一步地,基于上述第一和/或第二实施例,提出本发明事件识别模型优化方法第三实施例,在本实施例中,所述步骤S20包括:
步骤S201,将所述训练文本输入所述第二语义理解编码器进行编码,得到所述训练文本对应的文本编码信息;
在本实施例中,事件分类模块包括第二语义理解编码器、第二事件编码信息和事件分类器。其中,第二语义理解编码器可以采用常用成熟的模型例如BERT或LSTM来实现,用于对文本进行编码,得到文本编码信息。第二事件编码信息可以是对各类事件的编码表示,可以随机初始化,并在事件识别模型的优化过程中作为模型参数进行优化,以使得各类事件的编码信息有效地代表各类事件。事件分类器可以采用常用的分类模型来实现。
在优化过程中,将训练文本输入第二语义理解编码器进行编码,得到训练文本对应的文本编码信息。可以理解的是,文本编码信息的准确度是随着优化轮次的增加而逐渐优化的。
步骤S202,对所述文本编码信息和所述第二事件编码信息进行关联运算,得到文本事件关联信息;
在得到训练文本的文本编码信息后,对文本编码信息和第二实际编码信息进行关联运算,得到文本事件关联信息。其中,关联运算可以是线性运算,例如加减乘除等运算组合的线性运算,具体不作限制。关联运算后,得到整个训练文本与每类事件之间的关联关系,构成文本事件关联信息。即,与第一语义理解编码器和第一事件编码信息提取文本中各个字符与各类事件的字符事件关联信息不同,本实施例中的第二语义理解编码器和第二事件编码信息用于提取整个文本的语义信息与各类事件的文本事件关联信息。具体地,文本编码信息可以是向量或矩阵形式,第二事件编码信息也可以是矩阵形式,每一行对应一类事件的编码信息;经过关联运算后得到的文本事件关联信息也可以是矩阵形式,一行为一类事件与训练文本之间的关联关系的向量。也即,实质上得到了一个文本与事件的注意力矩阵(sentence attention)。
步骤S203,将所述训练文本、所述字符事件关联信息和所述文本事件关联信息输入所述事件分类器,得到所述训练文本对应的事件分类结果。
将训练文本、字符事件关联信息和文本事件关联信息输入事件分类器进行分类,得到训练文本对应的事件分类结果。也即,事件分类器依据训练文本本身、字符事件关联信息和文本事件关联信息三者来进行事件分类。其中,训练文本包含了原始句子信息,字符事件关联信息包含了各个字符与各类事件的关联关系,文本事件关联信息包含了整个文本的语义与各类事件的关联关系,事件分类器通过这三者作为事件分类依据,得到事件分类结果。
进一步地,在一实施方式中,也可以只将字符事件关联信息和文本事件关联信息输入事件分类器进行分类。
在本实施例中,通过设置包括第二语义理解编码器、第二事件编码信息和事件分类器的事件分类模块,采用第二语义理解编码器提取训练文本中的文本编码信息,再采用文本编码信息与第二事件编码信息进行关联运算,得到包含训练文本的整体语义与各类事件之间关联关系的文本事件关联信息,将文本事件关联信息、字符事件关联信息和训练文本三者输入事件分类器进行分类,并计算和优化事件分类损失,以使得事件分类模块提取到准确的文本事件关联信息,进而能够指导事件分类器作出准确的事件分类结果。
需要说明的是,如图3所示,在一种实施方式中,事件识别模型中同时设置有第一语义理解编码器、第二语义理解编码器、第一事件编码信息和第二事件编码信息。这种情况下,两个编码器可采用相同的模型结构来实现,也可以采用不同的模型结构来实现,两个编码器的初始模型参数可以相同也可以不同。若两个编码器采用的模型结构相同,初始模型参数也相同,则在第一轮优化时,第一语义理解编码器输出的字符编码信息与第二语义编码器输出的文本编码信息是相同的;而经过一轮优化后,由于第一语义理解编码器是基于关键词识别损失和事件分类损失共同优化而优化的,第二语义理解编码器是基于事件分类损失的优化而优化的,两者接收到的损失信号不同,从而导致第一轮之后,两个编码器输出的结果逐渐不同,且字符编码信息偏向包含文本中单个字符的语义信息,文本编码信息偏向包含文本整体的语义信息。同样地,两个事件编码信息随机初始化时可以相同也可以不同,在第一轮优化以后,由于接收到的损失信号不同,两个事件编码信息会出现差异。
进一步地,惩罚机制也可以在第二事件编码信息中实现,即基于第二事件编码信息计算事件编码惩罚值,具体计算方法与上述第二实施例中基于第一事件编码信息计算事件编码惩罚值的方式相同。或者可基于第一事件编码信息和第二事件编码信息共同计算编码惩罚值,即基于两个事件编码信息分别计算惩罚值,再将两个惩罚值相加或平均,得到一个最终的惩罚值,将该惩罚值加入损失中进行优化。
进一步地,基于上述第一、第二和/或第三实施例,提出本发明事件识别模型优化方法第四实施例,在本实施例中,所述步骤S30包括:
步骤S301,将所述注意力矩阵进行转置得到转置矩阵;
在本实施例中,所述关键词识别模块包括条件随机场,所述字符事件关联信息为注意力矩阵,所述注意力矩阵的各行对应各类事件,各列对应所述训练文本中各字符。也即,注意力矩阵中的元素表示对应行的事件与对应列的字符之间的关联关系大小。将注意力矩阵进行转置得到注意力矩阵的转置矩阵,也即,得到各行对应各个字符,各列对应各类事件的矩阵。转置方式即按照常规的矩阵转置方式。注意力矩阵是直接作为事件分类模块的输入数据的,而要输入关键词识别模块,也即要输入条件随机场,还需要进行转置得到转置矩阵后再输入。
步骤S302,将所述转置矩阵和所述关键词标注输入所述条件随机场得到最大似然概率,将所述最大似然概率取负数后作为所述关键词识别损失。
将转置矩阵和关键词标注输入条件随机场进行处理,得到最大似然概率。其中,条件随机场是现有常用的命名实体识别模型。关键词标注包括标注文本的各个字符是否为关键词的标注,条件随机场的原理是根据输入的转置矩阵和关键词标注,预测得到多中可能的关键词识别结果以及每种关键词识别结果对应的概率,条件随机场将其中最大的概率作为最大似然概率,并通过最大化最大似然概率的方式,使得该概率对应的关键词识别结果是关键词标注对应的识别结果的可能性最大。将最大似然概率取负数后作为关键词识别损失,优化关键词识别损失的过程就是最大化最大似然概率的过程。
在本实施例中,通过采用条件随机场基于字符与事件的注意力矩阵来进行关键词识别,并通过优化最大似然概率来优化条件随机场识别关键词的准确率,进而使得字符事件信息提取模块提取到的注意力矩阵中包含准确的字符与各类事件之间的关联关系,从而能够有效地指导事件分类模块作为准确的事件分类结果。
进一步地,基于上述第一、第二、第三和/或第四实施例,提出本发明事件识别模型优化方法第五实施例,在本实施例中,步骤S40之后,还包括:
步骤A10,当检测到优化后的事件识别模型满足预设模型条件时,将优化后的事件识别模型作为目标事件识别模型;
当检测到优化后的事件识别模型满足预设模型条件时,将优化后的事件识别模型作为目标事件识别模型。其中,预设模型条件可以是预先设置的优化停止条件,例如,可以是总损失收敛,或达到一个预定的训练时长,或达到一个预定的优化次数,或事件识别模型的分类准确率达到一个预定的准确率等等。
若检测到优化后的事件识别模型不满足预设模型条件,则将优化后的事件识别模型作为下一轮优化的基础,也即再作为待优化的事件识别模型,按照上述实施例中的方式进行继续优化,直到检测到满足预设模型条件为止,就得到最终的目标事件识别模型。
步骤A20,将待识别文本输入所述目标事件识别模型的字符事件信息提取模块,提取得到所述待识别文本中各字符与各类事件的字符事件关联信息;
可采用目标事件识别模型对需要进行事件识别的文本进行事件识别。具体地,将该文本作为待识别文本,将待识别文本输入目标事件识别模型的字符事件信息提取模块,提取得到待识别文本中各字符与各类事件的字符事件关联信息。提取过程与上述对训练文本进行字符事件关联信息提取的过程是相同的。
步骤A30,将所述待识别文本的字符事件关联信息和所述待识别文本输入所述目标事件识别模型中的事件分类模块,得到所述待识别文本的事件分类结果。
将待识别文本的字符事件关联信息和待识别文本输入目标事件识别模型中的事件分类模块,得到待识别文本的事件分类结果。具体的分类过程与上述对训练文本进行事件分类的过程相同。
在本实施例中,通过优化训练后,目标事件识别模型中的字符事件信息提取模块,能够准确地提取到待识别文本中各个字符与各类事件之间的关联关系,也即提取到包括关键词信息的字符事件关联信息,基于字符事件关联信息指导事件分类模块进行分类,相比于仅依据文本的语义理解信息进行分类,分类依据更加丰富,从而提高了分类的准确率,也即提高了事件识别的准确率。
进一步地,若需要识别文本中的关键词,则可以将待识别文本的字符事件关联信息输入目标事件识别模型的关键词识别模型,识别得到待识别文本中与事件相关的关键词。
进一步地,可将事件分类结果和事件相关的关键词进行可视化输出,以供用户直观地了解待识别文本的事件类型和事件相关的关键词。或者,在具体应用场景中,可基于事件分类结果或事件相关的关键词进行下一步的操作,在此不作限制。
需要说明的是,也可以是将待识别文本输入目标事件主体识别模型,以通过目标事件主体识别模型中的字符事件信息提取模块提取到字符事件关联信息,通过目标事件主体识别模型中的事件分类模块根据待识别文本和字符事件关联信息进行分类,得到事件分类结果。也即,将待识别文本一次输入目标事件主体识别模型,经过模型中各个模块的处理,得到待识别文本的事件分类结果。
此外本发明实施例还提出一种事件识别模型优化装置,待优化的事件识别模型包括字符事件信息提取模块、事件分类模块和关键词识别模块,参照图4,所述装置包括:
提取模块10,用于将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息;
分类模块20,用于将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果;
识别模块30,用于将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失;
优化模块40,用于基于所述事件分类结果和所述训练文本对应的事件类型标注计算分类损失,并优化所述关键词识别损失和所述分类损失以优化所述事件识别模型。
进一步地,所述字符事件信息提取模块包括第一语义理解编码器和第一事件编码信息,所述提取模块10包括:
第一输入单元,用于将所述训练文本输入所述第一语义理解编码器中进行编码,得到所述训练文本中各字符对应的字符编码信息;
第一运算单元,用于对所述字符编码信息和所述第一事件编码信息进行关联运算,得到所述字符事件关联信息。
进一步地,所述第一事件编码信息包括各类事件对应的编码信息,所述装置还包括:
第一计算单元,用于基于所述第一事件编码信息计算各类事件两两之间编码信息的相似度,并将各相似度相加得到事件编码惩罚值;
所述优化模块40还用于优化所述事件编码惩罚值、所述关键词识别损失和所述分类损失以优化所述事件识别模型。
进一步地,所述事件分类模块包括第二语义理解编码器、第二事件编码信息和事件分类器,所述分类模块20包括:
第二输入单元,用于将所述训练文本输入所述第二语义理解编码器进行编码,得到所述训练文本对应的文本编码信息;
第二运算单元,用于对所述文本编码信息和所述第二事件编码信息进行关联运算,得到文本事件关联信息;
第三输入单元,用于将所述训练文本、所述字符事件关联信息和所述文本事件关联信息输入所述事件分类器,得到所述训练文本对应的事件分类结果。
进一步地,所述关键词识别模块包括条件随机场,所述字符事件关联信息为注意力矩阵,所述注意力矩阵的各行对应各类事件,各列对应所述训练文本中各字符,所述识别模块30包括:
转置单元,用于将所述注意力矩阵进行转置得到转置矩阵;
第四输入单元,用于将所述转置矩阵和所述关键词标注输入所述条件随机场得到最大似然概率,将所述最大似然概率取负数后作为所述关键词识别损失。
进一步地,所述优化模块40包括:
第二计算单元,用于对所述关键词识别损失和所述分类损失进行加权求和得到总损失;
第三计算单元,用于基于所述总损失计算所述事件识别模型中各个模型参数对应的梯度值;
更新单元,用于并根据所述梯度值更新所述各个模型参数,以优化所述事件识别模型。
进一步地,所述装置还包括:
确定模块,用于当检测到优化后的事件识别模型满足预设模型条件时,将优化后的事件识别模型作为目标事件识别模型;
所述提取模块10,还用于将待识别文本输入所述目标事件识别模型的字符事件信息提取模块,提取得到所述待识别文本中各字符与各类事件的字符事件关联信息;
所述分类模块20,还用于将所述待识别文本的字符事件关联信息和所述待识别文本输入所述目标事件识别模型中的事件分类模块,得到所述待识别文本的事件分类结果。
本发明事件识别模型优化装置的具体实施方式的拓展内容与上述事件识别模型优化方法各实施例基本相同,在此不做赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述存储介质上存储有事件识别模型优化程序,所述事件识别模型优化程序被处理器执行时实现如下所述的事件识别模型优化方法的步骤。
本发明事件识别模型优化设备和计算机可读存储介质的各实施例,均可参照本发明事件识别模型优化方法各实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种事件识别模型优化方法,其特征在于,待优化的事件识别模型包括字符事件信息提取模块、事件分类模块和关键词识别模块,所述方法包括以下步骤:
将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息;
将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果;
将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失,其中,所述关键词标注包括标注所述训练文本的各个字符是否为关键词的标注,所述关键词识别损失为表示关键词识别结果与所述关键词标注之间差距的损失,所述关键词识别结果为表示所述训练文本中哪些字符属于关键词的结果;
基于所述事件分类结果和所述训练文本对应的事件类型标注计算分类损失,并优化所述关键词识别损失和所述分类损失以优化所述事件识别模型。
2.如权利要求1所述的事件识别模型优化方法,其特征在于,所述字符事件信息提取模块包括第一语义理解编码器和第一事件编码信息,
所述将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息的步骤包括:
将所述训练文本输入所述第一语义理解编码器中进行编码,得到所述训练文本中各字符对应的字符编码信息;
对所述字符编码信息和所述第一事件编码信息进行关联运算,得到所述字符事件关联信息。
3.如权利要求2所述的事件识别模型优化方法,其特征在于,所述第一事件编码信息包括各类事件对应的编码信息,
所述基于所述关键词识别损失和所述分类损失优化所述事件识别模型的步骤之前,还包括:
基于所述第一事件编码信息计算各类事件两两之间编码信息的相似度,并将各相似度相加得到事件编码惩罚值;
所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
优化所述事件编码惩罚值、所述关键词识别损失和所述分类损失以优化所述事件识别模型。
4.如权利要求1所述的事件识别模型优化方法,其特征在于,所述事件分类模块包括第二语义理解编码器、第二事件编码信息和事件分类器,
所述将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果的步骤包括:
将所述训练文本输入所述第二语义理解编码器进行编码,得到所述训练文本对应的文本编码信息;
对所述文本编码信息和所述第二事件编码信息进行关联运算,得到文本事件关联信息;
将所述训练文本、所述字符事件关联信息和所述文本事件关联信息输入所述事件分类器,得到所述训练文本对应的事件分类结果。
5.如权利要求1所述的事件识别模型优化方法,其特征在于,所述关键词识别模块包括条件随机场,所述字符事件关联信息为注意力矩阵,所述注意力矩阵的各行对应各类事件,各列对应所述训练文本中各字符,
所述将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失的步骤包括:
将所述注意力矩阵进行转置得到转置矩阵;
将所述转置矩阵和所述关键词标注输入所述条件随机场得到最大似然概率,将所述最大似然概率取负数后作为所述关键词识别损失。
6.如权利要求1所述的事件识别模型优化方法,其特征在于,所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤包括:
对所述关键词识别损失和所述分类损失进行加权求和得到总损失;
基于所述总损失计算所述事件识别模型中各个模型参数对应的梯度值;
并根据所述梯度值更新所述各个模型参数,以优化所述事件识别模型。
7.如权利要求1至6任一项所述的事件识别模型优化方法,其特征在于,所述优化所述关键词识别损失和所述分类损失以优化所述事件识别模型的步骤之后,还包括:
当检测到优化后的事件识别模型满足预设模型条件时,将优化后的事件识别模型作为目标事件识别模型;
将待识别文本输入所述目标事件识别模型的字符事件信息提取模块,提取得到所述待识别文本中各字符与各类事件的字符事件关联信息;
将所述待识别文本的字符事件关联信息和所述待识别文本输入所述目标事件识别模型中的事件分类模块,得到所述待识别文本的事件分类结果。
8.一种事件识别模型优化装置,其特征在于,待优化的事件识别模型包括字符事件信息提取模块、事件分类模块和关键词识别模块,所述装置包括:
提取模块,用于将各类事件对应的训练文本输入所述字符事件信息提取模块,提取得到所述训练文本中各字符与各类事件的字符事件关联信息;
分类模块,用于将所述字符事件关联信息和所述训练文本输入所述事件分类模块进行分类,得到所述训练文本对应的事件分类结果;
识别模块,用于将所述字符事件关联信息和所述训练文本对应的关键词标注输入所述关键词识别模块进行识别,得到关键词识别损失,其中,所述关键词标注包括标注所述训练文本的各个字符是否为关键词的标注,所述关键词识别损失为表示关键词识别结果与所述关键词标注之间差距的损失,所述关键词识别结果为表示所述训练文本中哪些字符属于关键词的结果;
优化模块,用于基于所述事件分类结果和所述训练文本对应的事件类型标注计算分类损失,并优化所述关键词识别损失和所述分类损失以优化所述事件识别模型。
9.一种事件识别模型优化设备,其特征在于,所述事件识别模型优化设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的事件识别模型优化程序,所述事件识别模型优化程序被所述处理器执行时实现如权利要求1至7中任一项所述的事件识别模型优化方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有事件识别模型优化程序,所述事件识别模型优化程序被处理器执行时实现如权利要求1至7中任一项所述的事件识别模型优化方法的步骤。
CN202010912118.7A 2020-09-02 2020-09-02 事件识别模型优化方法、装置、设备及可读存储介质 Active CN112036169B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010912118.7A CN112036169B (zh) 2020-09-02 2020-09-02 事件识别模型优化方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010912118.7A CN112036169B (zh) 2020-09-02 2020-09-02 事件识别模型优化方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN112036169A CN112036169A (zh) 2020-12-04
CN112036169B true CN112036169B (zh) 2023-06-20

Family

ID=73590598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010912118.7A Active CN112036169B (zh) 2020-09-02 2020-09-02 事件识别模型优化方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN112036169B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113160963A (zh) * 2020-12-18 2021-07-23 中电云脑(天津)科技有限公司 一种事件确定方法、装置、电子设备和存储介质
CN113283230B (zh) * 2021-06-24 2023-02-03 中国平安人寿保险股份有限公司 文本相似度计算模型的更新方法、装置、设备及存储介质
CN113887221B (zh) * 2021-09-15 2024-07-23 北京三快在线科技有限公司 一种模型训练以及关键词分类方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693219A (zh) * 2012-06-05 2012-09-26 苏州大学 一种中文事件的抽取方法及系统
CN109670174A (zh) * 2018-12-14 2019-04-23 腾讯科技(深圳)有限公司 一种事件识别模型的训练方法和装置
CN111400432A (zh) * 2020-06-04 2020-07-10 腾讯科技(深圳)有限公司 事件类型信息处理方法、事件类型识别方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10055481B2 (en) * 2016-07-20 2018-08-21 LogsHero Ltd. Method and system for automatic event classification
CN110659744B (zh) * 2019-09-26 2021-06-04 支付宝(杭州)信息技术有限公司 训练事件预测模型、评估操作事件的方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693219A (zh) * 2012-06-05 2012-09-26 苏州大学 一种中文事件的抽取方法及系统
CN109670174A (zh) * 2018-12-14 2019-04-23 腾讯科技(深圳)有限公司 一种事件识别模型的训练方法和装置
CN111400432A (zh) * 2020-06-04 2020-07-10 腾讯科技(深圳)有限公司 事件类型信息处理方法、事件类型识别方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向大数据的网络舆情多维 动态分类与预测模型研究;连芷萱等;《情报杂志》;第123-132页 *

Also Published As

Publication number Publication date
CN112036169A (zh) 2020-12-04

Similar Documents

Publication Publication Date Title
CN112036168B (zh) 事件主体识别模型优化方法、装置、设备及可读存储介质
CN112036169B (zh) 事件识别模型优化方法、装置、设备及可读存储介质
CN110580292B (zh) 一种文本标签生成方法、装置和计算机可读存储介质
CN110727779A (zh) 基于多模型融合的问答方法及系统
CN107180084B (zh) 词库更新方法及装置
CN110008343B (zh) 文本分类方法、装置、设备及计算机可读存储介质
CN111198948A (zh) 文本分类校正方法、装置、设备及计算机可读存储介质
CN113505200B (zh) 一种结合文档关键信息的句子级中文事件检测的方法
CN108038208B (zh) 上下文信息识别模型的训练方法、装置和存储介质
CN111651996A (zh) 摘要生成方法、装置、电子设备及存储介质
CN111708882A (zh) 基于Transformer的中文文本信息缺失的补全方法
CN112183064A (zh) 基于多任务联合学习的文本情绪原因识别系统
CN111078876A (zh) 一种基于多模型集成的短文本分类方法和系统
CN113254507B (zh) 一种数据资产目录智能构建盘点方法
CN112347223A (zh) 文档检索方法、设备及计算机可读存储介质
CN112035668B (zh) 事件主体识别模型优化方法、装置、设备及可读存储介质
CN111177402A (zh) 基于分词处理的评价方法、装置、计算机设备及存储介质
CN111538809A (zh) 一种语音服务质量检测方法、模型训练方法及装置
CN111177367A (zh) 案件分类方法、分类模型训练方法及相关产品
CN111554275B (zh) 语音识别方法、装置、设备及计算机可读存储介质
CN115859980A (zh) 一种半监督式命名实体识别方法、系统及电子设备
CN112417132A (zh) 一种利用谓宾信息筛选负样本的新意图识别方法
CN117744635B (zh) 基于智能ai的英文文本自动校对系统及方法
CN115098673A (zh) 基于变体注意力及层次结构的业务文书信息抽取方法
CN111191029B (zh) 基于监督学习和文本分类的ac构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant