CN117273243B - 一种用于时序事件预测的数据处理方法及装置 - Google Patents
一种用于时序事件预测的数据处理方法及装置 Download PDFInfo
- Publication number
- CN117273243B CN117273243B CN202311549597.0A CN202311549597A CN117273243B CN 117273243 B CN117273243 B CN 117273243B CN 202311549597 A CN202311549597 A CN 202311549597A CN 117273243 B CN117273243 B CN 117273243B
- Authority
- CN
- China
- Prior art keywords
- event
- target
- representation
- entity
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000003062 neural network model Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 15
- 238000010276 construction Methods 0.000 claims description 9
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000282836 Camelus dromedarius Species 0.000 description 1
- 241000288105 Grus Species 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000379 polymerizing effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Tourism & Hospitality (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种用于时序事件预测的数据处理方法及装置,其中,该用于时序事件预测的数据处理方法包括:构建复杂事件数据集,复杂事件数据集包括若干复杂事件,复杂事件包括若干原子事件,原子事件被表示为主体实体、关系、客体实体、发生时刻和标识;获取目标原子事件的主体实体、关系、发生时刻和标识,根据目标原子事件的局部上下文和全局上下文,预测目标原子事件的客体实体;其中,目标原子事件的局部上下文包括目标原子事件所属的复杂事件,目标原子事件的全局上下文包括复杂事件数据集,目标原子事件的标识用于确定目标原子事件所属的复杂事件。本发明提高了时序事件预测的准确性,解决了相关技术中存在的时序事件预测准确率较低的问题。
Description
技术领域
本申请涉及时序事件预测领域,特别是涉及一种用于时序事件预测的数据处理方法及装置。
背景技术
时序事件(Temporal Event,TE)预测旨在根据历史观察到的事实预测未来的事件。人们寻求挖掘影响不同事件演变的规律,以便在各个领域中实现灾害预防或早期警示,如社会动荡或地区冲突等。由于其重要的价值,时序事件预测受到许多研究社区越来越多的关注。当前,时序事件的几种表述包括时间序列(Time Series)、故事线(Storyline)、时序知识图谱(Temporal Knowledge Graph,TKG)以及模式化时序复杂事件(TemporalComplex Event,TCE)。以往的时序事件表述形式是非结构化的、原子的或缺乏完整的时间信息,从而在很大程度上限制了时序事件的表示质量和预测能力。同时,在目前的时序事件预测中,所依据的上下文信息比较少,进而导致时序事件预测准确率较低。
针对相关技术中存在的时序事件预测准确率较低的问题,目前还没有提出有效的解决方案。
发明内容
在本实施例中提供了一种用于时序事件预测的数据处理方法及装置,以解决相关技术中存在的时序事件预测准确率较低的问题。
第一个方面,在本发明中提供了一种用于时序事件预测的数据处理方法,所述方法包括:
构建复杂事件数据集,所述复杂事件数据集包括若干复杂事件,所述复杂事件包括若干原子事件,所述原子事件被表示为主体实体、关系、客体实体、发生时刻和标识;
获取目标原子事件的主体实体、关系、发生时刻和标识,根据所述目标原子事件的局部上下文和全局上下文,预测所述目标原子事件的客体实体;
其中,所述目标原子事件的局部上下文包括所述目标原子事件所属的复杂事件,所述目标原子事件的全局上下文包括所述复杂事件数据集,所述目标原子事件的标识用于确定所述目标原子事件所属的复杂事件。
在其中的一些实施例中,所述根据所述目标原子事件的局部上下文和全局上下文,预测所述目标原子事件的客体实体,包括:
根据所述目标原子事件的局部上下文,确定在所述目标原子事件的发生时刻之前的局部实体表示和局部关系表示;
根据所述目标原子事件的全局上下文,确定在所述目标原子事件的发生时刻之前的全局实体表示和全局关系表示;
根据所述目标原子事件的主体实体和关系,在所述局部实体表示和所述局部关系表示中确定对应的第一主体实体表示和第一关系表示,以及在所述全局实体表示和所述全局关系表示中确定对应的第二主体实体表示和第二关系表示;
根据所述第一主体实体表示和所述第二主体实体表示确定目标主体实体表示,根据所述第一关系表示和所述第二关系表示确定目标关系表示,根据所述目标主体实体表示和所述目标关系表示预测所述目标原子事件的客体实体表示。
在其中的一些实施例中,所述根据所述目标原子事件的局部上下文,确定在所述目标原子事件的发生时刻之前的局部实体表示和局部关系表示,包括:
确定在所述目标原子事件的发生时刻之前的多个目标时刻;
对于任意所述目标时刻,通过图神经网络模型对所述目标原子事件的局部上下文进行信息提取,得到所述目标时刻下的局部实体表示和局部关系表示;
通过循环神经网络模型对多个所述目标时刻下的局部实体表示和局部关系表示进行处理,确定在所述目标原子事件的发生时刻之前的局部实体表示和局部关系表示。
在其中的一些实施例中,所述图神经网络模型包括关系图神经网络单元,所述循环神经网络模型包括门控循环神经网络单元。
在其中的一些实施例中,所述目标时刻下的局部实体表示通过聚合所述图神经网络模型中各网络传播层输出的局部实体表示得到。
在其中的一些实施例中,在所述目标原子事件的发生时刻之前的局部实体表示的模型参数与在所述目标原子事件的发生时刻之前的全局实体表示的模型参数相互独立。
在其中的一些实施例中,所述根据所述目标主体实体表示和所述目标关系表示预测所述目标原子事件的客体实体表示,包括:
将所述目标主体实体表示和所述目标关系表示作为编码器ConvTransE的输入,通过所述编码器ConvTransE得到所述目标原子事件的客体实体表示。
在其中的一些实施例中,所述构建复杂事件数据集,包括:
获取新闻文章数据库;
基于时间关联性和语义相似性对所述新闻文章数据库中的若干新闻文章进行聚类,得到所述复杂事件数据集。
在其中的一些实施例中,所述复杂事件数据集还包括单独的离群原子事件。
第二个方面,在本发明中提供了一种用于时序事件预测的数据处理装置,所述装置包括:
数据构建模块,用于构建复杂事件数据集,所述复杂事件数据集包括若干复杂事件,所述复杂事件包括若干原子事件,所述原子事件包括主体实体、关系、客体实体、发生时刻和标识;
事件预测模块,用于获取目标原子事件的主体实体、关系、发生时刻和标识,根据所述目标原子事件的局部上下文和全局上下文,预测所述目标原子事件的客体实体;
其中,所述目标原子事件的局部上下文包括所述目标原子事件所属的复杂事件,所述目标原子事件的全局上下文包括所述复杂事件数据集,所述目标原子事件的标识用于确定所述目标原子事件所属的复杂事件。
第三个方面,在本发明中提供了一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一个方面所述的用于时序事件预测的数据处理方法。
第四个方面,在本发明中提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一个方面所述的用于时序事件预测的数据处理方法。
与相关技术相比,在本发明中提供的用于时序事件预测的数据处理方法及装置,一方面给复杂事件提供了包含结构性、复杂性、时间完备性的新表述,另一方面在时间预测中同时依据时序事件的全局上下文和局部上下文。综合两个方面,本发明提高了时序事件预测的准确性,解决了相关技术中存在的时序事件预测准确率较低的问题。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是执行本发明中提供的用于时序事件预测的数据处理方法的终端硬件结构框图;
图2是本发明提供的用于时序事件预测的数据处理方法的流程图;
图3是本发明一实施例中的上下文建模过程示意图;
图4是本发明一实施例中的数据处理过程示意图;
图5是本发明一实施例中的复杂事件构建流程示意图;
图6是本发明的用于时序事件预测的数据处理装置的结构框图。
具体实施方式
为更清楚地理解本申请的目的、技术方案和优点,下面结合附图和实施例,对本申请进行了描述和说明。
除另作定义外,本申请所涉及的技术术语或者科学术语应具有本申请所属技术领域具备一般技能的人所理解的一般含义。在本申请中的“一”、“一个”、“一种”、“该”、“这些”等类似的词并不表示数量上的限制,它们可以是单数或者复数。在本申请中所涉及的术语“包括”、“包含”、“具有”及其任何变体,其目的是涵盖不排他的包含;例如,包含一系列步骤或模块(单元)的过程、方法和系统、产品或设备并未限定于列出的步骤或模块(单元),而可包括未列出的步骤或模块(单元),或者可包括这些过程、方法、产品或设备固有的其他步骤或模块(单元)。在本申请中所涉及的“连接”、“相连”、“耦接”等类似的词语并不限定于物理的或机械连接,而可以包括电气连接,无论是直接连接还是间接连接。在本申请中所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。通常情况下,字符“/”表示前后关联的对象是一种“或”的关系。在本申请中所涉及的术语“第一”、“第二”、“第三”等,只是对相似对象进行区分,并不代表针对对象的特定排序。
在本发明中提供的方法实施例可以在终端、计算机或者类似的运算装置中执行。比如在终端上运行,图1是执行本发明中提供的用于时序事件预测的数据处理方法的终端硬件结构框图。如图1所示,终端可以包括一个或多个(图1中仅示出一个)处理器120和用于存储数据的存储器140,其中,处理器120可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置。上述终端还可以包括用于通信功能的传输设备160以及输入输出设备180。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述终端的结构造成限制。例如,终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示出的不同配置。
存储器140可用于存储计算机程序,例如,应用软件的软件程序以及模块,如在本发明中的用于时序事件预测的数据处理方法对应的计算机程序,处理器120通过运行存储在存储器140内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器140可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器140可进一步包括相对于处理器120远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输设备160用于经由一个网络接收或者发送数据。上述的网络包括终端的通信供应商提供的无线网络。在一个实例中,传输设备160包括一个网络适配器(NetworkInterface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备160可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
在本发明中提供了一种用于时序事件预测的数据处理方法,图2是本发明提供的用于时序事件预测的数据处理方法的流程图,如图2所示,该流程包括如下步骤:
步骤S210,构建复杂事件数据集,复杂事件数据集包括若干复杂事件,复杂事件包括若干原子事件,原子事件被表示为主体实体、关系、客体实体、发生时刻和标识;
步骤S220,获取目标原子事件的主体实体、关系、发生时刻和标识,根据目标原子事件的局部上下文和全局上下文,预测目标原子事件的客体实体;
其中,目标原子事件的局部上下文包括目标原子事件所属的复杂事件,目标原子事件的全局上下文包括复杂事件数据集,目标原子事件的标识用于确定目标原子事件所属的复杂事件。
首先是构建复杂事件数据集,复杂事件数据集是结构化的,具有多层事件层次,其包括若干复杂事件。具体的,复杂事件可以定义为一个带时间戳的图列表,即,其中/>为一类特定复杂事件的标识,/>为复杂事件标识的全部集合。对于单个事件图定义为/>,其中/>表示/>中的第/>个原子事件,/>表示/>时刻下复杂事件/>中所有原子事件的数量。就某个原子事件而言,/>,/>,/>分别表示主体实体(Subject Entity),关系(Relation)和客体实体(Object Entity);/>表示原子事件发生的时刻;/>和/>分别表示实体和关系集合。通常,/>的构建来源于一系列时序文档集合,其中/>为复杂事件/>中所有原子事件的局部上下文,而为全局上下文,是所有复杂事件构成的组合图,即复杂事件数据集。/>为时序文档集合组成的全部集合。注意,/>和/>都是文档的集合。
由于本发明中复杂事件的构建涵盖了结构性、复杂性和时间完备性,因此也可以称为SCT(Structured, Complex and Time-complete)复杂事件。
给定一组文档,SCT复杂事件构建任务旨在识别出复杂事件,即从文档中提取原子事件并形成SCT复杂事件图/>。已知部分复杂事件/>,并给出下一个时间戳/>的指定查询/>,SCT复杂事件预测任务旨在预测客体实体/>。
通过上述描述可知,目标原子事件则为指定查询,其包含主体实体、关系、发生时刻和标识等信息。在实际预测任务中,目标原子事件的发生时刻通常为当前时刻的下一时刻。比如时间粒度为一天时,则可以是预测发生在明日的目标原子事件中的客体实体。
进一步的,在预测目标原子事件的客体实体的过程中,会结合目标原子事件的局部上下文和全局上下文进行预测。其中,局部上下文保存了可用于执行预测的最相关的信息;而全局上下文提供了一种普遍的背景,也可以影响特定复杂事件的演化。相比于现有技术中仅通过单一的全局上下文或是局部上下文进行预测,本发明将两者结合共同作为目标原子事件的预测依据,能够提高预测准确性。
综上,本发明一方面给复杂事件提供了包含结构性、复杂性、时间完备性的新表述,另一方面在时间预测中同时依据时序事件的全局上下文和局部上下文。综合两个方面,本发明提高了时序事件预测的准确性,解决了相关技术中存在的时序事件预测准确率较低的问题。
进一步具体的,步骤S220中,根据目标原子事件的局部上下文和全局上下文,预测目标原子事件的客体实体,包括:
步骤S221,根据目标原子事件的局部上下文,确定在目标原子事件的发生时刻之前的局部实体表示和局部关系表示;
步骤S222,根据目标原子事件的全局上下文,确定在目标原子事件的发生时刻之前的全局实体表示和全局关系表示;
步骤S223,根据目标原子事件的主体实体和关系,在局部实体表示和局部关系表示中确定对应的第一主体实体表示和第一关系表示,以及在全局实体表示和全局关系表示中确定对应的第二主体实体表示和第二关系表示;
步骤S224,根据第一主体实体表示和第二主体实体表示确定目标主体实体表示,根据第一关系表示和第二关系表示确定目标关系表示,根据目标主体实体表示和目标关系表示预测目标原子事件的客体实体表示。
具体的,在实际预测任务中,首先需要对局部上下文和全局上下文进行建模。建模的目的是为了得到各个原子事件对应的来源于上下文的实体表示和关系表示。其中,实体表示包括主体实体表示和客体实体表示。局部上下文建模得到的是局部实体表示和局部关系表示,全局上下文建模得到的是全局实体表示和全局关系表示。如下,以局部上下文建模为例,对建模过程进行具体说明。
在一些实施例中,步骤S221,根据目标原子事件的局部上下文,确定在目标原子事件的发生时刻之前的局部实体表示和局部关系表示,包括:
确定在目标原子事件的发生时刻之前的多个目标时刻;对于任意目标时刻,通过图神经网络模型对目标原子事件的局部上下文进行信息提取,得到目标时刻下的局部实体表示和局部关系表示;通过循环神经网络模型对多个目标时刻下的局部实体表示和局部关系表示进行处理,确定在目标原子事件的发生时刻之前的局部实体表示和局部关系表示。
图3是本发明一实施例中的上下文建模过程示意图。参照图3,本实施例提供了一种关系-时序建模模型RT-Mod。当目标原子事件的发生时刻为+1,则需要建模得到时刻/>及其之前时刻的局部实体表示和局部关系表示。通常为了提高预测准确性,建模所针对的时刻需要与目标原子事件的发生时刻/>+1比较接近,因此目标时刻通常可以包括时刻/>、时刻/>-1和时刻/>-2等。
具体的,可以采用图神经网络模型(GNN)和循环神经网络模型(RNN)进行上下文建模。比如,图神经网络模型可以包括关系图神经网络单元(RGCN),循环神经网络模型可以包括门控循环神经网络单元(GRU)。
因此,在一实施例中,可以使用GNN模型,即RGCN来捕捉相同时刻里并发事件间的关系(关系建模);同时使用RNN模型,即GRU从时间维度上保留时序演化模式(时序建模)。t时刻,抽取的复杂事件记为,利用RGCN定义第/>层传播网络中客体实体/>能接收到的信息表示:
其中,表示/>时刻下原子事件数量,/>是客体实体。/>为GNN中/>层传播网络的权重参数,/>为RReLU函数,/>为/>层传播网络中的客体实体表示,为/>层传播网络中的主体实体表示,/>为/>层传播网络中的客体实体表示,/>为关系表示。为了简约,本实施例省略了下标/>。
通过上述模型,可以计算得到各个复杂事件中的客体实体在各个传播网络层中的信息表示。
优选的,目标时刻下的局部实体表示通过聚合图神经网络模型中各网络传播层输出的局部实体表示得到。因此,可以聚合多层传播网络得到的信息,获得时刻中复杂事件里的客体实体表示为:
其中,对于每个客体实体的随机初始化。但是不同复杂事件中客体实体共享一个初始化表示,因为这个表示受/>影响变化得很快。/>表示传播层数,对于全部复杂事件层数设置相同。通过上述建模过程,可以得到在/>时刻下的复杂事件/>中的所有客体实体表示,结合主体实体表示,则可以得到在/>时刻下的复杂事件/>中的所有实体表示,其中,/>用来表示信息传播的维度。然后,使用门控循环单元(GRU)来捕捉时序模式,即:
其中,为用于局部上下文的GRU单元。本实施例将最近/>步(示例性地,可以是2步或3步)的局部实体表示用于建模局部上下文的时序演化模式。因此,最后GRU输出的实体嵌入能保留复杂事件/>中局部上下文信息,用/>表示。所有局部上下文的关系嵌入表示为/>。
综上,可以通过RGCN捕捉相同时刻里复杂事件中所有并发事件间的关系,以及通过GRU捕捉复杂事件的时序模式。则可以基于某一复杂事件对该复杂事件中的任意原子事件的上下文信息进行建模,得到相应的局部实体表示和局部关系表示。因此,对于目标原子事件,基于该目标原子事件的标识确定其所属的复杂事件,从而根据该复杂事件信息,则可以对目标原子事件的局部上下文信息进行建模,得到在目标原子事件的发生时刻之前的局部实体表示和局部关系表示。
图4是本发明一实施例中的数据处理过程示意图。相应的,参照图4,目标原子事件的全局上下文信息的建模原理与上述过程相似,可以采用一个并行分支RT-Mod捕获全局上下文的所有历史模式。也就是通过RGCN捕捉相同时刻里所有复杂事件中所有并发事件间的关系,以及通过GRU捕捉所有复杂事件的时序模式。
示例性地,给定时刻的全局上下文/>,使用RGCN更新/>层传播网络后获取实体表示/>;然后通过GRU捕捉复杂事件的时序模式,得到全局实体表示/>,全局关系表示为/>。
通过上述局部上下文和全局上下文的建模过程,可以得到两组实体和关系表示:来自局部上下文,/>来自全局上下文。第一组则为在目标原子事件的发生时刻之前的局部实体表示和局部关系表示,第二组则为在目标原子事件的发生时刻之前的全局实体表示和全局关系表示。
需要说明的是,局部上下文和全局上下文的建模参数可以是共享的也可以是相互独立的。当两者的建模参数相互独立时,会使得最终的时间预测效果更好。因此,在一优选实施例中,在目标原子事件的发生时刻之前的局部实体表示的模型参数与在目标原子事件的发生时刻之前的全局实体表示的模型参数相互独立。
在得到上述两则表示后,则可以进行对目标原子事件的客体实体进行预测,即执行上述步骤S223和步骤S224。
具体的,给定目标原子事件,可以目标原子事件中的/>在和/>中进行检索,分别检索得到与目标原子事件相对应的表示/>(第一主体实体表示和第一关系表示)和/>(第二主体实体表示和第二关系表示),并使用矩阵元素逐个相加后获得最终的表示/>(目标主体实体表示和目标关系表示)。最终则可以根据目标主体实体表示和目标关系表示预测目标原子事件的客体实体表示。如下提供一种具体的预测手段。
在一实施例中,步骤S224中,根据目标主体实体表示和目标关系表示预测目标原子事件的客体实体表示,包括:将目标主体实体表示和目标关系表示作为编码器ConvTransE的输入,通过编码器ConvTransE得到目标原子事件的客体实体表示。
在本实施例中,采用编码器ConvTransE进行打分预测,相应的计算公式如下:
其中,是归一化指数函数,/>为解码器,/>为候选实体嵌入矩阵,由/>和/>相加聚合得到。
编码器ConvTransE输出的预测表示为:
需要说明的是,上述实施例采用早期融合(Early Fusion)策略,先对局部实体表示和全局实体表示进行融合得到目标实体表示,以及对局部关系表示和全局关系表示进行融合,得到目标关系表示;然后将目标实体表示和目标关系表示输入到编码器ConvTransE中。这种融合策略对于编码器ConvTransE十分友好,因为编码器ConvTransE是一个多层卷积神经网络,能够捕捉两种上下文间的内在联系。通过这种方式,使得模型在训练过程中,能够自适应地学习到两种上下文表示的最优组合,对于特定的查询得到准确的预测结果。
相应的,当采用图神经网络模型(GNN)和循环神经网络模型(RNN)进行上下文建模,以及采用编码器ConvTransE进行预测时,模型整体可以采用交叉熵损失得到如下优化公式:
如上,已经完整介绍了目标原子事件预测的各个实施例。如下介绍一些复杂事件数据集构建的实施例。
在其中的一些实施例中,步骤S210,构建复杂事件数据集,包括:
步骤S211,获取新闻文章数据库;步骤S212,基于时间关联性和语义相似性对新闻文章数据库中的若干新闻文章进行聚类,得到复杂事件数据集。
具体的,在本实施例中,提供了一种从新闻文章数据库中识别提取复杂事件,构建复杂事件数据集的手段。示例性地,可以使用GDELT语料库来构建复杂事件数据集,该语料库是一个具有公开访问的新闻文章URL的大规模时序知识图谱数据集。更重要的是,它遵循一个明确定义的本体,即CAMEO,该本体由领域专家组织,在描述国际事件方面非常真实。由于原始的GDELT数据集非常庞大,因此可以选择其中一个子数据集来构建复杂事件数据集。
图5是本发明一实施例中的复杂事件构建流程示意图。参照图5,本实施例提供了一种文档聚类流程。具体来说,首先使用预训练的RoBERTa提取文档嵌入;然后进行主题建模(BER Topic):使用UMAP降低嵌入维度,并使用HDB-SCAN将文档聚类成语义相关组。除语义相关外,同一复杂事件组内的新闻文章在时间上也应该接近。现有技术中是使用一个固定长度的滑窗将时间线分割成若干段,但这不是最优解决办法,因为不同的时序事件通常具有不同的时间跨度。为了解决这个问题,本实施例提出了一种时间感知聚类方法,它将新闻的时间索引与其语义嵌入连接起来,从而赋予文章聚类弹性的时间跨度。此外,本发明引入一个超参数,用于在聚类过程中平衡时间关联性与语义相似性的权重。经过聚类后,本发明则可以基于初始文档/>获得了聚类后的文档/>,/>中每个元素可以提供一个复杂事件,也就是通过/>包括了全局上下文/>。
进一步的,尽管GDELT可以提取出结构化原子事件,由于其过时的基于规则的提取系统,容易受粗粒度的事件和参与者的影响,因此采用新技术来重新提取事件十分必要。现有的大部分事件抽取工作都是有监督的方法,需要高质量的人工标注数据集,是一项费人工且昂贵的工作。在本实施例中,采用大规模语言模型进行零样本范式的事件提取。
目前涌现出了数十种商业或开源的大规模语言模型,且发展迅速。本实施例采用表现良好的开源模型Vicuna-13b,因为在处理百万级语料库时,其计算资源和时间对于一般的学术实验室来说是可负担的。在使用Vicuna-13b进行事件抽取后,本实施例使用GPT-4进行实体链接,以合并相同的实体,因为实体链接的输入长度要小得多,这对于使用强大的GPT-4是可以接受的。本实施例还可以通过合并发生在同一时刻下、同一类复杂事件中的原子事件来做事件共指(Co-reference)。本实施例将新闻的发布日期作为提取事件的时间戳,时间戳的粒度可以设置为一天。除了复杂事件,还有很多孤立的新闻文章不属于任何复杂事件。但是它们仍然提供了有价值的全局上下文信息,对于时序事件预测有所帮助。因此,在一些实施例中,还可以对这些文档进行了事件抽取,获得离群原子事件,它们包含在全局上下文中,即复杂事件数据集还包括单独的离群原子事件。最终,本实施例获得了数据集MidEast-TE。尽管原始的GDELT中的事件抽取结果有噪声,但它仍然值得作为辅助数据集使用。因此,在一些实施例中,还可以重复使用已识别的复杂事件集,并保留了GDELT的原始事件抽取结果,从而获得了数据集GDELT-TE。上述两个数据集均可以作为本发明中的复杂事件数据集。
基于本发明提出的SCT复杂事件表述,对上述实施例中的MidEast-TE和GDELT-TE数据集的构建方式进行实验验证,较已有的模式化TCE表述构建的General数据集和IED数据集规模更大,特别是复杂事件和原子事件的数量比先前的数据集大一个量级。验证结果如下表:
表1:SCT复杂事件和模式化TCE的数据集比较
由于具有更大的实体集,MidEast-TE中的事件更细粒度。此外,CAMEO定义的原子事件类型是一个三层次的层次结构,高层次的事件类型更细粒度。此处不同层次事件的分布验证了MidEast-TE中的事件更细粒度。验证结果如下表:
表2:事件抽取结果比较
可以根据时间戳将复杂事件分为训练/验证/测试集。具体而言,可以将最后一年的复杂事件用于测试,倒数第二年用于验证,剩下的大约五年用于训练,如下表所示:
表3:数据集统计
进一步的,可以将上述实施例中采用图神经网络模型(GNN)和循环神经网络模型(RNN)进行上下文建模,以及采用编码器ConvTransE进行预测的整体模型定义为LGTE。如下将结合MidEast-TE数据集和GDELT-TE数据集,对LGTE模型的性能进行说明。LGTE模型与现有技术中其他模型的性能比较如下表:
表4:模型整体性能对比
表4展示了LGTE模型和所有基线的整体性能,从结果中得到了以下观察结论。首先,LGTE模型在很大程度上优于静态知识图谱和最优时序知识图谱方法的所有基线,证明了本发明的LGTE模型的有效性。其次,在两种类型的基线中,时序知识图谱方法的表现普遍优于静态知识图谱方法,这表明本发明的数据集中存在显著的时序模式,正确捕获时序模式对于有效预测至关重要。第三,基于图的方法普遍表现良好,表明GNN仍然是结构化时序事件预测的主要技术。
相应的,本发明设计了几个消融模型来证明LGTE模型的关键设计。不同模型之间的性能差异如下表所示:
表5:消融模型性能对比
首先,本发明只保留两种上下文中的一个,并设置两个模型变体,即仅保留局部上下文分支的和保留全局上下文分支的/>。两个数据集在表5中的结果表明:
(1)仅依赖局部或全局上下文中的任何一个都会导致性能下降。
(2)在两个单独的上下文之间,局部上下文比全局上下文更有价值,因为在所有指标的两个数据集上都优于/>。这是有意义的,因为局部上下文放大了特定复杂事件的演变,从而使模型更多地关注出现在复杂事件中的实体。然而,全局上下文可以为那些在局部上下文中信息很少的稀疏实体提供辅助的环境信息,这就是比/>更有效的原因。
其次,本发明设计了,让两个上下文共享参数。/>的性能略逊于/>,这表明两个具有相同参数的独立分支可以更好地捕获两种上下文中的特征。然而,/>的性能仍然比其他基线好得多。
最后,本发明尝试了将两种语境结合的后期融合策略,即。/>的默认策略是早期融合,而/>让两个分支首先通过两个单独的解码器,然后将解码后的表示进行融合以进行排名。表5的结果显示,早期融合优于后期融合。这验证了本发明的动机,即解码器(ConvTransE)中的卷积层可以很好地捕捉早期融合表示的相互作用,从而实现最佳的预测。
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本发明中还提供了一种用于时序事件预测的数据处理装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。以下所使用的术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管在以下实施例中所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图6是本发明的用于时序事件预测的数据处理装置的结构框图,如图6所示,该装置包括:
数据构建模块,用于构建复杂事件数据集,复杂事件数据集包括若干复杂事件,复杂事件包括若干原子事件,原子事件包括主体实体、关系、客体实体、发生时刻和标识;
事件预测模块,用于获取目标原子事件的主体实体、关系、发生时刻和标识,根据目标原子事件的局部上下文和全局上下文,预测目标原子事件的客体实体;
其中,目标原子事件的局部上下文包括目标原子事件所属的复杂事件,目标原子事件的全局上下文包括复杂事件数据集,目标原子事件的标识用于确定目标原子事件所属的复杂事件。
通过上述装置,本发明一方面给复杂事件提供了包含结构性、复杂性、时间完备性的新表述,另一方面在时间预测中同时依据事件的全局上下文和局部上下文。综合两个方面,本发明提高了时序事件预测的准确性,解决了相关技术中存在的时序事件预测准确率较低的问题。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
在本发明中还提供了一种电子设备,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
需要说明的是,本电子设备的具体示例可以参考上述方法的实施例及可选实施方式中所描述的示例,在本实施例中不再赘述。
此外,结合上述本发明中提供的用于时序事件预测的数据处理方法,在本发明中还可以提供一种存储介质来实现。该存储介质上存储有计算机程序;该计算机程序被处理器执行时实现上述实施例中的任意一种用于时序事件预测的数据处理方法。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
应该明白的是,这里描述的具体实施例只是用来解释这个应用,而不是用来对它进行限定。根据本申请提供的实施例,本领域普通技术人员在不进行创造性劳动的情况下得到的所有其它实施例,均属本申请保护范围。
显然,附图只是本申请的一些例子或实施例,对本领域的普通技术人员来说,也可以根据这些附图将本申请适用于其他类似情况,但无需付出创造性劳动。另外,可以理解的是,尽管在此开发过程中所做的工作可能是复杂和漫长的,但是,对于本领域的普通技术人员来说,根据本申请披露的技术内容进行的某些设计、制造或生产等更改仅是常规的技术手段,不应被视为本申请公开的内容不足。
“实施例”一词在本申请中指的是结合实施例描述的具体特征、结构或特性可以包括在本申请的至少一个实施例中。该短语出现在说明书中的各个位置并不一定意味着相同的实施例,也不意味着与其它实施例相互排斥而具有独立性或可供选择。本领域的普通技术人员能够清楚或隐含地理解的是,本申请中描述的实施例在没有冲突的情况下,可以与其它实施例结合。
Claims (9)
1.一种用于时序事件预测的数据处理方法,其特征在于,所述方法包括:
构建复杂事件数据集,所述复杂事件数据集包括若干复杂事件,所述复杂事件包括若干原子事件,所述原子事件被表示为主体实体、关系、客体实体、发生时刻和标识;
获取目标原子事件的主体实体、关系、发生时刻和标识,根据所述目标原子事件的局部上下文和全局上下文,预测所述目标原子事件的客体实体;
所述根据所述目标原子事件的局部上下文和全局上下文,预测所述目标原子事件的客体实体,包括:
根据所述目标原子事件的局部上下文,确定在所述目标原子事件的发生时刻之前的局部实体表示和局部关系表示;
根据所述目标原子事件的全局上下文,确定在所述目标原子事件的发生时刻之前的全局实体表示和全局关系表示;
根据所述目标原子事件的主体实体和关系,在所述局部实体表示和所述局部关系表示中确定对应的第一主体实体表示和第一关系表示,以及在所述全局实体表示和所述全局关系表示中确定对应的第二主体实体表示和第二关系表示;
根据所述第一主体实体表示和所述第二主体实体表示确定目标主体实体表示,根据所述第一关系表示和所述第二关系表示确定目标关系表示,根据所述目标主体实体表示和所述目标关系表示预测所述目标原子事件的客体实体表示;
其中,所述目标原子事件的局部上下文包括所述目标原子事件所属的复杂事件,所述目标原子事件的全局上下文包括所述复杂事件数据集,所述目标原子事件的标识用于确定所述目标原子事件所属的复杂事件。
2.根据权利要求1所述的用于时序事件预测的数据处理方法,其特征在于,所述根据所述目标原子事件的局部上下文,确定在所述目标原子事件的发生时刻之前的局部实体表示和局部关系表示,包括:
确定在所述目标原子事件的发生时刻之前的多个目标时刻;
对于任意所述目标时刻,通过图神经网络模型对所述目标原子事件的局部上下文进行信息提取,得到所述目标时刻下的局部实体表示和局部关系表示;
通过循环神经网络模型对多个所述目标时刻下的局部实体表示和局部关系表示进行处理,确定在所述目标原子事件的发生时刻之前的局部实体表示和局部关系表示。
3.根据权利要求2所述的用于时序事件预测的数据处理方法,其特征在于,所述图神经网络模型包括关系图神经网络单元,所述循环神经网络模型包括门控循环神经网络单元。
4.根据权利要求2所述的用于时序事件预测的数据处理方法,其特征在于,所述目标时刻下的局部实体表示通过聚合所述图神经网络模型中各网络传播层输出的局部实体表示得到。
5.根据权利要求2所述的用于时序事件预测的数据处理方法,其特征在于,在所述目标原子事件的发生时刻之前的局部实体表示的模型参数与在所述目标原子事件的发生时刻之前的全局实体表示的模型参数相互独立。
6.根据权利要求2所述的用于时序事件预测的数据处理方法,其特征在于,所述根据所述目标主体实体表示和所述目标关系表示预测所述目标原子事件的客体实体表示,包括:
将所述目标主体实体表示和所述目标关系表示作为编码器ConvTransE的输入,通过所述编码器ConvTransE得到所述目标原子事件的客体实体表示。
7.根据权利要求1所述的用于时序事件预测的数据处理方法,其特征在于,所述构建复杂事件数据集,包括:
获取新闻文章数据库;
基于时间关联性和语义相似性对所述新闻文章数据库中的若干新闻文章进行聚类,得到所述复杂事件数据集。
8.根据权利要求7所述的用于时序事件预测的数据处理方法,其特征在于,所述复杂事件数据集还包括单独的离群原子事件。
9.一种用于时序事件预测的数据处理装置,其特征在于,所述装置包括:
数据构建模块,用于构建复杂事件数据集,所述复杂事件数据集包括若干复杂事件,所述复杂事件包括若干原子事件,所述原子事件包括主体实体、关系、客体实体、发生时刻和标识;
事件预测模块,用于获取目标原子事件的主体实体、关系、发生时刻和标识,根据所述目标原子事件的局部上下文和全局上下文,预测所述目标原子事件的客体实体;
所述根据所述目标原子事件的局部上下文和全局上下文,预测所述目标原子事件的客体实体,包括:
根据所述目标原子事件的局部上下文,确定在所述目标原子事件的发生时刻之前的局部实体表示和局部关系表示;
根据所述目标原子事件的全局上下文,确定在所述目标原子事件的发生时刻之前的全局实体表示和全局关系表示;
根据所述目标原子事件的主体实体和关系,在所述局部实体表示和所述局部关系表示中确定对应的第一主体实体表示和第一关系表示,以及在所述全局实体表示和所述全局关系表示中确定对应的第二主体实体表示和第二关系表示;
根据所述第一主体实体表示和所述第二主体实体表示确定目标主体实体表示,根据所述第一关系表示和所述第二关系表示确定目标关系表示,根据所述目标主体实体表示和所述目标关系表示预测所述目标原子事件的客体实体表示;
其中,所述目标原子事件的局部上下文包括所述目标原子事件所属的复杂事件,所述目标原子事件的全局上下文包括所述复杂事件数据集,所述目标原子事件的标识用于确定所述目标原子事件所属的复杂事件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311549597.0A CN117273243B (zh) | 2023-11-21 | 2023-11-21 | 一种用于时序事件预测的数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311549597.0A CN117273243B (zh) | 2023-11-21 | 2023-11-21 | 一种用于时序事件预测的数据处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117273243A CN117273243A (zh) | 2023-12-22 |
CN117273243B true CN117273243B (zh) | 2024-02-09 |
Family
ID=89216282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311549597.0A Active CN117273243B (zh) | 2023-11-21 | 2023-11-21 | 一种用于时序事件预测的数据处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117273243B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262133B1 (en) * | 2016-01-20 | 2019-04-16 | Cyarx Technologies Ltd. | System and method for contextually analyzing potential cyber security threats |
CN111581396A (zh) * | 2020-05-06 | 2020-08-25 | 西安交通大学 | 一种基于多维特征融合与依存句法的事件图谱构建系统及方法 |
CN114936237A (zh) * | 2022-05-25 | 2022-08-23 | 平安银行股份有限公司 | 行为数据分析方法、装置、设备及存储介质 |
CN115169348A (zh) * | 2022-06-24 | 2022-10-11 | 中国医学科学院北京协和医院 | 一种基于混合神经网络的事件抽取方法 |
CN116467437A (zh) * | 2023-05-09 | 2023-07-21 | 浙江工业大学 | 面向复杂场景描述的自动流程建模方法 |
CN116739081A (zh) * | 2023-05-25 | 2023-09-12 | 东北电力大学 | 面向电网风险领域的知识获取和表示方法 |
CN116775975A (zh) * | 2023-07-05 | 2023-09-19 | 苏州中科劢诺信息科技有限公司 | 用于金融领域复杂新闻文本舆情分析的深度学习网络 |
CN116805152A (zh) * | 2023-08-09 | 2023-09-26 | 数据空间研究院 | 基于图解纠缠的上下文感知事件预测方法、装置及介质 |
CN116843012A (zh) * | 2023-05-30 | 2023-10-03 | 南京大学 | 一种融合个性化上下文和时域动态特征的时序预测方法 |
CN117033640A (zh) * | 2023-09-25 | 2023-11-10 | 数据空间研究院 | 一种融合全局特征和局部特征的文本分类方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITRM20110315A1 (it) * | 2011-06-16 | 2012-12-17 | Angelo Bellomo | Procedure realizzative di funzionalità dinamiche avanzate nell'ambito dei social network e relativi dispositivi di rete che ne permettono l'implementazione. |
US11295398B2 (en) * | 2019-10-02 | 2022-04-05 | Snapwise Inc. | Methods and systems to generate information about news source items describing news events or topics of interest |
-
2023
- 2023-11-21 CN CN202311549597.0A patent/CN117273243B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262133B1 (en) * | 2016-01-20 | 2019-04-16 | Cyarx Technologies Ltd. | System and method for contextually analyzing potential cyber security threats |
CN111581396A (zh) * | 2020-05-06 | 2020-08-25 | 西安交通大学 | 一种基于多维特征融合与依存句法的事件图谱构建系统及方法 |
CN114936237A (zh) * | 2022-05-25 | 2022-08-23 | 平安银行股份有限公司 | 行为数据分析方法、装置、设备及存储介质 |
CN115169348A (zh) * | 2022-06-24 | 2022-10-11 | 中国医学科学院北京协和医院 | 一种基于混合神经网络的事件抽取方法 |
CN116467437A (zh) * | 2023-05-09 | 2023-07-21 | 浙江工业大学 | 面向复杂场景描述的自动流程建模方法 |
CN116739081A (zh) * | 2023-05-25 | 2023-09-12 | 东北电力大学 | 面向电网风险领域的知识获取和表示方法 |
CN116843012A (zh) * | 2023-05-30 | 2023-10-03 | 南京大学 | 一种融合个性化上下文和时域动态特征的时序预测方法 |
CN116775975A (zh) * | 2023-07-05 | 2023-09-19 | 苏州中科劢诺信息科技有限公司 | 用于金融领域复杂新闻文本舆情分析的深度学习网络 |
CN116805152A (zh) * | 2023-08-09 | 2023-09-26 | 数据空间研究院 | 基于图解纠缠的上下文感知事件预测方法、装置及介质 |
CN117033640A (zh) * | 2023-09-25 | 2023-11-10 | 数据空间研究院 | 一种融合全局特征和局部特征的文本分类方法 |
Non-Patent Citations (3)
Title |
---|
Context-aware event forecasting via graph disentanglement;Yunshan Ma;《The 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining》;全文 * |
Yunshan Ma.Knowledge Enhanced Neural Fashion Trend Forecasting.《ICMR '20: International Conference on Multimedia Retrieval》.2020,全文. * |
基于双向门控循环神经网络的事件论元抽取方法;葛唯益;《电子科技大学学报》;第51卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117273243A (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ma et al. | Detecting rumors from microblogs with recurrent neural networks | |
CN113392651B (zh) | 训练词权重模型及提取核心词的方法、装置、设备和介质 | |
Camacho et al. | New research methods & algorithms in social network analysis | |
CN108875809A (zh) | 联合attention机制与神经网络的生物医学实体关系分类方法 | |
Wu et al. | Temporal interaction and causal influence in community-based question answering | |
Chen et al. | Binarized neural architecture search for efficient object recognition | |
Aziguli et al. | A robust text classifier based on denoising deep neural network in the analysis of big data | |
Hou et al. | Fewjoint: A few-shot learning benchmark for joint language understanding | |
CN116955730A (zh) | 一种特征提取模型的训练方法、内容推荐的方法及装置 | |
CN112148994A (zh) | 信息推送效果评估方法、装置、电子设备及存储介质 | |
Li et al. | [Retracted] Emotion Analysis Model of Microblog Comment Text Based on CNN‐BiLSTM | |
Zhang et al. | DeepBlue: Bi-layered LSTM for tweet popUlarity Estimation | |
Xu et al. | Short text classification of chinese with label information assisting | |
Du et al. | Structure tuning method on deep convolutional generative adversarial network with nondominated sorting genetic algorithm II | |
CN112418269B (zh) | 社交媒体网络事件传播关键时间预测方法、系统、介质 | |
Xue et al. | Prompt mining for language-based human mobility forecasting | |
Cao et al. | A joint model for text and image semantic feature extraction | |
CN117273243B (zh) | 一种用于时序事件预测的数据处理方法及装置 | |
Guo | [Retracted] Intelligent Sports Video Classification Based on Deep Neural Network (DNN) Algorithm and Transfer Learning | |
Wang et al. | Sparse imbalanced drug-target interaction prediction via heterogeneous data augmentation and node similarity | |
Wang et al. | Weakly Supervised Chinese short text classification algorithm based on ConWea model | |
Zhang et al. | A deep awareness framework for pervasive video cloud | |
Zhang et al. | An attention-based deep network for CTR prediction | |
Fan et al. | Research and application of automated search engine based on machine learning | |
Zhu et al. | Central similarity multi-view hashing for multimedia retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |