CN113158653B - 预训练语言模型的训练方法、应用方法、装置及设备 - Google Patents

预训练语言模型的训练方法、应用方法、装置及设备 Download PDF

Info

Publication number
CN113158653B
CN113158653B CN202110450286.3A CN202110450286A CN113158653B CN 113158653 B CN113158653 B CN 113158653B CN 202110450286 A CN202110450286 A CN 202110450286A CN 113158653 B CN113158653 B CN 113158653B
Authority
CN
China
Prior art keywords
word
safety
information
entity
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110450286.3A
Other languages
English (en)
Other versions
CN113158653A (zh
Inventor
康祎楠
董龙飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tianji Youmeng Information Technology Co.,Ltd.
Original Assignee
Beijing Zhiyuan Artificial Intelligence Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhiyuan Artificial Intelligence Research Institute filed Critical Beijing Zhiyuan Artificial Intelligence Research Institute
Priority to CN202110450286.3A priority Critical patent/CN113158653B/zh
Publication of CN113158653A publication Critical patent/CN113158653A/zh
Application granted granted Critical
Publication of CN113158653B publication Critical patent/CN113158653B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/288Entity relationship models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提出一种预训练语言模型的训练方法、应用方法、装置及设备,该方法包括:获取包括安全信息文本的训练样本集;在预设安全知识图谱中检索安全信息文本对应的安全扩展信息,将安全扩展信息添加到安全信息文本中;根据STIX情报库,通过预训练语言模型对安全信息文本进行词嵌入训练,词嵌入包括实体类别和关系类别的嵌入。本申请基于预设安全知识图谱扩充安全信息文本。在预训练语言模型的结构中增加类别嵌入层,通过类别嵌入层标记安全信息文本中的实体类别和关系类别,过滤掉与安全信息不相关的信息,提高模型准确率。在位置编码时为安全扩展信息与其对应的原始词设置相同的位置标记,使模型能更好地对真实安全事件进行语义建模。

Description

预训练语言模型的训练方法、应用方法、装置及设备
技术领域
本申请属于信息安全技术领域,具体涉及一种预训练语言模型的训练方法、应用方法、装置及设备。
背景技术
随着大数据时代的发展和网络安全环境的日趋复杂,出现了大量与网络安全相关的安全信息,如网络告警信息、网络监测日志、安全事件报告、安全社区博客等。抽取安全信息中的实体及实体间的关系,对于维护网络安全抵御风险具有重要意义。
相关技术中,通过人工处理海量的安全信息,抽取安全信息中的实体和关系,效率低下,耗费了大量人力物力。因此如何从繁杂琐碎的安全信息中自动提取出实体和关系成为一种巨大的挑战。
发明内容
本申请提出一种预训练语言模型的训练方法、应用方法、装置及设备,基于预设安全知识图谱扩充安全信息文本。根据STIX情报库,通过预训练语言模型对安全信息文本进行包括实体类别和关系类别的词嵌入,过滤掉与安全信息不相关的信息,提高模型准确率。
本申请第一方面实施例提出了一种预训练语言模型的训练方法,包括:
获取训练样本集,所述训练样本集包括安全信息文本;
在预设安全知识图谱中检索所述安全信息文本对应的安全扩展信息,将所述安全扩展信息添加到所述安全信息文本中;
根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的所述安全信息文本进行词嵌入训练,所述词嵌入包括实体类别和关系类别的嵌入。
在本申请的一些实施例中,所述在预设安全知识图谱中检索所述安全信息文本对应的安全扩展信息,将所述安全扩展信息添加到所述安全信息文本中,包括:
对所述安全信息文本进行分词;
根据所述安全信息文本中包括的每个词,分别检索预设安全知识图谱中是否包括每个词对应的安全扩展信息;
若检索到所述安全信息文本中的词对应的安全扩展信息,则在所述安全信息文本中该词对应的预设相对位置处添加所述安全扩展信息。
在本申请的一些实施例中,所述根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的所述安全信息文本进行词嵌入训练,包括:
通过预训练语言模型包括的标记嵌入层将添加操作后的所述安全信息文本中的每个词转换成词向量,并在句首和句尾分别嵌入预设句首标记和预设句尾标记,得到所述安全信息文本对应的词向量矩阵;
通过所述预训练语言模型包括的句子嵌入层将所述词向量矩阵中属于不同句子的词向量分别用不同的句子标记进行嵌入;
通过所述预训练语言模型包括的位置嵌入层在所述词向量矩阵中添加每个词向量的位置编码,属于所述安全扩展信息的词向量的位置编码与所述安全扩展信息对应的原始词的位置编码相同;
根据STIX情报库,通过所述预训练语言模型包括的类别嵌入层在所述词向量矩阵中添加每个词向量对应的类别标记;
根据最终得到的所述词向量矩阵,通过所述预训练语言模型包括的注意力机制确定所述词向量矩阵对应的注意力权重矩阵。
在本申请的一些实施例中,所述根据STIX情报库,通过所述预训练语言模型包括的类别嵌入层在所述词向量矩阵中添加每个词向量对应的类别标记,包括:
根据添加操作后的所述安全信息文本中包括的每个词,分别检索STIX情报库中是否包含每个词的同义词;
若检索到所述安全信息文本中的词对应的同义词,且确定所述同义词为实体类别,则在所述词向量矩阵中为所述词的词向量添加实体标记;
若检索到所述安全信息文本中的词对应的同义词,且确定所述同义词为关系类别,则在所述词向量矩阵中为所述词的词向量添加关系标记;
若未检索到所述安全信息文本中的词对应的同义词,则在所述词向量矩阵中为所述词的词向量添加预设标记。
本申请第二方面的实施例提供了一种预训练语言模型的应用方法,包括:
获取待分析的安全信息文本;
通过上述第一方面所述的训练方法训练的预训练语言模型对所述安全信息文本进行词嵌入,得到所述安全信息文本对应的词向量矩阵;
根据所述词向量矩阵,提取所述安全信息文本包括的实体-关系信息。
在本申请的一些实施例中,所述根据所述词向量矩阵,提取所述安全信息文本包括的实体-关系信息,包括:
根据所述词向量矩阵及所述词向量矩阵对应的注意力权重矩阵,从所述安全信息文本中提取候选实体-关系序列,确定每个候选实体-关系序列对应的匹配度;
从所述每个候选实体-关系序列中选择匹配度最大的候选实体-关系序列作为所述安全信息文本包括的实体-关系信息。
在本申请的一些实施例中,所述根据所述词向量矩阵及所述词向量矩阵对应的注意力权重矩阵,从所述安全信息文本中提取候选实体-关系序列,确定每个候选实体-关系序列对应的匹配度,包括:
根据所述词向量矩阵各个词向量对应的类别标记,提取出所述安全信息文本中的所有实体,并确定出排在首位的头实体和排在末尾的尾实体;
根据所述词向量矩阵对应的注意力权重矩阵,在所述安全信息文本中从所述头实体开始从前往后搜索与所述头实体之间的注意力权重最大的中间词;
从所述注意力权重最大的中间词开始从前往后搜索与所述中间词之间的注意力权重最大的中间词,再从该中间词开始往后搜索直至搜索到所述尾实体;
将所述头实体、所述尾实体和每个搜索步骤搜索到的所述中间词组成候选实体-关系序列;
将所述每个搜索步骤对应的最大的注意力权重之和确定为所述候选实体-关系序列对应的匹配度。
在本申请的一些实施例中,所述提取所述安全信息文本包括的实体-关系信息之后,还包括:
根据所述实体-关系信息中包括的每个词,分别检索预设规范化词典和STIX情报库中是否包含所述每个词的同义词;
如果是,则将所述实体关系信息中包括的词替换为该词对应的所述同义词;
若替换操作后所述安全信息文本包括的多个实体-关系信息中存在重复的实体-关系信息,则对所述多个实体-关系信息进行去重处理;
对去重处理后的实体-关系信息进行实体类别和关系类别匹配。
本申请第三方面的实施例提供了一种预训练语言模型的训练装置,包括:
样本获取模块,用于获取训练样本集,所述训练样本集包括安全信息文本;
扩展模块,用于在预设安全知识图谱中检索所述安全信息文本对应的安全扩展信息,将所述安全扩展信息添加到所述安全信息文本中;
训练模块,用于根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的所述安全信息文本进行词嵌入训练,所述词嵌入包括实体类别和关系类别的嵌入。
本申请第四方面的实施例提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序以实现上述第一方面或第二方面所述的方法。
本申请实施例中提供的技术方案,至少具有如下技术效果或优点:
在本申请实施例中,利用训练好的预训练语言模型来提取待分析的安全信息文本的实体-关系信息。该预训练语言模型的训练过程中,基于预设安全知识图谱在安全信息文本中引入了安全扩展信息。在预训练语言模型的结构中增加了类别嵌入层,通过类别嵌入层标记安全信息文本中的实体类别和关系类别,过滤掉与安全信息不相关的信息进而提高模型的准确率。通过预训练语言模型包括的位置嵌入层对安全信息文本进行位置编码时,为安全扩展信息与其对应的原始词设置相同的位置标记。如此使得预训练语言模型能够更好地对真实地安全事件进行语义建模,增强预训练语言模型在安全领域的语义建模能力。因此基于预训练语言模型来提取待分析的安全信息文本的实体-关系信息,准确性和提取效率都很高。实现了自动化处理安全数据并基于STIX标准进行数据规范化,提高了抽取出的关系和实体的适配性。通过安全知识图谱和规范化字典进行关系和实体的数据规范化,提升了关系和实体的精确度,并且符合STIX标准,可以和STIX结构的威胁情报库直接整合。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变的明显,或通过本申请的实践了解到。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本申请一实施例所提供的一种预训练语言模型的训练方法的流程图;
图2示出了本申请一实施例所提供的预训练语言模型进行词嵌入的示意图;
图3示出了本申请一实施例所提供的一种预训练语言模型的应用方法的流程图;
图4示出了本申请一实施例所提供的抽取实体和关系的步骤示意图;
图5示出了本申请一实施例所提供的一种预训练语言模型的应用方法的另一流程图;
图6示出了本申请一实施例所提供的一种预训练语言模型的训练装置的结构示意图;
图7示出了本申请一实施例所提供的一种预训练语言模型的应用装置的结构示意图;
图8示出了本申请一实施例所提供的一种电子设备的结构示意图;
图9示出了本申请一实施例所提供的一种存储介质的示意图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施方式。虽然附图中显示了本申请的示例性实施方式,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本申请所属领域技术人员所理解的通常意义。
下面结合附图来描述根据本申请实施例提出的一种预训练语言模型的训练方法、应用方法、装置及设备。
本申请实施例提供了一种预训练语言模型的训练方法,该方法基于预设安全知识图谱在预训练语言模型的训练样本中引入安全扩展信息,在预训练语言模型中增加类别嵌入层,通过类别嵌入层标记训练样本中的实体类别和关系类别,使预训练语言模型能够更好地对真实地安全事件进行语义建模,增强预训练语言模型在安全领域的语义建模能力。
参见图1,该方法具体包括以下步骤:
步骤101:获取训练样本集,该训练样本集包括安全信息文本。
首先获取大量安全信息文件,获取的安全信息文件可以为Word文件或PDF文件等格式的文件。获取的安全信息文件中的语言包括全英文、全中文及中英混合等。对获取的安全信息文件进行预处理,去除PDF文件里面的标题、目录以及其他非utf-8编码的可见信息,只留下与正文相关且对威胁情报信息有价值的数据。使用基于OCR(Optical CharacterRecognition,光学字符识别)的PDF提取工具将PDF格式的安全信息文件转化成可编辑的文本形式。对于一些带有图片和表格的文件通过PDFPlumber抓取图片或表格等信息,并转换成可读的列表数据。同时基于PDF miner工具进行二次开发,优化长字符的识别。
通过上述方式将获取的所有安全信息文件均转换为可编辑的文本形式之后,去除安全信息文件中与威胁情报无关且容易造成文本识别的歧义的内容,如消除安全信息文件中的“综上所述”、“其他”、“总之”等。并将安全信息文件中的指代词用该指代词所指代的名词替换。例如,“A再次实施网络侵害行动,它对B机构开展了a活动”,其中指代词“它”用于指代“A”,因此将上述句子修改为“A再次实施网络侵害行动,A对B机构开展了a活动”。
在本申请的另一些实施例中,还可以识别安全信息文件中每个词的词性,并剔除安全信息文件中词性为预设修饰性词性的词,预设修饰性词性可以包括形容词或副词等。
通过上述方式去除安全信息文件中与威胁情报无关且容易造成文本识别的歧义的内容,将安全信息文件中的指代词用该指代词所指代的名词替换,或剔除预设修饰性词性的词,可以大大减少安全信息文件中的冗余信息,减少安全信息文件的数据量,减少后续模型训练过程中的计算量,提高预训练语言模型的训练效率。
对获得的每个安全信息文件进行上述各种预处理操作以后,对安全信息文件进行分句处理,形成以每一句话为单独一段的文本格式的安全信息文本。将对每个安全信息文件进行分句处理得到的多个安全信息文本组成训练样本集。该训练样本集中每个安全信息文本中都仅包括一句话,以便于将安全信息文本输入预训练语言模型进行词嵌入训练。
在本申请实施例中,预训练语言模型可以为BERT(Bidirectional EncoderRepresentations from Transformers)模型。
步骤102:在预设安全知识图谱中检索安全信息文本对应的安全扩展信息,将安全扩展信息添加到安全信息文本中。
对于训练样本集中包括的每个安全信息文本,都通过本步骤的操作进行内容扩展。具体地,对安全信息文本进行分词。根据安全信息文本中包括的每个词,分别检索预设安全知识图谱中是否包括每个词对应的安全扩展信息。若检索到安全信息文本中的词对应的安全扩展信息,则在安全信息文本中该词对应的预设相对位置处添加该安全扩展信息。其中,预设相对位置可以为该词前面与该词相邻的位置,或者,预设相对位置可以为该词后面与该词相邻的位置。在本申请实施例中可以将安全扩展信息通过括号注释的形式添加到对应词的预设相对位置处。
预设安全知识图谱中包括结构化的安全信息,如<实体,关系,实体>的三元组信息等。对于一个安全信息文本,首先构建知识表达层从预设安全知识图谱中注入相关的三元组,将原来的句子转换成一个含知识的句子树。
例如,原始句子为“A对B机构开展了a活动”。对该原始句子分词,根据其中的每个词在预设安全知识图谱中检索是否存在对应的安全扩展信息,假设检索出预设安全知识图谱中包括“A”对应的安全扩展信息“国家:C,攻击目的:target1”,则在原始句子中以括号注释的形式添加该安全扩展信息,扩展后的句子为“A(国家:C,攻击目的:target1)对B机构开展了a活动”。
通过本步骤的操作对安全信息文本进行扩展,增加了安全信息文本中与威胁情报相关的内容,加强了与威胁情报相关的实体在安全信息文本中所占的语义强度,后续通过扩展后的安全信息文本来训练预训练语言模型,能够大大增强预训练语言模型在安全领域的语义建模能力。
步骤103:根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的安全信息文本进行词嵌入训练,词嵌入包括实体类别和关系类别的嵌入。
在本申请实施例中,预训练语言模型包括标记嵌入层(Token Embedding层)、句子嵌入层(Segment Embedding层)、位置嵌入层(Position Embedding层)和类别嵌入层(STIX2.1 Embedding层),在模型训练的每个周期内,利用这四个嵌入层并行对安全信息文本进行词嵌入操作,最终胜出安全信息文本对应的词向量矩阵。下面分别说明每个嵌入层的具体操作过程。
对于标记嵌入层,通过预训练语言模型包括的标记嵌入层将步骤102得到的安全信息文本中的每个词转换成词向量,并在句首和句尾分别嵌入预设句首标记和预设句尾标记,得到安全信息文本对应的词向量矩阵。预设句首标记可以为[CLS],预设句尾标记可以为[SEP]。
标记嵌入层是要将各个词转换成固定维度的向量,并利用特殊tokens标记每个句子的开头和结尾。例如,对于输入的安全信息文本“[CLS]Some lab发布[SEP]某某公司[SEP]”,标记嵌入层进行词嵌入操作获得的结果如图2中TokenEmbeddings所示,每个词都转换成了词向量,且句首用[CLS]标记,句尾用[SEP]标记。
对于句子嵌入层,通过预训练语言模型包括的句子嵌入层将词向量矩阵中属于不同句子的词向量分别用不同的句子标记进行嵌入。例如,对于输入的安全信息文本“[CLS]Some lab发布[SEP]某某公司[SEP]”,句子嵌入层对属于第一个句子的“[CLS]Some lab发布[SEP]”中每个词均用字符A来标记,对属于第二个句子的“某某公司[SEP]”中每个词均用字符B来标记。其标记结果如图2中的Segment Embeddings所示。
对于位置嵌入层,通过预训练语言模型包括的位置嵌入层在词向量矩阵中添加每个词向量的位置编码。例如,对于输入的安全信息文本“[CLS]Some lab发布[SEP]某某公司[SEP]”,位置嵌入层依据每个词在句子中的位置设置了每个词的位置编码,位置标记的结果如图2中的Position Embeddings所示。
由于预训练语言模型只可以处理序列数据,为保留原句的语序,同时融入基于预设安全知识图谱引入的外部知识,所以本申请实施例对安全信息文本中添加的安全扩展信息的位置编码进行特殊处理,使其位置编码和其对应的实体的位置编码相同。即在位置编码的过程中,若安全信息文本中包括安全扩展信息,则属于安全扩展信息的词向量的位置编码与安全扩展信息对应的原始词的位置编码相同。例如,安全信息文本“A(国家:C,攻击目的:target1)对B机构开展了a活动”中,扩展信息“(国家:C,攻击目的:target1)”的位置编码与其对应的黑客组织“A”的位置编码相同。
对于类别嵌入层,用来区分文本中的实体、关系及其他与安全信息关联较小的信息。加入类别嵌入层会使与实体和关系这些与安全信息相关的内容更加突出,进而提高模型的运算效率。根据STIX情报库,通过预训练语言模型包括的类别嵌入层在词向量矩阵中添加每个词向量对应的类别标记。
具体地,根据添加操作后的安全信息文本中包括的每个词,分别检索STIX情报库中是否包含每个词的同义词;若检索到安全信息文本中的词对应的同义词,且确定同义词为实体类别,则在词向量矩阵中为词的词向量添加实体标记;若检索到安全信息文本中的词对应的同义词,且确定同义词为关系类别,则在词向量矩阵中为词的词向量添加关系标记;若未检索到安全信息文本中的词对应的同义词,则在词向量矩阵中为词的词向量添加预设标记。其中,实体标记可以为SDO或D等,关系标记可以为SRO或R等,预设标记可以为unknown或U等。
例如,对于输入的安全信息文本“[CLS]Some lab发布[SEP]某某公司[SEP]”,类别嵌入层的标记结果如图2中的STIX2.1Embeddings所示。
STIX(Structured Threat Information Expression,结构化威胁信息表达式)情报库中包括SDO(STIX Domain Objects)知识图谱和SRO(STIX Relationship Object)知识图谱。在STIX情报库中检索是否包含与安全信息文本中的词语义相似的描述。例如,假设安全信息文本中包括“偷数据”,在STIX情报库中检索出与“偷数据”相似的语义描述“数据窃取”,则在STIX情报库中确定该相似的语义描述“数据窃取”是属于SDO知识图谱还是属于SRO知识图谱,确定出“数据窃取”属于SRO知识图谱,因此确定出安全信息文本中的“偷数据”是SRO,即属于关系描述,因此将“偷数据”用关系标记进行嵌入。
按照上述方式将分词结果中的每个词通过安全知识图谱的向量检索服务进行检索,若检索结果对应的类别信息为实体(SDO),则标记为实体标记,如D;若为关系(SRO),则标记为关系标识,如R;若无检索结果则标记为预设标记,如U。
通过预训练语言模型的括标记嵌入层(Token Embedding层)、句子嵌入层(Segment Embedding层)、位置嵌入层(Position Embedding层)和类别嵌入层(STIX2.1Embedding层)同时对安全信息文本进行词嵌入操作后得到对应的词向量矩阵。该词向量矩阵中每个词向量包括4个标记符号:第一个是词本身的标记,每个句子开头加一个[CLS]符号,标点符号用[SEP]隔开;第二个是表示上下句的标记,如果是上句,就用A标记,如果是下句,就用B标记;第三个是位置标记,这里的位置标记是通过学习的方式得到的。第四个是基于STIX标准的类别标记,如果是包含实体的信息用D标记表示,如果是关系的信息用R标记,如果是与安全信息不相关的用U表示。将4个标记相加,作为一个词的词向量。
词向量矩阵中包括的标记如表1所示,包括special tokens(特殊标记),tokenIDs,mask IDs,segment IDs,positional和STIX2.1。
表1
字段 描述
Special tokens 特殊标记,用于标记句子的开头([CLS])和句子的分隔/结尾([SEP]),符合BERT中使用的固定词汇的令牌
token IDs BERT的令牌生成器提供的令牌ID
Mask IDs 掩码ID,用于指示序列中的哪些元素是标记,哪些是填充元素
Segment IDs 用于区分不同句子的句段ID
Positional 用于显示序列中标记位置的位置嵌入
STIX2.1 用于显示STIX库中的SDO和SRO
通过上述方式获得安全信息文本对应的词向量矩阵后,根据最终得到的词向量矩阵,通过预训练语言模型包括的注意力机制确定词向量矩阵对应的注意力权重矩阵。具体地将安全信息文本对应的词向量矩阵中的各词向量分为Query(Q)及Key(K),利用Q和K计算注意力权重a=softmax(f(Q,K))。例如,对于安全信息文本“某公司检测到名叫SystemdMiner”,分别利用其中的一词作为Query,其他的词作为Key计算注意力权重,则得到的注意力权重矩阵如表2所示。
表2
Query Key 某公司 检测到 名叫 Systemd Miner
某公司 X X X X
检测到 0.3 X X X
名叫 0.1 0.2 X X
Systemd Miner 0.1 0.4 0.2 X
在本申请实施例中,按照步骤103的方式对预训练语言模型进行预设次数的词嵌入训练,并计算每次训练的损失值。从预设次数的训练过程中选择损失值最小的训练过程,将损失值最小的训练过程对应的模型参数及预训练语言模型的结果组成训练好的预训练语言模型。
在本申请实施例中,基于预设安全知识图谱在安全信息文本中引入安全扩展信息。在预训练语言模型的结构中增加类别嵌入层,通过类别嵌入层标记安全信息文本中的实体类别和关系类别,过滤掉与安全信息不相关的信息进而提高模型的准确率。通过预训练语言模型包括的位置嵌入层对安全信息文本进行位置编码时,为安全扩展信息与其对应的原始词设置相同的位置标记。如此基于预设安全知识图谱及类别嵌入层,使最终训练的预训练语言模型能够更好地对真实地安全事件进行语义建模,增强预训练语言模型在安全领域的语义建模能力。
本申请实施例提供了一种预训练语言模型的应用方法,该方法所采用的预训练语言模型即为通过上述任一实施例所述的训练方法训练得到的。如图3所示,该应用方法具体包括:
步骤201:获取待分析的安全信息文本。
待分析的安全信息文本与上述预训练语言模型的训练方法的实施例中步骤101中训练样本集中的安全信息文本相似,也是仅包含一句话的文本格式的安全信息。
步骤202:通过预训练语言模型对安全信息文本进行词嵌入,得到安全信息文本对应的词向量矩阵。
将待分析的安全信息文本输入训练好的预训练语言模型中,通过预训练语言模型中包括的括标记嵌入层(Token Embedding层)、句子嵌入层(Segment Embedding层)、位置嵌入层(Position Embedding层)和类别嵌入层(STIX2.1Embedding层)同时对待分析的安全信息文本进行词嵌入操作后得到对应的词向量矩阵。以及通过预训练语言模型中的注意力机制计算得到待分析的安全信息文本对应的注意力权重矩阵。
步骤203:根据词向量矩阵,提取安全信息文本包括的实体-关系信息。
首先根据待分析的安全信息文本对应的词向量矩阵及注意力权重矩阵,从安全信息文本中提取候选实体-关系序列,确定每个候选实体-关系序列对应的匹配度。
具体地,根据词向量矩阵中各个词向量对应的类别标记,提取出安全信息文本中的所有实体,并确定出排在首位的头实体和排在末尾的尾实体。根据词向量矩阵对应的注意力权重矩阵,在安全信息文本中从头实体开始从前往后搜索与头实体之间的注意力权重最大的中间词。从注意力权重最大的关系词开始从前往后搜索与该中间词之间的注意力权重最大的中间词,再从该中间词开始往后搜索直至搜索到尾实体。将头实体、尾实体和每个搜索步骤搜索到的中间词组成候选实体-关系序列。将每个搜索步骤对应的最大的注意力权重之和确定为候选实体-关系序列对应的匹配度。
通过上述方式获得多个候选实体-关系序列后,从每个候选实体-关系序列中选择匹配度最大的候选实体-关系序列作为安全信息文本包括的实体-关系信息。
例如,假设安全信息文本为“某公司检测到名叫Systemd Miner”,其对应的注意力权重如表2所示,则从该安全信息文本中提取的所有实体包括“某公司”和“SystemdMiner”,“某公司”为头实体,“Systemd Miner”为尾实体。从头实体“某公司”开始搜索与“某公司”之间的注意力权重最大的中间词为注意力权重为0.3的“检测到”,然后再从中间词“检测到”开始往后搜索,搜索到注意力权重最大的词为“Systemd Miner”,且到达了尾实体,搜索结束。对该安全信息文本的实体-关系抽取过程如图4所示。每个搜索步骤得到的该安全信息文本对应的候选实体-关系序列如表3所示,每个候选实体-关系序列对应的匹配度为得到该候选实体-关系序列的所有搜索步骤对应的注意力权重之和。从表3所示的多个候选实体-关系序列中选择匹配度最高的候选实体-关系序列作为最终得到的该安全信息文本包括的实体-关系信息,即将“(某公司,检测到,Systemd Miner”及“(某公司,检测到,Systemd Miner)”作为该安全信息文本包括的实体-关系信息。
表3
步骤 动作 候选实体-关系序列 匹配度
0 开始 (某公司, 0
1 产出 (某公司,检测到 0.3
2 产出 (某公司,检测到,Systemd Miner 0.7
3 结束 (某公司,检测到,Systemd Miner) 0.7
通过上述方式可能获得待分析的安全信息文本对应的多个实体-关系信息,为了提高获得的实体-关系信息的准确性,本申请实施例还根据预设规范化词典和STIX情报库中对获得的实体-关系信息进行规范化处理。具体地,根据实体-关系信息中包括的每个词,分别检索预设规范化词典和STIX情报库中中是否包含每个词的同义词;如果是,则将实体-关系信息中包括的词替换为该词对应的同义词。
上述STIX情报库中包括SDO知识图谱和SRO知识图谱,通过将知识图谱中的实体信息向量化构建的知识图谱向量检索服务。例如,STIX情报库中SRO知识图谱中的一种关系描述是“数据窃取”,而通过上述方式抽取出的实体-关系信息中包括“偷数据”。“数据窃取”与“偷数据”二者语义相近,将抽取出的实体-关系信息中的“偷数据”替换为“数据窃取”。再如,将抽取出的实体-关系信息中的“检测到”替换为安全知识图谱中的“检出”。
因为多数黑客组织存在别名,若不进行数据规范化,则存在多个实体-关系信息描述相同事实的情况。上述预设规范化词典包含威胁组织、工具、恶意软件和攻击模式等各类实体的名称及别名。根据预设规范化词典对抽取出的实体-关系信息中包括的不规范的实体名称进行文本替换。例如,将黑客组织“绿斑”用预设规范化词典中的“APT-C-01”进行替换。
通过上述规范化操作避免了多个实体-关系信息描述相同事实的情况,同时还可让提取的实体-关系信息的描述符合STIX标准。
对待分析的安全信息文本对应的多个实体-关系信息进行规范化操作之后,这多个实体-关系信息中可能存在重复的实体-关系信息。因此若替换操作后安全信息文本包括的多个实体-关系信息中存在重复的实体-关系信息,则对多个实体-关系信息进行去重处理。即对于重复的实体-关系信息,仅保留一个,将其他重复的实体-关系信息删除。
去重处理后本申请实施例还对剩余的实体-关系信息进行实体类别和关系类别匹配,即根据STIX情报库中的SDO知识图谱和SRO知识图谱,对待分析的安全信息文本对应的实体-关系信息中包括的实体和关系进行分类,确定实体-关系信息中实体所属的实体类别及关系所属的关系类别。
本申请实施例创造性地引入预设安全知识图谱和STIX情报库作为外部知识,增强预训练语言模型(如BERT模型)的语义建模能力。运用增强优化后的预训练语言模型(如BERT模型,运用双向的transformer模型当作编码器)作词嵌入,针对安全信息语料不足的情况,使用维基百科和安全信息联合作为语料库运用Masked language model(掩码语言模型)和Next Sentence Prediction(下句预测)的算法去保留和捕捉上下文中的词语和句子的表示方法。在词嵌入的过程中增加与网络安全相关的实体和关系的权重,优化针对安全信息的语义建模能力。
为了便于理解本申请实施例提供的方案,下面结合附图进行说明。如图5所示,将PDF格式的文件(包含图片及表格等)和/或文本类报告等转换为可编辑的文本文件,然后对文本文件进行分句,利用基于预设安全知识图谱进行知识增强的预训练语言模型(如BERT)进行词嵌入,然后基于词嵌入得到的词向量矩阵进行关系抽取和实体抽取。然后根据预设规范化词典和预设安全知识图谱对抽取的关系和实体进行规范化和去重操作,最后进行SDO和SRO匹配。
在本申请实施例中,利用训练好的预训练语言模型来提取待分析的安全信息文本的实体-关系信息。该预训练语言模型的训练过程中,基于预设安全知识图谱在安全信息文本中引入了安全扩展信息。在预训练语言模型的结构中增加了类别嵌入层,通过类别嵌入层标记安全信息文本中的实体类别和关系类别,过滤掉与安全信息不相关的信息进而提高模型的准确率。通过预训练语言模型包括的位置嵌入层对安全信息文本进行位置编码时,为安全扩展信息与其对应的原始词设置相同的位置标记。如此使得预训练语言模型能够更好地对真实地安全事件进行语义建模,增强预训练语言模型在安全领域的语义建模能力。因此基于预训练语言模型来提取待分析的安全信息文本的实体-关系信息,准确性和提取效率都很高。实现了自动化处理安全数据并基于STIX标准进行数据规范化,提高了抽取出的关系和实体的适配性。通过安全知识图谱和规范化字典进行关系和实体的数据规范化,提升了关系和实体的精确度,并且符合STIX标准,可以和STIX结构的威胁情报库直接整合。
本申请实施例还提供一种预训练语言模型的训练装置,该装置用于执行上述任一实施例提供的预训练语言模型的训练方法。参见图6,该装置包括:
样本获取模块601,用于获取训练样本集,训练样本集包括安全信息文本;
扩展模块602,用于在预设安全知识图谱中检索安全信息文本对应的安全扩展信息,将安全扩展信息添加到安全信息文本中;
训练模块603,用于根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的安全信息文本进行词嵌入训练,词嵌入包括实体类别和关系类别的嵌入。
扩展模块602,用于对安全信息文本进行分词;根据安全信息文本中包括的每个词,分别检索预设安全知识图谱中是否包括每个词对应的安全扩展信息;若检索到安全信息文本中的词对应的安全扩展信息,则在安全信息文本中该词对应的预设相对位置处添加安全扩展信息。
训练模块603,用于通过预训练语言模型包括的标记嵌入层将添加操作后的安全信息文本中的每个词转换成词向量,并在句首和句尾分别嵌入预设句首标记和预设句尾标记,得到安全信息文本对应的词向量矩阵;通过预训练语言模型包括的句子嵌入层将词向量矩阵中属于不同句子的词向量分别用不同的句子标记进行嵌入;通过预训练语言模型包括的位置嵌入层在词向量矩阵中添加每个词向量的位置编码,属于安全扩展信息的词向量的位置编码与安全扩展信息对应的原始词的位置编码相同;根据STIX情报库,通过预训练语言模型包括的类别嵌入层在词向量矩阵中添加每个词向量对应的类别标记;根据最终得到的词向量矩阵,通过预训练语言模型包括的注意力机制确定词向量矩阵对应的注意力权重矩阵。
训练模块603,用于根据添加操作后的安全信息文本中包括的每个词,分别检索STIX情报库中是否包含每个词的同义词;若检索到安全信息文本中的词对应的同义词,且确定同义词为实体类别,则在词向量矩阵中为词的词向量添加实体标记;若检索到安全信息文本中的词对应的同义词,且确定同义词为关系类别,则在词向量矩阵中为词的词向量添加关系标记;若未检索到安全信息文本中的词对应的同义词,则在词向量矩阵中为词的词向量添加预设标记。
本申请的上述实施例提供的预训练语言模型的训练装置与本申请实施例提供的预训练语言模型的训练方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
本申请实施例还提供一种预训练语言模型的应用装置,该装置用于执行上述任一实施例提供的预训练语言模型的应用方法。参见图7,该装置包括:
获取模块701,用于获取待分析的安全信息文本;
词嵌入模块702,用于通过上述任一实施例的训练方法训练的预训练语言模型对安全信息文本进行词嵌入,得到安全信息文本对应的词向量矩阵;
提取模块703,用于根据词向量矩阵,提取安全信息文本包括的实体-关系信息。
提取模块703,用于根据词向量矩阵及词向量矩阵对应的注意力权重矩阵,从安全信息文本中提取候选实体-关系序列,确定每个候选实体-关系序列对应的匹配度;从每个候选实体-关系序列中选择匹配度最大的候选实体-关系序列作为安全信息文本包括的实体-关系信息。
提取模块703,用于根据词向量矩阵各个词向量对应的类别标记,提取出安全信息文本中的所有实体,并确定出排在首位的头实体和排在末尾的尾实体;根据词向量矩阵对应的注意力权重矩阵,在安全信息文本中从头实体开始从前往后搜索与头实体之间的注意力权重最大的中间词;从注意力权重最大的中间词开始从前往后搜索与中间词之间的注意力权重最大的中间词,再从该中间词开始往后搜索直至搜索到尾实体;将头实体、尾实体和每个搜索步骤搜索到的中间词组成候选实体-关系序列;将每个搜索步骤对应的最大的注意力权重之和确定为候选实体-关系序列对应的匹配度。
该装置还包括:规范化模块,用于根据实体-关系信息中包括的每个词,分别检索预设规范化词典和STIX情报库中是否包含每个词的同义词;如果是,则将实体关系信息中包括的词替换为该词对应的同义词;
去重模块,用于若替换操作后安全信息文本包括的多个实体-关系信息中存在重复的实体-关系信息,则对多个实体-关系信息进行去重处理;
类别匹配模块,用于对去重处理后的实体-关系信息进行实体类别和关系类别匹配。
本申请的上述实施例提供的预训练语言模型的应用装置与本申请实施例提供的预训练语言模型的应用方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
本申请实施方式还提供一种电子设备,以执行上述预训练语言模型的训练方法或执行上述预训练语言模型的应用方法。请参考图8,其示出了本申请的一些实施方式所提供的一种电子设备的示意图。如图8所示,电子设备8包括:处理器800,存储器801,总线802和通信接口803,所述处理器800、通信接口803和存储器801通过总线802连接;所述存储器801中存储有可在所述处理器800上运行的计算机程序,所述处理器800运行所述计算机程序时执行本申请前述任一实施方式所提供的预训练语言模型的训练方法或应用方法。
其中,存储器801可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口803(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
总线802可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器801用于存储程序,所述处理器800在接收到执行指令后,执行所述程序,前述本申请实施例任一实施方式揭示的所述预训练语言模型的训练方法或应用方法可以应用于处理器800中,或者由处理器800实现。
处理器800可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器800中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器800可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器801,处理器800读取存储器801中的信息,结合其硬件完成上述方法的步骤。
本申请实施例提供的电子设备与本申请实施例提供的预训练语言模型的训练方法或应用方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
本申请实施方式还提供一种与前述实施方式所提供的预训练语言模型的训练方法或应用方法对应的计算机可读存储介质,请参考图9,其示出的计算机可读存储介质为光盘30,其上存储有计算机程序(即程序产品),所述计算机程序在被处理器运行时,会执行前述任意实施方式所提供的预训练语言模型的训练方法或应用方法。
需要说明的是,所述计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器 (SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器 (EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
本申请的上述实施例提供的计算机可读存储介质与本申请实施例提供的预训练语言模型的训练方法或应用方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
需要说明的是:
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下示意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (9)

1.一种预训练语言模型的训练方法,其特征在于,包括:
获取训练样本集,所述训练样本集包括安全信息文本;
在预设安全知识图谱中检索所述安全信息文本对应的安全扩展信息,将所述安全扩展信息添加到所述安全信息文本中;
根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的所述安全信息文本进行词嵌入训练,所述词嵌入包括实体类别和关系类别的嵌入;
其中,所述根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的所述安全信息文本进行词嵌入训练,包括:
通过预训练语言模型包括的标记嵌入层将添加操作后的所述安全信息文本中的每个词转换成词向量,并在句首和句尾分别嵌入预设句首标记和预设句尾标记,得到所述安全信息文本对应的词向量矩阵;
通过所述预训练语言模型包括的句子嵌入层将所述词向量矩阵中属于不同句子的词向量分别用不同的句子标记进行嵌入;
通过所述预训练语言模型包括的位置嵌入层在所述词向量矩阵中添加每个词向量的位置编码,属于所述安全扩展信息的词向量的位置编码与所述安全扩展信息对应的原始词的位置编码相同;
根据STIX情报库,通过所述预训练语言模型包括的类别嵌入层在所述词向量矩阵中添加每个词向量对应的类别标记;
根据最终得到的所述词向量矩阵,通过所述预训练语言模型包括的注意力机制确定所述词向量矩阵对应的注意力权重矩阵。
2.根据权利要求1所述的方法,其特征在于,所述在预设安全知识图谱中检索所述安全信息文本对应的安全扩展信息,将所述安全扩展信息添加到所述安全信息文本中,包括:
对所述安全信息文本进行分词;
根据所述安全信息文本中包括的每个词,分别检索预设安全知识图谱中是否包括每个词对应的安全扩展信息;
若检索到所述安全信息文本中的词对应的安全扩展信息,则在所述安全信息文本中该词对应的预设相对位置处添加所述安全扩展信息。
3.根据权利要求1所述的方法,其特征在于,所述根据STIX情报库,通过所述预训练语言模型包括的类别嵌入层在所述词向量矩阵中添加每个词向量对应的类别标记,包括:
根据添加操作后的所述安全信息文本中包括的每个词,分别检索STIX情报库中是否包含每个词的同义词;
若检索到所述安全信息文本中的词对应的同义词,且确定所述同义词为实体类别,则在所述词向量矩阵中为所述词的词向量添加实体标记;
若检索到所述安全信息文本中的词对应的同义词,且确定所述同义词为关系类别,则在所述词向量矩阵中为所述词的词向量添加关系标记;
若未检索到所述安全信息文本中的词对应的同义词,则在所述词向量矩阵中为所述词的词向量添加预设标记。
4.一种预训练语言模型的应用方法,其特征在于,包括:
获取待分析的安全信息文本;
通过权利要求1-3任一项所述的训练方法训练的预训练语言模型对所述安全信息文本进行词嵌入,得到所述安全信息文本对应的词向量矩阵;
根据所述词向量矩阵,提取所述安全信息文本包括的实体-关系信息。
5.根据权利要求4所述的方法,其特征在于,所述根据所述词向量矩阵,提取所述安全信息文本包括的实体-关系信息,包括:
根据所述词向量矩阵及所述词向量矩阵对应的注意力权重矩阵,从所述安全信息文本中提取候选实体-关系序列,确定每个候选实体-关系序列对应的匹配度;
从所述每个候选实体-关系序列中选择匹配度最大的候选实体-关系序列作为所述安全信息文本包括的实体-关系信息。
6.根据权利要求5所述的方法,其特征在于,所述根据所述词向量矩阵及所述词向量矩阵对应的注意力权重矩阵,从所述安全信息文本中提取候选实体-关系序列,确定每个候选实体-关系序列对应的匹配度,包括:
根据所述词向量矩阵各个词向量对应的类别标记,提取出所述安全信息文本中的所有实体,并确定出排在首位的头实体和排在末尾的尾实体;
根据所述词向量矩阵对应的注意力权重矩阵,在所述安全信息文本中从所述头实体开始从前往后搜索与所述头实体之间的注意力权重最大的中间词;
从所述注意力权重最大的中间词开始从前往后搜索与所述中间词之间的注意力权重最大的中间词,再从该中间词开始往后搜索直至搜索到所述尾实体;
将所述头实体、所述尾实体和每个搜索步骤搜索到的所述中间词组成候选实体-关系序列;
将所述每个搜索步骤对应的最大的注意力权重之和确定为所述候选实体-关系序列对应的匹配度。
7.根据权利要求4-6任一项所述的方法,其特征在于,所述提取所述安全信息文本包括的实体-关系信息之后,还包括:
根据所述实体-关系信息中包括的每个词,分别检索预设规范化词典和STIX情报库中是否包含所述每个词的同义词;
如果是,则将所述实体关系信息中包括的词替换为该词对应的所述同义词;
若替换操作后所述安全信息文本包括的多个实体-关系信息中存在重复的实体-关系信息,则对所述多个实体-关系信息进行去重处理;
对去重处理后的实体-关系信息进行实体类别和关系类别匹配。
8.一种预训练语言模型的训练装置,其特征在于,包括:
样本获取模块,用于获取训练样本集,所述训练样本集包括安全信息文本;
扩展模块,用于在预设安全知识图谱中检索所述安全信息文本对应的安全扩展信息,将所述安全扩展信息添加到所述安全信息文本中;
训练模块,用于根据结构化威胁信息表达式STIX情报库,通过预训练语言模型对添加操作后的所述安全信息文本进行词嵌入训练,所述词嵌入包括实体类别和关系类别的嵌入;
所述训练模块,用于通过预训练语言模型包括的标记嵌入层将添加操作后的所述安全信息文本中的每个词转换成词向量,并在句首和句尾分别嵌入预设句首标记和预设句尾标记,得到所述安全信息文本对应的词向量矩阵;通过所述预训练语言模型包括的句子嵌入层将所述词向量矩阵中属于不同句子的词向量分别用不同的句子标记进行嵌入;通过所述预训练语言模型包括的位置嵌入层在所述词向量矩阵中添加每个词向量的位置编码,属于所述安全扩展信息的词向量的位置编码与所述安全扩展信息对应的原始词的位置编码相同;根据STIX情报库,通过所述预训练语言模型包括的类别嵌入层在所述词向量矩阵中添加每个词向量对应的类别标记;根据最终得到的所述词向量矩阵,通过所述预训练语言模型包括的注意力机制确定所述词向量矩阵对应的注意力权重矩阵。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器运行所述计算机程序以实现如权利要求1-3或4-7中的任一项所述的方法。
CN202110450286.3A 2021-04-25 2021-04-25 预训练语言模型的训练方法、应用方法、装置及设备 Active CN113158653B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110450286.3A CN113158653B (zh) 2021-04-25 2021-04-25 预训练语言模型的训练方法、应用方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110450286.3A CN113158653B (zh) 2021-04-25 2021-04-25 预训练语言模型的训练方法、应用方法、装置及设备

Publications (2)

Publication Number Publication Date
CN113158653A CN113158653A (zh) 2021-07-23
CN113158653B true CN113158653B (zh) 2021-09-07

Family

ID=76870465

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110450286.3A Active CN113158653B (zh) 2021-04-25 2021-04-25 预训练语言模型的训练方法、应用方法、装置及设备

Country Status (1)

Country Link
CN (1) CN113158653B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113704513B (zh) * 2021-07-27 2023-03-24 北京三快在线科技有限公司 一种模型训练的方法、信息展示的方法以及装置
CN113723106B (zh) * 2021-07-29 2024-03-12 北京工业大学 基于标签扩展的零样本文本分类方法
CN113836315A (zh) * 2021-09-23 2021-12-24 国网安徽省电力有限公司电力科学研究院 一种电力标准知识抽取系统
CN113901827B (zh) * 2021-12-10 2022-03-18 北京邮电大学 实体识别和关系抽取方法、装置、电子设备及存储介质
CN114021572B (zh) * 2022-01-05 2022-03-22 苏州浪潮智能科技有限公司 一种自然语言处理方法、装置、设备及可读存储介质
CN116956295B (zh) * 2023-09-19 2024-01-05 杭州海康威视数字技术股份有限公司 基于文件图谱拟合的安全检测方法、装置及设备
CN117349275B (zh) * 2023-12-04 2024-03-01 中电数创(北京)科技有限公司 一种基于大语言模型的文本结构化方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293683A1 (en) * 2017-04-11 2018-10-11 International Business Machines Corporation Humanitarian Crisis Analysis Using Secondary Information Gathered By a Focused Web Crawler
CN109408821A (zh) * 2018-10-22 2019-03-01 腾讯科技(深圳)有限公司 一种语料生成方法、装置、计算设备及存储介质
CN110717049A (zh) * 2019-08-29 2020-01-21 四川大学 一种面向文本数据的威胁情报知识图谱构建方法
CN112149420A (zh) * 2020-09-01 2020-12-29 中国科学院信息工程研究所 实体识别模型训练方法、威胁情报实体提取方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293683A1 (en) * 2017-04-11 2018-10-11 International Business Machines Corporation Humanitarian Crisis Analysis Using Secondary Information Gathered By a Focused Web Crawler
CN109408821A (zh) * 2018-10-22 2019-03-01 腾讯科技(深圳)有限公司 一种语料生成方法、装置、计算设备及存储介质
CN110717049A (zh) * 2019-08-29 2020-01-21 四川大学 一种面向文本数据的威胁情报知识图谱构建方法
CN112149420A (zh) * 2020-09-01 2020-12-29 中国科学院信息工程研究所 实体识别模型训练方法、威胁情报实体提取方法及装置

Also Published As

Publication number Publication date
CN113158653A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN113158653B (zh) 预训练语言模型的训练方法、应用方法、装置及设备
US20210157975A1 (en) Device, system, and method for extracting named entities from sectioned documents
US9424524B2 (en) Extracting facts from unstructured text
CN102819604B (zh) 基于内容相关性的文件涉密内容检索、密级判定及标注方法
US20090222395A1 (en) Systems, methods, and software for entity extraction and resolution coupled with event and relationship extraction
CN111209411B (zh) 一种文档分析的方法及装置
CN111339751A (zh) 一种文本关键词处理方法、装置及设备
CN113033198B (zh) 相似文本推送方法、装置、电子设备及计算机存储介质
CN112257444B (zh) 金融信息负面实体发现方法、装置、电子设备及存储介质
CN114118053A (zh) 一种合同信息提取方法及装置
CN111259262A (zh) 一种信息检索方法、装置、设备及介质
CN114722137A (zh) 基于敏感数据识别的安全策略配置方法、装置及电子设备
CN114090736A (zh) 一种基于文本相似度的企业行业识别系统及识别方法
CN112818126B (zh) 网络安全语料库构建模型的训练方法、应用方法及装置
CN110737770B (zh) 文本数据敏感性识别方法、装置、电子设备及存储介质
CN111291152A (zh) 案例文书的推荐方法、装置、设备及存储介质
CN112330501A (zh) 一种文书处理方法、装置、电子设备及存储介质
CN112380848A (zh) 文本生成方法、装置、设备及存储介质
CN115115432B (zh) 基于人工智能的产品信息推荐方法及装置
CN111291535A (zh) 剧本处理方法、装置、电子设备及计算机可读存储介质
CN114298048A (zh) 命名实体识别方法及装置
CN112818645A (zh) 一种化学信息抽取方法、装置、设备及存储介质
CN111339272A (zh) 代码缺陷报告检索方法及装置
CN112966268A (zh) 基于神经网络模型和哈希匹配的sql检测方法及系统
CN112269852A (zh) 生成舆情专题方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20211119

Address after: 100084 b201c-1, 3rd floor, building 8, yard 1, Zhongguancun East Road, Haidian District, Beijing

Patentee after: Beijing innovation Zhiyuan Technology Co.,Ltd.

Address before: B201d-1, 3rd floor, building 8, yard 1, Zhongguancun East Road, Haidian District, Beijing 100083

Patentee before: Beijing Zhiyuan Artificial Intelligence Research Institute

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220413

Address after: Room 266, floor 2, building 1, No. 16, Shangdi Fifth Street, Haidian District, Beijing 100085

Patentee after: Beijing Tianji Youmeng Information Technology Co.,Ltd.

Address before: 100084 b201c-1, 3rd floor, building 8, yard 1, Zhongguancun East Road, Haidian District, Beijing

Patentee before: Beijing innovation Zhiyuan Technology Co.,Ltd.

TR01 Transfer of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Training method, application method, device and equipment of pre training language model

Effective date of registration: 20220614

Granted publication date: 20210907

Pledgee: China Construction Bank Corporation Beijing Fucheng Road sub branch

Pledgor: Beijing Tianji Youmeng Information Technology Co.,Ltd.

Registration number: Y2022110000125

PE01 Entry into force of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20230814

Granted publication date: 20210907

Pledgee: China Construction Bank Corporation Beijing Fucheng Road sub branch

Pledgor: Beijing Tianji Youmeng Information Technology Co.,Ltd.

Registration number: Y2022110000125

PC01 Cancellation of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Training methods, application methods, devices, and equipment for pre trained language models

Effective date of registration: 20230817

Granted publication date: 20210907

Pledgee: China Construction Bank Corporation Beijing Fucheng Road sub branch

Pledgor: Beijing Tianji Youmeng Information Technology Co.,Ltd.

Registration number: Y2023110000346

PE01 Entry into force of the registration of the contract for pledge of patent right