CN113011141A - 佛经注解模型训练方法、佛经注解生成方法及相关设备 - Google Patents

佛经注解模型训练方法、佛经注解生成方法及相关设备 Download PDF

Info

Publication number
CN113011141A
CN113011141A CN202110285891.XA CN202110285891A CN113011141A CN 113011141 A CN113011141 A CN 113011141A CN 202110285891 A CN202110285891 A CN 202110285891A CN 113011141 A CN113011141 A CN 113011141A
Authority
CN
China
Prior art keywords
buddha
word
text
model
named entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110285891.XA
Other languages
English (en)
Inventor
白宏熙
周星浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110285891.XA priority Critical patent/CN113011141A/zh
Publication of CN113011141A publication Critical patent/CN113011141A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能技术领域,公开了一种佛经注解模型训练方法、装置、设备及存储介质。本方法包括:获取佛经原文和佛经原文对应的注解内容,并对佛经原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛学字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文进行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以及佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解模型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问题,提升用户体验。

Description

佛经注解模型训练方法、佛经注解生成方法及相关设备
技术领域
本发明涉及人工智能技术领域,尤其涉及一种佛经注解模型训练方法、 佛经注解生成方法及相关设备。
背景技术
佛教经典并非是佛亲自写的,而是佛陀逝世后,佛的弟子记诵出来的。 主要是记录佛陀在世时候的言行和修持法门,以及开示宇宙真理的文字。佛 经深邃、奥妙的思想并不会那么通俗易懂,因此佛经需要通过注解帮助信众 入门和观摩他人感悟,帮助信众解答心中疑惑,进而更深刻的体悟佛教经典。
但现存的佛经注解都是由活佛或法师亲自注解,但活佛或法师通常精力 有限,无法对数量庞大且细节甚多的佛经做到一字一词注解,导致信众在平 常持颂时,很多经文细节之处都有疑惑。
目前常见的注解辅助系统通常只是指出相关的佛经注解内容,需要信众 自行辨别是否是可用注解,并未能从根本上对佛经进行自动注解,只是提供 了一个注解检索和排序功能。此外,还有一些佛经注解系统主要基于词的语 义将句子翻译成另外一种语言的句子。但佛经注解不仅需要将佛经翻译成白 话文,同时需要给重点佛学词汇生成注释,无法达到信众的使用要求。
发明内容
本发明的主要目的是解决现有的佛经注解效率低下,而降低信众持诵佛 经的体验的技术问题。
本发明第一方面提供了一种佛经注解模型训练方法,包括:
获取佛经原文和所述佛经原文的注解内容;
对所述佛经原文进行分词处理,得到所述佛经原文的关键词,并确定所 述关键词对应的注解内容,生成佛学字典;
接收命名实体识别请求,并根据所述命名实体识别请求对所述佛经原文 进行识别,得到所述佛经原文的命名实体;
将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样 本,输入预置BERT模型进行学习,得到目标佛经注解模型。
可选地,在本发明第一方面的第一种实现方式中,所述对所述佛经原文 进行分词处理,得到所述佛经原文的关键词包括:
获取所述佛经原文中的文本数据,并对所述文本数据进行分词处理,得 到多个候选词;
对与所述文本数据具有相同语义的标题进行切分,得到多个字符;
将所述多个候选词依次输入预置关键词提取模型,得到各个候选词相对 于各个字符的注意力权重,其中,所述注意力权重用于表征每个候选词分别 与各个字符的语义关联程度;
从各个候选词中选择在所述标题中出现的目标候选词;
根据所述目标候选词相对于各个字符的注意力权重,确定提取阈值;
根据所述提取阈值,从所述各个候选词中确定出所述佛经原文的关键词。
可选地,在本发明第一方面的第二种实现方式中,所述接收命名实体识 别请求,并根据所述命名实体识别请求,对所述佛经原文进行识别,得到所 述佛经原文的命名实体包括:
接收命名实体识别请求,根据所述命名实体识别请求,确定所述佛经原 文中的待识别的目标语句,并调用预置命名实体识别模型,其中,所述命名 实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名 实体识别层;
将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分 别对应的第一词向量;
将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别 对应的目标字向量;
将所述目标字向量依次输入至所述双向长短期记忆网络层,得到所述目 标语句中的每个词分别对应的第二词向量;
将所述第一词向量和所述第二词向量输入至所述命名实体识别层,得到 所述目标语句中的命名实体。
可选地,在本发明第一方面的第三种实现方式中,所述将所述佛经原文、 所述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型 进行学习,得到目标佛经注解模型包括:
将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样 本输入预置BERT模型的文本深度神经网络,并通过连续时间分类算法进行学 习,得到所述文本深度神经网络的网络参数;
使用激活函数对所述网络参数进行优化,得到目标网络参数;
通过所述目标网络参数对所述文本深度神经网络的网络参数进行更新, 得到初始佛经注解模型;
采用批标准化算法,对所述初始佛经注解模型进行批标准化处理,得到 目标佛经注解模型。
可选地,在本发明第一方面的第四种实现方式中,在所述接收命名实体 识别请求,并根据所述命名实体识别请求,对所述佛经原文进行识别,得到 所述佛经原文的命名实体之前,还包括:
对语料样本进行预处理,得到字符序列样本,并对所述字符序列样本标 注命名实体标签,得到训练字符序列;
基于预设的第一双向语言模型和第一自注意力机制模型分别对所述训练 字符序列进行预训练,获得所述训练字符序列对应的字特征向量和字权重向 量;
基于预设的第二双向语言模型和第二自注意力机制模型分别对所述训练 字符序列进行预训练,获得所述训练字符序列对应的词特征向量和词权重向 量;
对所述训练字符序列对应的字特征向量和字权重向量进行融合获得所述 训练字符序列的第一上下文向量;
对所述训练字符序列对应的词特征向量和词权重向量进行融合获得所述 训练字符序列的第二上下文向量;
使用所述训练字符序列的第一上下文向量和第二上下文向量对依次连接 的双向神经网络和条件随机场进行训练,得到命名实体识别模型。
本发明第二方面提供了一种佛经注解生成方法,包括:
读取用户输入的原始佛经数据;
通过所述目标佛经注解模型,对所述原始佛经数据进行佛经注解,得到 佛经注解语句,其中,所述目标佛经注解模型通过以下方式训练得到:获取 佛经原文和所述佛经原文的注解内容;对所述佛经原文进行分词处理,得到 所述佛经原文的关键词,并确定所述关键词对应的注解内容,生成佛学字典; 接收命名实体识别请求,并根据所述命名实体识别请求对所述佛经原文进行 识别,得到所述佛经原文的命名实体;将所述佛经原文、所述佛经原文的命 名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到所述目标佛经注解模型;
确定所述佛经注解语句中的关键词及与所述关键词对应的注解内容;
基于所述佛经注解语句中所有关键词对应的注解内容,输出所述原始佛 经数据的佛经注解。
本发明第三方面提供了一种佛经注解模型训练装置,包括:
获取模块,用于获取佛经原文和所述佛经原文的注解内容;
分词模块,用于对所述佛经原文进行分词处理,得到所述佛经原文的关 键词,并确定所述关键词对应的注解内容,生成佛学字典;
识别模块,用于接收命名实体识别请求,并根据所述命名实体识别请求 对所述佛经原文进行识别,得到所述佛经原文的命名实体;
学习模块,用于将所述佛经原文、所述佛经原文的命名实体和所述佛学 词典作为训练样本,输入预置BERT模型进行学习,得到目标佛经注解模型。
可选地,在本发明第三方面的第一种实现方式中,所述分词模块包括:
获取单元,用于获取所述佛经原文中的文本数据,并对所述文本数据进 行分词处理,得到多个候选词;
切分单元,用于对与所述文本数据具有相同语义的标题进行切分,得到 多个字符;
提取单元,用于将所述多个候选词依次输入预置关键词提取模型,得到 各个候选词相对于各个字符的注意力权重,其中,所述注意力权重用于表征 每个候选词分别与各个字符的语义关联程度;
选择单元,用于从各个候选词中选择在所述标题中出现的目标候选词;
确定单元,用于根据所述目标候选词相对于各个字符的注意力权重,确 定提取阈值;根据所述提取阈值,从所述各个候选词中确定出所述佛经原文 的关键词。
可选地,在本发明第三方面的第二种实现方式中,所述识别模块具体用 于:
接收命名实体识别请求,根据所述命名实体识别请求,确定所述佛经原 文中的待识别的目标语句,并调用预置命名实体识别模型,其中,所述命名 实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名 实体识别层;
将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分 别对应的第一词向量;
将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别 对应的目标字向量;
将所述目标字向量依次输入至所述双向长短期记忆网络层,得到所述目 标语句中的每个词分别对应的第二词向量;
将所述第一词向量和所述第二词向量输入至所述命名实体识别层,得到 所述目标语句中的命名实体。
可选地,在本发明第三方面的第三种实现方式中,所述学习模块具体用 于:
将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样 本输入预置BERT模型的文本深度神经网络,并通过连续时间分类算法进行学 习,得到所述文本深度神经网络的网络参数;
使用激活函数对所述网络参数进行优化,得到目标网络参数;
通过所述目标网络参数对所述文本深度神经网络的网络参数进行更新, 得到初始佛经注解模型;
采用批标准化算法,对所述初始佛经注解模型进行批标准化处理,得到 目标佛经注解模型。
可选地,在本发明第三方面的第四种实现方式中,所述佛经注解模型训 练装置,还包括:
标注模块,用于对语料样本进行预处理,得到字符序列样本,并对所述 字符序列样本标注命名实体标签,得到训练字符序列;
预训练模块,用于基于预设的第一双向语言模型和第一自注意力机制模 型分别对所述训练字符序列进行预训练,获得所述训练字符序列对应的字特 征向量和字权重向量;基于预设的第二双向语言模型和第二自注意力机制模 型分别对所述训练字符序列进行预训练,获得所述训练字符序列对应的词特 征向量和词权重向量;
融合模块,用于对所述训练字符序列对应的字特征向量和字权重向量进 行融合获得所述训练字符序列的第一上下文向量;对所述训练字符序列对应 的词特征向量和词权重向量进行融合获得所述训练字符序列的第二上下文向 量;
训练模块,用于使用所述训练字符序列的第一上下文向量和第二上下文 向量对依次连接的双向神经网络和条件随机场进行,得到命名实体识别模型。
本发明第四方面提供了一种佛经注解生成装置,包括:
读取模块,用于读取用户输入的原始佛经数据;
注解模块,用于通过所述目标佛经注解模型,对所述原始佛经数据进行 佛经注解,得到佛经注解语句,其中,所述目标佛经注解模型通过以下方式 训练得到:获取佛经原文和所述佛经原文的注解内容;对所述佛经原文进行 分词处理,得到所述佛经原文的关键词,并确定所述关键词对应的注解内容, 生成佛学字典;接收命名实体识别请求,并根据所述命名实体识别请求对所 述佛经原文进行识别,得到所述佛经原文的命名实体;将所述佛经原文、所 述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到所述目标佛经注解模型;
确定模块,用于确定所述佛经注解语句中的关键词及与所述关键词对应 的注解内容;
输出模块,用于基于所述佛经注解语句中所有关键词对应的注解内容, 输出所述原始佛经数据的佛经注解。
本发明第五方面提供了一种计算机设备,包括:存储器和至少一个处理 器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路 互连;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述计算机 设备执行上述的佛经注解模型训练方法,或者,执行上述的佛经注解生成方 法。
本发明的第六方面提供了一种计算机可读存储介质,所述计算机可读存 储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的佛经 注解模型训练方法,或者,执行上述的佛经注解生成方法。
本发明提供的技术方案中,获取佛经原文和佛经原文对应的注解内容, 并对佛经原文进行分词处理,得到佛经原文的关键词和关键词对应的注解, 生成佛学字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛 经原文进行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名 实体以及佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛 经注解模型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下 的技术问题,提升用户体验。
附图说明
图1为本发明佛经注解模型训练方法的第一个实施例示意图;
图2为本发明佛经注解模型训练方法的第二个实施例示意图;
图3为本发明佛经注解模型训练方法的第三个实施例示意图;
图4为本发明佛经注解模型训练方法的第四个实施例示意图;
图5为本发明佛经注解模型训练方法的第五个实施例示意图;
图6为本发明佛经注解生成方法的一个实施例示意图;
图7为本发明佛经注解模型训练装置的第一个实施例示意图;
图8为本发明佛经注解模型训练装置的第二个实施例示意图;
图9为本发明佛经注解生成装置的一个实施例示意图;
图10为本发明计算机设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种佛经注解模型训练方法、装置、设备及存储介 质,本发明的技术方案中,先获取佛经原文和佛经原文对应的注解内容,并 对佛经原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生 成佛学字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经 原文进行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实 体以及佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经 注解模型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问题,提升用户体验。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、 “第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描 述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换, 以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实 施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的 包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不 必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于 这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本 发明实施例中佛经注解模型训练方法的第一个实施例包括:
101、获取佛经原文和佛经原文的注解内容;
本实施例中,系统首先从光明网,弘善网等获取原始佛经原文,及其注 解内容,整理入库,形成结构化原始数据。常见的佛经及其对应的关键词对 应的注解内容,比如,四维:四方空间,指东、南、西、北方阿褥多罗三藐 三菩提心:即“至高无尚的平等觉悟之心”,涅磐:寂灭、灭度之意布施: 指财力、体力、智慧等使人受惠的活动,可使人的福报乃解脱无所住:没有 什么执著,无住即不要执著。持戒:修持戒律,“戒”“是”“慧”并称佛 教三学。种慧根:即通过供佛、拜佛、教佛、修佛法来培植善性。净信:空 灵洁净的信念我相:认为自我为实有;人相,:认为我与其他众生不同;众 生相:认为自我依据五蕴而存在。
102、对佛经原文进行分词处理,得到佛经原文的关键词,并确定关键词 对应的注解内容,生成佛学字典;
本实施例中,可以对上述佛经原文中的文本数据和训练标题分别采取不 同的分词方式进行分词处理。对于佛经原文中的文本数据,可以根据上述佛 经原文中的文本数据中各个词语的语义关联程度,对上述佛经原文中的文本 数据进行分词处理,以得到上述佛经原文中的文本数据对应的多个候选词。
本实施例中,分词就是将连续的字序列按照一定的规范重新组合成词序 列的过程。
103、接收命名实体识别请求,并根据命名实体识别请求对佛经原文进行 识别,得到佛经原文的命名实体;
本实施例中,命名实体识别(Named Entities Recognition,NER)是自然 语言处理(NaturalLanguage Processing,NLP)的一个基础任务,其目的是识 别输入文本中人名、地名、组织机构名或根据特定需求划分的命名实体,如 ‘红富士苹果’和‘苹果256G内存手机’中的‘苹果’的不同含义,前面的 ‘苹果’属于商品,后面的“苹果”属于品牌。
命名实体识别是信息提取、问答系统、句法分析、机器翻译、面 向Semantic Web的元数据标注等应用领域的重要基础工具,在自然 语言处理技术走向实用化的过程中占有重要地位。一般来说,命名实 体识别的任务就是识别出待处理文本中三大类(实体类、时间类和数 字类)、七小类(人名、机构名、地名、时间、日期、货币和百分比) 命名实体。其中,实体,可以认为是某一个概念的实例。例如,“人 名”是一种概念,或者说实体类型,那么“蔡某某”就是一种“人名” 实体了。“时间”是一种实体类型,那么“中秋节”就是一种“时间” 实体了。所谓实体识别,就是将你想要获取到的实体类型,从一句话 里面挑出来的过程。
比如,句子“小明在北京大学的燕园看了中国男篮的一场比赛”,通过 NER模型,将“小明”以PER,“北京大学”以ORG,“燕园”以LOC,“中 国男篮”以ORG为类别分别筛选出来。
104、将佛经原文、佛经原文的命名实体和佛学词典作为训练样本,输入 预置BERT模型进行学习,得到目标佛经注解模型。
本实施例中,BERT模型全称是基于转换器的双向编码器表征量 (BidirectionalEncoder Representations from Transformers),它是 Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预 训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多 自然语言处理任务中发挥着重要作用。
BERT模型是一个预训练语言表示模型(pre-trained language representationsmodel)。所谓预训练语言表示模型,就是先用这个模型在 可与最终任务无关的大数据集上训练处语言的表示,然后将学到的知识(表 示)用到任务相关的语言表示上。
本发明实施例中,获取佛经原文和佛经原文对应的注解内容,并对佛经 原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛学 字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文进 行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以及 佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解模 型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问 题,提升用户体验。
请参阅图2,本发明实施例中佛经注解模型训练方法的第二个实施例包 括:
201、获取佛经原文和佛经原文的注解内容;
202、对佛经原文进行分词处理,得到佛经原文的关键词,并确定关键词 对应的注解内容,生成佛学字典;
203、对语料样本进行预处理,得到字符序列样本,并对字符序列样本标 注命名实体标签,得到训练字符序列;
本实施例中,对语料样本进行分词处理,获得多个分词,对多个分词分 别分解出所有单个字符,得到字符序列样本;根据BMEO标注规则对字符序列 样本进行标注对应的命名实体标签,获得训练字符序列。
本实施例中,可以利用开源分词工具(例如结巴分词工具)对语料样本进 行分词处理,并将各个分词分解成单个字符形式,对分解得到的所有单个字 符按正向顺序进行排列,得到字符序列样本。得到语料样本的字符序列样本 之后,可以采用BMEO标注规则,通过人工标注方式对字符序列样本进行标注 对应的命名实体标签,获得训练字符序列。
其中,训练字符序列的标注结果中包含{B,M,E,O},其中,B表示命名实 体的开头,M表示命名实体中间部分,E表示命名实体结尾部分,O表示不属 于实体部分。在商品标签识别的应用场景下,可以使用BRA表示品牌,COM表 示商品,PAR表示属性,例如,语料样本“红富士苹果”,其训练字符序列的 标注结果如下所示:红富士苹果B-BRA M-BRA E-BRA B-COME-COM。
204、基于预设的第一双向语言模型和第一自注意力机制模型分别对训练 字符序列进行预训练,获得训练字符序列对应的字特征向量和字权重向量;
本实施例中,基于预设的第一双向语言模型对训练字符序列进行预训练, 获得训练字符序列对应的字特征向量,该过程可以包括:将训练字符序列输 入到第一双向语言模型中,获得双向语言模型输出的结果,以作为训练字符 序列对应的字特征向量。
本实施例中,双向语言模型,即ELMO(Embeddings from Language Models) 模型,是基于bi-LSTM的语言模型,首先在大规模语料库上预训练出两层 bi-LSTM模型,然后利用领域语料库的训练数据对预训练得到的两层bi-LSTM 模型进行fine tuning(微调),得到最终的向量表示。
其中,两层bi-LSTM模型包含两个隐含层,一个隐含层表示前向LSTM神 经网络,另一个隐含层表示后向LSTM神经网络,利用前向LSTM神经网络预 测下文信息,利用后向LSTM神经网络预测上文信息,通过双向遍历充分提取 字符序列中的字符特征信息。
本实施例中,可以将基于双向语言模型对训练字符序列进行预训练所获 得的字符特征向量表示为{t1,...tN}。其中,基于预设的第一自注意力机制 模型对训练字符序列进行预训练,获得训练字符序列对应的字权重向量,该 过程可以包括:将训练字符序列输入到第一自注意力机制模型中,获得第一 自注意力机制模型输出的结果,得到训练字符序列对应的字权重向量。
本实施例中,自注意力机制模型是基于自注意力机制的Transformer模 型,即基于叠层self-Attention和全连接层的注意力机制模型,可以用于处 理字符序列内部权重,得到字符序列的每个字符在字符序列中的重要度的向 量。对于序列的每个字符对应的权重值利用如下的注意力机制计算公式进行 计算:
Figure BDA0002980437160000081
其中,key,value是源语句source中的数据,key,value是对应的。Query 是目标语句target中的数据,计算Query和source中的各个key的相似性, 得到key对应的value的权重系数。
本实施例中,可以将自注意力机制模型对训练字符序列进行预训练所获 得的字权重向量表示为{q1,...qn}。
205、基于预设的第二双向语言模型和第二自注意力机制模型分别对训练 字符序列进行预训练,获得训练字符序列对应的词特征向量和词权重向量;
本实施例中,基于预设的第二双向语言模型对训练字符序列进行预训练, 获得训练字符序列对应的词特征向量,该过程可以包括:将训练字符序列输 入到第二双向语言模型中,获得第二双向语言模型输出的结果,以作为训练 字符序列对应的词特征向量。
本实施例中,通过第二双向语言模型能很好地识别每个词在训练字符序 列中不同位置的表达含义,可以充分提取字符序列中的词特征信息。其中, 基于预设的第二自注意力机制模型对训练字符序列进行预训练,获得训练字 符序列对应的词权重向量,该过程可以包括:将训练字符序列输入到第二自 注意力机制模型中,获得第二自注意力机制模型输出的结果,得到训练字符 序列对应的词权重向量。
本实施例中,通过第二自注意力机制模型计算字符序列中的各个词的权 重,可以得到字符序列的每个词在字符序列中的重要度的向量。
206、对训练字符序列对应的字特征向量和字权重向量进行融合获得训练 字符序列的第一上下文向量;
本实施例中,字特征向量和字权重向量均为N维向量,对训练字符序列 的字特征向量和训练字符序列的字权重向量进行逐个维度融合,得到第一上 下文向量,其中,上下文信息向量为N维向量。
本实施例中,通过对双向语言模型计算后得到字符序列的字符特征向量 与经过注意力机制计算后得到的字符在序列中的权重向量进行逐个维度融 合,从而在字符层面上能够更好地表达出不同语境下的不同语义,同时也能 表达出新词在不同语境下的不同语义,进而能够有效地提升后续模型训练的 效果。
207、对训练字符序列对应的词特征向量和词权重向量进行融合获得训练 字符序列的第二上下文向量;
本实施例中,词特征向量和所述词权重向量均为M维向量,对训练字符 序列的词特征向量和训练字符序列的词权重向量进行逐个维度融合,得到第 二上下文向量,其中,第二上下文向量为M维向量。
本实施例中,通过对双向语言模型计算后得到字符序列的词特征向量与 经过注意力机制计算后得到的词权重向量进行逐个维度融合,从而在词语层 面上能够更好地表达出不同语境下的不同语义,能够有效地提升后续模型训 练的效果。
208、使用训练字符序列的第一上下文向量和第二上下文向量对依次连接 的双向神经网络和条件随机场进行训练,得到命名实体识别模型;
本实施例中,双向神经网络具体可以采用双向GRU神经网络,包括两个 隐含层,一个隐含层表示前向GRU神经网络,另一个隐含层表示后向GRU神 经网络,每个隐含层拥有固定大小的GRU内核。其中,双向GRU神经网络中 的GRU内核是对传统RNN(RecurrentNeuralNetwork)的一种改进,通过增加 更新和重置机制,来选择性的更新和重置输入信息,能有效避免RNN在求导 时梯度消失或者梯度爆炸的问题。GRU网络包含两个门函数(reset gate和 update gate),reset gate决定先前的信息如何结合当前的输入,updategate 决定保留多少先前的信息。如果将reset全部设置为1,update gate设置为 0,则模型退化为RNN模型。
条件随机场(conditional random field)是给定随机变量X条件下,随 机变量Y的马尔可夫随机场。在实际应用中,可以采用线性链条件随机场。
209、接收命名实体识别请求,并根据命名实体识别请求对佛经原文进行 识别,得到佛经原文的命名实体;
210、将佛经原文、佛经原文的命名实体和佛学词典作为训练样本,输入 预置BERT模型进行学习,得到目标佛经注解模型。
本实施例中步骤201-202、209-210与第一实施例中的步骤101-102、 103-104类似,此处不再赘述。
本发明实施例中,获取佛经原文和佛经原文对应的注解内容,并对佛经 原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛学 字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文进 行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以及 佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解模 型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问 题,提升用户体验。
请参阅图3,本发明实施例中佛经注解模型训练方法的第三个实施例包 括:
301、获取佛经原文和佛经原文的注解内容;
302、获取佛经原文中的文本数据,并对文本数据进行分词处理,得到多 个候选词;
本实施例中,佛经原文中的文本数据可以是长文本,也可以是短文本。 这里,所述短文本是指文本的长度较短。
在一些实施例中,可以对上述佛经原文中的文本数据和训练标题分别采 取不同的分词方式进行分词处理。对于佛经原文中的文本数据,可以根据上 述佛经原文中的文本数据中各个词语的语义关联程度,对上述佛经原文中的 文本数据进行分词处理,以得到上述佛经原文中的文本数据对应的多个候选 词,其中,上述佛经原文中的文本数据中各个词语的语义关联程度又叫上述 佛经原文中的文本数据中各个词语的紧密度。
303、对与文本数据具有相同语义的标题进行切分,得到多个字符;
本实施例中,对于佛经原文中的文本数据中的标题,由于其包含词语数 量较少,不具有完整的句子结构,并且包含各种专有名词,因此,对上述佛 经原文中的文本数据中的标题按照字符粒度进行切分,以得到上述标题对应 的多个字符。
304、将多个候选词依次输入预置关键词提取模型,得到各个候选词相对 于各个字符的注意力权重,其中,注意力权重用于表征每个候选词分别与各 个字符的语义关联程度;
本实施例中,所述关键词提取模型包括编码模型和解码模型。在将所述 多个候选词依次输入所述关键词提取模型之前,对于每个候选词,在预设的 词表中确定所述候选词的位置信息,并根据所述候选词的位置信息,分别获 取所述候选词的词向量;将所述多个候选词的词向量依次输入所述编码模型, 得到各个候选词的文本特征表示,其中,所述词向量(Word embedding),是 一个用于将来自单词表的单词或短语映射到实数的向量。
305、从各个候选词中选择在标题中出现的目标候选词;
本实施例中,佛经原文的文本数据中通常包含一些关键词,而这些关键 词有可能在标题中并没有出现,将这些关键词提取出来作为锚文本,对提升 用户的搜索体验至关重要。因此,在本实施例中,可以根据出现在标题中的 候选词的注意力权重来确定提取阈值,从而能够自适应的确定出提取阈值,
在一些实施例中,当多个候选词中没有一个在标题中出现过,则表明该 文本与标题的语义关联程度不大,舍弃这些多个候选词,结束本流程。
306、根据目标候选词相对于各个字符的注意力权重,确定提取阈值;
本实施例中,对于每个选择出的候选词,根据该候选词相对于各个字符 的注意力权重,确定该候选词对应的权重;根据各个选择出的候选词对应的 权重,确定出所述提取阈值。由于注意力权重为各个候选词相对于各个字符 的注意力权重,因此每个候选词的注意力权重的个数与标题中的字符的个数 相同。对于步骤305选择出的每个候选词,将所述候选词相对于各个字符的 注意力权重中,取值最大的注意力权重,作为该候选词对应的权重。在为各 个候选词选择出对应的权重后,可以根据所述各个选择出的候选词对应的权重中的最大值,确定所述提取阈值。
307、根据提取阈值,从各个候选词中确定出所述佛经原文的关键词;
本实施例中,对于所述候选词中的每个候选词,如果该候选词对应的权 重大于所述提取阈值,将所述候选词作为佛经原文的关键词。
本发明的一些实施例提供了一种佛经原文的关键词的提取方法,一方面, 利用了佛经原文中文本数据和佛经原文标题的语义关系,提取出的关键词能 够反映该佛经原文的核心语义;另一方面,该佛经原文的关键词的提取方法, 无需人工设定阈值,且根据不同的文本内容和标题自适应调整提取关键词的 阈值,具有较好的泛化性能,同时能够为诸多搜索场景提供服务,提升用户 搜索体验。
308、接收命名实体识别请求,并根据命名实体识别请求对佛经原文进行 识别,得到佛经原文的命名实体;
309、将佛经原文、佛经原文的命名实体和佛学词典作为训练样本,输入 预置BERT模型进行学习,得到目标佛经注解模型。
本实施例中步骤307-310与第一实施例中的步骤102-105类似,此处不 再赘述。
本发明实施例中,获取佛经原文和佛经原文对应的注解内容,并对佛经 原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛学 字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文进 行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以及 佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解模 型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问 题,提升用户体验。
请参阅图4,本发明实施例中佛经注解模型训练方法的第四个实施例包 括:
401、获取佛经原文和佛经原文的注解内容;
402、对佛经原文进行分词处理,得到佛经原文的关键词,并确定关键词 对应的注解内容,生成佛学字典;
403、接收命名实体识别请求,根据命名实体识别请求,确定佛经原文中 的待识别的目标语句,并调用预置命名实体识别模型,其中,命名实体识别 模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别 层;
本实施例中,命名实体识别(Named Entity Recognition,NER)是自然语 言处理中的一项基础的任务,是指从文本中识别出命名性指称项,为关系抽 取等任务做铺垫。狭义上是识别出人名、地名和组织机构名等专有名词。在 智能面试场景中,需要对面试者的回答文本进行分析,从该回答文本中识别 出命名实体,如人名、地名和机构名等,便于自动化的对面试者信息进行结 构化处理,如将面试者的姓名、毕业院校和毕业院校所在地从回答文本中识 别出来存放在数据库中。
本实施例中,该命名实体识别模型为经过训练得到的,具体地,由于命 名实体识别为有监督问题,为此,对样本数据集进行标注,设标注后的样本 数据集为[X,Y],则输入为X=x_1,x_2,x_3,……,x_n,输出是Y= y_1,y_2,y_3,……,y_n,x_1表示句子序列中的第一个词,X表示由词构成的 句子,y_1表示x_1对应的标注,Y表示标注构成的序列,在得到标注后的样 本数据集[X,Y]之后,基于标注后的样本数据集对待训练的命名实体识别模型进行训练,直到待训练的命名实体识别模型收敛,从而得到命名实体识别模 型。
其中,该命名实体识别模型至少包括词编码层、字编码层、双向长短期 记忆网络层和命名实体识别层,且命名实体识别层包括单向长短期记忆网络 层和条件随机场(Conditional Random Field algorithm,CRF)层,需要说明 的是,待训练的命名实体识别模型的损失函数可选为:
Figure BDA0002980437160000121
其中,es(X,y)为语句X的序列分数,为所有语句的序列分数之和,Zi,x 为句子X中第i个词在LSTM模型层的隐含层输出,yi为句子X中第i个词对 应的标注,yi-1为句子X中第i-1个词对应的标注,n为句子X中词的个数, 矩阵W和b,表示实体标签之间的转移概率,W中的元素为向量,而b中的元 素为数值。由于损失函数中,单向长短期记忆网络层的隐含层输出与CRF层 的概率转移矩阵之间的关系为相乘,则可以增大模型的假设空间,进一步地 提高命名实体识别模型的识别精确性。
404、将目标语句输入至词编码层,得到目标语句中的每个词分别对应的 第一词向量;
本实施例中,在确定目标语句之后,该服务器将该目标语句输入至命名 实体识别模型的词编码层,得到该目标语句中每个词分别对应的第一词向量, 具体为:词编码层中预存一词向量矩阵,当目标语句输入到词编码层之后, 对该目标语句执行拆分处理,以将目标语句拆分为若干词语,并根据该词向 量矩阵,将若干词语中的每个词表示为对应的第一词向量,即从若干词中依 次获取一个词,记为目标词,然后从该词向量矩阵中获取与该目标词对应的 词向量,并将该词向量确定为该目标词的第一词向量,直至若干词中的每个词均获取一遍,从而可以得到该目标语句中每个词分别对应的第一词向量。
需要说明的是,词向量矩阵的一行表示一个词的词向量,且词向量矩阵 可基于实际情况进行设置,本方案对此不作具体限定。例如,词向量矩阵为: 其中,词向量矩阵的第一行对应的词语为“苹果”,第二行对应的词语为“手 机”,最后一行对应的词语为“模型”,因此,词语“苹果”的第一词向量 为[0.1,0.34,......,0.89],词语“手机”的第一词向量为[0.98,0.3,......,0.76],词语“模型”的第二词向量为 [0.77,0.3,......,0.22]。
405、将目标语句输入字编码层,得到目标语句中的每个字分别对应的目 标字向量;
本实施例中,在将目标语句输入词编码层的同时,将该目标语句输入至 命名实体识别模型的字编码层,得到该目标语句中的每个字分别对应的目标 字向量,具体为该字编码层中预存有一字向量矩阵,当目标语句输入至该字 编码层之后,将该目标语句拆分为若干单字,并根据该字向量矩阵,确定目 标语句中的每个字分别对应的目标字向量,即从若干单字中依次获取一个单 字,记为目标单字,然后从该字向量矩阵中获取与该目标单字对应的字向量, 并将该字向量确定为该目标单字的目标字向量,直至若干单字中的每个单字均获取一遍,从而可以得到该目标语句中每个字分别对应的目标字向量。需 要说明的是,字向量矩阵的一行表示一个单字的字向量,且字向量矩阵可基 于实际情况进行设置,本方案对此不作具体限定。
406、将目标字向量依次输入至双向长短期记忆网络层,得到目标语句中 的每个词分别对应的第二词向量;
本实施例中,在得到该目标语句中每个字的目标字向量之后,该服务器 以词为单位,将每个词中各个字的目标字向量依次输入至双向长短期记忆网 络层,得到每个词中的各个字的正向隐含层输出和逆向隐含层输出。其中, 该双向长短期记忆网络层由一个正向循环神经网络(Recurrent Neural Network,RNN)和一个逆向RNN组成,双向长短期记忆网络为传统长短期记忆 网络的扩展,可以提高序列分类问题的模型性能。在得到每个词中的各个字 的正向隐含层输出和逆向隐含层输出之后,根据每个词中的各个字的正向隐 含层输出和逆向隐含层输出,确定每个词分别对应的第二词向量,具体为: 获取每个词的词首字对应的逆向隐含层输出以及词尾字对应的正向隐含层输 出,并将每个词的词首字对应的逆向隐含层输出与词尾字对应的正向隐含层 输出进行拼接,得到每个词分别对应的第二词向量。
需要说明的是,词首字对应的逆向隐含层输出与每个词的词尾字对应的 正向隐含层输出的拼接方式为顺序拼接,例如,某个词语的词首字对应的逆 向隐含层输出为[0.2,0.3,……,0.9],且词尾字对应的正向隐层输出为 [0.8,0.7,……,0.4],则拼接得到的第二词向量为 [0.2,0.3,……,0.9,0.8,0.7,……,0.4]。
407、将第一词向量和第二词向量输入至命名实体识别层,得到目标语句 中的命名实体;
本实施例中,在得到每个词分别对应的第一词向量和第二词向量之后, 该服务器将每个词分别对应的第一词向量和第二词向量输入至该命名实体识 别模型的命名实体识别层,得到该目标语句中的命名实体,即以词为单位, 将每个词对应的第一词向量和第二词向量输入至该命名实体识别层中的单向 长短期网络,得到每个词对应的隐含层输出,并将每个词对应的隐含层输出 输入到该命名实体识别层中的CRF网络,得到每个词的实体标签,从而完成 待识别语句中命名实体的识别。
本实施例中,第一词向量为词粒度下的语义信息表征,而第二词向量为 字粒度下的语义信息表征,为提高命名实体准确性,需要融合词粒度和字粒 度下的语义信息表征,具体地,以词为单位,将每个词对应的第一词向量和 第二词向量依次输入至该命名实体识别层中的向量拼接子层,得到每个词对 应的拼接词向量,然后将每个词对应的拼接词向量输入至该命名实体识别层 中的命名实体识别子层,得到该目标语句中的命名实体,即以词为单位,将 每个词对应的拼接词向量输入至命名实体识别子层中的单向长短期网络,得到每个词对应的隐含层输出,并将每个词对应的隐含层输出输入到该命名实 体识别子层中的CRF网络,得到每个词的实体标签,从而完成待识别语句中 命名实体的识别。其中,该命名实体识别层包括向量拼接子层和命名实体识 别子层,且命名实体识别子层由单向长短期网络和CRF网络组成。
408、将佛经原文、佛经原文的命名实体和佛学词典作为训练样本,输入 预置BERT模型进行学习,得到目标佛经注解模型。
本实施例中步骤401-402和408-409与第一实施例中的步骤101-102和 104-105类似,此处不再赘述。
本发明实施例中,获取佛经原文和佛经原文对应的注解内容,并对佛经 原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛学 字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文进 行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以及 佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解模 型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问 题,提升用户体验。
请参阅图5,本发明实施例中佛经注解模型训练方法的第五个实施例包 括:
501、获取佛经原文和佛经原文的注解内容;
502、对佛经原文进行分词处理,得到佛经原文的关键词,并确定关键词 对应的注解内容,生成佛学字典;
503、接收命名实体识别请求,并根据命名实体识别请求对佛经原文进行 识别,得到佛经原文的命名实体;
504、将佛经原文、佛经原文的命名实体和佛学词典作为训练样本输入预 置BERT模型的文本深度神经网络,并通过连续时间分类算法进行学习,得到 文本深度神经网络的网络参数;
本实施例中,训练样本是指用于学习的文本样本,即采用文本训练样本 训练深度学习模型,以确定深度学习模型的参数,从而提高深度学习模型的 文本分析的准确率。具体地,可以将佛经原文、佛经原文的命名实体和佛学 词典作为训练模型要用到的训练样本,也可以通过爬虫技术爬取从光明网, 弘善网等获取原始佛经原文,及其注解内容作为文本训练样本。
文本深度神经网络是用于对文本分析的深度学习神经网络,并且,通过 深度学习可以更好地利用文本的词序的特征。该文本深度神经网络可以是文 本卷积神经网络(Textin Convolutional Neural Network,TextCNN),也可 以是文本循环神经网络(TextinRecurrent Neural Network,TextRNN),还 可以是文本循环卷积神经网络(TextinRecurrent Convolutional Neural Networks,TextRCNN)。可选地,文本深度神经网络可从自然语言处理(Natural Lauguage processing,简称NLP)文本分类深度学习方法库中获取。其中,连 续时间分类(Connectionist temporal classification,简称CTC)算法,是一种完全端到端的声学模型训练的算法,不需要预先对训练样本做对齐,只 需要一个输入序列和一个输出序列即可训练。减少了繁琐的预处理操作,提 高了后续文本分析模型训练的效率。在一具体实施方式中,将文本训练样本 输入到文本卷积神经网络中进行训练,采用基于连续时间分类算法进行训练, 对文本卷积神经网络中的池化层反向传播,得到的最大值位置继承上层梯度、 其他位置置零的结果,即采用小批量梯度下降获取文本深度神经网络的网络 参数的方法,从而加快训练过程,提高网络参数的准确度。
其中,文本深度神经网络的网络参数是指文本神经网络的网络结构中各 个神经元的参数。用于确定文本神经网络的输出。
具体地,服务端获取文本训练样本后,将该文本训练样本作为文本神经 网络的输入,并进行训练学习,得到文本深度神经网络的网络参数。采用文 本深度神经网络,可以更好地利用文本训练样本自身的词序特征,使得文本 深度神经网络的网络参数更为准确。
505、使用激活函数对网络参数进行优化,得到目标网络参数;
本实施例中,激活函数(Activation Function),是指在人工神经网络的 神经元上运行的函数,负责将神经元的输入映射到输出端的函数。激活函数 可以是但不限于是Dropout激活函数、Sigmoid激活函数或者梯度加速激活函 数等。优选地,本实施例中采用梯度加速激活函数。
其中,目标网络参数是指对文本神经网络参数通过激活函数进行变换后 得到的,从而达到优化网络参数的效果。具体地,优化的网络参数即目标网 络参数使得网络更加健壮,进而使得后续文本分析模型收敛于平坦区域。可 以理解地,由于激活函数实现了降低神经网络复杂性的效果,并且加速了神 经网络的更新,具有较好的优化效果,有利于减少后续文本分析模型训练的 收敛时长。
506、通过目标网络参数对文本深度神经网络的网络参数进行更新,得到 初始佛经注解模型;
本实施例中,初始佛经注解模型是指对佛经相关的文本数据对应的文本 深度神经网络中进行训练得到的文本分析模型。具体地,将网络参数,根据 目标网络参数通过梯度下降算法更新网络参数,使用目标网络参数对文本深 度神经网络的网络参数进行更新,即在更新网络参数时,将训练过程中产生 的误差按预设批次分批累加,得到若干批次对应的累加误差,并采用该若干 批次对应的累加误差进行参数更新的处理,从而得到初始佛经注解模型。
可以理解地,由于深度学习不需要人工手动的提取文本的特征,它可以 自动的获取基础特征并组合为高级的特征,训练文本神经网络获得文本特征 与目标分类之间的关系,省去了使用TF-IDF等提取文本的关键词构建特征的 过程,实现了端到端。并且,深度学习还能够可以更好的利用文本中词序的 特征,从而有利于提高初始佛经注解模型的注解效果。
具体地,服务端获取训练样本后,将该训练样本作为文本神经网络的输 入,并进行训练学习,得到初始佛经注解模型。文本是由若干字体有序组成 的,因此采用文本神经网络能够较好地学习文本训练样本在序列上的深层特 征。
507、采用批标准化算法,对初始佛经注解模型进行批标准化处理,得到 目标佛经注解模型。
本实施例中,批标准化(Batch Normalization,简称BN)算法用于克服神 经网络层数加深导致难以训练而诞生的一个算法。根据ICS理论,当训练集 的样本数据和目标样本集分布不一致的时候,训练得到的模型无法很好的泛 化。对于初始佛经注解模型的神经网络,每一层的输入在经过层内操作之后, 会导致与原来对应的输入信号分布不同,并且前层神经网络的增加会被后面 的神经网络不对的累积放大。可以理解地,BN算法(批标准化)通过对初始佛 经注解模型进行矫正,进而规范化初始佛经注解模型各个网络层的输入,进 而固定每个网络层层输入信号的均值与方差。使得批标准化处理后的模型更 加稳定,并且得到优化模型性能的效果。
其中,目标佛经注解模型是指将初始佛经注解模型进行批标准化后得到 的模型,用于对佛经文本进行分析注解,获取准确率较高的佛经注解结果。 提高了目标佛经注解模型性能和模型训练效率。
本实施例中步骤501-503、508与第一实施例中的101-103、5类似,此 处不再赘述。
在本发明实施例中,获取佛经原文和佛经原文对应的注解内容,并对佛 经原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛 学字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文 进行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以 及佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解 模型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术 问题,提升用户体验。
请参阅图6,本发明实施例中佛经注解生成方法的一个实施例示意图包 括:
601、读取用户输入的原始佛经数据;
本实施例中,接收用户输入的原始佛经数据。此处的原始数据是指信众 在持诵佛教经典时遇到的深邃、奥妙的不那么通俗易懂的佛经原文。比如,“观 自在菩萨,行深般若波罗蜜多时,照见五蕴皆空,度一切苦厄”
602、通过目标佛经注解模型,对原始佛经数据进行佛经注解,得到佛经 注解语句;
本实施例中,通过目标佛经注解模型,对原始佛经数据进行佛经注解, 得到带有注解内容的佛经语句。比如,“舍利子,是诸法空相,不生不灭, 不垢不净,不增不减。是故空中无色,无受想行识,无眼耳鼻舌身意,无色 声香味触法,无眼界乃至无意识界,无无明亦无无明尽,乃至无老死,亦无 老死尽,无苦集灭道,无智亦无得”,其中,舍利子的注解内容为“菩萨对 学生舍利子说”;是诸法空相的注解内容为“所有的法则都会归集到空相, 宇宙”;不生不灭的注解内容为“无所谓出生和死亡”;是故空中无色的注 解内容为“因此空间是没有形相的”;无受想行识的注解内容为“也没有情 欲、意念、行为和心灵”;无眼界乃至无意识界的注解内容为“眼睛是看不 到它的界限的”无无明亦无无明尽的注解内容为“没有不能理解明白的,也 没有能够全部理解明白的”亦无老死尽的注解内容为“也没有老和死的尽头”; 无苦集灭道的注解内容为“没有痛苦的聚集以及修道的幻灭”等。
603、确定佛经注解语句中的关键词及与所述关键词对应的注解内容;
本实施例中,通过对原始佛经数据进行分词处理,得到佛经注解语句中 的关键词和关键词对应的注解内容,比如,无受想行识的注解内容为“也没 有情欲、意念、行为和心灵”;无眼界乃至无意识界的注解内容为“眼睛是 看不到它的界限的”无无明亦无无明尽的注解内容为“没有不能理解明白的, 也没有能够全部理解明白的”亦无老死尽的注解内容为“也没有老和死的尽 头”;无苦集灭道的注解内容为“没有痛苦的聚集以及修道的幻灭”等。
604、基于佛经注解语句中所有关键词对应的注解内容,输出原始佛经数 据的佛经注解。
本实施例中,根据佛经注解语句中所有关键词对应的注解内容,输出原 始佛经数据的佛经注解。比如,佛经“故知般若波罗蜜多,是大神咒,是大 明咒,是无上咒,是无等等咒,能除一切苦,真实不虚。故说般若波罗蜜多 咒,即说咒曰:揭谛揭谛波罗揭谛波罗僧揭谛菩提萨婆诃。”其中, 这段佛经的关键词对应的注解内容分别是:故知般若波罗蜜多:所以说心经; 是大神咒:是变幻莫测的咒语;是大明咒:是神光普照的咒语;是无上咒: 是无上的咒语;是无等等咒:是最高的咒语;能除一切苦:能除一切苦;真 实不虚:确确实实,效果显著;故说般若波罗蜜多咒:所以说心经;即说咒 曰:其咒语曰;揭谛揭谛:去吧,去吧;波罗揭谛:到彼岸去吧;波罗僧揭 谛:大家快去彼岸;菩提娑婆诃:正果就修成了。基于佛经注解语句中所有 关键词对应的注解内容,输出原始佛经数据的佛经注解。
本发明实施例中,通过目标佛经注解模型对读取的原始佛经数据进行佛 经注解,得到佛经注解语句;确定佛经注解语句中的关键词及与关键词对应 的注解内容,并基于佛经注解语句中所有关键词对应的注解内容,输出原始 佛经数据的佛经注解。其中,目标佛经注解模型的训练过程包括获取佛经原 文和佛经原文对应的注解内容,并对佛经原文进行分词处理,得到佛经原文 的关键词和关键词对应的注解,生成佛学字典;在接收到命名实体识别请求 时,通过命名实体识别请求对佛经原文进行识别,得到佛经原文的命名实体; 将佛经原文、佛经原文的命名实体以及佛学字典作为训练样本,输入预置BERT 模型进行训练学习,得到目标佛经注解模型。解决了佛经注解只能依赖于人 工手动注解,信众学习效率低下的技术问题,提升用户体验。
上面对本发明实施例中佛经注解模型训练方法和佛经注解生成方法进行 了描述,下面对本发明实施例中佛经注解模型训练装置进行描述,请参阅图7, 本发明实施例中佛经注解模型训练装置的第一个实施例包括:
获取模块701,用于获取佛经原文和所述佛经原文的注解内容;
分词模块702,用于对所述佛经原文进行分词处理,得到所述佛经原文的 关键词,并确定所述关键词对应的注解内容,生成佛学字典;
识别模块703,用于接收命名实体识别请求,并根据所述命名实体识别请 求对所述佛经原文进行识别,得到所述佛经原文的命名实体;
学习模块704,用于将所述佛经原文、所述佛经原文的命名实体和所述佛 学词典作为训练样本,输入预置BERT模型进行学习,得到目标佛经注解模型。
本发明实施例中,获取佛经原文和佛经原文对应的注解内容,并对佛经 原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛学 字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文进 行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以及 佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解模 型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问 题,提升用户体验。
请参阅图8,本发明实施例中佛经注解模型训练装置的第二个实施例,该 佛经注解模型训练装置具体包括:
获取模块701,用于获取佛经原文和所述佛经原文的注解内容;
分词模块702,用于对所述佛经原文进行分词处理,得到所述佛经原文的 关键词,并确定所述关键词对应的注解内容,生成佛学字典;
识别模块703,用于接收命名实体识别请求,并根据所述命名实体识别请 求对所述佛经原文进行识别,得到所述佛经原文的命名实体;
学习模块704,用于将所述佛经原文、所述佛经原文的命名实体和所述佛 学词典作为训练样本,输入预置BERT模型进行学习,得到目标佛经注解模型。
本实施例中,所述分词模块702包括:
获取单元7021,用于获取所述佛经原文中的文本数据,并对所述文本数 据进行分词处理,得到多个候选词;
切分单元7022,用于对与所述文本数据具有相同语义的标题进行切分, 得到多个字符;
提取单元7023,用于将所述多个候选词依次输入预置关键词提取模型, 得到各个候选词相对于各个字符的注意力权重,其中,所述注意力权重用于 表征每个候选词分别与各个字符的语义关联程度;
选择单元7024,用于从各个候选词中选择在所述标题中出现的目标候选 词;
确定单元7025,用于根据所述目标候选词相对于各个字符的注意力权重, 确定提取阈值;根据所述提取阈值,从所述各个候选词中确定出所述佛经原 文的关键词。
本实施例中,所述识别模块703具体用于:
接收命名实体识别请求,根据所述命名实体识别请求,确定所述佛经原 文中的待识别的目标语句,并调用预置命名实体识别模型,其中,所述命名 实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名 实体识别层;
将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分 别对应的第一词向量;
将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别 对应的目标字向量;
将所述目标字向量依次输入至所述双向长短期记忆网络层,得到所述目 标语句中的每个词分别对应的第二词向量;
将所述第一词向量和所述第二词向量输入至所述命名实体识别层,得到 所述目标语句中的命名实体。
本实施例中,所述学习模块704具体用于:
将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样 本输入预置BERT模型的文本深度神经网络,并通过连续时间分类算法进行学 习,得到所述文本深度神经网络的网络参数;
使用激活函数对所述网络参数进行优化,得到目标网络参数;
通过所述目标网络参数对所述文本深度神经网络的网络参数进行更新, 得到初始佛经注解模型;
采用批标准化算法,对所述初始佛经注解模型进行批标准化处理,得到 目标佛经注解模型。
本实施例中,所述佛经注解模型训练装置,还包括:
标注模块705,用于对语料样本进行预处理,得到字符序列样本,并对所 述字符序列样本标注命名实体标签,得到训练字符序列;
预训练模块706,用于基于预设的第一双向语言模型和第一自注意力机制 模型分别对所述训练字符序列进行预训练,获得所述训练字符序列对应的字 特征向量和字权重向量;基于预设的第二双向语言模型和第二自注意力机制 模型分别对所述训练字符序列进行预训练,获得所述训练字符序列对应的词 特征向量和词权重向量;
融合模块707,用于对所述训练字符序列对应的字特征向量和字权重向量 进行融合获得所述训练字符序列的第一上下文向量;对所述训练字符序列对 应的词特征向量和词权重向量进行融合获得所述训练字符序列的第二上下文 向量;
训练模块708,用于使用所述训练字符序列的第一上下文向量和第二上下 文向量对依次连接的双向神经网络和条件随机场进行,得到命名实体识别模 型。
本发明实施例中,获取佛经原文和佛经原文对应的注解内容,并对佛经 原文进行分词处理,得到佛经原文的关键词和关键词对应的注解,生成佛学 字典;在接收到命名实体识别请求时,通过命名实体识别请求对佛经原文进 行识别,得到佛经原文的命名实体;将佛经原文、佛经原文的命名实体以及 佛学字典作为训练样本,输入预置BERT模型进行训练学习,得到佛经注解模 型。解决了佛经注解只能依赖于人工手动注解,信众学习效率低下的技术问 题,提升用户体验。
请参阅图9,本发明实施例中佛经注解生成装置的一个实施例,该佛经注 解生成装置具体包括:
读取模块901,用于读取用户输入的原始佛经数据;
注解模块902,用于通过所述目标佛经注解模型,对所述原始佛经数据进 行佛经注解,得到佛经注解语句,其中,所述目标佛经注解模型通过以下方 式训练得到:获取佛经原文和所述佛经原文的注解内容;对所述佛经原文进 行分词处理,得到所述佛经原文的关键词,并确定所述关键词对应的注解内 容,生成佛学字典;接收命名实体识别请求,并根据所述命名实体识别请求 对所述佛经原文进行识别,得到所述佛经原文的命名实体;将所述佛经原文、 所述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到所述目标佛经注解模型;
确定模块903,用于确定所述佛经注解语句中的关键词及与所述关键词对 应的注解内容;
输出模块904,用于基于所述佛经注解语句中所有关键词对应的注解内 容,输出所述原始佛经数据的佛经注解。
本发明实施例中,通过目标佛经注解模型对读取的原始佛经数据进行佛 经注解,得到佛经注解语句;确定佛经注解语句中的关键词及与关键词对应 的注解内容,并基于佛经注解语句中所有关键词对应的注解内容,输出原始 佛经数据的佛经注解。其中,目标佛经注解模型的训练过程包括获取佛经原 文和佛经原文对应的注解内容,并对佛经原文进行分词处理,得到佛经原文 的关键词和关键词对应的注解,生成佛学字典;在接收到命名实体识别请求 时,通过命名实体识别请求对佛经原文进行识别,得到佛经原文的命名实体; 将佛经原文、佛经原文的命名实体以及佛学字典作为训练样本,输入预置BERT 模型进行训练学习,得到目标佛经注解模型。解决了佛经注解只能依赖于人 工手动注解,信众学习效率低下的技术问题,提升用户体验。
上面图7和图8和图9从模块化功能实体的角度对本发明实施例中的佛 经注解模型训练装置和佛经注解生成装置进行详细描述,下面从硬件处理的 角度对本发明实施例中计算机设备进行详细描述。
图10是本发明实施例提供的一种计算机设备的结构示意图,该计算机设 备800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上 处理器(centralprocessing units,CPU)810(例如,一个或一个以上处 理器)和存储器820,一个或一个以上存储应用程序833或数据832的存储介 质830(例如一个或一个以上海量存储设备)。其中,存储器820和存储介质 830可以是短暂存储或持久存储。存储在存储介质830的程序可以包括一个或 一个以上模块(图示没标出),每个模块可以包括对计算机设备800中的一系列指令操作。更进一步地,处理器810可以设置为与存储介质830通信, 在计算机设备800上执行存储介质830中的一系列指令操作,以实现上述各 方法实施例提供的佛经注解模型训练方法的步骤。
计算机设备800还可以包括一个或一个以上电源840,一个或一个以上有 线或无线网络接口850,一个或一个以上输入输出接口860,和/或,一个或 一个以上操作系统831,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD 等等。本领域技术人员可以理解,图10示出的计算机设备结构并不构成对本 申请提供的计算机设备的限定,可以包括比图示更多或更少的部件,或者组 合某些部件,或者不同的部件布置。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为 非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算 机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计 算机上运行时,使得计算机执行上述佛经注解模型训练方法的步骤。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算 法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中 心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块 中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下 一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务 层等。
所述领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描 述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应 过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售 或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本 发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的 全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个 存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机, 服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步 骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory, ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等 各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制; 尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应 当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其 中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案 的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种佛经注解模型训练方法,其特征在于,所述佛经注解模型训练方法包括:
获取佛经原文和所述佛经原文的注解内容;
对所述佛经原文进行分词处理,得到所述佛经原文的关键词,并确定所述关键词对应的注解内容,生成佛学字典;
接收命名实体识别请求,并根据所述命名实体识别请求对所述佛经原文进行识别,得到所述佛经原文的命名实体;
将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到目标佛经注解模型。
2.根据权利要求1所述的佛经注解模型训练方法,其特征在于,所述对所述佛经原文进行分词处理,得到所述佛经原文的关键词包括:
获取所述佛经原文中的文本数据,并对所述文本数据进行分词处理,得到多个候选词;
对与所述文本数据具有相同语义的标题进行切分,得到多个字符;
将所述多个候选词依次输入预置关键词提取模型,得到各个候选词相对于各个字符的注意力权重,其中,所述注意力权重用于表征每个候选词分别与各个字符的语义关联程度;
从各个候选词中选择在所述标题中出现的目标候选词;
根据所述目标候选词相对于各个字符的注意力权重,确定提取阈值;
根据所述提取阈值,从所述各个候选词中确定出所述佛经原文的关键词。
3.根据权利要求1所述的佛经注解模型训练方法,其特征在于,所述接收命名实体识别请求,并根据所述命名实体识别请求,对所述佛经原文进行识别,得到所述佛经原文的命名实体包括:
接收命名实体识别请求,根据所述命名实体识别请求,确定所述佛经原文中的待识别的目标语句,并调用预置命名实体识别模型,其中,所述命名实体识别模型至少包括词编码层、字编码层、双向长短期记忆网络层和命名实体识别层;
将所述目标语句输入至所述词编码层,得到所述目标语句中的每个词分别对应的第一词向量;
将所述目标语句输入所述字编码层,得到所述目标语句中的每个字分别对应的目标字向量;
将所述目标字向量依次输入至所述双向长短期记忆网络层,得到所述目标语句中的每个词分别对应的第二词向量;
将所述第一词向量和所述第二词向量输入至所述命名实体识别层,得到所述目标语句中的命名实体。
4.根据权利要求2或3所述的佛经注解模型训练方法,其特征在于,所述将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到目标佛经注解模型包括:
将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样本输入预置BERT模型的文本深度神经网络,并通过连续时间分类算法进行学习,得到所述文本深度神经网络的网络参数;
使用激活函数对所述网络参数进行优化,得到目标网络参数;
通过所述目标网络参数对所述文本深度神经网络的网络参数进行更新,得到初始佛经注解模型;
采用批标准化算法,对所述初始佛经注解模型进行批标准化处理,得到目标佛经注解模型。
5.根据权利要求4所述的佛经注解模型训练方法,其特征在于,在所述接收命名实体识别请求,并根据所述命名实体识别请求,对所述佛经原文进行识别,得到所述佛经原文的命名实体之前,还包括:
对语料样本进行预处理,得到字符序列样本,并对所述字符序列样本标注命名实体标签,得到训练字符序列;
基于预设的第一双向语言模型和第一自注意力机制模型分别对所述训练字符序列进行预训练,获得所述训练字符序列对应的字特征向量和字权重向量;
基于预设的第二双向语言模型和第二自注意力机制模型分别对所述训练字符序列进行预训练,获得所述训练字符序列对应的词特征向量和词权重向量;
对所述训练字符序列对应的字特征向量和字权重向量进行融合获得所述训练字符序列的第一上下文向量;
对所述训练字符序列对应的词特征向量和词权重向量进行融合获得所述训练字符序列的第二上下文向量;
使用所述训练字符序列的第一上下文向量和第二上下文向量对依次连接的双向神经网络和条件随机场进行训练,得到命名实体识别模型。
6.一种佛经注解生成方法,其特征在于,所述佛经注解生成方法包括:
读取用户输入的原始佛经数据;
通过所述目标佛经注解模型,对所述原始佛经数据进行佛经注解,得到佛经注解语句,其中,所述目标佛经注解模型通过以下方式训练得到:获取佛经原文和所述佛经原文的注解内容;对所述佛经原文进行分词处理,得到所述佛经原文的关键词,并确定所述关键词对应的注解内容,生成佛学字典;接收命名实体识别请求,并根据所述命名实体识别请求对所述佛经原文进行识别,得到所述佛经原文的命名实体;将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到所述目标佛经注解模型;
确定所述佛经注解语句中的关键词及与所述关键词对应的注解内容;
基于所述佛经注解语句中所有关键词对应的注解内容,输出所述原始佛经数据的佛经注解。
7.一种佛经注解模型训练装置,其特征在于,所述佛经注解模型训练装置包括:
获取模块,用于获取佛经原文和所述佛经原文的注解内容;
分词模块,用于对所述佛经原文进行分词处理,得到所述佛经原文的关键词,并确定所述关键词对应的注解内容,生成佛学字典;
识别模块,用于接收命名实体识别请求,并根据所述命名实体识别请求对所述佛经原文进行识别,得到所述佛经原文的命名实体;
学习模块,用于将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到目标佛经注解模型。
8.一种佛经注解生成装置,其特征在于,所述佛经注解生成装置包括:
读取模块,用于读取用户输入的原始佛经数据;
注解模块,用于通过所述目标佛经注解模型,对所述原始佛经数据进行佛经注解,得到佛经注解语句,其中,所述目标佛经注解模型通过以下方式训练得到:获取佛经原文和所述佛经原文的注解内容;对所述佛经原文进行分词处理,得到所述佛经原文的关键词,并确定所述关键词对应的注解内容,生成佛学字典;接收命名实体识别请求,并根据所述命名实体识别请求对所述佛经原文进行识别,得到所述佛经原文的命名实体;将所述佛经原文、所述佛经原文的命名实体和所述佛学词典作为训练样本,输入预置BERT模型进行学习,得到所述目标佛经注解模型;
确定模块,用于确定所述佛经注解语句中的关键词及与所述关键词对应的注解内容;
输出模块,用于基于所述佛经注解语句中所有关键词对应的注解内容,输出所述原始佛经数据的佛经注解。
9.一种计算机设备,其特征在于,所述计算机设备包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述计算机设备执行如权利要求1-5中任意一项所述的佛经注解模型训练方法,或者,执行如权利要求6所述的佛经注解生成方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-5中任意一项所述佛经注解模型训练方法的步骤,或者,执行如权利要求6所述的佛经注解生成方法。
CN202110285891.XA 2021-03-17 2021-03-17 佛经注解模型训练方法、佛经注解生成方法及相关设备 Withdrawn CN113011141A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110285891.XA CN113011141A (zh) 2021-03-17 2021-03-17 佛经注解模型训练方法、佛经注解生成方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110285891.XA CN113011141A (zh) 2021-03-17 2021-03-17 佛经注解模型训练方法、佛经注解生成方法及相关设备

Publications (1)

Publication Number Publication Date
CN113011141A true CN113011141A (zh) 2021-06-22

Family

ID=76409211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110285891.XA Withdrawn CN113011141A (zh) 2021-03-17 2021-03-17 佛经注解模型训练方法、佛经注解生成方法及相关设备

Country Status (1)

Country Link
CN (1) CN113011141A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569533A (zh) * 2021-09-26 2021-10-29 南京复保科技有限公司 保险内容标注方法、系统、计算机设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778110A (zh) * 2012-10-25 2014-05-07 三星电子(中国)研发中心 简繁体汉字的转换方法及系统
CN108009160A (zh) * 2017-11-30 2018-05-08 北京金山安全软件有限公司 含有命名实体的语料翻译方法、装置、电子设备及存储介质
CN109977394A (zh) * 2018-12-10 2019-07-05 平安科技(深圳)有限公司 文本模型训练方法、文本分析方法、装置、设备及介质
CN110232183A (zh) * 2018-12-07 2019-09-13 腾讯科技(深圳)有限公司 关键词提取模型训练方法、关键词提取方法、装置及存储介质
CN110298019A (zh) * 2019-05-20 2019-10-01 平安科技(深圳)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
CN110705294A (zh) * 2019-09-11 2020-01-17 苏宁云计算有限公司 命名实体识别模型训练方法、命名实体识别方法及装置
CN111563383A (zh) * 2020-04-09 2020-08-21 华南理工大学 一种基于BERT与SemiCRF的中文命名实体识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778110A (zh) * 2012-10-25 2014-05-07 三星电子(中国)研发中心 简繁体汉字的转换方法及系统
CN108009160A (zh) * 2017-11-30 2018-05-08 北京金山安全软件有限公司 含有命名实体的语料翻译方法、装置、电子设备及存储介质
CN110232183A (zh) * 2018-12-07 2019-09-13 腾讯科技(深圳)有限公司 关键词提取模型训练方法、关键词提取方法、装置及存储介质
CN109977394A (zh) * 2018-12-10 2019-07-05 平安科技(深圳)有限公司 文本模型训练方法、文本分析方法、装置、设备及介质
CN110298019A (zh) * 2019-05-20 2019-10-01 平安科技(深圳)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
CN110705294A (zh) * 2019-09-11 2020-01-17 苏宁云计算有限公司 命名实体识别模型训练方法、命名实体识别方法及装置
CN111563383A (zh) * 2020-04-09 2020-08-21 华南理工大学 一种基于BERT与SemiCRF的中文命名实体识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569533A (zh) * 2021-09-26 2021-10-29 南京复保科技有限公司 保险内容标注方法、系统、计算机设备及存储介质
CN113569533B (zh) * 2021-09-26 2022-02-18 南京复保科技有限公司 保险内容标注方法、系统、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
US11501182B2 (en) Method and apparatus for generating model
CN108628823B (zh) 结合注意力机制和多任务协同训练的命名实体识别方法
CN109885672B (zh) 一种面向在线教育的问答式智能检索系统及方法
CN117033608A (zh) 一种基于大语言模型的知识图谱生成式问答方法及系统
EP3926531B1 (en) Method and system for visio-linguistic understanding using contextual language model reasoners
CN113821605B (zh) 一种事件抽取方法
Sifa et al. Towards contradiction detection in german: a translation-driven approach
CN111274829A (zh) 一种利用跨语言信息的序列标注方法
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN112818106A (zh) 一种生成式问答的评价方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
Chandiok et al. CIT: Integrated cognitive computing and cognitive agent technologies based cognitive architecture for human-like functionality in artificial systems
CN114781375A (zh) 一种基于bert与注意力机制的军事装备关系抽取方法
Zhu Machine reading comprehension: algorithms and practice
US20220147719A1 (en) Dialogue management
CN113641809A (zh) 一种基于XLNet-BiGRU-CRF的智能问答方法
CN110909174B (zh) 一种基于知识图谱的简单问答中实体链接的改进方法
CN114372454A (zh) 文本信息抽取方法、模型训练方法、装置及存储介质
CN113011141A (zh) 佛经注解模型训练方法、佛经注解生成方法及相关设备
Hughes Automatic inference of causal reasoning chains from student essays
CN116757195A (zh) 一种基于提示学习的隐性情感识别方法
CN116306653A (zh) 一种正则化领域知识辅助的命名实体识别方法
CN113468311B (zh) 一种基于知识图谱的复杂问句问答方法、装置及存储介质
Karpagam et al. Deep learning approaches for answer selection in question answering system for conversation agents
CN115510230A (zh) 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210622

WW01 Invention patent application withdrawn after publication