CN113515938B - 语言模型训练方法、装置、设备及计算机可读存储介质 - Google Patents
语言模型训练方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113515938B CN113515938B CN202110517845.8A CN202110517845A CN113515938B CN 113515938 B CN113515938 B CN 113515938B CN 202110517845 A CN202110517845 A CN 202110517845A CN 113515938 B CN113515938 B CN 113515938B
- Authority
- CN
- China
- Prior art keywords
- data set
- mask
- training
- word
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 303
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000013598 vector Substances 0.000 claims abstract description 145
- 238000012545 processing Methods 0.000 claims abstract description 103
- 230000011218 segmentation Effects 0.000 claims description 54
- 230000000873 masking effect Effects 0.000 claims description 44
- 238000004140 cleaning Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能技术,揭露一种语言模型训练方法,包括:对训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,得到待用预训练数据集;将待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集;将以句向量表示的预训练数据集输入语言模型中,对语言模型进行模型推理迭代训练,当满足预设模型训练完成条件时,完成对所述语言模型的训练。本发明还涉及区块链技术,训练数据集存储于区块链中。本发明能够解决现有技术中,目前的模型训练方式得到的模型不能学习到中文语义层面的信息以及中文实体关系的信息,模型对名词的敏感度以及精确度低等问题。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种语言模型训练的方法、装置、电子设备及计算机可读存储介质。
背景技术
预训练模型是人工智能NLP领域最重要的发展方向之一。近年来,各种各样的大体量预训练模型陆续出现在大家的眼前,比如BERT,RoBERTa,XLNET等等。
目前的语言模型的训练方式是随机掩盖15%的基本语言单元,并使用句子中的其他基本单元作为输入,来训练一个任务来预测掩盖单元。在处理中文语言的时候,只能通过预测汉字来进行建模,这样模型并学不到中文单词和实体的完整语义。比如对于“北京是中国的首都”的训练语料,使用目前的训练方式,模型只能通过字的共现关系很推出“北”字后面是“京”字,而“北京”这个词包含着实体连续的含义,如果只mask(掩码)一部分,则没有显式地对“北京”这个语义概念以及对应语义关系进行建模,这样并不能学习中国-首都-北京之间的实体关系。
发明内容
本发明提供一种语言模型训练方法、装置、电子设备及计算机可读存储介质,其主要目的在于能够解决现有技术中,目前的模型训练方式得到的模型不能学习到中文语义层面的信息以及中文实体关系的信息,模型对名词的敏感度以及精确度低等问题。
第一方面,为实现上述目的,本发明提供的一种语言模型训练方法,所述方法包括:
对获取的初始训练数据进行清洗预处理,得到训练数据集;
通过掩码模型对所述训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集;
其中,所述掩码模型包括用于输入所述训练数据集的输入层、用于对所述训练数据集进行字层面掩码处理的字掩码层、用于对所述训练数据集进行短语层面掩码处理的短语掩码层、用于对所述训练数据集进行实体层面掩码处理的实体掩码层、用于对所述训练数据集进行词性层面掩码处理的词性掩码层和用于将所述字掩码层得到的字层面掩码信息数据集、所述短语掩码层得到的短语层面掩码信息数据集、所述实体掩码层得到的实体层面掩码信息数据集和所述词性掩码层得到的词性层面掩码信息数据集共同作为待用预训练数据集输出的输出层;将所述待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集;
将所述以句向量表示的预训练数据集输入语言模型中,对所述语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练,当满足预设模型训练完成条件时,完成对所述语言模型的训练。
第二方面,为了解决上述问题,本发明还提供一种语言模型训练装置,所述装置包括:
数据清洗模块,用于对获取的初始训练数据进行清洗预处理,得到训练数据集;
掩码处理模块,用于通过掩码模型对所述训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集;
其中,所述掩码模型包括用于输入所述训练数据集的输入层、用于对所述训练数据集进行字层面掩码处理的字掩码层、用于对所述训练数据集进行短语层面掩码处理的短语掩码层、用于对所述训练数据集进行实体层面掩码处理的实体掩码层、用于对所述训练数据集进行词性层面掩码处理的词性掩码层和用于将所述字掩码层得到的字层面掩码信息数据集、所述短语掩码层得到的短语层面掩码信息数据集、所述实体掩码层得到的实体层面掩码信息数据集和所述词性掩码层得到的词性层面掩码信息数据集共同作为待用预训练数据集输出的输出层;
句向量处理模块,用于将所述待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集;
推理迭代训练模块,用于将所述以句向量表示的预训练数据集输入语言模型中,对所述语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练,当满足预设模型训练完成条件时,完成对所述语言模型的训练。
第三方面,为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的语言模型训练方法的步骤。
第四方面,为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的语言模型训练方法。
本发明提出的语言模型训练方法、装置、电子设备及计算机可读存储介质,通过对训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集,对语言模型进行训练,使训练后的语言模型学习到大量的中文语义层面的信息以及中文实体关系的信息,加入词性掩码策略,让模型对名词更加具有敏感度,进一步增加语言模型的精确度。
附图说明
图1为本发明一实施例提供的语言模型训练方法的流程示意图;
图2为本发明一实施例提供的语言模型训练装置的模块示意图;
图3为本发明一实施例提供的实现语言模型训练方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种语言模型训练方法。参照图1所示,为本发明一实施例提供的语言模型训练方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,语言模型训练方法包括:
步骤S110、对获取的初始训练数据进行清洗预处理,得到训练数据集。
具体的,当处理器接收到进行语言模型训练的指令时,从文本数据库中获取初始训练数据,由于初始训练数据中可能存在一些特殊符号、数字、以及一些特殊格式会影响后续的模型训练,因此,需要对初始训练数据进行清洗预处理;其中,对获取的初始训练数据进行清洗预处理,得到训练数据集包括:对获取的初始训练数据中的样本进行数字清洗处理,得到除去数字的训练数据集;对除去数字的训练数据集中的样本进行特殊符号清洗处理,得到除去特殊符号的训练数据集;对除去特殊符号的训练数据集中的样本进行格式清洗处理,得到训练数据集。
步骤S120、通过掩码模型对训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集。
其中,掩码模型包括用于输入训练数据集的输入层、用于对训练数据集进行字层面掩码处理的字掩码层、用于对训练数据集进行短语层面掩码处理的短语掩码层、用于对训练数据集进行实体层面掩码处理的实体掩码层、用于对训练数据集进行词性层面掩码处理的词性掩码层和用于将字掩码层得到的字层面掩码信息数据集、短语掩码层得到的短语层面掩码信息数据集、实体掩码层得到的实体层面掩码信息数据集和词性掩码层得到的词性层面掩码信息数据集共同作为待用预训练数据集输出的输出层。具体的,目前对语言模型训练一般仅仅是基于字词层面的模型训练,训练后得到语言模型的准确性较低。本发明通过对训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,得到的待用预训练数据集训练得到的语言模型对实体、名词更具有敏感度,从而提高了语言模型的精确度。
作为本发明的一个可选实施例,训练数据集存储于区块链中,对训练数据集中的文本进行字层面掩码,得到字层面掩码信息数据集包括:
随机提取训练数据集中文本的单个字,作为预测字;
对预测字进行掩码处理,得到字层面掩码信息数据集;其中,字层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测字。
具体的,从文本中随机提取单个字,作为预测字,以“北京是中国的首都”的文本为例,可以对该文本中的“京”、“的”和“首”作为待测字,进行掩码处理,得到字层面掩码信息数据集,字层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测字,即“北京是中国的首都”以及“京”、“的”和“首”是该文本的掩码处理的预测字。当对语言模型进行训练时,通过掩码处理的预测字的前后的字进行推理,最终推测出预测字。例如,根据“北”推测出后面的“京”。
作为本发明的一个可选实施例,对训练数据集中的文本进行短语层面掩码,得到短语层面掩码信息数据集包括:
对训练数据集中的文本进行分词处理,得到第一文本分词数据集;
随机提取第一文本分词数据集中的短语,作为预测短语;
对预测短语进行掩码处理,得到短语层面掩码信息数据集;其中,短语层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测短语。
具体的,先对训练数据集中的文本或句子进行分词,分词工具会把句子相邻的字分成短语,这样可以获得较大的语义信息,得到第一文本分词数据集,从中随机提取词语,作为预测短语;同样以“北京是中国的首都”的文本为例,分词后提取“北京”“首都”作为预测短语,对“北京”和“首都”进行掩码处理,得到短语层面掩码信息数据集,其中,短语层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测短语,即“北京是中国的首都”和“北京”、“首都”是该文本的掩码处理的预测短语。当对语言模型进行训练时,通过掩码处理的预测短语的前后的短语进行推理,最终推测出预测短语。例如,根据“中国”推测出后面的“北京”、“首都”。
作为本发明的一个可选实施例,对训练数据集中的文本进行实体层面掩码,得到实体层面掩码信息数据集包括:
对训练数据集中的文本进行分词处理,得到第二文本分词数据集;
采用中文命名实体识别工具抽取所述第二文本分词数据集中的实体,作为预测实体;
对预测实体进行掩码处理,得到实体层面掩码信息数据集;其中,实体层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测实体。
具体的,先把文本或句子用中文命名实体识别工具获取人名,地名,组织等其他实体,这些实体在句子中包含重要的信息,其中,中文命名实体识别工具可以为LTP、PyHanlp、Lac等。同样以“北京是中国的首都”的文本为例,抽取“北京”和“中国”作为预测实体,掩码处理后,得到实体层面掩码信息数据集;其中,实体层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测实体,即“北京是中国的首都”和“北京”、“中国”是该文本的掩码处理的预测实体,通过“首都”推测出“北京是中国的首都”。
作为本发明的一个可选实施例,对训练数据集中的文本进行词性层面掩码,得到词性层面掩码信息数据集包括:
对训练数据集中的文本进行分词处理,得到第三文本分词数据集;
对第三文本分词数据集中的名词进行标注,得到标注名词集;
从标注名词集中随机抽取标注的名词作为预测名词;
对预测名词进行掩码处理,得到词性层面掩码信息数据集;其中,词性层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测名词。
具体的,词性是句子的重要组成部分,先对句子进行词性分析,然后对名词词性的词语进行掩码,这样可以让模型学习到词性相关的信息。同样以“北京是中国的首都”的文本为例,将“北京”“中国”和“首都”抽取标注,作为预测名词,通过训练后得到的语言模型,能够推理出名词之间的相互关系,例如,当出现“北京”和“中国”时,推测出“首都”。
步骤S130、将待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集。
具体的,机器语言学习中,计算机只识得向量,而无法了解文字,词向量是单词的语义。因此,需要将待用预训练数据集中的文本以句向量的形式表示出来,然后得到以句向量表示的预训练数据集,用以句向量表示的预训练数据集进行语言模型训练。
作为本发明的一个可选实施例,将待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集包括:
对待用预训练数据集中的文本进行分词处理,得到分词数据集;
根据预设词向量对照表,将分词数据集中的词语进行词向量转化处理,得到词向量数据集;
根据预训练数据集中的文本中的语句,将词向量数据集中的词向量处理为句向量,得到以句向量表示的预训练数据集。
具体的,预设词向量对照表为预先训练好的,通过将分词后得到的分词数据集中的词语与预设词向量对照表中的词语进行比对,得到相应的词向量,根据句向量计算公式计算后得到以句向量表示的预训练数据集。其中,句向量计算公式可为组成句子的各词向量加和后除以组成句子的词语数量。
步骤S140、将以句向量表示的预训练数据集输入语言模型中,对语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练,当满足预设模型训练完成条件时,完成对语言模型的训练。
具体的,通过将以句向量表示的预训练数据集输入语言模型中进行迭代推理训练,一般是在语言模型的编码层(编码层包括self-attention自我注意力层+Feed ForwardNeural Network前馈神经网络层)中进行,当满足预设模型训练完成条件时,即满足模型收敛的条件,完成对语言模型的训练。
作为本发明的一个可选实施例,预设模型训练完成条件为:
当对语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练过程中计算得到的预测掩码向量的损失值与预测下一相邻句子的损失值之和达到最低值时,完成对语言模型的训练;其中,预测掩码向量包括预测字掩码对应向量、预测词语掩码对应向量、预测实体掩码对应向量和预测词性掩码对应向量。
具体的,在迭代推理训练的过程中,每一次迭代都需要计算MLM任务(MaskedLanguage Model)即预测掩码向量的损失值和NSP(Next Sentence Prediction)任务即预测下一相邻句子的损失值之和。当两者的损失之后达到迭代过程中的最低时,则满足模型收敛的条件,即满足预设模型训练完成条件,完成对语言模型的训练。其中,损失值的计算方法为:loss=label*log(pred)+(1-label)*log(1-pred),其中label是真实值,pred是语言模型迭代推理训练过程得到的预测值,loss是每次迭代推理中的损失函数。
如图2所示,是本发明一个实施例的语言模型训练装置的功能模块图。
本发明所述语言模型训练装置200可以安装于电子设备中。根据实现的功能,所述语言模型训练装置可以包括数据清洗模块210、掩码处理模块220、句向量处理模块230、推理迭代训练模块240。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
数据清洗模块210,用于对获取的初始训练数据进行清洗预处理,得到训练数据集。
具体的,当处理器接收到进行语言模型训练的指令时,从文本数据库中获取初始训练数据,由于初始训练数据中可能存在一些特殊符号、数字、以及一些特殊格式会影响后续的模型训练,因此,需要对初始训练数据进行清洗预处理;其中,对获取的初始训练数据进行清洗预处理,得到训练数据集包括:对获取的初始训练数据中的样本进行数字清洗处理,得到除去数字的训练数据集;对除去数字的训练数据集中的样本进行特殊符号清洗处理,得到除去特殊符号的训练数据集;对除去特殊符号的训练数据集中的样本进行格式清洗处理,得到训练数据集。
掩码处理模块220,用于通过掩码模型对训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集。
其中,掩码模型包括用于输入训练数据集的输入层、用于对训练数据集进行字层面掩码处理的字掩码层、用于对训练数据集进行短语层面掩码处理的短语掩码层、用于对训练数据集进行实体层面掩码处理的实体掩码层、用于对训练数据集进行词性层面掩码处理的词性掩码层和用于将字掩码层得到的字层面掩码信息数据集、短语掩码层得到的短语层面掩码信息数据集、实体掩码层得到的实体层面掩码信息数据集和词性掩码层得到的词性层面掩码信息数据集共同作为待用预训练数据集输出的输出层。
具体的,目前对语言模型训练一般仅仅是基于字词层面的模型训练,训练后得到语言模型的准确性较低。本发明通过对训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,得到的待用预训练数据集训练得到的语言模型对实体、名词更具有敏感度,从而提高了语言模型的精确度。
作为本发明的一个可选实施例,训练数据集存储于区块链中,对训练数据集中的文本进行字层面掩码,得到字层面掩码信息数据集包括:
随机提取训练数据集中文本的单个字,作为预测字;
对预测字进行掩码处理,得到字层面掩码信息数据集;其中,字层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测字。
具体的,从文本中随机提取单个字,作为预测字,以“北京是中国的首都”的文本为例,可以对该文本中的“京”、“的”和“首”作为待测字,进行掩码处理,得到字层面掩码信息数据集,字层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测字,即“北京是中国的首都”以及“京”、“的”和“首”是该文本的掩码处理的预测字。当对语言模型进行训练时,通过掩码处理的预测字的前后的字进行推理,最终推测出预测字。例如,根据“北”推测出后面的“京”。
作为本发明的一个可选实施例,对训练数据集中的文本进行短语层面掩码,得到短语层面掩码信息数据集包括:
对训练数据集中的文本进行分词处理,得到第一文本分词数据集;
随机提取第一文本分词数据集中的短语,作为预测短语;
对预测短语进行掩码处理,得到短语层面掩码信息数据集;其中,短语层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测短语。
具体的,先对训练数据集中的文本或句子进行分词,分词工具会把句子相邻的字分成短语,这样可以获得较大的语义信息,得到第一文本分词数据集,从中随机提取词语,作为预测短语;同样以“北京是中国的首都”的文本为例,分词后提取“北京”“首都”作为预测短语,对“北京”和“首都”进行掩码处理,得到短语层面掩码信息数据集,其中,短语层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测短语,即“北京是中国的首都”和“北京”、“首都”是该文本的掩码处理的预测短语。当对语言模型进行训练时,通过掩码处理的预测短语的前后的短语进行推理,最终推测出预测短语。例如,根据“中国”推测出后面的“北京”、“首都”。
作为本发明的一个可选实施例,对训练数据集中的文本进行实体层面掩码,得到实体层面掩码信息数据集包括:
对训练数据集中的文本进行分词处理,得到第二文本分词数据集;
采用中文命名实体识别工具抽取所述第二文本分词数据集中的实体,作为预测实体;
对预测实体进行掩码处理,得到实体层面掩码信息数据集;其中,实体层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测实体。
具体的,先把文本或句子用中文命名实体识别工具获取人名,地名,组织等其他实体,这些实体在句子中包含重要的信息,其中,中文命名实体识别工具可LTP、PyHanlp、Lac等。同样以“北京是中国的首都”的文本为例,抽取“北京”和“中国”作为预测实体,掩码处理后,得到实体层面掩码信息数据集;其中,实体层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测实体,即“北京是中国的首都”和“北京”、“中国”是该文本的掩码处理的预测实体,通过“首都”推测出“北京是中国的首都”。
作为本发明的一个可选实施例,对训练数据集中的文本进行词性层面掩码,得到词性层面掩码信息数据集包括:
对训练数据集中的文本进行分词处理,得到第三文本分词数据集;
对第三文本分词数据集中的名词进行标注,得到标注名词集;
从标注名词集中随机抽取标注的名词作为预测名词;
对预测名词进行掩码处理,得到词性层面掩码信息数据集;其中,词性层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测名词。
具体的,词性是句子的重要组成部分,先对句子进行词性分析,然后对名词词性的词语进行掩码,这样可以让模型学习到词性相关的信息。同样以“北京是中国的首都”的文本为例,将“北京”“中国”和“首都”抽取标注,作为预测名词,通过训练后得到的语言模型,能够推理出名词之间的相互关系,例如,当出现“北京”和“中国”时,推测出“首都”。
句向量处理模块230,用于将待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集。
具体的,机器语言学习中,计算机只识得向量,而无法了解文字,词向量是单词的语义。因此,需要将待用预训练数据集中的文本以句向量的形式表示出来,然后得到以句向量表示的预训练数据集,用以句向量表示的预训练数据集进行语言模型训练。
作为本发明的一个可选实施例,将待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集包括:
对待用预训练数据集中的文本进行分词处理,得到分词数据集;
根据预设词向量对照表,将分词数据集中的词语进行词向量转化处理,得到词向量数据集;
根据预训练数据集中的文本中的语句,将词向量数据集中的词向量处理为句向量,得到以句向量表示的预训练数据集。
具体的,预设词向量对照表为预先训练好的,通过将分词后得到的分词数据集中的词语与预设词向量对照表中的词语进行比对,得到相应的词向量,根据句向量计算公式计算后得到以句向量表示的预训练数据集。其中,句向量计算公式可为组成句子的各词向量加和后除以组成句子的词语数量。
推理迭代训练模块240,用于将以句向量表示的预训练数据集输入语言模型中,对语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练,当满足预设模型训练完成条件时,完成对语言模型的训练。
具体的,通过将以句向量表示的预训练数据集输入语言模型中进行迭代推理训练,一般是在语言模型的编码层(编码层包括self-attention自我注意力层+Feed ForwardNeural Network前馈神经网络层)中进行,当满足预设模型训练完成条件时,即满足模型收敛的条件,完成对语言模型的训练。
作为本发明的一个可选实施例,预设模型训练完成条件为:
当对语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练过程中计算得到的预测掩码向量的损失值与预测下一相邻句子的损失值之和达到最低值时,完成对语言模型的训练;其中,预测掩码向量包括预测字掩码对应向量、预测词语掩码对应向量、预测实体掩码对应向量和预测词性掩码对应向量。
具体的,在迭代推理训练的过程中,每一次迭代都需要计算MLM任务(MaskedLanguage Model)即预测掩码向量的损失值和NSP(Next Sentence Prediction)任务即预测下一相邻句子的损失值之和。当两者的损失之后达到迭代过程中的最低时,则满足模型收敛的条件,即满足预设模型训练完成条件,完成对语言模型的训练。其中,损失值的计算方法为:loss=label*log(pred)+(1-label)*log(1-pred),其中label是真实值,pred是语言模型迭代推理训练过程得到的预测值,loss是每次迭代推理中的损失函数。
如图3所示,是本发明一个实施例实现语言模型训练方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语言模型训练程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如语言模型训练程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如语言模型训练程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的语言模型训练程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
对获取的初始训练数据进行清洗预处理,得到训练数据集;
通过掩码模型对训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集;
其中,掩码模型包括用于输入训练数据集的输入层、用于对训练数据集进行字层面掩码处理的字掩码层、用于对训练数据集进行短语层面掩码处理的短语掩码层、用于对训练数据集进行实体层面掩码处理的实体掩码层、用于对训练数据集进行词性层面掩码处理的词性掩码层和用于将字掩码层得到的字层面掩码信息数据集、短语掩码层得到的短语层面掩码信息数据集、实体掩码层得到的实体层面掩码信息数据集和词性掩码层得到的词性层面掩码信息数据集共同作为待用预训练数据集输出的输出层。
将待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集;
将以句向量表示的预训练数据集输入语言模型中,对语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练,当满足预设模型训练完成条件时,完成对语言模型的训练。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述训练数据集的私密和安全性,上述训练数据集还可以存储于一区块链的节点中。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (8)
1.一种语言模型训练方法,应用于电子装置,其特征在于,所述方法包括:
对获取的初始训练数据进行清洗预处理,得到训练数据集;
通过掩码模型对所述训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集;
其中,所述掩码模型包括用于输入所述训练数据集的输入层、用于对所述训练数据集进行字层面掩码处理的字掩码层、用于对所述训练数据集进行短语层面掩码处理的短语掩码层、用于对所述训练数据集进行实体层面掩码处理的实体掩码层、用于对所述训练数据集进行词性层面掩码处理的词性掩码层和用于将所述字掩码层得到的字层面掩码信息数据集、所述短语掩码层得到的短语层面掩码信息数据集、所述实体掩码层得到的实体层面掩码信息数据集和所述词性掩码层得到的词性层面掩码信息数据集共同作为待用预训练数据集输出的输出层;
将所述待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集;其中,得到以句向量表示的预训练数据集的步骤包括:对所述待用预训练数据集中的文本进行分词处理,得到分词数据集;根据预设词向量对照表,将所述分词数据集中的词语进行词向量转化处理,得到词向量数据集;根据所述预训练数据集中的文本中的语句,将所述词向量数据集中的词向量处理为句向量,得到以句向量表示的预训练数据集;
将所述以句向量表示的预训练数据集输入语言模型中,对所述语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练,当满足预设模型训练完成条件时,完成对所述语言模型的训练;其中,所述预设模型训练完成条件为:
当对所述语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练过程中计算得到的预测掩码向量的损失值与预测下一相邻句子的损失值之和达到最低值时,完成对所述语言模型的训练;其中,所述预测掩码向量包括预测字掩码对应向量、预测词语掩码对应向量、预测实体掩码对应向量和预测词性掩码对应向量。
2.根据权利要求1所述的语言模型训练方法,其特征在于,所述训练数据集存储于区块链中,所述对所述训练数据集中的文本进行字层面掩码,得到字层面掩码信息数据集包括:
随机提取所述训练数据集中文本的单个字,作为预测字;
对所述预测字进行掩码处理,得到字层面掩码信息数据集;其中,所述字层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测字。
3.根据权利要求1所述的语言模型训练方法,其特征在于,所述对所述训练数据集中的文本进行短语层面掩码,得到短语层面掩码信息数据集包括:
对所述训练数据集中的文本进行分词处理,得到第一文本分词数据集;
随机提取所述第一文本分词数据集中的短语,作为预测短语;
对所述预测短语进行掩码处理,得到短语层面掩码信息数据集;其中,所述短语层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测短语。
4.根据权利要求1所述的语言模型训练方法,其特征在于,所述对所述训练数据集中的文本进行实体层面掩码,得到实体层面掩码信息数据集包括:
对所述训练数据集中的文本进行分词处理,得到第二文本分词数据集;
采用中文命名实体识别工具抽取所述第二文本分词数据集中的实体,作为预测实体;
对所述预测实体进行掩码处理,得到实体层面掩码信息数据集;其中,所述实体层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测实体。
5.根据权利要求1所述的语言模型训练方法,其特征在于,所述对所述训练数据集中的文本进行词性层面掩码,得到词性层面掩码信息数据集包括:
对所述训练数据集中的文本进行分词处理,得到第三文本分词数据集;
对所述第三文本分词数据集中的名词进行标注,得到标注名词集;
从所述标注名词集中随机抽取标注的名词作为预测名词;
对所述预测名词进行掩码处理,得到词性层面掩码信息数据集;其中,所述词性层面掩码信息数据集包括训练数据集中的文本和进行掩码处理的预测名词。
6.一种语言模型训练装置,其特征在于,所述装置包括:
数据清洗模块,用于对获取的初始训练数据进行清洗预处理,得到训练数据集;
掩码处理模块,用于通过掩码模型对所述训练数据集中的文本分别进行字层面掩码、短语层面掩码、实体层面掩码和词性层面掩码处理,将分别得到的字层面掩码信息数据集、短语层面掩码信息数据集、实体层面掩码信息数据集和词性层面掩码信息数据集共同作为待用预训练数据集;
其中,所述掩码模型包括用于输入所述训练数据集的输入层、用于对所述训练数据集进行字层面掩码处理的字掩码层、用于对所述训练数据集进行短语层面掩码处理的短语掩码层、用于对所述训练数据集进行实体层面掩码处理的实体掩码层、用于对所述训练数据集进行词性层面掩码处理的词性掩码层和用于将所述字掩码层得到的字层面掩码信息数据集、所述短语掩码层得到的短语层面掩码信息数据集、所述实体掩码层得到的实体层面掩码信息数据集和所述词性掩码层得到的词性层面掩码信息数据集共同作为待用预训练数据集输出的输出层;
句向量处理模块,用于将所述待用预训练数据集中的文本进行句向量表示处理,得到以句向量表示的预训练数据集;其中,
句向量处理模块包括:分词处理单元,用于对所述待用预训练数据集中的文本进行分词处理,得到分词数据集;词向量转化单元,用于根据预设词向量对照表,将所述分词数据集中的词语进行词向量转化处理,得到词向量数据集;句向量处理单元,用于根据所述预训练数据集中的文本中的语句,将所述词向量数据集中的词向量处理为句向量,得到以句向量表示的预训练数据集;
推理迭代训练模块,用于将所述以句向量表示的预训练数据集输入语言模型中,对所述语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练,当满足预设模型训练完成条件时,完成对所述语言模型的训练;其中,所述预设模型训练完成条件为:
当对所述语言模型进行基于字掩码对应向量、词语掩码对应向量、实体掩码对应向量和词性掩码对应向量的模型推理迭代训练过程中计算得到的预测掩码向量的损失值与预测下一相邻句子的损失值之和达到最低值时,完成对所述语言模型的训练;其中,所述预测掩码向量包括预测字掩码对应向量、预测词语掩码对应向量、预测实体掩码对应向量和预测词性掩码对应向量。
7.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任一所述的语言模型训练方法的步骤。
8.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一所述的语言模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110517845.8A CN113515938B (zh) | 2021-05-12 | 2021-05-12 | 语言模型训练方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110517845.8A CN113515938B (zh) | 2021-05-12 | 2021-05-12 | 语言模型训练方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113515938A CN113515938A (zh) | 2021-10-19 |
CN113515938B true CN113515938B (zh) | 2023-10-20 |
Family
ID=78064224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110517845.8A Active CN113515938B (zh) | 2021-05-12 | 2021-05-12 | 语言模型训练方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113515938B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114357204B (zh) * | 2021-11-25 | 2024-03-26 | 腾讯科技(深圳)有限公司 | 媒体信息的处理方法及相关设备 |
CN114625851B (zh) * | 2022-03-10 | 2024-04-30 | 平安国际智慧城市科技股份有限公司 | 文本阅读模型的预训练方法、装置、设备及存储介质 |
CN114328978B (zh) * | 2022-03-10 | 2022-05-24 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 关系抽取方法、装置、设备及可读存储介质 |
CN114723073B (zh) * | 2022-06-07 | 2023-09-05 | 阿里健康科技(杭州)有限公司 | 语言模型预训练、产品搜索方法、装置以及计算机设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992648A (zh) * | 2019-04-10 | 2019-07-09 | 北京神州泰岳软件股份有限公司 | 基于词迁徙学习的深度文本匹配方法及装置 |
CN110196901A (zh) * | 2019-06-28 | 2019-09-03 | 北京百度网讯科技有限公司 | 对话系统的构建方法、装置、计算机设备和存储介质 |
CN110276023A (zh) * | 2019-06-20 | 2019-09-24 | 北京百度网讯科技有限公司 | Poi变迁事件发现方法、装置、计算设备和介质 |
CN110851604A (zh) * | 2019-11-12 | 2020-02-28 | 中科鼎富(北京)科技发展有限公司 | 一种文本分类方法、装置、电子设备及存储介质 |
CN111680145A (zh) * | 2020-06-10 | 2020-09-18 | 北京百度网讯科技有限公司 | 知识表示学习方法、装置、设备以及存储介质 |
CN111737994A (zh) * | 2020-05-29 | 2020-10-02 | 北京百度网讯科技有限公司 | 基于语言模型获取词向量的方法、装置、设备及存储介质 |
WO2021068329A1 (zh) * | 2019-10-10 | 2021-04-15 | 平安科技(深圳)有限公司 | 中文命名实体识别方法、装置及计算机可读存储介质 |
-
2021
- 2021-05-12 CN CN202110517845.8A patent/CN113515938B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992648A (zh) * | 2019-04-10 | 2019-07-09 | 北京神州泰岳软件股份有限公司 | 基于词迁徙学习的深度文本匹配方法及装置 |
CN110276023A (zh) * | 2019-06-20 | 2019-09-24 | 北京百度网讯科技有限公司 | Poi变迁事件发现方法、装置、计算设备和介质 |
CN110196901A (zh) * | 2019-06-28 | 2019-09-03 | 北京百度网讯科技有限公司 | 对话系统的构建方法、装置、计算机设备和存储介质 |
WO2021068329A1 (zh) * | 2019-10-10 | 2021-04-15 | 平安科技(深圳)有限公司 | 中文命名实体识别方法、装置及计算机可读存储介质 |
CN110851604A (zh) * | 2019-11-12 | 2020-02-28 | 中科鼎富(北京)科技发展有限公司 | 一种文本分类方法、装置、电子设备及存储介质 |
CN111737994A (zh) * | 2020-05-29 | 2020-10-02 | 北京百度网讯科技有限公司 | 基于语言模型获取词向量的方法、装置、设备及存储介质 |
CN111680145A (zh) * | 2020-06-10 | 2020-09-18 | 北京百度网讯科技有限公司 | 知识表示学习方法、装置、设备以及存储介质 |
Non-Patent Citations (2)
Title |
---|
基于ERNIE的命名实体识别;张晓;李业刚;王栋;史树敏;;智能计算机与应用(第03期);全文 * |
文本词向量与预训练语言模型研究;徐菲菲;冯东升;;上海电力大学学报(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113515938A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113515938B (zh) | 语言模型训练方法、装置、设备及计算机可读存储介质 | |
CN114822812B (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN111460797B (zh) | 关键字抽取方法、装置、电子设备及可读存储介质 | |
CN111695354A (zh) | 基于命名实体的文本问答方法、装置及可读存储介质 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN113378970B (zh) | 语句相似性检测方法、装置、电子设备及存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113722483A (zh) | 话题分类方法、装置、设备及存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN114880449B (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN115238115A (zh) | 基于中文数据的图像检索方法、装置、设备及存储介质 | |
CN115510188A (zh) | 文本关键词关联方法、装置、设备及存储介质 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN116821373A (zh) | 基于图谱的prompt推荐方法、装置、设备及介质 | |
CN116701574A (zh) | 文本语义相似度计算方法、装置、设备及存储介质 | |
CN114781384A (zh) | 命名实体智能标注方法、装置、设备及存储介质 | |
CN112668281B (zh) | 基于模板的语料自动化扩充方法、装置、设备及介质 | |
CN113808616A (zh) | 语音合规检测方法、装置、设备及存储介质 | |
CN112507728A (zh) | 智能对话方法、装置、电子设备及存储介质 | |
CN116303945A (zh) | 视觉问答模型的样本生成方法及相关设备 | |
CN116341646A (zh) | Bert模型的预训练方法、装置、电子设备及存储介质 | |
CN114492446B (zh) | 法律文书处理方法、装置、电子设备及存储介质 | |
CN114757154A (zh) | 基于深度学习的作业生成方法、装置、设备及存储介质 | |
CN114742061A (zh) | 文本处理方法、装置、电子设备及存储介质 | |
CN112214594A (zh) | 文本简报的生成方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |