CN112733539A - 面试实体识别模型训练、面试信息实体提取方法及装置 - Google Patents
面试实体识别模型训练、面试信息实体提取方法及装置 Download PDFInfo
- Publication number
- CN112733539A CN112733539A CN202011620124.1A CN202011620124A CN112733539A CN 112733539 A CN112733539 A CN 112733539A CN 202011620124 A CN202011620124 A CN 202011620124A CN 112733539 A CN112733539 A CN 112733539A
- Authority
- CN
- China
- Prior art keywords
- interview
- preset
- label
- sample data
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及预测模型技术领域,揭露了一种面试实体识别模型训练、面试信息实体提取方法及装置面试信息实体提取,该方法通过通过预设识别模型中的直接预测模块对第一面试样本数据进行标准标签预测,得到标准标签分布以及面试编码向量;通过各辅助预测模块,根据编码向量对第一面试样本数据进行辅助标签预测,得到与各辅助预测模块输出的辅助标签分布;根据各辅助标签分布与标准标签分布确定预设识别模型的总损失值;在总损失值未达到预设的收敛条件时,更新迭代预设识别模型的第一初始参数,直至总损失值达到预设的收敛条件时,将收敛之后的预设识别模型记录为面试实体识别模型。本发明提高了模型训练效率以及模型识别准确率。
Description
技术领域
本发明涉及预测模型技术领域,尤其涉及一种面试实体识别模型训练、面试信息实体提取方法、装置、设备及介质。
背景技术
命名实体识别本质是一种序列标注问题,就是通过输入一句话,输出句子中的每个单词对应的实体,即识别出文档中具有特定意义的实体,例如人名,地名,学校名和专有名词。比如,在智能招聘流程中对于面试者的自我介绍,可能需要将公司名称,学校名称提取出来,进而方便后续对面试者的信息进行提取和使用。
目前,针对命名实体识别的问题,如果通过监督学习进行命名实体识别,则对于数据量的需求非常大,而通过无监督学习的算法,比如使用预训练语言模型,进行命名实体识别,则限制了模型的准确率。
发明内容
本发明实施例提供一种面试实体识别模型训练、面试信息实体提取方法、装置、设备及介质,以解决监督学习对数据量的需求非常大,以及无监督学习限制模型准确率的问题。
一种面试实体识别模型训练方法,包括:
获取预设面试样本数据集;所述预设面试样本数据集中包含至少一个不具有面试标注标签的第一面试样本数据;
将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量;
通过所述预设识别模型中的各辅助预测模块,根据所述面试编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布;
根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值;
在所述总损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
一种面试信息实体提取方法,包括:
获取目标面试者的面试信息;所述面试信息中包含至少一个面试句子;一个所述面试句子中包含多个面试信息字词;
将所述面试句子输入至面试实体识别模型中,对所述面试句子中的面试信息字词进行提取识别,得到与各所述面试信息字词对应的实体识别结果;所述面试实体识别模型是根据上述面试实体识别模型训练方法得到的;
将所述实体识别结果按照预设匹配规则插入预设面试信息存储模板。
一种面试实体识别模型训练装置,包括:
样本数据获取模块,用于获取预设面试样本数据集;所述预设面试样本数据集中包含至少一个不具有面试标注标签的第一面试样本数据;
标准标签预测模块,用于将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量;
辅助标签预测模块,用于通过所述预设识别模型中的各辅助预测模块,根据所述面试编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布;
总损失值确定模块,用于根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值;
模型训练模块,用于在所述总损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
一种面试信息实体提取装置,包括:
面试信息获取模块,用于获取目标面试者的面试信息;所述面试信息中包含至少一个面试句子;一个所述面试句子中包含多个面试信息字词;
实体提取识别模块,用于将所述面试句子输入至面试实体识别模型中,对所述面试句子中的面试信息字词进行提取识别,得到与各所述面试信息字词对应的实体识别结果;所述面试实体识别模型是根据上述面试实体识别模型训练方法得到的;
信息存储模块,用于将所述实体识别结果按照预设匹配规则插入预设面试信息存储模板。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述面试实体识别模型训练方法,或者所述处理器执行所述计算机程序时实现上述面试信息实体提取方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述面试实体识别模型训练方法,或者所述计算机程序被处理器执行时实现上述面试信息实体提取方法。
上述面试实体识别模型训练、面试信息实体提取方法、装置、设备及介质,面试实体识别模型训练方法通过获取预设面试样本数据集;所述预设面试样本数据集中包含至少一个不具有面试标注标签的第一面试样本数据;将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量;通过所述预设识别模型中的各辅助预测模块,根据所述面试编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布;根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值;在所述总损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
本发明中,通过将有监督学习的直接预测模块,以及无监督学习的辅助预测模块结合,以在直接预测模块的基础上,通过辅助预测模块给予模型更多不同的数据特征(如各辅助预测模块输出的辅助标签分布),提高了面试实体识别模型训练效率,并提高了训练完成的面试实体识别模型的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中面试实体识别模型训练方法、面试信息实体提取方法的一应用环境示意图;
图2是本发明一实施例中面试实体识别模型训练方法的一流程图;
图3是本发明一实施例中面试实体识别模型训练方法中步骤S30的一流程图;
图4是本发明一实施例中面试实体识别模型训练方法的另一流程图;
图5是本发明一实施例中面试信息实体提取方法的一流程图;
图6是本发明一实施例中面试实体识别模型训练装置的一原理框图;
图7是本发明一实施例中面试实体识别模型训练装置中辅助标签预测模块的一原理框图;
图8是本发明一实施例中面试信息实体提取装置的一原理框图;
图9是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的面试实体识别模型训练方法,该面试实体识别模型训练方法可应用如图1所示的应用环境中。具体地,该面试实体识别模型训练方法应用在面试实体识别模型训练系统中,该面试实体识别模型训练系统包括如图1所示的客户端和服务器,客户端与服务器通过网络进行通信,用于解决监督学习对数据量的需求非常大,以及无监督学习限制模型准确率的问题。其中,客户端又称为用户端,是指与服务器相对应,为客户提供本地服务的程序。客户端可安装在但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备上。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种面试实体识别模型训练方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S10:获取预设面试样本数据集;所述预设面试样本数据集中包含至少一个不具有面试标注标签的第一面试样本数据;
可以理解地,第一面试样本数据为不具有预先通过人工标注的面试标注标签的数据;一般地,在有监督学习中需要大量的人工标注数据进行模型训练学习,但是人工标注数据需求量很大,通过人工进行标注的方法浪费时间,且无法输出庞大的标注数据,因此本发明需要解决的其中一个问题就是缺乏有标注数据的情况下,如何对模型进行更加精确,快速的训练学习。进一步地,该第一面试样本数据可以根据不同场景进行选取,示例性地,第一面试样本数据可以为面试者的自我介绍,亦或者面试者的简历;此外,本发明还可以应用在如电影编辑场景下,该第一面试样本数据可以替换为为电影剧本中的句子。
S20:将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量;
可以理解地,在本发明中,预设识别模型是结合了有监督学习以及无监督学习形成的半监督学习模型;直接预测模块是通过少量的具有面试标注标签的数据进行训练得到的,也即直接预测模块是训练完成的模块,进而通过直接预测模块对不具有面试标注标签的第一面试样本数据进行标准标签预测时,可以不用额外训练一个预测模块,提高了模型训练的效率。
进一步地,在将第一面试样本数据输入至包含第一初始参数的预设识别模型之后,该第一面试样本数据作为直接预测模块的输入,该直接预测模块中包含一个双向循环神经网络编码器,该双向循环神经网络编码器用于对第一面试样本数据进行向量编码,进而得到与第一面试样本数据对应的面试编码向量;该直接预测模块中还包含一个通过具有面试标注标签训练的标注分类器,进而在通过双向循环神经网络编码器对第一面试样本数据进行向量编码得到面试编码向量后,通过标注分类器对面试编码向量进行直接标签预测,得到与所述第一面试样本数据对应的标准标签分布。
S30:通过所述预设识别模型中的各辅助预测模块,根据所述面试编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布;
可以理解地,辅助预测模块指的是根据不同的字词组合对某个字词进行实体预测的模块,该辅助预测模块用于与直接预测模块进行结合形成半监督模式,对如第一标注数据等不具有面试标注标签的数据进行实体预测;需要说明的是,为了尽可能多的提取第一面试样本数据中各个字词的表征数据,每一个辅助预测模块提取第一面试样本数据的特征均是不同的,也即每一个辅助预测模块对第一面试样本数据中字词的实体判别的依据是不一样的,进而提高模型对实体识别的准确率;示例性地,如通过目标预测字词前三个字词对其进行实体预测,亦或者通过目标预测字词后三个字词对其进行实体预测等。
具体地,在将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量之后,通过预设识别模型中的各辅助预测模块,根据面试编码向量对第一面试样本数据进行不同视图的辅助标签预测,可以理解地,上述说明中已经指出各个辅助预测模块对第一面试样本数据中字词的实体判别的依据是不一样的,也即各个辅助预测模块是以不同的字词视图进行辅助标签预测,进而输出对第一面试样本数据中各字词的实体预测结果,也即辅助标签分布。
在一具体实施例中,如图3所示,步骤S30中,包括:
S301:获取所述面试编码向量中的至少两个第二正向编码向量以及至少两个第二反向编码向量;所述第二正向编码是指对各所述未标注样本字词按照正向顺序进行编码得到;所述第二反向编码是指对各所述未标注样本字词按照反向顺序进行编码得到;
可以理解地,未标注样本字词指的是对第一面试样本数据进行分词后得到的各个分词。一个辅助预测模块关联一个第二正向编码向量。
进一步地,通过预设识别模型中的直接预测模块中的编码器对第一面试样本数据进行编码处理后,可以理解地,该编码器为双向循环神经网络编码器,因此输出的编码向量中包含将第一面试样本数据中各未标注样本字词按照正向顺序进行编码得到的第二正向编码向量(也即从第一面试样本数据中第一个未标注样本字词起,从前往后编码),以及将第一面试样本数据中各未标注样板字词按照反向顺序进行编码得到的第二反向编码向量(也即从第一面试样本数据中最后一个未标注样本字词起,从后往前编码)。
示例性地,在本实施例中获取样本向量编码中至少两个第二正向编码向量指的是,第二正向编码向量可以为由在该未标注样本字词前t个未标注样本字词组成的编码向量序列;第二正向编码向量还可以为由在该未标注样本字词前t-1个未标注样本字词组成的编码向量序列;同理,至少两个第二反向编码向量指的是,第二反向编码向量可以为由未标注样本字词后t个未标注样本字词组成的编码向量序列;第二反向编码向量还可以为由未标注样本字词后t+1个未标注样本字词组成的编码向量序列。
S302:根据各所述第二正向编码向量确定与各所述未标注样本字词对应的各正向辅助标签分布;同时,根据所述第二反向编码向量确定与各所述未标注样本字词对应的反向辅助标签分布。
可以理解地,在获取所述面试编码向量中的至少两个第二正向编码向量以及至少两个第二反向编码向量之后,通过对应的第二正向量编码中的各未标注样本字词进行实体预测,得到与各第二正向编码向量对应的正向辅助标签分布,也即一个第二正向编码向量输入至辅助预测模块之后,会输出一个与其相对应的正向辅助标签分布。同理,通过对应的第二反向向量编码中的各未标注样本字词进行实体预测,得到与各第二反向编码向量对应的反向辅助标签分布。
示例性地,假设需要对第一面试样本数据中未标注样本字词A进行实体预测,且第二正向编码向量可以为由在该未标注样本字词A前t个未标注样本字词组成的编码向量序列,因此在该辅助预测模块中通过前t个未标注样本字词对未标注样本字词A进行实体预测;若第二正向编码向量为由在该未标注样本字词A前t-1个未标注样本字词组成的编码向量序列,则在另一个辅助预测模块中通过前t-1个未标注样本字词对未标注样本字词A进行实体预测。可以理解地,上述两个第二正向编码向量对未标注样本字词A进行实体预测后输出的正向辅助标签分布是不同的,由于通过前t个未标注样本字词对未标注样本字词A进行实体预测时,可以触及该未标注样本字词A;而通过前t-1个未标注样本字词对未标注样本字词A进行实体预测时,在未标注样本字词A之前还存在一个其它未标注样本字词,此时无法触及该未标注样本字词A,进而形成辅助预测模块在对未标注样本字词A进行实体预测时的视图差异,第二反向编码向量同理,在此不再赘述。
S40:根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值;
可以理解地,在通过所述预设识别模型中的各辅助预测模块,根据所述编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布之后,确定各辅助标签分布与标准标签分布之间的KL(Kullback–Leiblerdivergence,相对熵)散度,具体地可以根据如下表达式确定:
其中,DKL(p||q)指的是辅助标签分布与面试标注标签分布之间的KL散度;p(xi)表征的是第一面试样本数据中第i个未标注样本字词对应的辅助预测模块输出的辅助标签分布;q(xi)表征的是与p(xi)的未标注样本字词对应的标准标签分布。
进一步地,通过下述表达式确定预设识别模型的总损失值:
其中,LVCT(θ)为预设识别模型的总损失值;|Dul|为预设面试样本数据集中第一面试样本数据的个数;k为预设识别模型中辅助预测模块的个数;qθ(y|xi)为第θ个第一面试样本数据中第i个未标注样本字词对应的标准标签分布;为第θ个第一面试样本数据中第i个未标注样本字词的第j个辅助预测模块输出的辅助标签分布;为第θ个第一面试样本数据中第i个未标注样本字词的各辅助标签分布与标准标签分布之间的KL散度。
S50:在所述总损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
可以理解地,该收敛条件可以为总损失值小于设定阈值的条件,也即在总损失值小于设定阈值时,停止训练;收敛条件还可以为总损失值经过了10000次计算后值为很小且不会再下降的条件,也即总损失值经过10000次计算后值很小且不会下降时,停止训练,将收敛之后的所述预设识别模型记录为面试实体识别模型。
进一步地,根据所述第一面试样本数据对应的根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值之后,在总损失值未达到预设的收敛条件时,根据该总损失值调整预设识别模型的第一初始参数,并将该第一面试样本数据重新输入至调整初始参数后的预设识别模型中,以在该第一面试样本数据对应的总损失值达到预设的收敛条件时,选取预设面试样本数据集中另一仅第一面试样本数据,并执行上述步骤S10至S50,并得到与该第一面试样本数据对应的预测损失值,并在该总损失值未达到预设的收敛条件时,根据该总损失值再次调整预设识别模型的第一初始参数,使得该第一面试样本数据对应的总损失值达到预设的收敛条件。
如此,在通过预设面试样本数据集中所有第一面试样本数据对预设识别模型进行训练之后,使得预设识别模型输出的结果可以不断向准确地结果靠拢,让识别准确率越来越高,直至所有第一面试样本数据对应的总损失值均达到预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
在本实施例中,通过将有监督学习的直接预测模块,以及无监督学习的辅助预测模块结合,以在直接预测模块的基础上,通过辅助预测模块给予模型更多不同的数据特征(如各辅助预测模块输出的辅助标签分布),提高了面试实体识别模型训练效率,并提高了训练完成的面试实体识别模型的准确率。
在另一具体实施例中,为了保证上述实施例中的面试实体识别模型的私密以及安全性,可以将面试实体识别模型存储在区块链中。其中,区块链(Blockchain),是由区块(Block)形成的加密的、链式的交易的存储结构。
例如,每个区块的头部既可以包括区块中所有交易的哈希值,同时也包含前一个区块中所有交易的哈希值,从而基于哈希值实现区块中交易的防篡改和防伪造;新产生的交易被填充到区块并经过区块链网络中节点的共识后,会被追加到区块链的尾部从而形成链式的增长。
在一实施例中,如图4所示,所述预设面试样本数据集中还包含至少一个具有所述面试标注标签的第二面试样本数据;步骤S20之前,也即所述通过所述预设识别模型中的预设编码器对所述第一面试样本数据进行标准标签预测之前,还包括:
S01:将所述第二面试样本数据输入至所述预设识别模型中,通过所述预设识别模型中包含第二初始参数的预设预测模块对所述第二面试样本数据进行直接标签预测,得到与所述第二面试样本数据对应的直接预测标签;
可以理解地,面试标注标签指的是预先对第二面试样本数据中各字词进行人工标注得到的,示例性地,“我在北京大学上学”,则会预先将“北京大学”标注为学校名称实体。
进一步地,在获取预设面试样本数据集之后,将包含面试标注标签的第二面试样本数据输入至预设识别模型中,通过预设识别模型中包含第二参数的预设预测模块对第二面试样本数据进行直接标签预测,得到与所述第二面试样本数据中各字词对应的直接预测标签。
在一具体实施例中,步骤S01中包括:
对所述第二面试样本数据进行分词处理,得到与所述第二面试样本数据对应各标注样本字词;
示例性地,可以通过结巴分词方法对第二面试样本数据进行分词处理,得到与第二面试样本数据对应的各标注样本字词。
通过所述预设预测模块中的编码器对各所述标注样本字词进行编码处理,得到第一正向编码向量以及第一反向编码向量;所述第一正向编码是指对各所述标注样本字词按照正向顺序进行编码得到;所述第一反向编码是指对各所述标注样本字词按照反向顺序进行编码得到;
其中,编码器是双向循环神经网络编码器,因此输出的编码向量中包含将第二面试样本数据中各标注样本字词按照正向顺序进行编码得到的第一正向编码向量,以及将第二面试样本数据中各标注样本字词按照反向顺序进行编码得到的第一反向编码向量。
根据所述第一正向编码向量以及所述第一反向编码向量,通过所述预设预测模块中的标注分类器对各所述标注样本字词进行标签分类,得到与各所述标注样本字词对应的直接预测标签。
可以理解地,在通过所述预设预测模块中的编码器对各所述标注样本字词进行编码处理,得到第一正向编码向量以及第一反向编码向量之后,预设预测模块中的标注分类器则会根据第一正向编码向量以及第一反向编码向量,对各标注样本字词进行标签分类,得到与各标注样本字词对应的直接预测标签。示例性地,假设第二面试样本数据为“我在北京大学学习”,其中“北京大学”被人工标注为学校名称实体,进而在将该第二面试样本数据输入至预设预测模块之后,对该第二面试样本数据中各标注字词(“我”、“在”、“北京大学”、“学习”、)进行编码处理,得到从“我”开始,从前往后编码的第一正向编码向量,以及从“北京大学”开始,从后往前编码的第二反向编码向量,以根据第二正向编码向量以及第二反向编码向量对“北京大学”进行标签分类,得到与“北京大学”对应的直接预测标签。
S02:根据所述直接预测标签与所述面试标注标签确定所述预设编码器的预测损失值;
可以理解地,在根据所述第一正向编码向量以及所述第一反向编码向量,通过所述预设预测模块中的标注分类器对各所述标注样本字词进行标签分类,得到与各所述标注样本字词对应的直接预测标签之后,将各标注样本字词对应的直接预测标签,与各标注样本字词对应的面试标注标签进行匹配,进而确定预设编码器的预测损失值。
具体地,所述面试标注标签中包含多个样本实体标签;步骤S02中,包括:
(1)获取与各所述标注样本字词对应的所述样本实体标签;
(2)根据与同一个标注样本字词对应的所述样本实体标签以及所述直接预测标签,确定与该标注样本字词对应的标签损失值;
(3)根据与各所述标注样本字词对应的标签损失值,通过交差熵损失函数确定所述预测损失值。
可以理解地,样本实体标签即为一个第二面试样本数据中存在标注的各个标注样本字词对应的标签,也即一个第二面试样本数据中可能存在两个及两个以上被标注的字词。因此,在将所述第二面试样本数据输入至所述预设识别模型中,通过所述预设识别模型中包含第二初始参数的预设预测模块对所述第二面试样本数据进行直接标签预测,得到与所述第二面试样本数据对应的直接预测标签之后,获取与各所述标注样本字词对应的所述样本实体标签,根据与同一个标注样本字词对应的所述样本实体标签以及所述直接预测标签,确定与该标注样本字词对应的标签损失值;根据与各所述标注样本字词对应的标签损失值,通过交差熵损失函数确定所述预测损失值。
进一步地,可以根据下述表达式确定预测损失值:
其中,Lsup(β)为预测损失值;|Dl|为所有第二面试样本数据的个数;指的是第β个第二面试样本数据中第δ个标注样本字词对应的样本实体标签;pβ(b|aδ)指的是第β个第二面试样本数据中第δ个标注样本字词对应的直接预测标签;CE()为交叉熵损失函数。
可以理解地,针对于整个面试实体识别模型而言,其在训练过程中首先通过具有面试标注标签的第二面试样本数据训练直接预测模块,进而通过直接预测模块对不具有面试标注标签的第一面试样本数据进行标准标签预测,以及通过各辅助预测模块对第一面试样本数据进行辅助标签预测,进而表征本发明中的面试实体识别模型的整体损失值包含两个部分,也即步骤S02中的预测损失值以及步骤S40中的总损失值的叠加。
S03:在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设预设预测模块的第二初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设预测模块记录为所述直接预测模块。
可以理解地,该收敛条件可以为预测损失值小于设定阈值的条件,也即在预测损失值小于设定阈值时,停止训练;收敛条件还可以为预测损失值经过了10000次计算后值为很小且不会再下降的条件,也即预测损失值经过10000次计算后值很小且不会下降时,停止训练,并将收敛之后的所述预设预测模块记录为所述直接预测模块。
进一步地,根据所述第二面试样本数据的直接预测标签与所述面试标注标签确定所述预设预测模块的预测损失值之后,在预测损失值未达到预设的收敛条件时,根据该预测损失值调整预设预测模块的第二初始参数,并将该第二面试样本数据重新输入至调整初始参数后的预设预测模块中,以在该第二面试样本数据对应的预测损失值达到预设的收敛条件时,选取预设面试样本数据集中另一第二面试样本数据,并执行上述步骤S01至S03,并得到与该第二面试样本数据对应的预测损失值,并在该预测损失值未达到预设的收敛条件时,根据该预测损失值再次调整预设预测模块的第二初始参数,使得该第二面试样本数据对应的预测损失值达到预设的收敛条件。
如此,在通过预设面试样本数据集中所有第二面试样本数据对预设预测模块进行训练之后,使得预设预测模块输出的结果可以不断向准确地结果靠拢,让识别准确率越来越高,直至所有第二面试样本数据对应的预测损失值均达到预设的收敛条件时,将收敛之后的所述预设预测模块记录为所述直接预测模块。
在一实施例中,如图5所示,本申请还提出一种面试信息实体提取方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S60:获取目标面试者的面试信息;所述面试信息中包含至少一个面试句子;一个所述面试句子中包含多个面试信息字词;
可以理解地,面试信息可以为目标面试者提供的纸质简历中的信息,也可以为目标面试者在自我介绍过程中,通过录取目标面试者的语音信息并转换为文字信息之后得到的。
S70:将所述面试句子输入至面试实体识别模型中,对所述面试句子中的面试信息字词进行提取识别,得到与各所述面试信息字词对应的实体识别结果;所述面试实体识别模型是根据如上述面试实体识别模型训练方法得到的;
具体地,在获取目标面试者的面试信息之后,将面试信息以句号结尾对面试信息进行拆分,以得到面试句子,并将面试句子输入至面试实体识别模型中,对面试句子中的面试信息字词进行实体识别,以确定各面试信息字词对应的实体识别结果。可以理解地,实体识别结果中包含具体实体结果,也即识别出面试信息字词具体对应的实体名称,如学校名称实体、姓名名称实体等;实体识别结果中还包括非实体识别结果,如“我”、“是”等面试信息字词为非实体。
S80:将所述实体识别结果按照预设匹配规则插入预设面试信息存储模板。
具体地,在将所述面试句子输入至面试实体识别模型中,对所述面试句子中的面试信息字词进行提取识别,得到与各所述面试信息字词对应的实体识别结果之后,将实体识别结果按照预设匹配规则插入预设面试信息存储模板。其中,预设面试信息存储模板中包括多个待填充槽位,例如该模板中包括待填充的具体姓名、具体学校、具体性别等,进而将实体结果与待填充槽位进行匹配,以将如“北京大学”填充至具体学校槽位中,进而形成与目标面试者对应的面试信息页面。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种面试实体识别模型训练装置,该面试实体识别模型训练装置与上述实施例中面试实体识别模型训练方法一一对应。如图5所示,该面试实体识别模型训练装置包括样本数据获取模块10、标准标签预测模块20、辅助标签预测模块30、总损失值确定模块40和模型训练模块50。各功能模块详细说明如下:
样本数据获取模块10,用于获取预设面试样本数据集;所述预设面试样本数据集中包含至少一个不具有面试标注标签的第一面试样本数据;
标准标签预测模块20,用于将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量;
辅助标签预测模块30,用于通过所述预设识别模型中的各辅助预测模块,根据所述编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布;
总损失值确定模块40,用于根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值;
模型训练模块50,用于在所述总损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
优选地,所述面试实体识别模型训练装置还包括:
直接标签预测模块,用于将所述第二面试样本数据输入至所述预设识别模型中,通过所述预设识别模型中包含第二初始参数的预设预测模块对所述第二面试样本数据进行直接标签预测,得到与所述第二面试样本数据对应的直接预测标签;
预测损失值确定模块,用于根据所述直接预测标签与所述面试标注标签确定所述预设编码器的预测损失值;
参数更新模块,用于在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设预设预测模块的第二初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设预测模块记录为所述直接预测模块。
优选地,所述直接标签预测模块包括:
分词处理单元,用于对所述第二面试样本数据进行分词处理,得到与所述第二面试样本数据对应各标注样本字词;
编码处理单元,用于通过所述预设预测模块中的编码器对各所述标注样本字词进行编码处理,得到第一正向编码向量以及第一反向编码向量;所述第一正向编码是指对各所述标注样本字词按照正向顺序进行编码得到;所述第一反向编码是指对各所述标注样本字词按照反向顺序进行编码得到;
标签分类单元,用于根据所述第一正向编码向量以及所述第一反向编码向量,通过所述预设预测模块中的标注分类器对各所述标注样本字词进行标签分类,得到与各所述标注样本字词对应的直接预测标签。
优选地,所述预测损失值确定模块包括:
样本实体标签获取单元,用于获取与各所述标注样本字词对应的所述样本实体标签;
标签损失值确定单元,用于根据与同一个标注样本字词对应的所述样本实体标签以及所述直接预测标签,确定与该标注样本字词对应的标签损失值;
预测损失值确定单元,用于根据与各所述标注样本字词对应的标签损失值,通过交差熵损失函数确定所述预测损失值。
优选地,如图6所示,所述辅助标签预测模块30包括:
编码向量获取单元301,用于获取所述编码向量中的至少两个第二正向编码向量以及至少两个第二反向编码向量;所述第二正向编码是指对各未标注样本字词按照正向顺序进行编码得到;所述第二反向编码是指对各所述未标注样本字词按照反向顺序进行编码得到;
辅助标签分布确定单元302,用于根据各所述第二正向编码向量确定与各所述未标注样本字词对应的各正向辅助标签分布;同时,根据所述第二反向编码向量确定与各所述未标注样本字词对应的反向辅助标签分布。
在一实施例中,如图8所示,提供一种面试信息实体提取装置,包括:
面试信息获取模块60,用于获取目标面试者的面试信息;所述面试信息中包含至少一个面试句子;一个所述面试句子中包含多个面试信息字词;
实体提取识别模块70,用于将所述面试句子输入至面试实体识别模型中,对所述面试句子中的面试信息字词进行提取识别,得到与各所述面试信息字词对应的实体识别结果;所述面试实体识别模型是根据上述面试实体识别模型训练方法得到的;
信息存储模块80,用于将所述实体识别结果按照预设匹配规则插入预设面试信息存储模板。
关于面试实体识别模型训练装置以及面试信息实体提取装置的具体限定可以参见上文中对于面试实体识别模型训练方法以及面试信息实体提取方法的限定,在此不再赘述。上述面试实体识别模型训练装置以及面试信息实体提取装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述实施例中面试实体识别模型训练方法所使用到的数据、或者存储上述实施例中面试信息实体提取方法所使用到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种面试实体识别模型训练方法,或者该计算机程序被处理器执行时以实现一种面试信息实体提取方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中面试实体识别模型训练方法,或者处理器执行计算机程序时实现上述实施例中面试信息实体提取方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中面试实体识别模型训练方法,计算机程序被处理器执行时实现上述实施例中面试信息实体提取方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种面试实体识别模型训练方法,其特征在于,包括:
获取预设面试样本数据集;所述预设面试样本数据集中包含至少一个不具有面试标注标签的第一面试样本数据;
将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量;
通过所述预设识别模型中的各辅助预测模块,根据所述面试编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布;
根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值;
在所述总损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
2.如权利要求1所述的面试实体识别模型训练方法,其特征在于,所述预设面试样本数据集中还包含至少一个具有所述面试标注标签的第二面试样本数据;所述通过所述预设识别模型中的预设编码器对所述第一面试样本数据进行标准标签预测之前,包括:
将所述第二面试样本数据输入至所述预设识别模型中,通过所述预设识别模型中包含第二初始参数的预设预测模块对所述第二面试样本数据进行直接标签预测,得到与所述第二面试样本数据对应的直接预测标签;
根据所述直接预测标签与所述面试标注标签确定所述预设编码器的预测损失值;
在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设预设预测模块的第二初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设预测模块记录为所述直接预测模块。
3.如权利要求2所述的面试实体识别模型训练方法,其特征在于,所述通过所述预设识别模型中包含第二初始参数的预设预测模块对所述第二面试样本数据进行直接标签预测,得到与所述第二面试样本数据对应的直接预测标签,包括:
对所述第二面试样本数据进行分词处理,得到与所述第二面试样本数据对应各标注样本字词;
通过所述预设预测模块中的编码器对各所述标注样本字词进行编码处理,得到第一正向编码向量以及第一反向编码向量;所述第一正向编码是指对各所述标注样本字词按照正向顺序进行编码得到;所述第一反向编码是指对各所述标注样本字词按照反向顺序进行编码得到;
根据所述第一正向编码向量以及所述第一反向编码向量,通过所述预设预测模块中的标注分类器对各所述标注样本字词进行标签分类,得到与各所述标注样本字词对应的直接预测标签。
4.如权利要求2所述的面试实体识别模型训练方法,其特征在于,所述面试标注标签中包含多个样本实体标签;所述根据所述直接预测标签与所述面试标注标签确定所述预设编码器的预测损失值,包括:
获取与各所述标注样本字词对应的所述样本实体标签;
根据与同一个标注样本字词对应的所述样本实体标签以及所述直接预测标签,确定与该标注样本字词对应的标签损失值;
根据与各所述标注样本字词对应的标签损失值,通过交差熵损失函数确定所述预测损失值。
5.如权利要求1所述的面试实体识别模型训练方法,其特征在于,所述通过所述预设识别模型中的各辅助预测模块,根据所述编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布,包括:
获取所述面试编码向量中的至少两个第二正向编码向量以及至少两个第二反向编码向量;所述第二正向编码是指对各未标注样本字词按照正向顺序进行编码得到;所述第二反向编码是指对各所述未标注样本字词按照反向顺序进行编码得到;
根据各所述第二正向编码向量确定与各所述未标注样本字词对应的各正向辅助标签分布;同时,根据所述第二反向编码向量确定与各所述未标注样本字词对应的反向辅助标签分布。
6.一种面试信息实体提取方法,其特征在于,包括:
获取目标面试者的面试信息;所述面试信息中包含至少一个面试句子;一个所述面试句子中包含多个面试信息字词;
将所述面试句子输入至面试实体识别模型中,对所述面试句子中的面试信息字词进行提取识别,得到与各所述面试信息字词对应的实体识别结果;所述面试实体识别模型是根据如权利要求1至5任一项所述面试实体识别模型训练方法得到的;
将所述实体识别结果按照预设匹配规则插入预设面试信息存储模板。
7.一种面试实体识别模型训练装置,其特征在于,包括:
样本数据获取模块,用于获取预设面试样本数据集;所述预设面试样本数据集中包含至少一个不具有面试标注标签的第一面试样本数据;
标准标签预测模块,用于将所述第一面试样本数据输入至包含第一初始参数的预设识别模型中,通过所述预设识别模型中的直接预测模块对所述第一面试样本数据进行标准标签预测,得到标准标签分布以及与所述第一面试样本数据对应的面试编码向量;
辅助标签预测模块,用于通过所述预设识别模型中的各辅助预测模块,根据所述编码向量对所述第一面试样本数据进行辅助标签预测,得到与各所述辅助预测模块输出的辅助标签分布;
总损失值确定模块,用于根据各所述辅助标签分布与所述标准标签分布确定所述预设识别模型的总损失值;
模型训练模块,用于在所述总损失值未达到预设的收敛条件时,更新迭代所述预设识别模型的第一初始参数,直至所述总损失值达到所述预设的收敛条件时,将收敛之后的所述预设识别模型记录为面试实体识别模型。
8.一种面试信息实体提取装置,其特征在于,包括:
面试信息获取模块,用于获取目标面试者的面试信息;所述面试信息中包含至少一个面试句子;一个所述面试句子中包含多个面试信息字词;
实体提取识别模块,用于将所述面试句子输入至面试实体识别模型中,对所述面试句子中的面试信息字词进行提取识别,得到与各所述面试信息字词对应的实体识别结果;所述面试实体识别模型是根据如权利要求1至5任一项所述面试实体识别模型训练方法得到的;
信息存储模块,用于将所述实体识别结果按照预设匹配规则插入预设面试信息存储模板。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述面试实体识别模型训练方法,或者所述处理器执行所述计算机程序时实现如权利要求6所述面试信息实体提取方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述面试实体识别模型训练方法,或者所述计算机程序被处理器执行时实现如权利要求6所述面试信息实体提取方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011620124.1A CN112733539A (zh) | 2020-12-30 | 2020-12-30 | 面试实体识别模型训练、面试信息实体提取方法及装置 |
PCT/CN2021/096583 WO2022142108A1 (zh) | 2020-12-30 | 2021-05-28 | 面试实体识别模型训练、面试信息实体提取方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011620124.1A CN112733539A (zh) | 2020-12-30 | 2020-12-30 | 面试实体识别模型训练、面试信息实体提取方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112733539A true CN112733539A (zh) | 2021-04-30 |
Family
ID=75608490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011620124.1A Withdrawn CN112733539A (zh) | 2020-12-30 | 2020-12-30 | 面试实体识别模型训练、面试信息实体提取方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112733539A (zh) |
WO (1) | WO2022142108A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113434676A (zh) * | 2021-06-25 | 2021-09-24 | 平安国际智慧城市科技股份有限公司 | 文本关系提取模型训练、文本关系提取方法、装置及设备 |
WO2022142108A1 (zh) * | 2020-12-30 | 2022-07-07 | 平安科技(深圳)有限公司 | 面试实体识别模型训练、面试信息实体提取方法及装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115204320B (zh) * | 2022-09-15 | 2022-11-15 | 北京数牍科技有限公司 | 朴素贝叶斯模型训练方法、装置、设备及计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062215A (zh) * | 2019-12-10 | 2020-04-24 | 金蝶软件(中国)有限公司 | 基于半监督学习训练的命名实体识别方法和装置 |
CN111310823A (zh) * | 2020-02-12 | 2020-06-19 | 北京迈格威科技有限公司 | 目标分类方法、装置和电子系统 |
US20200311473A1 (en) * | 2019-03-29 | 2020-10-01 | Innoplexus Ag | System and method to identify entity of data |
CN111737581A (zh) * | 2020-07-24 | 2020-10-02 | 网思分析(研究与技术)有限公司 | 一种针对特定方面的情感分析的半监督多任务学习模型 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860669B (zh) * | 2020-07-27 | 2024-05-07 | 平安科技(深圳)有限公司 | Ocr识别模型的训练方法、装置和计算机设备 |
CN112115267B (zh) * | 2020-09-28 | 2023-07-07 | 平安科技(深圳)有限公司 | 文本分类模型的训练方法、装置、设备及存储介质 |
CN112733539A (zh) * | 2020-12-30 | 2021-04-30 | 平安科技(深圳)有限公司 | 面试实体识别模型训练、面试信息实体提取方法及装置 |
-
2020
- 2020-12-30 CN CN202011620124.1A patent/CN112733539A/zh not_active Withdrawn
-
2021
- 2021-05-28 WO PCT/CN2021/096583 patent/WO2022142108A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200311473A1 (en) * | 2019-03-29 | 2020-10-01 | Innoplexus Ag | System and method to identify entity of data |
CN111062215A (zh) * | 2019-12-10 | 2020-04-24 | 金蝶软件(中国)有限公司 | 基于半监督学习训练的命名实体识别方法和装置 |
CN111310823A (zh) * | 2020-02-12 | 2020-06-19 | 北京迈格威科技有限公司 | 目标分类方法、装置和电子系统 |
CN111737581A (zh) * | 2020-07-24 | 2020-10-02 | 网思分析(研究与技术)有限公司 | 一种针对特定方面的情感分析的半监督多任务学习模型 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022142108A1 (zh) * | 2020-12-30 | 2022-07-07 | 平安科技(深圳)有限公司 | 面试实体识别模型训练、面试信息实体提取方法及装置 |
CN113434676A (zh) * | 2021-06-25 | 2021-09-24 | 平安国际智慧城市科技股份有限公司 | 文本关系提取模型训练、文本关系提取方法、装置及设备 |
CN113434676B (zh) * | 2021-06-25 | 2023-12-22 | 平安国际智慧城市科技股份有限公司 | 文本关系提取模型训练、文本关系提取方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2022142108A1 (zh) | 2022-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765763B (zh) | 语音识别文本的纠错方法、装置、计算机设备和存储介质 | |
CN112733539A (zh) | 面试实体识别模型训练、面试信息实体提取方法及装置 | |
CN112651238A (zh) | 训练语料扩充方法及装置、意图识别模型训练方法及装置 | |
CN111444723B (zh) | 信息抽取方法、计算机设备和存储介质 | |
CN112613308A (zh) | 用户意图识别方法、装置、终端设备及存储介质 | |
CN112380837B (zh) | 基于翻译模型的相似句子匹配方法、装置、设备及介质 | |
WO2022141864A1 (zh) | 对话意图识别模型训练方法、装置、计算机设备及介质 | |
CN110688853B (zh) | 序列标注方法、装置、计算机设备和存储介质 | |
CN114245203B (zh) | 基于剧本的视频剪辑方法、装置、设备及介质 | |
CN111191032B (zh) | 语料扩充方法、装置、计算机设备和存储介质 | |
CN112259247B (zh) | 对抗网络训练、医疗数据补充方法、装置、设备及介质 | |
WO2022134805A1 (zh) | 文档分类预测方法、装置、计算机设备及存储介质 | |
CN111859916B (zh) | 古诗关键词提取、诗句生成方法、装置、设备及介质 | |
CN112652295A (zh) | 语言模型训练、视频字幕校验方法、装置、设备及介质 | |
CN110633475A (zh) | 基于计算机场景的自然语言理解方法、装置、系统和存储介质 | |
CN114528394B (zh) | 一种基于掩码语言模型的文本三元组提取方法及装置 | |
CN115687621A (zh) | 一种短文本标签标注方法及装置 | |
CN112052329A (zh) | 文本摘要生成方法、装置、计算机设备及可读存储介质 | |
CN116384401A (zh) | 一种基于提示学习的命名实体识别方法 | |
CN111291576B (zh) | 神经网络内部表示信息量确定方法、装置、设备、介质 | |
CN114048753A (zh) | 词义识别模型训练、词义判断方法、装置、设备及介质 | |
CN112749539B (zh) | 文本匹配方法、装置、计算机可读存储介质和计算机设备 | |
WO2021217619A1 (zh) | 基于标签平滑的语音识别方法、终端及介质 | |
CN113468322A (zh) | 关键词识别模型的训练、提取方法、装置、设备及介质 | |
CN113743121B (zh) | 长文本实体关系抽取方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210430 |
|
WW01 | Invention patent application withdrawn after publication |