CN113780671A - 岗位预测方法、训练方法、装置、模型、设备及存储介质 - Google Patents
岗位预测方法、训练方法、装置、模型、设备及存储介质 Download PDFInfo
- Publication number
- CN113780671A CN113780671A CN202111087808.4A CN202111087808A CN113780671A CN 113780671 A CN113780671 A CN 113780671A CN 202111087808 A CN202111087808 A CN 202111087808A CN 113780671 A CN113780671 A CN 113780671A
- Authority
- CN
- China
- Prior art keywords
- resume
- prediction
- sub
- target
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000012549 training Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 160
- 238000012545 processing Methods 0.000 claims description 50
- 230000011218 segmentation Effects 0.000 claims description 34
- 238000013527 convolutional neural network Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 abstract description 26
- 239000013589 supplement Substances 0.000 abstract description 10
- 210000002569 neuron Anatomy 0.000 description 9
- 238000011176 pooling Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 235000019580 granularity Nutrition 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Marketing (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供一种岗位预测方法、训练方法、装置、模型、设备及存储介质,方法包括:获取待预测简历;将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;将每个所述子预测模型的输出向量拼接为一个目标输出向量;将所述目标输出向量输入全连接层,得到所述待预测简历对应的岗位名称。这样,一方面实现了对于简历中岗位名称的自动化预测,无需人工介入,提高了简历名称补充效率,且减少了成本。另一方面,整个实现过程可以综合多个不同子预测模型的预测性能,从而提高对于简历名称的预测准确性。
Description
技术领域
本申请涉及数据处理技术领域,具体而言,涉及一种岗位预测方法、训练方法、装置、模型、设备及存储介质。
背景技术
目前,许多的企业都采用了信息化系统来收集简历信息。但是,在实际应用过程中,我们发现许多简历中都存在有内容缺失,尤其是许多简历中,最核心的申请岗位名称是缺失的,这就导致这些简历难以利用。
而目前,针对简历中缺失的岗位名称,常规的处理方式是,通过人工阅读简历中已有信息,人为进行岗位名称的补充。但是,该方式效率极低,且需要投入大量的人力资源,成本也很高。
发明内容
本申请实施例的目的在于提供一种岗位预测方法、训练方法、装置、模型、设备及存储介质,用以高效确定出简历中缺失的岗位名称。
本申请实施例提供了一种岗位预测方法,包括:获取待预测简历;将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;将每个所述子预测模型的输出向量拼接为一个目标输出向量;将所述目标输出向量输入全连接层,得到所述待预测简历对应的岗位名称。
在上述实现过程中,通过多个不同的子预测模型对目标数据进行处理,然后通过将每个子预测模型针对该目标数据的输出向量拼接为一个目标输出向量后,输入至全连接层实现对于岗位名称的预测。这样,一方面就实现了对于简历中岗位名称的自动化预测,对于缺失岗位名称的简历,利用上述方案,可以实现自动化的简历名称补充,无需人工介入,提高了简历名称补充效率,且减少了成本。而另一方面,在上述方案中,通过采用多个不同子预测模型来对目标数据进行处理,并最终根据这多个不同子预测模型的输出向量拼接得到的目标输出向量确定出岗位名称,这就使得整个实现过程可以综合这多个不同子预测模型的预测性能,从而提高对于简历名称的预测准确性。
进一步地,将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中之前,所述方法还包括:对所述待预测简历中的目标数据进行分词处理,得到目标词汇;对应的,将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,包括:将所述目标词汇向量化后,输入至每个所述子预测模型中。
在上述实现过程中,通过对待预测简历中的目标数据进行分词处理,然后向量化,使得简历中的文本数据可以转换为可被计算机模型识别处理的向量化数据,从而可以确保方案的顺利执行。
进一步地,对所述待预测简历中的目标数据进行分词处理,得到目标词汇,包括:对所述待预测简历中的目标数据进行分词处理,得到候选词汇;根据预设的低频词汇集,从通过分词处理得到的各所述候选词汇中,剔除存在于所述低频词汇集中的低频词汇,得到所述目标词汇。
应理解,在实际应用过程中,低频词汇对于预测模型并无贡献,相反还可能影响预测可靠性。为此,在上述实现过程中,通过剔除候选词汇中存在于低频词汇集中的低频词汇,可以保证预测效果。
进一步地,所述待预测简历中的目标数据包括以下至少一种:所述待预测简历中的项目经历;所述待预测简历中的工作经历;所述待预测简历中的兴趣爱好。
在实际应用过程中,通过简历中的项目经历、工作经历和兴趣爱好,往往可以识别出简历所描述的对象所具有的技能和兴趣偏好,从而可以用于有效推论出简历所描述的对象所倾向的岗位。而在上述实现过程中,通过采用待预测简历中的项目经历、待预测简历中的工作经历、待预测简历中的兴趣爱好中的至少一种来作为目标数据,可以为岗位名称的预设提供可靠的信息来源,从而提高岗位预测结果的准确性。
进一步地,在所述待预测简历中的目标数据存在多种时,所述将每个所述子预测模型的输出向量拼接为一个目标输出向量,包括:将每个所述子预测模型输出的针对同种目标数据的输出向量拼接为一个数据向量;将各所述数据向量拼接为所述目标输出向量。
在上述实现过程中,在存在多种目标数据时,通过将每个子预测模型针对同种目标数据的输出向量拼接为一个数据向量,实现对每种目标数据对应的输出向量的整合,然后再将各种类的目标数据对应的数据向量拼接为一个目标输出向量,实现对于所有目标数据对应的输出向量的整合,使得全连接层得以能够对目标输出向量进行处理。
本申请实施例还提供了一种岗位预测模型的训练方法,所述方法包括:获取简历样本集中的各样本简历对应的目标数据,以及各所述样本简历对应的实际岗位名称;将各所述样本简历对应的目标数据输入至不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;将每个所述子预测模型的输出向量拼接为目标输出向量;将所述目标输出向量输入全连接层,得到各所述样本简历对应的预测岗位名称;根据各所述样本简历对应的实际岗位名称和预测岗位名称计算损失值;在所述损失值未满足预设训练结束条件时,更新每个所述子预测模型的模型参数,并继续迭代,直至损失值满足预设训练结束条件。
通过上述实现过程训练得到的预测模型,可以有效用于对简历中岗位名称的预测,从而对于缺失岗位名称的简历,利用上述过程训练得到的预测模型,可以实现自动化的简历名称补充,无需人工介入,提高简历名称补充效率,且减少成本。
进一步地,在将各所述样本简历对应的目标数据输入至不同子预测模型中之前,所述方法还包括:对各所述样本简历对应的目标数据进行分词处理,得到各候选词汇,并统计各所述候选词汇的词频;选取各所述候选词汇中,词频大于预设词频阈值的目标词汇;对应的,将各所述样本简历对应的目标数据输入至不同子预测模型中,包括:将各所述样本简历对应的目标词汇向量化后,输入至不同子预测模型中。
进一步地,所述方法还包括:获取各所述候选词汇中,词频小于等于所述预设词频阈值的低频词汇;构建并保存低频词汇集;所述低频词汇集中包含所述低频词汇。
通过上述实现过程,可以构建出合理的低频词汇集,从而便于模型应用时,进行低频词汇的筛选。
本申请实施例还提供了一种岗位预测模型,包括:多个不同子预设模型,每个所述子预设模型均用于对简历中的目标数据进行处理,以输出所述目标数据对应的输出向量;拼接层,与各所述子预设模型的输出端连接,用于将每个所述子预测模型的输出向量拼接为一个目标输出向量;全连接层,与所述拼接层的输出端连接,用于对所述目标输出向量进行处理,得到所述简历对应的岗位名称。
通过上述岗位预测模型,可以有效实现对简历中岗位名称的预测,从而对于缺失岗位名称的简历,利用上述岗位预测模型,可以实现自动化的简历名称补充,无需人工介入,提高简历名称补充效率,且减少成本。此外,上述岗位预测模型通过设置多个并行的子预测模型对简历中的目标数据进行处理,并最终根据这多个不同子预测模型的输出向量拼接得到的目标输出向量确定出岗位名称,这就使得上述岗位预测模型可以综合多个不同子预测模型的预测性能,从而具有对于简历名称更高的预测准确性。
进一步地,所述多个不同子预设模型包括:卷积神经网络模型、BERT模型和长短期记忆网络模型。
在上述实现过程中,通过采用卷积神经网络模型、BERT模型和长短期记忆网络模型来对目标数据进行处理,经实际测试,发现预测准确性能达到99%以上,具有很高的工业应用价值。
本申请实施例还提供了一种岗位预测装置,包括:第一获取模块、第一处理模块、第一拼接模块和第一预测模块;所述第一获取模块,用于获取待预测简历;所述第一处理模块,用于将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;所述第一拼接模块,用于将每个所述子预测模型的输出向量拼接为一个目标输出向量;所述第一预测模块,用于将所述目标输出向量输入全连接层,得到所述待预测简历对应的岗位名称。
本申请实施例还提供了一种岗位预测模型的训练装置,包括:第二获取模块、第二处理模块、第二拼接模块、第二预测模块和参数更新模块;所述第二获取模块,用于获取简历样本集中的各样本简历对应的目标数据,以及各所述样本简历对应的实际岗位名称;所述第二处理模块,用于将各所述样本简历对应的目标数据输入至不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;所述第二拼接模块,用于将每个所述子预测模型的输出向量拼接为目标输出向量;所述第二预测模块,用于将所述目标输出向量输入全连接层,得到各所述样本简历对应的预测岗位名称;所述参数更新模块,用于根据各所述样本简历对应的实际岗位名称和预测岗位名称计算损失值;在所述损失值未满足预设训练结束条件时,更新每个所述子预测模型的模型参数,并控制所述第二处理模块、第二拼接模块和第二预测模块继续迭代,直至损失值满足预设训练结束条件。
本申请实施例还提供了一种电子设备,包括处理器、存储器及通信总线;所述通信总线用于实现处理器和存储器之间的连接通信;所述存储器中存储有上述任一种的岗位预测模型;所述处理器用于调用所述存储器中存储的岗位预测模型,以实现上述任一种的岗位预测方法,或实现上述任一种的岗位预测模型的训练方法。
本申请实施例中还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有上述任一种的岗位预测模型;或,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述任一种的岗位预测方法,或实现上述任一种的岗位预测模型的训练方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种岗位预测模型的基本结构示意图;
图2为本申请实施例提供的一种可选的岗位预测模型的结构示意图;
图3为本申请实施例提供的一种岗位预测模型的训练方法的流程示意图;
图4为本申请实施例提供的一种岗位预测方法的流程示意图;
图5为本申请实施例提供的一种岗位预测装置的结构示意图;
图6为本申请实施例提供的一种岗位预测模型的训练装置的结构示意图;
图7为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
实施例一:
为了高效确定出简历中缺失的岗位名称,本申请实施例中提供了一种岗位预测模型、一种岗位预测模型的训练方法、以及一种岗位预测方法。
可以参见图1所示,图1为本申请实施例中提供的岗位预测模型的基本结构示意图,其包括:多个不同子预设模型、拼接层以及全连接层。其中:
每个子预设模型均用于对简历中的目标数据进行处理,以输出目标数据对应的输出向量。
拼接层与各子预设模型的输出端连接,用于将每个子预测模型的输出向量拼接为一个目标输出向量。
其中,拼接层可以通过cancat函数实现。cancat函数在进行输出向量拼接时,通过维度拼接的方式实现。比如3个61维的向量,可以拼接成一个183维向量。
全连接层与拼接层的输出端连接,用于对目标输出向量进行处理,得到简历对应的岗位名称。
在本申请实施例中,所采用的多个不同子预设模型为可以各类已知或未知的深度学习模型,比如:可以是卷积神经网络模型、BERT模型、LSTM(Long Short-Term Memory,长短期记忆网络)模型、RNN(Recurrent Neural Network,循环神经网络)模型、GRU(GateRecurrent Unit,门控神经网络)模型、GPT(Generative Pre-Training)模型等中的至少两个。
可选的,在本申请实施例中,岗位预测模型可以采用卷积神经网络模型、BERT模型和LSTM模型结合拼接层与全连接层实现。
在本申请实施例中,参见图2所示,考虑到卷积神经网络模型的输出并不固定,而对于全连接层而言,其需要处理规定长度的向量。为此,在本申请实施例中,在卷积神经网络模型与拼接层之间,还可以接入一个最大池化层,从而通过最大池化操作,使得卷积神经网络模型的输出得以控制在指定的维度上。
需要说明的是,在本申请实施例中,简历中的目标数据是指,简历中被预先指定的,用于进行岗位名称预测的数据。可选的,在本申请实施例中,目标数据可以是简历中的项目经历、工作经历和兴趣爱好中的一种或多种。示例性的,目标数据可以是简历中的项目经历、工作经历和兴趣爱好,从而丰富源数据来源,提高预测可靠性。
应理解,对于本申请实施例所提供的岗位预测模型而言,其需要先进行训练后,才能用于实际应用。为此,参见图3所示,图3为本申请实施例提供的岗位预测模型的训练方法的流程示意图,包括:
S301:获取简历样本集中的各样本简历对应的目标数据,以及各样本简历对应的实际岗位名称。
在本申请实施例中,可以预先获取大量具有目标数据以及岗位名称的简历,构成简历样本集。其中,简历中记录的岗位名称即为本申请实施例中所述的实际岗位名称。
S302:将各样本简历对应的目标数据输入至不同子预测模型的每个子预测模型中,得到每个子预测模型针对目标数据的输出向量。
应理解,简历中的目标数据为非结构化的文本格式数据(应理解,无论是项目经历,还是工作经历,或是兴趣爱好,都是用户自由描述的文本信息,其不属于结构化数据),因此难以直接将目标数据数值化为各子预测模型可识别处理的数值化数据。
为此,在本申请实施例中,可以首先对简历样本集中的各样本简历中的目标数据进行分词处理,然后将分词得到的词语进行向量化,从而得到可供各子预测模型识别处理的数据。
在本申请实施例中,可以采用诸如jieba(结巴)分词器、THULAC分词器、SnowNLP分词器、pynlpir分词器等现有分词器实现分词,在本申请实施例中不做限制。
在本申请实施例中,在进行分词后,可以采用word2vec算法等词向量学习算法,将分词得到的各词汇转换为词向量表达。
需要注意的是,在实际应用过程中,对于深度学习模型而言,低频词汇并不能对模型产生影响,这是因为在深度学习模型中,低频词汇在反向更新过程中,难以进行反向求导,从而不能为模型的参数更新作出贡献。相反,还可能干扰训练效果。
为此,在本申请实施例中,在对简历样本集中的各样本简历中的目标数据进行分词处理后,还可以统计分词得到的各候选词汇的词频,从而选取各候选词汇中,词频大于预设词频阈值的目标词汇来作为需要输入至每一个子预测模型中的词汇。
需要注意的是,在本申请实施例中,可以在筛选出目标词汇后,仅针对目标词汇进行向量化处理。但是,也可以在分词后,针对所有后续词汇进行向量化处理,然后筛选出目标词汇,将目标词汇对应的向量输入至每一个子预测模型中。
值得注意的是,在本申请实施例中,还可以获取各候选词汇中,词频小于等于预设词频阈值的低频词汇,进而根据获取到的低频词汇,构建并保存包含获取到的低频词汇的低频词汇集,从而为后期应用过程中剔除相应的低频词汇给出参考。
S303:将每个子预测模型的输出向量拼接为目标输出向量。
应理解,在本申请实施例中,每个子预测模型均会针对相同的目标数据进行处理。进而每个子预测模型均会针对相同的目标数据,输出相应的输出向量。
需要注意的是,在本申请实施例中,在存在多种目标数据时,为了实现拼接,可以将每个子预测模型输出的针对同种目标数据的输出向量拼接为一个数据向量,然后将各数据向量拼接为一个目标输出向量。
示例性的,假设目标数据包括项目经历、工作经历和兴趣爱好,子预测模型包括卷积神经网络模型、BERT模型和LSTM模型。则,首先将卷积神经网络模型、BERT模型和LSTM模型分别输出的针对项目经历的输出向量ACNN1、ABERT1和ALSTM1进行拼接,得到针对项目经历的数据向量A1;将卷积神经网络模型、BERT模型和LSTM模型分别输出的针对工作经历的输出向量ACNN2、ABERT2和ALSTM2进行拼接,得到针对工作经历的数据向量A2;将卷积神经网络模型、BERT模型和LSTM模型分别输出的针对兴趣爱好的输出向量ACNN3、ABERT3和ALSTM3进行拼接,得到针对兴趣爱好的数据向量A3;最后将数据向量A1、A2和A3拼接起来,得到一个目标输出向量A。
需要注意的是,在存在多种目标数据时,为了便于进行拼接,可以逐次输入每种目标数据。也即,可以每次先输入一种目标数据到各子预测模型中,当子预测模型输出该种目标数据对应的输出向量,并由拼接层进行拼接后,再输入下一种目标数据到各子预测模型中,直至所有种类的目标数据输入完毕为止。
需要说明的是,在本申请实施例中,可选的,在子预测模型采用有卷积神经网络模型时,例如图2所示的结构时,可以对卷积神经网络模型输出的特征向量(即输出向量,在存在有最大池化层是,可以是最大池化层输出的输出向量)进行不同粒度的多次特征切割,然后对多次切割后的向量进行拼接,从而在综合各个粒度的特征特性后,还能使得卷积神经网络模型最终输出的向量维持在指定长度上,从而满足全连接层的需求。
示例性的,可以指定按照32/16/8/4/1的粒度进行切割,此时,被切割的特征的长度通常大于32个字符。按照32/16/8/4/1的粒度进行切割是指,针对每个特征向量,分别以32份、16份、8份、4份及1份的粒度,对该特征进行切割。比如,将同一个特征向量,分别切割成32份、16份、8份、4份。其中,1份粒度的特征即为该特征向量本身,无需再切割。如此,每个特征被切割后,可以得到具有5类粒度的特征片段的集合。当完成所有特征的切割后,可以以指定长度,对切割后的特征片段进行拼接,以使拼接得到的每个向量均为指定长度。例如,该指定长度可以为61个字符长度。其中,不同粒度的特征片段有利于进行特征地灵活拼接,以使拼接后的特征长度为指定长度。
S304:将目标输出向量输入全连接层,得到各样本简历对应的预测岗位名称。
应理解,在本申请实施例中,全连接层本质是一个分类器,其会输出一个N维向量(N的值等于可预测的岗位名称的种类数量),向量中的每一个元素对应一种岗位名称,向量中的每一个元素的元素值表征该元素对应的岗位名称的为实际岗位名称的概率。
通常,取N维向量中元素值最大的那一个元素对应的岗位名称作为预测岗位名称。
S305:根据各样本简历对应的实际岗位名称和预测岗位名称计算损失值。
S306:在损失值未满足预设训练结束条件时,更新每个子预测模型的模型参数,并继续迭代,直至损失值满足预设训练结束条件。
在本申请实施例中,可以采用交叉熵函数等损失函数来计算损失值,本申请中不做限制。
在本申请实施例中,预设训练结束条件可以是损失值收敛,预设训练结束条件也可以是损失值低于预设阈值。具体的训练结束条件可以由工程师根据实际需要设定,在本申请实施例中也不做限制。
当损失值未满足预设训练结束条件时,可以通过反向求导(比如通过SGD(随机最速下降法)来求导)的方式来更新各子预测模型的模型参数。
在更新模型参数后,即继续迭代(即重新执行步骤S302至步骤S306),直至损失值满足预设训练结束条件时,认为训练结束。
在训练成功后,训练好的岗位预测模块即可以用于进行岗位预测。可参见图4,图4为本申请实施例所提供的一种岗位预测方法的流程示意图,包括:
S401:获取待预测简历。
在本申请实施例中,待预测简历可以是简历中岗位名称缺失的简历。
S402:将待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,得到每个子预测模型针对目标数据的输出向量。
在本申请实施例中,与训练过程对应的,可以对待预测简历中的目标数据进行分词处理,得到目标词汇,然后将目标词汇向量化后,输入至每个子预测模型中。
在本申请实施例中,为了得到目标词汇,在对待预测简历中的目标数据进行分词处理后,将分词得到的所有词汇作为候选词汇,然后根据前文得到的低频词汇集,从各候选词汇中,剔除低频词汇集中存在的低频词汇,得到目标词汇,从而使得预测过程得以不受低频词汇的干扰。
S403:将每个子预测模型的输出向量拼接为一个目标输出向量。
与训练过程对应的,在存在多种目标数据的情况下,可以将每个子预测模型输出的针对同种目标数据的输出向量拼接为一个数据向量,然后将各数据向量拼接为一个目标输出向量。
S404:将目标输出向量输入全连接层,得到待预测简历对应的岗位名称。
与训练过程对应的,全连接层本质是一个分类器,其会输出一个N维向量,向量中的每一个元素对应一种岗位名称,向量中的每一个元素的元素值表征该元素对应的岗位名称的为实际岗位名称的概率。
在本申请实施例中,取N维向量中元素值最大的那一个元素对应的岗位名称作为待预测简历对应的岗位名称。
在本申请实施例中,在得到待预测简历对应的岗位名称后,即可将待预测简历对应的岗位名称补充至该待预测简历中,实现对于该待预测简历的补全。
本申请实施例所提供的岗位预测模型、岗位预测模型的训练方法和岗位预测方法,一方面可以实现对于简历中岗位名称的自动化预测,对于缺失岗位名称的简历,利用上述方案,可以实现自动化的简历名称补充,无需人工介入,提高了简历名称补充效率,且减少了成本。另一方面,通过采用多个不同子预测模型来对目标数据进行处理,并最终根据这多个不同子预测模型的输出向量拼接得到的目标输出向量确定出岗位名称,使得整个实现过程可以综合这多个不同子预测模型的预测性能,从而提高对于简历名称的预测准确性。
实施例二:
本实施例在实施例一的基础上,以一种具体的岗位预测模型为例,为本申请做进一步示例说明。
参见图2所示,图2为本实施例提供的岗位预测模型。其中,卷积神经网络为1维卷积神经网络。
首先,提取待预测简历中项目经历、工作经历、兴趣爱好部分的文本内容。
对提取到的项目经历、工作经历、兴趣爱好的文本信息通过jieba分词技术进行分词,得到项目经历对应的候选词汇集(记为候选词汇集1)、工作经历对应的候选词汇集(记为候选词汇集2)、兴趣爱好对应的候选词汇集(记为候选词汇集3)。
根据训练过程中得到的低频词汇集,对候选词汇集1、候选词汇集2和候选词汇集3中的候选词汇进行筛选,剔除存在的低频词汇,得到项目经历对应的目标词汇集(记为目标词汇集1)、工作经历对应的目标词汇集(记为目标词汇集2)、兴趣爱好对应的目标词汇集(记为目标词汇集3)。
需要说明的是,低频词汇集是训练过程中通过对各样本简历中项目经历、工作经历、兴趣爱好进行分词后,进行各词汇的词频统计,取词频低于预设词频阈值的那部分词汇构成的词汇集合。
在得到目标词汇集1、目标词汇集2和目标词汇集3后,先将目标词汇集1向量化,输入至1维卷积神经网络、BERT模型和LSTM模型。
1维卷积神经网络通过最大池化层的作用,输出61个神经元,即输出一个61维向量,记为向量ACNN1;
BERT模型输出61个神经元,即输出一个61维向量,记为向量ABERT1;
LSTM模型输出61个神经元,即输出一个61维向量,记为向量ALSTM1。
对ACNN1、ABERT1和量ALSTM1进行concat拼接,得到一个183维向量,记作A1。
然后,将目标词汇集2向量化,输入至1维卷积神经网络、BERT模型和LSTM模型。
1维卷积神经网络通过最大池化层的作用,输出61个神经元,即输出一个61维向量,记为向量ACNN2;
BERT模型输出61个神经元,即输出一个61维向量,记为向量ABERT2;
LSTM模型输出61个神经元,即输出一个61维向量,记为向量ALSTM2。
对ACNN2、ABERT2和ALSTM2进行concat拼接,得到一个183维向量,记作A2。
然后,将目标词汇集3向量化,输入至1维卷积神经网络、BERT模型和LSTM模型。
1维卷积神经网络通过最大池化层的作用,输出61个神经元,即输出一个61维向量,记为向量ACNN3;
BERT模型输出61个神经元,即输出一个61维向量,记为向量ABERT3;
LSTM模型输出61个神经元,即输出一个61维向量,记为向量ALSTM3。
对ACNN3、ABERT3和ALSTM3进行concat拼接,得到一个183维向量,记作A3。
最后,对A1、A2和A3进行concat拼接,得到一个549维向量,记作A。
将向量A输入至全连接层,取全连接层输出的向量中,元素值最大的元素对应的岗位名称作为最终输出的岗位名称。
上述方案通过实际测试,可以实现99%以上的岗位名称准确预测,具有较高的预测精度,可以满足实际需求。
实施例三:
基于同一发明构思,本申请实施例中还提供了一种岗位预测装置500和岗位预测模型的训练装置600。请参阅图5和图6所示,图5示出了采用图4所示的方法的岗位预测装置,图6示出了采用图3所示的方法的岗位预测模型的训练装置。应理解,装置500和装置600具体的功能可以参见上文中的描述,为避免重复,此处适当省略详细描述。装置500和装置600包括至少一个能以软件或固件的形式存储于存储器中或固化在装置500、装置600的操作系统中的软件功能模块。具体地:
参见图5所示,装置500包括:第一获取模块501、第一处理模块502、第一拼接模块503和第一预测模块504。其中:
所述第一获取模块501,用于获取待预测简历;
所述第一处理模块502,用于将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;
所述第一拼接模块503,用于将每个所述子预测模型的输出向量拼接为一个目标输出向量;
所述第一预测模块504,用于将所述目标输出向量输入全连接层,得到所述待预测简历对应的岗位名称。
在本申请实施例的一种可行实施方式中,所述第一处理模块502具体用于,对所述待预测简历中的目标数据进行分词处理,得到目标词汇,将所述目标词汇向量化后,输入至每个所述子预测模型中。
在上述可行实施方式中,所述第一处理模块502具体用于,对所述待预测简历中的目标数据进行分词处理,得到候选词汇,根据预设的低频词汇集,从通过分词处理得到的各所述候选词汇中,剔除存在于所述低频词汇集中的低频词汇,得到所述目标词汇。
在本申请实施例中,所述待预测简历中的目标数据包括以下至少一种:
所述待预测简历中的项目经历;
所述待预测简历中的工作经历;
所述待预测简历中的兴趣爱好。
在本申请实施例中,所述第一拼接模块503具体用于,在所述待预测简历中的目标数据存在多种时,将每个所述子预测模型输出的针对同种目标数据的输出向量拼接为一个数据向量,将各所述数据向量拼接为所述目标输出向量。
参见图6所示,装置600包括:第二获取模块601、第二处理模块602、第二拼接模块603、第二预测模块604和参数更新模块605。其中:
所述第二获取模块601,用于获取简历样本集中的各样本简历对应的目标数据,以及各所述样本简历对应的实际岗位名称;
所述第二处理模块602,用于将各所述样本简历对应的目标数据输入至不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;
所述第二拼接模块603,用于将每个所述子预测模型的输出向量拼接为目标输出向量;
所述第二预测模块604,用于将所述目标输出向量输入全连接层,得到各所述样本简历对应的预测岗位名称;
所述参数更新模块605,用于根据各所述样本简历对应的实际岗位名称和预测岗位名称计算损失值;在所述损失值未满足预设训练结束条件时,更新每个所述子预测模型的模型参数,并控制所述第二处理模块602、第二拼接模块603和第二预测模块604继续迭代,直至损失值满足预设训练结束条件。
在本申请实施例的一种可行实施方式中,所述第二处理模块602具体用于:对各所述样本简历对应的目标数据进行分词处理,得到各候选词汇,并统计各所述候选词汇的词频;选取各所述候选词汇中,词频大于预设词频阈值的目标词汇;将各所述样本简历对应的目标词汇向量化后,输入至不同子预测模型中。
在上述可行实施方式中,所述第二处理模块602还用于,获取各所述候选词汇中,词频小于等于所述预设词频阈值的低频词汇;构建并保存低频词汇集;所述低频词汇集中包含所述低频词汇。
需要理解的是,出于描述简洁的考量,部分实施例一中描述过的内容在本实施例中不再赘述。
实施例四:
本实施例提供了一种电子设备,参见图7所示,其包括处理器701、存储器702以及通信总线703。其中:
通信总线703用于实现处理器701和存储器702之间的连接通信。
存储器702中存储有实施例一中所提供的岗位预测模型。
处理器701用于调用存储器702中存储的岗位预测模型,以实现上述实施例一中的岗位预测方法,或实现上述实施例一中的岗位预测模型的训练方法。
可以理解,图7所示的结构仅为示意,电子设备还可包括比图7中所示更多或者更少的组件,或者具有与图7所示不同的配置。
在本申请实施例中,电子设备可以是服务器、主机等具有信息处理与存储能力的设备。
本实施例还提供了一种可读存储介质,如软盘、光盘、硬盘、闪存、U盘、SD(SecureDigital Memory Card,安全数码卡)卡、MMC(Multimedia Card,多媒体卡)卡等。在该可读存储介质中存储有实施例一中所提供的岗位预测模型。或者,在该可读存储介质中存储有一个或者多个程序,这一个或者多个程序可被一个或者多个处理器执行,以实现上述实施例一中的岗位预测方法,或实现上述实施例一中的岗位预测模型的训练方法。在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
在本文中,多个是指两个或两个以上。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (14)
1.一种岗位预测方法,其特征在于,所述方法包括:
获取待预测简历;
将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;
将每个所述子预测模型的输出向量拼接为一个目标输出向量;
将所述目标输出向量输入全连接层,得到所述待预测简历对应的岗位名称。
2.如权利要求1所述的岗位预测方法,其特征在于,将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中之前,所述方法还包括:
对所述待预测简历中的目标数据进行分词处理,得到目标词汇;
对应的,将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,包括:
将所述目标词汇向量化后,输入至每个所述子预测模型中。
3.如权利要求2所述的岗位预测方法,其特征在于,对所述待预测简历中的目标数据进行分词处理,得到目标词汇,包括:
对所述待预测简历中的目标数据进行分词处理,得到候选词汇;
根据预设的低频词汇集,从通过分词处理得到的各所述候选词汇中,剔除存在于所述低频词汇集中的低频词汇,得到所述目标词汇。
4.如权利要求1所述的岗位预测方法,其特征在于,所述待预测简历中的目标数据包括以下至少一种:
所述待预测简历中的项目经历;
所述待预测简历中的工作经历;
所述待预测简历中的兴趣爱好。
5.如权利要求1-4任一项所述的岗位预测方法,其特征在于,在所述待预测简历中的目标数据存在多种时,所述将每个所述子预测模型的输出向量拼接为一个目标输出向量,包括:
将每个所述子预测模型输出的针对同种目标数据的输出向量拼接为一个数据向量;
将各所述数据向量拼接为所述目标输出向量。
6.一种岗位预测模型的训练方法,其特征在于,所述方法包括:
获取简历样本集中的各样本简历对应的目标数据,以及各所述样本简历对应的实际岗位名称;
将各所述样本简历对应的目标数据输入至不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;
将每个所述子预测模型的输出向量拼接为目标输出向量;
将所述目标输出向量输入全连接层,得到各所述样本简历对应的预测岗位名称;
根据各所述样本简历对应的实际岗位名称和预测岗位名称计算损失值;
在所述损失值未满足预设训练结束条件时,更新每个所述子预测模型的模型参数,并继续迭代,直至损失值满足预设训练结束条件。
7.如权利要求6所述的训练方法,其特征在于,在将各所述样本简历对应的目标数据输入至不同子预测模型中之前,所述方法还包括:
对各所述样本简历对应的目标数据进行分词处理,得到各候选词汇,并统计各所述候选词汇的词频;
选取各所述候选词汇中,词频大于预设词频阈值的目标词汇;
对应的,将各所述样本简历对应的目标数据输入至不同子预测模型中,包括:
将各所述样本简历对应的目标词汇向量化后,输入至不同子预测模型中。
8.如权利要求7所述的训练方法,其特征在于,所述方法还包括:
获取各所述候选词汇中,词频小于等于所述预设词频阈值的低频词汇;
构建并保存低频词汇集;所述低频词汇集中包含所述低频词汇。
9.一种岗位预测模型,其特征在于,包括:
多个不同子预设模型,每个所述子预设模型均用于对简历中的目标数据进行处理,以输出所述目标数据对应的输出向量;
拼接层,与各所述子预设模型的输出端连接,用于将每个所述子预测模型的输出向量拼接为一个目标输出向量;
全连接层,与所述拼接层的输出端连接,用于对所述目标输出向量进行处理,得到所述简历对应的岗位名称。
10.如权利要求9所述的岗位预测模型,其特征在于,所述多个不同子预设模型包括:卷积神经网络模型、BERT模型和长短期记忆网络模型。
11.一种岗位预测装置,其特征在于,包括:第一获取模块、第一处理模块、第一拼接模块和第一预测模块;
所述第一获取模块,用于获取待预测简历;
所述第一处理模块,用于将所述待预测简历中的目标数据输入至预先训练好的不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;
所述第一拼接模块,用于将每个所述子预测模型的输出向量拼接为一个目标输出向量;
所述第一预测模块,用于将所述目标输出向量输入全连接层,得到所述待预测简历对应的岗位名称。
12.一种岗位预测模型的训练装置,其特征在于,包括:第二获取模块、第二处理模块、第二拼接模块、第二预测模块和参数更新模块;
所述第二获取模块,用于获取简历样本集中的各样本简历对应的目标数据,以及各所述样本简历对应的实际岗位名称;
所述第二处理模块,用于将各所述样本简历对应的目标数据输入至不同子预测模型的每个子预测模型中,得到每个所述子预测模型针对所述目标数据的输出向量;
所述第二拼接模块,用于将每个所述子预测模型的输出向量拼接为目标输出向量;
所述第二预测模块,用于将所述目标输出向量输入全连接层,得到各所述样本简历对应的预测岗位名称;
所述参数更新模块,用于根据各所述样本简历对应的实际岗位名称和预测岗位名称计算损失值;在所述损失值未满足预设训练结束条件时,更新每个所述子预测模型的模型参数,并控制所述第二处理模块、第二拼接模块和第二预测模块继续迭代,直至损失值满足预设训练结束条件。
13.一种电子设备,其特征在于,包括:处理器、存储器及通信总线;
所述通信总线用于实现所述处理器和存储器之间的连接通信;
所述存储器中存储有如权利要求9或10所述的岗位预测模型;
所述处理器用于调用所述存储器中存储的岗位预测模型,以实现如权利要求1至5中任一项所述的岗位预测方法,实现如权利要求6至8中任一项所述的岗位预测模型的训练方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有如权利要求9或10所述的岗位预测模型;或,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1至5中任一项所述的岗位预测方法,实现如权利要求6至8中任一项所述的岗位预测模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111087808.4A CN113780671A (zh) | 2021-09-16 | 2021-09-16 | 岗位预测方法、训练方法、装置、模型、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111087808.4A CN113780671A (zh) | 2021-09-16 | 2021-09-16 | 岗位预测方法、训练方法、装置、模型、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113780671A true CN113780671A (zh) | 2021-12-10 |
Family
ID=78851594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111087808.4A Pending CN113780671A (zh) | 2021-09-16 | 2021-09-16 | 岗位预测方法、训练方法、装置、模型、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780671A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114331380A (zh) * | 2021-12-31 | 2022-04-12 | 北京百度网讯科技有限公司 | 职业流动关系的预测方法、系统、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110727758A (zh) * | 2018-06-28 | 2020-01-24 | 中国科学院声学研究所 | 一种基于多长度文本向量拼接的舆情分析方法及其系统 |
CN112036647A (zh) * | 2020-09-02 | 2020-12-04 | 中国平安人寿保险股份有限公司 | 基于人工智能的简历信息处理方法、装置、设备及介质 |
CN112132536A (zh) * | 2020-08-31 | 2020-12-25 | 三盟科技股份有限公司 | 一种岗位推荐方法、系统、计算机设备及存储介质 |
CN113177118A (zh) * | 2021-04-29 | 2021-07-27 | 中国邮政储蓄银行股份有限公司 | 文本分类模型、文本分类的方法以及装置 |
-
2021
- 2021-09-16 CN CN202111087808.4A patent/CN113780671A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110727758A (zh) * | 2018-06-28 | 2020-01-24 | 中国科学院声学研究所 | 一种基于多长度文本向量拼接的舆情分析方法及其系统 |
CN112132536A (zh) * | 2020-08-31 | 2020-12-25 | 三盟科技股份有限公司 | 一种岗位推荐方法、系统、计算机设备及存储介质 |
CN112036647A (zh) * | 2020-09-02 | 2020-12-04 | 中国平安人寿保险股份有限公司 | 基于人工智能的简历信息处理方法、装置、设备及介质 |
CN113177118A (zh) * | 2021-04-29 | 2021-07-27 | 中国邮政储蓄银行股份有限公司 | 文本分类模型、文本分类的方法以及装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114331380A (zh) * | 2021-12-31 | 2022-04-12 | 北京百度网讯科技有限公司 | 职业流动关系的预测方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523640B (zh) | 神经网络模型的训练方法和装置 | |
CN109189767B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN107301170B (zh) | 基于人工智能的切分语句的方法和装置 | |
CN112148881B (zh) | 用于输出信息的方法和装置 | |
CN112231275A (zh) | 多媒体文件分类、信息处理与模型训练方法、系统及设备 | |
CN112395385B (zh) | 基于人工智能的文本生成方法、装置、计算机设备及介质 | |
GB2604552A (en) | Fusing multimodal data using recurrent neural networks | |
EP3620982B1 (en) | Sample processing method and device | |
CN111444330A (zh) | 提取短文本关键词的方法、装置、设备及存储介质 | |
CN110442702B (zh) | 搜索方法、装置、可读存储介质和电子设备 | |
CN112507190B (zh) | 一种财经快讯的关键词提取方法和系统 | |
CN107729520B (zh) | 文件分类方法、装置、计算机设备及计算机可读介质 | |
CN112347760A (zh) | 意图识别模型的训练方法及装置、意图识别方法及装置 | |
CN111177375A (zh) | 一种电子文档分类方法及装置 | |
CN113780007A (zh) | 语料筛选方法、意图识别模型优化方法、设备及存储介质 | |
CN112149754B (zh) | 一种信息的分类方法、装置、设备及存储介质 | |
CN110633475A (zh) | 基于计算机场景的自然语言理解方法、装置、系统和存储介质 | |
CN113190675A (zh) | 文本摘要生成方法、装置、计算机设备和存储介质 | |
CN112115131A (zh) | 数据去噪方法、装置、设备及计算机可读存储介质 | |
WO2022052633A1 (zh) | 文本备份方法、装置、设备及计算机可读存储介质 | |
CN113780671A (zh) | 岗位预测方法、训练方法、装置、模型、设备及存储介质 | |
CN117725220A (zh) | 文档表征和文档检索的方法、服务器及存储介质 | |
CN115858776B (zh) | 一种变体文本分类识别方法、系统、存储介质和电子设备 | |
CN113254578B (zh) | 用于数据聚类的方法、装置、设备、介质和产品 | |
CN115080745A (zh) | 基于人工智能的多场景文本分类方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211210 |