CN117236911B - 一种基于人工智能的面试评价方法及系统 - Google Patents
一种基于人工智能的面试评价方法及系统 Download PDFInfo
- Publication number
- CN117236911B CN117236911B CN202311499089.6A CN202311499089A CN117236911B CN 117236911 B CN117236911 B CN 117236911B CN 202311499089 A CN202311499089 A CN 202311499089A CN 117236911 B CN117236911 B CN 117236911B
- Authority
- CN
- China
- Prior art keywords
- model
- interview
- scoring
- answer
- interviewer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 37
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims description 54
- 230000008451 emotion Effects 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 33
- 239000013598 vector Substances 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 238000013461 design Methods 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 9
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 239000000047 product Substances 0.000 description 26
- 230000000694 effects Effects 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 11
- 239000002131 composite material Substances 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 238000005457 optimization Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 230000004927 fusion Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 102100033814 Alanine aminotransferase 2 Human genes 0.000 description 2
- 101710096000 Alanine aminotransferase 2 Proteins 0.000 description 2
- 241000209504 Poaceae Species 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000011068 loading method Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000007115 recruitment Effects 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 102100038612 Calmodulin-regulated spectrin-associated protein 3 Human genes 0.000 description 1
- 101000741294 Homo sapiens Calmodulin-regulated spectrin-associated protein 3 Proteins 0.000 description 1
- 239000004280 Sodium formate Substances 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 239000004281 calcium formate Substances 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- BDAGIHXWWSANSR-UHFFFAOYSA-N formic acid Substances OC=O BDAGIHXWWSANSR-UHFFFAOYSA-N 0.000 description 1
- 239000004312 hexamethylene tetramine Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 239000004311 natamycin Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000004309 nisin Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004306 orthophenyl phenol Substances 0.000 description 1
- 239000001205 polyphosphate Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013077 scoring method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004307 sodium orthophenyl phenol Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000004308 thiabendazole Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000001226 triphosphate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Machine Translation (AREA)
Abstract
本发明提供了一种基于人工智能的面试评价方法及系统,包括:获取面试者简历和对应的岗位要求;基于所述面试者简历和对应的岗位要求,生成个性化面试问题;构建面试者回答评分模型,并设计综合评分维度和评分规则;基于所述面试者回答的答案,通过所述面试者回答评分模型进行不同维度的评分,并基于不同维度的评分结果,确定所述面试者的综合得分。
Description
技术领域
本发明涉及信息技术领域,具体涉及基于人工智能的面试评价方法及系统。
背景技术
随着人工智能技术的发展,利用AI进行面试评估也越来越普遍。目前可采用基于规则的面试评分系统,可以针对面试者对固定面试问题的回答进行打分,或者基于机器学习的面试评分系统,可以通过训练模型对面试回答进行打分。但这两类系统都存在定制性差,评估维度单一的问题。
因此,现有的AI面试系统大多只能针对固定的面试问题进行评分,无法实现针对不同岗位和不同面试者设计个性化的面试问题,也无法对面试者做出综合的评价。
发明内容
本申请提供了一种基于人工智能的面试评价方法及系统,为解决现有技术中无法针对不同岗位和不同面试者设计不同面试问题,导致AI面试灵活性不高的问题。
鉴于上述问题,本申请提供了一种基于人工智能的面试评价方法及系统。
本申请实施例提供基于人工智能的面试评价方法,包括:
获取面试者简历和对应的岗位要求;
基于所述面试者简历和对应的岗位要求,生成个性化面试问题;
构建面试者回答评分模型,并设计综合评分维度和评分规则,其中,所述面试者回答评分模型包括长短时记忆模型LSTM、卷积神经网络CNN和双向编码器表示BERT模型的集成模型,或通用人工智能模型AGI;
基于所述面试者回答的答案,通过所述面试者回答评分模型进行不同维度的评分,并基于不同维度的评分结果,确定所述面试者的综合得分;
其中,基于所述面试者简历和对应的岗位要求,生成个性化面试问题,包括:
构建语言模型transformer;
训练所述语言模型;
获取所述面试者简历和岗位信息,提取关键信息作为变量;
构建面试问题提示,所述面试问题提示包含面试问题框架和变量占位符;
将所述变量添加至所述面试问题模板占位符中,以生成个性化面试问题提示;
将所述个性化面试问题提示输入至训练后的语言模型中,输出所述个性化面试问题;
其中,构建面试者回答评分模型,包括:
构建语料库,收集具有评分标签的面试回答样本;
对所述语料库中的数据进行预处理;
基于所述面试回答样本,训练所述评分模型。
可选地,若所述语言模型为通用预训练Transformer模型GPT,则训练所述语言模型,包括:
获取样本数据;
提取所述样本数据的上下文,构建文本序列;
设置GPT模型结构,初始化参数;
定义自回归生成预训练任务,最大化目标序列生成概率;
计算序列生成的交叉熵损失,使用Adam优化器更新参数。
可选地,若所述语言模型为通用预训练Transformer模型GPT,则将所述个性化面试问题提示输入至训练后的语言模型中,输出所述个性化面试问题,包括:
将所述个性化面试问题提示进行分词和数值化处理,输出索引序列;
输入所述索引序列至GPT模型中,所述GPT模型具备编码器、多层transformer解码器和嵌入embedding层;
将所述索引序列转换为向量表示,作为所述多层transformer解码器的初始输入;
在第一解码器模块中,对索引序列向量进行自注意力操作,获得第一自注意力表示;
将所述第一自注意力表示与所述索引序列向量进行拼接后传入第二解码器模块;
所述第二解码器模块对所述拼接后的第一自注意力表示与索引序列向量进行自注意力计算,得到第二注意力表示;
重复解码器的自注意力计算,逐步生成面试问题,包括:设有N个时间周期,在每一个时间周期内,将前一解码器的输出作为当前解码器的输入,实现自动回归生成面试问题;
当所述生成的面试问题长度达到预设长度后,输出序列作为最终生成的面试问题。
可选地,基于所述面试回答样本,训练所述评分模型,包括:
对所述面试回答样本进行预处理;
设置不同模型的超参数,定义损失函数和优化器;
分别输入预处理后的面试回答样本至不同的模型,将不同模型预测结果与标注结果计算MES损失,并反向传播更新网络参数,其中,所述不同的模型为RNN模型和LSTM模型;
将不同模型的输出结果进行融合。
可选地,通过所述面试者回答评分模型进行不同维度的评分,并基于不同维度的评分结果,确定所述面试者的综合得分,包括:
个性化设计评分维度和规则;
通过通用人工智能模型AGI实现多模态面试;
结合语音和图像,评估所述面试者的表达能力;
针对不同的评分维度,调用AGI算法进行打分;
按预设的权重规则计算综合得分。
可选地,针对不同的评分维度,调用AGI算法进行打分,包括:
对回答文本进行情感分析,判断所述面试者的正负面情绪;
通过命名实体识别,提取回答的关键词;
基于所述回答的关键词,判断回答涵盖的知识维度;
采用Seq2Seq模型评估回答的语法和连贯性。
可选地,通过通用人工智能模型AGI实现多模态面试,包括:
将回答者的语音进行文字转换,获得面试回答文本;
对所述文本关键词进行提取,判断知识维度;
采集面试者的图像数据,并进行图像处理,分析所述面试者的情绪和态度。
本申请实施例还提供一种基于人工智能的面试评价系统,包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于当执行所述计算机程序时,实现上述的面试评价方法。
本申请实施例还提供一种基于人工智能的面试评价系统,所述系统内存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
本申请中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的技术方案,实现了基于面试岗位的个性化面试问题生成,并可以对面试者的回答进行多维度的评分,从而进行综合评价,提升了AI面试的灵活性。
附图说明
图1为本申请提供的基于人工智能的面试评价方法流程示意图;
图2为本申请提供的S102的细化流程图;
图3为本申请提供的构建面试者回答评分模型的流程图;
图4为本申请提供的S104的细化流程图;
图5为本申请提供的针对不同的评分维度,调用AGI算法进行打分的流程图;
图6为本申请提供的基于人工智能的面试评价系统结构示意图。
具体实施方式
本申请提供了一种基于人工智能的面试评价方法及系统,实现了基于面试岗位的个性化面试问题生成,并可以对面试者的回答进行多维度的评分,从而进行综合评价,提升了AI面试的灵活性。
实施例一
如图1所示,本申请提供了基于人工智能的面试评价方法,所述方法包括:
S101.获取面试者简历和对应的岗位要求;
本申请实施例中,通过线上HR平台可以实现获取面试者简历、AI面试和其他HR相关的工作。
HR平台通过互联网招聘平台投放岗位需求,由第三方的互联网招聘平台发布,并通过API接口获取到面试者的简历和对应的岗位要求。
S102.基于所述面试者简历和对应的岗位要求,生成个性化面试问题;
对于现有技术而言,往往是由专业的HR设计出不同岗位的面试问题模板,形成一整个模板库,该模板库涵盖该岗位的知识面、能力要求等多个维度。面试问题模板包括必问问题和补充问题。
以产品经理面试为例,面试问题模板可以包括:
1. 自我介绍
提示语:请简单介绍自己的教育和工作经历背景。
2. {面试者姓名},针对你应聘的{面试岗位}一职,请谈谈你认为一个优秀的{面试岗位}应该具备哪些关键能力或特质?并结合自己的经历进行介绍。
3. {面试者姓名},请详细描述你所参与的某个产品的设计过程,包括如何进行用户研究、竞品分析,以及最终确定产品的具体设计思路。
4. 你曾经参与过产品设计中遇到哪些困难或失败的案例,你从中获得了哪些经验教训?
5. 你认为当前的产品设计领域存在哪些问题或挑战?你认为这些问题可以通过什么方法得到改善或解决?
6. 请描述一下你未来职业生涯的规划,以及加入我们公司可以如何帮助你实现这些规划。
然而,现有技术往往是人为进行面试模板库的面试问题提取,并加以组合,这种做法效率并不高,而且不同的面试官挑选问题的时候是随机的,评价的时候也是主观的,难以做到一个客观和全面的综合评价。
因此,在本申请实施例中,可以根据面试者的简历以及岗位要求,设置面试提示,即面试问题描述中的变量,实现面试问题的个性化。例如:面试提示可以包含面试者的姓名、应聘岗位、学校名字、个性化的面试角度等,从而生成个性化的面试问题。
具体地,如图2所示,S102具体可以包括:
A1.构建语言模型transformer;
语言模型transformer是一种人工智能模型,其包括多种不同的模型,如BERT、GPT的中文预训练版本。具体可以选择12-24层,隐藏层向量维度768-1024。
BERT全称为Bidirectional Encoder Representation Transformer,是一种基于Transformer的编码器-解码器结构的语言表示模型。核心是多层双向Transformer编码器,通过Masked LM 和 Next Sentence Prediction进行预训练。
GPT全称是Generative Pretrained Transformer,是一种基于Transformer的语言生成模型。GPT-2/3/4都是单向Transformer decoder结构。
BERT和GPT的网络架构都包含encoder和decoder。以BERT为例,encoder由多层自注意力机制模块组成,decoder是基于Transformer的一个线性输出层,输出是输入文本的表示向量。
中文预训练版BERT有BERT-wwm、NEZHA等。GPT有CPM-Generate等。通过模型大小、自注意力头数、预训练数据等指标选择合适的预训练模型。
其中,选择预训练模型可考虑如下几个因素:
1) 比较不同预训练模型在语料测试集上的指标,如困惑度、准确率等
2) 根据模型规模,参数量多的模型表达能力更强,但计算成本也更高
3) 注意力头数多可以capture更多上下文信息,但也容易过拟合
4) 综合以上因素,选择合适的模型尺寸,平衡成本和效果
预训练GPT语言模型前需要进行如下准备B1-B5:
(B1) 语料处理:提取面试对话语料的上下文,构建问答式训练数据;进行中文分词、建立词汇表。
(B2) 模型选择:GPT-2/GPT-3/GPT-4的中文版模型。加载预训练模型参数作为初始化。
(B3) 微调训练:采用masked(中文译文为掩盖)语言模型、next sentencePrediction两种迁移学习任务进行微调。损失函数选择交叉熵,优化器选择Adam,学习率为1e-4至1e-5,训练迭代轮数一般20-40轮。
Masked LM: 部分掩盖输入,模型复原被掩盖词语。
Next Sentence Prediction:预测文本序列的逻辑顺序。
这两种迁移学习任务通过语义理解提升GPT的生成能力。
其中,微调训练步骤包括B31-B36
(B31) 基于预训练GPT模型进行模型初始化
(B32) 使用下游任务数据(如对话数据)进行微调(fine-tuning)
(B33) 定义masked语言模型任务:随机mask输入文本的token,预测被mask的token
(B34) 定义next sentence预测任务:预测文本序列的逻辑顺序
(B35)联合训练两个任务,计算损失优化模型参数
(B36) iterative fine-tuning,保存微调后的GPT模型
(B4) 交叉熵损失函数计算两个概率分布的距离。Adam优化算法基于梯度进行参数更新。
(B5) 训练样本为标注的语料文本。模型输出文本的语义表示向量。
A2.训练所述语言模型;
如上例,语言模型可以包括预训练的GPT模型,而预训练GPT模型是在已经得到过训练,并且可以适用在初始的应用场景,对于个性化面试问题生成而言,其采集的样本不同,对于模型而言,其输入不同,输出也不同,不能拿预训练好的GPT模型直接用,还需要进行个性化面试问题这一场景的样本训练。即,预训练模型是经过了第一次的初始训练,还需要经过第二次的面试问题这一场景的针对性训练。
因此,若所述语言模型为通用预训练Transformer模型GPT,则A2具体包括:
A21.获取样本数据;
获取大量的历史岗位数据和历史面试简历,将其进行文本拆分后作为样本数据。
A22.提取所述样本数据的上下文,构建文本序列;
对样本数据进行预处理,提取上下文,构建文本序列,后续作为模型的输入,帮助模型进行训练。
A23.设置GPT模型结构,初始化参数;
如B1-B5所述,可以设置一个预训练的GPT模型,加载其初始参数,进行模型的初始化。
A24.定义自回归生成预训练任务,最大化目标序列生成概率;
A25.计算序列生成的交叉熵损失,使用Adam优化器更新参数。
下面用产品经理面试数据为例,说明定义自回归生成预训练任务和计算损失优化的步骤:
C51. 定义自回归生成任务
输入面试问文本序列到GPT模型
预测对应答文本的下一个token,构建最大化答文本生成概率的任务
C52. 计算生成概率
GPT模型针对每个token输出预测概率分布
计算真实答文本每个token的预测概率之积,作为生成概率
C53. 交叉熵损失函数
定义交叉熵损失衡量预测与真实的偏差
最小化交叉熵损失等效于最大化生成概率
C54. Adam优化器
根据交叉熵损失的梯度
使用Adam算法迭代更新GPT模型的参数
C55. 重复优化
在所有问答训练数据上循环训练
逐步优化模型对回答的生成效果
通过这些步骤,可以有效训练GPT模型,对于产品经理面试的问答能够进行自然的生成。
迭代多轮训练,保存预训练参数
以产品经理应聘为例,GPT面试提示模板:
“面试官:候选人{name},请你谈谈{position}需要有哪些关键技能和经验?
候选人:{name},作为一名产品经理,关键技能和经验包括:
1. 需求分析:能够深入用户研究,明确产品诉求
2. 技术理解:对主流技术有基本理解,能够与技术团队沟通
3. 数据分析:能利用数据指导产品优化迭代”
A3.获取所述面试者简历和岗位信息,提取关键信息作为变量;
在训练好了语言模型后,需要使用该模型进行面试问题生成,因此,需要获取该模型的输入。
在本申请实施例中,需要定义正则表达式,如姓名,学历,使用Python正则表达式模块,按定义表达式提取匹配简历文本,生成结构化数据。
A4.构建面试问题提示,所述面试问题提示包含面试问题框架和变量占位符;
面试提示,指的是在自然语言生成任务中事先提供的一小段文本,它包含了一些背景信息或要求,指导语言模型生成符合要求的文本。在面试问题生成中,面试提示预先定义了面试问题框架,并使用变量占位。
例如,以json格式定义变量键值对,如 {"姓名":"小明","学历":"本科"},其中{"姓名":"小明","学历":"本科"}即为变量占位符,以分隔符{}表示。
A5.将所述变量添加至所述面试问题模板占位符中,以生成个性化面试问题提示;
输入面试者的关键信息,替换面试提示模板中的变量,生成针对该面试者的个性化面试提示。
使用Python格式化语法设计模板,如“{姓名},能谈谈作为一名{职位}应具备的领导力吗?”
使用Python格式化方法,传入定义的变量键值对,生成个性化面试提示。
需要说明的是,变量键值对和变量占位符是指在利用模板生成文本时使用的一种技术。
变量键值对(key-value pair)指的是将变量抽象为键值对的形式来表示,其中:
键(key):变量的名称
值(value):变量的具体值
例如,一个变量键值对可以表示为:
{"name":"小明","city":"北京"}
其中,"name"是键,"小明"是对应的值。
变量占位符(placeholder)指的是在模板文本中预留出来的位置,用于后续填入变量值。占位符通常使用特殊符号表示,如{}或<>。
例如,模板:
"我叫{name},来自{city}。"
其中,{name}和{city}就是两个变量占位符。
在应用时,会将变量键值对中的值替换模板中的占位符,最终生成文本:
"我叫小明,来自北京。"
所以,变量键值对提供了生成文本所需要的具体变量数据,变量占位符则在模板中标记了变量插入的位置。两者结合可以实现用数据动态生成文本的效果。
综上所述,变量键值对和占位符在模板生成文本中发挥着重要的作用,前者提供变量数据,后者在模板中预留变量位置。
在其中一个实施例中,可选地,若所述语言模型为通用预训练Transformer模型GPT,则A5包括:
A51.将所述个性化面试问题提示进行分词和数值化处理,输出索引序列;
A52.输入所述索引序列至所述GPT模型中,所述GPT模型具备编码器、多层transformer解码器和嵌入embedding层;
A53.将所述索引序列转换为向量表示,作为所述多层transformer解码器的初始输入;
输入面试提示经embedding层转为向量表示,即索引序列向量,作为解码器的初始输入。目的在于:基于面试提示,GPT模型通过自注意力机制自动回归生成面试问题。
A54.在第一解码器模块中,对索引序列向量进行自注意力操作,获得第一自注意力表示;
即索引序列向量与自己进行点积注意力计算,得到索引序列向量的自注意力表示。
A55.将所述第一自注意力表示与所述索引序列向量进行拼接后传入第二解码器模块;
A56.所述第二解码器模块对所述拼接后的第一自注意力表示与索引序列向量进行自注意力计算,得到第二注意力表示;
第二个解码器模块在获得新的向量表示后,进行自注意力计算,得到新的注意力表示。
A57.重复解码器的自注意力计算,逐步生成面试问题,包括:设有N个时间周期,在每一个时间周期内,将前一解码器的输出作为当前解码器的输入,实现自动回归生成面试问题;
重复解码器模块的自注意力计算,逐步生成面试问题,在每个时间周期,将前一步的输出作为当前步的输入,实现自动回归生成。
A58.当所述生成的面试问题长度达到预设长度后,输出序列作为最终生成的面试问题。
A6.将所述个性化面试问题提示输入至训练后的语言模型中,输出所述个性化面试问题。
之所以需要先生成面试提示,再生成面试问题,是因为可以通过面试提示带入背景信息,GPT模型可以充分利用自注意力机制对上下文的理解力,实现高质量的自动生成面试问题。而如果直接生成面试问题,则缺少了很多个性化的考量因素,生成的面试问题不能满足实际的面试场景的需要,质量会相对低下。
使用面试提示的优势在于:
(1) 可以快速为不同面试者生成个性化、目标导向的面试问题。
(2) 面试提示本身包含背景信息,质量更高。
(3) 通过预训练模型,无需重复训练,只需要对简历和岗位样本进行训练即可扩展应用。
(4) 更新面试提示模板就可以轻松调整面试风格。
相比传统方法,面试提示个性化生成无需对每个面试者训练新模型,更灵活、高效。
S103.构建面试者回答评分模型,并设计综合评分维度和评分规则;
构建面试者回答评分模型的目的在于:收集具有标注的面试回答样本,标注包括回答得分及关键词标注。使用自然语言处理技术,训练出一个序列标注模型,对面试者的回答文本进行处理,给出回答质量评分及标注关键词。
面试者回答评分模型是指通过算法和模型对面试者对面试问题的回答内容进行打分和评价的系统。它可以判断回答的质量、涵盖的知识维度等,辅助面试官客观评价面试者。其中,综合评分维度和评分规则可以预先由HR专家制定。
例如,针对“介绍一下自己的工作经历”的回答,评分模型可以分析回答的流畅度、连贯性,并提取关键词判断经历是否匹配该岗位要求。
在其中一个实施例中,面试者回答评分模型包括长短时记忆模型LSTM、卷积神经网络CNN和双向编码器表示BERT模型的集成模型,或通用人工智能模型AGI。
如图3所示,构建面试者回答评分模型,具体包括:
D1.构建语料库,收集具有评分标签的面试回答样本;
其中,语料库即为简历和岗位的数据库,在该数据库中,保存有人为进行了评分标注的面试回答样本。
D2.对所述语料库中的数据进行预处理;
例如,清洗文本,提取词向量等语言特征。
D3.基于所述面试回答样本,训练所述评分模型。
其中,基于所述面试回答样本,训练所述评分模型,包括如下步骤:
D31.对所述面试回答样本进行预处理;
例如,切分文本,提取词向量等数字特征;
D32.设置不同模型的超参数,定义损失函数和优化器;
以RNN和LSTM为例(BERT模型是RNN模型的一个特殊模型),选择RNN/LSTM模型,输入层接词向量,输出层为单节点连续值回归。构建不同模型网络的搭建,定义词向量输入层,连接到LSTM/RNN隐藏层,全连接到输出层节点。设置训练超参数,定义损失函数比如MSE,使用优化器如Adam进行训练迭代更新参数。
D33.分别输入所述预处理后的面试回答样本至不同的模型,将不同模型预测结果与标注结果计算MES损失,并反向传播更新网络参数;
输入标注训练样本,模型预测结果与标注结果计算MSE loss,反向传播更新网络参数。在开发集上验证模型效果,调整超参数达到最佳。在测试集上评估模型,得到评分回归的指标如MSE、R2等。
对于每个模型生成预测结果,即对相同的测试集样本,不同模型会各自预测一个打分结果。
D34.将不同模型的输出结果进行融合。
可以取多个模型结果的平均数、多数投票等。也可以给不同模型设定不同权重。根据融合策略,计算出最终的集成预测打分结果。
评估集成模型相比单一模型的预测指标,如MSE、准确率等。比较不同融合策略的效果,选择集成结果最佳的策略。
在模型训练好后,可以尝试用该模型进行评分预测的测试,如:
F1. 收集新样本:获取新面试者的面试回答文本,作为模型的预测样本。
F2. 新样本预处理:对文本进行与模型训练一致的预处理,如分词、提取词向量等。
F3. 模型加载:加载预训练好的面试回答评分模型。
F4. 模型预测:将预处理后的新文本样本输入到评分模型中进行前向计算。
F5. 获得预测值:模型会输出一个预测的打分值,比如在0-1之间。
F6. 后处理:可以进行归一化等后处理,将预测值映射到具体的分数尺度上。
F7. 生成报告:对多个样本进行预测,形成一个包含新样本及其预测分数的结果报告。
F8. 人工审核:可以由人工查看部分样本的预测效果,作为模型效果的参考。
F9. 模型调优:如果效果欠佳,可以收集更多新样本重新训练模型调优。
F10. 应用模型:如果效果良好,则可以直接将模型应用到更多新面试回答的自动评分中。
S104.基于所述面试者回答的答案,通过所述面试者回答评分模型进行不同维度的评分,并基于不同维度的评分结果,确定所述面试者的综合得分。
其中,如图4所示,通过所述面试者回答评分模型进行不同维度的评分,并基于不同维度的评分结果,确定所述面试者的综合得分,包括如下步骤:
E1.个性化设计评分维度和规则;
可以考虑面试者的应聘岗位和简历情况,设计针对其职业技能、经验、性格等方面的打分维度和权重规则,例如:
技能运用:回答涵盖核心技能点的得分
经验丰富:按相关经验的时间和成果计分
性格团队:通过图像分析面试者的积极态度
E2.通过通用人工智能模型AGI实现多模态面试;
在一个实施例中,通过通用人工智能模型AGI实现多模态面试,包括:
E21.将回答者的语音进行文字转换,获得面试回答文本;
E22.对所述文本关键词进行提取,判断知识维度;
E23.采集面试者的图像数据,并进行图像处理,分析所述面试者的情绪和态度;
利用图像处理分析面试者情绪和态度的步骤包括:
E231. 收集带有情绪标签的面部图像作为数据集
E232. 使用卷积神经网络CNN进行图像特征提取
E233. 在CNN基础上接入全连接层,构建分类模型
E234. 训练模型预测输入图像的情绪标签,如开心、惊讶等
E235. 收集面试过程中的面部图像或视频帧
E236. 使用预处理技术提升图像质量,如降噪、去模糊等
E237. 提取面部区域,传入训练好的情绪分类CNN模型
E238. CNN模型预测每张面部图像属于的情绪类别
E239. 统计不同情绪类别的比例分布
E2310. 根据分布擦除判断面试者的整体情绪态度
E2311. 结合语音情感分析进行校正与优化
E2312. 生成面试者在面试中情绪与态度的可视化报告
E2313. 提供图像情绪分析以辅助面试评估
E3.结合语音和图像,评估所述面试者的表达能力;
具体包括:
E31. 语音情感分析:
通过语音的音调、语速等分析说话方式
判断语音是否流畅、有力
E32. 面部表情分析:
通过图像处理分析面部表情变化
判断面部表情是否丰富、自然
E33. 语言语法分析:
基于文本的语法错误检测
评估语言组织的逻辑清晰度
E34. 多模态表示学习:
采用深度表示学习算法,获得语音、文字、图像的语义向量
分析不同模态向量的关系,评估表达一致性
E35. 融合多模态结果:
整合上述语音、视觉、语言的评分结果
按照重要性权重进行加权结合
E36. 生成表达能力评估报告:
综合多个模态的评分进展情况
评估面试者的表达能力的长处和不足
E37. 提供针对性反馈:
根据报告给出面试者表达能力的建设性Suggestion
帮助其提高面试表达的熟练度和逻辑性
综上,多元化评估和融合不同模态,可以实现对面试者表达能力更全面准确的分析和评价。
E4.针对不同的评分维度,调用AGI算法进行打分;
针对不同维度调用AGI算法进行打分的方法如下:
E41. 定义评分维度
根据面试岗位要求,确定重要的评分维度,如技能专业度、解决问题能力、团队协作性等。
E42. 构建评分模型
针对每个维度,通过AGI构建专门的评分模型,如基于知识图谱的问题解决能力评分模型。
E43. 准备面试数据
收集面试者的面试回答文本、视频、音频等多模态数据。
E44. 特征提取
根据不同模态,使用AGI算法自动提取特征,如文本关键词、音调信息、肢体语言等。
E45. 评分预测
对应每个维度,将特征数据输入预构建的评分模型,得到各维度的预测分数。
将特征数据输入预构建评分模型得到每个维度预测分数的技术步骤:
E451. 构建评分模型
每个维度选择适合的模型结构,如RNN、CNN、图模型等
使用标注数据训练得到各维度的专业评分模型
E452. 特征工程
根据模型输入需求,对文本、音频、视频数据进行特征提取和向量化
如文本词向量化、音频频谱特征等
E453. 模型输入
将同一样本的不同模态特征,合并输入到对应维度评分模型中
模型将不同特征一起进行建模,得到评分
E454. 模型预测
输入样本特征,模型经过前向计算,输出一个预测分数
不同模型会输出不同维度的分数
E455. 后处理
将模型输出的预测值映射缩放到标准化评分范围内
如0-100分等
E456. 生成报告
汇总每个样本在各个维度模型的预测打分情况
形成多维度的评测报告
通过针对性地建模和特征提取,可以实现基于多模态数据对各评分维度的精准预测。
E46. 权重融合
基于不同维度的重要性,设定权重参数,进行加权融合得到总体评分。
E47. 生成报告
汇总每个维度的评分情况,形成面试能力评估报告。
E48. 反馈优化
收集反馈调整评分模型,也可修改权重等方法进行优化。
综上,AGI算法可以自动化处理不同模态数据,针对各个维度进行智能化评分,实现面试能力的精准评估。
此外,在另一个实施例中,如图5所示,E4中针对不同的评分维度,调用AGI算法进行打分,还可以包括:
H1.对回答文本进行情感分析,判断所述面试者的正负面情绪;
实现对面试回答文本进行正负面情感分析的步骤:
H11. 构建情感分析模型
收集带有情感标注(正负面)的语料
使用RNN、CNN等网络模型,训练出一个二分类情感分析模型
H12. 文本预处理
清洗文本,过滤无关内容
中文分词,提取词语
H13. 模型预测
输入预处理后的面试回答文本
模型按顺序通过embedding、RNN/CNN、全连接层处理文本
输出一个正负面概率
H14. 情感判断
比较模型输出的正负面概率
概率较高的一方情感作为判断结果
H15. 结果预测
设定概率阈值,如正负面概率均大于0.6才判断
根据阈值输出面试回答的情感态度分类
H16. 模型优化
收集更多带标注的面试回答样本
重新训练模型提升效果
H17. 应用模型
在面试回答分析中,结合情感判断提供更丰富的见解
示例:
这里给出一个利用情感分析模型对面试回答进行正负面判断的具体示例:
假设面试问题是:“请谈谈你为何离开上一份工作?”
面试者的回答:
“我觉得上一份工作的发展前景不佳,加上团队氛围也不太融洽,所以决定试试找新的环境。虽然当时离开时别扭的,但转念一想,也许新公司也能给我带来新的机遇与挑战,这才是最重要的。”
1. 情感分析模型预测
输入面试回答文本
模型输出正面概率0.82,负面概率0.18
2. 情感判断
正面概率大于负面,且超过0.6阈值
判定为整体正面情绪
3. 结果解释
虽有“别扭”负面词,但上下文表达积极改变求发展心态
模型成功识别出正面情绪语气
4. 提供分析见解
面试者能积极反思,没有明显负面情绪
表现出积极的职业发展态度
H2.通过命名实体识别,提取回答的关键词;
通过命名实体识别提取面试回答关键词的技术步骤:
H21. 构建命名实体识别模型
收集标注命名实体训练数据(人名、地名、组织机构名等)
使用条件随机场CRF或BiLSTM等模型训练序列标注模型
H22. 面试回答预处理
分词,提取词语
为词语构建特征向量表示
H23. 应用命名实体模型
输入面试回答的词语序列和特征向量
CRF模型预测每个词的实体标签
BiLSTM模型通过标注数据微调fine tune
H24. 实体提取
根据模型输出的实体标签,提取被标注的词语
如人名、公司名等
H25. 生成关键词列表
对面试回答文本,综合提取所有被标注的实体词语
作为回答的关键词输出
H26. 提供分析
关键词可以帮助分析回答的主要落点信息
例如涉及的主要公司或产品等
H27. 迭代优化
收集更多命名实体标注数据
重新训练提升模型效果
通过命名实体识别,可以智能地从面试回答中提取关键词信息,用于分析回答的涵盖范围,提供更深入的评价分析。
H3.基于所述回答的关键词,判断回答涵盖的知识维度;
H31. 定义知识维度标签
比如产品知识、业务知识、行业知识等
H32. 收集标注关键词库
让专业人士为不同关键词标注对应的知识维度
H33. 应用命名实体识别,提取关键词
H34. 根据关键词映射知识维度
将关键词与标注库相匹配,判断关键词所属的知识维度
H35. 生成知识维度标签
面试回答文本的全部关键词映射到的维度作为该回答涵盖的知识维度
H36. 评估回答多样性
统计关键词覆盖的维度数量,评估回答的综合性
示例:
面试回答提到的关键词有:产品定位、用户调研、精准用户画像
匹配关键词库,产品定位映射产品知识,用户调研和用户画像映射业务知识
该回答判断为覆盖两个知识维度:产品知识、业务知识
显示该回答涵盖面较广,知识结构完整。
H4.采用Seq2Seq模型评估回答的语法和连贯性。
利用Seq2Seq模型评估面试回答语法和连贯性的技术步骤:
H41. 收集符合语法、连贯的面试回答作为正样本
H42. 构建Seq2Seq模型,编码器为LSTM,解码器为双向LSTM
H43. 输入正样本至编码器,输出至解码器
H44. 训练模型使用解码器重构输入序列
H45. 收集语法错误样本作为负样本
H46. 输入负样本至训练好的Seq2Seq模型
H47. 比较解码输出与原输入的错误差异
H48. 如果差异大,表示该样本语法错误多
H49. 定义语法错误识别的损失函数,表示差异程度
H410. 优化模型降低识别语法错误的损失函数
H411. 在新样本上应用优化后的Seq2Seq模型
H412. 计算误差作为语法错误的程度,评估语法的正误
H413. 连贯性评估可采用类似思路,构建连贯度判别模型
H414. 结合语法与连贯性的评估,给出回答质量的综合分析
通过Seq2Seq结构的编码解码过程,可以评估语序和语法的错误,实现对回答语法及连贯性的自动化评估。
E5.按预设的权重规则计算综合得分。
实现按设定权重规则计算面试综合得分的步骤如下:
E51. 定义评分维度
确定用于面试评分的各个维度,例如沟通能力、专业知识、问题解决能力等。
E52. 为每个维度的得分设置权重
根据面试岗位要求,由面试官针对每个维度设置权重,如沟通能力权重0.3,专业知识权重0.5。
E53. 得到各维度的原始得分
对面试内容在各个维度上进行评分,得到每位面试者在每个维度的原始得分。
E54. 将原始得分按权重进行加权
使用每个维度的权重将其原始得分进行加权,得到加权后的维度得分。
E55. 计算综合得分
将每个面试者在各维度上的加权分数求和,得到面试者的综合得分。
E56. 排序综合得分
根据所有面试者的综合得分对面试者进行排名。
E57. 生成评分报告
形成每个面试者的详细得分报告,包含各维度原始分数、权重、加权分数以及综合得分。
通过以上步骤,可以实现基于设定权重规则对面试进行自动化的综合打分和排名。
通过示例说明如何集成多个模型评分得到回答的综合质量评分:
假设评估回答“我认为产品经理需要注意用户需求和行业趋势”
1. 情感分析模型:正面概率0.9,负面概率0.1,评分90分
2. 关键词抽取:抽取出“用户需求”、“行业趋势”词汇,评分80分
3. 知识维度:判断覆盖产品知识和业务知识,评分75分
4. 语法判断:语序无错误,评分95分
5. 权重设置:情感0.3,关键词0.2,知识维度0.1,语法0.4
6. 评分融合:
0.3*90 + 0.2*80 + 0.1*75 + 0.4*95 = 87分
7. 综合评价:
该回答从情感、关键信息、知识面等维度展现良好,语法清晰连贯,综合质量评分87分。
本发明实施例中,将每个评分维度的结果进行加权计算,得到面试者的综合评价结果,为HR提供详细的面试审核报告。
在其中一个实施例中,示例性地,结合多个评分维度得到综合评价结果的具体算法如下:
1. 定义评分维度
设定面试综合评价的打分维度,例如:
A: 技能专业程度
B: 经验丰富程度
C: 思维逻辑性
D: 团队协作意愿
E: 工作热情与积极性
2. 为每个维度设计打分方法
针对每个维度设计评分标准,例如:
A: 通过关键技能词提取评分
B: 计算相关经验时长评分
C: 评估回答的连贯性评分
D: 情感分析判断团队意愿评分
E: 通过语音情感分析评分
3. 个性化设定评分权重
根据不同岗位设定每个维度的权重,例如:
w = [0.3, 0.2, 0.1, 0.2, 0.2]
4. 加权计算综合评分
对每个维度打分并乘以权重,求和获得综合评分:
score = Σ(分数i * 权重i)
5. 评价报告
生成明细的面试评价报告,给出每个维度的得分与综合得分。
例1:应聘产品经理一职的面试者小明
1)系统从产品经理面试问题模板库中选择了产品设计理念、用户需求挖掘、竞品比较等问题,并组合小明的应聘岗位和学历,生成了以下个性化面试问题:
小明,针对你以社交软件产品经理的应聘岗位,请你阐述如何从用户需求出发进行产品设计。
2)小明回答了上述问题,系统提取关键词并评分,判断回答质量为89分,落点覆盖用户需求、设计流程两个维度。
3)系统从提问模板库中选择了一个对象追问问题:可以举一个你曾经设计的产品的例子,说明你是如何从用户需求出发进行产品设计的?
4)小明针对追问问题做出回答,系统评分回答质量为91分,落点覆盖需求分析、设计方法两个维度。
5)系统综合两个回答,从技能运用、思维逻辑、语言表达三个维度给出评分,并计算出综合得分92分。
例2: 应聘算法工程师一职的面试者张三
1)系统从算法工程师面试问题模板库中选择了数组排序算法设计、系统设计扩展性等问题,并组合张三的应聘岗位和工作经验,生成个性化面试问题。
2)张三回答了问题,系统评分回答质量并提取关键词。
3)系统选择相关追问问题。
4)重复评分流程,得到张三在编程能力、系统设计、团队协作等多个维度上的得分。
5)系统计算出张三的综合评分。
例3:类似流程,应聘其他岗位的面试者也会经历个性化问题生成和多维度评分流程。
本申请中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的技术方案,实现了基于面试岗位的个性化面试问题生成,并可以对面试者的回答进行多维度的评分,从而进行综合评价,提升了AI面试的灵活性。
实施例二
基于与前述实施例中基于人工智能的面试评价方法相同的发明构思,本申请还提供了一种计算机可读存储介质和/或系统,所述计算机可读存储介质和/或系统上存储有计算机程序,所述计算机程序被处理器执行时实现如实施例一内的方法。
实施例三
本发明实施例还提供了基于人工智能的面试评价系统6000,如图6所示,包括存储器64和处理器61,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时实现上述的方法。在实际应用中,系统还可以分别包含必要的其他元件,包含但不限于任意数量的输入系统62、输出系统63、处理器61、控制器、存储器64等,而所有可以实现本申请实施例的方法都在本申请的保护范围之内。
存储器包括但不限于是随机存储记忆体(random access memory,RAM)、只读存储器(read only memory,ROM)、可擦除可编程只读存储器(erasable programmable readonly memory,EPROM)、或便携式只读存储器(compact disc read only memory,CD至ROM),该存储器用于相关指令及数据。
输入系统62用于输入数据和/或信号,以及输出系统63用于输出数据和/或信号。输出系统63和输入系统62可以是独立的器件,也可以是一个整体的器件。
处理器可以包括是一个或多个处理器,例如包括一个或多个中央处理器(centralprocessing unit,CPU),在处理器是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU。处理器还可以包括一个或多个专用处理器,专用处理器可以包括GPU、FPGA等,用于进行加速处理。
存储器用于存储网络设备的程序代码和数据。
处理器用于调用该存储器中的程序代码和数据,执行上述方法实施例中的步骤。具体可参见方法实施例中的描述,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,该单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。所显示或讨论的相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,系统或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程系统。该计算机指令可以存储在计算机可读存储介质中,或者通过该计算机可读存储介质进行传输。该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是只读存储器(read至onlymemory,ROM),或随机存储存储器(random access memory,RAM),或磁性介质,例如,软盘、硬盘、磁带、磁碟、或光介质,例如,数字通用光盘(digital versatile disc,DVD)、或者半导体介质,例如,固态硬盘(solid state disk ,SSD)等。
本说明书和附图仅仅是本申请的示例性说明,且视为已覆盖本申请范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的范围。这样,倘若本申请的这些修改和变型属于本申请及其等同技术的范围之内,则本申请意图包括这些改动和变型在内。
Claims (8)
1.一种基于人工智能的面试评价方法,其特征在于,包括:
获取面试者简历和对应的岗位要求;
基于所述面试者简历和对应的岗位要求,生成个性化面试问题;
构建面试者回答评分模型,并设计综合评分维度和评分规则,其中,所述面试者回答评分模型包括长短时记忆模型LSTM、卷积神经网络CNN和双向编码器表示BERT模型的集成模型,或通用人工智能模型AGI;
基于所述面试者回答的答案,通过所述面试者回答评分模型进行不同维度的评分,并基于不同维度的评分结果,确定所述面试者的综合得分;
其中,基于所述面试者简历和对应的岗位要求,生成个性化面试问题,包括:
构建语言模型transformer;
训练所述语言模型;
获取所述面试者简历和岗位信息,提取关键信息作为变量;
构建面试问题提示,所述面试问题提示包含面试问题框架和变量占位符;
将所述变量添加至面试问题模板占位符中,以生成个性化面试问题提示;
将所述个性化面试问题提示输入至训练后的语言模型中,输出所述个性化面试问题;
其中,构建面试者回答评分模型,包括:
构建语料库,收集具有评分标签的面试回答样本;
对所述语料库中的数据进行预处理;
基于所述面试回答样本,训练所述面试者回答评分模型。
2.根据权利要求1所述的方法,其特征在于,若所述语言模型为通用预训练Transformer模型GPT,则训练所述语言模型,包括:
获取样本数据;
提取所述样本数据的上下文,构建文本序列;
设置GPT模型结构,初始化参数;
定义自回归生成预训练任务,最大化目标序列生成概率;
计算序列生成的交叉熵损失,使用Adam优化器更新参数。
3.根据权利要求1所述的方法,其特征在于,若所述语言模型为通用预训练Transformer模型GPT,则将所述个性化面试问题提示输入至训练后的语言模型中,输出所述个性化面试问题,包括:
将所述个性化面试问题提示进行分词和数值化处理,输出索引序列;
输入所述索引序列至GPT模型中,所述GPT模型具备编码器、多层transformer解码器和嵌入embedding层;
将所述索引序列转换为向量表示,作为所述多层transformer解码器的初始输入;
在第一解码器模块中,对索引序列向量进行自注意力操作,获得第一自注意力表示;
将所述第一自注意力表示与所述索引序列向量进行拼接后传入第二解码器模块;
所述第二解码器模块对拼接后的第一自注意力表示与索引序列向量进行自注意力计算,得到第二注意力表示;
重复解码器的自注意力计算,逐步生成面试问题,包括:设有N个时间周期,在每一个时间周期内,将前一解码器的输出作为当前解码器的输入,实现自动回归生成面试问题;
当生成的面试问题长度达到预设长度后,输出序列作为最终生成的面试问题。
4.根据权利要求1所述的方法,其特征在于,基于所述面试回答样本,训练所述面试者回答评分模型,包括:
对所述面试回答样本进行预处理;
设置不同模型的超参数,定义损失函数和优化器;
分别输入预处理后的面试回答样本至不同的模型,将不同模型预测结果与标注结果计算MSE损失,并反向传播更新网络参数,其中,所述不同的模型为RNN模型和LSTM模型;
将不同模型的输出结果进行融合。
5.根据权利要求1所述的方法,其特征在于,通过所述面试者回答评分模型进行不同维度的评分,并基于不同维度的评分结果,确定所述面试者的综合得分,包括:
个性化设计评分维度和规则;
通过通用人工智能模型AGI实现多模态面试;
结合语音和图像,评估所述面试者的表达能力;
针对不同的评分维度,调用AGI算法进行打分;
按预设的权重规则计算综合得分。
6.根据权利要求5所述的方法,其特征在于,针对不同的评分维度,调用AGI算法进行打分,包括:
对回答文本进行情感分析,判断所述面试者的正负面情绪;
通过命名实体识别,提取回答的关键词;
基于所述回答的关键词,判断回答涵盖的知识维度;
采用Seq2Seq模型评估回答的语法和连贯性。
7.根据权利要求5所述的方法,其特征在于,通过通用人工智能模型AGI实现多模态面试,包括:
将回答者的语音进行文字转换,获得面试回答文本;
对所述文本关键词进行提取,判断知识维度;
采集面试者的图像数据,并进行图像处理,分析所述面试者的情绪和态度。
8.一种基于人工智能的面试评价系统,其特征在于:包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于当执行所述计算机程序时,实现如权利要求1-7任一项所述的面试评价方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311499089.6A CN117236911B (zh) | 2023-11-13 | 2023-11-13 | 一种基于人工智能的面试评价方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311499089.6A CN117236911B (zh) | 2023-11-13 | 2023-11-13 | 一种基于人工智能的面试评价方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117236911A CN117236911A (zh) | 2023-12-15 |
CN117236911B true CN117236911B (zh) | 2024-02-02 |
Family
ID=89093197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311499089.6A Active CN117236911B (zh) | 2023-11-13 | 2023-11-13 | 一种基于人工智能的面试评价方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117236911B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118035711A (zh) * | 2024-04-11 | 2024-05-14 | 国家计算机网络与信息安全管理中心江苏分中心 | 一种针对大模型内容安全能力的评测方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445200A (zh) * | 2020-02-25 | 2020-07-24 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的面试方法、装置、计算机设备及存储介质 |
CN112418779A (zh) * | 2020-10-30 | 2021-02-26 | 济南浪潮高新科技投资发展有限公司 | 一种基于自然语言理解的在线自助面试方法 |
CN112818742A (zh) * | 2020-12-29 | 2021-05-18 | 南京智能情资创新科技研究院有限公司 | 一种用于智能面试的表达能力维度评价方法及装置 |
CN113808709A (zh) * | 2021-08-31 | 2021-12-17 | 天津师范大学 | 一种基于文本分析的心理弹性预测方法及系统 |
CN113918813A (zh) * | 2021-10-11 | 2022-01-11 | 北京大学 | 基于聊天记录形式外部知识的人岗推荐方法及装置 |
CN114490972A (zh) * | 2021-12-30 | 2022-05-13 | 北京五八信息技术有限公司 | 一种消息处理方法、装置、电子设备和存储介质 |
CN114491023A (zh) * | 2021-12-31 | 2022-05-13 | 北京五八信息技术有限公司 | 一种文本处理方法、装置、电子设备和存储介质 |
CN114757206A (zh) * | 2022-03-17 | 2022-07-15 | 北京力拓飞远科技有限公司 | 咨询服务方法、系统及存储介质 |
CN115063119A (zh) * | 2022-07-10 | 2022-09-16 | 上海穰川信息技术有限公司 | 基于招聘行为数据的自适应性的招聘决策系统及方法 |
CN116029872A (zh) * | 2023-01-09 | 2023-04-28 | 华润数字科技有限公司 | 自动化员工培训方法、装置、电子设备及可读存储介质 |
-
2023
- 2023-11-13 CN CN202311499089.6A patent/CN117236911B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445200A (zh) * | 2020-02-25 | 2020-07-24 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的面试方法、装置、计算机设备及存储介质 |
CN112418779A (zh) * | 2020-10-30 | 2021-02-26 | 济南浪潮高新科技投资发展有限公司 | 一种基于自然语言理解的在线自助面试方法 |
CN112818742A (zh) * | 2020-12-29 | 2021-05-18 | 南京智能情资创新科技研究院有限公司 | 一种用于智能面试的表达能力维度评价方法及装置 |
CN113808709A (zh) * | 2021-08-31 | 2021-12-17 | 天津师范大学 | 一种基于文本分析的心理弹性预测方法及系统 |
CN113918813A (zh) * | 2021-10-11 | 2022-01-11 | 北京大学 | 基于聊天记录形式外部知识的人岗推荐方法及装置 |
CN114490972A (zh) * | 2021-12-30 | 2022-05-13 | 北京五八信息技术有限公司 | 一种消息处理方法、装置、电子设备和存储介质 |
CN114491023A (zh) * | 2021-12-31 | 2022-05-13 | 北京五八信息技术有限公司 | 一种文本处理方法、装置、电子设备和存储介质 |
CN114757206A (zh) * | 2022-03-17 | 2022-07-15 | 北京力拓飞远科技有限公司 | 咨询服务方法、系统及存储介质 |
CN115063119A (zh) * | 2022-07-10 | 2022-09-16 | 上海穰川信息技术有限公司 | 基于招聘行为数据的自适应性的招聘决策系统及方法 |
CN116029872A (zh) * | 2023-01-09 | 2023-04-28 | 华润数字科技有限公司 | 自动化员工培训方法、装置、电子设备及可读存储介质 |
Non-Patent Citations (2)
Title |
---|
A Semantic Approach for Automated Hiring using Artificial Intelligence & Computer Vision;Premanand Ghadekar等;《2023 IEEE 8th International Conference for Convergence in Technology (I2CT)》;第1-7页,全文 * |
基于GPT 模式的LLM 模型构建高职学校人才培养 工作状态数据采集与管理平台问答系统研究;林德力等;《创新创业理论研究与实践》(第16期);第9-14页,全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117236911A (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11481562B2 (en) | Method and apparatus for evaluating translation quality | |
CN108536679B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
CN110188331B (zh) | 模型训练方法、对话系统评价方法、装置、设备及存储介质 | |
US9753914B2 (en) | Natural expression processing method, processing and response method, device, and system | |
WO2022095380A1 (zh) | 基于ai的虚拟交互模型生成方法、装置、计算机设备及存储介质 | |
CN114694076A (zh) | 基于多任务学习与层叠跨模态融合的多模态情感分析方法 | |
CN115329779B (zh) | 一种多人对话情感识别方法 | |
CN109582952B (zh) | 诗歌生成方法、装置、计算机设备和介质 | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
CN108170848B (zh) | 一种面向中国移动智能客服的对话场景分类方法 | |
CN111783474A (zh) | 一种评论文本观点信息处理方法、装置及存储介质 | |
CN117236911B (zh) | 一种基于人工智能的面试评价方法及系统 | |
CN109903750B (zh) | 一种语音识别方法及装置 | |
Yang et al. | Predicting user satisfaction in spoken dialog system evaluation with collaborative filtering | |
CN111400461B (zh) | 智能客服问题匹配方法及装置 | |
CN112527966B (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
CN110222333A (zh) | 一种语音交互方法、装置以及相关设备 | |
WO2023231513A1 (zh) | 对话内容的生成方法及装置、存储介质、终端 | |
CN116090474A (zh) | 对话情绪分析方法、装置和计算机可读存储介质 | |
CN117033602A (zh) | 一种多模态的用户心智感知问答模型的构建方法 | |
Debatin et al. | Offline Speech Recognition Development | |
CN112150103B (zh) | 一种日程设置方法、装置和存储介质 | |
CN114743056A (zh) | 一种基于动态早退的图像描述生成模型及模型训练方法 | |
CN116150324A (zh) | 对话模型的训练方法、装置、设备及介质 | |
CN114791950A (zh) | 基于词性位置与图卷积网络的方面级情感分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |