CN116071032A - 基于深度学习的人力资源面试识别方法、装置及存储介质 - Google Patents
基于深度学习的人力资源面试识别方法、装置及存储介质 Download PDFInfo
- Publication number
- CN116071032A CN116071032A CN202211546491.0A CN202211546491A CN116071032A CN 116071032 A CN116071032 A CN 116071032A CN 202211546491 A CN202211546491 A CN 202211546491A CN 116071032 A CN116071032 A CN 116071032A
- Authority
- CN
- China
- Prior art keywords
- score
- interview
- recruiter
- expression
- optimal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000013135 deep learning Methods 0.000 title claims abstract description 39
- 230000008569 process Effects 0.000 claims abstract description 32
- 239000012634 fragment Substances 0.000 claims description 19
- 230000007115 recruitment Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 18
- 238000011835 investigation Methods 0.000 claims description 12
- 238000011156 evaluation Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013136 deep learning model Methods 0.000 description 13
- 238000012549 training Methods 0.000 description 11
- 238000012795 verification Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 206010003591 Ataxia Diseases 0.000 description 1
- 206010010947 Coordination abnormal Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 208000016290 incoordination Diseases 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000013102 re-test Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
- G06Q10/1053—Employment or hiring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computing Systems (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Marketing (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Game Theory and Decision Science (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
Abstract
本申请涉及一种基于深度学习的人力资源面试识别方法、装置及存储介质,其中方法包括:获取应聘者的面试音频和面试过程中的面试姿态;基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值;基于所述面试姿态,通过预设的面试举止评分模型,得到第二表现分值;将所述第一表现分值和所述第二表现分值按照预置规则进行加权求和,得到最佳分值;根据所述最佳分值,确定所述应聘者是否符合录取条件。将第一表现评分和第二表现评分进行加权求和,得到较为客观的应聘者的综合评分,最后根据最佳分值的大小,判断应聘者胜任岗位的综合能力的高低,使得较为准确的确定应聘者是否符合录取条件,进而使得招聘到的人员与岗位较好匹配。
Description
技术领域
本申请涉及信息处理技术领域,具体涉及一种基于深度学习的人力资源面试识别方法、装置及存储介质。
背景技术
企业的运行离不开合适的员工,合适的员工的寻找离不开公司的人力资源,人力资源中面试是重中之重。因为面试是企业挑选员工的一种重要手段。现实中招聘员工的过程一般是企业人力资源部门的人员对求职人员的简历进行初步筛后确定面试名单,接着邀请应聘者通过面谈或电话/视频的方式进行面试。最后根据应聘者的综合表现决定是否录用。
然而,这种面试方式需要人力资源部门耗费大量的时间和人力,且效率不高。且大部分的面试都是凭借招聘人员的主观和经验分析应聘者是否符合工作岗位,容易出现招聘到的人员与岗位匹配不佳的问题。
发明内容
为了使得招聘到的人员与岗位较好匹配,本申请提供一种基于深度学习的人力资源面试识别方法、装置及存储介质。
在本申请的第一方面提供了一种基于深度学习的人力资源面试识别方法,具体包括:
获取应聘者的面试音频和面试过程中的面试姿态;
基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值;
基于所述面试姿态,通过预设的面试举止评分模型,得到第二表现分值;
将所述第一表现分值和所述第二表现分值按照预置规则进行加权求和,得到最佳分值;
根据所述最佳分值,确定所述应聘者是否符合录取条件。
通过采用上述技术方案,获取应聘者在视频面试过程中的面试音频和各个面试姿态,根据面试音频提取能反映应聘者面试回答表现的特征参数,输入到面试回答评分模型进行评分预测,得到第一表现分值,将应聘者在面试中的回答表现进行量化,同时根据应聘者的面试姿态,采用面试举止评分模型预测评分得到第二表现评分,将应聘者面试中展现出来的举止表现量化,接着将第一表现评分和第二表现评分进行加权求和,得到较为客观的应聘者的综合评分,即最佳分值,最后根据最佳分值的大小,判断应聘者胜任岗位的综合能力的高低,使得较为准确的确定应聘者是否符合录取条件,进而使得招聘到的人员与岗位较好匹配。
可选的,所述基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值,包括:
统计所述面试音频的语音停顿时长和停顿次数,并获取所述面试音频的整体时长;
计算所述语音停顿时长与所述整体时长的第一比值;
将所述第一比值和所述停顿次数作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
通过采用上述技术方案,计算的第一比值较好反映应聘者在视频面试过程中回答问题的流畅程度,第一比值越大,流畅程度越低,说明应聘者面试过程较紧张,面试表现较差;反之流畅程度越高,反映面试表现较好。同时回答问题过程停顿次数较多,也能反映流畅程度较低,反之,则反映流畅程度较高。将第一比值和停顿次数作为特征参数输入到面试回答评分模型中,得到第一表现分值能较客观准确的反映出应聘者的应聘者面试表现情况。
可选的,所述基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值,包括:
将所述面试音频进行分段,得到若干语音片段,将所述语音片段与面试问题建立对应关系;提取所述面试问题的关键词,统计包含所述关键词的语音片段的个数;
计算所述语音片段的个数与所述面试问题的个数的第二比值;
将所述第二比值作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
通过采用上述技术方案,可以将视频面试过程中面试官提出的面试问题与应聘者的回答较好进行匹配,提取每个面试问题中关键词,判断对应的语音片段中是否存在此关键词,如果存在则进行统计,接着计算统计的语音片段的个数与面试问题个数的第二比值,第二比值越高,说明应聘者回答的结果与面试官的提问契合度较高,将第二比值作为特征参数输入至面试回答评分模型中,从而使得得出的第二比值较客观的评价应聘者的面试表现。
可选的,所述将所述第一表现分值和所述第二表现分值按照预置规则进行加权求和,得到最佳分值,包括:
按照第一公式将所述第一表现分值和所述第二表现分值进行归一化处理,得到第一表现分值的归一化值和第二表现分值的归一化值,所述第一公式如下:
按照第二公式将所述第一表现分值的归一化值与所述第二表现分值的归一化值进行加权求和计算,得到最佳分值,所述第二公式如下:
通过采用上述技术方案,将计算得到的第一表现分值和第二表现分值进行归一化处理,将第一表现分值的归一化值与第二表现分值的归一化值再进行加权求和,而不是直接将第一表现分值和第二表现分值进行加权求和得到综合的最佳分值,通过此方式可以较好的降低数据异常给最后的结果带来不良影响,使得得到的最佳分值能较客观的反映应聘者的综合表现。
可选的,所述根据所述最佳分值,确定所述应聘者是否符合录取条件,包括:
判断所述最佳分值所处的分值区间,所述分值区间包括第一分值区间、第二分值区间和第三分值区间,所述第一分值区间为表现优秀的最佳分值范围,所述第二分值区间为表现中等的最佳分值范围,所述第三分值区间为不符合录取条件的最佳分值范围;
若所述最佳分值处在第一分值区间,则确定所述应聘者符合录取条件;
若所述最佳分值处在第二分值区间,则确定所述应聘者作为备选人员;
若所述最佳分值处在第三分值区间,则确定所述应聘者不符合录取条件。
通过采用上述技术方案,判断最佳分值出处在第一分值区间、第一分值区间和第三分值区间中哪一个区间,如果处在第一分值区间,说明应聘者的最佳分值较高,综合表现优秀,确定应聘者符合录取的条件;如果处在第二分值区间,说明应聘者综合表现中等,不直接淘汰暂做备选;如果处在第三分值区间,说明最佳分值较低,综合表现较差,不符合录取条件,直接淘汰不做考虑。通过此方式使得较为合理客观的确定应聘者是否符合录取条件,使得人员与岗位较好匹配。
可选的,所述若所述最佳分值处在第一分值区间,则确定所述应聘者符合录取条件之后,还包括:
获取所述应聘者的背景调查结果;
若背景调查结果符合岗位要求,则发送录取消息至所述应聘者的终端。
通过采用上述技术方案,如果最佳分值处在第一分值区间,说明应聘者的综合表现优秀,符合录取条件,接着调取应聘者的背景调查结果,如果背景调查结果符合岗位要求,说明应聘者背景资料和证明材料核实无误,可以确定录取,使得招聘的人员能较好的胜任招聘的岗位,避免出现人员与岗位不匹配的情况。
可选的,所述若所述最佳分值处在第二分值区间,则确定所述应聘者作为备选人员之后,还包括:
获取招聘职位信息;
根据招聘职位信息,分析得到招聘职位的人物画像;
根据所述人物画像,对所述第一表现分值和所述第二表现分值的权重系数进行调整,重新对所述第一表现分值和所述第二表现分值进行加权求和,得到二次最佳分值;
若所述二次最佳分值处在所述第一分值区间,则确定所述应聘者符合录取条件;
若所述二次最佳分值再次处在所述第二分值区间,则确定所述应聘者不符合录取条件。
通过采用上述技术方案,根据招聘职位信息,分析出该招聘职位需要的应聘者的属性,即应聘者的人物画像,根据人物画像,确定在面试举止和面试回答两个方面表现的侧重关系,接着根据侧重关系重新调整对应的第一表现分值和第二表现分值的权重系数,进行重新加权求和,得到二次最佳分值,如果位于第一分值区间,则直接由备选人员的状态调整为符合录取条件,如果依旧处在第二分值区间,则确定不符合录取条件,从而较合理的根据最佳分值判断人员的录取情况。
可选的,所述基于所述面试姿态,通过预设的面试举止评分模型,得到第二表现分值,包括:
将各所述面试姿态与预设的面试不当姿态进行对比,计算姿态相似度;
统计超过标准相似度的姿态相似度的个数;
将所述超过标准相似度的姿态相似度的个数作为特征参数输入至所述面试举止评分模型,得到第二表现分值。
通过采用上述技术方案,将应聘者视频面试过程中出现的各个面试姿态与预设的面试中不合适的姿态进行对比,计算两者的姿态相似度,当姿态相似度超过标准相似度,则判断面试姿态为面试不当姿态,并统计应聘者面试姿态中面试不当姿态的个数,即超过标准相似度的姿态相似度的个数,最后将姿态相似度的个数作为特征参数输入到面试举止评分模型中进行预测评分,从而使得得到的第二表现分值较客观准确的评价应聘者面试过程中举止礼仪表现。
在本申请的第二方面提供了一种基于深度学习的人力资源面试识别装置,具体包括:
信息获取模块,用于获取应聘者的面试音频和面试过程中的面试姿态;
第一分值模块,用于基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值;第二分值模块,用于基于所述面试姿态,通过预设的面试举止评分模型,得到第二表现分值;最佳分值模块,用于将所述第一表现分值和所述第二表现分值按照预置规则进行加权求和,得到最佳分值;
录取判断模块,用于根据所述最佳分值,确定所述应聘者是否符合录取条件。
通过采用上述技术方案,信息获取模块获取到应聘者在面试过程中的面试音频和各种面试姿态后,由第一分值模块根据应聘者的面试音频,利用面试回答评分模型(深度学习模型)得到第一表现分值,由第二分值模块根据应聘者的面试姿态,利用试举止评分模型,得到第二表现分值,接着最佳分值模块将第一表现分值和第二表现分值进行加权求和得到最佳分值,最后录取判断模型根据最佳分值确定应聘者是否符合录取条件,从而使得招聘到的人员与岗位较好的匹配。
综上所述,本申请包括以下至少一种有益技术效果:
1.获取应聘者在视频面试过程中的面试音频和各个面试姿态,根据面试音频提取能反映应聘者面试回答表现的特征参数,输入到面试回答评分模型进行评分预测,得到第一表现分值,将应聘者面试中的回答表现进行量化,同时根据应聘者的面试姿态,采用面试举止评分模型预测评分得到第二表现评分,将应聘者面试中展现出来的举止表现量化,接着将第一表现评分和第二表现评分进行加权求和,得到较为客观应聘者的综合评分,即最佳分值,最后根据最佳分值的大小,判断应聘者胜任岗位的综合能力的高低,使得较为准确的确定应聘者是否符合录取条件,进而使得招聘到的人员与岗位较好匹配。
附图说明
图1是本申请实施例提供的一种基于深度学习的人力资源面试识别方法的流程示意图;
图2是本申请实施例提供的另一种基于深度学习的人力资源面试识别方法的流程示意图;
图3是本申请实施例提供的又一种基于深度学习的人力资源面试识别方法的流程示意图
图4是本申请实施例提供的一种基于深度学习的人力资源面试识别装置的结构示意图;
图5是本申请实施例提供的另一种基于深度学习的人力资源面试识别装置的结构示意图。
附图标记说明:11、信息获取模块;12、第一分值模块;13、第二分值模块;14、最佳分值模块;15、录取判断模块。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。
在本申请实施例的描述中,“示性的”、“例如”或者“举例来说”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示性的”、“例如”或者“举例来说”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示性的”、“例如”或者“举例来说”等词旨在以具体方式呈现相关概念。
参见图1,本申请实施例公开了一种基于深度学习的人力资源面试识别方法的流程示意图,可依赖于计算机程序实现,也可运行于基于冯诺依曼体系的基于深度学习的人力资源面试识别装置上。该计算机程序可集成在应用中,也可作为独立的工具类应用运行,具体包括:
S101:获取应聘者的面试音频和面试过程中的面试姿态。
具体的,对视频面试全过程的视频录像进行解析,采用预置的音频提取软件从视频录像中提取出视频面试音频,其中包括面试官的音频和应聘者的面试音频。接着将视频面试音频进行声音分帧,将声音切分成很多小的片段,分帧是用固定长度的滑动窗口进行加权的方法来实现的。提取视频面试音频中每个滑动窗口的声纹特征信息,采用频谱聚类算法计算每个滑动窗口的声纹特征信息的相似性,将相似性高的滑动窗口作为同一说话者对应的音频,进而得到滑动窗口与说话者之间的对应关系,提取应聘者对应的所有滑动窗口,将所有滑动窗口按照顺序拼接成为应聘者的面试音频。另外,采用预置的视频图像提取软件从视频录像中提取应聘者的面试姿态的图像,从中剔除相似度较高的图像,保留面试姿态不同的图像。需要说明的是,本申请实施例中,音频提取软件可以采用AudioExtractor,视频图像提取软件可以采用SnapMotion,在其他实施例中,音频提取软件可以采用Free Rip Audio,视频图像提取软件可以采用Photos from Video。
S102:基于面试音频,通过预设的面试回答评分模型,得到第一表现分值。
具体的,获取到应聘者的面试音频后,从面试音频中可以进一步提取应聘者的语音停顿时长和停顿次数,接着将语音停顿时长与面试音频的整体时长的时长比值、面试过程的停顿次数作为面试回答评分模型输入的特征参数,最后根据面试回答评分模型预测得到第一表现分值。需要说明的是,面试回答评分模型属于深度学习模型,在本申请实施例中,面试回答评分模型可以采用卷积神经网络模型,在其他实施例中,面试回答评分模型也可以采用递归神经网络模型。
其中,面试回答评分模型获取方法如下:获取到若干组时长比值和停顿次数的数据样本,将这些数据样本划分为训练集和验证集,采用多折交叉验证训练的方式,先用训练集对构建的面试回答评分模型进行训练,接着在验证集对模型进行验证,取在验证集上表现最好那个,进而确定模型的最佳超参数,得到训练完成的面试回答评分模型。此为现有技术,在此不再赘述。
S103:基于面试姿态,通过预设的面试举止评分模型,得到第二表现分值。
具体的,获取到应聘者在视频面试过程的各个面试姿态后,判断视频面试过程中不当姿态个数,将不当姿态个数作为特征参数输入至面试举止评分模型进行分值预测,得到能反映应聘者在视频面试过程中举止表现的第二表现分值。需要说明的是,面试举止评分模型属于深度学习模型,在本申请实施例中,面试举止评分模型可以采用卷积神经网络模型,在其他实施例中,面试举止评分模型也可以采用递归神经网络模型。
需要说明的是,卷积神经网络(Convolutional Neural Networks,CNN)是是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks,FNN),是深度学习(deep learning)的代表算法之一。卷积神经网络具有表征学习(representationlearning)能力,能够按其阶层结构对输入信息进行平移不变分类。
另外需要说明的是,深度学习模型的构建的基本流程为训练-模拟-反馈。在本申请实施例的场景具体如下:运用大量的面试举止的特征参数作为训练集、验证集和测试集,利用训练集对深度学习模型的参数进行训练,深度学习模型凭借其对海量数据的强大建模能力,以其类似人类大脑的学习机制一样,在面临大量的数据,通过底层特征的组合形成更加抽象的高层特征,学习到数据的分布式特征,从而可以不断优化调整模型自身的参数,从而提升预测的准确性。
接着深度学习模型训练结束进入模拟阶段,在验证集上通过深度学习模型进行模拟预测,根据几组深度学习模型验证集上表现,验证集上表现最好,即预测的结果最准确。将表现最好的深度学习模型对应的超参数确定为最佳超参数。需要说明的是,不同的超参数组合,对应着不同潜在的深度学习模型。
最后就是评价反馈阶段,利用测试集中的数据来评价深度学习模型的泛化能力。可以通俗理解为深度学习的成果验收阶段。先前利用训练接来调整模型的参数,再用验证集来确定超参数,最后用全新的测试集来判断这个模型是否有用。
S104:将第一表现分值和第二表现分值按照预置规则进行加权求和,得到最佳分值。
具体的,得到第一表现分值和第二表现分值后,将第一表现分值和第二表现分值先进行归一化处理,归一化处理的理由如下:在多指标综合评估中,有些是指标值越大评价就越好的指标,称为正向指标(也称效益型指标),有些则是指标值越小评价就越好的指标,称为逆向指标(也称成本型指标)。这两种类型的指标在合理的界定值范围内都是有效的。在综合评估时,首先必须将指标同趋势化,一般是将逆向指标转化为正向指标,称为指标的正向化。不同评价指标往往具有不同的量纲和量纲单位,为了消除由此带来的不可公度性还应将各评价指标作无量纲化处理,即归一化处理。将第一表现分值归一化处理后的结果乘以第一表现分值的权重系数与第二表现分值归一化处理后的结果乘以第二表现分值的权重系数进行求和,得到应聘者的最佳分值,即综合表现评分。
S105:根据最佳分值,确定应聘者是否符合录取条件。
具体的,应聘者的最佳分值确定后,根据最佳分值的大小,判断最佳分值所处的分值区间,在本申请实施例中,预设的分值区间为第一分值区间、第二分值区间和第三分值区间,最佳分值处在第一分值区间,确定应聘者符合录取条件;最佳分值处在第三分值区间,确定应聘者不符合录取条件;最佳分值处在第二分值区间,确定应聘者为备选人员。在其他实施例中,预设的分值区间也可以为四个,第一分值区间、第二分值区间、第三分值区间和第四分值区间。最佳分值处在第一分值区间,确定应聘者符合录取条件;最佳分值处在第二分值区间,暂时作为备选人员,存在复试机会;最佳分值处在第三分值区间,直接作为备选人员,没有复试机会;最佳分值处在第四分值区间,确定应聘者不符合录取条件。
参见图2,本申请实施例公开了另一种基于深度学习的人力资源面试识别方法的流程示意图,可依赖于计算机程序实现,也可运行于基于冯诺依曼体系的基于深度学习的人力资源面试识别装置上。该计算机程序可集成在应用中,也可作为独立的工具类应用运行,具体包括:
S201:获取应聘者的面试音频和面试过程中的面试姿态。
具体的,可参考步骤S101,在此不再赘述。
S202:统计面试音频的语音停顿时长和停顿次数,并获取面试音频的整体时长。
具体的,将面试音频的切成帧,转化为每一帧的音频信号,每一帧长度为20ms。因为每一帧的音频信号时随时间变化,所以每一帧的音频信号的能量也是随时间变化。根据短时能量的计算公式,可以计算每一帧的音频能量。将每一帧的音频能量与预设能量阈值进行比较,如果小于预设能量阈值,则说明该帧的音频能量较小,视为静音;如果大于预设能量阈值,则视为语音。统计确定为静音的帧数,将帧数乘以一帧的长度,即可得到面试音频的语音停顿时长。另外,连续较小音频能量的出现次数即面试音频中停顿次数,停顿次数越多,说明应聘者说话过程停顿较频繁,面试流畅度较差。另外,参考步骤S101,由于面试音频是应聘者对应的所有滑动窗口按照顺序拼接而成,每一个滑动窗口的时间长度是固定,根据滑动窗口的个数,可以得到面试音频的整体时长。需要说明的是,预设能量阈值为判断为语音的最小能量阈值。此为现有技术,在此不再赘述。
S203:计算语音停顿时长与整体时长的第一比值;
S204:将第一比值和停顿次数作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
具体的,获取到语音停顿时长和整体时长后,将语音停顿时长除以整体时长,得到第一比值,第一比值越大,说明应聘者在整个面试回答过程中,话语停顿的时间较长,面试回答流畅度较差。接着将反映面试回答流畅度的第一比值和停顿次数作为特征参数输入至训练完成的面试回答评分模型中进行评分预测,得到第一表现分值。例如,面试回答评分模型中设置的评分范围0-10分,如果应聘者的面试回答的整体时长为10分钟,语音停顿时长为1分钟,停顿次数为5次,第一比值为0.1,将听顿次数5和第一比值0.1同时作为特征参数输入到面试回答评分模型中,面试回答评分模型输出的结果为第一表现分值为5分。
在一种可实现的方式中,在一个实施例中,将面试音频进行分段,得到若干语音片段,将语音片段与面试问题建立对应关系;
提取面试问题的关键词,统计包含关键词的语音片段的个数;
计算语音片段的个数与面试问题的个数的第二比值;
将第二比值作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
具体的,获取到应聘者的面试音频后,将面试音频转化为语音文本信息,对语音文本信息进行语义分析,根据语义分析将语音文本信息分割成若干个短句,接着根据前后短句的语义联系度判断是否建立联系,语义联系度高的短句整合为长句,进一步整合为段落,每一段落对应一个语音片段,最后根据语音片段的先后顺序与面试问题的先后顺序,将语音片段与面试问题建立对应关系。
语音片段与面试问题建立对应关系后,分别提取面试问题中的核心的关键词,对对应语音片段进行关键词搜索,如果对应语音片段中存在关键词,说明对于该面试问题应聘者的回答较为契合,则进行个数统计。最后统计的包含关键词的语音片段的个数除以面试问题的个数,得到第二比值,第二比值越大,说明应聘者对于问题回答的表现较好。将第二比值作为特征参数输入至训练完成的面试回答评分模型,得到第一表现分值。
S205:将各面试姿态与预设的面试不当姿态进行对比,计算姿态相似度;
S206:统计超过标准相似度的姿态相似度的个数;
S207:将超过标准相似度的姿态相似度的个数作为特征参数输入至面试举止评分模型,得到第二表现分值。
具体的,预设的面试不当姿态为面试过程影响面试官好感度的姿态,例如,边谈话边玩弄手指,拨弄头发,坐姿不端正等等,都会让面试官觉得应聘者不重视此次面试。将获得的各个面试姿态与面试不当姿态进行对比,计算姿态相似度,实现过程为:分别计算面试姿态和面试不当姿态的直方图,根据巴式系数(Bhattacharyya Coefficient,BC)算法计算面试姿态和面试不当姿态的图像相似程度值,即姿态相似度。其中,巴式系数算法是对两个统计样本的重叠量的近似计算的算法。
各面试姿态与预设的面试不当姿态计算姿态相似度后,将得到的每个姿态相似度与标准相似度进行对比,标准相似度为判断两个图像相同的最低相似度。如果姿态相似度超过标准相似度,说明对应的面试姿态和面试不当姿态相同,视为同一姿态。统计姿态相似度超过标准相似度的个数,个数越多,说明应聘者视频面试过程中不当姿态较多,将个数作为特征参数输入至训练完成的面试举止评分模型中,面试举止评分模型进行评分预测,输出得到第二表现分值。例如,标准相似度为90%,应聘者在视频面试过程中存在5个不同的面试姿态,分别计算5个面试姿态与面试不当姿态的姿态相似度为:80%,89%,91%,98%和95%,超过标准相似度个数为3个,则将此作为特征参数输入至面试举止评分模型,得到第二表现分值为7。
S208:将第一表现分值和第二表现分值按照预置规则进行加权求和,得到最佳分值。
在一种可实现的方式中,在一个实施例中,按照第一公式将第一表现分值和第二表现分值进行归一化处理,得到第一表现分值的归一化值和第二表现分值的归一化值,第一公式如下:
式中:aij为表示应聘者i的第一表现分值的归一化值或第二表现分值的归一化值,xij表示应聘者i的第一表现分值或第二表现分值,j表示对应聘者的评价指标个数;按照第二公式将第一表现分值的归一化值与第二表现分值的归一化值进行加权求和计算,得到最佳分值,第二公式如下:
具体的,由模型分别得出第一表现分值和第二表现分值后,并不是直接进行加权求和得到一个综合分值,而是在加权求和之前分别对第一表现分值和第二表现分值进行归一化处理,可以较好加快梯度下降球最优解的速度,提高第一表现分值和第二表现分值的数据精度和客观性。通过第一公式可以分别求出第一表现分值ai1的归一化值和第二表现分值的归一化值ai2,接着根据第二公式得到应聘者i的最佳分值。w1为第一表现分值的权重系数,w2为第二表现分值的权重系数,w1和w2都是预先设置,在本申请实施例中,w1可以为0.7,w2可以为0.3。在其他实施例中,w1也可以为0.6,w2也可以为0.4。需要说明的是,
S209:根据最佳分值,确定应聘者是否符合录取条件。
具体的,可参考步骤S104-S105,在此不再赘述。
参见图3,本申请实施例公开了又一种基于深度学习的人力资源面试识别方法的流程示意图,可依赖于计算机程序实现,也可运行于基于冯诺依曼体系的基于深度学习的人力资源面试识别装置上。该计算机程序可集成在应用中,也可作为独立的工具类应用运行,具体包括:
S301:获取应聘者的面试音频和面试过程中的面试姿态。
S302:基于面试音频,通过预设的面试回答评分模型,得到第一表现分值。
S303:基于面试姿态,通过预设的面试举止评分模型,得到第二表现分值。
S304:将第一表现分值和第二表现分值按照预置规则进行加权求和,得到最佳分值。
具体的,可参考步骤S101-S104,在此不再赘述。
S305:判断最佳分值所处的分值区间,分值区间包括第一分值区间、第二分值区间和第三分值区间,第一分值区间为表现优秀的最佳分值范围,第二分值区间为表现中等的最佳分值范围,第三分值区间为不符合录取条件的最佳分值范围;
具体的,加权求和得到应聘者的最佳分值后,根据最佳分值的大小判断其所处的分值区间,按照预设的第一分值阈值和第二分值阈值,划分出三个分值区间,分别为第一分值区间、第二分值区间和第三分值区间。例如,第一分值阈值为3,第二分值阈值为7,划分出的三个分值区间为:第一分值区间7-10,第二分值区间3-7以及第三分值区间0-3。应聘者的最佳分值为8,则判断为最佳分值处在第一分值区间。
S306:若最佳分值处在第一分值区间,则确定应聘者符合录取条件。
S307:获取应聘者的背景调查结果。
S308:若背景调查结果符合岗位要求,则发送录取消息至应聘者的终端。
具体的,如果最佳分值处在第一分值区间,说明应聘者在视频面试过程中,综合表现较优秀,那么确定应聘者符合录取条件。接着连接面试官所在公司的人力资源后台,以应聘者姓名为关键词搜索提取该应聘者对应的背景调查结果,同时搜索提取应聘者对应的电子简历,将背景调查结果与电子简历进行对比,对应聘者的工作经历真实性,学历信息和个人征信等信息进行核实,对比一致则说明核实无误,符合岗位要求,则直接生成录取消息至应聘者的终端,应聘者的终端可以采用智能手机,在其他实施例中,也可以采用计算机。
S309:若最佳分值处在第二分值区间,则确定应聘者作为备选人员。
在一种可实现的方式中,在一个实施例中,步骤S309之后,
获取招聘职位信息;
根据招聘职位信息,分析得到招聘职位的人物画像;
根据人物画像,对第一表现分值和第二表现分值的权重系数进行调整,重新对第一表现分值和第二表现分值进行加权求和,得到二次最佳分值;
若二次最佳分值处在第一分值区间,则确定所述应聘者符合录取条件;
若二次最佳分值再次处在第二分值区间,则确定应聘者不符合录取条件。
具体的,如果应聘者的最佳分值处在第二分值区间,说明应聘者在视频面试过程中综合表现中等,虽然不能直接确定录取条件,但可以暂时作为备选人员。从人力资源后台获取此次视频面试的招聘职位信息,招聘职位信息包括职位职责信息,将职位职责信息划分为若干个分词,并去除停用词,例如和、或等词,得到分词文本。停用词指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据之前或之后会自动过滤掉某些字或词,这些字或词被称为停用词。
接着利用TF-IDF算法提取分词文本的重要特征向量矩阵,采用机器学习的逻辑回归算法对重要特征向量矩阵进行分类训练,得到训练完成的岗位胜任模型,根据岗位胜任模型可以确定人物画像,人物画像的属性的侧重面在面试举止侧,则在原有基础上调高第二表现分值的权重系数,降低第一表现分值的权重系数;如果人物画像的属性的侧重面在面试回答侧,则调高第一表现分值的权重系数,降低第二表现分值的权重系数,重新进行加权就和得到二次最佳分值,对二次最佳分值再次进行所在分值区间判断,处在第一分值区间,将暂时备选人员调整为符合录取条件状态;如果依旧处在第二分值区间,则确定应聘者不符合录取条件。
S310:若最佳分值处在第三分值区间,则确定应聘者不符合录取条件。
具体的,如果应聘者的最佳分值处在第三分值区间,说明应聘者在视频面试过程中的综合表现较差,不符合招聘职位的需求,作为备选人员的资格都没有,直接确定应聘者不符合录取条件,不予最终的录取。
本申请实施例一种基于深度学习的人力资源面试识别方法的实施原理为:获取视频面试中应聘者的面试音频和面试过程中的面试姿态,根据应聘者的面试音频,采用预设的面试回答评分模型,得到应聘者的第一表现分值,同时根据应聘者的面试姿态,采用预设的面试举止评分模型,得到应聘者的第二表现分值,接着分别将第一表现分值与第二表现分值的归一化处理的结果进行加权求和,得到应聘者的最佳分值。最后根据反映应聘者综合表现的最佳分值,确定应聘者是否符合录取条件。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参见图4,为本申请实施例提供的一种基于深度学习的人力资源面试识别装置的结构示意图。该应用于一种基于深度学习的人力资源面试识别装置可以通过软件、硬件或者两者的结合实现成为装置的全部或一部分。该装置1包括信息获取模块11,第一分值模块12、第二分值模块13、最佳分值模块14和录取判断模块15。
信息获取模块11,用于获取应聘者的面试音频和面试过程中的面试姿态;
第一分值模块12,用于基于面试音频,通过预设的面试回答评分模型,得到第一表现分值;
第二分值模块13,用于基于面试姿态,通过预设的面试举止评分模型,得到第二表现分值;
最佳分值模块14,用于将第一表现分值和第二表现分值按照预置规则进行加权求和,得到最佳分值;
录取判断模块15,用于根据最佳分值,确定应聘者是否符合录取条件。
可选的,第一分值模块12,具体用于:
统计面试音频的语音停顿时长和停顿次数,并获取面试音频的整体时长;
计算语音停顿时长与整体时长的第一比值;
将第一比值和停顿次数作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
可选的,第一分值模块12,具体还用于:
将面试音频进行分段,得到若干语音片段,将语音片段与面试问题建立对应关系;
提取面试问题的关键词,统计包含关键词的语音片段的个数;
计算语音片段的个数与面试问题的个数的第二比值;
将第二比值作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
可选的,最佳分值模块14,具体用于:
按照第一公式将第一表现分值和第二表现分值进行归一化处理,得到第一表现分值的归一化值和第二表现分值的归一化值,第一公式如下:
按照第二公式将第一表现分值的归一化值与第二表现分值的归一化值进行加权求和计算,得到最佳分值,第二公式如下:
可选的,录取判断模块15,具体用于:
判断最佳分值所处的分值区间,分值区间包括第一分值区间、第二分值区间和第三分值区间,第一分值区间为表现优秀的最佳分值范围,第二分值区间为表现中等的最佳分值范围,第三分值区间为不符合录取条件的最佳分值范围;
若最佳分值处在第一分值区间,则确定应聘者符合录取条件;
若最佳分值处在第二分值区间,则确定应聘者作为备选人员;
若最佳分值处在第三分值区间,则确定应聘者不符合录取条件。
可选的,如图5所示,装置1,还包括录取确认模块16,具体用于:
获取应聘者的背景调查结果;
若背景调查结果符合岗位要求,则发送录取消息至应聘者的终端。
可选的,装置1,还包括二次确认模块17,具体用于:
获取招聘职位信息;
根据招聘职位信息,分析得到招聘职位的人物画像;
根据人物画像,对第一表现分值和第二表现分值的权重系数进行调整,重新对第一表现分值和第二表现分值进行加权求和,得到二次最佳分值;
若二次最佳分值处在第一分值区间,则确定应聘者符合录取条件;
若二次最佳分值再次处在第二分值区间,则确定应聘者不符合录取条件。
可选的,第二分值模块13,具体用于:
将各面试姿态与预设的面试不当姿态进行对比,计算姿态相似度;
统计超过标准相似度的姿态相似度的个数;
将超过标准相似度的姿态相似度的个数作为特征参数输入至面试举止评分模型,得到第二表现分值。
需要说明的是,上述实施例提供的一种基于深度学习的人力资源面试识别装置在执行基于深度学习的人力资源面试识别方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的一种基于深度学习的人力资源面试识别装置与一种基于深度学习的人力资源面试识别方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
本申请实施例还公开一种计算机可读存储介质,并且,计算机可读存储介质存储有计算机程序,其中,计算机程序被处理器执行时,采用了上述实施例的一种基于深度学习的人力资源面试识别方法。
其中,计算机程序可以存储于计算机可读介质中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间件形式等,计算机可读介质包括能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM)、随机存取存储器(RAM)、电载波信号、电信信号以及软件分发介质等,需要说明的是,计算机可读介质包括但不限于上述元器件。
其中,通过本计算机可读存储介质,将上述实施例的一种基于深度学习的人力资源面试识别方法存储于计算机可读存储介质中,并且,被加载并执行于处理器上,以方便上述方法的存储及应用。
本申请实施例还公开一种电子设备,计算机可读存储介质中存储有计算机程序,计算机程序被处理器加载并执行时,采用了上述一种基于深度学习的人力资源面试识别方法。
其中,电子设备可以采用台式电脑、笔记本电脑或者云端服务器等电子设备,并且,电子设备设备包括但不限于处理器以及存储器,例如,电子设备还可以包括输入输出设备、网络接入设备以及总线等。
其中,处理器可以采用中央处理单元(CPU),当然,根据实际的使用情况,也可以采用其他通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,通用处理器可以采用微处理器或者任何常规的处理器等,本申请对此不做限制。
其中,存储器可以为电子设备的内部存储单元,例如,电子设备的硬盘或者内存,也可以为电子设备的外部存储设备,例如,电子设备上配备的插接式硬盘、智能存储卡(SMC)、安全数字卡(SD)或者闪存卡(FC)等,并且,存储器还可以为电子设备的内部存储单元与外部存储设备的组合,存储器用于存储计算机程序以及电子设备所需的其他程序和数据,存储器还可以用于暂时地存储已经输出或者将要输出的数据,本申请对此不做限制。
其中,通过本电子设备,将上述实施例的一种基于深度学习的人力资源面试识别方法存储于电子设备的存储器中,并且,被加载并执行于电子设备的处理器上,方便使用。
以上所述者,仅为本公开的示例性实施例,不能以此限定本公开的范围。即但凡依本公开教导所作的等效变化与修饰,皆仍属本公开涵盖的范围内。本领域技术人员在考虑说明书及实践这里的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未记载的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的范围和精神由权利要求限定。
Claims (10)
1.一种基于深度学习的人力资源面试识别方法,其特征在于,所述方法包括:
获取应聘者的面试音频和面试过程中的面试姿态;
基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值;
基于所述面试姿态,通过预设的面试举止评分模型,得到第二表现分值;
将所述第一表现分值和所述第二表现分值按照预置规则进行加权求和,得到最佳分值;
根据所述最佳分值,确定所述应聘者是否符合录取条件。
2.根据权利要求1所述的基于深度学习的人力资源面试识别方法,其特征在于,所述基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值,包括:
统计所述面试音频的语音停顿时长和停顿次数,并获取所述面试音频的整体时长;
计算所述语音停顿时长与所述整体时长的第一比值;
将所述第一比值和所述停顿次数作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
3.根据权利要求1所述的基于深度学习的人力资源面试识别方法,其特征在于,所述基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值,包括:
将所述面试音频进行分段,得到若干语音片段,将所述语音片段与面试问题建立对应关系;
提取所述面试问题的关键词,统计包含所述关键词的语音片段的个数;
计算所述语音片段的个数与所述面试问题的个数的第二比值;
将所述第二比值作为特征参数输入至预设的面试回答评分模型,得到第一表现分值。
4.根据权利要求1所述的基于深度学习的人力资源面试识别方法,其特征在于,所述将所述第一表现分值和所述第二表现分值按照预置规则进行加权求和,得到最佳分值,包括:
按照第一公式将所述第一表现分值和所述第二表现分值进行归一化处理,得到第一表现分值的归一化值和第二表现分值的归一化值,所述第一公式如下:
按照第二公式将所述第一表现分值的归一化值与所述第二表现分值的归一化值进行加权求和计算,得到最佳分值,所述第二公式如下:
5.根据权利要求1所述的基于深度学习的人力资源面试识别方法,其特征在于,所述根据所述最佳分值,确定所述应聘者是否符合录取条件,包括:
判断所述最佳分值所处的分值区间,所述分值区间包括第一分值区间、第二分值区间和第三分值区间,所述第一分值区间为表现优秀的最佳分值范围,所述第二分值区间为表现中等的最佳分值范围,所述第三分值区间为不符合录取条件的最佳分值范围;
若所述最佳分值处在第一分值区间,则确定所述应聘者符合录取条件;
若所述最佳分值处在第二分值区间,则确定所述应聘者作为备选人员;
若所述最佳分值处在第三分值区间,则确定所述应聘者不符合录取条件。
6.根据权利要求5所述的基于深度学习的人力资源面试识别方法,其特征在于,所述若所述最佳分值处在第一分值区间,则确定所述应聘者符合录取条件之后,还包括:
获取所述应聘者的背景调查结果;
若背景调查结果符合岗位要求,则发送录取消息至所述应聘者的终端。
7.根据权利要求5所述的基于深度学习的人力资源面试识别方法,其特征在于,所述若所述最佳分值处在第二分值区间,则确定所述应聘者作为备选人员之后,还包括:
获取招聘职位信息;
根据招聘职位信息,分析得到招聘职位的人物画像;
根据所述人物画像,对所述第一表现分值和所述第二表现分值的权重系数进行调整,重新对所述第一表现分值和所述第二表现分值进行加权求和,得到二次最佳分值;
若所述二次最佳分值处在所述第一分值区间,则确定所述应聘者符合录取条件;
若所述二次最佳分值再次处在所述第二分值区间,则确定所述应聘者不符合录取条件。
8.根据权利要求1所述的基于深度学习的人力资源面试识别方法,其特征在于,所述基于所述面试姿态,通过预设的面试举止评分模型,得到第二表现分值,包括:
将各所述面试姿态与预设的面试不当姿态进行对比,计算姿态相似度;
统计超过标准相似度的姿态相似度的个数;
将所述超过标准相似度的姿态相似度的个数作为特征参数输入至所述面试举止评分模型,得到第二表现分值。
9.一种基于深度学习的人力资源面试识别装置,其特征在于,包括:
信息获取模块(11),用于获取应聘者的面试音频和面试过程中的面试姿态;
第一分值模块(12),用于基于所述面试音频,通过预设的面试回答评分模型,得到第一表现分值;
第二分值模块(13),用于基于所述面试姿态,通过预设的面试举止评分模型,得到第二表现分值;
最佳分值模块(14),用于将所述第一表现分值和所述第二表现分值按照预置规则进行加权求和,得到最佳分值;
录取判断模块(15),用于根据所述最佳分值,确定所述应聘者是否符合录取条件。
10.一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其特征在于,所述计算机程序被处理器加载并执行时,采用了权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211546491.0A CN116071032A (zh) | 2022-12-05 | 2022-12-05 | 基于深度学习的人力资源面试识别方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211546491.0A CN116071032A (zh) | 2022-12-05 | 2022-12-05 | 基于深度学习的人力资源面试识别方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116071032A true CN116071032A (zh) | 2023-05-05 |
Family
ID=86177806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211546491.0A Pending CN116071032A (zh) | 2022-12-05 | 2022-12-05 | 基于深度学习的人力资源面试识别方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116071032A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117116280A (zh) * | 2023-08-08 | 2023-11-24 | 无锡爱视智能科技有限责任公司 | 一种基于人工智能的语音数据智能管理系统及方法 |
-
2022
- 2022-12-05 CN CN202211546491.0A patent/CN116071032A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117116280A (zh) * | 2023-08-08 | 2023-11-24 | 无锡爱视智能科技有限责任公司 | 一种基于人工智能的语音数据智能管理系统及方法 |
CN117116280B (zh) * | 2023-08-08 | 2024-04-09 | 无锡爱视智能科技有限责任公司 | 一种基于人工智能的语音数据智能管理系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8750489B2 (en) | System and method for automatic call segmentation at call center | |
WO2022095380A1 (zh) | 基于ai的虚拟交互模型生成方法、装置、计算机设备及存储介质 | |
CN113094578B (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
CN108550054B (zh) | 一种内容质量评估方法、装置、设备和介质 | |
CN112468659B (zh) | 应用于电话客服的质量评价方法、装置、设备及存储介质 | |
CN111507573A (zh) | 业务员考核方法、系统、设备及存储介质 | |
CN113807103B (zh) | 基于人工智能的招聘方法、装置、设备及存储介质 | |
CN112418779A (zh) | 一种基于自然语言理解的在线自助面试方法 | |
CN112818742A (zh) | 一种用于智能面试的表达能力维度评价方法及装置 | |
CN112001628A (zh) | 智能面试视频的推荐方法 | |
CN115641101A (zh) | 一种智能化招聘的方法、装置及计算机可读介质 | |
CN116071032A (zh) | 基于深度学习的人力资源面试识别方法、装置及存储介质 | |
Senarathne et al. | Automate traditional interviewing process using natural language processing and machine learning | |
CN113672698B (zh) | 一种基于表达分析的智能面试方法、系统、设备和存储介质 | |
CN110705523B (zh) | 一种基于神经网络的创业者路演能力测评方法及其测评系统 | |
CN115829533B (zh) | 一种智能化线上面试方法、系统、设备及存储介质 | |
CN109272262B (zh) | 一种自然语言特征的分析方法 | |
CN115147067A (zh) | 一种基于深度学习智能招聘人才的方法 | |
CN115186051A (zh) | 敏感词检测方法、装置及计算机可读存储介质 | |
Seref et al. | Rhetoric mining for fake news: identifying moves of persuasion and disinformation | |
Ramanarayanan et al. | Using vision and speech features for automated prediction of performance metrics in multimodal dialogs | |
Pandey et al. | Interview bot with automatic question generation and answer evaluation | |
CN116304058B (zh) | 企业负面信息的识别方法、装置、电子设备及存储介质 | |
Caldera et al. | Interview Bot Using Natural Language Processing and Machine Learning | |
Höhne et al. | The Sound of respondents: Predicting respondents’ level of Interest with voice data in smartphone surveys |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |