CN110457432A - 面试评分方法、装置、设备及存储介质 - Google Patents
面试评分方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110457432A CN110457432A CN201910600403.2A CN201910600403A CN110457432A CN 110457432 A CN110457432 A CN 110457432A CN 201910600403 A CN201910600403 A CN 201910600403A CN 110457432 A CN110457432 A CN 110457432A
- Authority
- CN
- China
- Prior art keywords
- text
- candidate
- target
- micro
- target problem
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000012795 verification Methods 0.000 claims abstract description 47
- 239000013598 vector Substances 0.000 claims description 39
- 238000004590 computer program Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000010348 incorporation Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 238000004458 analytical method Methods 0.000 abstract 1
- 238000007405 data analysis Methods 0.000 abstract 1
- 238000010195 expression analysis Methods 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 description 88
- 238000012549 training Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 6
- 230000003595 spectral effect Effects 0.000 description 5
- 238000005520 cutting process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请涉及数据分析领域,具体使用了微表情分析技术实现用户画像分析,并公开了一种面试评分方法、装置、设备及存储介质,所述方法包括:获取面试视频信息,根据所述面试视频信息获取目标问题文本、第二用户的微表情类型集合和目标答案文本;确定所述目标问题文本对应的候选问题文本;根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系;若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出相似校验结果;若所述相似校验结果校验通过,根据所述微表情类型集合获取候选答案文本,根据所述候选答案文本与所述目标答案文本计算第二用户的回答得分。进而提高面试评分的准确率。
Description
技术领域
本申请涉及自然语言处理领域,尤其涉及一种面试评分方法、装置、设备及存储介质。
背景技术
人工智能领域中的自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与智能设备之间用自然语言(即口头语言)进行有效通信的各种理论和方法。在智能面试场景中,当智能设备收到使用者的语音信息时,智能设备通常需要将语音信息转化为目标文本,并对该目标文本与预设的文本进行评分,以得到面试者回答面试问题的回答得分,从而了解面试者的能力水平。面试者的能力水平与面试评分的准确度息息相关。然而现有的面试评分准确度不够理想。因而,如何提供一种面试评分准确度高的面试评分方法,是本领域技术人员亟待解决的技术问题之一。
发明内容
本申请提供了一种面试评分方法、装置、设备及存储介质,旨在提高面试评分的准确率。
第一方面,本申请提供了一种面试评分方法,所述方法包括:
获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本;
确定所述目标问题文本对应的候选问题文本;
根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系;
若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果;
若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
第二方面,本申请还提供了一种面试评分装置,所述装置包括:
文本获取单元,用于获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本;
文本确定单元,用于确定所述目标问题文本对应的候选问题文本;
相似确定单元,用于根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系;
结果输出单元,用于若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果;
得分计算单元,用于若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
第三方面,本申请还提供了一种计算机设备,所述计算机设备包括存储器和处理器;所述存储器用于存储计算机程序;所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如上述的面试评分方法。
第四方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上述的面试评分方法。
本申请公开了一种面试评分方法、装置、设备及存储介质,通过微表情识别,可以根据微表情类型集合获取的候选答案文本,在一定程度上保证面试水平的真实性。同时,通过预设相似规则度量确定简单语义的文本相似度,通过相似校验模型确定复杂语义的文本相似度,提高面试评分的准确率。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种面试评分方法的示意流程图;
图2是本申请的实施例提供的面试评分方法的应用场景示意图;
图3是本申请的实施例提供的一种面试评分方法的子步骤示意流程图;
图4是本申请的实施例提供的一种获取目标问题文本和目标答案文本的步骤示意流程图;
图5为本申请实施例提供的另一种面试评分方法的流程示意图;
图6为本申请的实施例提供的一种面试评分方法的子步骤示意流程图;
图7为本申请实施例提供的一种面试评分装置的示意性框图;
图8为本申请实施例提供的一种面试评分装置的子单元示意性框图;
图9为本申请一实施例提供的一种计算机设备的结构示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参阅图1,图1是本申请实施例提供的一种面试评分方法的步骤示意流程图。该面试评分方法可以应用于如图2所示的应用场景中。具体的,如图2所示,第一用户可以通过第一终端和第二终端实现与第二用户进行交互。
需要说明的是,第一终端和第二终端可以为同一台终端设备,也可以为不同终端设备。第一用户可以为面试官,第二用户可以为面试者。当然,第一用户也可以为面试者,第二用户也可以为面试官。但为了便于理解,以下实施例以第一用户为面试官、第二用户为面试者进行详细介绍。
如图1所示,该面试评分方法,具体包括:步骤S101至步骤S105。
S101、获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本。
第一用户可以现场或远程通过视频问询的方式对第二用户进行问询。在问询的过程中,通过录像设备或终端设备采集问询过程中的语音数据和被问询者的面部数据,从而生成对应的面试视频信息,然后通过录像设备或终端设备将面试视频信息上传至后台的服务器,由服务器基于面试官标签和面试者标签关联面试视频信息。其中,该面试官标签用于唯一表示参加面试的面试官,该面试者标签用于唯一表示参加面试的面试者,该终端设备可以为手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等电子设备。
在一个实施例中,如图3所示,所述根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、所述第二用户的微表情类型集合和第二用户回答提问时对应的目标答案文本,包括:子步骤S1011至S1013。
S1011、对所述面试视频信息进行音视频分离得到待识别的目标面试视频和目标面试音频。
具体地,对该面试视频信息进行音视频分离得到待识别的目标面试视频和目标面试音频,可选地,获取预设音频格式,并将该面试视频信息的格式转换为该预设音频格式,以实现音视频分离,从而得到待识别的目标面试视频和目标面试音频。需要说明的是,上述预设音频格式可基于实际情况进行设置,本申请对此不作具体限定。
S1012、对所述目标面试音频进行语音文本识别,得到第一用户进行提问时对应的目标问题文本和第二用户回答提问时对应的目标答案文本。
具体地,目标面试音频包括第一用户和第二用户之间已经发生的提问音频数据和回答音频数据。对该目标面试音频进行特征提取,得到语音特征,并通过预设的语音文本识别模型和该语音特征,得到第一用户进行提问时对应的目标问题文本以及第二用户回答提问时对应的目标答案文本。其中,语音特征包括但不限于时长相关特征、基频相关特征、能量相关特征、倒谱系数和Mel频率倒谱系数。
在一实施例中,如图4所示,所述对所述目标面试音频进行语音文本识别,得到第一用户进行提问时对应的目标问题文本和第二用户回答提问时对应的目标答案文本,包括:子步骤S1012a至S1012e。
S1012a、对所述目标语音信息进行分帧加窗处理,以得到若干语音数据块。
其中,目标语音信息一般包括一段时间区间的目标语音信息,而一段时间区间中包括至少两帧语音数据块。为了方便对目标语音信息进行后续的运算处理,需要对目标语音信息进行分帧处理,以得到以帧为单位的语音数据块,多个语音数据块的集合作为语音块信息。示例性地,将目标语音信息分为若干帧语音数据块,每帧语音数据块包括30个语音数据。
具体的,分帧加窗处理具体设置帧长为60ms,按照设置的帧长60ms对语音信息进行分割处理以得到分割后的语音信息,然后再对分割后语音信息加海明窗处理,得到语音数据块。加海明窗处理是指将分割后语音信息乘以一个窗函数,目的是为了进行傅里叶展开。
需要说明的是,分帧加窗处理,具体设置帧长可以设为其他值,比如设置为20ms、50ms或其他值。
S1012b、对各所述语音数据块进行频域变化,以得到对应的幅度谱。
具体地,对各所述语音数据块进行快速傅里叶变换(Fast Fourier Transform、FFT),以得到相应的参数,在本实施例中是为了得到幅值作为幅度谱,即快速傅里叶变换后的幅值。当然,也可以用FFT变换后的其他参数,比如幅值加上相位信息等。
可以理解的是,也可以对各所述语音数据块进行小波变换以得到相应的参数,并选择变换后的幅值作为幅度谱。
S1012c、通过梅尔滤波器组对所述幅度谱进行滤波处理,并对滤波处理后的幅度谱进行离散余弦变换以得到梅尔频率倒谱系数。
具体地,所述通过梅尔滤波器组对所述幅度谱进行滤波处理,包括:获取所述目标语音信息对应的最大频率,利用梅尔频率计算公式计算所述最大频率对应的梅尔频率;根据计算的梅尔频率以及所述梅尔滤波器组中三角滤波器的数量计算两个相邻三角滤波器的中心频率的梅尔间距;根据所述梅尔间距完成对多个三角滤波器的线性分布;根据完成线性分布的多个三角滤波器对所述幅度谱进行滤波处理。
梅尔滤波器组具体包括40个线性分布在梅尔量度的三角滤波器。将得到幅度谱通过40个线性分布在梅尔量度的三角滤波器进行滤波处理后,再进行离散余弦变换得到梅尔频率倒谱系数。
确定目标语音信息中对应的最大频率,根据最大频率利用梅尔频率计算公式可计算最大梅尔频率,根据最大梅尔频率以及三角滤波器的数量(40个)计算两个相邻三角滤波器的中心频率的间距;根据计算出来的间距完成对多个三角滤波器的线性分布。
其中,所述梅尔频率计算公式为:
上式中,fmel为所述梅尔频率,f为所述语音信息对应的最大频率,A为系数,具体为2595。
S1012d、对所述梅尔频率倒谱系数进行归一化处理以得到所述目标语音信息对应的频谱向量。
具体的,采用的零-均值归一化(Z-Score标准化),也称为标准差标准化。经过处理的数据的均值为0,标准差为1。Z-Score标准化是将不同量级的数据统一转化为同一个量级,统一用计算出的Z-Score值衡量,以保证数据之间的可比性。
S1012e、将所述频谱向量输入至预先训练好的语音识别模型,以得到第一用户进行提问时对应的目标问题文本和第二用户回答提问时对应的目标答案文本。
具体的,在得到频谱向量后,将该频谱向量输入至预先训练好的语音识别模型,这样可以精准的获得第一用户进行提问时对应的目标问题文本以及第二用户回答提问时对应的目标答案文本。
其中,预先训练好的语音识别模型可以是采用大量的语音-文本样本数据对初始神经网络进行训练获得。初始神经网络可以是隐马尔可夫模型(Hidden Markov Model,HMM)等。
具体的,在隐马尔可夫模型中,每一帧对应的频谱向量对应一个状态,将状态组合成音素,再将音素组合成单词,从而得到第一用户进行提问时对应的目标问题文本和第二用户回答提问时对应的目标答案文本。
S1013、对所述目标面试视频进行微表情识别,得到所述第二用户的微表情类型集合。
具体地,获取预存的微表情识别模型,并通过微表情识别模型对该目标面试视频进行微表情识别,得到微表情类型集合。其中,该微表情识别模型可选为基于深度学习的微表情识别模型,通过训练的方式,得到微表情识别模型。
训练方式具体为:准备数据集,包含微表情的视频片段采集、视频图像归一化处理、训练/验证/测试集分割等;基于卷积神经网络和循环神经网络设计待训练的微表情识别模型,并通过训练集对待训练的微表情识别模型进行训练直至模型收敛,然后利用验证集和测试集对收敛后的微表情识别模型进行验证和测试,在满足要求后,固化微表情识别模型。
其中,对目标面试视频进行微表情识别的方式具体还可以为:对目标面试视频中的每一帧图像进行微表情识别,确定每一帧图像的微表情类型,并汇集每一图像帧的微表情类型,得到微表情类型集合。具体实施例中,存在微表情类型相同的情况,为此,在汇集每一图像帧的微表情类型时,如果存在图像帧的微表情类型相同,则仅汇集其中一个图像帧的微表情类型,保证微表情类型集合中的微表情类型不重复。
其中,每一帧图像的微表情类型的确定方式为:将该目标面试视频拆分为若干帧图像,并同时提取若干帧图像中每一帧图像的目标特征向量,且获取预存的微表情库,然后计算每一图像帧的目标特征向量与该微表情库中的每个预设微表情的特征向量之间的相似概率,并将该相似概率大于预设相似概率对应的微表情类型确定为该图像帧的微表情类型。需要说明的是,上述预设相似概率可基于实际情况进行设置,本申请对此不作具体限定。
S102、确定所述目标问题文本对应的候选问题文本。
示例性的,问题-答案库可以为预先存储的专业问答库。问题-答案库中,每个问题文本可以对应一个答案文本,也可以对应多个答案文本。具体的,在问题-答案库中,存在与同一个目标问题文本对应的一个或多个候选问题文本的情况。具体的,可以利用倒排索引的方式,从所述问题-答案库中,选取出与目标问题文本中的关键词重合度较高的一个或多个预设问题文本,作为候选问题文本。
例如,对于目标问题文本“专利法总共有多少条”,可以从问题-答案库中选取出三个候选问题文本“专利法的条数是多少”“专利法的作用是什么”和“专利法的字数是多少”。
S103、根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系。
具体的,相似关系包括两种,分别为相似和不相似。其中,相似即所述目标问题文本与所述候选问题文本相似。不相似即所述目标问题文本与所述候选问题文本不相似。
预设相似规则可以根据实际需要进行设置。例如若所述目标问题文本与所述候选问题文本的文本相似度大于预设相似阀值,则确定所述目标问题文本与所述候选问题文本相似。若所述目标问题文本与所述候选问题文本的文本相似度不大于预设相似阀值,则确定所述目标问题文本与所述候选问题文本不相似。
S104、若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果。
其中,预设的相似校验模型可选为基于神经网络通过训练得到的,训练方式具体为:建立文本训练样本集和待训练的相似校验模型,利用文本训练样本集对相似度校验模型进行迭代训练,直到相似校验模型收敛。神经网络可以为循环神经网络或卷积神经网络等。
S105、若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
第二用户在面试过程中处于紧张状态时回答面试问题所得到的回答得分,通常会与处于正常状态时回答面试问题所得到的回答得分不同。为了降低第二用户情绪的影响,若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,进而根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
可选的,问题-答案库中,同一候选问题文本对应有至少两种候选答案文本。问题-答案库包括不同的预设微表情类型组,根据预设微表情类型组和候选问题文本可以唯一确定一个候选答案文本。
需要说明的是,预设微表情类型组可以根据实际情况进行设置,本申请对此不作具体限定。可选地,预设微表情类型组中存储有用于表示第二用户是否紧张的微表情类型标签,如表示面肌抽搐、面色苍白和嘴巴说话停顿等微表情类型标签。示例性的,预设微表情类型组包括预设第一微表情类型组和预设第二微表情类型组,分别用于表示第二用户在面试过程中表情处于紧张状态和正常状态。
在一具体实施例中,所述根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,包括:判断该微表情类型集合是否包含预设第一微表情类型组中预设数量的微表情类型,或判断该微表情类型集合是否包含预设第二微表情类型组中预设数量的微表情类型;若所述微表情类型集合包含预设第一微表情类型组中预设数量的微表情类型,从预设的文本-答案库中获取所述第一微表情类型组对应的候选答案文本;若所述微表情类型集合包含预设第二微表情类型组中预设数量的微表情类型,从所述文本-答案库中获取所述第二微表情类型组对应的候选答案文本。
需要说明的是,预设数量可以根据实际需求进行设置,例如一半以上、或者三分之一以上等等。
上述实施例提供的面试评分方法,通过微表情识别,可以根据微表情类型集合获取的候选答案文本,在一定程度上保证面试水平的真实性。同时,通过预设相似规则度量确定简单语义的文本相似度,通过相似校验模型确定复杂语义的文本相似度,提高面试评分的准确率。
请参照图5,图5为本申请实施例提供的另一种面试评分方法的流程示意图。
如图5所示,该面试评分方法包括步骤S201至S206。
S201、获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本。
具体的,可通过录音设备等语音采集设备采集与用户聊天时对应的语音信号,该录音设备比如智能手环或智能手表,以及录音笔、智能手机、平板电脑、笔记本或智能穿戴设备等。
第一用户可以现场或远程通过视频问询的方式对第二用户进行问询。在问询的过程中,通过录像设备或终端设备采集问询过程中的语音数据和被问询者的面部数据,从而生成对应的面试视频信息,然后通过录像设备或终端设备将面试视频信息上传至后台的服务器,由服务器基于面试官标签和面试者标签关联面试视频信息。其中,该面试官标签用于唯一表示参加面试的面试官,该面试者标签用于唯一表示参加面试的面试者,该终端设备可以为手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等电子设备。
S202、确定所述目标问题文本对应的候选问题文本。
示例性的,问题-答案库可以为预先存储的专业问答库。问题-答案库中,每个问题文本可以对应一个答案文本,也可以对应多个答案文本。具体的,在问题-答案库中,存在与同一个目标问题文本对应的一个或多个候选问题文本的情况。具体的,可以利用倒排索引的方式,从所述问题-答案库中,选取出与目标问题文本中的关键词重合度较高的一个或多个预设问题文本,作为候选问题文本。
在一实施例中,所述确定所述目标问题文本对应的候选问题文本,具体包括:对所述目标问题文本进行切词处理得到分词,根据预设的关键词库提取所述分词的关键词;根据所述关键词,从预设问题-答案库中确定与所述目标问题文本对应的候选问题文本。
具体的,基于IK Analyzer分词工具,对所述目标问题文本进行切词处理得到分词。预设关键词库可以是预先存储的词库,所述关键词库中存储了不同的关键词。
示例性的,可以对所述目标问题文本进行切词,然后从所述切词得到的结果中提取关键词。例如,目标问题文本“专利法总共有多少条”的关键词可以是“专利法、多少、条”。
示例性的,根据关键词“专利法、多少、条”,可以从问题-答案库中选出与所述目标问题文本“专利法总共有多少条”对应的候选问题文本“专利法的条数是多少”“专利法的作用是什么”和“专利法的字数是多少”。
S203、根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系。
具体的,相似关系包括两种,分别为相似和不相似。其中,相似即所述目标问题文本与所述候选问题文本相似。不相似即所述目标问题文本与所述候选问题文本不相似。
预设相似规则可以根据实际需要进行设置。例如若所述目标问题文本与所述候选问题文本的文本相似度大于预设相似阀值,则确定所述目标问题文本与所述候选问题文本相似。若所述目标问题文本与所述候选问题文本的文本相似度不大于预设相似阀值,则确定所述目标问题文本与所述候选问题文本不相似。
在一实施例中,如图6所示,所述根据预设相似规则,确定所述目标问题文本与所述目标问题文本对应的候选问题文本的相似关系,即步骤S203包括:子步骤S2031至S2033。
S2031、基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度。
具体的,在得到目标问题文本和候选问题文本后,可以计算二者的文本相似度,具体为基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度,从而得到二者的相似关系。
在一实施例中,所述基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度,包括:根据词嵌入模型,对所述候选问题文本和所述目标问题文本进行向量转化,以得到所述候选问题文本对应的第一语义向量和所述目标问题文本对应的第二语义向量;基于相似度计算公式,根据所述第一语义向量和所述第二语义向量,计算所述候选问题文本与所述目标问题文本的文本相似度。
可以理解的,可以根据词嵌入模型将候选问题文本和目标问题文本转化为各自对应的语义向量,即将候选问题文本转化为候选问题文本对应的第一语义向量,将目标问题文本转化为目标问题文本对应的第二语义向量。
具体的,所述词嵌入模型具体可以应用word2vec工具,用样本训练集训练得到。其中,word2vec工具是一种利用深度学习方法将词语向量化的方法。样本训练集可以包括文本和语义向量。当然,所述词嵌入模型也可以采用其他工具进行训练。
其中,所述相似度计算公式为:
其中,sim<A,B>为文本相似度,A为候选问题文本对应的第一语义向量,B为目标问题文本对应的第二语义向量,n为第一语义向量和第二语义向量的维数。
由此,可基于上述公式,根据所述候选问题文本对应的第一语义向量和与所述目标问题文本对应的第二语义向量,计算所述目标问题文本与所述候选问题文本的文本相似度。
示例性的,假设候选问题文本为“专利法实施细则2009版和2010版有差别吗”,其对应的第一语义向量为[1,1,2,1,1,1,1,1,0],目标问题文本为“专利法实施细则2009版和2010版有区别吗”,其对应的第二语义向量为[1,1,2,1,1,1,1,0,1],则二者的文本相似度的计算过程如下:
S2032、若所述文本相似度大于预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本相似的相似关系。
具体的,预设相似阀值可以根据实际需要进行设置。如果文本相似度大于预设相似阀值,表示所述目标问题文本与所述候选问题文本相似,此时确定相似关系为相似。示例性的,如果文本相似度98%大于90%,则确定所述目标问题文本与所述候选问题文本的相似关系为相似。
S2033、若所述文本相似度不大于所述预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本不相似的相似关系。
具体的,如果文本相似度不大于预设相似阀值,表示所述目标问题文本与所述候选问题文本不相似,此时确定相似关系为相似。示例性的,如果文本相似度60%小于90%,则确定所述目标问题文本与所述候选问题文本的相似关系为不相似。
若所述相似关系为不相似,执行步骤S204。若所述相似关系为相似,则执行步骤S205。
S204、将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果。
其中,预设的相似校验模型可选为基于神经网络通过训练得到的,训练方式具体为:建立文本训练样本集和待训练的相似校验模型,利用文本训练样本集对相似度校验模型进行迭代训练,直到相似校验模型收敛。神经网络可以为循环神经网络或卷积神经网络等。
在一实施例中,所述相似校验模型包括输入层、编码层、映射层和输出层。为了避免待度量相似度的两个文本输入顺序不同时致使度量结果存在差异,所述输入层包括第一输入子层和第二输入子层,所述目标问题文本和候选问题文本分别从并列的第一输入子层和第二输入子层输入,保证相似度校验结果不受所述目标问题文本和候选问题文本的输入顺序的影响,提高面试评分的准确率。
具体的,所述将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果,即步骤S204包括:若所述相似关系表示所述目标问题文本与所述候选问题文本不相似,将所述目标问题文本输入至所述第一输入子层,将所述候选问题文本输入至所述第二输入子层;分别将所述第一输入子层的输出和所述第二输入子层的输出输入所述相似校验模型的编码层、映射层和输出层,以输出所述目标问题文本与所述候选问题文本的相似校验结果。
其中,所述相似度校验结果,具体包括:校验通过和校验不通过。校验通过表示所述目标问题文本与所述候选问题文本相似,校验不通过表示所述目标问题文本与所述候选问题文本不相似。
所述相似度校验结果可以但不限于以数字的形式输出。例如,将所述目标问题文本与所述候选问题文本输入神经网络模型,若输出“1”,表示所述目标问题文本与所述候选问题文本校验通过,所述目标问题文本与所述候选问题文本相似;若输出“0”,表示所述目标问题文本与所述候选问题文本校验不通过,表示所述目标问题文本与所述候选问题文本不相似。
若所述相似校验结果校验通过,执行步骤S205。若所述相似校验结果校验不通过,则执行步骤S206。
S205、根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
第二用户在面试过程中处于紧张状态时回答面试问题所得到的回答得分,通常会与处于正常状态时回答面试问题所得到的回答得分不同。为了降低第二用户情绪的影响,若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,进而根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
S206、生成提示信息,以提示所述第一用户在预设的问题-答案库中不存在与所述目标问题文本相似的候选问题文本。
具体的,若所述相似校验结果校验不通过,生成提示信息,以提示第一用户在问题-答案库中不存在与目标问题文本相似的候选问题文本,第一用户需要重新进行提问。
上述实施例提供的面试评分方法,通过微表情识别,可以根据微表情类型集合获取的候选答案文本,在一定程度上保证面试水平的真实性。同时,通过预设相似规则度量确定简单语义的文本相似度,通过相似校验模型确定复杂语义的文本相似度,提高面试评分的准确率。
请参阅图7,图7是本申请的实施例还提供一种面试评分装置的示意性框图,该面试评分装置用于执行前述任一项面试评分方法。其中,该面试评分装置可以配置于服务器或终端中。
其中,服务器可以为独立的服务器,也可以为服务器集群。该终端可以是手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等电子设备。
如图7所示,面试评分装置300包括:文本获取单元301、文本确定单元302、相似确定单元303、结果输出单元304和得分计算单元305。
文本获取单元301,用于获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本。
文本确定单元302,用于确定所述目标问题文本对应的候选问题文本。
相似确定单元303,用于根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系。
结果输出单元304,用于若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果。
得分计算单元305,用于若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
在一个实施例中,文本获取单元301,用于:获取面试视频信息,对所述面试视频信息进行音视频分离得到待识别的目标面试视频和目标面试音频;对所述目标面试音频进行语音文本识别,得到第一用户进行提问时对应的目标问题文本和第二用户回答提问时对应的目标答案文本;对所述目标面试视频进行微表情识别,得到所述第二用户的微表情类型集合。
在一个实施例中,如图8所示,相似确定单元303包括相似度计算子单元3031、相似确定子单元3032和不相似确定子单元3033。
相似度计算子单元3031,用于基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度。相似确定子单元3032,用于若所述文本相似度大于预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本相似的相似关系。不相似确定子单元3033,用于若所述文本相似度不大于所述预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本不相似的相似关系。
在一个实施例中,相似度计算子单元3031,具体用于根据词嵌入模型,对所述候选问题文本和所述目标问题文本进行向量转化,以得到所述候选问题文本对应的第一语义向量和所述目标问题文本对应的第二语义向量;基于相似度计算公式,根据所述第一语义向量和所述第二语义向量,计算所述候选问题文本与所述目标问题文本的文本相似度。
在一个实施例中,得分计算单元305还用于若所述相似关系为相似,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
在一个实施例中,所述相似校验模型的输入层包括第一输入子层和第二输入子层。结果输出单元304,具体用于若所述相似关系为不相似,将所述目标问题文本输入至所述第一输入子层,将所述候选问题文本输入至所述第二输入子层;分别将所述第一输入子层的输出和所述第二输入子层的输出输入所述相似校验模型的编码层、映射层和输出层,以输出所述目标问题文本与所述候选问题文本的相似校验结果。
在一个实施例中,得分计算单元305,具体用于若所述微表情类型集合包含预设第一微表情类型组中预设数量的微表情类型,从预设的文本-答案库中获取所述第一微表情类型组对应的候选答案文本;若所述微表情类型集合包含预设第二微表情类型组中预设数量的微表情类型,从所述文本-答案库中获取所述第二微表情类型组对应的候选答案文本。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的面试评分装置和各单元的具体工作过程,可以参考前述面试评分方法实施例中的对应过程,在此不再赘述。
上述的面试评分装置可以实现为一种计算机程序的形式,该计算机程序可以在如图9所示的计算机设备上运行。
请参阅图9,图9是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备可以是服务器或终端。
参阅图9,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口,其中,存储器可以包括非易失性存储介质和内存储器。
非易失性存储介质可存储操作系统和计算机程序。该计算机程序包括程序指令,该程序指令被执行时,可使得处理器执行一种面试评分方法。
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行一种面试评分方法。
该网络接口用于进行网络通信,如发送分配的任务等。本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
应当理解的是,处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本;确定所述目标问题文本对应的候选问题文本;根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系;若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果;若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
在一个实施例中,所述处理器在实现所述根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、所述第二用户的微表情类型集合和第二用户回答提问时对应的目标答案文本时,用于实现:
对所述面试视频信息进行音视频分离得到待识别的目标面试视频和目标面试音频;对所述目标面试音频进行语音文本识别,得到第一用户进行提问时对应的目标问题文本和第二用户回答提问时对应的目标答案文本;对所述目标面试视频进行微表情识别,得到所述第二用户的微表情类型集合。
在一个实施例中,所述处理器在实现所述根据预设相似规则,确定所述目标问题文本与所述目标问题文本对应的候选问题文本的相似关系时,用于实现:
基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度;若所述文本相似度大于预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本相似的相似关系;若所述文本相似度不大于所述预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本不相似的相似关系。
在一个实施例中,所述处理器在实现所述基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度时,用于实现:
根据词嵌入模型,对所述候选问题文本和所述目标问题文本进行向量转化,以得到所述候选问题文本对应的第一语义向量和所述目标问题文本对应的第二语义向量;基于相似度计算公式,根据所述第一语义向量和所述第二语义向量,计算所述候选问题文本与所述目标问题文本的文本相似度。
在一个实施例中,所述处理器在实现所述根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系之后,还用于实现:
若所述相似关系为相似,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
在一个实施例中,所述相似校验模型的输入层包括第一输入子层和第二输入子层。所述处理器在实现所述若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果时,用于实现:
若所述相似关系为不相似,将所述目标问题文本输入至所述第一输入子层,将所述候选问题文本输入至所述第二输入子层;分别将所述第一输入子层的输出和所述第二输入子层的输出输入所述相似校验模型的编码层、映射层和输出层,以输出所述目标问题文本与所述候选问题文本的相似校验结果。
在一个实施例中,所述处理器在实现所述根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本时,用于实现:
若所述微表情类型集合包含预设第一微表情类型组中预设数量的微表情类型,从预设的文本-答案库中获取所述第一微表情类型组对应的候选答案文本;若所述微表情类型集合包含预设第二微表情类型组中预设数量的微表情类型,从所述文本-答案库中获取所述第二微表情类型组对应的候选答案文本。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现本申请实施例提供的任一项面试评分方法。
其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种面试评分方法,其特征在于,包括:
获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本;
确定所述目标问题文本对应的候选问题文本;
根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系;
若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果;
若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
2.根据权利要求1所述的面试评分方法,其特征在于,所述根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、所述第二用户的微表情类型集合和第二用户回答提问时对应的目标答案文本,包括:
对所述面试视频信息进行音视频分离得到待识别的目标面试视频和目标面试音频;
对所述目标面试音频进行语音文本识别,得到第一用户进行提问时对应的目标问题文本和第二用户回答提问时对应的目标答案文本;
对所述目标面试视频进行微表情识别,得到所述第二用户的微表情类型集合。
3.根据权利要求1所述的面试评分方法,其特征在于,所述根据预设相似规则,确定所述目标问题文本与所述目标问题文本对应的候选问题文本的相似关系,包括:
基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度;
若所述文本相似度大于预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本相似的相似关系;
若所述文本相似度不大于所述预设相似阀值,确定用于表示所述目标问题文本与所述候选问题文本不相似的相似关系。
4.根据权利要求3所述的面试评分方法,其特征在于,所述基于相似度计算公式,计算所述目标问题文本与所述候选问题文本的文本相似度,包括:
根据词嵌入模型,对所述候选问题文本和所述目标问题文本进行向量转化,以得到所述候选问题文本对应的第一语义向量和所述目标问题文本对应的第二语义向量;
基于相似度计算公式,根据所述第一语义向量和所述第二语义向量,计算所述候选问题文本与所述目标问题文本的文本相似度。
5.根据权利要求1所述的面试评分方法,其特征在于,所述根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系之后,还包括:
若所述相似关系为相似,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
6.根据权利要求1所述的面试评分方法,其特征在于,所述相似校验模型的输入层包括第一输入子层和第二输入子层;所述若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果,包括:
若所述相似关系为不相似,将所述目标问题文本输入至所述第一输入子层,将所述候选问题文本输入至所述第二输入子层;
分别将所述第一输入子层的输出和所述第二输入子层的输出输入所述相似校验模型的编码层、映射层和输出层,以输出所述目标问题文本与所述候选问题文本的相似校验结果。
7.根据权利要求1所述的面试评分方法,其特征在于,所述根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,包括:
若所述微表情类型集合包含预设第一微表情类型组中预设数量的微表情类型,从预设的文本-答案库中获取所述第一微表情类型组对应的候选答案文本;
若所述微表情类型集合包含预设第二微表情类型组中预设数量的微表情类型,从所述文本-答案库中获取所述第二微表情类型组对应的候选答案文本。
8.一种面试评分装置,其特征在于,包括:
文本获取单元,用于获取面试视频信息,根据所述面试视频信息获取第一用户进行提问时对应的目标问题文本、第二用户的微表情类型集合和所述第二用户回答提问时对应的目标答案文本;
文本确定单元,用于确定所述目标问题文本对应的候选问题文本;
相似确定单元,用于根据预设相似规则,确定所述目标问题文本与所述候选问题文本的相似关系;
结果输出单元,用于若所述相似关系为不相似,将所述目标问题文本与所述候选问题文本输入至预设的相似校验模型,以输出所述目标问题文本与所述候选问题文本的相似校验结果;
得分计算单元,用于若所述相似校验结果校验通过,根据所述微表情类型集合获取所述候选问题文本对应的候选答案文本,根据所述候选答案文本与所述目标答案文本计算所述第二用户的回答得分。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如权利要求1至7中任一项所述的面试评分方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至7中任一项所述的面试评分方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910600403.2A CN110457432B (zh) | 2019-07-04 | 2019-07-04 | 面试评分方法、装置、设备及存储介质 |
PCT/CN2019/103134 WO2021000408A1 (zh) | 2019-07-04 | 2019-08-28 | 面试评分方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910600403.2A CN110457432B (zh) | 2019-07-04 | 2019-07-04 | 面试评分方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110457432A true CN110457432A (zh) | 2019-11-15 |
CN110457432B CN110457432B (zh) | 2023-05-30 |
Family
ID=68482236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910600403.2A Active CN110457432B (zh) | 2019-07-04 | 2019-07-04 | 面试评分方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110457432B (zh) |
WO (1) | WO2021000408A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105138A (zh) * | 2019-11-20 | 2020-05-05 | 北京鳄梨科技有限公司 | 一种基于完成任务数据的人力资源分析评测系统 |
CN111177336A (zh) * | 2019-11-30 | 2020-05-19 | 西安华为技术有限公司 | 一种确定应答信息的方法和装置 |
CN111428012A (zh) * | 2020-03-02 | 2020-07-17 | 平安科技(深圳)有限公司 | 基于注意力机制的智能问答方法、装置、设备和存储介质 |
CN112052320A (zh) * | 2020-09-01 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置及计算机可读存储介质 |
CN112466308A (zh) * | 2020-11-25 | 2021-03-09 | 北京明略软件系统有限公司 | 一种基于语音识别的辅助面试方法及系统 |
CN112528797A (zh) * | 2020-12-02 | 2021-03-19 | 杭州海康威视数字技术股份有限公司 | 一种问题推荐方法、装置及电子设备 |
WO2021104323A1 (zh) * | 2019-11-25 | 2021-06-03 | 京东方科技集团股份有限公司 | 用于确定文本相似度的方法、获取语义答案文本的方法及问答方法 |
CN113241076A (zh) * | 2021-05-12 | 2021-08-10 | 北京字跳网络技术有限公司 | 语音处理方法、装置和电子设备 |
CN113780993A (zh) * | 2021-09-09 | 2021-12-10 | 平安科技(深圳)有限公司 | 数据处理方法、装置、设备及可读存储介质 |
WO2023137922A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 语音消息生成方法和装置、计算机设备、存储介质 |
CN117708391A (zh) * | 2024-02-05 | 2024-03-15 | 天开林源(天津)科技有限责任公司 | 一种数据处理方法、装置、设备及存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113806516B (zh) * | 2021-09-22 | 2024-06-14 | 湖北天天数链技术有限公司 | 匹配度确定方法、装置、电子设备及计算机可读存储介质 |
CN114897183B (zh) * | 2022-05-16 | 2023-06-13 | 北京百度网讯科技有限公司 | 问题数据处理方法、深度学习模型的训练方法和装置 |
CN115829533B (zh) * | 2023-02-15 | 2023-04-18 | 成都萌想科技有限责任公司 | 一种智能化线上面试方法、系统、设备及存储介质 |
CN117252260B (zh) * | 2023-09-06 | 2024-06-11 | 山东心法科技有限公司 | 一种基于大语言模型的面试技能训练方法、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180150739A1 (en) * | 2016-11-30 | 2018-05-31 | Microsoft Technology Licensing, Llc | Systems and methods for performing automated interviews |
CN108121800A (zh) * | 2017-12-21 | 2018-06-05 | 北京百度网讯科技有限公司 | 基于人工智能的信息生成方法和装置 |
CN108536708A (zh) * | 2017-03-03 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种自动问答处理方法及自动问答系统 |
CN109472206A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 基于微表情的风险评估方法、装置、设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105243484A (zh) * | 2015-10-02 | 2016-01-13 | 河南中欧企业咨询有限公司 | 基于数据处理的面试系统 |
US20170116870A1 (en) * | 2015-10-21 | 2017-04-27 | Duolingo, Inc. | Automatic test personalization |
CN107705090B (zh) * | 2017-09-27 | 2021-06-22 | 重庆市智汇人才开发有限公司 | 人才招聘系统及方法 |
CN109766917A (zh) * | 2018-12-18 | 2019-05-17 | 深圳壹账通智能科技有限公司 | 面试视频数据处理方法、装置、计算机设备和存储介质 |
CN109905381A (zh) * | 2019-02-15 | 2019-06-18 | 北京大米科技有限公司 | 自助面试方法、相关装置和存储介质 |
CN109961052A (zh) * | 2019-03-29 | 2019-07-02 | 上海大易云计算股份有限公司 | 一种基于表情分析技术的视频面试方法及系统 |
-
2019
- 2019-07-04 CN CN201910600403.2A patent/CN110457432B/zh active Active
- 2019-08-28 WO PCT/CN2019/103134 patent/WO2021000408A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180150739A1 (en) * | 2016-11-30 | 2018-05-31 | Microsoft Technology Licensing, Llc | Systems and methods for performing automated interviews |
CN108536708A (zh) * | 2017-03-03 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种自动问答处理方法及自动问答系统 |
CN108121800A (zh) * | 2017-12-21 | 2018-06-05 | 北京百度网讯科技有限公司 | 基于人工智能的信息生成方法和装置 |
CN109472206A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 基于微表情的风险评估方法、装置、设备及介质 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105138A (zh) * | 2019-11-20 | 2020-05-05 | 北京鳄梨科技有限公司 | 一种基于完成任务数据的人力资源分析评测系统 |
WO2021104323A1 (zh) * | 2019-11-25 | 2021-06-03 | 京东方科技集团股份有限公司 | 用于确定文本相似度的方法、获取语义答案文本的方法及问答方法 |
CN111177336A (zh) * | 2019-11-30 | 2020-05-19 | 西安华为技术有限公司 | 一种确定应答信息的方法和装置 |
CN111177336B (zh) * | 2019-11-30 | 2023-11-10 | 西安华为技术有限公司 | 一种确定应答信息的方法和装置 |
CN111428012B (zh) * | 2020-03-02 | 2023-05-26 | 平安科技(深圳)有限公司 | 基于注意力机制的智能问答方法、装置、设备和存储介质 |
CN111428012A (zh) * | 2020-03-02 | 2020-07-17 | 平安科技(深圳)有限公司 | 基于注意力机制的智能问答方法、装置、设备和存储介质 |
CN112052320A (zh) * | 2020-09-01 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置及计算机可读存储介质 |
CN112052320B (zh) * | 2020-09-01 | 2023-09-29 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置及计算机可读存储介质 |
CN112466308A (zh) * | 2020-11-25 | 2021-03-09 | 北京明略软件系统有限公司 | 一种基于语音识别的辅助面试方法及系统 |
CN112528797B (zh) * | 2020-12-02 | 2023-11-03 | 杭州海康威视数字技术股份有限公司 | 一种问题推荐方法、装置及电子设备 |
CN112528797A (zh) * | 2020-12-02 | 2021-03-19 | 杭州海康威视数字技术股份有限公司 | 一种问题推荐方法、装置及电子设备 |
CN113241076A (zh) * | 2021-05-12 | 2021-08-10 | 北京字跳网络技术有限公司 | 语音处理方法、装置和电子设备 |
CN113780993A (zh) * | 2021-09-09 | 2021-12-10 | 平安科技(深圳)有限公司 | 数据处理方法、装置、设备及可读存储介质 |
WO2023137922A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 语音消息生成方法和装置、计算机设备、存储介质 |
CN117708391A (zh) * | 2024-02-05 | 2024-03-15 | 天开林源(天津)科技有限责任公司 | 一种数据处理方法、装置、设备及存储介质 |
CN117708391B (zh) * | 2024-02-05 | 2024-05-17 | 天开林源(天津)科技有限责任公司 | 一种数据处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110457432B (zh) | 2023-05-30 |
WO2021000408A1 (zh) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110457432A (zh) | 面试评分方法、装置、设备及存储介质 | |
WO2021208287A1 (zh) | 用于情绪识别的语音端点检测方法、装置、电子设备及存储介质 | |
WO2021128741A1 (zh) | 语音情绪波动分析方法、装置、计算机设备及存储介质 | |
Wu et al. | Automatic speech emotion recognition using modulation spectral features | |
WO2021114841A1 (zh) | 一种用户报告的生成方法及终端设备 | |
WO2021047319A1 (zh) | 基于语音的个人信用评估方法、装置、终端及存储介质 | |
CN109767787A (zh) | 情绪识别方法、设备及可读存储介质 | |
CN109192194A (zh) | 语音数据标注方法、装置、计算机设备及存储介质 | |
CN109410986B (zh) | 一种情绪识别方法、装置及存储介质 | |
Levitan et al. | Combining Acoustic-Prosodic, Lexical, and Phonotactic Features for Automatic Deception Detection. | |
CN110970036A (zh) | 声纹识别方法及装置、计算机存储介质、电子设备 | |
CN107767881A (zh) | 一种语音信息的满意度的获取方法和装置 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN112468659A (zh) | 应用于电话客服的质量评价方法、装置、设备及存储介质 | |
CN110782902A (zh) | 音频数据确定方法、装置、设备和介质 | |
Alghifari et al. | On the use of voice activity detection in speech emotion recognition | |
Wagner et al. | Applying cooperative machine learning to speed up the annotation of social signals in large multi-modal corpora | |
Pao et al. | A study on the search of the most discriminative speech features in the speaker dependent speech emotion recognition | |
KR20210071713A (ko) | 스피치 스킬 피드백 시스템 | |
CN113393841B (zh) | 语音识别模型的训练方法、装置、设备及存储介质 | |
CN113539243A (zh) | 语音分类模型的训练方法、语音分类方法及相关装置 | |
Han et al. | [Retracted] The Modular Design of an English Pronunciation Level Evaluation System Based on Machine Learning | |
US20230402030A1 (en) | Embedded Dictation Detection | |
Yue | English spoken stress recognition based on natural language processing and endpoint detection algorithm | |
CN113691382A (zh) | 会议记录方法、装置、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |