CN112818742A - 一种用于智能面试的表达能力维度评价方法及装置 - Google Patents

一种用于智能面试的表达能力维度评价方法及装置 Download PDF

Info

Publication number
CN112818742A
CN112818742A CN202011595060.4A CN202011595060A CN112818742A CN 112818742 A CN112818742 A CN 112818742A CN 202011595060 A CN202011595060 A CN 202011595060A CN 112818742 A CN112818742 A CN 112818742A
Authority
CN
China
Prior art keywords
expression
pause
text
time
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011595060.4A
Other languages
English (en)
Inventor
田鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Intelligent Intelligence Intelligence Innovation Technology Research Institute Co ltd
Original Assignee
Nanjing Intelligent Intelligence Intelligence Innovation Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Intelligent Intelligence Intelligence Innovation Technology Research Institute Co ltd filed Critical Nanjing Intelligent Intelligence Intelligence Innovation Technology Research Institute Co ltd
Priority to CN202011595060.4A priority Critical patent/CN112818742A/zh
Publication of CN112818742A publication Critical patent/CN112818742A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Strategic Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

一种用于智能面试的表达能力维度评价方法及装置,采集面试视频,抽取视频帧和音频数据,首先将视频帧输入基于CNN的手部检测模型得到底层手部姿态特征,将音频数据输入基于自然语言处理的音频处理模块,得到底层语音表达特征;将两种底层特征分别输入两个LSTM编码为时序特征;再通过先验知识规则从两种底层特征中提取抽象的高层语义特征,包括手部表达、表达流畅度、感染力、条理性和简洁度信息;将时序特征和高层语义特征标准化后输入全连接神经网络,预测表达能力等级。系统使用分布式函数计算服务搭建,形成表达能力评价系统。本发明解决面试中表达能力打分的主观偏差和时间成本的效率问题,实现对大量面试视频快速并准确的表达能力评估。

Description

一种用于智能面试的表达能力维度评价方法及装置
技术领域
本发明属于人工智能技术领域,涉及对图像、音频信息的特征抽取和深层维度的机器学习,用于对面试者进行特征画像的建模分析,为一种用于智能面试的表达能力维度评价方法及装置。
背景技术
随着技术发展和经济发展需求,大部分企业都有降本增效需求,减少在招聘中的人力投入,提升效率是其中重要一环。对于标准明确、对面试者要求偏低的岗位,AI面试技术通过设定标准化问题就可以自动判断面试者是否满足要求,而对于高要求岗位,通过AI面试可以用于对面试者进行初筛,从而减轻面试官后续的面试量,大大降低人工成本。
在提高面试效率的同时,如何保障面试质量成为核心。面对海量面试者,面试需要花费大量时间进行评估,而且即便是经验丰富的面试官也难免会因为疲劳、情绪等主观因素造成评估偏差。而“招错人”一旦既成事实,可能对企业组织管理、业务发展和人力成本等各方面带来不小的负面影响。
一般的线上面试系统仅仅提供了最基础的判断能力,只能从地区、职位、学历等简单、浅层的维度用基于规则的方法呈现面试者的情况,智能性较差,难以替代面试官的工作,无法全面多维地呈现面试者的胜任能力,进而无法科学、精准地解决目前招聘流程所存在的问题和需求。而基于自然语言处理和计算机视觉技术的自动化、智能化的分析面试者在面试中的表现,进行面试者表达能力的评估,能够深度评估面试者的潜在能力,对人才审核和选拔具有积极的意义。将先进的AI技术引入科学的面试内容分析能够有效地助力于招聘工具的升级、招聘资源的节省和招聘效率及质量的提升。
发明内容
本发明要解决的问题是:解决现有线上面试系统在表达能力方面的评估缺口和分析不够精准合理的问题,目的是通过自动化流程和智能化工具对人才表达能力进行快速、精准的评估,提升面试效率和评估质量。
本发明的技术方案为:一种用于智能面试的表达能力维度评价方法,采集面试者面试视频,抽取视频帧图像序列和视频的音频数据,使用分布式函数计算服务搭建基于深度神经网络的多阶段特征提取模型,获得多模态、层次式特征表示,用于产生面试者表达能力维度的综合评价;首先将抽取到的视频帧输入基于CNN的手部检测模型进行特征提取,得到底层手部姿态特征,将音频数据输入基于自然语言处理的音频处理模块,获取底层回答文本特征,底层手部姿态特征和底层回答文本特征构成多模态特征;将两种底层特征分别输入两个LSTM编码为时序特征,得到视频时序特征和文本时序特征;再通过一组基于先验知识的规则从多模态特征中抽取抽象的高层语义特征,包括手势表达、流畅性、感染力、条理性、简洁性特征,视频时序特征、文本时序特征及高层语义特征构成层次式特征;最后,将层次式特征标准化后输入全连接神经网络,进行特征融合,得到表达能力等级分类器,用于预测表达能力等级。
本发明还提供一种用于智能面试的表达能力维度评价装置,配置有数据处理模块,数据处理模块的输入为候选者面试视频,输出为表达能力维度评价信息,数据处理模块中配置有表达能力评估模型,使用分布式函数计算服务搭建,表达能力评估模型由上述的方法训练得到,并执行所述评价方法。形成弹性高效的适用于智能面试的表达能力评价系统。
本发明的有益效果是:提出了一种用于智能面试的表达能力维度评价方法及装置,通过自动化流程和深度学习技术,对面试视频提取多模态、层次式特征来产生面试者表达能力的综合评价。第一,现有的智能评价方法大多仅依赖底层感知特征,本发明所提出的层次式特征综合了底层感知特征和高层认知特征,能够为面试者表达能力形成更加完整的表征;第二,现有智能评价方法大多仅依赖与对静态视频帧的分析,本发明利用LSTM网络进一步抽取时序特征,以此捕捉面试者在面试过程中的动态行为信息;第三,现有智能评价方法大多仅利用图像或语音一种模态的信息进行分析,本发明通过对图像、音频双通道特征提取,产生多模态特征表示,使其能够具备理解多源信息的能力;第四,现有智能评价方法大多仅使用单个深度学习模型进行特征提取,本发明使用分布式函数计算服务搭建系统,使本发明能够使用多个深度学习模型进行多种特征提取,使系统具备良好的性能和可扩展性。本发明实现的基于层次式特征表示、多模态特征融合的表达能力评价方法能够捕捉到面试者更全面的信息,有助于产生更客观的评价供面试官进行进一步判断,有效降低面试的时间成本,减少主观因素对面试的影响,同时提升了评估效率和质量,具有良好的实用性。
附图说明
图1为本发明的实施流程图。
图2为本发明的手势时序特征训练的结构图。
图3为本发明的回答文本时序特征训练的结构图。
图4为本发明的最终评分分类神经网络结构图。
具体实施方式
本发明提出了一种用于智能面试的表达能力维度评价方法及装置,如图1所示,采集面试者面试视频,抽取视频帧图像序列和视频的音频数据,通过基于深度神经网络的多阶段特征提取模型获得具备良好可解释性的多模态、层次式特征表示,用于产生面试者表达能力维度的综合评价。首先将抽取到的视频帧输入基于CNN的手部检测模型进行特征提取,得到底层静态手部姿态特征;将音频数据输入基于自然语言处理的音频处理模块,获取底层语音表达特征;再将上述两种底层特征分别输入两个LSTM进一步编码为时序特征,得到包含丰富表达能力信息的视频级底层时序特征;再通过一组基于先验知识的规则从底层手部姿态特征、语音表达特征中抽取抽象的高层语义特征,包括手部表达、表达流畅度、感染力、条理性、简洁度信息;最后,将上述底层时序特征和高层语义特征标准化后输入全连接神经网络,进行多模态融合,预测表达能力等级,系统使用分布式函数计算服务搭建,形成弹性高效的适用于智能面试的表达能力评价系统。
下面结合本发明实施例及附图,对本发明实例中的技术方案进行清楚、完整地描述,所描述的实例仅仅是本发明的一部分实例,而不是全部的实例。基于本发明的实例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实例,都属于本发明的保护范围。本发明的具体实施包括以下步骤。
1.对输入的面试视频进行预处理,每隔k帧采集一帧,进而为一个视频生成一个图像序列;本实施例优选k=10;
2.通过手部检测技术获得面试者手部位置框和手腕位置信息,得到手部姿态特征:对于输入的每一帧图像,输入我们的手部检测模型中,得到双手的位置和手腕的位置,每一只手的输出格式为(x1,y1,x2,y2,xw,yw),其中x1,y1是手部左上角坐标,x2,y2是右下角坐标,xw,yw是手腕的坐标,当无法检测到手部时,输出6个空值;
3.使用ffmpeg从面试视频提取音频,调用Vosk Api对面试音频进行语音识别,用于生成语音转文本、分词起始时间、分词结束时间和分词文本积极性等底层特征。文本积极性用范围在[0,1]的浮点数表示分词的积极度数值,文本积极性属于文本情感分析技术,不再详述。
4.解析Vosk Api返回的文本信息字段,获取回答文本的分词列表,进一步计算得到其他能支持表达能力分析的底层特征,包括:
1)问候语:分析分词列表查看是否出现问候语,对诸如“你好”、“您好”、“老师好”、“你们好”这样的问候词,如果出现则返回结果1,否则返回0;
2)感谢语:分析分词列表查看是否出现感谢语,对诸如“谢谢”、“感谢”这样感谢词,如果出现则返回结果1,否则返回0;
3)思考时间:获取回答文本的第一个字的开始时间作为特征的结果;
4)回答时间:获取每一个句子的开始时间和结束时间并求差作为该语句的时长,统计所有语句的时长作为特征的结果;
5)语速:获得回答文本长度特征,根据文本相对应的开始和结束时间,计算回答总时长。最后求比值作为特征返回结果;
6)回答文本长度:获取每个分词的字数之和作为回答的文本;
7)文本积极性:对每一个分词的积极性取平均数作为整个视频的篇章级文本积极性结果;
8)停顿时长:解析语音转文本结果,根据每一个词汇的开始和结束时间,获取上下词汇之间的停顿时间列表,设定阈值Pause_threshold=0.8秒。对停顿时间超过0.8秒的停顿进行求和,求和结果作为特征的结果;
9)短停次数:对上下词汇之间的停顿时间列表设定两个阈值,短时停顿Short_pause=0.8秒,长时停顿Long_pause=1.5秒,对停顿时间在两个阈值间的停顿判定为短停,对短停次数求和作为短停次数特征;
10)长停次数:在短停次数的数据基础上,将超过1.5秒的停顿判定为长停,对长停的次数求和记为长停次数特征;
11)语气词数:分析分词列表,对诸如“吧”、“罢”、“呗”这样的语气词建立一张表,统计表中所有语气词出现的总次数,作为语气词数特征的结果;
12)关联词数:分析分词列表,对诸如“首先”“其次”“因为”“所以”这样体现逻辑性的关联词建立一张表,统计表中所有关联词出现的总次数,作为关联词数特征的结果;
13)停顿词数:分析分词列表,对诸如“嗯”、“啊”、“呃”、“那个”这样通常用于表示思考或停顿的停顿词建立一张表,统计表中所有停顿词出现的总次数,作为停顿词数特征的结果;
14)词汇数:计算分词列表的词汇的总数量作为特征返回结果。
5.根据先验知识对从图像、音频提取的多模态底层特征值进一步加权计算得到多维的高层特征,具体如下:
1)流畅性:对短停次数F1、长停次数F2、停顿词个数F3、思考时间F4这4个中层特征进行计算,得到一个面试视频的表达流畅度子维度D2,计算公式为:
Figure BDA0002870106480000051
其中atan为Arctangent函数,std为特征的标准差函数,Wi表示设定的权重,优选设置W1=0.3,W2=0.3,W3=0.3,W4=0.1;
2)感染力:对文本积极性F5、语速F6、问候词F7特征进行计算,得到一个面试视频表达感染力子维度D3,计算公式为:
Figure BDA0002870106480000052
优选设置W5=0.3,W6=0.5,W7=0.2;
3)条理性:对短停次数F1、长停次数F2、停顿词个数F3、思考时间F4、关联词数特征F8和感谢词特征F9,得到一个面试视频表达条理性子维度D4,具体计算公式为:
Figure BDA0002870106480000053
优选设置W1=0.3,W2=0.3,W3=0.3,W4=0.1,W8=0.6,W9=0.2;
4)简洁性:对文本长度F10、停顿词F11、词汇数F12这3个特征进行计算,得到一个面试视频表达简洁度子维度D5,计算公式为:
Figure BDA0002870106480000054
5)手势表达:先排除视频帧中手部检测置信度低于设定值的图像,然后根据手腕位置相对于手部区域范围的位置,若手腕在相对手部中心位置的下部则判断为有手势,对手势次数做非线性归一化,得到手势表达特征。
6.将视频特征输入到LSTM时序分析模块,其结构见图2,说明如下:
1)网络输入:输入层为前述帧级原始特征,包括手部的6个坐标位置,共12维相连接而得。所有特征列都要进行标准化,公式为
norm(x)=(x-mean(x))/std(x)
其中x为一类特征的具体实例值,mean(x)表示该类特征在所有训练样本上的均值,std(x)表示该类特征在所有训练样本上的方差。
2)网络设置:LSTM隐藏层设置64个长期状态单元64个输出单元,最长限制为256个时序数据。
3)训练方案:将最后一个时序输出单元的64维向量并入第8步中的神经网络进行端对端的训练。
7.将音频回答文本输入到LSTM时序分析模块,其结构见图3,训练过程为:
1)网络输入:输入层为回答文本进行词嵌入后的张量,使用Bert模型对文本的每个字进行词嵌入,得到Bert模型最后一层的768维张量作为词向量。
2)网络设置:LSTM隐藏层设置256个长期状态单元和64个输出单元,最长限制为512个时序数据。
3)训练方案:将最后一个时序输出单元的64维向量并入第8步中的神经网络进行端对端的训练。
8.对计算得到的多模态特征和高层的抽象子维度数据进行标准化后,使用3层全连接网络进行深度学习,得出精确的评估表达能力等级,其结构见图4,具体训练过程为:
1)标签处理:根据历史数据中各个面试者的表达能力得分高低,将表达能力分为5类等级(下、中下、中、中上、上);
2)网络输入:输入层为前述视频手势时序特征(64维向量)、回答文本时序特征(64维向量)和高层语义特征(5个)相连接而得,所有特征列都要进行标准化,公式同视频时序特征里的标准化方法;
3)网络隐藏层:使用3层全连接神经网络模型进行拟合训练,两层隐藏层各有1024个单元,激活函数为ReLU,输出层有5个输出值,使用softmax激活,分别代表5类表达能力的置信度。
4)全连接神经网络模型训练过程及参数:
[1]训练采用小批量训练法,batchsize=64;
[2]迭代次数epoch=300;
[3]多阶段学习率调整,初始学习率lr=0.001,milestones=[120,180,240],调整率为每次调整为当前学习率的2/10,即乘以gamma=0.2;
[4]采用动量优化法,momentum=0.9;
[5]采用权重衰减缓解过拟合,weight decay=2e-3;
[6]损失函数使用cross entropy loss交叉熵误差;
[7]梯度反向传播方法为:SGD随机梯度下降。
9.在对新面试视频计算表达能力评价时,将计算得到的视频时序特征、文本时序特征及高层语义特征按照训练网络时的标准化方式进行标准化后,连接并输入神经网络,计算得到该面试者的表达能力评级。

Claims (8)

1.一种用于智能面试的表达能力维度评价方法,其特征是采集面试者面试视频,抽取视频帧图像序列和视频的音频数据,使用分布式函数计算服务搭建基于深度神经网络的多阶段特征提取模型,获得多模态、层次式特征表示,用于产生面试者表达能力维度的综合评价;首先将抽取到的视频帧输入基于CNN的手部检测模型进行特征提取,得到底层手部姿态特征,将音频数据输入基于自然语言处理的音频处理模块,获取底层回答文本特征,底层手部姿态特征和底层回答文本特征构成多模态特征;将两种底层特征分别输入两个LSTM编码为时序特征,得到视频时序特征和文本时序特征;再通过一组基于先验知识的规则从多模态特征中抽取抽象的高层语义特征,包括手势表达、流畅性、感染力、条理性、简洁性特征,视频时序特征、文本时序特征及高层语义特征构成层次式特征;最后,将层次式特征标准化后输入全连接神经网络,进行特征融合,得到表达能力等级分类器,用于预测表达能力等级。
2.根据权利要求1所述的一种用于智能面试的表达能力维度评价方法,其特征是对面试视频每10帧抽取一帧得到视频帧图像序列,通过图像识别的手部检测技术获得面试者手部位置框和手腕位置信息,得到手部姿态特征。
3.根据权利要求1或2所述的一种用于智能面试的表达能力维度评价方法,其特征是所述对音频进行识别处理生成语音底层特征具体为:
1)通过Vosk Api对音频进行语音识别,获得面试者的回答信息,包括语音文本及其分词列表、分词开始和结束时间、以及文本积极性,其中文本积极性用范围在[0,1]的浮点数表示分词的积极度数值;
2)解析语音文本的信息字段,计算得到回答文本特征,包括:
a.问候语:分析分词列表中的词汇,查看是否出现问候语;
b.感谢语:分析分词列表中的词汇,查看是否出现感谢语;
c.思考时间:获取第一个字的开始时间作为特征的结果;
d.回答时间:获取每一个分词的开始时间和结束时间,并求差作为该语句的时长,统计所有语句的时长作为特征的结果;
e.语速:获得回答文本长度特征,根据文本相对应的开始和结束时间,计算回答总时长,对长度和时长求比值作为特征;
f.回答文本长度:获取分词列表每个词的字数之和作为回答文本长度;
g.文本积极性:对每一个分词的积极性取平均数作为整个视频的篇章级文本积极性结果;
h.停顿时长:根据每一个词汇的开始和结束时间,获取上下词汇之间的停顿时间列表,设定阈值Pause_threshold=0.8秒,对停顿时间超过0.8秒的停顿时间进行求和,求和结果作为特征的结果;
i.短停次数:对相邻两个词汇之间的停顿时间列表设定两个阈值,短时停顿Short_pause=0.8秒,长时停顿Long_pause=1.5秒,对停顿时间在两个阈值间的停顿判定为短停,对短停次数求和作为短停次数特征;
j.长停次数:在短停次数的数据基础上,将超过1.5秒的停顿判定为长停,对长停的次数求和记为长停次数特征;
k.语气词数:分析分词列表,对语气词建立一张表,统计表中所有语气词出现的总次数,作为语气词数特征的结果;
l.关联词数:分析分词列表,对体现逻辑性的关联词建立一张表,统计表中所有关联词出现的总次数,作为关联词数特征的结果;
m.停顿词数:分析分词列表,对用于表示思考或停顿的停顿词建立一张表,统计表中所有停顿词出现的总次数,作为停顿词数特征的结果;
n.词汇数:分析分词列表,计算词汇的总数量作为特征返回结果。
4.根据权利要求3所述的一种用于智能面试的表达能力维度评价方法,其特征是高层语义特征具体为:
1)流畅性:对短停次数F1、长停次数F2、停顿词个数F3、思考时间F4这4个中层特征进行计算,得到面试视频的表达流畅度子维度D2,计算公式为:
Figure FDA0002870106470000021
其中atan为Arctangent函数,std为特征的标准差函数,Wi表示设定的权重,W1=0.3,W2=0.3,W3=0.3,W4=0.1;
2)感染力:对文本积极性F5、语速F6、问候词F7特征进行计算,得到面试视频表达感染力子维度D3,计算公式为:
Figure FDA0002870106470000022
W5=0.3,W6=0.5,W7=0.2;
3)条理性:对短停次数F1、长停次数F2、停顿词个数F3、思考时间F4、关联词数特征F8和感谢词特征F9,得到面试视频表达条理性子维度D4,具体计算公式为:
Figure FDA0002870106470000031
W1=0.3,W2=0.3,W3=0.3,W4=0.1,W8=0.6,W9=0.2;
4)简洁性:对文本长度F10、停顿词F11、词汇数F12这3个特征进行计算,得到面试视频表达简洁度子维度D5,计算公式为:
Figure FDA0002870106470000032
5)手势表达:先排除视频帧中手部检测置信度低于设定值的图像,然后根据手腕位置相对于手部区域范围的位置,若手腕在相对手部中心位置的下部则判断为有手势,对手势次数做非线性归一化,得到手势表达特征。
5.根据权利要求1所述的一种用于智能面试的表达能力维度评价方法,其特征是视频时序特征计算过程为:将所有视频帧的图像特征以线性连接的方式,将每一帧的所有特征合并为一个张量,以帧为单位顺序输入LSTM时序分析模块,得到视频时序特征张量。
6.根据权利要求1所述的一种用于智能面试的表达能力维度评价方法,其特征是文本时序特征计算过程为:将从音频中提取的回答文本输入LSTM时序分析模块,得到回答文本时序特征张量。
7.根据权利要求1所述的一种用于智能面试的表达能力维度评价方法,其特征是利用多模态时序特征和高层特征信息训练神经网络拟合模型,得到表达能力等级分类器,将表达能力分为5类等级,所述神经网络为全连接神经网络模型,对新的面试者面试视频获取多模态时序特征和高层特征信息信息,输入神经网络拟合模型,自动得到表达能力维度评价。
8.一种用于智能面试的表达能力维度评价装置,其特征是配置有数据处理模块,数据处理模块的输入为候选者面试视频,输出为表达能力维度评价信息,数据处理模块中配置有表达能力评估模型,表达能力评估模型由权利要求1-7任一项所述的方法训练得到,并执行所述评价方法。
CN202011595060.4A 2020-12-29 2020-12-29 一种用于智能面试的表达能力维度评价方法及装置 Pending CN112818742A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011595060.4A CN112818742A (zh) 2020-12-29 2020-12-29 一种用于智能面试的表达能力维度评价方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011595060.4A CN112818742A (zh) 2020-12-29 2020-12-29 一种用于智能面试的表达能力维度评价方法及装置

Publications (1)

Publication Number Publication Date
CN112818742A true CN112818742A (zh) 2021-05-18

Family

ID=75854521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011595060.4A Pending CN112818742A (zh) 2020-12-29 2020-12-29 一种用于智能面试的表达能力维度评价方法及装置

Country Status (1)

Country Link
CN (1) CN112818742A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469542A (zh) * 2021-07-09 2021-10-01 上海以善健康管理有限公司 一种基于语言处理以及图像识别的自迭代表达力测试系统
CN114186983A (zh) * 2022-02-16 2022-03-15 北森云计算有限公司 视频面试多维评分方法、系统、计算机设备及存储介质
CN115495418A (zh) * 2022-10-11 2022-12-20 英仕互联(北京)信息技术有限公司 一种视频面试信息的数据处理方法、装置和电子设备
CN116343824A (zh) * 2023-05-29 2023-06-27 新励成教育科技股份有限公司 口才表达能力的全面评估与解决方法、系统、装置及介质
CN117236911A (zh) * 2023-11-13 2023-12-15 贵州优特云科技有限公司 一种基于人工智能的面试评价方法及系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469542A (zh) * 2021-07-09 2021-10-01 上海以善健康管理有限公司 一种基于语言处理以及图像识别的自迭代表达力测试系统
CN114186983A (zh) * 2022-02-16 2022-03-15 北森云计算有限公司 视频面试多维评分方法、系统、计算机设备及存储介质
CN115495418A (zh) * 2022-10-11 2022-12-20 英仕互联(北京)信息技术有限公司 一种视频面试信息的数据处理方法、装置和电子设备
CN116343824A (zh) * 2023-05-29 2023-06-27 新励成教育科技股份有限公司 口才表达能力的全面评估与解决方法、系统、装置及介质
CN116343824B (zh) * 2023-05-29 2023-08-15 新励成教育科技股份有限公司 口才表达能力的全面评估与解决方法、系统、装置及介质
CN117236911A (zh) * 2023-11-13 2023-12-15 贵州优特云科技有限公司 一种基于人工智能的面试评价方法及系统
CN117236911B (zh) * 2023-11-13 2024-02-02 贵州优特云科技有限公司 一种基于人工智能的面试评价方法及系统

Similar Documents

Publication Publication Date Title
Albanie et al. Emotion recognition in speech using cross-modal transfer in the wild
CN112818742A (zh) 一种用于智能面试的表达能力维度评价方法及装置
CN110751208B (zh) 一种基于自权重差分编码器进行多模态特征融合的服刑人员情感识别方法
Sadjadi et al. The 2019 NIST Audio-Visual Speaker Recognition Evaluation.
CN110717324B (zh) 裁判文书答案信息提取方法、装置、提取器、介质和设备
CN111382565A (zh) 基于多标签的情绪-原因对抽取方法及系统
CN111476023A (zh) 识别实体关系的方法及装置
CN112561718A (zh) 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法
CN112329438A (zh) 基于域对抗训练的自动谎言检测方法及系统
CN111353399A (zh) 篡改视频检测方法
CN112597841A (zh) 一种基于门机制多模态融合的情感分析方法
Shahriar et al. Audio-visual emotion forecasting: Characterizing and predicting future emotion using deep learning
CN110956142A (zh) 一种智能交互培训系统
CN114416969A (zh) 一种基于背景增强的lstm-cnn在线评论情感分类方法及系统
Fedotov et al. Contextual dependencies in time-continuous multidimensional affect recognition
CN117094291B (zh) 基于智能写作的自动新闻生成系统
Akman et al. Lip reading multiclass classification by using dilated CNN with Turkish dataset
Slyman et al. Fine-grained classroom activity detection from audio with neural networks
CN112818740A (zh) 一种用于智能面试的心理素质维度评价方法及装置
CN116883888A (zh) 基于多模态特征融合的银行柜面服务问题溯源系统及方法
CN115147067A (zh) 一种基于深度学习智能招聘人才的方法
Elbarougy et al. Feature selection method for real-time speech emotion recognition
CN112818741A (zh) 一种用于智能面试的行为礼仪维度评价方法及装置
Durrani et al. Transfer learning based speech affect recognition in Urdu
CN115080732A (zh) 投诉工单处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination