CN114220055B - 辅助用户面谈的方法、装置、计算机设备及存储介质 - Google Patents
辅助用户面谈的方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN114220055B CN114220055B CN202111537381.3A CN202111537381A CN114220055B CN 114220055 B CN114220055 B CN 114220055B CN 202111537381 A CN202111537381 A CN 202111537381A CN 114220055 B CN114220055 B CN 114220055B
- Authority
- CN
- China
- Prior art keywords
- interview
- data
- target
- index data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000008451 emotion Effects 0.000 claims abstract description 41
- 238000013145 classification model Methods 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims description 11
- 239000013604 expression vector Substances 0.000 claims description 8
- 238000005520 cutting process Methods 0.000 claims description 5
- 230000008909 emotion recognition Effects 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000002996 emotional effect Effects 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000010977 unit operation Methods 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例属于人工智能技术领域,应用于智慧政务领域中,涉及一种辅助用户面谈的方法、装置、计算机设备及存储介质,包括根据第一频率获取第一面谈指标数据;将第一面谈指标数据输入面谈分类模型,获得指标数据等级,基于指标数据等级获取起始面谈语料,并推送至用户端;在接收到面谈启动通知时,根据第二频率获取第二面谈指标数据,并推送至用户端;接收视频数据和音频数据,从视频数据截取面谈视频帧,将音频数据转换为面谈文字数据;从面谈视频帧中提取目标微表情,从面谈文字数据中提取目标关键词;基于目标微表情和目标关键词确定面谈人员的情感倾向,并传输至用户端。面谈分类模型可存储于区块链中。本申请有效辅助用户进行面谈。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及辅助用户面谈的方法、装置、计算机设备及存储介质。
背景技术
随着计算机技术的不断革新和发展,计算机已经广泛的应用于各行各业中,极大的提高了数据的处理效率和流程的执行速度。目前,计算机技术也应用于辅助面谈中。
目前,在计算机辅助督导人员与员工进行面谈的场景下,大多采用计算机通过识别员工的肢体动作来判断员工的情感倾向,从而提醒督导人员改变面谈策略。但是,这种仅通过肢体动作判断员工的情感倾向的变化的方式,存在判断不够准确的情况,难以有效辅助督导人员进行面谈。
发明内容
本申请实施例的目的在于提出一种辅助用户面谈的方法、装置、计算机设备及存储介质,有效辅助用户进行面谈。
为了解决上述技术问题,本申请实施例提供一种辅助用户面谈的方法,采用了如下所述的技术方案:
一种辅助用户面谈的方法,包括下述步骤:
根据预设第一频率从关联数据库中获取面谈指标数据,获得第一面谈指标数据;
将所述第一面谈指标数据输入至预训练的面谈分类模型中,获得输出的指标数据等级,基于所述指标数据等级获取对应的起始面谈语料,并将所述起始面谈语料推送至用户端;
在接收到用户端发送的面谈启动通知时,根据预设第二频率从所述关联数据库中获取面谈指标数据,获得第二面谈指标数据,并将所述第二面谈指标数据推送至用户端,其中,所述第二频率小于所述第一频率;
实时接收面谈人员的视频数据和音频数据,从所述视频数据中截取多个视频帧,作为面谈视频帧,并将所述音频数据转换为面谈文字数据;
从所述面谈视频帧中提取目标微表情,从所述面谈文字数据中提取目标关键词;
基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向,并将所述情感倾向传输至用户端。
进一步的,所述从所述面谈视频帧中提取目标微表情的步骤包括:
将所述面谈视频帧输入至预训练的主动形状模型中,获得有序特征位置;
基于所述有序特征位置生成人脸区域,并根据所述人脸区域对所述面谈视频帧的进行裁剪操作,获得初始面部图像,对所述初始面部图像进行灰度归一化操作,获得目标面部图像;
将所述目标面部图像输入至预训练的卷积神经网络中,获得所述目标微表情。
进一步的,所述基于所述有序特征位置生成人脸区域的步骤包括:
获取所有所述有序特征位置的坐标,基于所述坐标计算所述有序特征位置之间的横坐标差值和纵坐标差值;
在所述横坐标差值最大的两个有序特征位置处分别生成垂直于纵坐标轴的直线,并在所述纵坐标差值最大的两个有序特征位置处分别生成垂直于横坐标轴的直线,所有所述直线围成所述人脸区域。
进一步的,在所述从所述面谈文字数据中提取目标关键词的步骤之前,还包括:
接收语料样本,并对所述语料样本进行聚类操作,获得多个语料集合;
分别赋予每个语料集合对应的集合名称,基于所述集合名称对所述语料样本进行标注,获得标注语料,并对所述标注语料进行关键词标注操作,获得训练语料;
获取初始关键词提取模型,基于所述训练语料训练所述初始关键词提取模型,获得目标关键词提取模型;
所述从所述面谈文字数据中提取目标关键词的步骤包括:
将所述面谈文字数据输入至目标关键词提取模型中,所述目标关键词对所述面谈文字数据进行分类操作,确定所述面谈文字数据的集合名称,并根据所述面谈文字数据的集合名称确定所述面谈文字数据的关键词,获得所述目标关键词。
进一步的,所述基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向的步骤包括:
将所述目标微表情和所述目标关键词分别转化为表情向量和关键词向量;
融合所述表情向量和所述关键词向量,获得目标融合向量;
基于时间顺序将所述目标融合向量依次输入至预训练的情感识别模型中,获得输出的所述情感倾向。
进一步的,所述从所述视频数据中截取多个视频帧,作为面谈视频帧的步骤包括:
根据预设时间周期对所述视频数据进行截取操作,获得多个视频片段;
对所述视频片段基于预设时间间隔进行抽帧操作,获得所述面谈视频帧。
进一步的,所述将所述第一面谈指标数据输入至预训练的面谈分类模型中,获得输出的指标数据等级的步骤包括:
将所述第一面谈指标数据输入至预设面谈分类模型,面谈分类模型对所述第一面谈指标数据的每个指标数据进行判断,确定不达标的指标数据的数量,作为不达标数量;
确定不达标数量所属的预设数量范围,作为目标范围;
将所述目标范围关联的等级作为所述指标数据等级。
为了解决上述技术问题,本申请实施例还提供一种辅助用户面谈的装置,采用了如下所述的技术方案:
一种辅助用户面谈的装置,包括:
获取模块,用于根据预设第一频率从关联数据库中获取面谈指标数据,获得第一面谈指标数据;
输入模块,用于接收预训练的面谈分类模型,将所述第一面谈指标数据输入至所述面谈分类模型中,获得输出的指标数据等级,基于所述指标数据等级获取对应的起始面谈语料,并将所述起始面谈语料推送至用户端;
推送模块,用于在接收到用户端发送的面谈启动通知时,根据预设第二频率从所述关联数据库中获取面谈指标数据,获得第二面谈指标数据,并将所述第二面谈指标数据推送至用户端,其中,所述第二频率小于所述第一频率;
截取模块,用于实时接收面谈人员的视频数据和音频数据,从所述视频数据中截取多个视频帧,作为面谈视频帧,并将所述音频数据转换为面谈文字数据;
提取模块,用于从所述面谈视频帧中提取目标微表情,从所述面谈文字数据中提取目标关键词;
确定模块,用于基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向,并将所述情感倾向传输至用户端。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现上述的辅助用户面谈的方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述的辅助用户面谈的方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
关联数据库中的数据存在不断更新的情况,本申请通过不同的频率,即第一频率和第二频率从关联数据库中获取面谈指标数据,实现面谈数据的及时更新获取,避免信息滞后。并在接收到用户端发送的面谈启动通知前,能够不断根据指标数据等级获取起始面谈语料,以提高计算机辅助用户进行面谈的效率。通过分析面谈人员的视频数据和音频数据,从而推断出面谈人员的情感倾向,进一步在面谈过程中,辅助用户进行面谈,并实现及时向用户提醒面谈人员的情感变化,以辅助用户及时调整面谈策略。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的辅助用户面谈的方法的一个实施例的流程图;
图3是根据本申请的辅助用户面谈的装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
附图标记:200、计算机设备;201、存储器;202、处理器;203、网络接口;300、辅助用户面谈的装置;301、获取模块;302、输入模块;303、推送模块;304、截取模块;305、提取模块;306、确定模块。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的辅助用户面谈的方法一般由服务器/终端设备执行,相应地,辅助用户面谈的装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的辅助用户面谈的方法的一个实施例的流程图。所述的辅助用户面谈的方法,包括以下步骤:
S1:根据预设第一频率从关联数据库中获取面谈指标数据,获得第一面谈指标数据。
在本实施例中,根据预设第一频率从关联数据库中获取符合预设第一范围的面谈指标数据,获得第一面谈指标数据,关联数据库为大数据平台的数据库。根据预设第一频率重复从关联数据库中进行数据获取,实现对数据的刷新。获得代理人面谈指标数据,面谈指标数据包括:13月继续率达成86%等,其中,13月继续率指从对应的保单的承保日往后30天+12个月,在次年的保单续交月30天内续交保费的,成为13月继续率。同时将第一面谈指标数据推送给用户(即督导)。基于第一面谈指标数据生成面谈表,面谈表中增加营业单位经营分析、架构及考核缺口及与继续率相关薪资数据。其中,营业单位经营分析包括营业单位继续率达成情况:80%。架构包括当前代理人所在的营业单位。13个月继续率,13个月退保率。关联数据库中存在许多类型的数据,预设目标范围包括面谈人员ID和指定时间段。本申请只需要根据面谈人员ID以及指定时间段,根据第一频率循环刷新关联数据库,并获取对应该面谈人员的面谈指标数据,作为第一面谈指标数据。其中,指定时间段例如:获取该面谈人员在最近一个月内的数据。
S2:将所述第一面谈指标数据输入至预训练的面谈分类模型中,获得输出的指标数据等级,基于所述指标数据等级获取对应的起始面谈语料,并将所述起始面谈语料推送至用户端。
在本实施例中,增加新人关爱面谈模型,即面谈分类模型,属于指标模型。通过对第一面谈指标数据的等级分类,向用户端(即督导人员)推送起始面谈语料,即面谈话术材料,其中,启示面谈语料是从话术库中获取。通过指标数据等级确定相关联的起始面谈语料,进而提示督导人员的起始语言。例如,通过对第一面谈指标数据分析,获得的指标数据等级为三级,则相关联的起始面谈语料为:“上个季度绩效不佳,许多指标都未达成,最近是否有其他事情。”
具体的,在步骤S2中,即所述将所述第一面谈指标数据输入至预训练的面谈分类模型中,获得输出的指标数据等级的步骤包括:
将所述第一面谈指标数据输入至预设面谈分类模型,面谈分类模型对所述第一面谈指标数据的每个指标数据进行判断,确定不达标的指标数据的数量,作为不达标数量;
确定不达标数量所属的预设数量范围,作为目标范围;
将所述目标范围关联的等级作为所述指标数据等级。
在本实施例中,面谈分类模型对每个指标数据进行判断,将指标数据与对应的指标阈值进行对比,确定该指标数据是否超过阈值,若未超过,则确定该指标数据不达标。通过确定不达标的指标数据的数量,作为不达标数量,从而根据不达标数据确定出指标数据等级,从而能够根据指标数据等级选择合适的起始面谈语料。
S3:在接收到用户端发送的面谈启动通知时,根据预设第二频率从所述关联数据库中获取面谈指标数据,获得第二面谈指标数据,并将所述第二面谈指标数据推送至用户端,其中,所述第二频率小于所述第一频率。
在本实施例中,在接收到用户端发送的面谈启动通知时,根据预设第二频率从所述关联数据库中获取预设第二范围内的面谈指标数据,获得第二面谈指标数据。本申请在接收到用户端发送的面谈进行通知后,加强代理人面谈指标数据的刷新频次。实现获得的第二面谈指标数据是关联数据库中最新的数据,避免数据滞后。
需要说明的是,第二范围与第一范围可以相同也可以不同,甚至第二范围与第一范围可以部分重叠,例如,在人员ID和部分时间段上的重叠。
在本实施例中,辅助用户面谈的方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收用户端发送的面谈启动通知。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
S4:实时接收面谈人员的视频数据和音频数据,从所述视频数据中截取多个视频帧,作为面谈视频帧,并将所述音频数据转换为面谈文字数据。
在本实施例中,面谈人员的视频数据和音频数据由传感器实时采集并传输给本申请的服务器。通过对视频数据和音频数据的处理,用于提取出面谈人员的关键性特征,用于后续的对面谈人员的情感倾向的判断。
具体的,在步骤S4中,即所述从所述视频数据中截取多个视频帧,作为面谈视频帧的步骤包括:
根据预设时间周期对所述视频数据进行截取操作,获得多个视频片段;
对所述视频片段基于预设时间间隔进行抽帧操作,获得所述面谈视频帧。
在本实施例中,本申请通过时间周期将视频数据截取为多个视频片段,进而对视频片段进行抽帧,获得面谈视频帧,便于后续的面谈人员的面部微表情的识别。
S5:从所述面谈视频帧中提取目标微表情,从所述面谈文字数据中提取目标关键词。
在本实施例中,通过对面谈人员的微表情和目标关键词的提取,实现在后续过程中进一步的确定面谈人员的情感倾向。
具体的,在步骤S5中,即所述从所述面谈视频帧中提取目标微表情的步骤包括:
将所述面谈视频帧输入至预训练的主动形状模型中,获得有序特征位置;
基于所述有序特征位置生成人脸区域,并根据所述人脸区域对所述面谈视频帧的进行裁剪操作,获得初始面部图像,对所述初始面部图像进行灰度归一化操作,获得目标面部图像;
将所述目标面部图像输入至预训练的卷积神经网络中,获得所述目标微表情。
在本实施例中,ASM(主动形状模型)是建立在PDM(点分布模型)的基础上,通过训练图像样本获取训练图像样本的特征点分布的统计信息,并且获取特征点允许存在的变化方向,实现在目标图像上寻找对应的特征点的位置。训练样本需要手动的标记所有的特征点的位置,记录特征点的坐标,并且计算每一个特征点对应的局部灰度模型作为局部特征点调整用的特征向量。灰度归一化是增加图像的亮度,使图像的细节更加清楚,以减弱光线和光照强度的影响。本申请使用image=255*imadjust(C/255,[0.3;1],[0;1])函数进行光照补偿。
其中,所述基于所述有序特征位置生成人脸区域的步骤包括:
获取所有所述有序特征位置的坐标,基于所述坐标计算所述有序特征位置之间的横坐标差值和纵坐标差值;
在所述横坐标差值最大的两个有序特征位置处分别生成垂直于纵坐标轴的直线,并在所述纵坐标差值最大的两个有序特征位置处分别生成垂直于横坐标轴的直线,所有所述直线围成所述人脸区域。
在本实施例中,主动形状模型输出的有序特征位置,即存在坐标。通过获取所有的坐标并计算有序特征位置之间的横/纵坐标的差值,从而实现确定人脸的大致位置,进而生成人脸区域,以便于对面谈视频帧进行裁剪。
此外,在所述从所述面谈文字数据中提取目标关键词的步骤之前,还包括:
接收语料样本,并对所述语料样本进行聚类操作,获得多个语料集合;
分别赋予每个语料集合对应的集合名称,基于所述集合名称对所述语料样本进行标注,获得标注语料,并对所述标注语料进行关键词标注操作,获得训练语料;
获取初始关键词提取模型,基于所述训练语料训练所述初始关键词提取模型,获得目标关键词提取模型;
在步骤S5中,即所述从所述面谈文字数据中提取目标关键词的步骤包括:
将所述面谈文字数据输入至目标关键词提取模型中,所述目标关键词对所述面谈文字数据进行分类操作,确定所述面谈文字数据的集合名称,并根据所述面谈文字数据的集合名称确定所述面谈文字数据的关键词,获得所述目标关键词。
在本实施例中,本申请的关键词提取模型采用NLP(自然语言处理)模型。通过对语料样本聚类并标注,提高训练样本的质量,进而提高关键词提取模型的准确性。
S6:基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向,并将所述情感倾向传输至用户端。
在本实施例中,基于目标微表情和目标关键词确定面谈人员的情感倾向,通过多维度的特征确定出的情感倾向更加准确。将确定出的情感倾向传输至用户端即督导,实现辅助用户,即督导对面谈人员的面谈,提高面谈效率,并且实现及时向督导提醒面谈人员的情感变化情况。
具体的,在步骤S6中,即所述基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向的步骤包括:
将所述目标微表情和所述目标关键词分别转化为表情向量和关键词向量;
融合所述表情向量和所述关键词向量,获得目标融合向量;
基于时间顺序将所述目标融合向量依次输入至预训练的情感识别模型中,获得输出的所述情感倾向。
在本实施例中,情感识别模型包括双向长短期记忆模型和全连接层,基于时间顺序将所述目标融合向量输入至所述双向长短期记忆模型中,所述双向长短期记忆模型包括输入门、遗忘门以及输出门,用于对历史时间的特征进行记忆,并与当前时间的特征进行融合。通过将目标融合向量输入至所述双向长短期记忆模型中,获得输出的目标情感特征,将所述目标情感特征输入至全连接层中,通过全连接层进行分类,获得输出的情感倾向。其中,情感倾向例如,惊讶、高兴、厌恶、恐惧、悲伤以及愤怒等。
此外,在接收到用户端发送的面谈结束信号时,或检测到房间内的人员离开时间超过预设的时长时,即确定面谈结束。经过预设的时长后,推送调查问卷至面谈人员客户端(即面谈人员),实现闭环管理。
在本实施例的一些可选的实现方式中,在步骤S1,即根据预设第一频率从关联数据库中获取面谈指标数据,获得第一面谈指标数据的步骤之后,上述电子设备还可以执行以下步骤:
依次确定所述第一面谈指标数据中的每个指标数据是否达到对应的数据阈值,若否,则确定对应的指标数据为不达标数据;
基于预先接收的所述面谈人员名称确定与所述面谈人员相关联的协议数据单;
根据所述不达标数据对所述协议数据单进行筛选,获得目标协议数据单,并将所述目标协议数据单传输至用户端。
在本实施例中,结合每项指标对接保单(即协议数据单)清单,精准定位重点保单。例如,在保险场景下,不达标数据为13月继续率为60%,13月继续率指从这张保单承保日往后30天+12个月,在次年的保单续交月30天内续交保费的,成为13月继续率。如果超过这个日期,没有收上来,13个月继续率指标就随之下降。查找到与该面谈人员ID相关联的所有协议数据单,并将其中在次年的保单续交月30天内未续交保费的协议数据单作为不达标数据对应的目标协议数据单,实现精准定位重点保单。并将筛选的目标协议数据单传输至用户端,实现提供该督导,用户与面谈人员(即代理人)面谈,方便后续追踪。
关联数据库中的数据存在不断更新的情况,本申请通过不同的频率,即第一频率和第二频率从关联数据库中获取面谈指标数据,实现面谈数据的及时更新获取,避免信息滞后。并在接收到用户端发送的面谈启动通知前,能够不断根据指标数据等级获取起始面谈语料,以提高计算机辅助用户进行面谈的效率。通过分析面谈人员的视频数据和音频数据,从而推断出面谈人员的情感倾向,进一步在面谈过程中,辅助用户进行面谈,并实现及时向用户提醒面谈人员的情感变化,以辅助用户及时调整面谈策略。
需要强调的是,为进一步保证上述面谈分类模型的私密和安全性,上述面谈分类模型还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请可应用于智慧政务领域中,从而推动智慧城市的建设。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种辅助用户面谈的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的辅助用户面谈的装置300包括:获取模块301、输入模块302、推送模块303、截取模块304、提取模块305以及确定模块306。其中:所述获取模块301,用于根据预设第一频率从关联数据库中获取面谈指标数据,获得第一面谈指标数据;所述输入模块302,用于接收预训练的面谈分类模型,将所述第一面谈指标数据输入至所述面谈分类模型中,获得输出的指标数据等级,基于所述指标数据等级获取对应的起始面谈语料,并将所述起始面谈语料推送至用户端;所述推送模块303,用于在接收到用户端发送的面谈启动通知时,根据预设第二频率从所述关联数据库中获取面谈指标数据,获得第二面谈指标数据,并将所述第二面谈指标数据推送至用户端,其中,所述第二频率小于所述第一频率;所述截取模块304,用于实时接收面谈人员的视频数据和音频数据,从所述视频数据中截取多个视频帧,作为面谈视频帧,并将所述音频数据转换为面谈文字数据;所述提取模块305,用于从所述面谈视频帧中提取目标微表情,从所述面谈文字数据中提取目标关键词;所述确定模块306,用于基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向,并将所述情感倾向传输至用户端。
在本实施例中,关联数据库中的数据存在不断更新的情况,本申请通过不同的频率,即第一频率和第二频率从关联数据库中获取面谈指标数据,实现面谈数据的及时更新获取,避免信息滞后。并在接收到用户端发送的面谈启动通知前,能够不断根据指标数据等级获取起始面谈语料,以提高计算机辅助用户进行面谈的效率。通过分析面谈人员的视频数据和音频数据,从而推断出面谈人员的情感倾向,进一步在面谈过程中,辅助用户进行面谈,并实现及时向用户提醒面谈人员的情感变化,以辅助用户及时调整面谈策略。
输入模块302包括输入子模块、第一确定子模块和第二确定子模块,其中,输入子模块用于将所述第一面谈指标数据输入至预设面谈分类模型,面谈分类模型对所述第一面谈指标数据的每个指标数据进行判断,确定不达标的指标数据的数量,作为不达标数量;第一确定子模块用于确定不达标数量所属的预设数量范围,作为目标范围;第二确定子模块用于将所述目标范围关联的等级作为所述指标数据等级。
截取模块304包括截取子模块和抽帧子模块,其中,所述截取子模块用于根据预设时间周期对所述视频数据进行截取操作,获得多个视频片段;所述抽帧子模块用于对所述视频片段基于预设时间间隔进行抽帧操作,获得所述面谈视频帧。
提取模块305包括有序特征获得子模块、裁剪子模块和卷积子模块,其中,所述有序特征获得子模块用于将所述面谈视频帧输入至预训练的主动形状模型中,获得有序特征位置;裁剪子模块用于基于所述有序特征位置生成人脸区域,并根据所述人脸区域对所述面谈视频帧的进行裁剪操作,获得初始面部图像,对所述初始面部图像进行灰度归一化操作,获得目标面部图像;卷积子模块用于将所述目标面部图像输入至预训练的卷积神经网络中,获得所述目标微表情。
有序特征获得子模块包括获取单元和生成单元,其中,所述获取单元用于获取所有所述有序特征位置的坐标,基于所述坐标计算所述有序特征位置之间的横坐标差值和纵坐标差值;所述生成单元用于在所述横坐标差值最大的两个有序特征位置处分别生成垂直于纵坐标轴的直线,并在所述纵坐标差值最大的两个有序特征位置处分别生成垂直于横坐标轴的直线,所有所述直线围成所述人脸区域。
在本实施例的一些可选的实现方式中,上述装置300还包括:聚类模块、标注模块和训练模块,其中,所述聚类模块用于接收语料样本,并对所述语料样本进行聚类操作,获得多个语料集合;所述标注模块用于分别赋予每个语料集合对应的集合名称,基于所述集合名称对所述语料样本进行标注,获得标注语料,并对所述标注语料进行关键词标注操作,获得训练语料;所述训练模块用于获取初始关键词提取模型,基于所述训练语料训练所述初始关键词提取模型,获得目标关键词提取模型;上述提取模块305进一步用于:将所述面谈文字数据输入至目标关键词提取模型中,所述目标关键词对所述面谈文字数据进行分类操作,确定所述面谈文字数据的集合名称,并根据所述面谈文字数据的集合名称确定所述面谈文字数据的关键词,获得所述目标关键词。
确定模块306包括转化子模块、融合子模块和识别子模块,其中,所述转化子模块用于将所述目标微表情和所述目标关键词分别转化为表情向量和关键词向量;融合子模块用于融合所述表情向量和所述关键词向量,获得目标融合向量;识别子模块用于基于时间顺序将所述目标融合向量依次输入至预训练的情感识别模型中,获得输出的所述情感倾向。
在本实施例的一些可选的实现方式中,上述装置300还包括:判断子模块、协议数据单确定子模块和筛选子模块,其中,所述判断子模块用于依次确定所述第一面谈指标数据中的每个指标数据是否达到对应的数据阈值,若否,则确定对应的指标数据为不达标数据;所述协议数据单确定子模块用于基于预先接收的所述面谈人员名称确定与所述面谈人员相关联的协议数据单;筛选子模块用于根据所述不达标数据对所述协议数据单进行筛选,获得目标协议数据单,并将所述目标协议数据单传输至用户端。
关联数据库中的数据存在不断更新的情况,本申请通过不同的频率,即第一频率和第二频率从关联数据库中获取面谈指标数据,实现面谈数据的及时更新获取,避免信息滞后。并在接收到用户端发送的面谈启动通知前,能够不断根据指标数据等级获取起始面谈语料,以提高计算机辅助用户进行面谈的效率。通过分析面谈人员的视频数据和音频数据,从而推断出面谈人员的情感倾向,进一步在面谈过程中,辅助用户进行面谈,并实现及时向用户提醒面谈人员的情感变化,以辅助用户及时调整面谈策略。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备200包括通过系统总线相互通信连接存储器201、处理器202、网络接口203。需要指出的是,图中仅示出了具有组件201-203的计算机设备200,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器201至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器201可以是所述计算机设备200的内部存储单元,例如该计算机设备200的硬盘或内存。在另一些实施例中,所述存储器201也可以是所述计算机设备200的外部存储设备,例如该计算机设备200上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器201还可以既包括所述计算机设备200的内部存储单元也包括其外部存储设备。本实施例中,所述存储器201通常用于存储安装于所述计算机设备200的操作系统和各类应用软件,例如辅助用户面谈的方法的计算机可读指令等。此外,所述存储器201还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器202在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器202通常用于控制所述计算机设备200的总体操作。本实施例中,所述处理器202用于运行所述存储器201中存储的计算机可读指令或者处理数据,例如运行所述辅助用户面谈的方法的计算机可读指令。
所述网络接口203可包括无线网络接口或有线网络接口,该网络接口203通常用于在所述计算机设备200与其他电子设备之间建立通信连接。
在本实施例中,在面谈过程中,辅助用户进行面谈,并实现及时向用户提醒面谈人员的情感变化,以辅助用户及时调整面谈策略。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的辅助用户面谈的方法的步骤。
在本实施例中,在面谈过程中,辅助用户进行面谈,并实现及时向用户提醒面谈人员的情感变化,以辅助用户及时调整面谈策略。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种辅助用户面谈的方法,其特征在于,包括下述步骤:
根据预设第一频率从关联数据库中获取面谈指标数据,获得第一面谈指标数据;
将所述第一面谈指标数据输入至预训练的面谈分类模型中,获得输出的指标数据等级,基于所述指标数据等级获取对应的起始面谈语料,并将所述起始面谈语料推送至用户端;
在接收到用户端发送的面谈启动通知时,根据预设第二频率从所述关联数据库中获取面谈指标数据,获得第二面谈指标数据,并将所述第二面谈指标数据推送至用户端,其中,所述第二频率小于所述第一频率;
实时接收面谈人员的视频数据和音频数据,从所述视频数据中截取多个视频帧,作为面谈视频帧,并将所述音频数据转换为面谈文字数据;
从所述面谈视频帧中提取目标微表情,从所述面谈文字数据中提取目标关键词;
基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向,并将所述情感倾向传输至用户端。
2.根据权利要求1所述的辅助用户面谈的方法,其特征在于,所述从所述面谈视频帧中提取目标微表情的步骤包括:
将所述面谈视频帧输入至预训练的主动形状模型中,获得有序特征位置;
基于所述有序特征位置生成人脸区域,并根据所述人脸区域对所述面谈视频帧的进行裁剪操作,获得初始面部图像,对所述初始面部图像进行灰度归一化操作,获得目标面部图像;
将所述目标面部图像输入至预训练的卷积神经网络中,获得所述目标微表情。
3.根据权利要求2所述的辅助用户面谈的方法,其特征在于,所述基于所述有序特征位置生成人脸区域的步骤包括:
获取所有所述有序特征位置的坐标,基于所述坐标计算所述有序特征位置之间的横坐标差值和纵坐标差值;
在所述横坐标差值最大的两个有序特征位置处分别生成垂直于纵坐标轴的直线,并在所述纵坐标差值最大的两个有序特征位置处分别生成垂直于横坐标轴的直线,所有所述直线围成所述人脸区域。
4.根据权利要求1所述的辅助用户面谈的方法,其特征在于,在所述从所述面谈文字数据中提取目标关键词的步骤之前,还包括:
接收语料样本,并对所述语料样本进行聚类操作,获得多个语料集合;
分别赋予每个语料集合对应的集合名称,基于所述集合名称对所述语料样本进行标注,获得标注语料,并对所述标注语料进行关键词标注操作,获得训练语料;
获取初始关键词提取模型,基于所述训练语料训练所述初始关键词提取模型,获得目标关键词提取模型;
所述从所述面谈文字数据中提取目标关键词的步骤包括:
将所述面谈文字数据输入至目标关键词提取模型中,所述目标关键词对所述面谈文字数据进行分类操作,确定所述面谈文字数据的集合名称,并根据所述面谈文字数据的集合名称确定所述面谈文字数据的关键词,获得所述目标关键词。
5.根据权利要求1所述的辅助用户面谈的方法,其特征在于,所述基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向的步骤包括:
将所述目标微表情和所述目标关键词分别转化为表情向量和关键词向量;
融合所述表情向量和所述关键词向量,获得目标融合向量;
基于时间顺序将所述目标融合向量依次输入至预训练的情感识别模型中,获得输出的所述情感倾向。
6.根据权利要求1所述的辅助用户面谈的方法,其特征在于,所述从所述视频数据中截取多个视频帧,作为面谈视频帧的步骤包括:
根据预设时间周期对所述视频数据进行截取操作,获得多个视频片段;
对所述视频片段基于预设时间间隔进行抽帧操作,获得所述面谈视频帧。
7.根据权利要求1所述的辅助用户面谈的方法,其特征在于,所述将所述第一面谈指标数据输入至预训练的面谈分类模型中,获得输出的指标数据等级的步骤包括:
将所述第一面谈指标数据输入至预设面谈分类模型,面谈分类模型对所述第一面谈指标数据的每个指标数据进行判断,确定不达标的指标数据的数量,作为不达标数量;
确定不达标数量所属的预设数量范围,作为目标范围;
将所述目标范围关联的等级作为所述指标数据等级。
8.一种辅助用户面谈的装置,其特征在于,包括:
获取模块,用于根据预设第一频率从关联数据库中获取面谈指标数据,获得第一面谈指标数据;
输入模块,用于接收预训练的面谈分类模型,将所述第一面谈指标数据输入至所述面谈分类模型中,获得输出的指标数据等级,基于所述指标数据等级获取对应的起始面谈语料,并将所述起始面谈语料推送至用户端;
推送模块,用于在接收到用户端发送的面谈启动通知时,根据预设第二频率从所述关联数据库中获取面谈指标数据,获得第二面谈指标数据,并将所述第二面谈指标数据推送至用户端,其中,所述第二频率小于所述第一频率;
截取模块,用于实时接收面谈人员的视频数据和音频数据,从所述视频数据中截取多个视频帧,作为面谈视频帧,并将所述音频数据转换为面谈文字数据;
提取模块,用于从所述面谈视频帧中提取目标微表情,从所述面谈文字数据中提取目标关键词;
确定模块,用于基于所述目标微表情和所述目标关键词确定所述面谈人员的情感倾向,并将所述情感倾向传输至用户端。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的辅助用户面谈的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的辅助用户面谈的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111537381.3A CN114220055B (zh) | 2021-12-15 | 2021-12-15 | 辅助用户面谈的方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111537381.3A CN114220055B (zh) | 2021-12-15 | 2021-12-15 | 辅助用户面谈的方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114220055A CN114220055A (zh) | 2022-03-22 |
CN114220055B true CN114220055B (zh) | 2024-04-05 |
Family
ID=80702526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111537381.3A Active CN114220055B (zh) | 2021-12-15 | 2021-12-15 | 辅助用户面谈的方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114220055B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170108554A (ko) * | 2016-03-18 | 2017-09-27 | 주식회사 이노스피치 | 온라인 면접 시스템 및 그 방법 |
CN107919137A (zh) * | 2017-10-25 | 2018-04-17 | 平安普惠企业管理有限公司 | 远程审批方法、装置、设备及可读存储介质 |
CN109146430A (zh) * | 2018-09-05 | 2019-01-04 | 福建省伯乐仁资智能科技有限公司 | 一种在线视频面试方法及系统 |
CN109241864A (zh) * | 2018-08-14 | 2019-01-18 | 中国平安人寿保险股份有限公司 | 情感预测方法、装置、计算机设备和存储介质 |
CN110135800A (zh) * | 2019-04-23 | 2019-08-16 | 南京葡萄诚信息科技有限公司 | 一种人工智能视频面试方法及系统 |
CN110443487A (zh) * | 2019-07-31 | 2019-11-12 | 浙江工商职业技术学院 | 一种教学评价方法及设备 |
CN111666829A (zh) * | 2020-05-18 | 2020-09-15 | 首都经济贸易大学 | 多场景多主体身份行为情绪识别分析方法及智能监管系统 |
CN111899038A (zh) * | 2020-08-11 | 2020-11-06 | 中国工商银行股份有限公司 | 基于5g网络的非接触式贷款辅助审核方法和装置 |
KR20210012503A (ko) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110276507A1 (en) * | 2010-05-05 | 2011-11-10 | O'malley Matthew Carl | System and method for recruiting, tracking, measuring, and improving applicants, candidates, and any resources qualifications, expertise, and feedback |
US9710790B2 (en) * | 2014-01-16 | 2017-07-18 | Hirevue, Inc. | Model-assisted evaluation and intelligent interview feedback |
US9378486B2 (en) * | 2014-03-17 | 2016-06-28 | Hirevue, Inc. | Automatic interview question recommendation and analysis |
-
2021
- 2021-12-15 CN CN202111537381.3A patent/CN114220055B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170108554A (ko) * | 2016-03-18 | 2017-09-27 | 주식회사 이노스피치 | 온라인 면접 시스템 및 그 방법 |
CN107919137A (zh) * | 2017-10-25 | 2018-04-17 | 平安普惠企业管理有限公司 | 远程审批方法、装置、设备及可读存储介质 |
CN109241864A (zh) * | 2018-08-14 | 2019-01-18 | 中国平安人寿保险股份有限公司 | 情感预测方法、装置、计算机设备和存储介质 |
CN109146430A (zh) * | 2018-09-05 | 2019-01-04 | 福建省伯乐仁资智能科技有限公司 | 一种在线视频面试方法及系统 |
CN110135800A (zh) * | 2019-04-23 | 2019-08-16 | 南京葡萄诚信息科技有限公司 | 一种人工智能视频面试方法及系统 |
KR20210012503A (ko) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체 |
CN110443487A (zh) * | 2019-07-31 | 2019-11-12 | 浙江工商职业技术学院 | 一种教学评价方法及设备 |
CN111666829A (zh) * | 2020-05-18 | 2020-09-15 | 首都经济贸易大学 | 多场景多主体身份行为情绪识别分析方法及智能监管系统 |
CN111899038A (zh) * | 2020-08-11 | 2020-11-06 | 中国工商银行股份有限公司 | 基于5g网络的非接触式贷款辅助审核方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114220055A (zh) | 2022-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670023A (zh) | 人机自动面试方法、装置、设备和存储介质 | |
CN110866110A (zh) | 基于人工智能的会议纪要生成方法、装置、设备及介质 | |
CN111898550B (zh) | 建立表情识别模型方法、装置、计算机设备及存储介质 | |
CN113627797B (zh) | 入职员工画像生成方法、装置、计算机设备及存储介质 | |
CN112395391B (zh) | 概念图谱构建方法、装置、计算机设备及存储介质 | |
CN112925911A (zh) | 基于多模态数据的投诉分类方法及其相关设备 | |
CN113705534A (zh) | 基于深度视觉的行为预测方法、装置、设备及存储介质 | |
CN115481969A (zh) | 简历筛选方法、装置、电子设备及可读存储介质 | |
CN113506023A (zh) | 工作行为数据分析方法、装置、设备及存储介质 | |
CN116681045A (zh) | 报表生成方法、装置、计算机设备及存储介质 | |
CN114220055B (zh) | 辅助用户面谈的方法、装置、计算机设备及存储介质 | |
CN116563034A (zh) | 基于人工智能的购买预测方法、装置、设备及存储介质 | |
CN116453125A (zh) | 基于人工智能的数据录入方法、装置、设备及存储介质 | |
CN114637831A (zh) | 基于语义分析的数据查询方法及其相关设备 | |
CN115525192A (zh) | 面向用户的报价计费方法、装置、计算机设备及存储介质 | |
Liu | Application of facial expression recognition based on domain-adapted convolutional neural network in English smart teaching system | |
CN116364223B (zh) | 特征处理方法、装置、计算机设备及存储介质 | |
CN117076775A (zh) | 资讯数据的处理方法、装置、计算机设备及存储介质 | |
CN114202741A (zh) | 用户学习的监控方法、装置、计算机设备及存储介质 | |
CN116934506A (zh) | 一种用户行为预测方法、装置、计算机设备及存储介质 | |
CN115049511A (zh) | 基于人工智能的标签生成方法、装置、设备及存储介质 | |
CN116259096A (zh) | 皮肤图像生成方法和装置 | |
CN116684529A (zh) | 外呼处理方法、装置、计算机设备及存储介质 | |
CN116757771A (zh) | 基于人工智能的方案推荐方法、装置、设备及存储介质 | |
CN116795632A (zh) | 任务处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |