CN112232101A - 一种用户沟通状态的评价方法、装置及系统 - Google Patents
一种用户沟通状态的评价方法、装置及系统 Download PDFInfo
- Publication number
- CN112232101A CN112232101A CN201910636158.0A CN201910636158A CN112232101A CN 112232101 A CN112232101 A CN 112232101A CN 201910636158 A CN201910636158 A CN 201910636158A CN 112232101 A CN112232101 A CN 112232101A
- Authority
- CN
- China
- Prior art keywords
- target
- communication
- scene
- user
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006854 communication Effects 0.000 title claims abstract description 309
- 238000004891 communication Methods 0.000 title claims abstract description 306
- 238000011156 evaluation Methods 0.000 title claims abstract description 126
- 238000010801 machine learning Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 37
- 230000000694 effects Effects 0.000 claims description 21
- 230000008921 facial expression Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 19
- 230000009471 action Effects 0.000 claims description 14
- 239000000463 material Substances 0.000 claims description 14
- 230000003993 interaction Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 5
- 230000033001 locomotion Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000007812 deficiency Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000012854 evaluation process Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000004873 anchoring Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001524 infective effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Electrically Operated Instructional Devices (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种用户沟通状态的评价方法、装置及系统,包括:获取目标视频的目标特征,该目标视频为用户在目标沟通场景下的沟通视频;将目标特征输入至目标沟通场景所对应的机器学习模型中,得到目标视频在目标维度的评价结果,不同的目标沟通场景所对应的目标维度之间存在差异;通过终端向用户呈现该目标视频在目标维度的评价结果。可见,根据用户在特定沟通场景下的沟通视频的特征,可以利用相应的机器学习模型得到用户在不同维度的评价结果,从而用户可以根据该评价结果认识到自身在该特定沟通场景下与他人进行沟通时的状态以及沟通能力,进而用户可以根据该评价结果所体现的沟通能力不足之处,针对性的提升自身的沟通能力。
Description
技术领域
本申请涉及机器学习技术领域,特别是涉及一种用户沟通状态的评价方法、装置及系统。
背景技术
在日常工作生活中,沟通,是人们相互之间重要的交流方式。尤其是在一些特定场景中,自身与他人之间的沟通效果好坏,对自身的工作、生活能够产生重要的影响。比如,在面试场景中,面试者在面试过程中与人力资源顾问之间的沟通效果,可能会直接决定着面试者是否能够成功入职。因此,提升个人的沟通能力尤为重要。
但是,实际应用的很多场景中,个体与他人进行交流时可能无法获得自身的沟通状态的反馈,而个体也无法在沟通过程中有效把握住自己的沟通状态,这使得个体很难对自己在不同场景下的沟通状态做出清晰地认知,从而无法有效提升自身的沟通能力。因此,目前亟需一种对个体的沟通状态进行评价的方法,以使得个体能够对自身的沟通能力做出清晰的认知,从而可以针对性的提升自身的沟通能力。
发明内容
本申请实施例提供了一种用户沟通状态的评价方法、装置及系统,以实现对用户在不同沟通场景下的沟通状态进行评价,从而使得用户能够基于对自身沟通状态的评价结果清晰的认知自身的沟通能力,进而可以针对性的提升自身的沟通能力。
第一方面,本申请实施例提供了一种用户沟通状态的评价方法,所述方法包括:
获取目标视频的目标特征,所述目标视频为用户在目标沟通场景下的沟通视频,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;
将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;
其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;
通过终端向所述用户呈现所述评价结果。
在一些可能的实施方式中,所述方法还包括:
根据所述目标视频在目标维度的评价结果,确定所述评价结果对应的反馈信息,所述反馈信息至少包括学习素材清单;
通过所述终端向所述用户呈现所述反馈信息。
在一些可能的实施方式中,所述获取目标视频的目标特征,包括:
接收所述终端发送的目标视频;
对所述目标视频进行特征提取,得到所述目标视频的目标特征。
在一些可能的实施方式中,所述方法还包括:
根据沟通场景与沟通文本之间的对应关系,确定所述目标沟通场景对应的目标沟通文本,所述目标沟通文本用于在所述目标沟通场景下与所述用户进行沟通交互;
通过所述终端向用户呈现所述沟通文本。
在一些可能的实施方式中,所述目标沟通场景为面试场景、社交场景、工作场景、管理场景、销售场景、家庭场景、公众发言场景、授课场景、口语练习场景、咨询场景、博弈场景或客服场景。
第二方面,本申请实施例还提供了一种用户沟通状态的评价装置,所述装置包括:
获取模块,用于获取目标视频的目标特征,所述目标视频为用户在目标沟通场景下的沟通视频,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;
输入模块,用于将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;
其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;
第一呈现模块,用于通过终端向所述用户呈现所述评价结果。
在一些可能的实施方式中,所述装置还包括:
第一确定模块,用于根据所述目标视频在目标维度的评价结果,确定所述评价结果对应的反馈信息,所述反馈信息至少包括学习素材清单;
第二呈现模块,用于通过所述终端向所述用户呈现所述反馈信息。
在一些可能的实施方式中,所述获取模块,包括:
接收单元,用于接收所述终端发送的目标视频;
提取单元,用于对所述目标视频进行特征提取,得到所述目标视频的目标特征。
在一些可能的实施方式中,所述装置还包括:
第二确定模块,用于根据沟通场景与沟通文本之间的对应关系,确定所述目标沟通场景对应的目标沟通文本,所述目标沟通文本用于在所述目标沟通场景下与所述用户进行沟通交互;
第三呈现模块,用于通过所述终端向用户呈现所述沟通文本。
在一些可能的实施方式中,所述目标沟通场景为面试场景、社交场景、工作场景、管理场景、销售场景、家庭场景、公众发言场景、授课场景、口语练习场景、咨询场景、博弈场景或客服场景。
第三方面,本申请实施例还提供了一种用户沟通状态的评价系统,所述系统包括终端和服务器;
所述终端,用于向服务器发送目标视频所述目标视频为用户在目标沟通场景下的沟通视频;
所述服务器,用于接收所述终端发送的目标视频,并获取所述目标视频的目标特征,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;通过终端向所述用户呈现所述评价结果。
在一些可能的实施方式中,所述服务器还用于,
根据所述目标视频在目标维度的评价结果,确定所述评价结果对应的反馈信息,所述反馈信息至少包括学习素材清单;
通过所述终端向所述用户呈现所述反馈信息。
在一些可能的实施方式中,所述服务器具体用于,
接收所述终端发送的目标视频;
对所述目标视频进行特征提取,得到所述目标视频的目标特征。
在一些可能的实施方式中,所述服务器还用于,
根据沟通场景与沟通文本之间的对应关系,确定所述目标沟通场景对应的目标沟通文本,所述目标沟通文本用于在所述目标沟通场景下与所述用户进行沟通交互;
通过所述终端向用户呈现所述沟通文本。
在一些可能的实施方式中,所述目标沟通场景为面试场景、社交场景、工作场景、管理场景、销售场景、家庭场景、公众发言场景、授课场景、口语练习场景、咨询场景、博弈场景或客服场景。
在本申请实施例的上述实现方式中,可以获取目标视频的目标特征,该目标视频为用户在目标沟通场景下的沟通视频,该目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或者多种;然后,可以将所获取的目标视频的目标特征输入至预先训练得到的目标沟通场景所对应的机器学习模型中,得到该目标视频在目标维度的评价结果,其中,该目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种,并且,该目标沟通场景对应的机器学习模型预先已经利用已知的在目标沟通场景下的样本视频的目标特征以及该样本视频在目标维度的评价结果完成了训练,同时,不同的目标沟通场景所对应的目标维度之间存在差异;最后,可以通过终端向用户呈现该目标视频在目标维度的评价结果。可见,根据用户在特定沟通场景下的沟通视频的特征,可以利用相应的机器学习模型得到用户在不同维度的评价结果,从而用户可以根据该评价结果认识到自身在该特定沟通场景下与他人进行沟通时的状态以及沟通能力,进而用户可以根据该评价结果所体现的沟通能力不足之处,针对性的提升自身的沟通能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例中一示例性应用场景示意图;
图2为本申请实施例中一种用户沟通状态的评价方法的流程示意图;
图3为本申请实施例中一种用户沟通状态的评价方法的信令交互示意图;
图4为本申请实施例中一种用户沟通状态的评价装置的结构示意图;
图5为本申请实施例中一种用户沟通状态的评价系统的结构示意图。
具体实施方式
目前,个体在很多场景下,与他人进行交流时很难获知自己在交流时的沟通状态,从而使得个体可能无法意识到自己在沟通时候的不足之处。比如,面试者在进行面试时,可能因为缺乏自信使得面试者在与人力资源顾问进行沟通时语速相较于正常沟通语速更快,从而影响面试者的面试效果,降低面试者入职的成功率;同时,人力资源顾问通常也不会为该面试者对其沟通状态进行评价,从而面试者也很难清楚的认知到自己面试时在沟通上的不足之处。
基于此,本申请实施例提供了一种用户沟通状态的评价方法,根据用户在特定沟通场景的沟通视频,对用户做出相应的沟通状态评价,从而使得用户能够对自身在该特定的沟通场景下的沟通状态做出清晰的认知。具体的,可以获取目标视频的目标特征,该目标视频为用户在目标沟通场景下的沟通视频,该目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或者多种;然后,可以将所获取的目标视频的目标特征输入至预先训练得到的目标沟通场景所对应的机器学习模型中,得到该目标视频在目标维度的评价结果,其中,该目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种,并且,该目标沟通场景对应的机器学习模型预先已经利用已知的在目标沟通场景下的样本视频的目标特征以及该样本视频在目标维度的评价结果完成了训练,同时,不同的目标沟通场景所对应的目标维度之间存在差异;最后,可以通过终端向用户呈现该目标视频在目标维度的评价结果。可见,根据用户在特定沟通场景下的沟通视频的特征,可以利用相应的机器学习模型得到用户在不同维度的评价结果,从而用户可以根据该评价结果认识到自身在该特定沟通场景下与他人进行沟通时的状态以及沟通能力,进而用户可以根据该评价结果所体现的沟通能力不足之处,针对性的提升自身的沟通能力。
作为一种示例,本申请实施例可以应用于如图1所示的示例性应用场景。在该场景中,用户101可以在终端102上执行针对于特定沟通场景的选择操作,以便于用户在该特定沟通场景下进行模拟沟通训练。终端102可以响应于用户101的选择操作,在显示屏上呈现与用户101进行沟通互动的提示信息,并启动对用户101的进行模拟沟通训练时的视频录制,得到目标视频。然后,终端102可以向该目标视频发送服务器103。服务器103对该目标视频进行特征提取,得到该目标视频中用户101的肢体动作特征,并将提取到的用户101在沟通时的肢体动作特征输入至预先训练好的该特定沟通场景下的机器学习模型中,由模型输出该目标视频在自信度以及专业度两个维度的评价结果,再向终端102发送这两个维度的评价结果。终端102可以在显示屏上向用户101显示接收到的评价结果。这样,用户101可以基于终端102所呈现的评价结果认识到自己在该特定沟通场景下与他人进行沟通时的优势以及不足之处,从而可以针对不足之处提升自身的沟通能力。
可以理解的是,上述场景仅是本申请实施例提供的一个场景示例,本申请实施例并不限于此场景。比如,在其它可能的实施方式中,也可以在一些计算能力较强的终端上完成目标视频在自信度以及专业度这两个维度上的评价,而无需由服务器完成评价;又比如,在又一些可能的实施方式中,也可以是由终端102提取目标视频的特征,并将提取到的特征发送给服务器103,从而可以降低服务器103计算负荷。总之,本申请实施例可以应用于任何可适用的应用场景中,而不限于上述场景示例。
为使本申请的上述目的、特征和优点能够更加明显易懂,下面将结合附图对本申请实施例中的各种非限定性实施方式进行示例性说明。显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
参阅图2,图2示出了本申请实施例中一种用户沟通状态的评价方法的流程示意图,该方法具体可以包括:
S201:获取目标视频的目标特征,所述目标视频为用户在目标沟通场景下的沟通视频,该目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种。
本实施例中,用户在目标沟通场景下进行沟通时,可以利用视频录制设备(如配置于终端上的摄像头等)对用户的沟通过程进行录制,得到该目标视频。这样,根据录制得到的目标视频,可以得到用户在沟通时的面部表情、所说的话,以及所做的肢体动作等。实际应用中,目标沟通场景具体可以是面试场景、社交场景、工作场景、管理场景、销售场景、家庭场景、公众发言场景、授课场景、口语练习场景、咨询场景、博弈场景或客服场景等场景中的任意一种。实际应用中,目标沟通场景也可以是部分场景所进一步细化的场景,比如,在针对于管理场景,可以进一下细分为绩效沟通、发展辅导、冲突处理、工作分派、会议场景等场景,从而目标沟通场景可以是处理冲突的场景等;社交场景,可以进一步细分为陌生人沟通、相亲场景等;家庭场景,可以进一步细分为亲子沟通、夫妻沟通、婆媳沟通等场景;公众发言场景,可以进一步细分为演讲场景、主持场景等;授课场景,可以进一步细分为教练场景、知识传授场景等;博弈场景,可以进一步细分为谈判场景(如商务合作谈判)、辩论场景等。当然,上述场景仅作为示例,实际应用中目标沟通场景也可以是其它场景,在此不一一列举。
其中,所录制的目标视频,可以是用户在模拟的目标沟通场景下的沟通视频。作为一种示例,用户可以在终端所呈现的多个沟通场景中选定模拟的目标沟通场景,然后,终端可以根据预先设定的沟通场景与沟通文本之间的对应关系,确定用户所选定的目标沟通场景所对应的目标沟通文本,并且,可以在终端的显示屏上呈现该目标沟通文本,以便于用户基于该目标沟通文本在模拟的沟通场景中进行模拟的沟通交互。例如,终端可以在显示屏上呈现面试场景、社交场景、工作场景以及教育场景四个沟通场景选项以供用户选择;当用户选定的目标沟通场景具体为面试场景时,终端可以确定出面试场景所对应的沟通文本,该沟通文本中包含了用户在模拟的面试场景下所需回答的问题;用户基于终端所显示的问题进行相应的回复,以此来模拟实现用户在面试场景下的沟通过程。进一步的,针对于诸如面试场景等问答式沟通场景下的目标视频,可以根据沟通问题将目标视频进行切片,从而得到多个切片视频,其中,每个切换视频可以包含一个或者多个问题的提问以及用户的答复。
当然,在其它可能的实施方式中,所录制的目标视频也可以是用户在真实的目标沟通场景下的沟通视频。作为一种示例,用户在与他人在特定的沟通场景中进行真实的沟通时,可以利用拍摄装置拍摄得到用户在真实的沟通场景下的沟通视频。
然后,可以从得到的目标视频中提取出目标特征,该目标特征可以作为评价用户沟通状态的评价依据。具体实现时,从目标视频中提取的目标特征,具体可以是用户的语音(比如可以是语调、语速、音色等)、该语音所表达的语义、用户的肢体动作(比如,手、脚、肩膀等部位的动作)以及用户的面部表情等特征中任意一种或者多种。
需要说明的是,当对用户沟通状态的评价过程是由终端完成时,可以是由终端提取所获取的目标视频的目标特征。而当对用户沟通状态的评价过程是由服务器完成时,终端可以将获取的目标视频发送给服务器,由服务器对该目标视频进行目标特征的提取。当然,在进一步的实施方式中,终端和服务器可以合作完成对用户沟通状态的评价,具体可以是终端在获取目标视频后,由终端基于该目标视频完成目标特征的提取,然后,终端将提取得到的目标特征发送给服务器,以使得服务器获得该目标特征并执行后续的评价过程。可以理解,实际应用中,服务器通常为众多终端提供服务,服务器的负载通常较大,因此,由终端提取目标视频中的目标特征后,服务器无需消耗计算资源去提取目标特征,这样可以减少服务器的计算资源的消耗,减轻服务器的处理压力。
其中,从视频中提取出用户的语音、该语音所表达的语义。用户的肢体动作以及面部表情等特征,现有技术中提供了详细的实现过程再次不做过多赘述。
S202:将目标视频的目标特征输入至目标沟通场景对应的机器学习模型中,得到目标视频在目标维度的评价结果,该目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种,该机器学习模型预先利用已知的样本视频的目标特征以及该样本视频在目标维度的评价结果完成了训练,并且,不同的目标沟通场景所对应的目标维度之间存在差异。
本实施例中,可以利用预先训练好的机器学习模型得到对用户沟通状态的评价结果。具体的,在得到目标视频的目标特征后,可以将该目标特征输入至原先训练好的机器学习模型中,由该机器学习模型根据目标特征输出得到目标视频在目标维度的评价结果,也即得到对用户沟通状态在不同维度的评价结果。例如,机器学习模型所输出的结果为用户沟通状态在自信度和专业度两个维度的评价结果等。
其中,预先在训练该目标场景所对应的机器学习模型时,可以利用至少一组已知的在该目标沟通场景下的样本视频以及该样本视频在目标维度的评价结果进行训练。即,可以将目标沟通场景下的样本视频作为机器学习模型的输入,将该样本视频在目标维度的评价结果作为输出,对该机器学习模型进行训练。需要说明的是,实际应用中,该样本视频具体可以是不同沟通能力的人在该目标沟通场景下的沟通视频,而对于该样本视频在目标维度的评价结果,可以由专业的人才测评专家根据预设的规则标准对该样本视频在不同维度进行评分得到(也即为在目标维度进行评分得到)。
实际应用中,上述目标维度具体可以是自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或者多种。其中,同理心,是指设身处地地对他人的情绪和情感的认知性的觉知、把握与理解;凝练度,是指用户沟通时针对于某种意思进行语言表达的凝练程度,或者称之为言简意赅的程度。当然,目标维度也可以是其它方面。
可以理解,由于不同沟通场景下对于用户的沟通能力高低在不同方面的要求不同。比如,在面试场景下,可能更看重于用户在沟通时所体现的专业性、活力度以及自信度,而在教育场景下,可能更看重于用户在沟通时所体现的亲和度、活力度以及真诚度。因此,在对不同沟通场景下的目标视频进行评价时,评价的维度可以不同,即在面试场景下的视频,评价的维度可以为专业度、活力度以及自信度,而在教育场景下的视频,评价的维度可以是亲和度、活力度以及真诚度。同样的,在训练不同场景所对应的机器学习模式时,所选用的样本视频的评价维度也存在差异。
实际应用中,目标视频在目标维度的评价结果,具体可以是目标视频在目标维度的评分和/或在该目标维度上的状态描述(如“自信度欠缺”、“专业性较强”等)。
S203:通过终端向用户呈现目标视频在目标维度的评价结果。
本实施例中,在基于机器学习模型获得所需的评价结果后,可以通过终端向用户进行呈现。具体的,若获得评价结果的过程由该终端完成,则可以由终端直接对机器学习模型所输出的结果进行显示;若获得评价结果的过程由服务器完成,则服务器可以将机器学习模型所输出的结果发送给终端,由终端将接收到的评价结果显示给用户。
进一步的,为了便于用户能够基于当前沟通状态的评价结果针对性提升自身的沟通能力,在一些可能的实施方式中,可以根据该目标视频在目标维度的评价结果,确定该评价结果对应的反馈信息,该反馈信息至少包括学习素材清单,例如,可以是一些用于指导如何提高沟通时自信度或者亲和度等方面的书籍名称清单和/或教学视频清单,然后,可以通过终端向用户呈现该反馈信息。当然,在进一步的实施方式中,该反馈信息还可以包括针对于沟通能力的改善建议、沟通视频回看以及高分/低分表现提示等。
本实施例中,可以获取目标视频的目标特征,该目标视频为用户在目标沟通场景下的沟通视频,该目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或者多种;然后,可以将所获取的目标视频的目标特征输入至预先训练得到的目标沟通场景所对应的机器学习模型中,得到该目标视频在目标维度的评价结果,其中,该目标维度自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种,并且,该目标沟通场景对应的机器学习模型预先已经利用已知的在目标沟通场景下的样本视频的目标特征以及该样本视频在目标维度的评价结果完成了训练,同时,不同的目标沟通场景所对应的目标维度之间存在差异;最后,可以通过终端向用户呈现该目标视频在目标维度的评价结果。可见,根据用户在特定沟通场景下的沟通视频的特征,可以利用相应的机器学习模型得到用户在不同维度的评价结果,从而用户可以根据该评价结果认识到自身在该特定沟通场景下与他人进行沟通时的状态以及沟通能力,进而用户可以根据该评价结果所体现的沟通能力不足之处,针对性的提升自身的沟通能力。
为了便于理解本申请实施例的技术方案,下面将结合一具体场景实施例对本申请实施例的技术方案进行详细描述。本申请实施例可以应用于如图1所示的示例性应用场景,即用户在终端进行沟通场景的选定,并在该沟通场景下进行模拟沟通训练,由服务器执行相应的视频处理以及对用户沟通状态的评价。具体的,参阅图3,图3示出了本申请实施例中一种用户沟通状态的评价方法的信令交互示意图,该方法可以包括:
S301:用户在终端上进行账号登录,并完成身份验证。
S302:在用户身份验证通过后,终端可以呈现多个沟通场景的图标以供用户选择沟通场景。
本实施例中,用户可以预先在终端上完成身份注册,并且,当用户需要在终端上进行沟通场景的模拟训练时,用户可以在终端基于已注册的账号进行登录,完成登录以及身份验证。然后,终端可以在显示屏上呈现诸如面试场景、社交场景、工作场景、管理场景、销售场景、教育场景或者客服场景等多个场景的图标。这样,用户可以基于自己的需求,点击相应的图标以完成沟通场景的选择。
实际应用中,终端在用户完成登录后,可以检测音频以及视频的采集设备是否正常,并检测是否可以正常识别人脸或检测到视频中的用户,以使得采集设备能够正常采集到用户沟通时的视频。
S303:用户选择面试场景所对应的图标。
S304:终端基于用户对面试场景的选择后,确定面试场景所对应的面试问题清单,并将面试问题清单中的面试问题依次显示给用户。
可以理解,用户在终端上进行模拟沟通训练时,可以对终端所呈现的问题进行答复,并且,在用户完成对当前问题的答复后,终端可以继续显示下一问题,从而以此可以实现面试场景下的模拟沟通。
基于此,终端可以在用户选定面试场景后,确定该面试场景所对应的沟通文本,即面试问题清单,例如,该面试问题清单中第一个问题可以是“请简单的做个自我介绍”、第二个问题可以是“你为什么想入职我们公司”以及第三个问题可以是“你觉得你竞争这个职位的优势在哪”等。
S305:用户对终端显示的面试问题依次进行答复。
S306:终端利用摄像头和麦克风采集得到用户答复面试问题的视频,并将该视频上传到云端服务器。
S307:服务器从接收到的视频中提取出用户的语音、语义、肢体动作以及面部表情特征。
实际应用中,所提取出的用户的语音特征具体可以是用户的语调、语速、音色特征中的任意一种或多种,所提取出的语义可以是将用户的语音进行文本转换后得到,所提取出的肢体动作可以是用户肢体位点的位移,所提取出面部表情可以是用户面部各个关键点的位移等。
S308:服务器将所提取出的用户的语音、语义、肢体动作以及面部表情特征输入至面试场景对应的机器学习模型中,得到机器学习模型所述输出的在专业度、自信度以及活力度三个维度的评价结果。
本实施例中,服务器在从接收到的视频中提取出用户的语音、语义、肢体动作以及面部表情特征后,可以将其输入至预先完成训练的、面试场景所对应的机器学习模型中,然后,由该机器学习模型根据其输入,输出服务器用户在进行模拟沟通时在专业度、自信度以及活力度三个维度的评价结果。
值得注意的是,本实施例中是以专业度、自信度以及活力度三个维度进行举例说明,并不用于限定本申请实施例的技术方案在具体实施时仅能在该三个维度进行评价,其可以包括真诚度、亲和度、专业度、自信度以及活力度等维度中的任意一个或者多个,也可以包括其它维度。并且,不同沟通场景下所对应的评价维度,相互之间可以存在差异,比如,在教育场景下,服务器可以对用户沟通时的亲和度、自信度以及真诚度这三个维度进行评价。
实际应用中,在专业度、自信度以及活力度这三个维度的评价结果,具体可以是这三个维度的评分分数或者等级。例如,该评价结果具体为:“专业度:90分,自信度:75分,活力度:50分”;或者,该评价结果也可以是:“专业度:优,自信度:良,活力度:中等”等。
需要说明的是,面试场景所对应的机器学习模型,预先已经利用一组样本视频的具有不同沟通水平的试验者语音、语义、肢体动作以及面部表情作为机器学习模型的输入,样本视频在专业度、自信度以及活力度这三个维度的评价结果作为机器学习模型的输出,完成了对该机器学习模型的训练。其中,在得到样本视频在专业度、自信度以及活力度这三个维度的评价结果的过程中,可以是基于专业的人才测评专家根据预先设定的标准进行评价得到,比如,可以是由人才测评专家根据《沟通状态行为锚定量表》所规范的标准进行评价等;而关于样本视频,可以是预先选择具有不同沟通水平的试验者来对面试问题清单进行答复,从而录制该过程得到样本视频。
S309:服务器根据专业度、自信度以及活力度三个维度的评价结果,确定该评价结果对应的学习素材清单。
本实施例中,为便于用户能够针对性的提升自身的沟通能力,服务器可以根据机器学习模型输出的评价结果,确定相应的学习素材清单,以便用户能够基于该学习素材清单能够查找到相应的学习素材,针对性的提升自身的沟通能力。
比如,若评价结果具体为:“专业度:90分,自信度:85分,活力度:50分”,或者为“专业度:优,自信度:优,活力度:中等”时,可以针对用户在活力度的不足,确定相应的用于指导用户提升沟通时的活力度的书籍清单和/或指导视频清单等。
进一步的,服务器也可以根据该评价结果所体现的用户在沟通时的不足之处,确定相应的改善建议,以便于对用户沟通能力的提升做出相应的指导。
S310:服务器将评价结果以及学习素材清单反馈给终端。
S311:终端将接收到的评价结果以及学习素材清单呈现给用户。
本实施例中,服务器根据对用户在面试场景下的沟通视频的特征,可以利用相应的机器学习模型得到用户在不同维度的评价结果,这样,用户可以根据该评价结果认识到自身在该特定沟通场景下与他人进行沟通时的状态以及沟通能力,从而使得用户可以根据该评价结果所体现的沟通能力不足之处,针对性的提升自身的沟通能力。
此外,本申请实施例还提供了一种用户沟通状态的评价装置。参阅图4,图4示出了本申请实施例中一种用户沟通状态的评价装置的结构示意图,该装置400包括:
获取模块401,用于获取目标视频的目标特征,所述目标视频为用户在目标沟通场景下的沟通视频,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;
输入模块402,用于将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;
其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;
第一呈现模块403,用于通过终端向所述用户呈现所述评价结果。
在一些可能的实施方式中,所述装置400还包括:
第一确定模块,用于根据所述目标视频在目标维度的评价结果,确定所述评价结果对应的反馈信息,所述反馈信息至少包括学习素材清单;
第二呈现模块,用于通过所述终端向所述用户呈现所述反馈信息。
在一些可能的实施方式中,所述获取模块401,包括:
接收单元,用于接收所述终端发送的目标视频;
提取单元,用于对所述目标视频进行特征提取,得到所述目标视频的目标特征。
在一些可能的实施方式中,所述装置400还包括:
第二确定模块,用于根据沟通场景与沟通文本之间的对应关系,确定所述目标沟通场景对应的目标沟通文本,所述目标沟通文本用于在所述目标沟通场景下与所述用户进行沟通交互;
第三呈现模块,用于通过所述终端向用户呈现所述沟通文本。
在一些可能的实施方式中,所述目标沟通场景为面试场景、社交场景、工作场景、管理场景、销售场景、家庭场景、公众发言场景、授课场景、口语练习场景、咨询场景、博弈场景或客服场景。
需要说明的是,本实施例是对应于上述方法实施例的装置实施例,因此,本实施例中各种实施方式的具体实施过程可参阅上述方法实施例中相关之处描述,在此不做过多赘述。
本实施例中,根据用户在特定沟通场景下的沟通视频的特征,可以利用相应的机器学习模型得到用户在不同维度的评价结果,从而用户可以根据该评价结果认识到自身在该特定沟通场景下与他人进行沟通时的状态以及沟通能力,进而用户可以根据该评价结果所体现的沟通能力不足之处,针对性的提升自身的沟通能力。
此外,本申请实施例还提供了一种用户沟通状态的评价系统。参阅图5,图5示出了本申请实施例中一种用户沟通状态的评价系统的结构示意图,该系统500包括终端501和服务器502;
所述终端501,用于向服务器发送目标视频所述目标视频为用户在目标沟通场景下的沟通视频;
所述服务器502,用于接收所述终端发送的目标视频,并获取所述目标视频的目标特征,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;通过终端向所述用户呈现所述评价结果。
在一些可能的实施方式中,所述服务器502还用于,
根据所述目标视频在目标维度的评价结果,确定所述评价结果对应的反馈信息,所述反馈信息至少包括学习素材清单;
通过所述终端向所述用户呈现所述反馈信息。
在一些可能的实施方式中,所述服务器502具体用于,
接收所述终端发送的目标视频;
对所述目标视频进行特征提取,得到所述目标视频的目标特征。
在一些可能的实施方式中,所述服务器502还用于,
根据沟通场景与沟通文本之间的对应关系,确定所述目标沟通场景对应的目标沟通文本,所述目标沟通文本用于在所述目标沟通场景下与所述用户进行沟通交互;
通过所述终端向用户呈现所述沟通文本。
在一些可能的实施方式中,所述目标沟通场景为面试场景、社交场景、工作场景、管理场景、销售场景、家庭场景、公众发言场景、授课场景、口语练习场景、咨询场景、博弈场景或客服场景。
需要说明的是,本实施例是对应于上述方法实施例的系统实施例,因此,本实施例中各种实施方式的具体实施过程可参阅上述方法实施例中相关之处描述,在此不做过多赘述。
本实施例中,根据用户在特定沟通场景下的沟通视频的特征,可以利用相应的机器学习模型得到用户在不同维度的评价结果,从而用户可以根据该评价结果认识到自身在该特定沟通场景下与他人进行沟通时的状态以及沟通能力,进而用户可以根据该评价结果所体现的沟通能力不足之处,针对性的提升自身的沟通能力。
本申请实施例中提到的“第一呈现模块”、“第一确定模块”等名称中的“第一”只是用来做名字标识,并不代表顺序上的第一。该规则同样适用于“第二”、“第三”等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如只读存储器(英文:read-only memory,ROM)/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如路由器等网络通信设备)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例以及系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本申请示例性的实施方式,并非用于限定本申请的保护范围。
Claims (10)
1.一种用户沟通状态的评价方法,其特征在于,所述方法包括:
获取目标视频的目标特征,所述目标视频为用户在目标沟通场景下的沟通视频,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;
将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;
其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;
通过终端向所述用户呈现所述评价结果。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述目标视频在目标维度的评价结果,确定所述评价结果对应的反馈信息,所述反馈信息至少包括学习素材清单;
通过所述终端向所述用户呈现所述反馈信息。
3.根据权利要求1所述的方法,其特征在于,所述获取目标视频的目标特征,包括:
接收所述终端发送的目标视频;
对所述目标视频进行特征提取,得到所述目标视频的目标特征。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据沟通场景与沟通文本之间的对应关系,确定所述目标沟通场景对应的目标沟通文本,所述目标沟通文本用于在所述目标沟通场景下与所述用户进行沟通交互;
通过所述终端向用户呈现所述沟通文本。
5.根据权利要求1至4所述的方法,其特征在于,所述目标沟通场景为面试场景、社交场景、工作场景、管理场景、销售场景、家庭场景、公众发言场景、授课场景、口语练习场景、咨询场景、博弈场景或客服场景。
6.一种用户沟通状态的评价装置,其特征在于,所述装置包括:
获取模块,用于获取目标视频的目标特征,所述目标视频为用户在目标沟通场景下的沟通视频,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;
输入模块,用于将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;
其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;
第一呈现模块,用于通过终端向所述用户呈现所述评价结果。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第一确定模块,用于根据所述目标视频在目标维度的评价结果,确定所述评价结果对应的反馈信息,所述反馈信息至少包括学习素材清单;
第二呈现模块,用于通过所述终端向所述用户呈现所述反馈信息。
8.根据权利要求6所述的装置,其特征在于,所述获取模块,包括:
接收单元,用于接收所述终端发送的目标视频;
提取单元,用于对所述目标视频进行特征提取,得到所述目标视频的目标特征。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二确定模块,用于根据沟通场景与沟通文本之间的对应关系,确定所述目标沟通场景对应的目标沟通文本,所述目标沟通文本用于在所述目标沟通场景下与所述用户进行沟通交互;
第三呈现模块,用于通过所述终端向用户呈现所述沟通文本。
10.一种用户沟通状态的评价系统,其特征在于,所述系统包括终端和服务器;
所述终端,用于向服务器发送目标视频,所述目标视频为用户在目标沟通场景下的沟通视频;
所述服务器,用于接收所述终端发送的目标视频,并获取所述目标视频的目标特征,所述目标特征包括用户的语音、语义、肢体动作以及面部表情中的任意一种或多种;将所述目标视频的目标特征输入至所述目标沟通场景对应的机器学习模型中,得到所述目标视频在目标维度的评价结果,所述目标维度至少包括自信度、亲和度、活力度、专业度、真诚度、好感度、感染力、说服力、幽默感、影响力、倾听、同理心,洞察力,逻辑性,表现力、灵活性、流畅度、威慑力、耐心以及凝练度中的任意一种或多种;其中,所述机器学习模型预先利用已知的在所述目标沟通场景下的样本视频的目标特征以及所述样本视频在所述目标维度的评价结果完成了训练,不同目标沟通场景所对应的目标维度之间存在差异;通过终端向所述用户呈现所述评价结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910636158.0A CN112232101A (zh) | 2019-07-15 | 2019-07-15 | 一种用户沟通状态的评价方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910636158.0A CN112232101A (zh) | 2019-07-15 | 2019-07-15 | 一种用户沟通状态的评价方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112232101A true CN112232101A (zh) | 2021-01-15 |
Family
ID=74111526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910636158.0A Pending CN112232101A (zh) | 2019-07-15 | 2019-07-15 | 一种用户沟通状态的评价方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232101A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080055108A (ko) * | 2006-12-14 | 2008-06-19 | 주식회사 우리은행 | 신입사원 채용을 위한 면접 평가 방법 |
CN103903074A (zh) * | 2012-12-24 | 2014-07-02 | 华为技术有限公司 | 一种视频交流的信息处理方法及装置 |
JP6042015B1 (ja) * | 2016-06-07 | 2016-12-14 | 株式会社採用と育成研究社 | オンライン面接評価装置、方法およびプログラム |
CN106847263A (zh) * | 2017-01-13 | 2017-06-13 | 科大讯飞股份有限公司 | 演讲水平评价方法和装置及系统 |
CN107818798A (zh) * | 2017-10-20 | 2018-03-20 | 百度在线网络技术(北京)有限公司 | 客服服务质量评价方法、装置、设备及存储介质 |
CN108363706A (zh) * | 2017-01-25 | 2018-08-03 | 北京搜狗科技发展有限公司 | 人机对话交互的方法和装置、用于人机对话交互的装置 |
CN108665122A (zh) * | 2017-03-28 | 2018-10-16 | 华为技术有限公司 | 一种服务质量评价方法及终端设备 |
CN108962281A (zh) * | 2018-08-15 | 2018-12-07 | 三星电子(中国)研发中心 | 一种语言表达的评价和辅助方法及装置 |
CN109754648A (zh) * | 2019-03-06 | 2019-05-14 | 北京大学第一医院 | 一种分析临床访谈质量的教学方法及装置 |
CN109801096A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 一种多模态客户满意度综合评价系统、方法 |
CN109800663A (zh) * | 2018-12-28 | 2019-05-24 | 华中科技大学鄂州工业技术研究院 | 基于语音和视频特征的教师教学评估方法及设备 |
CN109858410A (zh) * | 2019-01-18 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 基于表情分析的服务评价方法、装置、设备及存储介质 |
-
2019
- 2019-07-15 CN CN201910636158.0A patent/CN112232101A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080055108A (ko) * | 2006-12-14 | 2008-06-19 | 주식회사 우리은행 | 신입사원 채용을 위한 면접 평가 방법 |
CN103903074A (zh) * | 2012-12-24 | 2014-07-02 | 华为技术有限公司 | 一种视频交流的信息处理方法及装置 |
JP6042015B1 (ja) * | 2016-06-07 | 2016-12-14 | 株式会社採用と育成研究社 | オンライン面接評価装置、方法およびプログラム |
CN106847263A (zh) * | 2017-01-13 | 2017-06-13 | 科大讯飞股份有限公司 | 演讲水平评价方法和装置及系统 |
CN108363706A (zh) * | 2017-01-25 | 2018-08-03 | 北京搜狗科技发展有限公司 | 人机对话交互的方法和装置、用于人机对话交互的装置 |
CN108665122A (zh) * | 2017-03-28 | 2018-10-16 | 华为技术有限公司 | 一种服务质量评价方法及终端设备 |
CN107818798A (zh) * | 2017-10-20 | 2018-03-20 | 百度在线网络技术(北京)有限公司 | 客服服务质量评价方法、装置、设备及存储介质 |
CN108962281A (zh) * | 2018-08-15 | 2018-12-07 | 三星电子(中国)研发中心 | 一种语言表达的评价和辅助方法及装置 |
CN109801096A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 一种多模态客户满意度综合评价系统、方法 |
CN109800663A (zh) * | 2018-12-28 | 2019-05-24 | 华中科技大学鄂州工业技术研究院 | 基于语音和视频特征的教师教学评估方法及设备 |
CN109858410A (zh) * | 2019-01-18 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 基于表情分析的服务评价方法、装置、设备及存储介质 |
CN109754648A (zh) * | 2019-03-06 | 2019-05-14 | 北京大学第一医院 | 一种分析临床访谈质量的教学方法及装置 |
Non-Patent Citations (1)
Title |
---|
雷容丹;廖桂红;韦成全;李艳霞;李真真;: "护理专科学生临床沟通能力的培养", 中国护理管理, no. 09, 15 September 2007 (2007-09-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11848003B2 (en) | System for communication skills training using juxtaposition of recorded takes | |
JP6042015B1 (ja) | オンライン面接評価装置、方法およびプログラム | |
US20200082928A1 (en) | Assisting psychological cure in automated chatting | |
US11501656B2 (en) | Interactive and automated training system using real interactions | |
CN106777257B (zh) | 基于话术的智能对话模型的构建系统及方法 | |
CN108833941A (zh) | 人机交互处理方法、装置、用户终端、处理服务器及系统 | |
CN112836691A (zh) | 智能面试方法及装置 | |
WO2018227782A1 (zh) | 一种基于网络的在线互动语言学习系统 | |
CN113377200B (zh) | 基于vr技术的交互式培训方法及装置、存储介质 | |
Hao et al. | Collaborative Problem Solving Skills versus Collaboration Outcomes: Findings from Statistical Analysis and Data Mining. | |
CN112749869A (zh) | 适性化职缺媒合系统及方法 | |
CN115982400A (zh) | 基于多模态的情绪图像的生成方法和服务器 | |
US11132913B1 (en) | Computer-implemented systems and methods for acquiring and assessing physical-world data indicative of avatar interactions | |
CN114067391A (zh) | 识别课堂教学视频中行为的方法及装置 | |
US9547995B1 (en) | Dynamic instructional course | |
CN116030788B (zh) | 一种智能语音交互方法及装置 | |
US20230290505A1 (en) | Context Aware Assessment | |
CN112232101A (zh) | 一种用户沟通状态的评价方法、装置及系统 | |
CN112712738A (zh) | 学生显示处理方法和装置、电子装置 | |
CN112309183A (zh) | 适用于外语教学的交互式听说练习系统 | |
KR101944628B1 (ko) | 화상 학습 기반의 일대일 외국어 학습 시스템 | |
CN111209817A (zh) | 基于人工智能的考核方法、装置、设备及可读存储介质 | |
KR102577643B1 (ko) | 온라인 일대일 한국어 강의 플랫폼 시스템 및 이에 포함된 운영 서버 | |
CN114445906A (zh) | 视频分析方法、装置及系统 | |
CN117648408B (zh) | 基于大模型的智能问答方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |