CN111241980A - 情绪识别能力测评方法、装置、电子设备及存储介质 - Google Patents

情绪识别能力测评方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111241980A
CN111241980A CN202010014063.8A CN202010014063A CN111241980A CN 111241980 A CN111241980 A CN 111241980A CN 202010014063 A CN202010014063 A CN 202010014063A CN 111241980 A CN111241980 A CN 111241980A
Authority
CN
China
Prior art keywords
emotion
choice
question
questions
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010014063.8A
Other languages
English (en)
Other versions
CN111241980B (zh
Inventor
程乐华
曾韵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Sun Yat Sen University
Original Assignee
National Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Sun Yat Sen University filed Critical National Sun Yat Sen University
Priority to CN202010014063.8A priority Critical patent/CN111241980B/zh
Publication of CN111241980A publication Critical patent/CN111241980A/zh
Application granted granted Critical
Publication of CN111241980B publication Critical patent/CN111241980B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires

Landscapes

  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了一种情绪识别能力测评方法、装置、电子设备及存储介质。其中的方法包括:收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,确定当前展示的选择题的答题信息,并将当前展示的选择题更新为单选题集中的另一选择题;其中,更新后的选择题与更新前已展示的任一选择题不同;当已展示的选择题总数达到第一预设数量时,根据答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。

Description

情绪识别能力测评方法、装置、电子设备及存储介质
技术领域
本发明涉及计算机科学技术领域,尤其涉及情绪识别能力测评方法、装置、电子设备及存储介质。
背景技术
情绪识别是指个体对于他人情绪的识别,包括面部表情、语音、心率、行为和生理信号等方面。其中的面部表情是决定后续社会行为的一个特别突出的社会线索:提供关于互动对象情绪和意图的信息、在互动中唤起情绪信息接收者的回应、以及引导期望的社会行为。因此,基于面部表情的情绪识别的能力对个体动机、认知和行动的形成具有重要的意义,并在人格基能的组织中扮演核心角色。
在相关技术中,为实现对测试者的情绪识别能力的测定,通常采用静态面部情绪图片作为测试素材,以使测试者基于测试素材中面部情绪图片输入自己判断所得的情绪答案;随后根据正确答案对测试者完成的情绪答案进行评分,以获得测试者答题的正确率或错误率;接着以正确率或错误率来评定测试者的情绪识别能力。
发明人在实施上述相关技术的过程中发现:在一方面,社交互动中,个体的面部表情会随着时间发生变化,可以理解为:个体对一个情绪的表达所产生的面部表情是连贯的变化过程,因此相关技术中通过仅采用一张静态面部情绪图片作为表达个体的一个情绪的方式,是不利于对测试者的情绪识别能力进行正确评定的;在另一方面,相关技术对测试者的情绪识别能力的分析仅停留在测试者答题的正确率或错误率,评定情绪识别能力的依据过于单一,导致评定结果较为片面,不够准确。
因此,如何提高情绪识别能力的测评结果的准确性和全面性是一个亟需解决的技术问题。
发明内容
基于此,为至少解决相关技术中通过仅采用一张静态面部情绪图片作为表达个体的一个情绪测试依据所引起的测评结果准确性较低的问题,本发明提供一种情绪识别能力测评方法、装置、电子设备及存储介质;
根据本发明实施例的第一方面,本发明提供了一种情绪识别能力测评方法,应用于情绪识别能力的测评系统,所述测评系统配置有测评题集,所述测评题集包括单选题集,单选题集中的每一选择题均包括用于表征图中人物从平静到指定情绪的变化过程的面部表情动图、和用于供被测者择一选择的若干选项;所述指定情绪为以下之一:恐惧、愤怒、厌恶、快乐、悲伤和惊讶;所述若干选项中,不同选项对面部表情动图所表达的情绪的描述不同;
所述方法包括:
收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;
收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,确定当前展示的选择题的答题信息,并将当前展示的选择题更新为单选题集中的另一选择题;其中,更新后的选择题与更新前已展示的任一选择题不同;
当已展示的选择题总数达到第一预设数量时,根据答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。
根据本发明实施例的第二方面,本发明提供了一种情绪识别能力测评装置,应用于情绪识别能力的测评系统,所述测评系统配置有测评题集,所述测评题集包括单选题集,单选题集中的每一选择题均包括用于表征图中人物从平静到指定情绪的变化过程的面部表情动图、和用于供被测者择一选择的若干选项;所述指定情绪为以下之一:恐惧、愤怒、厌恶、快乐、悲伤和惊讶;所述若干选项中,不同选项对面部表情动图所表达的情绪的描述不同;
所述装置包括:
展示模块,用于在收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;
控制模块,用于在收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,确定当前展示的选择题的答题信息,并控制所述展示模块将当前展示的选择题更新为单选题集中的另一选择题;其中,更新后的选择题与更新前已展示的任一选择题不同;
确定模块,用于在已展示的选择题总数达到第一预设数量时,根据答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。
根据本发明实施例的第三方面,本发明提供了一种电子设备,所述电子设备包括:
处理器;
存储器,用于存储可执行的计算机程序;
其中,所述处理器执行所述计算机程序时实现所述情绪识别能力测评方法的步骤。
根据本发明实施例的第四方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述情绪识别能力测评方法的步骤。
相比于现有技术,本发明至少产生了以下有益技术效果:
本发明通过在对被测者进行情绪识别能力的测评过程中,将需要被测者进行情绪判断时所依据的情绪图片以动态图片的形式进行显示,以完整地呈现出图中人物从平静状态变换到指定情绪(如恐惧,或愤怒、或厌恶、或快乐、或悲伤、或惊讶)的一个自然且连贯的表情演变过程,从而使得情绪识别能力的测评依据更加贴近社会互动中的生态性,可以理解为:测评中所依据的面部表情动图更加符合人类的实际社交互动中,个体对一个情绪进行表达的过程。由此解决相关技术中通过仅采用一张静态面部情绪图片作为表达个体的一个情绪测试依据所引起的测评结果准确性较低的问题,可以提高测评结果的准确性。
另外,通过在测评过程中,每个试题单独展示,有利于避免一次展示多个试题对被测者造成的干扰,从而可以更好地提高测评结果的准确性。并且,通过在已展示的选择题总数达到第一预设数量时,才根据答题信息和预存的正确答案确定测评结果,有利于避免因对被测者进行测试的试题过少而影响测评结果的准确性、以及因对被测者进行测试的试题过多而影响测评效率和造成不必要的时间损耗;其中仅基于答题信息和预存的正确答案即可确定测评结果,有利于简化测评结果的分析过程和提高测评效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
图1a是本发明根据一示例性实施例示出的某人在平静时的面部表情静态图片;
图1b是本发明根据一示例性实施例示出的图1a中的人物在达到100%强度的愤怒时的面部表情静态图片;
图1c是本发明根据一示例性实施例示出的另一人在平静时的面部表情静态图片;
图1d是本发明根据一示例性实施例示出的图1c中的人物在达到100%强度的快乐时的面部表情静态图片;
图2a是本发明根据一示例性实施例示出的图1a中的人物从图1a所示的表情变化到图1b所示的表情的面部表情动图所包含的图像帧;
图2b是本发明根据一示例性实施例示出的图1c中的人物从图1c所示的表情变化到图1d所示的表情的面部表情动图所包含的图像帧;
图3是本发明根据一示例性实施例示出的一种情绪识别能力测评方法的流程图;
图4是本发明根据一示例性实施例示出的展示有用于测评情绪识别能力的选择题的应用界面示意图;
图5是本发明根据一示例性实施例示出被测者对各种情绪的情绪觉察能力的分析结果的示意图;
图6是本发明根据一示例性实施例示出的一种恐惧情绪的情绪误判空间分布图;
图7是本发明根据一示例性实施例示出的一种展示有开放性试题的应用界面的示意图;
图8是本发明根据一示例性实施例示出的一种情绪识别能力测评装置的结构框图;
图9是本发明根据一示例性实施例示出的一种电子设备的硬件结构图。
需要说明的是,包含有人脸的附图中显示的人脸的马赛克部分是为了保护个体的肖像权而另外做的处理,在实际测试应用中,各附图显示的人脸不会被进行马赛克处理,会显示人脸的整体面部原始图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包含多数形式,除非上下文清楚地表示其含义。还应当理解,本发明中使用的术语“和/或”是指包含一个或多个相关联的列出项目的任何或所有可能的组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三来描述各种信息,但这些信息不应该限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
为至少解决相关技术中通过仅采用一张静态面部情绪图片作为表达个体的一个情绪测试依据所引起的测评结果准确性较低的问题,本发明提供一种情绪识别能力的测评系统,所述测评系统可以安装于终端中,也可以作为一种网页端产品,用于为被测者或其他相关人员,如研发者提供情绪识别能力测评的平台。所述测评系统配置有测评题集,所述测评题集包括单选题集,单选题集中的每一选择题均包括用于表征图中人物从平静到指定情绪的变化过程的面部表情动图、和用于供被测者择一选择的若干选项;所述指定情绪为以下之一:恐惧、愤怒、厌恶、快乐、悲伤和惊讶;所述若干选项中,不同选项对面部表情动图所表达的情绪的描述不同。由此,对于每一选择题,被测者可以根据所述选择题下的面部表情动图,自行判断该面部表情动图所表征的情绪,并根据自行判断的结果从若干选项中选定自己认为正确的一选项,如此往复,直至完成整个测试。
在一个例子中,单选题集中包含的面部表情动图的总数可以为72张,6种基本的情绪,即恐惧、愤怒、厌恶、快乐、悲伤和惊讶中,每种情绪下各有12张面部表情动图。面部表情动图的原始材料可以从现有技术中的KDEF(Karolinska Directed Emotional Faces)表情库中获得,也可以由开发人员或相关人员基于自行组织的若干自愿者的面部表情进行摄取得到。
上述中,为了减少开发耗时,在一个例子中,每种情绪下的面部表情动图可以通过以下方式获取:首先,可以从KDEF表情库中获取若干人在平静时的面部表情静态图片和在某种情绪表达至100%强度时的面部表情静态图片,如图1a和图1b,或图1c和图1d所示;然后,将同一人物在平静时的面部表情静态图片和在某种情绪表达至100%强度时的面部表情静态图片输入到morph软件中,例如,将图1a和图1b输入到morph软件中,或者将图1c和图1d输入到morph软件中;随后,可以利用morph软件的动图制作功能,基于图1a和图1b,将人物从图1a变换到图1b所示的情绪的这一过程还原出来,并制成表征有愤怒这一情绪的面部表情动图,基于图1a和图1b制成的面部表情动图包含的图像帧可以如图2a所示;同理,基于图1c和图1d制成的表征有快乐这一情绪的面部表情动图包含的图像帧可以如图2b所示。由此,只需获得人物在平静时的面部表情静态图片和在某种情绪表达至100%强度时的面部表情静态图片,即可利用morph软件制作得到相应的面部表情动图,可以避免进行动图采集时的繁琐操作,有利于提高面部表情动图的获取效率。
从上述可知,通过morph软件制成的面部表情动图的第一帧图片和最后一帧图片分别是人物在平静时的面部表情静态图片和人物在达到100%强度的某种情绪时的面部表情静态图片。其中,面部表情动图的第一帧图片到最后一帧图片之间的其他图片的数量可以由开发人员依需设置,以使morph软件生成相应数量的图片。另外,还可以通过morph软件设置制成的面部表情动图从第一帧图片播放至最后一帧图片所需的耗时,例如,为使得面部表情动图包含的所有图片帧的显示更加贴近实际社交互动中个体对表达完成某种情绪时所需的耗时,可以通过morph软件设置制成的面部表情动图从第一帧图片显示到最后一帧图片的耗时为3秒。
除此之外,为了减少morph软件基于人物在平静时的面部表情静态图片(以下为描述方便,将此图片简称为第一帧图片)和人物在达到100%强度的某种情绪时的面部表情静态图片(以下为描述方便,将此图片简称为最后一帧图片)生成相应的面部表情动图的处理步骤,降低处理难度和提高处理效率,在一实施例中,可以先确定第一帧图片中的人脸中心与图片边缘之间的第一距离、以及最后一帧图片中的人脸中心与图片边缘之间的第二距离;然后判断第一距离和第二距离的差值的绝对值是否大于预设差值,如果是,则对第一距离和第二距离中数值较大的一方对应的图片进行空余空间的裁剪,以使第一帧图片中的人脸脸部轮廓的位置相对于最后一帧图片中的人脸脸部轮廓的位置相对固定或相近;随后再将处理得到的图片和另一图片一同输入到morph软件中。如果第一距离和第二距离的差值的绝对值小于或等于预设差值,则可以直接将第一帧图片和最后一帧图片直接输入到morph软件中。由此可以避免因第一帧图片和最后一帧图片中的人脸位置差异过大而对制成的面部表情动图造成不良的影响,保证制成的面部表情动图所包含的各帧图片中的人脸位置不会发生较大的变化,进而避免因面部表情动图的人脸位置变化较大对被测者造成影响。
另外,为减少面部表情动图对内存空间的占用,同时保证面部表情动图的像素质量,在一实施例中,面部表情动图的尺寸大小可以为570×770像素。
基于所述测评系统,本发明提供了一种应用于所述测评系统的情绪识别能力测评方法,通过在对被测者进行情绪识别能力的测评过程中,将需要被测者进行情绪判断时所依据的情绪图片以动态图片的形式进行显示,以完整地呈现出图中人物从平静状态变换到指定情绪(如恐惧,或愤怒、或厌恶、或快乐、或悲伤、或惊讶)的一个自然且连贯的表情演变过程,从而使得情绪识别能力的测评依据更加贴近社会互动中的生态性,可以理解为:测评中所依据的面部表情动图更加符合人类的实际社交互动中,个体对一个情绪进行表达的过程。由此解决相关技术中通过仅采用一张静态面部情绪图片作为表达个体的一个情绪测试依据所引起的测评结果准确性较低的问题,可以提高测评结果的准确性。另外,通过在测评过程中,每个试题单独展示,有利于避免一次展示多个试题对被测者造成的干扰,从而可以更好地提高测评结果的准确性。并且,通过在已展示的选择题总数达到第一预设数量时,才根据答题信息和预存的正确答案确定测评结果,有利于避免因对被测者进行测试的试题过少而影响测评结果的准确性、以及因对被测者进行测试的试题过多而影响测评效率和造成不必要的时间损耗;其中仅基于答题信息和预存的正确答案即可确定测评结果,有利于简化测评结果的分析过程和提高测评效率。
以下,结合附图说明一下本发明实施例提供的情绪识别能力测评方法:
如图3所示,本实施例的情绪识别能力测评方法可以应用于终端中,可以包括以下步骤:
在步骤S031中,收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;
在步骤S032中,收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,确定当前展示的选择题的答题信息,并将当前展示的选择题更新为单选题集中的另一选择题;其中,更新后的选择题与更新前已展示的任一选择题不同;
在步骤S033中,当已展示的选择题总数达到第一预设数量时,根据答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。
当有情绪识别能力的测评需求时,被测者可以在已经安装有测评系统的终端或通过网页端启动或访问测评系统。在测评系统开启后,可以在测评系统的应用界面展示用于触发测评系统的测评题集进行展示的测试开始控件。测试开始控件被点击之后,即可收到所述步骤S031中记载的用于触发测评系统的测评题集进行展示的指令,随后即展示单选题集中的一选择题,可以理解为,当前界面展示有一个选择题下的面部表情动图和若干选项控件。在一个例子中,为进一步提高测试的准确性,每个选择题的选项控件的数量可以设有6个,用于表示6种不同的情绪,基于此,一个选择题包含的若干选项可以分别为:“恐惧”选项、“愤怒”选项、“厌恶”选项、“快乐”选项、“悲伤”选项、“惊讶”选项,如图4所示,其中,只有一条选项控件中记载的文字是正确描述当前面部表情动图所表征的情绪的。由此,被测者可以根据当前展示的面部表情动图从若干选项中选择一个自己认为正确描述当前面部表情动图所表征的情绪的选项。在被测者点击所选的选项之后,系统即可收到所述步骤S032中由被测者对当前展示的选择题进行作答时触发的选项所产生的指令,随后即可根据当前接收到的指令确定当前展示的选择题的答题信息,即可以根据当前接收到的指令确定被测者所选的选项。其中,答题信息可以包括但不限于:被测者所选的选项的序号、标识或描述的情绪中的至少一种。如果答题信息仅包括所选的选项的序号或标识,则可以根据预先存储的序号或标识与情绪之间的对应关系,来确定答题信息所指向的情绪;可以理解为:请继续参阅图4,假设“恐惧”选项的序号为1、“愤怒”选项的序号为2、“厌恶”选项序号为3、“快乐”选项的序号为4、“悲伤”选项的序号为5、“惊讶”选项的序号为6,这么一来,不同情绪对应的序号不同,因此,可以预先存储有各选择题的情绪与序号之间的对应关系,这样在记录答题信息时,可以仅记录被测者所选的选项的序号,也可以仅记录被测者所选的选项描述的情绪。其中,为避免因需要记录所有选择题的选项序号与情绪之间的对应关系所造成的信息冗余、内存空间占用大的问题,在一个例子中,所有选择题的选项序号与情绪之间的对应关系都相同;这么一来,可以仅记录一个选择题的选项序号与情绪之间的对应关系即可,无需记录多个。在收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令的同时,除了确定答题信息,还会对当前界面进行更新,以展示与更新前已展示的任一选择题都不同的下一选择题,以供被测者继续作答。如此循环展示选择题和记录答题信息,直至已经展示的选择题总数达到第一预设数量时,也可以理解为被测者已经作答的选择题总数达到第一预设数量时,可以根据被测者本次测试的所有答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。其中,第一预设数量的取值可以根据实际设置或实验所得,例如,可以为72个,在此不进行限定。
上述中,为了让被测者能够情绪的了解情绪识别能力测评过程,可以在开始情绪识别能力的正式测试之前,向被测者提供预演的练习测试,例如,可以在测评系统刚开始启动时的应用界面展示练习测试控件和正式测试控件,如果被测者点击练习测试控件,则将进入练习测试题集的测试预演。其中,练习测试题集中包含的试题可以是从所述测评题集中随机抽取的一定数量个试题,也可以完全不同于测评题集中的试题。在测试预演开始时,可以先展示测试操作导语,该导语可以为“请判断屏幕中面部表情动图表达的情绪,并通过鼠标选择展示有您所判断的情绪的选项”,由此可以告知被测者这是一个判断面部表情动图表达的情绪属于何种情绪的测试,并使得被测者能够在进行正式测试之前了解测试流程,以便更好地进行情绪识别能力的正式测试。在练习测试预演完成后,可以返回展示有练习测试控件和正式测试控件的应用界面,也可以直接跳转至展示有测试开始控件的应用界面。另外,如果被测者不是点击练习测试控件,而是点击正式测试控件,则直接跳转至展示有测试开始控件的应用界面或直接开始正式测试。
无论是在练习测试的过程中,还是在正式测试的过程中,为避免被测者手误输入选项,在收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,且在确定当前展示的选择题的答题信息之前,所述方法还可以包括:展示用于提示被测者是否确定输入当前选项的提示框,所述提示框可以包括提示内容、用于指示确定输入的确定控件和用于指示取消输入的取消控件。其中的提示内容可以包括但不限于:“是否确定输入当前选项?”。
另外,由于在实际社交互动中,人类对某种情绪的表达一般都是转瞬即逝的,可以理解为:个体从平静时的面部表情变化到某种情绪时的面部表情之后,这种情绪的面部表情不会一直保持在人脸,且这个变化过程也不会循环地呈现到人脸上。因此,为使测试更好地贴合人类在实际社交互动中对一个情绪的表达过程,提高生态效度,在一实施例中,改变了每个选择题的展示方式,也即,对于每个选择题,所述选择题的展示过程可以包括:当所述选择题展示的持续时长达到第一预定时长时,更新当前界面;更新后的界面中不展示所述选择题的面部表情动图,只展示所述选择题的若干选项。可以理解为:对于每个选择题,在所述选择题展示时间持续到第一预定时长时,原本展示有的面部表情动图在当前界面消失,不再展示,但仍会展示有供被测者选择的选项。在一个例子中,第一预定时长可以为3秒。
在确定测评结果的第一种实施方式中,所述测评结果的确定过程可以包括:
在步骤S03311中,根据答题信息和预存的正确答案确定答题正确率;
在步骤S03312中,基于预存的答题正确率与情绪识别能力等级之间的对应关系,根据当前确定得到的答题正确率确定被测者的情绪识别能力等级。
为方便理解,在此先说明一下何谓答题正确、何谓答题错误。已知单选题集中所有的面部表情动图表达的正确情绪包含以下几种:恐惧、愤怒、厌恶、快乐、悲伤和惊讶。这么一来,如果被测者将实际表达的情绪为恐惧的面部表情动图所表达的情绪判断为除了恐惧以外的情绪,例如,将恐惧判断为愤怒、厌恶、快乐、悲伤和惊讶中的任一种,则认为被测者题错误;反之,如果将恐惧判断为恐惧,则认为被测者答题正确。
由此可知,将恐惧的面部表情动图所表达的情绪判断为除了恐惧以外的情绪、将愤怒的面部表情动图所表达的情绪判断为除了愤怒以外的情绪、将厌恶的面部表情动图所表达的情绪判断为除了厌恶以外的情绪、将快乐的面部表情动图所表达的情绪判断为除了快乐以外的情绪、将悲伤的面部表情动图所表达的情绪判断为除了悲伤以外的情绪、以及将惊讶的面部表情动图所表达的情绪判断为除了惊讶以外的情绪等情况,均视为答题错误;而将恐惧的面部表情动图所表达的情绪判断为恐惧、将愤怒的面部表情动图所表达的情绪判断为愤怒、将厌恶的面部表情动图所表达的情绪判断为厌恶、将快乐的面部表情动图所表达的情绪判断为快乐、将悲伤的面部表情动图所表达的情绪判断为悲伤、以及将惊讶的面部表情动图所表达的情绪判断为惊讶等情况,均视为答题正确。
以下,举个例子说明一下第一种实施方式中确定测评结果的确定过程:
假设有N道选择题,N为正整数且N等于第一预设数量,根据答题信息和预存的正确答案确定被测者答对了Y道选择题,Y为整数且0≤Y≤N,预存的答题正确率与情绪识别能力等级之间的对应关系为:第一阈值范围的正确率对应的情绪识别能力等级为优秀,第二阈值范围的正确率对应的情绪识别能力等级为良好,第三阈值范围的正确率对应的情绪识别能力等级为偏弱。
基于上述例子,可以计算得到被测者的本次测试的答题正确率为Y/N,随后,判断答题正确率Y/N所属的正确率阈值范围,如果Y/N属于第一阈值范围内,则确定被测者的情绪识别能力等级为优秀;如果Y/N属于第二阈值范围内,则确定被测者的情绪识别能力等级为良好;如果Y/N属于第三阈值范围内,则确定被测者的情绪识别能力等级偏弱。由此得到包含情绪识别能力等级的测评结果。
在另一个例子中,也可以将答题正确率替换为答题错误率,并预存有答题错误率与情绪识别能力等级之间的对应关系。
确定被测者的情绪识别能力等级之后,为使被测者在得知自身的情绪识别能力等级的同时,还可以了解该等级所表示的含义,在一个例子中,所述测评结果还可以包括用于描述情绪识别能力等级的含义的解释信息,例如,优秀的情绪识别能力等级对应的解释信息可以包括但不限于:“你能很好地识别他人情绪”,良好的情绪识别能力等级对应的解释信息可以包括但不限于:“你能较好地识别他人情绪”,偏弱的情绪识别能力等级对应的解释信息可以包括但不限于:“你识别他人情绪的能力偏弱,在人际交互过程中可能会存在问题”。
确定被测者的情绪识别能力等级之后,为使被测者得知其答题的正确率或错误率,在一个例子中,所述测评结果还可以包括答题正确率或答题错误率。
确定得到的答题正确率或答题错误率除了可以用于确定情绪识别能力等级之外,还可以用于判断被测者是否存在社会偏态行为,例如,答题错误率较高的被测者与其他人正常互动的情境有限,容易出现社会偏态行为;而答题错误率较低的被测者会更倾向选择社会行为更确定、可预测的其他个体进行互动,不倾向选择容易出现社会偏态行为、引发社会焦虑的其他个体进行互动。其中,答题错误率在本实施例中也可以为称为情绪错认量级,或者,可以划分多个答题错误率的阈值范围,每个阈值范围对应的情绪错认量级不同。
另外,为使得测评结果能够客观公正地体现被测者在所有被测者中的水平,在一实施例中,可以基于所有被测者的答题情况来确定每个被测者相对于其他被测者的情绪识别能力水平,基于此,可以先通过常模基于以往的所有测试者的测评结果计算得到标准化的平均数和标准差,并作为对当前被测者的测评结果进行分析的参照标准。其中,应用常模分析得到相应结果的实现过程可以参照相关技术,在此不进行赘述。由此,通过利用常模分析,可以使得被测者能够清楚地了解个人相对总体的情绪识别能力水平,更好地认知到自己的情绪识别能力,有助于个体对自身社会行为进行更加准确地定位。
需要说明的是,各阈值范围的划分可以根据实验确定得到,阈值范围的总数不限于上述提及的数量,可以依需或依实验所得增加或减少,相应地,情绪识别能力等级的总数也不限于上述提及的数量和划分方式。
在确定测评结果的第二种实施方式中,为解决相关技术对测试者的情绪识别能力的分析仅停留在测试者答题的正确率或错误率,评定情绪识别能力的依据过于单一,导致评定结果较为片面,不够准确的问题,以更加准确且完整地测量个体的情绪识别能力,所述测评结果的确定过程可以包括:
在步骤S03321中,根据答题信息和预存的正确答案确定答题正确率和错误的答题信息;
在步骤S03322中,基于预存的答题正确率与情绪识别能力等级之间的对应关系,根据当前确定得到的答题正确率确定被测者的情绪识别能力等级;
在步骤S03323中,统计全部答题信息中用于描述同一情绪的信息的第一总数,并记录各第一总数对应的情绪;所述第一总数表示被测者对对应情绪的情绪觉察数;
在步骤S03324中,基于错误的答题信息及其对应的正确答案,统计对应于用于描述同一情绪的正确答案的错误的答题信息的第二总数,并记录各第二总数对应的正确答案所描述的情绪;所述第二总数表示被测者对对应情绪的情绪识别不能数;
在步骤S03325中,统计错误的答题信息中用于描述同一情绪的信息的第三总数,并记录各第三总数对应的情绪;所述第三总数表示被测者对对应情绪的情绪空间数;
在步骤S03326中,基于确定得到的情绪识别能力等级、各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成整体测评结果。
其中,为方便描述和对相关记载的理解,以下先说明一下本说明书涉及的一些名词的含义和作用:
情绪觉察:表示被测者知觉到某种情绪表情线索的总和,在测量上使用被测者判断为某种情绪的总和来确定,例如,假设测试中使用了72个选择题对被测者进行测试,如果被测者最终对这72个选择题进行作答得到的答题信息中包含判断的情绪为愤怒的15个信息,对此可以理解为:被测者最终将72张面部表情动图中的15张面部表情动图的情绪判断为愤怒,无论答题正确与否,都认为被测者对愤怒这一情绪的情绪觉察数为15。另外,也可以通过相同道理得知被测者对其他情绪的情绪觉察数分别是多少。在本实施例中,情绪觉察用于评定被测者对各种情绪的敏感度。
情绪识别不能:表示被测者未知觉到某种情绪表情线索的总和,在测量上使用被测者未正确识别出某种情绪的总数来确定,例如,假设测试中使用了12张快乐的面部表情动图,但被测者最终将其中的4张快乐的面部表情动图的情绪判断为除了快乐以外的其他情绪,则认为被测者对快乐这一情绪的情绪识别不能数为4。另外,也可以通过相同道理得知被测者对其他情绪的情绪识别不能数分别是多少。在本实施例中,情绪识别不能用于评定被测者对哪种情绪的识别能力较弱。
情绪空间:表示被测者错误知觉为某种情绪表情线索的总和。与情绪觉察的区别在于:情绪空间表明被测者在人际互动的情境中错误知觉成某种情绪的表情线索情况,更注重描述被测者错误知觉某种情绪的情况;而情绪觉察包含被测者正确知觉以及错误知觉为某种情绪的表情线索的总体情况,更注重描述被测者感知某种情绪表情线索的总体情况。对于情绪空间,假设测试中总共使用了72张面部表情动图,被测者最终在这72张面部表情动图中将1张面部表情动图的情绪错误判断成悲伤情绪,则认为被测者的悲伤空间数值为1。另外,也可以通过相同道理得知被测者其他情绪的情绪空间分别是多少。在本实施例中,情绪空间用于描述被测者错认成某种情绪的程度,用于评定被测者的情绪行为倾向,以判断被测者的行为模式是否存在过度趋近、过度回避、或趋避互错的社会不适应情况。
在本实施例中,将恐惧、愤怒和厌恶这三种情绪归为回避情绪,将惊讶归为中性情绪,将快乐和悲伤这两种情绪归为趋向情绪。理由是:一般来说,当个体识别到他人的恐惧、愤怒或厌恶情绪时,通常会因为想要躲避可能存在的威胁或不适而产生回避的行为倾向;当个体识别到他人的快乐或悲伤等需要社会支持的情绪时,通常会具有趋近的行为倾向。
回到过度趋近、过度回避和趋避互错:
过度趋近:体现被测者在快乐和悲伤这两种情绪的情绪空间数值过高,可以理解为:被测者在人际互动的情境中知觉到过多快乐与悲伤的情绪线索,很容易导致被测者做出不符合实际社交情境的趋近行为。
过度回避:体现在被测者在恐惧、愤怒和厌恶这三种情绪的情绪空间数值过高,可以理解为:被测者在人际互动的情境中知觉到过多恐惧、愤怒或厌恶的情绪线索,很容易导致被测者做出不符合实际社交情境的回避行为。
趋避互错:体现在被测者将回避情绪识别为趋向情绪,或将趋向情绪识别为回避情绪的情绪识别情况,表示被测者很容易因为自身行为倾向与实际社交情境的不匹配,会感到社会适应不良。
以下,举个例子说明一下第二种实施方式中确定测评结果的确定过程:
对于所述步骤S03321和步骤S03322中实现对被测者的情绪识别能力等级的确定过程,可以参见确定测评结果的第一种实施方式中的记载,其中的扩展方案和扩展应用也可以参照确定测评结果的第一种实施方式中的相关记载,在此不进行赘述。
对于情绪觉察数,统计全部答题信息中用于描述同一情绪的信息的第一总数,相当于统计被测者对各种情绪(即恐惧、愤怒、厌恶、快乐、悲伤和惊讶)的情绪觉察数。由此记录各第一总数对应的情绪即相当于得到各种情绪与各自的情绪觉察数的对应关系。这么一来,得到各种情绪与其对应的情绪觉察数之后,就可以进一步确定被测者对各情绪的情绪觉察能力,例如,假设被测者愤怒情绪的情绪觉察数为20,则可以确定被测者对愤怒的情绪觉察能力为20,如图5所示,或者,可以划分情绪觉察等级,如优秀、良好、一般等,不同的情绪觉察等级对应的情绪觉察数的阈值范围不同,在这种情况下,可以先根据情绪觉察数确定其所属的阈值范围,进而根据阈值范围和情绪觉察等级的关系确定相应的情绪觉察等级。
对于情绪识别不能数,统计对应于用于描述同一情绪的正确答案的错误的答题信息的第二总数,相当于统计各情绪的情绪识别不能数。由此记录各第二总数对应的情绪即相当于得到各种情绪与各自的情绪识别不能数的对应关系。这么一来,得到各种情绪与各自的情绪识别不能数的对应关系之后,还可以基于此进一步得到被测者对各种情绪的识别能力的强弱等级,和/或用于描述被测者对各种情绪的识别能力强弱情况的文字信息。其中,被测者对各种情绪的识别能力的强弱等级的确定的技术实现可参照上述情绪觉察等级的技术实现方式,但不限于此。
对于情绪空间数,统计错误的答题信息中用于描述同一情绪的信息的第三总数,相当于统计各种情绪的情绪空间数值。基于此,记录各第三总数对应的第三情绪即相当于得到各种情绪与各自的情绪空间数值的对应关系。这么一来,得到各种情绪与各自的情绪空间数值的对应关系之后,还可以基于此进一步得到用于描述被测者的情绪行为倾向的文字信息。其中,用于描述被测者的情绪行为倾向的文字信息可以包括但不限于以下其中一项:存在过度趋近行为、存在过度回避行为、存在趋避互错、不存在明显的社会倾向行为。其中,如何依据各种情绪与各自的情绪空间数值确定用于描述被测者的情绪行为倾向的文字信息为上述中的哪一项,可以基于上述对过度趋近、过度回避、或趋避互错的相关记载,结合相关技术中的数据处理方式确定得到,在此不进行赘述。另外,还可以根据各情绪的情绪空间数值生成分布图,例如,假设恐惧被误判的总占比为33%,则可以根据恐惧被误判成其他各情绪的数量生成恐惧情绪的情绪误判空间分布图,如图6所示。
由上述可知,得到情绪识别能力等级、各情绪的情绪觉察数、情绪识别不能数和情绪空间数之后,可以基于情绪识别能力等级、各情绪的情绪觉察数、情绪识别不能数和情绪空间数得到上述提及的测评信息,其中的测评信息包括以下至少一项:情绪识别能力等级、各情绪的情绪觉察数、情绪识别不能数、情绪空间数、情绪觉察能力、情绪觉察等级、用于描述被测者对各种情绪的识别能力强弱情况的文字信息、被测者对各种情绪的识别能力的强弱等级、用于描述被测者的情绪行为倾向的文字信息、情绪误判空间分布图。在后续中,可以基于得到的测评信息综合生成整体测评结果。在一个示例中,整体测评结果可以为包含上述各项测评信息的表格,也可以为包含上述各项测评信息的文档。
由此,本实施例通过在情绪错认量级、情绪觉察、情绪识别不能以及情绪空间这些维度上对被测者的答题信息进行综合分析,很好地提高了对被测者情绪识别能力进行分析得到的测评结果的准确性和全面性。
在确定测评结果的第三种实施方式中,为进一步提高测评分析的全面性和准确性,在确定测评结果的第二种实施方式的基础上,本实施例中还分析了被测者对女性和男性的情绪的识别能力,基于此,所述单选题集中的面部表情动图包括女性面部表情动图和男性面部表情动图;其中,为保证测试的均衡性,在测试过程中,展示的女性面部表情动图的数量与展示的男性面部表情动图的数量相同,且各性别下的面部表情动图都包含有上述6种不同情绪的面部表情动图,不同情绪下的面部表情动图数量也相同。所述方法还可以包括:
在步骤S03331中,根据答题信息和预存的正确答案,分别确定包含有女性面部表情动图的所有第一选择题的第一答题正确率和包含有男性面部表情动图的所有第二选择题的第二答题正确率;
在步骤S03332中,对于每个第一总数,确定所述第一总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第一总数与其对应的情绪、以及第一总数所包含的第一选择题的数量和第二选择题的数量,确定被测者对女性和男性的各情绪的情绪觉察数;
在步骤S03333中,对于每个第二总数,确定所述第二总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第二总数与其对应的情绪、以及第二总数所包含的第一选择题的数量和第二选择题的数量,确定被测者对女性和男性的各情绪的情绪识别不能数;
在步骤S03334中,对于每个第三总数,确定所述第三总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第三总数与其对应的情绪,确定被测者对女性和男性的各情绪的情绪空间数;
在步骤S03335中,基于第一答题正确率、女性各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成用于表征被测者对女性的情绪的识别能力的第一测评结果;
在步骤S03336中,基于第二答题正确率、男性各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成用于表征被测者对男性的情绪的识别能力的第二测评结果。
对上述步骤的理解可参见确定测评结果的第二种实施方式中的相关记载,两者的区别仅在于:本实施方式中还区分了女性和男性的面部表情动图,并基于被测者对女性面部表情动图的答题信息和对应的正确答案、以及男性的面部表情动图以及对应的正确答案,分别去获取被测者对女性面部表情动图的情绪识别的正确率、女性各情绪的情绪觉察数、情绪识别不能数和情绪空间数,以及获取被测者对男性面部表情动图的情绪识别的正确率、男性各情绪的情绪觉察数、情绪识别不能数和情绪空间数;上述各项分析结果的获取方式与第二种实施方式中相关信息的获取方式原理相同,在此不进行赘述。同样,第一测评结果和第二测评结果的生成过程也可以参见上述整体测评结果的生成过程,在此不进行赘述。
基于此,所述测评结果除了包括上述确定测评结果的第二种实施方式中的整体测评结果之外,还包括第一测评结果和第二测评结果。
由此,通过在获得整体测评结果的基础上,还进一步分析被测者对男性和女性的情绪的识别能力,可以避免因被测者对其中一性别方的识别能力较低而影响对其对另一性别方的识别能力的评定,能够提高对被测者情绪识别能力的测评结果的全面性、客观性和准确性,并使得被测者或与被测者相关的其他人可以清楚得知被测者对女性的情绪识别能力更强,还是对男性的情绪识别能力更强,这样有助于被测者对自己的社交行为的改善,也有助于被测者社交关系的改善。
需要说明的是,获得测评结果之后,可以在当前界面展示测评结果,或将测评结果发送到被测者的设备,以供被测者查看。
另外,在其他例子中,还可以直接将上述确定测评结果的任一实施例中统计得到或计算得到的数据通过通信网络发送给测评统计中心服务端,以使专业的测评统计人员对收到的数据进行分析,生成专业的评估报告,再将评估报告发送给被测者的设备。其中,所述评估报告可以包含上述提及的各种测评结果,还可以包含常模结果、社交行为建议。
为进一步提高测评结果的全面性、准确性和客观性,在一实施例中,除了单选题集之外,所述测评题集还包括开放性题集,开放性题集中的每一开放性试题均包括用于表征一种情绪的面部表情动图和用于供被测者输入用于描述面部表情动图的词语的作答输入框。所述方法还可以包括:
在步骤S03211中,展示开放性题集中的一开放性试题;
在步骤S03212中,收到由被测者对当前展示的开放性试题作答完成后输入的指令时,保存输入到当前展示的开放性试题的作答输入框中的答题内容,并将当前展示的开放性试题更新为开放性题集中的另一开放性试题;其中,更新后的开放性试题与更新前已展示的任一开放性试题不同;
相应地,所述步骤S033中,所述确定用于表征被测者的情绪识别能力的测评结果的步骤,在已展示的选择题总数达到第一预设数量、且已展示的开放性试题总数达到第二预设数量时执行;其中,所述测评结果基于答题信息和预存的正确答案、以及答题内容确定得到。
通过增设开放性试题,可以使得被测者自行使用与情绪相关的词汇来描述自己对所见到的面部表情动图时的情绪描述,有助于利用被测者输入的词汇更加深入地了解被测者的情绪识别模式偏向,以及对社会情境中个体情绪的解读偏向。
通过上述技术方案可知,在本实施例中,测试过程包括单选题集和开放性题集这两部分,其中一部分的测试完成之后,另一部分的测试才会开始,两部分的测试都完成之后,才算被测者完成测试。其中,开放性题集可以在单选题集之前展示,也可以在单选题集的测试完成后再展示。在展示开放性题集的过程中,开放性题集中的试题也是逐一展示,也即,一次只展示一个开放性题,在该开放性试题被作答之后再展示下一开放性题,如此循环,直至已展示的开放性试题总数达到第二预设数量。其中,应用界面中展示的开放性试题可以如图7所示,在图7所示的应用界面中,除了面部表情动图和作答输入框之外,还可以展示有用于确定提交在作答输入框输入的内容的确定控件。在被测者点击确定控件之后,即可收到由被测者对当前展示的开放性试题作答完成后输入的指令时,保存输入到当前展示的开放性试题的作答输入框中的答题内容,并将当前展示的开放性试题更新为开放性题集中的另一开放性试题;其中,更新后的开放性试题与更新前已展示的任一开放性试题不同。
上述中,被测者输入的词可以是上述6中情绪对应的词以外的词,例如,被测者可以输入用于形容自身对当前面部表情动图的心理感受,如不开心、压抑、开心、舒服、轻松等,或者是被测者能够想到的除了心理感受以外的其他形容词,本实施例不对此进行限定。
另外,开放性题集中的面部表情动图的素材可以与单选题集中的面部表情动图的素材相同。
在已展示的选择题总数达到第一预设数量、且已展示的开放性试题总数达到第二预设数量时,可以基于被测者对单选题集的答题信息和对开放性题集的答题内容确定测评结果。此时,测评结果包括基于单选题集的答题信息得到的一类测评结果和基于开放性试题的答题内容得到的二类测评结果,其中的一类测评结果的确定过程可以参照上述确定测评结果的第一种实施例至第三种实施例中的任一实施例。对于二类测评结果的确定过程,可以包括:在测评系统中,可以先预存有用于评述答题内容为负面情绪、正面情绪还是中性情绪的情绪识别词库,情绪识别词库中包括负面情绪词库、正面情绪词库和中性情绪词库。由此,对于每个开放性试题的答题内容,可以对所述答题内容进行解析,并确定其所属的词库,可以理解:对答题内容进行解析后,如果答题内容包括用于描述负面情绪的词语,例如害怕、逃避等,则可以判定被测者对当前面部表情动图的情绪判断是负面情绪,然后再根据当前面部表情动图正确表达的情绪对被测者的判断进行分析,例如,对被测者输入的词汇进行特征归类,并根据归类结果确定被测者对该情绪的认识倾向以及涉及该情绪的行为特征。如此分析每个开放性试题,得到二类测评结果。
需要说明的是,情绪识别词库所包含的词库类别不限于负面、正面和中性,在其他实施例中,可以根据实际研究或应用需求而重新定义情绪识别库所包含的词库类别。
另外,在其他例子中,还可以直接将开放性试题集的答题内容记录在一份文档中,并通过通信网络发送给测评统计中心服务端,以使专业的测评统计人员对收到的文档中的信息进行分析,生成包含有二类测评结果的专业的评估报告,再将评估报告发送给被测者的设备。
在另一个例子中,可以结合一类测评结果和二类测评结果综合分析得到全面性的测评结果。
需要说明的是,虽然图7所示的文字中限定被测者用一个词形容面部表情动图的表情,但在其他例子中,可以不限定被测者输入的词的个数。
另外,由于在实际社交互动中,人类对某种情绪的表达一般都是转瞬即逝的,可以理解为:个体从平静时的面部表情变化到某种情绪时的面部表情之后,这种情绪的面部表情不会一直保持在人脸,且这个变化过程也不会循环地呈现到人脸上。因此,为使测试更好地贴合人类在实际社交互动中对一个情绪的表达过程,提高生态效度,在一实施例中,改变了每个开放性试题的展示方式,也即,对于每一开放性试题,所述开放性试题的展示过程包括:当所述开放性试题展示的持续时长达到第二预定时长时,更新当前界面;更新后的界面中不展示所述开放性试题的面部表情动图,只展示所述开放性试题的作答输入框。可以理解为:对于每个开放性试题题,在所述开放性试题的展示时间持续到第二预定时长时,原本展示有的面部表情动图在当前界面消失,不再展示,但仍会展示有供被测者输入答题内容的作答输入框。在一个例子中,第二预定时长可以为3秒。
作答时间的长短可以反应被测者对当前展示的面部表情动图所表达的情绪的把握程度,因为,一般说来,对于有把握的试题,被测者的作答时间一般较短,而对于没有把握的试题,被测者需要比较多时间去思考,因此作答时间一般比较长。所以,为了更全面地测定被测者的情绪识别能力,在一实施例中,所述方法还可以包括:对于每一选择题,记录开始展示所述选择题时到收到所述选择题的选项被触发所产生的指令时这一时间段的时长,以作为被测者对所述选择题作答完成的第一答题时长;和/或,对于每一开放性试题,记录开始展示所述开放性试题时到收到由被测者对当前展示的开放性试题作答完成后输入的指令时这一时间段的时长,以作为被测者对所述开放性试题作答完成的第二答题时长。相应地,所述测评结果还根据第一答题时长和/或第二答题时长确定得到。其中,第一答题时长和第二答题时长可以用于对被测者对各情绪识别的熟练程度进行判定。例如,对于所有单选题和/或所有开放性试题,可以计算得到被测者的答题平均时长和/或标准差,以利用答题平均时长和/或标准差来确定被测者对各情绪的识别熟练程度。识别熟练程度可以包括若干等级,不同等级对应的答题平均时长的范围不同,这样可以依据每种情绪下的答题平均时长来确定识别熟练程度。在另一例子中,也可以直接将各题对应的答题时长记录在一份文档中,并通过通信网络发送给测评统计中心服务端,以使专业的测评统计人员对收到的文档中的信息进行分析,生成专业的评估报告,再将评估报告发送给被测者的设备。
需要说明的是,本发明上述各个实施例中的技术方案或技术特征可以依需组合,只要技术方案或技术特征之间不存在矛盾即可,由于篇幅有限,在此不再一一描述。
另外,测评结果包含的各项数据可以通过常模进行进一步的修正,以基于以往被测者的测试数据来评定被测者在以往被测者中所处的水平,使得测评结果更加科学、准确。
本发明实施例提供的上述技术方案除了记载有上述有益的技术效果之外,还可以被应用于家庭亲子情绪的遗传分析中,可以为未来情绪基因遗传的相关研究与开发提供心理学领域的数据和测试方法。同时,本发明对人工智能核心问题“情感计算”的实现提供非常重要的技术基础,因为情绪和情感是人类日常生活中的基本组成部分,因而让计算机能够针对人类的外在情绪表现进行测量和分析并施加影响,对实现具有情感的人机交互是意义重大的技术实践,例如,为实现具有情感的人机交互技术,可以先通过计算机采集个体的情绪识别数据,并基于情绪识别数据分析个体的情绪错认量级以及属于何种情绪的趋避空间,之后再根据情绪错认量级和情绪趋避控件来确定合适的互动策略。并由于本发明能够对被测者的情绪识别模式进行全方位的测量,因此可以为未来计算机识别人类的情绪识别模式提供中介性的科学工具。
与前述情绪识别能力测评方法的实施例对应,本发明还提供了一种情绪识别能力测评装置,所述装置可以应用于终端或网页端的测评系统中,所述测评系统请见上文相关记载,在此不进行赘述。如图8所示,所述装置包括:
展示模块81,用于在收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;
控制模块82,用于在收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,确定当前展示的选择题的答题信息,并控制所述展示模块81将当前展示的选择题更新为单选题集中的另一选择题;其中,更新后的选择题与更新前已展示的任一选择题不同;
确定模块83,用于在已展示的选择题总数达到第一预设数量时,根据答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。
在一实施例中,所述展示模块81包括:
第一展示单元,用于在收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;
第一展示控制单元,用于对于每一选择题,在所述选择题展示的持续时长达到第一预定时长时,更新当前界面;更新后的界面中不展示所述选择题的面部表情动图,只展示所述选择题的若干选项。
在一实施例中,所述确定模块83包括:
错对确定单元,用于根据答题信息和预存的正确答案确定答题正确率和错误的答题信息;
识别能力等级确定单元,用于基于预存的答题正确率与情绪识别能力等级之间的对应关系,根据当前确定得到的答题正确率确定被测者的情绪识别能力等级;
觉察数确定单元,用于统计全部答题信息中用于描述同一情绪的信息的第一总数,并记录各第一总数对应的情绪;所述第一总数表示被测者对对应情绪的情绪觉察数;
识别不能数确定单元,用于基于错误的答题信息及其对应的正确答案,统计对应于用于描述同一情绪的正确答案的错误的答题信息的第二总数,并记录各第二总数对应的正确答案所描述的情绪;所述第二总数表示被测者对对应情绪的情绪识别不能数;
空间数确定单元,用于统计错误的答题信息中用于描述同一情绪的信息的第三总数,并记录各第三总数对应的情绪;所述第三总数表示被测者对对应情绪的情绪空间数;
整体测评结果生成单元,用于基于确定得到的情绪识别能力等级、各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成整体测评结果。
在一实施例中,所述单选题集中的面部表情动图包括女性面部表情动图和男性面部表情动图;所述确定模块83还包括:
分类错对确定单元,用于根据答题信息和预存的正确答案,分别确定包含有女性面部表情动图的所有第一选择题的第一答题正确率和包含有男性面部表情动图的所有第二选择题的第二答题正确率;
分类觉察数确定单元,用于对于每个第一总数,确定所述第一总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第一总数与其对应的情绪、以及第一总数所包含的第一选择题的数量和第二选择题的数量,确定被测者对女性和男性的各情绪的情绪觉察数;
分类识别不能数确定单元,对于每个第二总数,确定所述第二总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第二总数与其对应的情绪、以及第二总数所包含的第一选择题的数量和第二选择题的数量,确定被测者对女性和男性的各情绪的情绪识别不能数;
分类空间数确定单元,用于对于每个第三总数,确定所述第三总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第三总数与其对应的情绪,确定被测者对女性和男性的各情绪的情绪空间数;
第一测评结果生成单元,用于基于第一答题正确率、女性各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成用于表征被测者对女性的情绪的识别能力的第一测评结果;
第二测评结果生成单元,用于基于第二答题正确率、男性各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成用于表征被测者对男性的情绪的识别能力的第二测评结果;
基于此,相应地,所述测评结果还包括第一测评结果和第二测评结果。
在一实施例中,所述测评题集还包括开放性题集,开放性题集中的每一开放性试题均包括用于表征一种情绪的面部表情动图和用于供被测者输入用于描述面部表情动图的词语的作答输入框。
所述展示模块81还包括:第二展示单元,用于展示开放性题集中的一开放性试题;
所述控制模块82还用于在收到由被测者对当前展示的开放性试题作答完成后输入的指令时,保存输入到当前展示的开放性试题的作答输入框中的答题内容,并将当前展示的开放性试题更新为开放性题集中的另一开放性试题;其中,更新后的开放性试题与更新前已展示的任一开放性试题不同;
基于此,所述确定模块83适应性地配置为:用于在已展示的选择题总数达到第一预设数量、且已展示的开放性试题总数达到第二预设数量时,基于答题信息和预存的正确答案、以及答题内容确定得到测评结果。
在一实施例中,所述展示模块81还可以包括:
第二展示控制单元,用于对于每一开放性试题,在所述开放性试题展示的持续时长达到第二预定时长时,更新当前界面;更新后的界面中不展示所述开放性试题的面部表情动图,只展示所述开放性试题的作答输入框。
在一实施例中,所述装置还可以包括:
答题时长记录模块,用于对于每一选择题,记录开始展示所述选择题时到收到所述选择题的选项被触发所产生的指令时这一时间段的时长,以作为被测者对所述选择题作答完成的第一答题时长;和/或,对于每一开放性试题,记录开始展示所述开放性试题时到收到由被测者对当前展示的开放性试题作答完成后输入的指令时这一时间段的时长,以作为被测者对所述开放性试题作答完成的第二答题时长;
基于此,相应地,所述确定模块83适应性地配置为:用于在已展示的选择题总数达到第一预设数量、且已展示的开放性试题总数达到第二预设数量时,基于答题信息和预存的正确答案、答题内容、第一答题时长和第二答题时长确定得到测评结果。
上述装置中各个模块和单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元。
与前述情绪识别能力测评方法的实施例对应,本发明还提供了一种电子设备,所述电子设备可以包括:
处理器;
存储器,用于存储可执行的计算机程序;
其中,所述处理器执行所述计算机程序时实现前述任一方法实施例中的情绪识别能力测评方法。
本发明实施例所提供的情绪识别能力测评方法和装置的实施例都可以应用在所述电子设备上。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在电子设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图9所示,除了图9所示的处理器、内存、网络接口、以及非易失性存储器之外,所述电子设备还可以包括其他硬件,如摄像模块;或通常根据该电子设备的实际功能,还可以包括其他硬件,对此不再赘述。
与前述方法实施例对应,本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述任一方法实施例中的情绪识别能力测评方法。
本发明实施例可采用在一个或多个包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。所述计算机可读存储介质可以包括:永久性或非永久性的可移动或非可移动媒体。所述计算机可读存储介质的信息存储功能可以由任何可以实现的方法或技术实现。所述信息可以是计算机可读指令、数据结构、程序的模型或其它数据。
另外,所述计算机可读存储介质包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其它类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其它内存技术的记忆体、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其它光学存储器、磁盒式磁带、磁带磁盘存储或其它磁性存储设备或可用于存储可被计算设备访问的信息的其它非传输介质。
本发明并不局限于上述实施方式,如果对本发明的各种改动或变形不脱离本发明的精神和范围,倘若这些改动和变形属于本发明的权利要求和等同技术范围之内,则本发明也意图包含这些改动和变形。

Claims (10)

1.一种情绪识别能力测评方法,其特征在于,应用于情绪识别能力的测评系统,所述测评系统配置有测评题集,所述测评题集包括单选题集,单选题集中的每一选择题均包括用于表征图中人物从平静到指定情绪的变化过程的面部表情动图、和用于供被测者择一选择的若干选项;所述指定情绪为以下之一:恐惧、愤怒、厌恶、快乐、悲伤和惊讶;所述若干选项中,不同选项对面部表情动图所表达的情绪的描述不同;
所述方法包括:
收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;
收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,确定当前展示的选择题的答题信息,并将当前展示的选择题更新为单选题集中的另一选择题;其中,更新后的选择题与更新前已展示的任一选择题不同;
当已展示的选择题总数达到第一预设数量时,根据答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。
2.根据权利要求1所述的方法,其特征在于,对于每一选择题,所述选择题的展示过程包括:
当所述选择题展示的持续时长达到第一预定时长时,更新当前界面;更新后的界面中不展示所述选择题的面部表情动图,只展示所述选择题的若干选项。
3.根据权利要求1所述的方法,其特征在于,所述测评结果的确定过程包括:
根据答题信息和预存的正确答案确定答题正确率和错误的答题信息;
基于预存的答题正确率与情绪识别能力等级之间的对应关系,根据当前确定得到的答题正确率确定被测者的情绪识别能力等级;
统计全部答题信息中用于描述同一情绪的信息的第一总数,并记录各第一总数对应的情绪;所述第一总数表示被测者对对应情绪的情绪觉察数;
基于错误的答题信息及其对应的正确答案,统计对应于用于描述同一情绪的正确答案的错误的答题信息的第二总数,并记录各第二总数对应的正确答案所描述的情绪;所述第二总数表示被测者对对应情绪的情绪识别不能数;
统计错误的答题信息中用于描述同一情绪的信息的第三总数,并记录各第三总数对应的情绪;所述第三总数表示被测者对对应情绪的情绪空间数;
基于确定得到的情绪识别能力等级、各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成整体测评结果。
4.根据权利要求3所述的方法,其特征在于,所述单选题集中的面部表情动图包括女性面部表情动图和男性面部表情动图;
所述方法还包括:
根据答题信息和预存的正确答案,分别确定包含有女性面部表情动图的所有第一选择题的第一答题正确率和包含有男性面部表情动图的所有第二选择题的第二答题正确率;
对于每个第一总数,确定所述第一总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第一总数与其对应的情绪、以及第一总数所包含的第一选择题的数量和第二选择题的数量,确定被测者对女性和男性的各情绪的情绪觉察数;
对于每个第二总数,确定所述第二总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第二总数与其对应的情绪、以及第二总数所包含的第一选择题的数量和第二选择题的数量,确定被测者对女性和男性的各情绪的情绪识别不能数;
对于每个第三总数,确定所述第三总数对应的选择题中所包含的第一选择题的数量和第二选择题的数量;基于第三总数与其对应的情绪,确定被测者对女性和男性的各情绪的情绪空间数;
基于第一答题正确率、女性各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成用于表征被测者对女性的情绪的识别能力的第一测评结果;
基于第二答题正确率、男性各情绪的情绪觉察数、情绪识别不能数和情绪空间数,生成用于表征被测者对男性的情绪的识别能力的第二测评结果;
所述测评结果还包括第一测评结果和第二测评结果。
5.根据权利要求1所述的方法,其特征在于,所述测评题集还包括开放性题集,开放性题集中的每一开放性试题均包括用于表征一种情绪的面部表情动图和用于供被测者输入用于描述面部表情动图的词语的作答输入框;
所述方法还包括:
展示开放性题集中的一开放性试题;
收到由被测者对当前展示的开放性试题作答完成后输入的指令时,保存输入到当前展示的开放性试题的作答输入框中的答题内容,并将当前展示的开放性试题更新为开放性题集中的另一开放性试题;其中,更新后的开放性试题与更新前已展示的任一开放性试题不同;
所述确定用于表征被测者的情绪识别能力的测评结果的步骤,在已展示的选择题总数达到第一预设数量、且已展示的开放性试题总数达到第二预设数量时执行;其中,所述测评结果基于答题信息和预存的正确答案、以及答题内容确定得到。
6.根据权利要求4所述的方法,其特征在于,对于每一开放性试题,所述开放性试题的展示过程包括:
当所述开放性试题展示的持续时长达到第二预定时长时,更新当前界面;更新后的界面中不展示所述开放性试题的面部表情动图,只展示所述开放性试题的作答输入框。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述方法还包括:
对于每一选择题,记录开始展示所述选择题时到收到所述选择题的选项被触发所产生的指令时这一时间段的时长,以作为被测者对所述选择题作答完成的第一答题时长;
所述测评结果还根据第一答题时长确定得到。
8.一种情绪识别能力测评装置,其特征在于,应用于情绪识别能力的测评系统,所述测评系统配置有测评题集,所述测评题集包括单选题集,单选题集中的每一选择题均包括用于表征图中人物从平静到指定情绪的变化过程的面部表情动图、和用于供被测者择一选择的若干选项;所述指定情绪为以下之一:恐惧、愤怒、厌恶、快乐、悲伤和惊讶;所述若干选项中,不同选项对面部表情动图所表达的情绪的描述不同;
所述装置包括:
展示模块,用于在收到用于触发测评系统的测评题集进行展示的指令时,展示单选题集中的一选择题;
控制模块,用于在收到由被测者对当前展示的选择题进行作答时触发的选项所产生的指令时,确定当前展示的选择题的答题信息,并控制所述展示模块将当前展示的选择题更新为单选题集中的另一选择题;其中,更新后的选择题与更新前已展示的任一选择题不同;
确定模块,用于在已展示的选择题总数达到第一预设数量时,根据答题信息和预存的正确答案,确定用于表征被测者的情绪识别能力的测评结果。
9.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储可执行的计算机程序;
其中,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述方法的步骤。
CN202010014063.8A 2020-01-07 2020-01-07 情绪识别能力测评方法、装置、电子设备及存储介质 Active CN111241980B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010014063.8A CN111241980B (zh) 2020-01-07 2020-01-07 情绪识别能力测评方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010014063.8A CN111241980B (zh) 2020-01-07 2020-01-07 情绪识别能力测评方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111241980A true CN111241980A (zh) 2020-06-05
CN111241980B CN111241980B (zh) 2023-04-14

Family

ID=70864844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010014063.8A Active CN111241980B (zh) 2020-01-07 2020-01-07 情绪识别能力测评方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111241980B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968725A (zh) * 2020-07-22 2020-11-20 黄山学院 基于眼动数据的教师情绪觉察训练系统及方法
CN112365757A (zh) * 2020-10-09 2021-02-12 安徽联嘉智能科技有限公司 一种交通标识学习装置用互动评分系统
CN114140814A (zh) * 2022-02-07 2022-03-04 北京无疆脑智科技有限公司 情绪识别能力的训练方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210301A (zh) * 2019-04-26 2019-09-06 平安科技(深圳)有限公司 基于微表情评价面试者的方法、装置、设备和存储介质
CN110249360A (zh) * 2017-02-01 2019-09-17 三星电子株式会社 用于推荐产品的装置和方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110249360A (zh) * 2017-02-01 2019-09-17 三星电子株式会社 用于推荐产品的装置和方法
CN110210301A (zh) * 2019-04-26 2019-09-06 平安科技(深圳)有限公司 基于微表情评价面试者的方法、装置、设备和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968725A (zh) * 2020-07-22 2020-11-20 黄山学院 基于眼动数据的教师情绪觉察训练系统及方法
CN112365757A (zh) * 2020-10-09 2021-02-12 安徽联嘉智能科技有限公司 一种交通标识学习装置用互动评分系统
CN114140814A (zh) * 2022-02-07 2022-03-04 北京无疆脑智科技有限公司 情绪识别能力的训练方法、装置及电子设备

Also Published As

Publication number Publication date
CN111241980B (zh) 2023-04-14

Similar Documents

Publication Publication Date Title
CN111241980B (zh) 情绪识别能力测评方法、装置、电子设备及存储介质
North et al. Mechanisms underlying skilled anticipation and recognition in a dynamic and temporally constrained domain
US10019690B2 (en) Intellectual-productivity analysis apparatus and program
KR101829606B1 (ko) 인터넷 과몰입 진단 장치 및 방법
Gnisci et al. Have you made up your story? The effect of suspicion and liars' strategies on reality monitoring
CN110569347A (zh) 一种数据处理方法、装置、存储介质和电子设备
Ranyard et al. Verbal data and decision process analysis
CN112215700A (zh) 信贷面审的审核方法及装置
CN110837960A (zh) 学生情感分析方法
Loy et al. Cues to lying may be deceptive: Speaker and listener behaviour in an interactive game of deception
Krämer et al. Social reactions to socially interactive agents and their ethical implications
CN111597305A (zh) 实体标记方法、装置、计算机设备和存储介质
Reynolds et al. A dynamic model of deciding not to choose.
CN110826796A (zh) 成绩预测方法
Scherr et al. Detecting user emotions with the true-depth camera to support mobile app quality assurance
Reynolds et al. Ambiguous bodies: The role of displayed arousal in emotion [mis] perception
Arendsen et al. When and how well do people see the onset of gestures?
US20230290505A1 (en) Context Aware Assessment
Loy et al. Lying, in a manner of speaking
US20230208966A1 (en) Determination method, information processing apparatus, and computer-readable recording medium storing determination program
CN112163467B (zh) 情绪分析方法、装置、电子设备及机器可读存储介质
Huber et al. Empathic Accuracy and Mental Effort During Remote Assessments of Emotions
Tiwari Does judgement of learning predict accuracy of recall during emotional arousal
CN114372904A (zh) 基于学校和家庭的情绪评价方法
CN114358987A (zh) 基于学习数据的情绪评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant