CN117122320A - 情绪数据基准化处理方法、装置及计算机可读存储介质 - Google Patents

情绪数据基准化处理方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN117122320A
CN117122320A CN202211599857.0A CN202211599857A CN117122320A CN 117122320 A CN117122320 A CN 117122320A CN 202211599857 A CN202211599857 A CN 202211599857A CN 117122320 A CN117122320 A CN 117122320A
Authority
CN
China
Prior art keywords
emotion
benchmarking
value time
data
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211599857.0A
Other languages
English (en)
Inventor
蒋剑豪
李嘉妍
蔡胤
吕金玲
陈展略
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Dihua Zhizhen Technology Co ltd
Original Assignee
Guangzhou Dihua Zhizhen Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Dihua Zhizhen Technology Co ltd filed Critical Guangzhou Dihua Zhizhen Technology Co ltd
Priority to CN202211599857.0A priority Critical patent/CN117122320A/zh
Publication of CN117122320A publication Critical patent/CN117122320A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及一种情绪数据基准化处理方法、装置及计算机可读存储介质,包括获取待处理情绪数据,待处理情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;获取待处理情绪数据对应的基准化处理参数,其中,基准化处理参数为根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,目标锚定物根据目标产品的品类及测试类别确定;利用基准化处理参数对待处理情绪数据进行基准化处理,得到基准化处理后情绪数据。本发明提供的方法、装置及计算机可读存储介质,能够消除个体情绪基准状态的差异,进而在产品测评时利用处理后的情绪数据进行比较与统计分析,能提高分析结果的客观性与准确性。

Description

情绪数据基准化处理方法、装置及计算机可读存储介质
技术领域
本发明涉及情绪数据处理技术领域,具体涉及一种情绪数据基准化处理方法、装置及计算机可读存储介质。
背景技术
产品感官测试是通过有代表性的消费者以感官功能对产品的物理属性进行评判,从中寻找令消费者最满意的产品属性,为产品的生产与经营活动提供决策依据。
目前,在进行产品感官测试时,会记录评估人在产品测试过程中的面部视频,通过该视频对评估人在产品测试过程中的面部微表情进行分析,进而结合面部微表情分析结果对产品进行评价。当前市场上主流的面部微表情分析软件都是基于FACS(FACS:FacialAction Coding System,面部动作编码系统)对面部的微观运动进行识别与编码后,能够取得个体在单个外界刺激下反应的面部情绪时间序列结果(按照时间顺序排列的情绪值的集合)。
现有分析方法中,直接使用原始获取的面部情绪时间序列结果进行涉及不同测试个体、不同测试产品之间的比较与统计分析,从而对产品进行评价。但是此种分析方法没有考虑到不同个体的情绪基准状态本身存在差异;此外也没有考虑到对于同一测试个体而言,在不同测试环境与场景下同样的外部刺激产生的情绪状态也会存在差异,因而造成分析结果的客观性、准确性较低。
因此,本领域技术人员亟需寻找一种新的情绪数据处理方案来解决上述的问题。
发明内容
针对上述问题,本发明提供一种情绪数据基准化处理方法、装置及计算机可读存储介质。
本发明提供的情绪数据基准化处理方法,包括:
获取待处理情绪数据,待处理情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;
获取待处理情绪数据对应的基准化处理参数,其中,基准化处理参数为根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,目标锚定物根据目标产品的品类及测试类别确定;
利用基准化处理参数对待处理情绪数据进行基准化处理,得到基准化处理后情绪数据。
进一步的,方法还包括:
每个评估人对每个产品进行测试时,在同一测试环境与场景下,分别获取该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频、该评估人对该产品进行测试时的产品测试面部视频;
分别对每段锚定物测试面部视频进行面部表情识别,得到对应的第二情绪值时间序列结果;
分别对每段产品测试面部视频进行面部表情识别,得到对应的第一情绪值时间序列结果。
进一步的,获取待处理情绪数据对应的基准化处理参数为:从基准情绪数据库中获取待处理情绪数据对应的基准化处理参数;其中,基准情绪数据库中存储有多组基准化处理参数,每组基准化处理参数分别对应有一个评估人、一个产品以及一种情绪类型;
从基准情绪数据库中获取待处理情绪数据对应的基准化处理参数包括:
将待处理情绪数据对应的第一情绪值时间序列结果按照情绪类型分为多个第一子情绪值时间序列结果;
根据待处理情绪数据中每个第一子情绪值时间序列结果对应的情绪类型、目标评估人以及目标产品,分别从基准情绪数据库中获取待处理情绪数据中每个第一子情绪值时间序列结果对应的一组基准化处理参数。
进一步的,方法还包括建立基准情绪数据库,建立基准情绪数据库包括:
分别获取每个评估人对每个产品对应的锚定物进行测评时的第二情绪值时间序列结果;
将每个第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果,每个第二子情绪值时间序列结果对应一种情绪类型,每个第二子情绪值时间序列结果包括若干按照时间顺序排列的情绪值;
计算每个第二子情绪值时间序列结果的情绪平均值;
计算每个第二子情绪值时间序列结果的情绪标准差;
将每个第二子情绪值时间序列结果的情绪平均值及情绪标准差作为一组基准化处理参数并进行存储,以建立基准情绪数据库。
进一步的,在将每个第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果后,建立基准情绪数据库还包括:
对每个第二子情绪值时间序列结果进行平滑去噪处理。
进一步的,建立基准情绪数据库还包括:
分别根据每个第二子情绪值时间序列结果的情绪平均值、情绪标准差,计算每个第二子情绪值时间序列结果的离散系数。
进一步的,待处理情绪数据中每个第一子情绪值时间序列结果包括若干按照时间顺序排列的情绪值,利用基准化处理参数对待处理情绪数据进行基准化处理,得到基准化处理后情绪数据包括:
根据预设的基准化处理公式,分别对待处理情绪数据中每个第一子情绪值时间序列结果进行基准化处理,得到对应的基准化情绪值时间序列结果;
其中,预设的基准化处理公式为:其中xi为第一情绪值时间序列结果中第i个情绪值,/>为情绪平均值,sd为情绪标准差。
进一步的,在利用基准化处理参数对待处理情绪数据进行基准化处理之前,方法还包括:
对待处理情绪数据中的每个第一子情绪值时间序列结果进行平滑去噪处理。
本发明还提供一种情绪数据基准化处理装置,装置包括情绪数据获取模块、基准化处理参数获取模块以及基准化处理模块,其中:
情绪数据获取模块,与基准化处理参数获取模块连接,用于获取待处理情绪数据,待处理情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;
基准化处理参数获取模块,与基准化处理模块连接,用于获取待处理情绪数据对应的基准化处理参数,其中,基准化处理参数为根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,目标锚定物根据目标产品的品类及测试类别确定;
基准化处理模块,用于利用基准化处理参数对待处理情绪数据进行基准化处理,得到基准化处理后情绪数据。
本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述的情绪数据基准化处理方法。
本发明提供的一种情绪数据基准化处理方法、装置及计算机可读存储介质,至少具有以下有益效果:
(1)由于进行基准化处理时所采用的基准化处理参数是根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,因而使用基准化处理参数对待处理情绪数据进行基准化处理(以评估人对锚定物的情绪作为基准情绪),能够有效消除评估人个体情绪基准状态本身存在的差异,使涉及不同测试个体、不同测试产品的情绪数据具有可比性,进而使得采用基准化处理后的情绪数据进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,提高分析结果的客观性与准确性。
(2)评估人对每个产品进行评估测试时,在同一测试环境与场景下,分别获取该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频、该评估人对该产品进行测试时的产品测试面部视频。通过在同一测试环境与场景下拍摄的锚定物测试面部视频得到第二情绪值时间序列结果,再使用通过该第二情绪值时间序列结果计算得到的基准化处理参数进行基准化处理,能够消除外部环境与场景对于情绪数据的影响,进一步使得涉及不同测试个体、不同测试产品的情绪数据具有可比性,使得采用基准化处理后的情绪数据进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,能够得到更加客观、准确的分析结果。
附图说明
为了更清楚的说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一种实施例中的情绪数据基准化处理方法流程图一;
图2为本发明又一种实施例中的情绪数据基准化处理方法流程图二;
图3为本发明一种实施例中的测试过程面部视频获取流程示意图;
图4为本发明一种实施例中的基于时间序列的情绪曲线示意图;
图5为本发明又一种实施例中的情绪数据基准化处理方法流程图三;
图6为本发明一种实施例中的基准化处理参数获取流程图;
图7为本发明一种实施例中的基准情绪数据库构建流程图;
图8为本发明一种实施例中的情绪数据基准化处理装置结构示意图。
具体实施方式
下面将结合本发明中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通的技术人员在没有做出创造性劳动的前提下所获得的所有其它实施例,都属于本发明的保护范围。
在本发明的一种实施例中,公开了一种情绪数据基准化处理方法,该方法应用在产品感官测试中,用于对评估人在产品测试时的情绪数据进行基准化处理。
如图1所示,方法包括以下步骤:
步骤S1:获取待处理情绪数据。
待处理情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果,也即需要进行基准化处理的情绪数据。
具体的,第一情绪值时间序列结果是通过对“目标评估人对目标产品进行测试时所拍摄的面部视频”进行面部微表情分析,得到的按照时间顺序排列的情绪值的集合。为了更直观看到评估人在进行测试时的情绪变化,可将离散的情绪值时间序列结果连接并以情绪曲线的形式展示。
更具体的,可以从“目标评估人对目标产品进行测试时所拍摄的面部视频”中提取视频帧(一般情况下提取不少15帧/秒),并对视频帧中的人脸图像采用基于面部动作编码系统(Facial Action Coding System,FACS)的人脸特征点定位算法(如从面部图像中找500个特征点并抽取重要的20个常见的面部微表情动作单元变化),并通过建模分析,输出每一帧人脸图像的面部表情识别结果(情绪值),将每一帧人脸图像的面部表情识别结果按照视频帧的时间顺序排列起来,即可输出该面部视频的情绪值时间序列结果。
步骤S2:获取待处理情绪数据对应的基准化处理参数。
基准化处理参数为根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,目标锚定物根据目标产品的品类及测试类别确定。
其中,第二情绪值时间序列结果的识别获取方法与第一情绪值时间序列结果的识别获取方法相同,同样是对“目标评估人对目标锚定物进行测试时所拍摄的面部视频”进行面部微表情分析得到第二情绪值时间序列结果,本发明在此不再过多赘述。
目标锚定物根据目标产品的品类及测试类别(例如闻香测试、口味测试等)确定,不同品类的产品及不同的测试类别,对应的锚定物的选择不一致。在实际操作中,需要由技术人员根据产品品类及测试类别,选择与之对应的无附加设计的基础产品作为锚定物,譬如日化产品闻香测试以无香纸巾作为锚定物;饮品口味测试则以喝温开水作为锚定物。
步骤S3:利用基准化处理参数对待处理情绪数据进行基准化处理,得到基准化处理后情绪数据。
在产品感官测试中,采用本实施例所提供的情绪数据基准化处理方法,对待处理情绪数据进行基准化处理,由于进行基准化处理时所采用的基准化处理参数是根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,因而使用基准化处理参数对待处理情绪数据进行基准化处理(以评估人对锚定物的情绪作为基准情绪),能够有效消除评估人个体情绪基准状态本身存在的差异,使涉及不同测试个体、不同测试产品的情绪数据具有可比性,进而使得采用基准化处理后的情绪数据进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,提高分析结果的客观性与准确性。
在本发明的又一种实施例中,如图2所示,方法还包括以下步骤:
步骤S4:每个评估人对每个产品进行测试时,在同一测试环境与场景下,分别获取该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频、该评估人对该产品进行测试时的产品测试面部视频。
具体的,本步骤中,拍摄评估人在测评过程的面部视频时,最好采用像素较高的拍摄设备,从而能够获取到更为清晰的评估人的面部视频;此外,需要测评环境光线充足,确保拍摄画面清晰;评估人在测试过程中必须正脸对着摄像头且脸部不能被测试物(产品或锚定物)大面积遮挡,确保视频中的面部面部表情能别识别。
应当可以理解的,在一个测评项目中,会选择多个评估人,让多个评估人分别对同一品类的多个产品进行测试,进而实现产品测评。在一评估人对一产品进行测试中,如图3所示,需要获取两段面部视频,第一段视频即为该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频,第二段视频即为该评估人对该产品进行测试时的产品测试面部视频。
一般情况下为了达到统计学的分析目的,一个测试项目参与测试的消费者(评估人)M建议不少于30个(而参与测试的消费者越多,测试的结果准确度越高);为了确保测试结果的准确度,每个消费者(评估人)在一次测试中的产品N建议不大于10个,最好在5个以内。因此,一个测试项目应该有M×N个待评估对象(M个消费者×N个测试产品),每个评估对象需要获取2段视频:第一段视频为锚定物测试视频,第二段视频为产品测试视频,一共需要获取2(M×N)段视频。
步骤S5:分别对每段锚定物测试面部视频进行面部表情识别,得到对应的第二情绪值时间序列结果;
本步骤中的面部表情识别方法如上所述,本发明在此不再过多赘述。
步骤S6:分别对每段产品测试面部视频进行面部表情识别,得到对应的第一情绪值时间序列结果。
同样的,本步骤中的面部表情识别方法如上所述,本发明在此不再过多赘述。
具体的,如图4所示,为用曲线表示的第一情绪值时间序列结果及第二情绪值时间序列结果。
本实施例中,评估人对每个产品进行评估测试时,在同一测试环境与场景下,分别获取该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频、该评估人对该产品进行测试时的产品测试面部视频。通过在同一测试环境与场景下拍摄的锚定物测试面部视频得到第二情绪值时间序列结果,再使用通过该第二情绪值时间序列结果计算得到的基准化处理参数进行基准化处理,能够消除外部环境与场景对于情绪数据的影响,进一步使得涉及不同测试个体、不同测试产品的情绪数据具有可比性,使得采用基准化处理后的情绪数据进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,能够得到更加客观、准确的分析结果。
在本发明的又一种实施例中,如图5所示,步骤S2获取待处理情绪数据对应的基准化处理参数为:从基准情绪数据库中获取待处理情绪数据对应的基准化处理参数。其中,基准情绪数据库中存储有多组基准化处理参数,每组基准化处理参数分别对应有一个评估人、一个产品以及一种情绪类型。
如图6所示,从基准情绪数据库中获取待处理情绪数据对应的基准化处理参数包括以下步骤:
步骤S21:将待处理情绪数据对应的第一情绪值时间序列结果按照情绪类型分为多个第一子情绪值时间序列结果。
在对面部视频进行面部微表情分析时,每一视频帧中能够识别出至少一种情绪类型对应的情绪值(例如,在嗅觉类产品测试中分为愉悦情绪、好奇情绪、沉浸情绪、负面情绪,具体的情绪类型可以根据所要测试的产品的品类以及面部微表情识别结果进行确定)。本步骤中,按照情绪类型对第一情绪值时间序列结果中每一视频帧识别到的情绪值进行分类,从而得到多个第一子情绪值时间序列结果,每个第一子情绪值时间序列结果均对应有一种情绪类型(具体可参见图4)。
步骤S22:根据待处理情绪数据中每个第一子情绪值时间序列结果对应的情绪类型、目标评估人以及目标产品,分别从基准情绪数据库中获取待处理情绪数据中每个第一子情绪值时间序列结果对应的一组基准化处理参数。
应当可以理解的,基准情绪数据库中存储的每组基准化处理参数分别对应有一个评估人、一个产品以及一种情绪类型。同时待处理情绪数据中每个第一子情绪值时间序列结果也对应一种情绪类型、一个评估人(目标评估人)、一个产品(目标产品),因此根据待处理情绪数据中每个第一子情绪值时间序列结果对应的情绪类型、目标评估人以及目标产品,即能够从基准情绪数据库中获取待处理情绪数据中每个第一子情绪值时间序列结果对应的一组基准化处理参数。
进一步的,在本发明的又一种实施例中,方法还包括建立基准情绪数据库。
具体的,如图7所示,建立基准情绪数据库包括以下步骤:
S71:分别获取每个评估人对每个产品对应的锚定物进行测试时的第二情绪值时间序列结果。
S72:将每个第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果。
其中,每个第二子情绪值时间序列结果对应一种情绪类型,每个第二子情绪值时间序列结果包括若干按照时间顺序排列的情绪值(参见图4)。
S73:计算每个第二子情绪值时间序列结果的情绪平均值。
其中,情绪平均值本式中的t为第二子情绪值时间序列结果中的情绪值总数,本式中的xi为第二子情绪值时间序列结果中的第i个情绪值。
S74:计算每个第二子情绪值时间序列结果的情绪标准差。
情绪标准差其中本式中的t为第二子情绪值时间序列结果中的情绪值总数,本式中的/>为第二子情绪值时间序列结果的情绪平均值。
S75:将每个第二子情绪值时间序列结果的情绪平均值及情绪标准差作为一组基准化处理参数并进行存储,以建立基准情绪数据库。
在本发明的又一种实施例中,在将每个第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果后,建立基准情绪数据库还包括:对每个第二子情绪值时间序列结果进行平滑去噪处理。具体的,可以采用hp滤波方法将每个第二子情绪值时间序列结果进行平滑去噪处理。
平滑去噪处理后,能够剔除其中的异常情绪值。后续在采用平滑去噪处理后的第二子情绪值时间序列结果计算情绪平均值及情绪标准差,结果更加准确。应当理解的,在平滑去噪处理后,中的t指平滑去噪处理后第二子情绪值时间序列结果中的情绪值总数。
进一步的,在本发明的又一种实施例中,建立基准情绪数据库还包括:
分别根据每个第二子情绪值时间序列结果的情绪平均值、情绪标准差,计算每个第二子情绪值时间序列结果的离散系数。
具体的,根据公式离散系数其中/>为第二子情绪值时间序列结果的情绪平均值,sd为第二子情绪值时间序列结果的情绪标准差。
计算离散系数,可以通过离散系数确定第二子情绪值时间序列结果是否异常,若离散系数大于预设阈值,则认定存在异常,后续可以将此数据及其所对应的第一子情绪值时间序列结果剔除和/或让评估人重新测评。
上述实施例中,在获取到测试项目中的每段锚定物测试面部视频对应的第二情绪值时间序列结果以后,分别计算出对应的基准化处理参数以构建基准情绪数据库,后面对待处理情绪数据进行处理时,直接从基准情绪数据库获取相对应的基准化处理参数即可,方便快捷。当然,应当可以理解的,本发明中,也可以不预先统一计算基准化处理参数,在对每个待处理情绪数据进行处理时,获取相对应的第二情绪值时间序列结果进行计算也可以,本发明对此不做限制。
在本发明的又一种实施例中,待处理情绪数据中每个第一子情绪值时间序列结果包括若干按照时间顺序排列的情绪值,利用基准化处理参数对待处理情绪数据进行基准化处理,得到基准化处理后情绪数据包括:
根据预设的基准化处理公式,分别对待处理情绪数据中每个第一子情绪值时间序列结果进行基准化处理,得到对应的基准化情绪值时间序列结果;
其中,预设的基准化处理公式为:其中xi为第一情绪值时间序列结果中第i个情绪值,/>为情绪平均值(对应的基准化处理参数中的情绪平均值),sd为情绪标准差(对应的基准化处理参数中的情绪标准差),Xi为基准化情绪值时间序列结果中的第i个基准化情绪值。
在本发明的又一种实施例中,在利用基准化处理参数对待处理情绪数据进行基准化处理之前,方法还包括:对待处理情绪数据中的每个第一子情绪值时间序列结果进行平滑去噪处理。同样的,本实施例中,可以采用hp滤波方法将每个第一子情绪值时间序列结果进行平滑去噪处理。
本发明还提供一种情绪数据基准化处理装置,如图8所示,装置包括情绪数据获取模块801、基准化处理参数获取模块802以及基准化处理模块803,其中:
情绪数据获取模块801,与基准化处理参数获取模块802连接,用于获取待处理情绪数据,待处理情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;
基准化处理参数获取模块802,与基准化处理模块803连接,用于获取待处理情绪数据对应的基准化处理参数,其中,基准化处理参数为根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,目标锚定物根据目标产品的品类及测试类别确定;
基准化处理模块803,用于利用基准化处理参数对待处理情绪数据进行基准化处理,得到基准化处理后情绪数据。
在产品感官测试中,采用本实施例所提供的情绪数据基准化处理装置,对待处理情绪数据进行基准化处理,由于进行基准化处理时所采用的基准化处理参数是根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,因而使用基准化处理参数对待处理情绪数据进行基准化处理(以评估人对锚定物的情绪作为基准情绪),能够有效消除评估人个体情绪基准状态本身存在的差异,使涉及不同测试个体、不同测试产品的情绪数据具有可比性,进而使得采用基准化处理后的情绪数据进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,提高分析结果的客观性与准确性。
本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述的情绪数据基准化处理方法。
本发明提供的情绪数据基准化处理方法、装置及计算机可读存储介质,由于进行基准化处理时所采用的基准化处理参数是根据目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,因而使用基准化处理参数对待处理情绪数据进行基准化处理(以评估人对锚定物的情绪作为基准情绪),能够有效消除评估人个体情绪基准状态本身存在的差异,使涉及不同测试个体、不同测试产品的情绪数据具有可比性,进而使得采用基准化处理后的情绪数据进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,提高分析结果的客观性与准确性。进一步的,评估人对每个产品进行评估测试时,是在同一测试环境与场景下,分别获取该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频、该评估人对该产品进行测试时的产品测试面部视频。通过在同一测试环境与场景下拍摄的锚定物测试面部视频得到第二情绪值时间序列结果,再使用通过该第二情绪值时间序列结果计算得到的基准化处理参数进行基准化处理,能够消除外部环境与场景对于情绪数据的影响,进一步使得涉及不同测试个体、不同测试产品的情绪数据具有可比性,使得采用基准化处理后的情绪数据进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,能够得到更加客观、准确的分析结果。
本发明说明书中使用的术语和措辞仅仅为了举例说明,并不意味构成限定。本领域技术人员应当理解,在不脱离所公开的实施方式的基本原理的前提下,对上述实施方式中的各细节可进行各种变化。因此,本发明的范围只由权利要求确定,在权利要求中,除非另有说明,所有的术语应按最宽泛合理的意思进行理解。

Claims (10)

1.一种情绪数据基准化处理方法,其特征在于,所述方法包括:
获取待处理情绪数据,所述待处理情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;
获取所述待处理情绪数据对应的基准化处理参数,其中,所述基准化处理参数为根据所述目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,所述目标锚定物根据所述目标产品的品类及测试类别确定;
利用所述基准化处理参数对所述待处理情绪数据进行基准化处理,得到基准化处理后情绪数据。
2.根据权利要求1所述的情绪数据基准化处理方法,其特征在于,所述方法还包括:
在每个评估人对每个产品进行测试时,在同一测试环境与场景下,分别获取该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频、该评估人对该产品进行测试时的产品测试面部视频;
分别对每段锚定物测试面部视频进行面部表情识别,得到对应的第二情绪值时间序列结果;
分别对每段产品测试面部视频进行面部表情识别,得到对应的第一情绪值时间序列结果。
3.根据权利要求1所述的情绪数据基准化处理方法,其特征在于,所述获取所述待处理情绪数据对应的基准化处理参数为:从基准情绪数据库中获取所述待处理情绪数据对应的基准化处理参数;其中,所述基准情绪数据库中存储有多组基准化处理参数,每组基准化处理参数分别对应有一个评估人、一个产品以及一种情绪类型;
所述从基准情绪数据库中获取所述待处理情绪数据对应的基准化处理参数包括:
将所述待处理情绪数据对应的第一情绪值时间序列结果按照情绪类型分为多个第一子情绪值时间序列结果;
根据所述待处理情绪数据中每个第一子情绪值时间序列结果对应的情绪类型、目标评估人以及目标产品,分别从所述基准情绪数据库中获取所述待处理情绪数据中每个第一子情绪值时间序列结果对应的一组基准化处理参数。
4.根据权利要求3所述的情绪数据基准化处理方法,其特征在于,所述方法还包括建立基准情绪数据库,所述建立基准情绪数据库包括:
分别获取每个评估人对每个产品对应的锚定物进行测试时的第二情绪值时间序列结果;
将每个所述第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果,每个第二子情绪值时间序列结果对应一种情绪类型,每个第二子情绪值时间序列结果包括若干按照时间顺序排列的情绪值;
计算每个所述第二子情绪值时间序列结果的情绪平均值;
计算每个所述第二子情绪值时间序列结果的情绪标准差;
将每个所述第二子情绪值时间序列结果的情绪平均值及情绪标准差作为一组基准化处理参数并进行存储,以建立基准情绪数据库。
5.根据权利要求4所述的情绪数据基准化处理方法,其特征在于,在将每个所述第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果后,所述建立基准情绪数据库还包括:
对每个第二子情绪值时间序列结果进行平滑去噪处理。
6.根据权利要求4所述的情绪数据基准化处理方法,其特征在于,所述建立基准情绪数据库还包括:
分别根据每个所述第二子情绪值时间序列结果的情绪平均值、情绪标准差,计算每个所述第二子情绪值时间序列结果的离散系数。
7.根据权利要求4所述的情绪数据基准化处理方法,其特征在于,所述待处理情绪数据中每个第一子情绪值时间序列结果包括若干按照时间顺序排列的情绪值,所述利用所述基准化处理参数对所述待处理情绪数据进行基准化处理,得到基准化处理后情绪数据包括:
根据预设的基准化处理公式,分别对所述待处理情绪数据中每个第一子情绪值时间序列结果进行基准化处理,得到对应的基准化情绪值时间序列结果;
其中,所述预设的基准化处理公式为:其中xi为第一情绪值时间序列结果中第i个情绪值,/>为所述情绪平均值,sd为所述情绪标准差。
8.根据权利要求7所述的情绪数据基准化处理方法,其特征在于,在所述利用所述基准化处理参数对所述待处理情绪数据进行基准化处理之前,所述方法还包括:
对所述待处理情绪数据中的每个第一子情绪值时间序列结果进行平滑去噪处理。
9.一种情绪数据基准化处理装置,其特征在于,所述装置包括情绪数据获取模块、基准化处理参数获取模块以及基准化处理模块,其中:
所述情绪数据获取模块,与所述基准化处理参数获取模块连接,用于获取待处理情绪数据,所述待处理情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;
所述基准化处理参数获取模块,与所述基准化处理模块连接,用于获取所述待处理情绪数据对应的基准化处理参数,其中,所述基准化处理参数为根据所述目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果计算得到,所述目标锚定物根据所述目标产品的品类及测试类别确定;
所述基准化处理模块,用于利用所述基准化处理参数对所述待处理情绪数据进行基准化处理,得到基准化处理后情绪数据。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-8任一项所述的情绪数据基准化处理方法。
CN202211599857.0A 2022-12-14 2022-12-14 情绪数据基准化处理方法、装置及计算机可读存储介质 Pending CN117122320A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211599857.0A CN117122320A (zh) 2022-12-14 2022-12-14 情绪数据基准化处理方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211599857.0A CN117122320A (zh) 2022-12-14 2022-12-14 情绪数据基准化处理方法、装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN117122320A true CN117122320A (zh) 2023-11-28

Family

ID=88855231

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211599857.0A Pending CN117122320A (zh) 2022-12-14 2022-12-14 情绪数据基准化处理方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN117122320A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170083927A1 (en) * 2015-09-22 2017-03-23 Health Care Direct, Inc. d/b/a HCD Research Systems and Methods for Assessing the Marketability of a Product
CN108523906A (zh) * 2018-04-27 2018-09-14 合肥工业大学 基于脉搏特征的人格分析方法和系统、存储介质
CN112493998A (zh) * 2020-12-09 2021-03-16 北京意图科技有限公司 嗅觉感官评估方法和系统
CN113111690A (zh) * 2020-01-13 2021-07-13 北京灵汐科技有限公司 一种人脸表情分析方法和系统及满意度分析方法和系统
CN114065821A (zh) * 2021-11-29 2022-02-18 西安电子科技大学 基于动态阈值的脑电主观情绪识别方法、系统及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170083927A1 (en) * 2015-09-22 2017-03-23 Health Care Direct, Inc. d/b/a HCD Research Systems and Methods for Assessing the Marketability of a Product
CN108523906A (zh) * 2018-04-27 2018-09-14 合肥工业大学 基于脉搏特征的人格分析方法和系统、存储介质
CN113111690A (zh) * 2020-01-13 2021-07-13 北京灵汐科技有限公司 一种人脸表情分析方法和系统及满意度分析方法和系统
CN112493998A (zh) * 2020-12-09 2021-03-16 北京意图科技有限公司 嗅觉感官评估方法和系统
CN114065821A (zh) * 2021-11-29 2022-02-18 西安电子科技大学 基于动态阈值的脑电主观情绪识别方法、系统及存储介质

Similar Documents

Publication Publication Date Title
Fernandes et al. Predicting heart rate variations of deepfake videos using neural ode
CN108509941B (zh) 情绪信息生成方法和装置
US10319130B2 (en) Anonymization of facial images
US9105119B2 (en) Anonymization of facial expressions
JP2019516157A5 (zh)
CN109376696B (zh) 视频动作分类的方法、装置、计算机设备和存储介质
CN108229262B (zh) 一种色情视频检测方法及装置
JP2006079272A (ja) 異常動作検出装置および異常動作検出方法
CN111091109A (zh) 基于人脸图像进行年龄和性别预测的方法、系统和设备
CN110929687B (zh) 一种基于关键点检测的多人行为识别系统及工作方法
JP6670698B2 (ja) 映像認識モデル学習装置、映像認識装置、方法、及びプログラム
CN112597824A (zh) 行为识别方法、装置、电子设备和存储介质
CN109829364A (zh) 一种表情识别方法、装置和推荐方法、装置
CN112990540A (zh) 一种护肤品功效评价与预测系统及方法
Szankin et al. Long distance vital signs monitoring with person identification for smart home solutions
CN112084851A (zh) 手卫生效果检测方法、装置、设备及介质
CN115761881A (zh) 一种基于改进yolov5-SFF的检测方法及系统
CN111259759A (zh) 基于域选择迁移回归的跨数据库微表情识别方法及装置
US20200073877A1 (en) Video cookies
CN114202787A (zh) 一种基于深度学习和二维注意力机制的多帧微表情情感识别方法
CN107818473A (zh) 一种判断忠诚用户的方法及装置
JP2020067720A (ja) 人属性推定システム、それを利用する情報処理装置及び情報処理方法
CN117122320A (zh) 情绪数据基准化处理方法、装置及计算机可读存储介质
Nyman et al. Evaluation of the visual performance of image processing pipes: information value of subjective image attributes
KR102242011B1 (ko) 딥러닝 기반의 축산물 이미지 등급 분류 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination