CN117131099A - 产品测评中的情绪数据分析方法、装置及产品测评方法 - Google Patents

产品测评中的情绪数据分析方法、装置及产品测评方法 Download PDF

Info

Publication number
CN117131099A
CN117131099A CN202211607151.4A CN202211607151A CN117131099A CN 117131099 A CN117131099 A CN 117131099A CN 202211607151 A CN202211607151 A CN 202211607151A CN 117131099 A CN117131099 A CN 117131099A
Authority
CN
China
Prior art keywords
emotion
data
analyzed
product
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211607151.4A
Other languages
English (en)
Inventor
蒋剑豪
蔡胤
李嘉妍
梁玉成
郭颖妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Dihua Zhizhen Technology Co ltd
Original Assignee
Guangzhou Dihua Zhizhen Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Dihua Zhizhen Technology Co ltd filed Critical Guangzhou Dihua Zhizhen Technology Co ltd
Priority to CN202211607151.4A priority Critical patent/CN117131099A/zh
Publication of CN117131099A publication Critical patent/CN117131099A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2462Approximate or statistical queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2474Sequence data queries, e.g. querying versioned data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及一种产品测评中的情绪数据分析方法、装置及产品测评方法,方法包括获取待分析情绪数据;获取待分析情绪数据对应的情绪效应区间的情绪值范围,情绪效应区间包括减弱区间、无显著变化区间以及增强区间;根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间;利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。采用本发明提供的方法、装置,能够得到更多维的情绪效应参数,满足后续对产品客观喜好情况进行评估时的多维度分析需求,进而更加准确的分析出消费者对产品客观喜好情况。

Description

产品测评中的情绪数据分析方法、装置及产品测评方法
技术领域
本发明涉及情绪数据分析技术领域,具体涉及一种产品测评中的情绪数据分析方法、装置及产品测评方法。
背景技术
产品感官测试是通过有代表性的消费者以感官功能对产品的物理属性进行评判,从中寻找令消费者最满意的产品属性,为产品的生产与经营活动提供决策依据。
目前,在进行产品感官测试时,会记录评估人在产品测试过程中的面部视频,通过该视频对评估人在产品测试过程中的面部微表情进行分析,进而结合面部微表情分析结果对产品进行评价。当前市场上主流的面部微表情分析软件都是基于FACS(FACS:FacialAction Coding System,面部动作编码系统)对面部的微观运动进行识别与编码后,取得个体在单个外界刺激下反应的面部情绪时间序列结果(按照时间顺序排列的情绪值的集合),后续再使用该面部情绪时间序列结果计算情绪平均值和情绪标准差(情绪效应参数),以便根据计算得到的情绪平均值和情绪标准差(情绪效应参数)评估消费者对产品的客观喜好情况。
但是单纯的使用评估人在产品测试时的面部情绪时间序列结果进行计算分析,例如现有技术中的单纯使用评估人在产品测试时的面部情绪时间序列结果计算情绪平均值和情绪标准差作为情绪效应参数,所得到的情绪效应参数会比较单一,无法满足后续对产品客观喜好情况进行评估时的多维度分析需求,无法更加准确的分析出消费者对产品的客观喜好情况。
因此,本领域技术人员亟需寻找一种新的在产品测评中的情绪数据分析方案来解决上述的问题。
发明内容
针对上述问题,本发明提供一种产品测评中的情绪数据分析方法、装置及产品测评方法。
本发明提供的产品测评中的情绪数据分析方法,包括:
获取待分析情绪数据,待分析情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;
获取待分析情绪数据对应的情绪效应区间的情绪值范围,情绪效应区间包括减弱区间、无显著变化区间以及增强区间;
根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间;
利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。
进一步的,获取待分析情绪数据对应的情绪效应区间的情绪值范围包括:
获取待分析情绪数据对应的基准情绪数据,根据基准情绪数据确定情绪效应区间的情绪值范围;
其中,基准情绪数据为目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果;
目标评估人对目标锚定物进行测试时所处的测试环境及场景,与目标评估人对目标产品进行测试时所处的测试环境及场景相同;
目标锚定物根据目标产品的品类以及测试类别确定。
进一步的,根据基准情绪数据确定情绪效应区间的情绪值范围包括:
将基准情绪数据对应的第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果,每个第二子情绪值时间序列结果对应一种情绪类型,每个第二子情绪值时间序列结果包括若干按照时间顺序排列的情绪值;
分别计算每种情绪类型对应的第二子情绪值时间序列结果的情绪平均值
分别计算每种情绪类型对应的第二子情绪值时间序列结果的情绪标准差sd;
分别根据每种情绪类型对应的情绪平均值及情绪标准差sd,确定每种情绪类型对应的情绪效应区间的情绪值范围;
其中,无显著变化区间对应的情绪值范围为:减弱区间对应的情绪值范围为/>增强区间对应的情绪值范围为/>
进一步的,确定待分析情绪数据在每个时刻所在的情绪效应区间包括:
将待分析情绪数据对应的第一情绪值时间序列结果按照情绪类型分为多个第一子情绪值时间序列结果;
根据每个第一子情绪值时间序列结果对应的情绪类型,获取每个第一子情绪值时间序列结果对应的情绪效应区间的情绪值范围;
根据每个第一子情绪值时间序列结果对应的情绪效应区间的情绪值范围,分别确定每个第一子情绪值时间序列结果在每个时刻所在的情绪效应区间。
进一步的,情绪效应参数包括情绪强度指数、情绪增强强度指数、情绪减弱强度指数、情绪增强持续时长、情绪减弱持续时长中的一种或多种。
进一步的,计算待分析情绪数据对应的情绪强度指数为:分别计算待分析情绪数据中每种情绪类型的情绪强度指数;
对于一种情绪类型,计算该种情绪类型的情绪强度指数为:
根据公式计算该种情绪类型的情绪强度指数,其中,t1为该种情绪类型对应的第一子情绪值时间序列结果中的情绪值总数,x1i为该种情绪类型对应的第一子情绪值时间序列结果中第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值;
计算待分析情绪数据对应的情绪增强强度指数为:分别计算待分析情绪数据中每种情绪类型的情绪增强强度指数;
对于一种情绪类型,计算该种情绪类型的情绪增强强度指数为:
根据公式计算该种情绪类型的情绪增强强度指数,其中,t2为该种情绪类型对应的第一子情绪值时间序列结果在增强区间的情绪值总数,x2i为该种情绪类型对应的第一子情绪值时间序列结果在增强区间的第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值;
计算待分析情绪数据对应的情绪减弱强度指数为:分别计算待分析情绪数据中每种情绪类型的情绪减弱强度指数;
对于一种情绪类型,计算该种情绪类型的情绪减弱强度指数为:
根据公式计算该种情绪类型的情绪减弱强度指数,其中,t3为该种情绪类型对应的第一子情绪值时间序列结果在减弱区间的情绪值总数,x3i为该种情绪类型对应的第一子情绪值时间序列结果在减弱区间的第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值。
本发明还提供一种产品测评方法,应用在一产品测评项目中,产品测评项目中包括多个需测评的属于同一品类的产品以及多个评估人;
在每个评估人对每个产品进行测试时,获取该评估人对该产品进行测试时的产品测试面部视频;
分别对每段产品测试面部视频进行面部表情识别,得到对应的第一情绪值时间序列结果,将每一第一情绪值时间序列结果依次作为待分析情绪数据,根据上述的产品测评中的情绪数据分析方法,计算得到每一第一情绪值时间序列结果对应的一个或多个情绪效应参数;
利用产品测评项目中全部第一情绪值时间序列结果对应的一个或多个情绪效应参数,对产品测评项目中的产品进行多维度测评分析。
进一步的,情绪效应参数包括情绪强度指数、情绪增强强度指数、情绪减弱强度指数、情绪增强持续时长、情绪减弱持续时长中的一种或多种,多维度测评分析包括:
对于产品测评项目中的每一产品:
分别统计该产品在每一情绪类型下的情绪增强占比、情绪减弱占比;
和/或,分别统计该产品在每一情绪类型下的情绪强度指数均值;
和/或,分别统计该产品在每一情绪类型下的情绪增强强度指数均值及情绪增强持续时长均值;
和/或分别统计该产品在每一情绪类型下的情绪减弱强度指数均值及情绪减弱持续时长均值。
本发明还提供一种产品测评中的情绪数据分析装置,装置包括获取模块、确定模块以及计算模块,其中:
获取模块,与确定模块连接,用于获取待分析情绪数据,待分析情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;获取待分析情绪数据对应的情绪效应区间的情绪值范围,情绪效应区间包括减弱区间、无显著变化区间以及增强区间;
确定模块,与计算模块连接,用于根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间;
计算模块,用于利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。
本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述的情绪数据分析方法。
本发明提供的一种产品测评中的情绪数据分析方法、装置及产品测评方法,至少具有以下有益效果:
(1)在进行情绪数据分析时,获取待分析情绪数据后,还获取待分析情绪数据对应的情绪效应区间的情绪值范围,并根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间。后续利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。相比于单纯的仅使用待分析情绪数据计算情绪效应参数,利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间进行计算,能够得到更加多维的情绪效应参数,可以满足后续对产品的客观喜好情况进行评估时的多维度分析需求,进而更加准确的分析出消费者对产品的客观喜好情况。
(2)本发明在确定待分析情绪数据的情绪效应区间的情绪值范围时,是通过获取待分析情绪数据所对应的基准情绪数据,利用基准情绪数据确定待分析情绪数据的情绪效应区间的情绪值范围,使得每个待分析情绪数据对应的情绪效应区间的情绪值范围更加准确,进而提高后续分析结果的准确性。
附图说明
为了更清楚的说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一种实施例的产品测评中的情绪数据分析方法流程图;
图2为本发明一种实施例的测试过程面部视频获取流程示意图;
图3为本发明一种实施例的情绪值范围确定方法流程图;
图4为本发明一种实施例的情绪效应区间示意图;
图5为图1中步骤S13的方法流程图;
图6为本发明一种实施例的产品测评方法流程图;
图7为本发明一种实施例的各产品情绪增强占比统计示意图;
图8为本发明一种实施例的按城市划分的各产品情绪增强占比统计示意图;
图9为本发明一种实施例的各产品情绪强度指数统计示意图;
图10为本发明一种实施例的按人群划分的各产品情绪强度指数统计示意图;
图11为本发明一种实施例的各产品情绪增强强度指数、情绪增强持续时长统计示意图;
图12为本发明一种实施例的产品测评中的情绪数据分析装置结构示意图。
具体实施方式
下面将结合本发明中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通的技术人员在没有做出创造性劳动的前提下所获得的所有其它实施例,都属于本发明的保护范围。
在本发明的一种实施例中,如图1所示,公开了一种产品测评中的情绪数据分析方法,包括:
步骤S11:获取待分析情绪数据。
其中,待分析情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果。
具体的,第一情绪值时间序列结果是通过对“目标评估人对目标产品进行测试时所拍摄的面部视频”进行面部微表情分析,得到的按照时间顺序排列的情绪值的集合。为了更直观看到评估人在进行测试时的情绪变化,可将离散的情绪值时间序列结果连接并以情绪曲线的形式展示。
更具体的,可以从“目标评估人对目标产品进行测试时所拍摄的面部视频”中提取视频帧(一般情况下提取不少15帧/秒),并对视频帧中的人脸图像采用基于面部动作编码系统(Facial Action Coding System,FACS)的人脸特征点定位算法(如从面部图像中找500个特征点并抽取重要的20个常见的面部微表情动作单元变化),并通过建模分析,输出每一帧人脸图像的面部表情识别结果(情绪值),将每一帧人脸图像的面部表情识别结果按照视频帧的时间顺序排列起来,即可输出该面部视频的情绪值时间序列结果。
应当可以理解的,在一个产品测评项目中,包括多个评估人以及多个需测评的属于同一品类的产品。例如在日化产品闻香测试,包括多个评估人以及多个需测评的具有不同香味的日化产品。测试时,令每一位评估人分别对每一个日化产品进行闻香测试,进而分别得到进行测试时的第一情绪值时间序列结果。后续对情绪数据进行分析时,分别将每一位评估人对每一个日化产品进行测试时的第一情绪值时间序列结果作为待分析情绪数据,依次进行计算分析,获得对应的情绪效应参数。
步骤S12:获取待分析情绪数据对应的情绪效应区间的情绪值范围。
具体的,在本步骤中,情绪效应区间包括减弱区间、无显著变化区间以及增强区间。本步骤中的“获取待分析情绪数据对应的情绪效应区间的情绪值范围”,指分别获取情绪效应区间中的减弱区间、无显著变化区间以及增强区间的情绪值范围。
步骤S13:根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间。
应当可以理解的,待分析情绪数据中的第一情绪值时间序列结果是由多个按照时间顺序排列的情绪值组成的,其中每个情绪值对应一个视频帧。本步骤中的每个时刻即指每个视频帧。确定待分析情绪数据在每个时刻所在的情绪效应区间即确定待分析情绪数据每个视频帧对应的情绪值所在的情绪效应区间。
步骤S14:利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。
本步骤中,由于除了利用待分析情绪数据,还利用了待分析情绪数据在每个时刻所在的情绪效应区间,计算待分析情绪数据对应的一个或多个情绪效应参数,因而能够得到的情绪效应参数更加多维,例如除了情绪平均值、标准差以外,还能够得到目标评估人在对目标产品进行测试时的情绪变化情况,例如情绪增强持续时长,情绪减弱持续时长等参数。
本实施例中提供的产品测评中的情绪数据分析方法,在进行情绪数据分析时,获取待分析情绪数据后,还获取待分析情绪数据对应的情绪效应区间的情绪值范围,并根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间。后续利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。相比于单纯的仅使用待分析情绪数据计算情绪效应参数,利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间进行计算,能够得到更加多维的情绪效应参数,可以满足后续对产品客观喜好情况进行评估时的多维度分析需求,进而更加准确的分析出消费者对产品的客观喜好情况。
在本发明的又一种实施例中,步骤S12中的获取待分析情绪数据对应的情绪效应区间的情绪值范围包括:获取待分析情绪数据对应的基准情绪数据,根据基准情绪数据确定情绪效应区间的情绪值范围。
其中,基准情绪数据为目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果。第二情绪值时间序列结果的识别获取方法与第一情绪值时间序列结果的识别获取方法相同,同样是对“目标评估人对目标锚定物进行测试时所拍摄的面部视频”进行面部微表情分析得到第二情绪值时间序列结果,本发明在此不再过多赘述。
目标锚定物根据目标产品的品类及测试类别(例如闻香测试、口味测试等)确定,不同品类的产品及不同的测试类别,对应的锚定物的选择不一致。在实际操作中,需要由技术人员根据产品品类及测试类别,选择与之对应的无附加设计的基础产品作为锚定物,譬如日化产品闻香测试以无香纸巾作为锚定物;饮品口味测试则以喝温开水作为锚定物。
进一步的,令目标评估人对目标锚定物进行测试时所处的测试环境及场景,与目标评估人对目标产品进行测试时所处的测试环境及场景相同。
也即,在一个产品测评项目中,在一评估人对一产品进行测试时,如图2所示,需要获取两段面部视频,第一段视频即为该评估人对该产品对应的锚定物进行测试时的锚定物测试面部视频,第二段视频即为该评估人对该产品进行测试时的产品测试面部视频。一般情况下为了达到统计学的分析目的,一个产品测评项目参与测试的消费者(评估人)M建议不少于30个(而参与测试的消费者越多,测试的结果准确度越高);为了确保测试结果的准确度,每个消费者(评估人)在一次测试中的产品N建议不大于10个,最好在5个以内。因此,一个测试项目应该有M×N个待评估对象(M个消费者×N个测试产品),每个评估对象需要获取2段视频:第一段视频为锚定物测试视频,第二段视频为产品测试视频,一共需要获取2(M×N)段视频。后续即可分别对产品测试视频、锚定物测试视频进行面部表情识别,得到对应的第一情绪值时间序列结果、第二情绪值时间序列结果。也即对于每一个第一情绪值时间序列结果,都具有唯一一个与之对应的第二情绪值时间序列结果。
由于不同评估人的情绪基准状态本身存在差异,对于同一评估人而言,在不同测试环境与场景下同样的外部刺激产生的情绪状态也会存在差异。本实施例中,根据待分析情绪数据所对应的基准情绪数据,确定待分析情绪数据的情绪效应区间的情绪值范围,使得每个待分析情绪数据对应的情绪效应区间的情绪值范围更加准确,进而提高后续分析结果的准确性。
在本发明的又一种实施例中,如图3所示,根据基准情绪数据确定情绪效应区间的情绪值范围包括:
步骤S121:将基准情绪数据对应的第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果。
其中,每个第二子情绪值时间序列结果对应一种情绪类型,每个第二子情绪值时间序列结果包括若干按照时间顺序排列的情绪值。
在对锚定物测试面部视频进行面部微表情分析时,每一视频帧中能够识别出至少一种情绪类型对应的情绪值(例如,在嗅觉类产品测试中分为愉悦情绪、好奇情绪、沉浸情绪、负面情绪,具体的情绪类型可以根据所要测试的产品的品类以及面部微表情识别结果进行确定)。本步骤中,按照情绪类型对第二情绪值时间序列结果中每一视频帧识别到的情绪值进行分类,从而得到多个第二子情绪值时间序列结果,每个第二子情绪值时间序列结果均对应有一种情绪类型。
步骤S122:分别计算每种情绪类型对应的第二子情绪值时间序列结果的情绪平均值
应当可以理解的,第二子情绪值时间序列结果包括若干按照时间顺序排列的情绪值,直接计算其平均值即可。
步骤S123:分别计算每种情绪类型对应的第二子情绪值时间序列结果的情绪标准差sd;
步骤S124:分别根据每种情绪类型对应的情绪平均值及情绪标准差sd,确定每种情绪类型对应的情绪效应区间的情绪值范围;
其中,如图4所示,无显著变化区间对应的情绪值范围为:减弱区间对应的情绪值范围为/>增强区间对应的情绪值范围为/>
也即,产品测试时的情绪值若在情绪平均值的3个标准差的范围 内,则认为未因产品感官刺激而出现情绪失控情况。否则,认为是因产品感官刺激而出现“失控”情况(情绪增强、情绪减弱)。根据“失控”情况的程度与持续时长(即出现的视频帧数)则可得出产品测试的情绪效应的相关数据。
在本发明的又一种实施例中,如图5所示,确定待分析情绪数据在每个时刻所在的情绪效应区间包括:
步骤S131:将待分析情绪数据对应的第一情绪值时间序列结果按照情绪类型分为多个第一子情绪值时间序列结果。
同样的,在对产品测试面部视频进行面部微表情分析时,每一视频帧中能够识别出至少一种情绪类型对应的情绪值(例如,在嗅觉类产品测试中分为愉悦情绪、好奇情绪、沉浸情绪、负面情绪,具体的情绪类型可以根据所要测试的产品的品类以及面部微表情识别结果进行确定)。本步骤中,按照情绪类型对第一情绪值时间序列结果中每一视频帧识别到的情绪值进行分类,从而得到多个第一子情绪值时间序列结果,每个第一子情绪值时间序列结果均对应有一种情绪类型。
步骤S132:根据每个第一子情绪值时间序列结果对应的情绪类型,获取每个第一子情绪值时间序列结果对应的情绪效应区间的情绪值范围。
在步骤S121-S124中,已经确定出了待分析情绪数据每种情绪类型对应的情绪效应区间的情绪值范围。因此本步骤中,可以直接根据待分析情绪数据中每个第一子情绪值时间序列结果对应的情绪类型,获取待分析情绪数据中每个第一子情绪值时间序列结果对应的情绪效应区间的情绪值范围。
步骤S133:根据每个第一子情绪值时间序列结果对应的情绪效应区间的情绪值范围,分别确定每个第一子情绪值时间序列结果在每个时刻所在的情绪效应区间。
应当可以理解的,本步骤中的每个时刻指每个视频帧,确定每个第一子情绪值时间序列结果在每个时刻所在的情绪效应区间也即确定每个第一子情绪值时间序列结果中每个视频帧对应的情绪值所在的情绪效应区间。
进一步的,在上述实施例的基础之上,在本发明的又一种实施例中,情绪效应参数包括情绪强度指数、情绪增强强度指数、情绪减弱强度指数、情绪增强持续时长、情绪减弱持续时长中的一种或多种。
其中,情绪强度指数是指针对待分析情绪数据在某情绪类型(愉悦情绪、好奇情绪、沉浸情绪、负面情绪等)下的第一子情绪值时间序列结果与所对应的第二子情绪值时间序列结果的对比获得的指数化结果。
情绪增强/减弱强度指数是指针对待分析情绪数据在某情绪类型下的第一子情绪值时间序列结果在增强/减弱效应区间与所对应的第二子情绪值时间序列结果的对比获得的指数化结果。
情绪增强减弱持续时长是指针对待分析情绪数据在某情绪类型下的第一子情绪值时间序列结果在增强/减弱效应区间的所持续的时长。具体的,可以设定每第一子情绪值时间序列结果的总时长均为1,根据第一子情绪值时间序列结果在增强/减弱效应区间对应的视频帧的帧数确定持续时长。
在产品测试中,可以根据产品测评项目的测试需求确定所计算的具体的情绪效应参数,以便满足多维度分析需求。例如,可以结合产品测评项目测试的产品品类、对象物、对象物所处的状态、测试环境、场景等不同因素以及项目测试的目的,构建不同维度的分析指标体系,确定所需的具体的情绪效应参数,从而进行进一步分析。
在本发明的又一种实施例中,计算待分析情绪数据对应的情绪强度指数为:分别计算待分析情绪数据中每种情绪类型的情绪强度指数;
对于一种情绪类型,计算该种情绪类型的情绪强度指数为:
根据公式计算该种情绪类型的情绪强度指数,其中,t1为该种情绪类型对应的第一子情绪值时间序列结果中的情绪值总数,x1i为该种情绪类型对应的第一子情绪值时间序列结果中第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值。
计算待分析情绪数据对应的情绪增强强度指数为:分别计算待分析情绪数据中每种情绪类型的情绪增强强度指数。
对于一种情绪类型,计算该种情绪类型的情绪增强强度指数为:
根据公式计算该种情绪类型的情绪增强强度指数,其中,t2为该种情绪类型对应的第一子情绪值时间序列结果在增强区间的情绪值总数,x2i为该种情绪类型对应的第一子情绪值时间序列结果在增强区间的第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值。
计算待分析情绪数据对应的情绪减弱强度指数为:分别计算待分析情绪数据中每种情绪类型的情绪减弱强度指数。
对于一种情绪类型,计算该种情绪类型的情绪减弱强度指数为:
根据公式计算该种情绪类型的情绪减弱强度指数,其中,t3为该种情绪类型对应的第一子情绪值时间序列结果在减弱区间的情绪值总数,x3i为该种情绪类型对应的第一子情绪值时间序列结果在减弱区间的第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值。
本实施例中,计算情绪强度指数、情绪增强强度指数、情绪减弱强度指数,均使用了待分析情绪数据所对应的基准情绪数据,利用基准情绪数据进行处理计算,能够有效消除评估人个体情绪基准状态本身存在的差异,使涉及不同测试个体、不同测试产品的情绪效应参数具有可比性。并且,该基准情绪数据为目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果,且目标评估人对目标锚定物进行测试时所处的测试环境及场景,与目标评估人对目标产品进行测试时所处的测试环境及场景相同,因此,能够消除外部环境与场景对于情绪效应参数的影响,进一步使得涉及不同测试个体、不同测试产品的情绪效应参数更加具有可比性,使得进行涉及不同测试个体、不同测试产品之间的比较与统计分析时,能够得到更加客观、准确的分析结果。
本发明还提供一种产品测评方法,应用在一产品测评项目中,产品测评项目中包括多个需测评的属于同一品类的产品以及多个评估人;
如图6所示,产品测评方法包括以下步骤:
步骤S21:在每个评估人对每个产品进行测试时,获取该评估人对该产品进行测试时的产品测试面部视频;
步骤S22:分别对每段产品测试面部视频进行面部表情识别,得到对应的第一情绪值时间序列结果,将每一第一情绪值时间序列结果依次作为待分析情绪数据,根据上述的产品测评中的情绪数据分析方法,计算得到每一第一情绪值时间序列结果对应的一个或多个情绪效应参数;
步骤S23:利用产品测评项目中全部第一情绪值时间序列结果对应的一个或多个情绪效应参数,对产品测评项目中的产品进行多维度测评分析。
进一步的,在本发明的又一种实施例中,情绪效应参数包括情绪强度指数、情绪增强强度指数、情绪减弱强度指数、情绪增强持续时长、情绪减弱持续时长中的一种或多种,多维度测评分析包括:
对于产品测评项目中的每一产品:
分别统计该产品在每一情绪类型下的情绪增强占比、情绪减弱占比。
具体的,情绪增强占比、情绪减弱占比,是针对某个评价的产品(即产品测评项目中全部测试产品中的一个)在每一情绪类型(愉悦情绪、好奇情绪、沉浸情绪、负面情绪等)下的增强/减弱的人数占比。
例如:若产品测评项目中有100个评估人。在测试某一产品时,中有20人出现有愉悦情绪增强效应,40人出现负面情绪增强效应,则这个产品愉悦情绪增强占比为20%,负面情绪增强占比为40%。如图7所示,为一个日化产品闻香测试的产品测评项目中各产品情绪增强占比统计示意图。从图7中可以看出,愉悦情绪增强占比普遍在15%左右,其中产品E5在闻香测试中愉悦情绪增强占比相对较高,即有较多人出现愉悦情绪增强;好奇情绪的增强占比较高,显示消费者对于产品普遍有较高的好奇情绪,其中产品B2的占比相对较高;负面情绪的增强效应较高,其中产品D4负面情绪增强占比相对较低,从图7中可以看出,产品E5、B2、D4在闻香测试中的负面增强冲击相对较低。
进一步的,如图8所示,还可以根据测试需要,划分评估人所在城市,分别统计不同城市下,产品测评项目中每一产品分别在每一情绪类型下所对应的情绪增强占比。其中,City1与City2的愉悦情绪增强占比存在显著区别,City2愉悦情绪增强占比明显高于City1,而负面情绪增强占比则City2略低于City1,但差距并不显著;从情绪增强效应结果看,产品D4、E5落在愉悦情绪增强占比高,负面情绪增强占比低,说明有较多消费者喜欢这些产品。
和/或,分别统计该产品在每一情绪类型下的情绪强度指数均值。
具体的,若步骤S23中实际计算的情绪效应参数包括情绪强度指数,则在本步骤中,可以统计产品测评项目中每个评估人对该产品在每一情绪类型下的情绪强度指数,进而计算该产品在每一情绪类型下的情绪强度指数的平均值(全部评估人测评该产品时在每一情绪类型下的情绪强度指数的平均值)并进行可视化展示(例如图9),以便后续对产品测评项目中的全部产品在每一情绪类型下的情绪强度指数均值进行统计比较分析。如图9所示,图9为日化产品闻香测试中的情绪强度指数统计,其中锚定物也即无香纸巾的各情绪类型的情绪强度指数为1。测试产品的愉悦情绪强度指数均低于1,其中产品E5的强度指数相对较高;好奇情绪则呈明显的增强效应,情绪强度指数普遍在2-3之间;其中B2的强度指数相对较高;负面情绪以增强效应为主,其中D4负面情绪强度指数相对较低。
此外,还可以根据实际的需求,将产品测评项目中的评估人按照人群类型划分,统计每类人群对该产品在每一情绪类型下的情绪强度指数(如图10所示)。
其中,图10中,新手父母人群愉悦情绪强度指数略低于其他2类人群,负面情绪强度指数略低于运动达人人群,高于时尚先锋人群,其中产品E5愉悦情绪强度指数相对较高;时尚先锋人群的负面情绪强度指数低于其他2类人群,其中产品D4的负面情绪强度指数较低,E5愉悦强度指数较高;运动达人人群的负面情绪强度指数是3类人群中最高的。
和/或,分别统计该产品在每一情绪类型下的情绪增强强度指数均值及情绪增强持续时长均值;
同理,若步骤S23中实际计算的情绪效应参数包括情绪增强强度指数、情绪增强持续时长,则在本步骤中,可以进一步的统计全部评估人测评该产品时在每一情绪类型下的情绪增强强度指数、情绪增强持续时长,从而计算对应的均值并进行可视化展示(如图11所示)。从图11中可以看出,产品B2愉悦情绪增强强度指数较高且持续的时长较长,产品D4负面情绪增强强度指数较低且持续时长较低。
和/或分别统计该产品在每一情绪类型下的情绪减弱强度指数均值及情绪减弱持续时长均值。
情绪减弱强度指数均值及情绪减弱持续时长均值与情绪增强强度指数均值及情绪增强持续时长均值同理,本发明在此不再过多赘述。
本发明还提供一种产品测评中的情绪数据分析装置,如图12所示,装置包括获取模块101、确定模块102以及计算模块103,其中:
获取模块101,与确定模块102连接,用于获取待分析情绪数据,待分析情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;获取待分析情绪数据对应的情绪效应区间的情绪值范围,情绪效应区间包括减弱区间、无显著变化区间以及增强区间;
确定模块102,与计算模块103连接,用于根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间;
计算模块103,用于利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。
本实施例提供的产品测评中的情绪数据分析装置,在进行情绪数据分析时,获取待分析情绪数据后,还获取待分析情绪数据对应的情绪效应区间的情绪值范围,并根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间。后续利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。相比于单纯的仅使用待分析情绪数据计算情绪效应参数,利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间进行计算,能够得到更加多维的情绪效应参数,可以满足后续对产品客观喜好情况进行评估时的多维度分析需求,进而更加准确的分析出消费者对产品的客观喜好情况。
本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述的情绪数据分析方法。
本发明提供的产品测评中的情绪数据分析方法、装置、产品测评方法及计算机存储介质,在进行情绪数据分析时,获取待分析情绪数据后,还获取待分析情绪数据对应的情绪效应区间的情绪值范围,并根据待分析情绪数据对应的情绪效应区间的情绪值范围,确定待分析情绪数据在每个时刻所在的情绪效应区间。后续利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到待分析情绪数据对应的一个或多个情绪效应参数。相比于单纯的仅使用待分析情绪数据计算情绪效应参数,利用待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间进行计算,能够得到更加多维的情绪效应参数,可以满足后续对产品的客观喜好情况进行评估时的多维度分析需求,进而更加准确的分析出消费者对产品的客观喜好情况。
此外,在确定待分析情绪数据的情绪效应区间的情绪值范围时,本发明是通过获取待分析情绪数据所对应的基准情绪数据,利用基准情绪数据确定待分析情绪数据的情绪效应区间的情绪值范围,使得每个待分析情绪数据对应的情绪效应区间的情绪值范围更加准确,进而提高后续分析结果的准确性。
本发明说明书中使用的术语和措辞仅仅为了举例说明,并不意味构成限定。本领域技术人员应当理解,在不脱离所公开的实施方式的基本原理的前提下,对上述实施方式中的各细节可进行各种变化。因此,本发明的范围只由权利要求确定,在权利要求中,除非另有说明,所有的术语应按最宽泛合理的意思进行理解。

Claims (10)

1.一种产品测评中的情绪数据分析方法,其特征在于,所述方法包括:
获取待分析情绪数据,所述待分析情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;
获取所述待分析情绪数据对应的情绪效应区间的情绪值范围,所述情绪效应区间包括减弱区间、无显著变化区间以及增强区间;
根据所述待分析情绪数据对应的情绪效应区间的情绪值范围,确定所述待分析情绪数据在每个时刻所在的情绪效应区间;
利用所述待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到所述待分析情绪数据对应的一个或多个情绪效应参数。
2.根据权利要求1所述的产品测评中的情绪数据分析方法,其特征在于,所述获取所述待分析情绪数据对应的情绪效应区间的情绪值范围包括:
获取所述待分析情绪数据对应的基准情绪数据,根据所述基准情绪数据确定情绪效应区间的情绪值范围;
其中,所述基准情绪数据为目标评估人对目标锚定物进行测试时的第二情绪值时间序列结果;
所述目标评估人对目标锚定物进行测试时所处的测试环境及场景,与所述目标评估人对目标产品进行测试时所处的测试环境及场景相同;
所述目标锚定物根据所述目标产品的品类以及测试类别确定。
3.根据权利要求2所述的产品测评中的情绪数据分析方法,其特征在于,所述根据所述基准情绪数据确定情绪效应区间的情绪值范围包括:
将所述基准情绪数据对应的第二情绪值时间序列结果按照情绪类型分为多个第二子情绪值时间序列结果,每个第二子情绪值时间序列结果对应一种情绪类型,每个第二子情绪值时间序列结果包括若干按照时间顺序排列的情绪值;
分别计算每种情绪类型对应的第二子情绪值时间序列结果的情绪平均值
分别计算每种情绪类型对应的第二子情绪值时间序列结果的情绪标准差sd;
分别根据每种情绪类型对应的情绪平均值及情绪标准差sd,确定每种情绪类型对应的情绪效应区间的情绪值范围;
其中,所述无显著变化区间对应的情绪值范围为:所述减弱区间对应的情绪值范围为/>增强区间对应的情绪值范围为
4.根据权利要求3所述的产品测评中的情绪数据分析方法,其特征在于,所述确定所述待分析情绪数据在每个时刻所在的情绪效应区间包括:
将所述待分析情绪数据对应的第一情绪值时间序列结果按照情绪类型分为多个第一子情绪值时间序列结果;
根据每个第一子情绪值时间序列结果对应的情绪类型,获取每个第一子情绪值时间序列结果对应的情绪效应区间的情绪值范围;
根据每个第一子情绪值时间序列结果对应的情绪效应区间的情绪值范围,分别确定每个第一子情绪值时间序列结果在每个时刻所在的情绪效应区间。
5.根据权利要求4所述的产品测评中的情绪数据分析方法,其特征在于,所述情绪效应参数包括情绪强度指数、情绪增强强度指数、情绪减弱强度指数、情绪增强持续时长、情绪减弱持续时长中的一种或多种。
6.根据权利要求5所述的产品测评中的情绪数据分析方法,其特征在于,计算所述待分析情绪数据对应的情绪强度指数为:分别计算所述待分析情绪数据中每种情绪类型的情绪强度指数;
对于一种情绪类型,计算该种情绪类型的情绪强度指数为:
根据公式计算该种情绪类型的情绪强度指数,其中,t1为该种情绪类型对应的第一子情绪值时间序列结果中的情绪值总数,x1i为该种情绪类型对应的第一子情绪值时间序列结果中第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值;
计算所述待分析情绪数据对应的情绪增强强度指数为:分别计算所述待分析情绪数据中每种情绪类型的情绪增强强度指数;
对于一种情绪类型,计算该种情绪类型的情绪增强强度指数为:
根据公式计算该种情绪类型的情绪增强强度指数,其中,t2为该种情绪类型对应的第一子情绪值时间序列结果在增强区间的情绪值总数,x2i为该种情绪类型对应的第一子情绪值时间序列结果在增强区间的第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值;
计算所述待分析情绪数据对应的情绪减弱强度指数为:分别计算所述待分析情绪数据中每种情绪类型的情绪减弱强度指数;
对于一种情绪类型,计算该种情绪类型的情绪减弱强度指数为:
根据公式计算该种情绪类型的情绪减弱强度指数,其中,t3为该种情绪类型对应的第一子情绪值时间序列结果在减弱区间的情绪值总数,x3i为该种情绪类型对应的第一子情绪值时间序列结果在减弱区间的第i个情绪值,/>为该种情绪类型对应的第二子情绪值时间序列结果的情绪平均值。
7.一种产品测评方法,其特征在于,应用在一产品测评项目中,所述产品测评项目中包括多个需测评的属于同一品类的产品以及多个评估人;
在每个评估人对每个产品进行测试时,获取该评估人对该产品进行测试时的产品测试面部视频;
分别对每段产品测试面部视频进行面部表情识别,得到对应的第一情绪值时间序列结果,将每一第一情绪值时间序列结果依次作为待分析情绪数据,根据如权利要求1-6任一项所述的产品测评中的情绪数据分析方法,计算得到每一第一情绪值时间序列结果对应的一个或多个情绪效应参数;
利用所述产品测评项目中全部第一情绪值时间序列结果对应的一个或多个情绪效应参数,对所述产品测评项目中的产品进行多维度测评分析。
8.根据权利要求7所述的产品测评方法,其特征在于,所述情绪效应参数包括情绪强度指数、情绪增强强度指数、情绪减弱强度指数、情绪增强持续时长、情绪减弱持续时长中的一种或多种,所述多维度测评分析包括:
对于所述产品测评项目中的每一产品:
分别统计该产品在每一情绪类型下的情绪增强占比、情绪减弱占比;
和/或,分别统计该产品在每一情绪类型下的情绪强度指数均值;
和/或,分别统计该产品在每一情绪类型下的情绪增强强度指数均值及情绪增强持续时长均值;
和/或分别统计该产品在每一情绪类型下的情绪减弱强度指数均值及情绪减弱持续时长均值。
9.一种产品测评中的情绪数据分析装置,其特征在于,所述装置包括获取模块、确定模块以及计算模块,其中:
所述获取模块,与所述确定模块连接,用于获取待分析情绪数据,所述待分析情绪数据为目标评估人对目标产品进行测试时的第一情绪值时间序列结果;获取所述待分析情绪数据对应的情绪效应区间的情绪值范围,所述情绪效应区间包括减弱区间、无显著变化区间以及增强区间;
所述确定模块,与所述计算模块连接,用于根据所述待分析情绪数据对应的情绪效应区间的情绪值范围,确定所述待分析情绪数据在每个时刻所在的情绪效应区间;
所述计算模块,用于利用所述待分析情绪数据、待分析情绪数据在每个时刻所在的情绪效应区间,计算得到所述待分析情绪数据对应的一个或多个情绪效应参数。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-6任一项所述的情绪数据分析方法。
CN202211607151.4A 2022-12-14 2022-12-14 产品测评中的情绪数据分析方法、装置及产品测评方法 Pending CN117131099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211607151.4A CN117131099A (zh) 2022-12-14 2022-12-14 产品测评中的情绪数据分析方法、装置及产品测评方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211607151.4A CN117131099A (zh) 2022-12-14 2022-12-14 产品测评中的情绪数据分析方法、装置及产品测评方法

Publications (1)

Publication Number Publication Date
CN117131099A true CN117131099A (zh) 2023-11-28

Family

ID=88861588

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211607151.4A Pending CN117131099A (zh) 2022-12-14 2022-12-14 产品测评中的情绪数据分析方法、装置及产品测评方法

Country Status (1)

Country Link
CN (1) CN117131099A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170311863A1 (en) * 2015-02-13 2017-11-02 Omron Corporation Emotion estimation device and emotion estimation method
CN109168052A (zh) * 2018-10-31 2019-01-08 杭州比智科技有限公司 服务满意度的确定方法、装置及计算设备
CN109730701A (zh) * 2019-01-03 2019-05-10 中国电子科技集团公司电子科学研究院 一种情绪数据的获取方法及装置
CN109766770A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 服务质量评价方法、装置、计算机设备和存储介质
CN112036328A (zh) * 2020-09-02 2020-12-04 中国银行股份有限公司 银行客户满意度计算方法及装置
CN113111690A (zh) * 2020-01-13 2021-07-13 北京灵汐科技有限公司 一种人脸表情分析方法和系统及满意度分析方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170311863A1 (en) * 2015-02-13 2017-11-02 Omron Corporation Emotion estimation device and emotion estimation method
CN109168052A (zh) * 2018-10-31 2019-01-08 杭州比智科技有限公司 服务满意度的确定方法、装置及计算设备
CN109766770A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 服务质量评价方法、装置、计算机设备和存储介质
CN109730701A (zh) * 2019-01-03 2019-05-10 中国电子科技集团公司电子科学研究院 一种情绪数据的获取方法及装置
CN113111690A (zh) * 2020-01-13 2021-07-13 北京灵汐科技有限公司 一种人脸表情分析方法和系统及满意度分析方法和系统
CN112036328A (zh) * 2020-09-02 2020-12-04 中国银行股份有限公司 银行客户满意度计算方法及装置

Similar Documents

Publication Publication Date Title
Dupré et al. A performance comparison of eight commercially available automatic classifiers for facial affect recognition
US8433612B1 (en) Method and system for measuring packaging effectiveness using video-based analysis of in-store shopper response
US8793715B1 (en) Identifying key media events and modeling causal relationships between key events and reported feelings
Isola et al. What makes an image memorable?
CN110036402A (zh) 用于媒体内容表现的预测的数据处理方法
US10755163B1 (en) Prospective media content generation using neural network modeling
Guo et al. Assessment model for perceived visual complexity of painting images
KR101827345B1 (ko) 다중 알고리즘 및 자기학습기능을 적용한 개인화 추천 시스템 및 추천 방법
US11481791B2 (en) Method and apparatus for immediate prediction of performance of media content
JP2004529406A5 (zh)
WO2010125915A1 (ja) 年齢推定装置及び方法並びにプログラム
CN111724235A (zh) 一种基于用户新奇度的在线商品推荐方法
CN108881985A (zh) 基于脑电情绪识别的节目评分系统
CN116861076A (zh) 基于用户流行度偏好的序列推荐方法及装置
Yan et al. Estimating individualized daily self-reported affect with wearable sensors
CN109101883B (zh) 一种抑郁倾向评价装置及系统
CN112036328A (zh) 银行客户满意度计算方法及装置
CN117131099A (zh) 产品测评中的情绪数据分析方法、装置及产品测评方法
CN112396114A (zh) 一种测评系统、测评方法及相关产品
US20220172023A1 (en) A system and method for measuring non-stationary brain signals
EP3675001A1 (en) A computer implemented method, a system and computer program for determining optimal behavior path for a user
CN117122320A (zh) 情绪数据基准化处理方法、装置及计算机可读存储介质
JP2020077329A (ja) 計算装置及びコンピュータプログラム
Lin et al. Further tests of sequence-sensitive models in a modified garner task using separable dimensions.
WO2023181244A1 (ja) モデル分析装置、モデル分析方法、及び、記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40099849

Country of ref document: HK