CN103489453B - 基于声学参数的产品情感量化方法 - Google Patents
基于声学参数的产品情感量化方法 Download PDFInfo
- Publication number
- CN103489453B CN103489453B CN201310267748.3A CN201310267748A CN103489453B CN 103489453 B CN103489453 B CN 103489453B CN 201310267748 A CN201310267748 A CN 201310267748A CN 103489453 B CN103489453 B CN 103489453B
- Authority
- CN
- China
- Prior art keywords
- product
- matrix
- acoustic
- emotion
- interviewee
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013139 quantization Methods 0.000 title claims abstract description 13
- 230000000638 stimulation Effects 0.000 claims abstract description 46
- 239000011159 matrix material Substances 0.000 claims abstract description 39
- 230000003993 interaction Effects 0.000 claims abstract description 4
- 238000011002 quantification Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000013461 design Methods 0.000 abstract description 18
- 230000008569 process Effects 0.000 abstract description 6
- 238000013519 translation Methods 0.000 abstract description 2
- 239000000047 product Substances 0.000 description 62
- 238000002474 experimental method Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 5
- 239000006227 byproduct Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 230000001149 cognitive effect Effects 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 238000000540 analysis of variance Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010562 histological examination Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000221696 Sclerotinia sclerotiorum Species 0.000 description 1
- 230000000692 anti-sense effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013401 experimental design Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000008786 sensory perception of smell Effects 0.000 description 1
- 230000014860 sensory perception of taste Effects 0.000 description 1
- 230000036548 skin texture Effects 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种基于声学参数的产品情感量化方法,属于产品设计评估技术领域,本发明的主要特点是目标产品样本的情感价值被定义为矩阵<i>VAP</i>,矩阵<i>VAP</i>是被访者们的选择频率矩阵<i>F</i>和声学刺激参数矩阵<i>P</i>的乘积,通过被访者建立声学刺激所诱发的情感和产品互动所诱发的情感之间的关联性来达到目的,用更为简单直觉的关联性的任务降低了访者们的任务负荷,建立关联性往往借助潜意识就可达成,而且,凭直觉获得的信息更能如实反映被访者的真实内心感受,本发明相比较用语义词汇作为产品情感衡量尺度的方法而言,用非语言的声学刺激作为衡量尺度,提供了一个更为直觉的量化方法,避免了词汇在跨文化翻译过程中的失误,也拓宽了调查对象的范围,比如,不识字的儿童或者有视觉困扰的人。
Description
技术领域
本发明涉及一种基于声学参数的产品情感量化方法,即产品与用户在互动过程中所诱发的情感反馈的量化方法,主要适用于产品的市场调研,产品设计战略的决策,用户满意度测评等,属于产品设计评估技术领域。
背景技术
随着科技和经济的迅速发展,产品设计也随之转变。一个成功的产品不再仅仅取决于技术、功能、价格等相关因素,也越来越多地受到诸如美学的、情感的以及其他一些体验方面因素的影响。产品价值已经从最初的“能用”,发展到“好用”,并进入到“喜欢用”的阶段。产品不应该是一个冰冷、无生命的物品,而要成为一个真正的活物,充满生命力,不断增强的产品交互功能使得产品与人产生感情。于是,越来越多的企业意识到要在市场竞争中获胜,在赢得消费者头脑的同时更要赢得他们的心,因为市场上不乏饱和的竞争者,到处充斥着类似的产品以供选择。为了最大限度的扩大潜在市场,企业必须满足用户潜在的情感需求以创造一个购买力增长的可能性。在这种环境下,“情感”在产品设计中起到越来越重要的作用。
在用户体验中,由产品所诱发的情感是切切实实存在的,且这些情感反馈成为用户评判产品优劣最敏锐的区分器。情感是一种有意识的内心状态,涵盖了人与刺激物之间的关系,在人类认知新事物的过程中扮演了至关重要的角色。要掌握诸如产品情感这样的概念是有难度的,主要有三方面原因:1)情感是无形的,这使得情感充满神秘感和吸引力;情感又是主观的,这使得情感的量化和理解存在不可避免的屏障;且至今为止,对于情感的定义以及分类还未有统一说法(Plutchik,2001);2)对同一个产品的认知而言,设计师和用户之间不可避免地存在一定的差异,设计师编码在产品中试图传达的信息与用户自己解码获得的信息是不完全对等的(Shangetal.,2000);3)由产品诱发的情感是很微妙的,且通常由多种情感交杂在一起,用户不容易察觉也难于用语言准确表达(Desmet,2000)。因此,为了更好的开发产品,设计师必须理解用户需求的多元化、多样性,理解用户的行为并预测用户的心理需求,准确把握产品的发展趋势。
如何理解和掌握用户因产品引发的情感吸引了很多研究者的兴趣,一些相关技术先后被开发,大致有定性和定量两种途径。相比较定性的描述,产品设计要素和用户主观评价之间的定量数据能为产品设计师和管理者在制定设计策略的时候提供更为精确的信息。针对产品情感的定量描述,目前主要有两大类的方法:生理测量法和自我陈述法。
生理测量法是借助特殊的实验仪器,直接测量人体生理指数的变化以达到产品情感定量的方法,诸如脑电图(EEG)、肌电图(EMG)、心电图(ECG)、功能性磁共振成像(FMRI)等。尽管这些方法很直观,但有些局限性是不可避免的:1)这些方法都需要固定的场地和相关仪器组织实验,对于受访者们具有一定侵入性,整个实验的过程也没有任何丝毫的趣味和享受可言;2)由产品诱发的情感都是很微妙的,能引起生理指数的变化也很微弱,因而测量有难度;3)这些数据只能反映受访者们情绪变化的程度,却不能解释情绪变化的内容;4)实验的操作以及实验数据的梳理和分析需要相当的专业知识。
自我陈述法是由受访者们根据事先制定好的衡量尺度理解并做出相应的评判,从而表达受访者们主观的情感反馈。目前最常用的是语义差异法(Osgoodetal.,1957),这个方法借助一系列与产品相关的语义词汇(通常是一系列反义词组,例如“古典的-现代的”、“欣喜的-伤感的”)组织用户实验,然后请受访者们对这些语义词汇进行解释和评估打分,从而投射出其内心感受。针对每一组语义词汇,受访者们根据他们对被测对象的看法评价,在合适的等级位置上做标记,通常有5等级、7等级和9等级。除了语汇,也有用代表情感变化的图片作为衡量尺度的,例如,自评人物卡通模型(Lang,1980)。针对微妙的混合的产品情感的量化技术,学者们普遍认为自我陈述法比生理测量法更为适合。尽管如此,无论自我陈述法采用何种衡量尺度,受访者在完成实验任务的过程必然涉及对衡量尺度的理解和评估,这需要大脑有意识的参与,并加以逻辑分析。如果实验时间较长,评估的产品较多,势必会给受访者们造成比较大的认知负荷。于是,如何定义更加直观更容易理解的尺度,如何降低实验任务的难度成为改进自我陈述方法的关键。
根据目前现有的技术,自我陈述法所采用的“尺度”集中在相关属性的字面描述或者带有感情的图片,几乎未曾涉及视觉以外的其他感觉模式。然而,我们是通过五个感觉通道(视觉、听觉、触觉、嗅觉、味觉)感知这个世界的。比如听觉,能给我们带来丰富的高品质体验。听觉的刺激,诸如声响或者音乐能够引起强烈且意义深远的情感(ClosandBouchard,2009;Kaernbachetal.,2011)。听觉的线索被证明能够与图片或者语汇一样激励大脑神经,促使人们内心的情感表达(LiuandChang,2010)。另外,人类对于听觉信息的处理速度比视觉快(1985)。在跨文化的环境下,声学的信息相比文字来说更加容易被理解。鉴于听觉的这些优势和特性,可以应用于产品情感的量化和理解上。
发明内容
本发明的目的是提出一种基于声学参数的产品情感量化方法,通过本方法克服现有生理测量法和自我陈述法存在的上述不足,将产品情感的衡量尺度拓展到听觉通道,并以更加直觉简单的建立关联性任务达到量化情感的目的。
本发明的目的是通过以下技术方案实现的,一种基于声学参数的产品情感量化方法,其特征是,所述方法是将声学刺激作为情感的衡量尺度,以受访者们对声学刺激与目标产品对象之间的关联性达到量化产品情感,目标产品样本的情感价值被定义为矩阵VAP,矩阵VAP是受访者们的选择频率矩阵F和声学刺激参数矩阵P的乘积,具体包括如下步骤:
1)给受访者展示目标产品的m个样本中的之一;
2)由程序从声学库随机选取并播放三个声学刺激,受访者听完后选取最能激发心理感受的代表产品样本的那个声学刺激;
3)由程序从声学库随机选取并播放不同于步骤2)的三个声学刺激,受访者听完后选取最能激发心理感受的代表产品样本的那个声学刺激;
4)再由程序从声学库随机选取并播放不同于步骤2)、3)的三个声学刺激,受访者听完后选取最能激发心理感受的代表产品样本的那个声学刺激;
5)由程序将步骤2)、3)、4)中已经被选取的三个声学刺激作为备选项,受访者再听一遍比对之后从中挑选最能激发心理感受的代表产品样本的那个声学刺激;
6)受访者对m个产品样本进行1)-5)的评估后,由程序统计每一个声学刺激被选取的次数,这些数据被记录为矩阵F:
式中,F:m*n矩阵,m指被评估产品对象的样本数量,n是声学库里声学刺激的数量,fij:被评估产品i和声学刺激j之间的被选择频率。
相应的,声学库里的声学刺激被一系列的参数定义,这些参数值被描述为矩阵P:
上式中,P:n*k矩阵,n是声学刺激的数量,k是参数的数目。
最终,目标产品的情感价值被定义为矩阵VAP(m*k矩阵),VAP是频率矩阵F和参数矩阵P的乘积。
VAP=F*P
假定s个受访者能够从实验提供的声学刺激中做出选择,对于声学刺激所诱发的情感和产品互动所诱发的情感相似程度做出优化和判断,且受访者们的意见能达成一致,那么矩阵VAP就能从情感的角度对产品提供定量描述。
所述各声学刺激的长度控制在2-10秒。
所述挑选中被选中一次的赋值1/4,被选中两次的赋值1/2,程序提供但未被受访者选中的以及未被程序选中的赋值0。
本发明通过受访者们建立声学刺激所诱发的情感和产品互动所诱发的情感之间的关联性来达到目的。用更为简单直觉的关联性的任务降低了受访者们的认知负荷,建立关联性往往借助潜意识就可达成,而且,凭直觉获得的信息更能如实反映受访者们的真实内心感受。本发明相比较用语义词汇作为产品情感衡量尺度的方法而言,用非语言的声学刺激作为衡量尺度,提供了一个更为直觉的量化方法,避免了词汇在跨文化翻译过程中的失误,也拓宽了调查对象的范围,比如,不识字的儿童或者有视觉困扰的人。
具体实施方式
结合实施例进一步说明本发明,本发明所述的声学刺激包含人类的嗓音,各种声响,音乐片段等。本实施例中的声学刺激为音乐片段,本实施例中的目标产品为眼镜架样本。
(1)目标产品样本的定义
从设计的角度来说,眼镜架是一种很有研究价值的代表性产品(Huangetal.,2010)。眼镜架不仅仅是可以批量生产的面向用户的消费型产品,且兼顾了美学的,情感的,甚至个性化的特征。目前市场上有成千上万种款式的眼镜架,涉及到全框、半框、无框和折叠等多种类型。本实施例以全框眼镜架的造型为研究对象,为了简化眼镜架的数字化模型,我们定义了四个设计要素,如表1所示:镜架的宽度(FactorA),镜框的形状(FactorB),镜框高宽比(FactorC)和镜框的厚度(FactorD)。在这四个设计要素中,镜架的宽度、镜框高宽比、镜框的厚度设有两个等级,镜框的形状设有八个等级,取决于镜框拐角形状和对称方式(全对称、水平对称、垂直对称、对角对称)。因此,设计要素和不同等级的组合总共有64种可能性(2×2×8×2,全因子设计)。
表1.设计要素及等级设置
为了让受访者们不过于疲劳,我们通过实验设计(ExperimentalDesign)的方法从64种可能性里选取了22个样本,然后用CATIA软件按照选取的22个样本设计要素特征进行建模。为了使受访者们的注意力集中在眼镜架的形态上,22个样本3D模型不赋予颜色、材质、肌理等特征,只是白模渲染。
(2)声学库的建立和定义
对于此实验,本实施例的声学库由24个音乐片段构成,每个音乐片段的时长大约控制在5秒左右,并定义了5个参数,于是得到参数矩阵P(24×5的矩阵)。对于如何选取音乐片段,以及如何定义这些音乐片段,本申请中不涉及,相关技术内容将另案申请。
(3)实验组织
基于声学参数的产品情感量化方法组织实验,在实验开始前向受访者们介绍实验的目的,实验的任务,实验要求以及实验界面的使用方法。为了防止延时效应对实验结果造成的影响,22个产品样本按照LatinSquare的法则安排产品样本的出现顺序。
此实验安排了44个受访者(大学生,男女比例对半),这些受访者们在计算机程序语言编写的界面上进行实验。产品图片位于界面的左上方,声学刺激的3个播放按钮和3个选择按钮位于界面的右下方,播放按钮和选择按钮的编号依次对应。向受访者展示一个眼镜架样本,受访者按下播放按钮依次耐心仔细地听取这些提供的音乐片段,可以根据自己需要选择反复听,但实验希望得到受访者们直观的感性的答案,应避免过多的理性思考。实验也不存在标准答案,选择任何一个音乐片段都是合理的,只要受访者自己认为合适就可以。针对一个眼镜架样本,受访者在听完并比对实验程序提供的3个音乐片段后,按下认为最能反映产品样本的音乐片段所对应的选择按钮即可。在完成第一次选择之后,程序又提供了3个新的音乐片段,受访者依次听完后做第二次选择。随后,程序再次提供3个全新的音乐片段,受访者依次听完后做第三次选择。最后,程序将前三次选取的3个音乐片段作为备选项,受访者在已经相对合适的3个音乐片段中选出最恰当的那个。每位受访者都要对22个眼镜架样本做以上的工作,经过44位受访者之后,程序统计到44个频率矩阵F(22×24的矩阵)。
(4)数据处理
根据44个受访者的选择结果,按照前述的该发明的基本原理,得到44个频率矩阵F(22×24的矩阵),并求得平均数(22×24的矩阵)。根据公式“VAP=F*P”,将44个频率矩阵的平均数与试验前定义好的音乐片段参数矩阵P(24×5的矩阵)相乘,得到22个眼镜架样本的情感量化描述VAP(22×5的矩阵)。
随后,矩阵VAP用主成分分析(PrincipalComponentsAnalysis,PCA)的方法进行统计分析。PCA是一种以减少数据集的维数以分析数据集的多元统计方法。针对这次试验的结果,前两个主成分F1和F2能代表87.14%的变数,于是,两个主成分(知觉维度F1和F2)被认为足以描述22个眼镜架样本之间的区别。F1解释为描述眼镜架的款式(由负到正代表“古典的-现代的”),F2解释为描述眼镜架的情绪(由负到正代表“活泼的-严肃的”)。这些眼镜架之间的距离说明了彼此的相似程度,距离越近的眼镜架说明能诱发用户的情感反馈越相似。眼镜架样本的坐标位置同样能够反映知觉维度F1和F2的特征。
我们可以再用方差分析(AnalysisofVariance,ANOVA)的统计方法解释产品形态设计要素是如何影响用户情感反馈的。例如,统计的结果表明宽镜架(A1)比细镜架(A2)看起来更加现代,相对窄镜框(D2)而言厚镜框(D1)看起来更时尚。我们注意到眼镜架的形态设计要素不同的等级对用户情感反馈的影响跟我们的日常经验不谋而合。基于本发明组织的用户实验,受访者们只是做了简单直观的关联性选择,整个实验过程中不曾涉及任何语言描述的信息,也不曾让受访者们基于某种标准对产品样本做出等级评判,但却实现了将产品诱发的主观的无形的情感反馈“可视化”和“量化”的目的,并且,通过统计方法建立的数学关系可以反映产品设计要素与情感反馈之间的关联,可为开发或者改良产品带来精确的信息,提供设计决策的帮助。
Claims (3)
1.一种基于声学参数的产品情感量化方法,其特征是,所述方法是将声学刺激作为情感的衡量尺度,以受访者对声学刺激与目标产品对象之间的关联性达到量化产品情感,目标产品样本的情感价值被定义为矩阵VAP,矩阵VAP是受访者们的选择频率矩阵F和声学刺激参数矩阵P的乘积,具体包括如下步骤:
1)给受访者展示目标产品的m个样本中的之一;
2)由程序从声学库随机选取并播放三个声学刺激,受访者听完后选取最能激发心理感受的代表产品样本的那个声学刺激;
3)由程序从声学库随机选取并播放不同于步骤2)的三个声学刺激,受访者听完后选取最能激发心理感受的代表产品样本的那个声学刺激;
4)再由程序从声学库随机选取并播放不同于步骤2)、3)的三个声学刺激,受访者听完后选取最能激发心理感受的代表产品样本的那个声学刺激;
5)由程序将步骤2)、3)、4)中已经被选取的三个声学刺激作为备选项,受访者再听一遍比对之后从中挑选最能激发心理感受的代表产品样本的那个声学刺激;
6)受访者对m个产品样本进行1)-5)的评估后,由程序统计每一个声学刺激被选取的次数,这些数据被记录为矩阵F:
式中,F:m*n矩阵,m指被评估产品对象的样本数量,n是声学库里声学刺
激的数量,fij:被评估产品i和声学刺激j之间的被选择频率;
相应的,声学库里的声学刺激被一系列的参数定义,这些参数值被描述为矩阵P:
上式中,P:n*k矩阵,n是声学刺激的数量,k是参数的数目;
最终,目标产品的情感价值被定义为矩阵VAP(m*k矩阵),VAP是频率矩阵F和参数矩阵P的乘积;
VAP=F*P
假定s个受访者能够从实验提供的声学刺激中做出选择,对于声学刺激所诱发的情感和产品互动所诱发的情感相似程度做出优化和判断,且受访者们的意见能达成一致,那么矩阵VAP就能从情感的角度对产品提供定量描述。
2.根据权利要求1所述的基于声学参数的产品情感量化方法,其特征是,所述声学刺激的长度控制在2-10秒。
3.根据权利要求1所述的基于声学参数的产品情感量化方法,其特征是,所述挑选中被选中一次的赋值1/4,被选中两次的赋值1/2,程序提供但未被受访者选中的以及未被程序选中的赋值0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310267748.3A CN103489453B (zh) | 2013-06-28 | 2013-06-28 | 基于声学参数的产品情感量化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310267748.3A CN103489453B (zh) | 2013-06-28 | 2013-06-28 | 基于声学参数的产品情感量化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103489453A CN103489453A (zh) | 2014-01-01 |
CN103489453B true CN103489453B (zh) | 2015-12-23 |
Family
ID=49829632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310267748.3A Expired - Fee Related CN103489453B (zh) | 2013-06-28 | 2013-06-28 | 基于声学参数的产品情感量化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103489453B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110085221A (zh) * | 2018-01-26 | 2019-08-02 | 上海智臻智能网络科技股份有限公司 | 语音情感交互方法、计算机设备和计算机可读存储介质 |
CN110085262A (zh) * | 2018-01-26 | 2019-08-02 | 上海智臻智能网络科技股份有限公司 | 语音情绪交互方法、计算机设备和计算机可读存储介质 |
CN110085220A (zh) * | 2018-01-26 | 2019-08-02 | 上海智臻智能网络科技股份有限公司 | 智能交互装置 |
CN108197115B (zh) * | 2018-01-26 | 2022-04-22 | 上海智臻智能网络科技股份有限公司 | 智能交互方法、装置、计算机设备和计算机可读存储介质 |
CN110675871B (zh) * | 2019-09-25 | 2021-03-05 | 北京蓦然认知科技有限公司 | 一种语音识别方法及装置 |
CN112800610B (zh) * | 2021-02-02 | 2021-11-19 | 南京航空航天大学 | 一种基于情感的室内空间照明系统影响因素的建模方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101127160A (zh) * | 2006-08-18 | 2008-02-20 | 苏荣华 | 单词、词语的诱发和脑波识别方法及其语言学习仪 |
CN102245085A (zh) * | 2008-10-14 | 2011-11-16 | 俄亥俄大学 | 利用眼跟踪的认知和语言评估 |
CN103077205A (zh) * | 2012-12-27 | 2013-05-01 | 浙江大学 | 一种利用声音刺激诱发的erp进行语义声音搜索的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120259240A1 (en) * | 2011-04-08 | 2012-10-11 | Nviso Sarl | Method and System for Assessing and Measuring Emotional Intensity to a Stimulus |
-
2013
- 2013-06-28 CN CN201310267748.3A patent/CN103489453B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101127160A (zh) * | 2006-08-18 | 2008-02-20 | 苏荣华 | 单词、词语的诱发和脑波识别方法及其语言学习仪 |
CN102245085A (zh) * | 2008-10-14 | 2011-11-16 | 俄亥俄大学 | 利用眼跟踪的认知和语言评估 |
CN103077205A (zh) * | 2012-12-27 | 2013-05-01 | 浙江大学 | 一种利用声音刺激诱发的erp进行语义声音搜索的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103489453A (zh) | 2014-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103489453B (zh) | 基于声学参数的产品情感量化方法 | |
Hekkert et al. | Product aesthetics | |
Marin et al. | Berlyne revisited: Evidence for the multifaceted nature of hedonic tone in the appreciation of paintings and music | |
Brielmann et al. | Aesthetics | |
Lahire | From the habitus to an individual heritage of dispositions. Towards a sociology at the level of the individual | |
Rankin et al. | A case-controlled study of altered visual art production in Alzheimer's and FTLD | |
Lyssenko et al. | Evaluating abstract art: Relation between term usage, subjective ratings, image properties and personality traits | |
Zimmermann | Beyond usability: Measuring aspects of user experience | |
US20170112423A1 (en) | System and Method for Stimulus Optimization Through Closed-Loop, Iterative Biological Sensor Feedback | |
Simner et al. | Cross‐modal personality attributions in synaesthetes and non‐synaesthetes | |
Montero | The artist as critic: Dance training, neuroscience, and aesthetic evaluation | |
CN116578731B (zh) | 多媒体信息处理方法、系统、计算机设备和存储介质 | |
Aurup | User preference extraction from bio-signals: An experimental study | |
Karim et al. | Do we enjoy what we sense and perceive? A dissociation between aesthetic appreciation and basic perception of environmental objects or events | |
Heyselaar et al. | Changes in alpha activity reveal that social opinion modulates attention allocation during face processing | |
Aurup et al. | Pair-wise preference comparisons using alpha-peak frequencies | |
Waling | Heroes, Retros and Metros: Narratives of Conflicting Masculinities within Contemporary Australian Media. | |
Matsumoto et al. | Viewers recognize the process of creating artworks with admiration: Evidence from experimental manipulation of prior experience. | |
Zonyfar et al. | E-government in the public health sector: kansei engineering method for redesigning website | |
Garver | The impact of visual style on user experience in games | |
Wu et al. | Aesthetics of hui folk dance as audience service to leverage audience satisfaction | |
Soleymani | Implicit and Automated Emtional Tagging of Videos | |
Gabrieli et al. | Using users’ physiological responses for the estimation of websites’ aesthetic judgments | |
Berghman et al. | The beauty of balance–An empirical integration of the Unified Model of Aesthetics for product design | |
WANG et al. | Creating the optimal design approach of facial expression for the elderly intelligent service robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151223 |