CN102479291A - 情感描述生成与体验方法和设备以及情感交互系统 - Google Patents
情感描述生成与体验方法和设备以及情感交互系统 Download PDFInfo
- Publication number
- CN102479291A CN102479291A CN2010105803018A CN201010580301A CN102479291A CN 102479291 A CN102479291 A CN 102479291A CN 2010105803018 A CN2010105803018 A CN 2010105803018A CN 201010580301 A CN201010580301 A CN 201010580301A CN 102479291 A CN102479291 A CN 102479291A
- Authority
- CN
- China
- Prior art keywords
- emotion
- user
- affection data
- physiologic parameters
- describe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
公开了一种情感描述生成方法和设备、情感描述体验方法和设备以及情感交互系统。该情感描述生成方法包括:接收情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的;以及基于预定义模板,利用该情感数据生成情感描述。
Description
技术领域
本发明一般涉及计算机领域,特别涉及情感描述生成方法和设备、情感描述体验方法和设备以及情感交互系统
背景技术
随着互联网技术的不断发展,人们越来越多地通过互联网进行信息交流,例如可以通过即时消息传递、电子邮件、博客、BBS、视频/语音通话等等。在通过互联网进行信息交流的同时,如何在互联网上交流彼此的情感这一问题得到越来越多的关注。在目前的互联网通信中,用户可以利用一些简单的符号、图标或图片来向其他用户传递自己当前的心情。例如“:-)”可以表示“高兴”,“:-(”可以表示悲伤,等等。
但是由于人类的情感是极其复杂的,仅仅利用上述这些符号、图标或图片,不可能较为全面地表示出人类的各种情感。
另外,现有技术的各种方法仅仅可以简单地表示某一基本情感,而无法对所表示的情感进行定量的调整,更无法表达稍微复杂的情感,因此表达能力非常有限。
此外,现有技术的各种方法无法使得其他用户感受到来自该用户的情感直接激励,因此其他用户对该用户的情感的体验受限。
发明内容
针对以上问题,本发明提供了一种情感描述生成方法和设备、情感描述体验方法和设备以及情感交互系统。
根据本发明的第一方面,提供了一种情感描述生成方法,其可以包括:接收情感数据,其中情感数据是根据反映用户情感的可测量的生理学参数得到的;以及基于预定义模板,利用情感数据生成情感描述。
根据本发明的第二方面,提供了一种情感描述生成设备,可以包括:接收装置,用于接收情感数据,其中情感数据是根据反映用户情感的可测量的生理学参数得到的;以及生成装置,用于基于预定义模板利用情感数据生成情感描述。
根据本发明的第三方面,提供了一种情感描述体验方法,包括:接收情感描述,其中情感描述是基于预定义模板并利用情感数据生成的,情感数据是根据反映用户情感的可测量的生理学参数得到的;以及利用从情感描述提取的情感数据激励用户,以使得用户体验情感描述。
根据本发明的第四方面,提供了一种情感描述体验设备,包括:情感描述接收装置,用于接收情感描述,其中情感描述是基于预定义模板并利用情感数据生成的,情感数据是根据反映用户情感的可测量的生理学参数得到的;以及激励装置,用于利用从情感描述提取的情感数据激励用户,以使得用户体验情感描述。
根据本发明的第五方面,提供了一种情感交互系统,其可以包括:根据本发明的第二方面的情感描述生成设备;以及本发明的第四方面的情感描述体验设备。
利用本发明的方法、设备和系统,可以方便、快速、高效地将根据情感数据生成情感描述,并可以利用生成的情感描述为用户提供服务,从而改善用户体验。
通过以下对说明本发明原理的优选实施方式的描述,并结合附图,本发明的其他特征以及优点将会是显而易见的。
附图说明
通过以下结合附图的说明,并且随着对本发明的更全面了解,本发明的其他目的和效果将变得更加清楚和易于理解,其中:
图1是按照本发明的一个实施例的情感描述生成方法流程图;
图2是按照本发明的另一个实施例的情感描述生成方法流程图;
图3是按照本发明的一个实施例的情感数据调整示意图;
图4是按照本发明的一个实施例的情感描述生成设备框图;
图5是按照本发明的一个实施例的情感描述体验方法流程图;
图6是按照本发明的一个实施例的情感描述体验设备框图;
图7是按照本发明的一个实施例的情感交互系统示意图;以及
图8是适于实施本发明的计算机系统的结构方框图。
在所有的上述附图中,相同的标号表示具有相同、相似或相应的特征或功能。
具体实施方式
以下结合附图对本发明进行更详细的解释和说明。应当理解,本发明的附图及实施例仅用于示例性作用,并非用于限制本发明的保护范围。
为了清楚起见,首先对本发明中所使用的术语作以解释。
1.情感数据
当一个用户访问一定的内容时,该用户可能会根据内容而产生相应的情感,例如用户主动的情感,比如当用户与朋友聊天时、给远方的家人写电子邮件时、浏览互联网页面时产生的情感。
情感数据则是根据反映该用户的情感的一个或多个可测量的生理学参数得到的。内容可以是图片、文本、视频、音频的全部或部分。
情感数据包括未经加工的生理和行为信号(例如,心率、呼吸频率、血压、脑电图参数、体温、皮电反应等),这些未经加工的生理和行为信号也被称作生理学参数。不同的生理学参数与不同的情感类别(例如喜欢、厌恶、害怕、高兴等)相关联。当用户访问不同内容时,例如当用户看到危险事故视频、美丽的风景图像、听到刺耳的尖叫等时,可能会产生不同的情感,从而该用户的生理学参数也会相应地变化。情感数据还可以包括利用这些生理学参数根据某种特征提取算法计算出来的值,特征提取算法例如可以是对相继两分钟的心率计算差值,即心率的一阶导数。
一个用户的情感数据可以是一个向量,该向量的元素可以是心率、呼吸频率、血压、脑电图参数、体温和皮电反应等生理学参数中的一个或多个。多个用户的情感数据则可以构成一个矩阵,这个矩阵的每一行或每一列对应一个用户的情感数据。
2.情感描述(emotion script)
情感描述用于描述与用户的情感相关的信息,例如情感类别、情感数据获取方式、用户生理学参数等等。关于情感描述的进一步定义,可以参考http://en.wikipedia.org/wiki/Valence(psycho1ogy)。
可以使用W3C情感标记语言设计组提出的情感标记语言(参见http://www.w3.org/2005/Incubator/emotion/XGR-emotionml-20081120/)来表达情感描述,也可以使用本领域技术人员或用户自定义的任何适当的语言来表达情感描述。
本发明包括情感描述生成方法和设备、情感描述体验方法和设备以及情感交互系统。以下通过图1和图2所示的两个实施例分别描述本发明的情感描述生成方法,通过图4示出关于情感描述生成设备的一个实施例,通过图5描述本发明的情感描述体验方法的一个实施例,通过图6示出关于情感描述体验设备的一个实施例,并通过图7描述情感交互系统的一个实施例,该情感交互系统可以包括根据本发明的情感描述生成设备以及情感描述体验设备。
在本发明一个实施例中,可以首先接收情感数据,然后基于预定义模板,利用该情感数据生成情感描述。在本发明中,情感数据可以是根据反映用户情感的可测量的生理学参数得到的。用户生理学参数例如可以包括:心率、呼吸频率、血压、脑电图参数、体温和/或皮电反应,等等。
可以使用基准情感数据确定所获取的生理学参数是否是正常的情感数据。例如,可以通过计算一个用户的基准情感数据与所获取的该用户的生理学参数之间的差值,来判断该生理学参数是否处于正常范围之内,从而确定该生理学参数是否可以作为用于生成情感描述的情感数据。
当预先确定与各个情感对应的数值范围时,可以利用基准情感数据确定与情感数据相对应的情感。例如,当基准情感数据与一个情感数据的差值在“高兴”这一情感的预设数值范围内时,则与该情感数据对应的情感是“高兴”;而当基准情感数据与一个情感数据的差值在“害怕”这一情感的预设数值范围内时,则与该情感数据对应的情感是“害怕”。因此,利用一个用户的基准情感数据可以确定当产生一个情感数据时该用户正处于何种情感类别。
具体地,在该实施例中,首先,可以接收用户的基准情感数据,该基准情感数据可以是基于一个或多个用户在平静状态的生理学参数所确定的。其中,基准情感数据可以是用户在注册时针对指定内容产生的情感数据,也可以是用户在不同时段针对一系列普通内容进行访问而产生的情感数据的均值或者利用其他更复杂的算法计算出的结果。
然后,在该实施例中,可以基于该用户的基准情感数据,判断当前接收的该用户的情感数据是否在正常范围内:如果在正常范围内,则可以利用该情感数据生成情感描述;如果不在,则不利用该情感数据生成情感描述。例如,可以计算当前获取的该用户的情感数据与基准情感数据的差值,然后判断该差值是否处于正常范围之内;或者,可以计算该差值相对于基准值的百分比,然后通过对该百分数求平均来判断该均值是否处于正常范围之内。其中,正常范围可以根据医学上的常识来确定。例如,心率的正常范围可以在0到医学上的心率最大值之间,而不应该是负值或者过高的数值。
另外,在该实施例中,当预先设定与各个情感对应的数值范围时,还可以基于基准情感数据,判断产生当前接收的情感数据的用户当前处于何种情感。
图1是按照本发明的一个实施例的情感描述生成方法流程图。该方法首先接收情感数据,然后基于预定义模板利用该情感数据生成情感描述。
在步骤101,接收情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的。
可以通过多种实施方式接收情感数据。
在一个实施例中,可以接收通过生理学参数传感器或生物信号检测器获取的用户生理学参数来实现步骤101。此前,可以首先在用户终端处感测用户产生的生理学参数,然后用户终端根据感测到的生理学参数得到情感数据,并将得到的情感数据提供给本发明的情感描述生成设备,从而本发明的情感描述生成设备可以执行步骤101来接收情感数据。
在通过生理学参数传感器或生物信号检测器获取用户生理学参数的过程中,可以将生理学参数传感器或生物信号检测器安排在客户端处,例如,摆放在用户终端附近或者用户身着可穿戴传感器等等,以便感测用户所产生的生理学参数。在另一个实施例中,还可以在感测到用户所产生的生理学参数之后,计算预先得到的用户的基准情感数据与感测的该用户的生理学参数之间的差值,然后判断该生理学参数是否处于正常范围之内,并将处于正常范围之内的生理学参数作为情感数据。
假设用户正在通过网络与一个好友聊天,该用户穿戴有可以感测生理学参数的传感器,并且利用该传感器来感测用户的心率、血压等生理学参数的信号。假设用户产生的情感是“高兴”。通过该用户身上穿戴的传感器可以得到用户的情感数据是(82,120,90,5),其中每个元素分别对应于该用户的心率、血压中的收缩压、血压中的舒张压、呼吸频率等生理学参数。可以对该生理学参数进行接收作为情感数据,从而实现步骤101。
在另一个实施例中,可以通过接收从情感数据输入接口输入的用户生理学参数来实现步骤101。将在图2中对该实施例进行详细描述。
在步骤102,基于预定义模板,利用情感数据生成情感描述。
在本发明中,预定义模板可以是一个通用模板或自定义模板,其配置可以包括:情感类别、情感数据获取方式以及用户生理学参数,等等。通过利用情感数据对预定义模板的配置进行具体化,可以得到各种情感描述,从而描述与用户的情感相关的信息。预定义模板可以基于情感标记语言来制定。
情感类别例如可以是Robert Plutchik提出的8中情感类型,包括:高兴、悲伤、信任、厌恶、害怕、愤怒、惊讶、期待,等等(参见httn://www.fractal.org/Bewustzijns-Besturings-Model/Nature-of-emotio ns.htm),也可以是关于情感的其他任何预定义类型。
在步骤102的一种实施方式中,首先可以确定预定义模板的配置,然后可以按照预定义模板的配置将情感数据添加到所述预定义模板中。具体而言,假设用户在与好友聊天时得知一个重大事故的消息,此时用户的情感是“害怕”,通过用户身上佩戴的传感器感测而得到的用户1的情感数据是(80,100,70),其中每个元素分别对应于该用户的心率、血压中的收缩压、血压中的舒张压等生理学参数。这时,首先可以确定预定义模板的配置,假设该例子中的预定义模板的配置包含情感类别、情感数据获取方式以及用户生理学参数;然后,可以将预定义模板中的情感类别记为“害怕”,将情感数据获取方式记为“传感器感测”,将用户生理学参数中的心率记为“80”、收缩压记为“100”、舒张压记为“70”。由此,根据预定义模板生成了关于“害怕”这一情感的情感描述。
类似地,也可以根据预定义模板生成包含其他情感类型的情感描述。
可选地,本发明的情感描述生成方法还可以对情感描述进行调整。在一个实施例中,可以根据预定义模板调整情感描述。例如,可以根据预定义模板的配置得到情感描述中各个属性,然后可以按需要改变这些属性。
在另一个实施例中,可以在步骤102生成情感描述之后,向用户提供该情感描述,以便该用户体验与所述情感描述相对应的情感和根据需要调整所述情感描述;然后,可以接收该用户调整后的情感描述。用户可以根据自己的要求对情感描述进行调整并先行体验,并且可以在不满意的情况下进一步调整和体验情感描述,直到得到该用户希望让他人体验的情感为止。这样,可以使得当调整后的情感描述提供给其他用户时,其他用户也能感受到该用户希望让他人体验的情感。
可选地,本发明的情感描述生成方法还可以向其他用户提供所述情感描述,以便其他用户体验与所提供的情感描述相对应的情感。可以通过多种方式来激励用户从而使得用户体验情感描述。例如:通过将情感描述转化为音频信号,然后通过笔记本、手机、PDA等播放出来,使用户通过聆听音乐的方式来体验该情感描述;或者,通过提供情感描述给灯光控制系统,将情感描述转化为光信号,从而通过用户周围的灯光变化来使得用户体验该情感描述;或者,通过在鼠标中设置一个弱电流刺激装置,将情感描述转化为弱电流信号,由于用户的手握在鼠标上,从而通过鼠标发出的弱电流信号刺激来使得用户体验该情感描述。
图2是按照本发明的另一个实施例的情感描述生成方法流程图。
在步骤201,接收从情感数据输入接口输入的用户生理学参数。
在本发明的情感描述生成方法中,可以通过多种方式接收情感数据,例如可以接收通过生理学参数传感器或生物信号检测器获取的用户生理学参数,也可以接收从情感数据输入接口输入的用户生理学参数。在本实施例中,步骤201采用了后一种方式,也即接收从情感数据输入接口所输入的用户生理学参数。
可以向用户提供不同形式的情感数据输入接口,例如可以提供文本框来接收用户输入的心率、舒张压、收缩压和呼吸频率等生理学参数的具体值,也可以提供滑动块使用户通过拖动滑动块来确定生理学参数的具体值,还可以提供下拉式输入框的形式使用户通过从下拉框中进行选择来确定生理学参数的具体值。
用户可以按照自己的意愿为各个生理学参数定义各自的值。在本实施例中,假设从情感数据输入接口接收的用户生理学参数(75,110,80,10),其中各个元素分别对应于该用户的心率、血压中的收缩压、血压中的舒张压、呼吸频率等生理学参数。
在步骤202,确定预定义模板的配置。
在本发明中,预定义模板可以是一个通用模板或自定义模板,其配置可以包括:情感类别、情感数据获取方式以及用户生理学参数,等等。通过利用情感数据对预定义模板的配置进行具体化,可以得到各种情感描述,从而描述与用户的情感相关的信息。
在本实施例中,假设在步骤202中可以确定预定义模板的配置包括:情感类别、情感数据获取方式、心率、收缩压、舒张压、呼吸频率,等等。
以下示出了预定义模板的一个例子,其中双引号中的内容都是可以改变的。例如,可以利用情感数据中的具体值来更新这些内容,从而可以得到各种不同的情感描述。
<emotemplate>
<emotion>
<category set=“basicEmotions”name=“joy”/><!-category表示情感类别-->
<dimensions set=“valenceArousal”><!-dimensions表示情感可以从几个方面进行描述,
dimensions set=“valenceArousal”表示从心理效价和激发这两个方面描述情感-->
<arousal value=“0.35”/>
<valence value=“0.85’/>
</dimensions>
<intensity value=“0.8”/><!-intensity value表示情感强度-->
<modality set=“basicModalities”mode=“face voice body”medium=“physio”/>
<!-modality表示情感数据获取方式->
<metadata>
<physio:bvpSystolic value=“82”/>
<physio:bvpDiaStolic value=“125”/>
<physio:heartRate value=“90”/>
</metadata><!-metadata表示用户生理学参数->
</emotion>
</emotemplate>
预定义模板的各个配置可以有默认值,该默认值可以选用各个配置的常用值或任何预设值,此时预定义模板自身就是一个情感描述。如上所示,上述预定义模板即已填写默认值。预定义模板的各个配置也可以没有任何设置的值,例如全部设定为“空(NULL)”,仅当接收到情感数据时才用接收的参数填写各个配置。
在步骤203,按照预定义模板的配置将情感数据添加到预定义模板中。
由于在步骤201从情感数据输入接口接收的用户生理学参数是(75,110,80,10),并且在步骤202确定的预定义模板的配置包括:情感类别、情感数据获取方式、心率、收缩压、舒张压、呼吸频率等,因此可以将用户生理学参数按照预定义模板的配置逐一填入到预定义模板的对应位置中。
以下给出了情感类别为“高兴”的一个情感描述的例子,其中情感数据获取方式是传感器感测生理学参数,心率为75次/分钟、血压中的收缩压为110毫米汞柱、血压中的舒张压为80毫米汞柱、呼吸频率为10次/分钟。
<emotion>
<category set=“basicEmotions”name=“joy”/>
<!-category表示情感类别,“basicEmotions”是Robert Plutchik提出的8中情感类型的集合,
name=“joy”表示目前的情感类别是“高兴”-->
<modality set=“basicModalities”mode=“face voice body”medium=“visual acoustic physio”/>
<!-modality表示从何处获取情感数据,basicModalities表示获取情感数据的基本方式,
mode=“face voice bady”表示从面部、语音、身体获取情感数据,
medium=“visual acousticphysio”表示获取情感数据的介质是可视或可听的传感器-->
<intensity value=“0.8”/>
<!-表明高兴的强度是0.8,该值的范围是从0至1.0,该值可以从情感分类的算法中
得到-->
<metadata>
<!-meatadata表示元数据,包括各种生理学参数>
<physio:bvpSystolic value=“110”/>
<!-收缩压为125毫米汞柱-->
<physio:bvpDiaStolic value=“80”/>
<!-舒张压为90毫米汞柱-->
<physio:heartRate value=“75”/>
<!-心率为82次/分钟-->
<physio:breathRate value=“10”/>
<!-呼吸频率为10次/分钟-->
</metadata>
</emotion>
另外,以下给出了情感类别为“愤怒”的另一个情感描述的例子。在该例子中,用户生理学参数是(90,130,92,15),其中情感数据获取方式是情感数据输入接口获取生理学参数,心率为90次/分钟、血压中的收缩压为130毫米汞柱、血压中的舒张压为92毫米汞柱、呼吸频率为15次/分钟。
<emotion>
<category set=”basicEmotions”name=”anger”/>
<modality set=”basicModalities”mode=”face voice body”medium=”visual acoustic
physio”/>
<intensity value=”0.8”/>
<metadata>
<physio:bvpSystolic value=”130”/>
<physio:bvpDiaStolic value=”90”/>
<physio:heartRate value=”92”/>
<physio:breathRate value=”15”/>
</metadata>
</emotion>
在步骤204,向用户提供情感描述。
可以通过图3示出的按照本发明的一个实施例的情感数据调整接口向用户提供情感描述。具体而言,图3的接口中示出了情感类别为“高兴”的例子,其中的情感数据包括心率、舒张压、收缩压和呼吸频率。为了便于用户使用,在显示时将心率、舒张压、收缩压和呼吸频率的数值都进行了归一化。虽然图3中情感数据输入接口中所示的心率、舒张压、收缩压和呼吸频率等生理学参数的范围分别都是0-10,但是本领域技术人员完全理解其他任何适当的数值范围都可以用于描述各种生理学参数的范围。
也可以利用其他形式来向用户提供情感描述,例如可以提供文本框来显示心率、舒张压、收缩压和呼吸频率等生理学参数的具体值,而不是像图3那样使用滑动块来显示。
在步骤205,接收用户调整后的情感描述。
用户可以通过用鼠标拖动图3中的心率、舒张压、收缩压和呼吸频率等生理学参数的滑动块来调整这些生理学参数,从而得到更新的情感数据。
如果步骤204提供文本框来显示心率、舒张压、收缩压和呼吸频率等生理学参数的具体值,则可以接收用户在文本框中输入的最新值从而实现对这些生理学参数的调整,从而得到更新的情感数据。
然后,可以根据预定义模板将更新的情感数据替代原来的情感数据置入情感描述中,从而得到用户调整后的情感描述。
应该注意的是,步骤204和205的对情感描述进行调整的过程是可选的。如果不对情感描述进行调整,步骤203生成的情感描述可以直接作为本发明的情感描述生成方法所生成的情感描述。
在步骤206,向其他用户提供情感描述,以便其他用户体验与情感描述相对应的情感。
可以通过多种方式来激励用户从而使得用户体验情感描述。例如:通过将情感描述转化为音频信号,然后通过笔记本、手机、PDA等播放出来,使用户通过聆听音乐的方式来体验该情感描述;或者,通过提供情感描述给灯光控制系统,将情感描述转化为光信号,从而通过用户周围的灯光变化来使得用户体验该情感描述;或者,通过在鼠标中设置一个弱电流刺激装置,将情感描述转化为弱电流信号,由于用户的手握在鼠标上,从而通过鼠标发出的弱电流信号刺激来使得用户体验该情感描述。
应该注意的是,步骤206是可选的。如果向其他用户提供情感描述,步骤203生成的情感描述或者步骤204-205调整后的情感描述都可以直接作为本发明的情感描述生成方法所生成的情感描述。
图4是按照本发明的一个实施例的情感描述生成设备框图。
图4所示的设备400可以包括:接收装置410,用于接收情感数据,其中情感数据是根据反映用户情感的可测量的生理学参数得到的;生成装置420,用于基于预定义模板利用情感数据生成情感描述。
在一个实施例中,接收装置410可以包括:用于接收通过生理学参数传感器或生物信号检测器获取的用户生理学参数的装置。在另一个实施例中,接收装置410可以包括:用于接收从情感数据输入接口输入的用户生理学参数的装置。
在一个实施例中,生成装置420可以包括:用于确定预定义模板的配置的装置;以及用于按照预定义模板的配置将情感数据添加到预定义模板中的装置。
在一个实施例中,设备400还可以可选地包括:调整装置430,根据预定义模板调整情感描述。在另一个实施例中,设备400还可以可选地包括:调整装置430,该调整装置包括用于向用户提供情感描述,以便用户体验与情感描述相对应的情感和根据需要调整情感描述的装置;以及用于接收用户调整后的情感描述的装置。
在一个实施例中,设备400可以可选地包括:提供装置440,用于向其他用户提供情感描述,以便其他用户体验与情感描述相对应的情感。
在本发明中,预定义模板的配置可以包括:情感类别、情感数据获取方式以及用户生理学参数,等等。预定义模板可以基于情感标记语言(EML)来制定。
在本发明中,用户生理学参数可以包括:心率、呼吸频率、血压、脑电图参数、体温和皮电反应,等等。
图5是按照本发明的一个实施例的情感描述体验方法流程图。
在步骤501,接收情感描述,其中情感描述是基于预定义模板并利用情感数据生成的,而该情感数据是根据反映用户情感的可测量的生理学参数得到的。
可以通过利用图1所示的根据本发明的情感描述生成方法得到步骤501所要接收的情感描述。步骤501所接收的情感描述可以例如来自从图4所示的根据本发明的情感描述生成设备。
在步骤502,利用从情感描述提取的情感数据激励用户,以使得用户体验情感描述。
可以通过多种方式来激励用户从而使得用户体验情感描述,例如:通过将情感描述转化为音频信号,然后通过笔记本、手机、PDA等播放出来,使用户通过聆听音乐的方式来体验该情感描述;或者,通过提供情感描述给灯光控制系统,将情感描述转化为光信号,从而通过用户周围的灯光变化来使得用户体验该情感描述;或者,通过在鼠标中设置一个弱电流刺激装置,将情感描述转化为弱电流信号,由于用户的手握在鼠标上,从而通过鼠标发出的弱电流信号刺激来使得用户体验该情感描述。
图6是按照本发明的一个实施例的情感描述体验设备框图。图6的情感描述体验设备600可以包括:情感描述接收装置610以及激励装置620。
情感描述接收装置610,用于接收情感描述,其中情感描述是基于预定义模板并利用情感数据生成的,情感数据是根据反映用户情感的可测量的生理学参数得到的。
激励装置620,用于利用从情感描述提取的情感数据激励用户,以使得用户体验情感描述。
图7是按照本发明的一个实施例的情感交互系统示意图。
本发明提供了一种情感交互系统,可以包括:根据本发明的情感描述生成设备;以及情感描述体验设备,用于使其他用户体验来自情感描述生成设备的情感描述。
在图7所示的情感交互系统700包括情感描述生成设备710和情感描述体验设备720,其中情感描述生成设备710例如可以实现为图4所示的设备400或者根据本发明的情感描述生成设备的任何其他具体形式,情感描述体验设备720例如可以实现为图6所示的设备600或者根据本发明的情感描述体验设备的任何其他具体形式。
在情感交互系统700中,情感描述生成设备710从用户1接收情感数据,并基于预定义模板利用接收的情感数据生成情感描述。然后,该情感描述经由网络或其他介质传输到情感描述体验设备720。该情感描述体验设备720可以通过多种方式来激励用户2从而使得用户2体验情感描述,例如:通过将情感描述转化为音频信号,然后通过笔记本、手机、PDA等播放出来,使用户2通过聆听音乐的方式来体验该情感描述;或者,通过提供情感描述给灯光控制系统,将情感描述转化为光信号,从而通过用户2周围的灯光变化来使得用户2体验该情感描述;或者,通过在鼠标中设置一个弱电流刺激装置,将情感描述转化为弱电流信号,由于用户2的手握在鼠标上,从而通过鼠标发出的弱电流信号刺激来使得用户2体验该情感描述。
利用本发明的情感交互系统700,可以利用情感描述在不同用户之间交流感情,显著改善了用户体验。
图8示意性示出了可以实现根据本发明的实施例的计算设备的结构方框图。
图8中所示的计算机系统包括CPU(中央处理单元)801、RAM(随机存取存储器)802、ROM(只读存储器)803、系统总线804,硬盘控制器805、键盘控制器806、串行接口控制器807、并行接口控制器808、显示器控制器809、硬盘810、键盘811、串行外部设备812、并行外部设备813和显示器814。在这些部件中,与系统总线804相连的有CPU 801、RAM 802、ROM 803、硬盘控制器805、键盘控制器806,串行接口控制器807,并行接口控制器808和显示器控制器809。硬盘810与硬盘控制器805相连,键盘811与键盘控制器806相连,串行外部设备812与串行接口控制器807相连,并行外部设备813与并行接口控制器808相连,以及显示器814与显示器控制器809相连。
图8中每个部件的功能在本技术领域内都是众所周知的,并且图8所示的结构也是常规的。不同的应用中,可以向图8中所示的结构添加某些部件,或者图8中的某些部件可以被省略。图8中所示的整个系统由通常作为软件存储在硬盘810中、或者存储在EPROM或者其他非易失性存储器中的计算机可读指令控制。软件也可从网络(图中未示出)下载。或者存储在硬盘810中,或者从网络下载的软件可被加载到RAM 802中,并由CPU 801执行,以便完成由软件确定的功能。
尽管图8中描述的计算机系统能够支持根据本发明的用于添加带有情感数据的标签的设备和处理带有情感数据的标签的设备,但是其只是计算机系统的一个例子。本领域的熟练技术人员可以理解,许多其他计算机系统设计也能实现本发明的实施例。
本发明涉及一种计算机程序产品,该计算机程序产品包括用于执行如下的代码:接收情感数据,其中情感数据是根据反映用户情感的可测量的生理学参数得到的;以及基于预定义模板,利用情感数据生成情感描述。在使用之前,可以把代码存储在其他计算机系统的存储器中,例如,存储在硬盘或诸如光盘或软盘的可移动的存储器中,或者经由因特网或其他计算机网络进行下载。
所公开的本发明的方法可以在软件、硬件、或软件和硬件的结合中实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器、个人计算机(PC)或大型机来执行。
应当注意,为了使本发明更容易理解,上面的描述省略了对于本领域的技术人员来说是公知的、并且对于本发明的实现可能是必需的更具体的一些技术细节。
提供本发明的说明书的目的是为了说明和描述,而不是用来穷举或将本发明限制为所公开的形式。对本领域的普通技术人员而言,许多修改和变更都是显而易见的。
因此,选择并描述实施方式是为了更好地解释本发明的原理及其实际应用,并使本领域普通技术人员明白,在不脱离本发明实质的前提下,所有修改和变更均落入由权利要求所限定的本发明的保护范围之内。
Claims (21)
1.一种情感描述生成方法,包括:
接收情感数据,其中所述情感数据是根据反映用户情感的可测量的生理学参数得到的;以及
基于预定义模板,利用所述情感数据生成情感描述。
2.根据权利要求1所述的方法,其中接收情感数据的步骤包括:
接收通过生理学参数传感器或生物信号检测器获取的用户生理学参数。
3.根据权利要求1所述的方法,其中接收情感数据的步骤包括:
接收从情感数据输入接口输入的用户生理学参数。
4.根据权利要求1所述的方法,其中基于预定义模板利用所述情感数据生成情感描述的步骤包括:
确定所述预定义模板的配置;以及
按照所述预定义模板的配置将所述情感数据添加到所述预定义模板中。
5.根据权利要求1所述的方法,其中所述预定义模板的配置包括:情感类别、情感数据获取方式以及用户生理学参数。
6.根据权利要求1所述的方法,还包括:
根据所述预定义模板调整所述情感描述。
7.根据权利要求1所述的方法,还包括:
向所述用户提供所述情感描述,以便所述用户体验与所述情感描述相对应的情感和根据需要调整所述情感描述;以及
接收所述用户调整后的情感描述。
8.根据权利要求1所述的方法,还包括:
向其他用户提供所述情感描述,以便所述其他用户体验与所述情感描述相对应的情感。
9.根据权利要求1-8所述的方法,其中所述预定义模板基于的是情感标记语言。
10.一种情感描述生成设备,包括:
接收装置,用于接收情感数据,其中所述情感数据是根据反映用户情感的可测量的生理学参数得到的;以及
生成装置,用于基于预定义模板利用所述情感数据生成情感描述。
11.根据权利要求10所述的设备,其中所述接收装置包括:
用于接收通过生理学参数传感器或生物信号检测器获取的用户生理学参数的装置。
12.根据权利要求10所述的设备,其中所述接收装置包括:
用于接收从情感数据输入接口输入的用户生理学参数的装置。
13.根据权利要求10所述的设备,其中所述生成装置包括:
用于确定所述预定义模板的配置的装置;以及
用于按照所述预定义模板的配置将所述情感数据添加到所述预定义模板中的装置。
14.根据权利要求10所述的设备,其中所述预定义模板的配置包括:情感类别、情感数据获取方式以及用户生理学参数。
15.根据权利要求10所述的设备,还包括:
调整装置,用于根据所述预定义模板调整所述情感描述。
16.根据权利要求10所述的设备,还包括:
调整装置,所述调整装置包括:
用于向所述用户提供所述情感描述,以便所述用户体验与所述情感描述相对应的情感和根据需要调整所述情感描述的装置;以及
用于接收所述用户调整后的情感描述的装置。
17.根据权利要求10所述的设备,还包括:
提供装置,用于向其他用户提供所述情感描述,以便所述其他用户体验与所述情感描述相对应的情感。
18.根据权利要求10-17所述的设备,其中所述预定义模板基于的是情感标记语言。
19.一种情感描述体验方法,包括:
接收情感描述,其中所述情感描述是基于预定义模板并利用情感数据生成的,所述情感数据是根据反映用户情感的可测量的生理学参数得到的;以及
利用从所述情感描述提取的情感数据激励用户,以使得所述用户体验所述情感描述。
20.一种情感描述体验设备,包括:
情感描述接收装置,用于接收情感描述,其中所述情感描述是基于预定义模板并利用情感数据生成的,所述情感数据是根据反映用户情感的可测量的生理学参数得到的;以及
激励装置,用于利用从所述情感描述提取的情感数据激励用户,以使得所述用户体验所述情感描述。
21.一种情感交互系统,包括:
根据权利要求10-18中任一项所述的情感描述生成设备;以及
根据权利要求20所述的情感描述体验设备。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105803018A CN102479291A (zh) | 2010-11-30 | 2010-11-30 | 情感描述生成与体验方法和设备以及情感交互系统 |
US13/302,899 US9251462B2 (en) | 2010-11-30 | 2011-11-22 | Emotion script generating, experiencing, and emotion interaction |
US13/433,959 US9256825B2 (en) | 2010-11-30 | 2012-03-29 | Emotion script generating, experiencing, and emotion interaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105803018A CN102479291A (zh) | 2010-11-30 | 2010-11-30 | 情感描述生成与体验方法和设备以及情感交互系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102479291A true CN102479291A (zh) | 2012-05-30 |
Family
ID=46091934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010105803018A Pending CN102479291A (zh) | 2010-11-30 | 2010-11-30 | 情感描述生成与体验方法和设备以及情感交互系统 |
Country Status (2)
Country | Link |
---|---|
US (2) | US9251462B2 (zh) |
CN (1) | CN102479291A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102908710A (zh) * | 2012-09-10 | 2013-02-06 | 上海大学 | 一种针对中国老年人的情绪调控系统和方法 |
CN104869257A (zh) * | 2015-06-04 | 2015-08-26 | 上海斐讯数据通信技术有限公司 | 移动终端的主题切换方法及所应用的移动终端和电子手环 |
CN106231996A (zh) * | 2014-10-28 | 2016-12-14 | 林志成 | 用于提供对个体健康的指示的系统和方法 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102479291A (zh) * | 2010-11-30 | 2012-05-30 | 国际商业机器公司 | 情感描述生成与体验方法和设备以及情感交互系统 |
TWI482108B (zh) * | 2011-12-29 | 2015-04-21 | Univ Nat Taiwan | To bring virtual social networks into real-life social systems and methods |
US8679607B2 (en) * | 2012-07-12 | 2014-03-25 | 3M Innovative Properties Company | Foamable article |
KR20140104537A (ko) * | 2013-02-18 | 2014-08-29 | 한국전자통신연구원 | 생체 신호 기반의 감성 인터랙션 장치 및 방법 |
CN103116646B (zh) * | 2013-02-26 | 2015-10-28 | 浙江大学 | 一种基于云基因表达式编程的音乐情感识别方法 |
US20140287387A1 (en) * | 2013-03-24 | 2014-09-25 | Emozia, Inc. | Emotion recognition system and method for assessing, monitoring, predicting and broadcasting a user's emotive state |
US10013892B2 (en) | 2013-10-07 | 2018-07-03 | Intel Corporation | Adaptive learning environment driven by real-time identification of engagement level |
US20160180722A1 (en) * | 2014-12-22 | 2016-06-23 | Intel Corporation | Systems and methods for self-learning, content-aware affect recognition |
US10133918B1 (en) | 2015-04-20 | 2018-11-20 | Snap Inc. | Generating a mood log based on user images |
US10394323B2 (en) * | 2015-12-04 | 2019-08-27 | International Business Machines Corporation | Templates associated with content items based on cognitive states |
CN106155703B (zh) * | 2016-08-03 | 2021-03-16 | 北京小米移动软件有限公司 | 情绪状态的显示方法及装置 |
CN107562850A (zh) * | 2017-08-28 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 音乐推荐方法、装置、设备及存储介质 |
CN114287899A (zh) * | 2021-11-30 | 2022-04-08 | 歌尔光学科技有限公司 | 可穿戴设备的控制方法、装置、可穿戴设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1514399A (zh) * | 2002-11-25 | 2004-07-21 | ��˹���´﹫˾ | 用于健康监视和个人安全的成像方法和系统 |
CN1626029A (zh) * | 2003-11-20 | 2005-06-15 | 索尼株式会社 | 情绪计算设备和方法及移动通信设备 |
US20060279476A1 (en) * | 2005-06-10 | 2006-12-14 | Gemini Mobile Technologies, Inc. | Systems and methods for conveying message composer's state information |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3824848B2 (ja) * | 2000-07-24 | 2006-09-20 | シャープ株式会社 | 通信装置および通信方法 |
EP1256937B1 (en) * | 2001-05-11 | 2006-11-02 | Sony France S.A. | Emotion recognition method and device |
US7874983B2 (en) * | 2003-01-27 | 2011-01-25 | Motorola Mobility, Inc. | Determination of emotional and physiological states of a recipient of a communication |
US7434176B1 (en) * | 2003-08-25 | 2008-10-07 | Walt Froloff | System and method for encoding decoding parsing and translating emotive content in electronic communication |
US7543330B2 (en) * | 2004-04-08 | 2009-06-02 | International Business Machines Corporation | Method and apparatus for governing the transfer of physiological and emotional user data |
CN100534103C (zh) * | 2004-09-10 | 2009-08-26 | 松下电器产业株式会社 | 用于通告人的情感的信息处理终端和方法 |
US20060221935A1 (en) * | 2005-03-31 | 2006-10-05 | Wong Daniel H | Method and apparatus for representing communication attributes |
US20060224046A1 (en) * | 2005-04-01 | 2006-10-05 | Motorola, Inc. | Method and system for enhancing a user experience using a user's physiological state |
US8165564B2 (en) * | 2005-12-12 | 2012-04-24 | Sony Ericsson Mobile Communications Ab | Emotional communication between portable equipments |
US20080096532A1 (en) * | 2006-10-24 | 2008-04-24 | International Business Machines Corporation | Emotional state integrated messaging |
CN101669090A (zh) * | 2007-04-26 | 2010-03-10 | 福特全球技术公司 | 情绪提示系统和方法 |
US20090002178A1 (en) * | 2007-06-29 | 2009-01-01 | Microsoft Corporation | Dynamic mood sensing |
JP4506795B2 (ja) * | 2007-08-06 | 2010-07-21 | ソニー株式会社 | 生体運動情報表示処理装置、生体運動情報処理システム |
US8170872B2 (en) * | 2007-12-04 | 2012-05-01 | International Business Machines Corporation | Incorporating user emotion in a chat transcript |
US20100086204A1 (en) | 2008-10-03 | 2010-04-08 | Sony Ericsson Mobile Communications Ab | System and method for capturing an emotional characteristic of a user |
GB2477252A (en) * | 2008-10-24 | 2011-07-27 | Wms Gaming Inc | Controlling and presenting online wagering games |
US8260350B2 (en) * | 2008-10-24 | 2012-09-04 | International Business Machines Corporation | Embedded biometrics in telecommunication devices for feature extraction and context identification |
CN101853259A (zh) * | 2009-03-31 | 2010-10-06 | 国际商业机器公司 | 添加和处理带有情感数据的标签的方法和设备 |
US8326624B2 (en) * | 2009-10-26 | 2012-12-04 | International Business Machines Corporation | Detecting and communicating biometrics of recorded voice during transcription process |
US8666672B2 (en) * | 2009-11-21 | 2014-03-04 | Radial Comm Research L.L.C. | System and method for interpreting a user's psychological state from sensed biometric information and communicating that state to a social networking site |
EP2515760B1 (en) * | 2009-12-21 | 2014-02-12 | Fundación Tecnalia Research & Innovation | Affective well-being supervision system and method |
US8588825B2 (en) * | 2010-05-25 | 2013-11-19 | Sony Corporation | Text enhancement |
WO2011153318A2 (en) * | 2010-06-02 | 2011-12-08 | Q-Tec Systems Llc | Method and apparatus for monitoring emotion in an interactive network |
US8583148B2 (en) * | 2010-06-07 | 2013-11-12 | Nokia Corporation | Method and apparatus for suggesting a message segment based on a contextual characteristic in order to draft a message |
CN102479291A (zh) * | 2010-11-30 | 2012-05-30 | 国际商业机器公司 | 情感描述生成与体验方法和设备以及情感交互系统 |
-
2010
- 2010-11-30 CN CN2010105803018A patent/CN102479291A/zh active Pending
-
2011
- 2011-11-22 US US13/302,899 patent/US9251462B2/en active Active
-
2012
- 2012-03-29 US US13/433,959 patent/US9256825B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1514399A (zh) * | 2002-11-25 | 2004-07-21 | ��˹���´﹫˾ | 用于健康监视和个人安全的成像方法和系统 |
CN1626029A (zh) * | 2003-11-20 | 2005-06-15 | 索尼株式会社 | 情绪计算设备和方法及移动通信设备 |
US20060279476A1 (en) * | 2005-06-10 | 2006-12-14 | Gemini Mobile Technologies, Inc. | Systems and methods for conveying message composer's state information |
Non-Patent Citations (1)
Title |
---|
郭尚波: "个性化情感建模方法的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 10, 15 October 2008 (2008-10-15) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102908710A (zh) * | 2012-09-10 | 2013-02-06 | 上海大学 | 一种针对中国老年人的情绪调控系统和方法 |
CN106231996A (zh) * | 2014-10-28 | 2016-12-14 | 林志成 | 用于提供对个体健康的指示的系统和方法 |
CN104869257A (zh) * | 2015-06-04 | 2015-08-26 | 上海斐讯数据通信技术有限公司 | 移动终端的主题切换方法及所应用的移动终端和电子手环 |
Also Published As
Publication number | Publication date |
---|---|
US9251462B2 (en) | 2016-02-02 |
US20120190937A1 (en) | 2012-07-26 |
US9256825B2 (en) | 2016-02-09 |
US20120136219A1 (en) | 2012-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102479291A (zh) | 情感描述生成与体验方法和设备以及情感交互系统 | |
US11244104B1 (en) | Context-aware surveys and sensor data collection for health research | |
US9086776B2 (en) | Modifying avatar attributes | |
US11520455B2 (en) | Dioramic user interface having a user customized experience | |
US20170364655A1 (en) | Monitoring adherence to a healthcare plan | |
CN110717974B (zh) | 展示状态信息的控制方法、装置、电子设备和存储介质 | |
CN108874810A (zh) | 信息采集的方法和装置 | |
US11641403B2 (en) | Analyzing augmented reality content usage data | |
US10964423B2 (en) | System and method for labeling a therapeutic value to digital content | |
JP2012113589A (ja) | 行動促進装置、行動促進方法およびプログラム | |
US11934643B2 (en) | Analyzing augmented reality content item usage data | |
Zhu et al. | A human-centric framework for context-aware flowable services in cloud computing environments | |
WO2022213088A1 (en) | Customizable avatar generation system | |
WO2022006289A1 (en) | Tracking usage of augmented reality content | |
US11412968B2 (en) | System and method for a digital therapeutic delivery of generalized clinician tips (GCT) | |
Timmerer et al. | Toward a new assessment of quality | |
JP2009223419A (ja) | ネットワークチャットサービスにおけるアバターの作成編集方法、チャットサービスシステム、および画像データの作成編集方法 | |
CN109408735A (zh) | 一种陌生人社交用户画像的生成方法与系统 | |
CN117271749A (zh) | 一种元宇宙场景非玩家角色的创建方法及计算机 | |
US8856061B2 (en) | User experience adjustment in controllable events | |
JP2016071721A (ja) | 遺伝子検査結果提示装置、アバター画像生成装置、および遺伝子検査結果提示方法 | |
US10254834B2 (en) | System and method for generating identifiers from user input associated with perceived stimuli | |
Faezipour et al. | Smart healthcare monitoring apps with a flavor of systems engineering | |
Paschou et al. | Mobile Healthcare Systems: Generating Dynamic Smartphone Apps to Serve Multiple Medical Specializations-Assisting Monitoring Patient@ Home and Health Record Follow-up | |
US20240029862A1 (en) | Electronic evaluation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120530 |