CN101853259A - 添加和处理带有情感数据的标签的方法和设备 - Google Patents
添加和处理带有情感数据的标签的方法和设备 Download PDFInfo
- Publication number
- CN101853259A CN101853259A CN200910133413A CN200910133413A CN101853259A CN 101853259 A CN101853259 A CN 101853259A CN 200910133413 A CN200910133413 A CN 200910133413A CN 200910133413 A CN200910133413 A CN 200910133413A CN 101853259 A CN101853259 A CN 101853259A
- Authority
- CN
- China
- Prior art keywords
- affection data
- user
- content
- label
- affection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
Landscapes
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
公开了一种添加和处理带有情感数据的标签的方法和设备。根据本发明的添加带有情感数据的标签方法,包括:接收用户访问内容时产生的情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的;以及基于该情感数据,将将带有情感数据的标签添加到该内容。根据本发明的处理带有情感数据的标签方法,包括:从带有情感数据的标签中提取情感数据,其中该标签与一个内容相对应;以及利用情感数据提供服务。利用本发明的方法和设备,可以方便、快速、高效地将带有情感数据的标签添加到内容中,并可以改善用户体验。
Description
技术领域
本发明一般涉及计算机领域,特别涉及用于添加和处理带有情感数据的标签的方法和设备。
背景技术
随着互联网技术的不断发展,人们越来越多地访问各种各样的内容,例如图片、文本、视频、音频等等,所以如何快速、准确地查找到希望访问的内容是一个越来越被关注的问题。
通过对内容的自动分析可以实现查找一定内容的功能。但是,对内容的自动分析并不足以生成充分的内容元数据,这是因为在低级特征和高级概念之间存在着语义差别。因此,目前较为流行的技术是为内容添加语义标签。利用这种技术,可以主动产生能够更加准确地描述内容的标签。
然而,目前,各种Web 2.0服务所支持的都仅仅是包括文本性质的关键词的文本标签,而这样的文本标签有时无法很好地对特定内容进行表示。例如,一个雪山图片的文本标签包括以下文本性质的关键词:喜马拉雅、旅行、山、雪,等等,但是这并不能表达用户的情感,无法展现出用户第一次看到喜马拉雅山的感觉。
发明内容
针对以上问题,本发明提供了添加和处理带有情感数据的标签的方法和设备。
根据本发明的第一方面,提供了一种添加带有情感数据的标签的方法,包括步骤:接收用户访问内容时产生的情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的;以及,基于该情感数据,将带有情感数据的标签添加到该内容。
根据本发明的第二方面,提供了一种处理带有情感数据的标签的方法,包括步骤:从带有情感数据的标签中提取情感数据,其中该标签与一个内容相对应,情感数据是根据反映用户情感的可测量的生理学参数得到的;以及,利用情感数据提供服务。
根据本发明的第三方面,提供了一种添加带有情感数据的标签的设备,包括:接收装置,用于接收用户访问内容时产生的情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的;以及添加装置,用于基于该情感数据,将带有情感数据的标签添加到该内容。
根据本发明的第四方面,提供了一种处理带有情感数据的标签的设备,包括:提取装置,用于从带有情感数据的标签中提取情感数据,其中该标签与一个内容相对应,情感数据是根据反映用户情感的可测量的生理学参数得到的;以及服务提供装置,利用情感数据提供服务。
根据本发明的第五方面,提供了用于处理带有情感数据的标签的系统,包括:服务器,用于处理带有情感数据的标签。该服务器包括:接收装置,用于接收用户对内容进行访问时产生的情感数据;添加装置,用于基于该情感数据,将带有情感数据的标签添加到内容;提取装置,用于从带有情感数据的标签中提取情感数据;以及服务提供装置,利用情感数据提供服务。
利用本发明的方法和设备,可以方便、快速、高效地将带有情感数据的标签添加到内容中,并可以通过处理带有情感数据的标签来为用户提供服务,从而提高用户访问内容的乐趣和改善用户体验。
通过以下对说明本发明原理的优选实施方式的描述,并结合附图,本发明的其他特征以及优点将会是显而易见的。
附图说明
通过以下结合附图的说明,并且随着对本发明的更全面了解,本发明的其他目的和效果将变得更加清楚和易于理解,其中:
图1是按照本发明的一个实施例的用于添加带有情感数据的标签的方法流程图;
图2是按照本发明的一个实施例的用于处理带有情感数据的标签的方法流程图;
图3是按照本发明的另一个实施例的用于处理带有情感数据的标签的方法流程图;
图4是按照本发明的另一个实施例的用于处理带有情感数据的标签的方法流程图;
图5是按照本发明的另一个实施例的用于处理带有情感数据的标签的方法流程图;
图6是按照本发明的一个实施例的用于添加带有情感数据的标签的设备框图;
图7是按照本发明的一个实施例的用于处理带有情感数据的标签的设备框图;以及
图8是适于实施本发明的计算机系统的结构方框图。
在所有的上述附图中,相同的标号表示具有相同、相似或相应的特征或功能。
具体实施方式
以下结合附图对本发明进行更详细的解释和说明。应当理解,本发明的附图及实施例仅用于示例性作用,并非用于限制本发明的保护范围。
为了清楚起见,首先对本发明中所使用的术语作以解释。
1.情感数据
当一个用户访问一定的内容时,该用户可能会根据内容而产生相应的情感,而情感数据则是根据反映该用户的情感的一个或多个可测量的生理学参数得到的。
情感数据包括未经加工的生理和行为信号(例如,心率、呼吸频率、血压、脑电图参数、体温、皮电反应等),这些未经加工的生理和行为信号也被称作生理学参数。不同的生理学参数与不同的情感类别(例如喜欢、厌恶、害怕、高兴等)相关联。当用户访问不同内容时,例如当用户看到危险事故视频、美丽的风景图像、听到刺耳的尖叫等时,可能会产生不同的情感,从而该用户的生理学参数也会相应地变化。情感数据还可以包括利用这些生理学参数根据某种特征提取算法计算出来的值,特征提取算法例如可以是对相继两分钟的心率计算差值,即心率的一阶导数。
一个用户的情感数据可以是一个向量,该向量的元素可以是心率、呼吸频率、血压、脑电图参数、体温和皮电反应等生理学参数中的一个或多个。多个用户的情感数据则可以构成一个矩阵,这个矩阵的每一行或每一列对应一个用户的情感数据。
2.共同情感数据
共同情感数据是对不同用户访问同一内容所产生的各个情感数据进行计算或统计而得到的综合结果。共同情感数据可以反映不同用户对于同一内容进行访问时产生的“平均”情感。可以利用情感数据并根据预定策略得到共同情感数据。
3.内容
内容可以是图片、文本、视频、音频的全部或部分。
本发明包括添加和处理带有情感数据的标签的方法。以下通过图1描述了添加带有情感数据的标签的方法,并通过图2至图5示出了处理带有情感数据的标签的方法的多个例子。
在本发明一个实施例中,可以首先获取基准情感数据,然后基于该基准情感数据来执行本发明的添加带有情感数据的标签的方法。
基准情感数据可以用于确定所获取的生理学参数是否是正常的情感数据。例如,可以通过计算一个用户的基准情感数据与所获取的该用户的生理学参数之间的差值,来判断该生理学参数是否处于正常范围之内,从而确定该生理学参数是否可以作为用于添加到标签中的情感数据。
当预先确定与各个情感对应的数值范围时,可以利用基准情感数据确定与情感数据相对应的情感。例如,当基准情感数据与一个情感数据的差值在“高兴”这一情感的预设数值范围内时,则与该情感数据对应的情感是“高兴”;而当基准情感数据与一个情感数据的差值在“害怕”这一情感的预设数值范围内时,则与该情感数据对应的情感是“害怕”。因此,利用一个用户的基准情感数据可以确定当产生一个情感数据时该用户正处于何种情感。
具体地,在该实施例中,首先,可以接收用户的基准情感数据,该基准情感数据可以是基于用户在平静状态的生理学参数所确定的。其中,基准情感数据可以是用户在注册时针对指定内容产生的情感数据,也可以是用户在不同时段针对一系列普通内容进行访问而产生的情感数据的均值或者利用其他更复杂的算法计算出的结果。
然后,在该实施例中,可以基于该用户的基准情感数据,判断当前接收的该用户的情感数据是否在正常范围内:如果在正常范围内,则可以将该情感数据添加入标签,如果不在,则不将该情感数据添加到标签中。例如,可以计算当前获取的该用户的情感数据与该用户的基准情感数据的差值,然后通过对该差值求平均来判断该均值是否处于正常范围之内;或者,可以计算该差值相对于基准值的百分比,然后通过对该百分数求平均来判断该均值是否处于正常范围之内。其中,正常范围可以根据医学上的常识来确定。例如,心率的正常范围可以在0到医学上的心率最大值之间,而不应该是负值或者过高的数值。
另外,在该实施例中,当预先设定与各个情感对应的数值范围时,还可以基于该用户的基准情感数据,判断产生当前接收的情感数据的用户当前处于何种情感。
应该注意的是,用户的基准情感数据可以作为情感数据添加到标签中,从而可以作为一种情感数据进行处理,来提供服务。
图1是按照本发明的一个实施例的用于添加带有情感数据的标签的方法流程图。该方法首先接收用户访问内容时产生的情感数据,然后将带有情感数据的标签添加到该内容。利用该情感数据,可以根据预定策略计算与该内容相对应的共同情感数据。可以将共同情感数据看成是一种情感数据,从而可以像情感数据那样,将该共同情感数据作为标签添加到该内容中。另外,也可以将该共同情感数据存储到存储器中,从而当需要使用该共同情感数据时便于对其进行存取。
在步骤101,确定用户正在访问一个内容。
当用户希望访问某个内容时,通常会向本发明的用于添加带有情感数据的标签的设备或服务器发送访问请求,如果该设备判断该用户具有访问权限,则允许用户访问该内容。因此,可以利用多种现有技术,确定哪个,哪些用户正在访问什么内容。
在本实施例中,假设用户点击了一个URL,其中该URL链接到一个雪山图片。此时,本发明的用于添加带有情感数据的标签的设备可以确定该用户希望访问的是这个雪山图片。如果该设备判断该用户有访问权限,则允许用户在自己的显示屏上浏览这个图片。此时,本发明的用于添加带有情感数据的标签的设备不仅可以确定用户正在访问一个内容,而且可以存储一条关于该用户访问了这个内容的记录。
在步骤102,接收该用户访问该内容而产生的情感数据。
在该步骤中,首先在客户端(即,用户终端)处感测用户访问该内容所产生的生理学参数,然后客户端根据感测到的生理学参数得到情感数据,并将得到的情感数据提供给本发明的用于添加带有情感数据的标签的设备。或者,首先在客户端(即,用户终端)处感测用户访问该内容所产生的生理学参数,然后客户端直接将感测到的生理学参数提供给本发明的用于添加带有情感数据的标签的设备,由该设备接收后根据该生理学参数得到情感数据。
应该注意的是,在一个实施例中,在执行步骤102之前,可以执行获取用户访问内容时的生理学参数,以及基于该生理学参数得到用户访问内容时产生的情感数据的过程。在该过程中,可以将生理学参数传感器或生物信号检测器安排在客户端处,例如,摆放在用户终端附近或者用户身上穿着可穿戴传感器等等,以便在步骤102中感测用户访问该内容所产生的生理学参数。在另一个实施例中,还可以计算预先得到的用户的基准情感数据与感测的该用户的生理学参数之间的差值,然后判断该生理学参数是否处于正常范围之内,并将处于正常范围之内的生理学参数作为情感数据。
在本实施例中,步骤102的具体过程如下:
假设有3个用户正在访问一个带有雪山的图片,这3个用户都穿戴有可以感测生理学参数的传感器,并且利用该传感器来感测用户的心率、血压等生理学参数的信号。可以在客户端处将通过传感器感测到的信号转化成电信号,并经过对该电信号的放大和A/D转换来得到用户的情感数据,再将该情感数据提供给本发明的用于添加带有情感数据的标签的设备。作为备选方案,客户端也可以将通过传感器感测到的信号直接提供给本发明的用于添加带有情感数据的标签的设备,并由该设备来将该感测到的信号转化成电信号并对该电信号的放大和A/D转换,来得到用户的情感数据。
假设通过步骤102得到的第一个用户的情感数据是(70,110,85),表示第一个用户的心率是70次/分钟、血压是110/85毫米汞柱,其中收缩压是110毫米汞柱而舒张压是85毫米汞柱;第二个用户的情感数据是(75,120,90),表示第二个用户的心率是75次/分钟、血压是120/90毫米汞柱;第三个用户的情感数据是(80,100,70),表示第三个用户的心率是80次/分钟、血压是100/70毫米汞柱。
在一个例子中,可以通过统计模式识别的方法来根据生理学参数确定对应的情感类别。具体而言,可以利用统计的方法根据训练样本为每个情感类别训练模型,然后利用训练好的模型对生理学参数进行分类。具体可以参考论文:Toward Machine EmotionalIntelligence:Analysis Of Affective Physiological State,R.W.Picard,E.Vyzas,and J.Healey,IEEE Trans.On Pattern Analysis and MachineIntelligence,Vol.23,No.10,Oct.2001,pp.1175-1191。因此,根据统计模式识别的方法,利用训练好的模型将情感数据进行分类,可以确定用户属于何种情感类别,例如,“高兴”,“惊讶”或“害怕”等。
在另一个例子中,当预先确定与各个情感类别对应的数值范围时,可以利用基准情感数据确定与生理学参数相对应的情感类别。例如,当基准情感数据与生理学参数的差值在“高兴”这一情感的数值范围内时,则确定与该生理学参数对应的情感是“高兴”,即用户产生该生理学参数时正处于“高兴”的情感中。
在该实施例中,假设确定出第一个用户的情感是“高兴”,第二个用户的情感是“惊讶”,第三个用户的情感是“害怕”。
在步骤103,将带有情感数据的标签添加到内容中。
在最简单的情况下,本发明的用于添加带有情感数据的标签的设备可以仅仅将情感数据包含的元素直接作为标签。可选地,该设备也可以将其他附加信息与情感数据共同作为标签,其他附加信息例如用户IP地址、标识符、访问时间戳等。
在步骤104,基于提取的情感数据,根据预定策略计算共同情感数据。
本发明的用于添加带有情感数据的标签的设备可以根据多种预定策略来计算共同情感数据。例如,当标签中带有多个用户访问该内容时产生的情感数据时,可以通过对不同用户进行平均来计算共同情感数据;或者,可以计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;或者,可以利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。还可以使用其他的统计模式识别方法来计算共同情感数据。与情感数据类似,计算得到的共同情感数据可以是一个向量。
在本实施例中,例如将多个用户的情感数据的均值(75,110,82)作为共同情感数据。
在步骤105,本发明的用于添加带有情感数据的标签的设备将带有共同情感数据的标签添加到内容中,以便通过处理该共同情感数据来向用户提供服务。
在其他实施例中,还可以将共同情感数据存储到存储器中或者任何适于被访问的介质上,例如可以磁盘、软盘、光盘、磁带和本领域技术人员所能想到的其他介质。
然后流程结束。
应当理解的是,步骤104和105是可选的。在不计算共同情感数据的情况下,本发明的添加带有情感数据的标签的方法也完全可以实现。如果没有步骤104和105,则可以在后续处理带有情感数据的标签时计算共同情感数据。而如果具有步骤104和105,则在后续处理带有情感数据的标签时,直接从标签中提取或者从存储器中读取该共同情感数据即可。
在本发明的一个实施例中,当用户观看一段视频时,可以通过获取用户在不同时间点的生理学参数,来得到用户观看该视频的情感数据。此时,用户观看该视频的情感数据可以是多个情感数据的集合,该集合中的每个情感数据与用户在每个时间点的情感相对应,其中可以是预先设定时间点之间的时间间隔,例如时间间隔为每隔一分钟。在接收用户访问内容时产生的情感数据的步骤中,接收的可以是该情感数据集合中的每个情感数据以及与每个情感数据对应的时间点。在将带有情感数据的标签添加到内容的步骤中,可以将接收的每个情感数据以及与每个情感数据对应的时间点都包含在标签中,然后将这样的标签添加到内容中。这样,以后对这种标签进行处理时,能够提取出用户在一个时间段的不同时间点的情感数据,从而更加方便高效地做出相应处理。
图2至图5分别示出了处理带有情感数据的标签的方法的例子。这些例子都可以由根据本发明的处理带有情感数据的标签的设备来完成。应该注意的是,可以通过接收用户对内容进行访问时产生的情感数据并将所接收的情感数据作为标签添加到内容中,来得到需要进行处理的带有情感数据的标签。此外,也可以通过本领域技术人员公知的其他技术来得到需要进行处理的带有情感数据的标签。
在图2所示的例子中,本发明的处理带有情感数据的标签的设备首先响应于一个用户对与自己在访问内容时产生相似的情感的其他用户的查询请求,获取该一个用户访问内容而产生的情感数据;从内容的标签中提取其他用户的情感数据;然后根据该一个用户的情感数据和其他用户的情感数据,确定与该一个用户具有相似情感的其他用户;之后将所确定的其他用户的信息提供给该一个用户。
在图3所示的例子中,本发明的处理带有情感数据的标签的设备首先获取用户针对当前访问的内容而产生的情感数据;从要进行匹配的内容的标签中提取情感数据;然后根据用户当前的情感数据和从要进行匹配的内容的标签中提取的情感数据查找匹配内容,其中匹配内容的标签具有与用户当前的情感数据相匹配的情感数据;之后将匹配内容提供给该用户。
在图4所示的例子中,本发明的处理带有情感数据的标签的设备首先从一个用户先前访问过的内容的标签中提取情感数据;从要进行匹配的内容的标签中提取情感数据;通过对从该一个用户先前访问过的内容的标签中提取的情感数据进行统计,确定该一个用户最频繁产生的情感;根据与该一个用户最频繁产生的情感相对应的情感数据和从要进行匹配的内容的标签中提取的情感数据查找匹配内容;之后将匹配内容提供给该一个用户。
在图5所示的例子中,本发明的处理带有情感数据的标签的设备可以首先接收一个用户对与自己访问同一内容的其他用户的情感进行体验的请求;然后响应于该请求,从同一内容的标签中提取其他用户的情感数据;之后基于所提取的其他用户的情感数据,对该一个用户进行激励。
以下具体描述图2至图5所示的实施例。
图2是按照本发明的一个实施例的用于处理带有情感数据的标签的方法流程图。在本实施例中,假设这样一个场景,用户1正在浏览一个雪山图片。用户1看到雪山的美景之后非常向往去雪山地区旅游,希望找到与自己有共同兴趣的人作为同伴。因此,用户1可能希望查询哪些用户在访问这个图片时具有与自己相似的情感,从而与之进一步交流。
在步骤201,接收用户希望查询哪些用户在访问同一内容时与自己具有相似情感的请求。
在步骤202,获取该用户访问该内容时产生的情感数据。
与图1所示的实施例中的步骤102相似,在步骤202中,根据本发明的处理带有情感数据的标签的设备首先感测用户访问该内容所产生的生理学参数,然后利用感测到的生理学参数得到用户的情感数据。
在本实施例中,假设用户1看到雪山时的情感是“惊讶”,并且通过感测而得到的用户1的情感数据是(75,120,90),其中每个元素分别对应于该用户的心率、血压中的收缩压、血压中的舒张压等生理学参数。
在步骤203,读取该内容的标签并从标签提取其他用户的情感数据。
在本实施例中,假设有3个用户(用户2、用户3、用户4)曾经访问过这个雪山图片,用户2的情感数据是(70,110,85),用户3户的情感数据是(75,120,90),用户4的情感数据是(80,100,70),这些情感数据都已存储在该图片的标签中。在这种情况下,根据本发明的处理带有情感数据的标签的设备可以从标签中分别提取这3个用户的情感数据。
在步骤204,计算该用户的情感数据与其他用户的情感数据之间的距离。
可以例如使用欧氏距离或者本领域技术人员公知的其他方法来计算情感数据之间的距离。
假设使用一个n维向量来表示情感数据,记为Xj×n=<xj1,xj2,…,xjn>,其中n表示感测的生理学参数的数目,j表示第j个用户。则第i个用户与第j个用户之间,即,向量Xi与Xj之间的欧氏距离为:
可以用它来作为第i个用户与第j个用户的情感数据之间的距离。
在本实施例中,根据本发明的处理带有情感数据的标签的设备可以利用上述计算方法来计算用户1的情感数据(75,120,90)与用户2、用户3、用户4的情感数据(70,110,85)、(75,120,90)、(80,100,70)之间的距离。假设计算出的距离为d12=12.25、d13=0、d14=28.73。
在步骤205,按照距离顺序将其他用户进行排序。
可以按照升序或者降序对计算出的距离进行排序,从而相应地对其他用户进行排序。在本实施例中,由于d13<d12<d14,所以按照距离的升序将这3个其他用户排列为:用户3、用户2、用户4。
在步骤206,确定与该用户具有相似情感的用户。
情感数据之间的距离表示用户的情感之间的相似程度。距离越小,相似程度越高;距离越大,相似程度越低。在本实施例中,用户3与用户1的情感数据之间的距离最小,因此确定与用户1具有相似情感的用户为用户3。
从步骤204至步骤206是根据该用户的情感数据和其他用户的情感数据来确定与该用户具有相似情感的其他用户这一过程的一种具体实现方式。可以理解的是,还可以利用本领域公知的其他手段来实现这一过程。
在步骤207,将所确定的用户信息提供给该用户。
用户信息例如用户IP地址、标识符、访问时间戳等,这些用户信息可以存储在某个存储器中,也可以存储在本发明的设备可以访问的任何其他存储介质中。在本实施例中,根据本发明的处理带有情感数据的标签的设备可以将用户3的各种用户信息提供给用户1,从而用户1可以向用户3发送聊天消息或发送邮件来进行交友等活动。
然后流程结束。
图3是按照本发明的另一个实施例的用于处理带有情感数据的标签的方法流程图。图3所示的例子中,根据本发明的处理带有情感数据的标签的设备获取一个用户当前的情感数据,查找其标签中具有的情感数据与用户当前的情感数据相匹配的内容,并将查找到的内容提供给这个用户。
在本实施例中,假设用户1正在浏览一个雪山图片,该用户由于先前的户外历险经历而对雪山具有恐惧心理,因此看到雪山图片时该用户产生的是“害怕”。利用本发明的方法,则可以将与用户当前情感相反的内容提供给用户,从而改善用户体验。
在步骤301,确定用户正在访问一个内容。
步骤301与图1中的步骤101类似。当用户希望访问某个内容时,通常会发送访问请求,如果该用户被确定为具有访问权限,则可以访问该内容。因此,可以确定哪个,哪些用户正在访问什么内容。
在步骤301,确定一个用户(例如,用户1)正在访问的内容例如是一个雪山图片。
在步骤302,获取该用户访问该内容而产生的情感数据。
与图1所示的实施例中的步骤102相似,在步骤302中首先感测用户访问该内容所产生的生理学参数,然后利用感测出的生理学参数得到用户的情感数据。
在本实施例中,假设用户1看到雪山时的情感是“害怕”,并且通过感测而得到的用户1的情感数据是(80,100,70),其中每个元素分别对应于该用户的心率、血压中的收缩压、血压中的舒张压等生理学参数。
在步骤303,读取集合中的一个内容的标签并从该标签提取共同情感数据。
在本实施例中,例如由图像、视频、文字、语音等构成一个集合C,假设集合C包含N个内容,集合C中的第i个内容记为Ci。
在本实施例中,从步骤303至305,将集合C中的每个内容的标签中的情感数据与用户1的情感数据进行比较,来确定二者之间的距离。这样的判断共进行N次,直到判断完集合C中的所有内容为止。
根据图1所示的实施例可知,共同情感数据可以是在添加带有情感数据的标签的过程中预先计算出、并作为标签添加到内容中或存储到存储器中的;也可以是在处理带有情感数据的标签的过程中根据标签中的情感数据实时计算出、并作为标签添加到内容中或存储到存储器中的。
在本实施例中,假设共同情感数据是在添加带有情感数据的标签的过程中预先计算出、并作为标签添加到内容中的。因此,在步骤303,读取集合C中的各个内容的标签,并从该标签提取共同情感数据。假设从集合C中的第一个内容C1提取的共同情感数据为(75,110,82)。
在另一个实施例中,也可以在步骤303中读取集合中的一个内容的标签并从该标签提取情感数据,然后利用所提取的情感数据根据预定策略来得到与集合C中的第一个内容C1对应的共同情感数据。
在步骤304,计算该用户当前的情感数据与提取的共同情感数据之间的距离。
在该步骤中,计算的是用户1当前的情感数据(75,120,90)与从内容Ci的标签中提取的共同情感数据(75,110,82)之间的距离d1,其中i表示集合C中的第i个内容。
这个距离可以例如使用欧氏距离来计算,也可以使用本领域技术人员公知的其他方法来计算。
以上描述的步骤303-304仅仅是本发明的一个具体例子。在另一个实施例中,在步骤303中可以从内容的标签中任意提取一个情感数据,而不必限于共同情感数据;此时,在步骤304中,计算的则是该用户当前的情感数据与从内容的标签中任意提取的情感数据之间的距离。
在步骤305,确定集合中是否有未进行判断的内容。
首先判断当前计算距离的内容是集合中的第几个内容,如果是第N个,即i=N,则进行到步骤306;否则,返回步骤303继续计算集合C中的其他内容的标签中的情感数据与用户1的情感数据之间的距离。
在步骤306,按照距离顺序对该集合中的内容进行排序。
根据步骤303至步骤305,计算出了集合C中的内容的标签中的情感数据与用户1的情感数据之间的N个距离,即d1,d2,...,dN。可以按照升序或者降序对计算出的距离进行排序,从而相应地对该集合中的内容进行排序。
在步骤307,将与最大距离对应的内容提供给该用户。
假设最大距离为d2,该最大距离d2所对应的内容为C2。内容C2例如是一段热闹的婚礼,其引起的用户心理反应是“喜悦”。这样,能够使得用户1很快从“害怕”转变为“喜悦”的情感,从而及时调整了用户情绪,改善了用户体验。
然后流程结束。
优选地,图3所示的实施例应用于用户当前处于负面情感的情况下,该负面情感例如“害怕”、“厌恶”等情感,以便及时稳定用户情绪,改善用户体验。
应当注意的是,在另一个实施例中,在步骤307也可以将与最小距离对应的内容提供给用户1。这时,提供给用户1的可能是一个有关灾难的电影或者其他类似内容,使得用户继续体验“害怕”这种情感。将与何种距离对应的内容提供给客户可以由客户自己实时地定义,也可以预先固定性地设定。
与最大距离对应的内容和最小距离对应的内容的标签中具有的情感数据都可以作为与用户当前的情感数据相匹配的情感数据。因此,在一个实施例中,与最大距离对应的内容可以是匹配内容;而在另一个实施例中,与最小距离对应的内容的标签可以是匹配内容。
图4是按照本发明的另一个实施例的用于处理带有情感数据的标签的方法流程图。在本实施例中,假设用户1访问过4个内容,包括:有关雪山美景的图片、卓别林视频片段、有关海滨度假的博客、以及恐怖片的视频片段。利用本发明的方法,根据本发明的处理带有情感数据的标签的设备可以根据用户1的访问记录来将匹配内容提供给该用户,该匹配内容具有的情感数据匹配于与用户1最频繁产生的情感相对应的情感数据。
在步骤401,确定用户先前访问过的内容。
用户先前可能访问过很多内容,例如,用户可能通过网络浏览图片、观看视频片段、听歌、或者阅读博客,等等。在用户访问这些内容时,网络日志可以记录相关的信息,例如用户的IP地址、用户访问的内容的URL、访问时间戳、访问期间等。通过读取这些记录信息,可以确定用户先前访问过的内容。另外,还可以利用本领域技术人员公知的任何其他技术来确定用户先前访问过的内容。
优选地,在步骤401中,可以预先设定一个时间区间,并确定用户在这个时间区间内访问的内容。例如,仅确定用户在最近1小时内访问的内容。这样,可以更加准确地了解用户最近的情感状况,从而提供更加适合用户最近情感的内容。这个预先设定的时间区间可以是数分钟、数小时、数天、数周等等,并可以由用户自行设定或者可以按照系统设计而固定设定。
在步骤402,读取该内容的标签,并从标签提取该用户的情感数据。
利用本发明的用于添加带有情感数据的标签的方法,根据本发明的处理带有情感数据的标签的设备可以将用户访问上述内容时产生的情感数据以及其他附加信息(例如用户IP地址、标识符、访问时间戳)作为标签分别添加到有关雪山美景的图片、卓别林视频片段、有关海滨度假的博客、以及恐怖片的视频片段中。
这样,在步骤402,可以读取这些内容的标签,从中找到该用户的情感数据,继而提取该情感数据。
在本实施例中,假设用户浏览雪山图片产生的情感数据为(70,112,85)、观看卓别林视频片段产生的情感数据为(72,111,82)、阅读有关海滨度假的博客产生的情感数据是(75,110,80)、观看有关恐怖片的视频片段时产生的情感数据是(95,120,90),这些情感数据都已包括在相应内容的标签中。在这种情况下,每次执行步骤402时,可以从其中一个内容的标签中提取这个用户的情感数据。
在步骤403,判断该用户是否还访问过其他内容。
判断已经从其标签提取情感数据的内容的数目是否达到用户先前访问过的内容总数,在本实施例中即判断是否达到4。如果是,则进行到步骤404;否则,返回步骤401继续处理。
在步骤404,对该用户的情感数据进行统计,确定用户最频繁产生的情感。
可以使用统计模式识别中的聚类的方法来确定该用户最频繁产生的情感。例如,可以使用k均值聚类的方法来完成上述确定过程。具体可以参考Pattern Classification(Second Edition),Chapter 10,pp.517-599,R.O.Duda,P.E.Hart,and D.G.Stork,ISBN:0-471-05669-3。通过对从步骤401至步骤403提取的4个情感数据进行分析,可以得出,前3个内容(雪山图片、卓别林视频片段、有关海滨度假的博客)的标签中的情感数据(70,112,85)、(72,111,82)、(75,110,80)彼此比较相近,而第4个内容(有关恐怖片的视频片段)的标签中的情感数据(95,120,90)则与前3个内容的标签中的情感数据差别较大。这样,可以将前3个内容分为第一类,而第4个内容分为第二类。由于第一类中包含的内容数目大于第二类中包含的内容数目,所以确定用户访问第一类中包含的内容(即前3个内容)时所产生的情感是该用户最频繁产生的情感。
在步骤405,得到与该用户最频繁产生的情感相对应的情感数据。
可以将第一类中的任何一个内容的标签中的该用户的情感数据作为与该用户最频繁产生的情感相对应的情感数据。也可以通过对第一类中的所有内容的标签中的该用户的情感数据计算平均值、高斯分布的均值或加权值,将该计算结果作为与该用户最频繁产生的情感相对应的情感数据。
在步骤406,读取一个内容的标签,并从该标签提取共同情感数据。
在本实施例中,从步骤406至408,通过确定步骤405得到的与该用户最频繁产生的情感相对应的情感数据与某个内容的标签中的共同情感数据之间的距离,从而将可能引起用户产生其最频繁产生的情感的内容提供给用户,从而改善用户体验。
在步骤407,计算与该用户最频繁产生的情感相对应的情感数据和共同情感数据之间的距离。
这个距离可以例如使用欧氏距离来计算,也可以使用本领域技术人员公知的其他方法来计算。
以上描述的步骤406-407仅仅是本发明的一个具体例子。在另一个实施例中,在步骤406可以从内容的标签中任意提取一个情感数据,而不必限于共同情感数据;此时,在步骤407中,计算的则是该用户最频繁产生的情感相对应的情感数据和从内容的标签中任意提取的一个情感数据之间的距离。
在步骤408,确定计算出的距离是否小于阈值。
阈值可以是系统固定设置的,也可以是用户自己设定的并且用户可以根据情况自行调整。
如果在步骤407计算出的距离小于阈值,则此时正在判断的内容所具有的平均情感数据和与该用户最频繁产生的情感相对应的情感数据较为接近,此时确定查找到了匹配内容,然后流程进行到步骤409;否则,返回步骤406,继续查找匹配内容。
应该注意的是,在其他实施例中可能发生这样的情况,即当判断完所有内容时都没有发现匹配内容。此时,可以适当提高阈值来重新判断每个内容,提高阈值的动作可以由系统完成也可以由用户自行完成。
在步骤409,将匹配内容提供给该用户。
匹配内容是指这样的内容,其标签中的情感数据和与该用户最频繁产生的情感相对应的情感数据之间的距离小于阈值。通过将匹配内容提供给该用户,可以快速和及时地向用户提供可能引起用户产生其最频繁产生的情感的内容,从而显著改善了用户体验。
在本实施例中,判断出用户最频繁产生的情感是“高兴”,因此可以将可能引起“高兴”这一情感的内容提供给用户,例如可以将相声音频、喜剧片、漫画等提供给用户。
应该注意的是,在另一个实施例中,还可以将引起与“高兴”这一情感相反的情感的内容作为匹配内容,例如将可以引起“悲伤”这一情感的内容作为匹配内容。此时,可以在步骤408中确定计算出的距离是否大于预定阈值,然后将与大于预定阈值的距离对应的内容作为匹配的内容。
然后流程结束。
图5是按照本发明的另一个实施例的用于处理带有情感数据的标签的方法流程图。在本实施例中,假设这样一个场景,用户1正在访问一个雪山图片,并且希望感受访问过这个雪山图片的其他用户所产生过的情感。利用本发明的方法,根据本发明的处理带有情感数据的标签的设备可以使得用户1感受到访问同一内容的其他用户产生的情感,从而显著改善用户体验。
在步骤501,接收用户对访问同一内容的其他用户的情感进行体验的请求。
在步骤502,读取该内容的标签,并从标签提取其他用户访问该内容而产生的情感数据。
与图2所示的实施例中的步骤203相似,在本实施例中,假设有3个用户(用户2、用户3、用户4)曾经访问过同一个雪山图片,用户2的情感数据是(70,110,85),用户3的情感数据是(75,120,90),用户4的情感数据是(80,100,70),这些情感数据都已存储在该图片的标签中。在步骤502,读取该雪山图片的标签,并从标签中分别提取用户2、用户3、用户4的情感数据。
在步骤503,计算所提取的情感数据的平均值,从而得到共同情感数据。
根据图1所示的实施例可知,共同情感数据可以是在添加带有情感数据的标签的过程中预先计算出、并作为标签添加到内容中或存储到存储器中的;也可以是在处理带有情感数据的标签的过程中根据标签中的情感数据实时计算出、并作为标签添加到内容中或存储到存储器中的。
在本实施例中,假设共同情感数据并没有在添加带有情感数据的标签的过程中预先计算出。因此,在步骤503,根据步骤502提取的用户2、用户3、用户4的情感数据来计算共同情感数据。
可以根据多种预定策略来计算共同情感数据。例如,当标签中带有多个用户访问该内容时产生的情感数据时,可以通过对不同用户进行平均来计算共同情感数据;或者,可以计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;或者,可以利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。
在本实施例中,利用预定权重对用户2、用户3、用户4的情感数据进行加权,其中权重是例如根据各个用户的等级、重要性或优先级来预先设定的。例如,用户2是初级用户,权重较小,为0.2;用户3是高级用户,则权重较大,为0.5;用户4是中级用户,则权重适中,为0.3。利用该权重对用户2、用户3、用户4的情感数据(70,110,85)、(75,120,90)、(80,100,70)分别加权后再相加,得到的共同情感数据为(75.5,112,83)。
在步骤504,将该共同情感数据提供给用户的激励设备,以便对用户产生相应激励。
在本实施例中,在客户端处例如可以具有激励设备,以将来自本发明的设备的共同情感数据转化成对用户的激励,从而使得用户体验与访问同一内容的其他用户的共同情感数据相对应的情感。
可以通过多种方式来激励用户,例如:通过将共同情感数据转化为音频信号,然后通过笔记本、手机、PDA等播放出来,使用户通过聆听音乐的方式来体验该共同情感数据;或者,通过提供共同情感数据给灯光控制系统,将共同情感数据转化为光信号,从而通过用户周围的灯光变化来使得用户体验该共同情感数据;或者,通过在鼠标中设置一个弱电流刺激装置,将共同情感数据转化为弱电流信号,由于用户的手握在鼠标上,从而通过鼠标发出的弱电流信号刺激来使得用户体验该共同情感数据。
然后流程结束。
应当注意的是,除如图5所示的实施例那样利用访问同一内容的多个用户的共同情感数据来激励用户之外,还可以使用该内容的标签中的任意一个用户的情感数据来激励用户。也就是说,基于从该同一内容的标签所提取的情感数据,可以对用户进行激励,而不必一定是利用共同情感数据来激励用户。
图6是按照本发明的一个实施例的用于添加带有情感数据的标签的设备框图。
图6所示的设备600可以包括:
接收装置610,用于接收用户访问内容时产生的情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的;添加装置620,用于基于该情感数据,将带有情感数据的标签添加到该内容。
应当注意的是,可以将生理学参数传感器或生物信号检测器安排在客户端(即,用户终端)处,例如,将传感器摆放在用户终端附近或者用户身上穿着可穿戴传感器等等。
由此,可以在客户端(即,用户终端)处感测用户访问该内容所产生的生理学参数,然后客户端根据感测到的生理学参数得到情感数据,并将得到的情感数据提供给设备600的接收装置610。或者,也可以在客户端(即,用户终端)处感测用户访问该内容所产生的生理学参数,然后客户端直接将感测到的生理学参数提供给设备600的接收装置610,由接收装置610根据该生理学参数得到情感数据。随后,可以由添加装置620将接收装置610得到的情感数据作为标签添加到内容。
设备600还可以包括:用于利用情感数据,根据预定策略计算与该内容相对应的共同情感数据的装置;用于将带有共同情感数据的标签添加到该内容中或者将共同情感数据存储到存储器中,以便通过处理共同情感数据来向用户提供服务的装置。应当理解的是,这两个装置是可选的。在不计算共同情感数据的情况下,则可以在后续处理带有情感数据的标签时计算共同情感数据。而如果具有这两个装置,则在后续处理带有情感数据的标签时,直接从标签中提取或者从存储器中读取该共同情感数据即可。
其中,预定策略可以是以下任何一种策略:对来自多个用户的情感数据进行平均,并将该平均值作为共同情感数据;计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;以及利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。
图7是按照本发明的一个实施例的用于处理带有情感数据的标签的设备框图。
图7所示的设备700可以包括:提取装置710,用于从带有情感数据的标签中提取情感数据,其中该标签与一个内容相对应;服务提供装置720,利用情感数据提供服务。设备700还可以包括:接收装置610,用于接收用户对该内容进行访问时产生的情感数据;以及添加装置620,用于基于该情感数据,将带有情感数据的标签添加到该内容。
设备700的服务提供装置720可以包括:用于利用情感数据,根据预定策略计算与内容相对应的共同情感数据的装置;用于将带有共同情感数据的标签添加到内容中或者将共同情感数据存储到存储器中的装置;以及将共同情感数据作为情感数据进行处理的装置。
其中,预定策略可以是以下任何一种策略:对来自多个用户的情感数据进行平均,并将该平均值作为共同情感数据;计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;以及利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。
在一个实施例中,设备700的提取装置710可以包括:用于接收一个用户对与其在访问内容时产生相似的情感的其他用户的查询请求的装置;用于获取该一个用户访问内容而产生的情感数据的装置;用于从内容的标签中提取其他用户的情感数据的装置。设备700的服务提供装置720可以包括:用于根据该一个用户的情感数据和其他用户的情感数据,确定与该一个用户具有相似情感的其他用户的装置;以及用于将所确定的其他用户的信息提供给该一个用户的装置。
在另一个实施例中,设备700的提取装置710可以包括:用于从要进行匹配的内容的标签中提取情感数据的装置。设备700的服务提供装置720可以包括:用于获取用户针对当前访问的内容而产生的情感数据的装置;用于根据用户当前的情感数据和从要进行匹配的内容的标签中提取的情感数据查找匹配内容的装置;以及用于将匹配内容提供给该用户的装置。
在另一个实施例中,设备700的提取装置710可以包括:用于从一个用户先前访问过的内容的标签中提取情感数据的装置;以及用于从要进行匹配的内容的标签中提取情感数据的装置。设备700的服务提供装置720可以包括:用于通过对从该一个用户先前访问过的内容的标签中提取的情感数据进行统计,确定该一个用户最频繁产生的情感的装置;用于根据与该一个用户最频繁产生的情感相对应的情感数据和从要进行匹配的内容的标签中提取的情感数据查找匹配内容的装置;以及用于将匹配内容提供给该一个用户的装置。
在另一个实施例中,设备700的提取装置710可以包括:用于接收一个用户对与其访问同一内容的其他用户的情感进行体验的请求的装置;用于从同一内容的标签中提取其他用户访问同一内容而产生的情感数据的装置。设备700的服务提供装置720可以包括:用于基于所提取的其他用户的情感数据对该一个用户进行激励的装置。
本发明还提供了一种用于处理带有情感数据的标签的系统,该系统可以包括:客户端,用于感测和提供用户对内容进行访问时产生的情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的;服务器,用于处理带有情感数据的标签。该服务器可以包括:接收装置,用于接收用户对内容进行访问时产生的情感数据;添加装置,用于基于该情感数据,将带有情感数据的标签添加到内容;提取装置,用于从带有情感数据的标签中提取情感数据;以及服务提供装置,利用情感数据提供服务。
图8示意性示出了可以实现根据本发明的实施例的计算设备的结构方框图。
图8中所示的计算机系统包括CPU(中央处理单元)801、RAM(随机存取存储器)802、ROM(只读存储器)803、系统总线804,硬盘控制器805、键盘控制器806、串行接口控制器807、并行接口控制器808、显示器控制器809、硬盘810、键盘811、串行外部设备812、并行外部设备813和显示器814。在这些部件中,与系统总线804相连的有CPU 801、RAM 802、ROM 803、硬盘控制器805、键盘控制器806,串行接口控制器807,并行接口控制器808和显示器控制器809。硬盘810与硬盘控制器805相连,键盘811与键盘控制器806相连,串行外部设备812与串行接口控制器807相连,并行外部设备813与并行接口控制器808相连,以及显示器814与显示器控制器809相连。
图8中每个部件的功能在本技术领域内都是众所周知的,并且图8所示的结构也是常规的。不同的应用中,可以向图8中所示的结构添加某些部件,或者图8中的某些部件可以被省略。图8中所示的整个系统由通常作为软件存储在硬盘810中、或者存储在EPROM或者其他非易失性存储器中的计算机可读指令控制。软件也可从网络(图中未示出)下载。或者存储在硬盘810中,或者从网络下载的软件可被加载到RAM 802中,并由CPU 801执行,以便完成由软件确定的功能。
尽管图8中描述的计算机系统能够支持根据本发明的用于添加带有情感数据的标签的设备和处理带有情感数据的标签的设备,但是其只是计算机系统的一个例子。本领域的熟练技术人员可以理解,许多其他计算机系统设计也能实现本发明的实施例。
本发明涉及一种计算机程序产品,该计算机程序产品包括用于执行如下的代码:接收用户访问内容时产生的情感数据,其中该情感数据是根据反映用户情感的可测量的生理学参数得到的;以及基于该情感数据,将带有情感数据的标签添加到内容。本发明还涉及一种计算机程序产品,该计算机程序产品包括用于执行如下的代码:从带有情感数据的标签中提取情感数据,其中该标签与一个内容相对应,该情感数据是根据反映用户情感的可测量的生理学参数得到的;以及利用情感数据提供服务。在使用之前,可以把代码存储在其他计算机系统的存储器中,例如,存储在硬盘或诸如光盘或软盘的可移动的存储器中,或者经由因特网或其他计算机网络进行下载。
所公开的本发明的方法可以在软件、硬件、或软件和硬件的结合中实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器、个人计算机(PC)或大型机来执行。
应当注意,为了使本发明更容易理解,上面的描述省略了对于本领域的技术人员来说是公知的、并且对于本发明的实现可能是必需的更具体的一些技术细节。
提供本发明的说明书的目的是为了说明和描述,而不是用来穷举或将本发明限制为所公开的形式。对本领域的普通技术人员而言,许多修改和变更都是显而易见的。
因此,选择并描述实施方式是为了更好地解释本发明的原理及其实际应用,并使本领域普通技术人员明白,在不脱离本发明实质的前提下,所有修改和变更均落入由权利要求所限定的本发明的保护范围之内。
Claims (27)
1.一种添加带有情感数据的标签的方法,包括:
接收用户访问内容时产生的情感数据,其中所述情感数据是根据反映用户情感的可测量的生理学参数得到的;
基于所述情感数据,将带有情感数据的标签添加到所述内容。
2.根据权利要求1所述的方法,还包括,
利用所述情感数据,根据预定策略计算与所述内容相对应的共同情感数据;
将带有共同情感数据的标签添加到所述内容中或者将共同情感数据存储到存储器中。
3.根据权利要求2所述的方法,其中所述预定策略包括以下策略之一:
对来自多个用户的情感数据进行平均,并将该平均值作为共同情感数据;
计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;以及
利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。
4.根据权利要求1所述的方法,还包括:
获取用户访问内容时的生理学参数。
5.根据权利要求4所述的方法,其中用户访问内容时的生理学参数是通过生理学参数传感器或生物信号检测器获取的,其中所述生理学参数包括以下中的一个或多个:
心率、呼吸频率、血压、脑电图参数、体温和皮电反应。
6.一种处理带有情感数据的标签的方法,包括:
从带有情感数据的标签中提取情感数据,其中所述标签与一个内容相对应,所述情感数据是根据反映用户情感的可测量的生理学参数得到的;
利用所述情感数据提供服务。
7.根据权利要求6所述的方法,其中所述情感数据是根据预定策略计算的与所述内容相对应的共同情感数据。
8.根据权利要求7所述的方法,其中所述预定策略包括以下策略之一:
对来自多个用户的情感数据进行平均,并将该平均值作为共同情感数据;
计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;以及
利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。
9.根据权利要求6-8中任一项所述的方法,
其中提取情感数据包括:
接收一个用户对与其在访问内容时产生相似的情感的其他用户的查询请求,
获取该一个用户访问所述内容而产生的情感数据,
从所述内容的标签中提取其他用户的情感数据;
其中利用所述情感数据提供服务包括:
根据该一个用户的情感数据和其他用户的情感数据,确定与该一个用户具有相似情感的其他用户,以及
将所确定的其他用户的信息提供给该一个用户。
10.根据权利要求6-8中任一项所述的方法,
其中提取情感数据包括:
从要进行匹配的内容的标签中提取情感数据;
其中利用所述情感数据提供服务包括:
获取用户针对当前访问的内容而产生的情感数据;
根据用户当前的情感数据和从要进行匹配的内容的标签中提取的情感数据查找匹配内容;以及
将所述匹配内容提供给该用户。
11.根据权利要求6-8中任一项所述的方法,
其中提取情感数据包括:
从一个用户先前访问过的内容的标签中提取情感数据,以及
从要进行匹配的内容的标签中提取情感数据;
其中利用所述情感数据提供服务包括:
通过对从该一个用户先前访问过的内容的标签中提取的情感数据进行统计,确定该一个用户最频繁产生的情感,
根据与该一个用户最频繁产生的情感相对应的情感数据和从要进行匹配的内容的标签中提取的情感数据,查找匹配内容,以及
将所述匹配内容提供给该一个用户。
12.根据权利要求6-8中任一项所述的方法,
其中提取情感数据包括:
接收一个用户对与其访问同一内容的其他用户的情感进行体验的请求,
从所述同一内容的标签中提取其他用户的情感数据;
其中利用所述情感数据向该一个用户提供服务包括:
基于所提取的其他用户的情感数据,对该一个用户进行激励。
13.根据权利要求6-8中任一项所述的方法,其中所述生理学参数包括以下中的一个或多个:
心率、呼吸频率、血压、脑电图参数、体温和皮电反应。
14.根据权利要求6-8中任一项所述的方法,还包括:
获取用户对所述内容进行访问时产生的情感数据;以及
将所述情感数据作为标签添加到所述内容。
15.一种用于添加带有情感数据的标签的设备,包括:
接收装置,用于接收用户访问内容时产生的情感数据,其中所述情感数据是根据反映用户情感的可测量的生理学参数得到的;
添加装置,用于基于所述情感数据,将带有情感数据的标签添加到所述内容。
16.根据权利要求15所述的设备,还包括:
用于利用所述情感数据,根据预定策略计算与所述内容相对应的共同情感数据的装置;以及
将带有共同情感数据的标签添加到所述内容中或者将共同情感数据存储到存储器中的装置。
17.根据权利要求16所述的设备,其中所述预定策略包括以下策略之一:
对来自多个用户的情感数据进行平均,并将该平均值作为共同情感数据;
计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;以及
利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。
18.根据权利要求15所述的设备,还包括:
用于获取用户访问内容时的生理学参数的装置。
19.根据权利要求18所述的设备,其中用于获取用户访问内容时的生理学参数的装置通过生理学参数传感器或生物信号检测器获取用户访问内容时的生理学参数。
20.一种用于处理带有情感数据的标签的设备,包括:
提取装置,用于从带有情感数据的标签中提取情感数据,其中所述标签与一个内容相对应,所述情感数据是根据反映用户情感的可测量的生理学参数得到的;
服务提供装置,利用所述情感数据提供服务。
21.根据权利要求20所述的设备,所述情感数据是根据预定策略计算的与所述内容相对应的共同情感数据;
22.根据权利要求21所述的设备,其中所述预定策略包括以下策略之一:
对来自多个用户的情感数据进行平均,并将该平均值作为共同情感数据;
计算来自多个用户的情感数据的高斯分布的均值,并将该均值作为共同情感数据;以及
利用预定权重对来自多个用户的情感数据进行加权,并将加权后的情感数据之和作为共同情感数据。
23.根据权利要求20-22中任一项所述的设备,
其中所述提取装置包括:
用于接收一个用户对与其在访问内容时产生相似的情感的其他用户的查询请求的装置,
用于获取该一个用户访问所述内容而产生的情感数据的装置,
用于从所述内容的标签中提取其他用户的情感数据的装置;其中所述服务提供装置包括:
用于根据该一个用户的情感数据和其他用户的情感数据,确定与该一个用户具有相似情感的其他用户的装置,以及
用于将所确定的其他用户的信息提供给该一个用户的装置。
24.根据权利要求20-22中任一项所述的设备,
其中所述提取装置包括:
用于从要进行匹配的内容的标签中提取情感数据的装置;
其中所述服务提供装置包括:
用于获取用户针对当前访问的内容而产生的情感数据的装置;
用于根据用户当前的情感数据和从要进行匹配的内容的标签中提取的情感数据查找匹配内容的装置;以及
用于将所述匹配内容提供给该用户的装置。
25.根据权利要求20-22中任一项所述的设备,
其中所述提取装置包括:
用于从一个用户先前访问过的内容的标签中提取情感数据的装置,以及
用于从要进行匹配的内容的标签中提取情感数据的装置;
其中所述服务提供装置包括:
用于通过对从该一个用户先前访问过的内容的标签中提取的情感数据进行统计,确定该一个用户最频繁产生的情感的装置,
用于根据与该一个用户最频繁产生的情感相对应的情感数据和从要进行匹配的内容的标签中提取的情感数据查找匹配内容的装置,以及
用于将所述匹配内容提供给该一个用户的装置。
26.根据权利要求20-22中任一项所述的设备,
其中所述提取装置包括:
用于接收一个用户对与其访问同一内容的其他用户的情感进行体验的请求的装置,
用于从所述同一内容的标签中提取其他用户的情感数据的装置;
其中所述服务提供装置包括:
用于基于所提取的其他用户的情感数据对该一个用户进行激励的装置。
27.根据权利要求20-22中任一项所述的设备,还包括:
接收装置,用于接收用户对所述内容进行访问时产生的情感数据;以及
添加装置,用于基于所述情感数据,将带有情感数据的标签添加到所述内容。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910133413A CN101853259A (zh) | 2009-03-31 | 2009-03-31 | 添加和处理带有情感数据的标签的方法和设备 |
JP2010035591A JP2010244523A (ja) | 2009-03-31 | 2010-02-22 | 感情データを伴うタグを追加および処理するための方法および装置 |
US12/749,718 US8788495B2 (en) | 2009-03-31 | 2010-03-30 | Adding and processing tags with emotion data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910133413A CN101853259A (zh) | 2009-03-31 | 2009-03-31 | 添加和处理带有情感数据的标签的方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101853259A true CN101853259A (zh) | 2010-10-06 |
Family
ID=42785510
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910133413A Pending CN101853259A (zh) | 2009-03-31 | 2009-03-31 | 添加和处理带有情感数据的标签的方法和设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8788495B2 (zh) |
JP (1) | JP2010244523A (zh) |
CN (1) | CN101853259A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662919A (zh) * | 2011-02-10 | 2012-09-12 | 微软公司 | 对内容片段设置书签 |
WO2013061195A1 (en) * | 2011-10-27 | 2013-05-02 | International Business Machines Corporation | User experience adjustment in controllable events |
CN103605513A (zh) * | 2013-11-06 | 2014-02-26 | 小米科技有限责任公司 | 一种图标处理方法、装置及终端设备 |
CN104008764A (zh) * | 2014-04-30 | 2014-08-27 | 小米科技有限责任公司 | 多媒体信息标记方法及相关装置 |
CN104145272A (zh) * | 2012-11-06 | 2014-11-12 | 英特尔公司 | 使用生理数据确定社会情绪 |
CN104750380A (zh) * | 2013-12-31 | 2015-07-01 | 中国移动通信集团公司 | 一种信息处理的方法及电子设备 |
CN105610884A (zh) * | 2014-11-21 | 2016-05-25 | 阿里巴巴集团控股有限公司 | 旅游信息的提供方法及装置 |
CN105678325A (zh) * | 2015-12-31 | 2016-06-15 | 哈尔滨工业大学深圳研究生院 | 一种文本情感标注方法、装置及系统 |
CN105975536A (zh) * | 2016-04-29 | 2016-09-28 | 合网络技术(北京)有限公司 | 网络资源的推荐方法和装置 |
CN106454060A (zh) * | 2015-08-10 | 2017-02-22 | 宏达国际电子股份有限公司 | 影音管理方法及其系统 |
CN108293150A (zh) * | 2015-12-22 | 2018-07-17 | 英特尔公司 | 情绪定时媒体回放 |
CN108634969A (zh) * | 2018-05-16 | 2018-10-12 | 京东方科技集团股份有限公司 | 情绪检测设备、情绪检测系统、情绪检测方法、存储介质 |
CN109241347A (zh) * | 2012-12-13 | 2019-01-18 | 微软技术许可有限责任公司 | 用于内容反应注释的系统和方法 |
CN110650364A (zh) * | 2019-09-27 | 2020-01-03 | 北京达佳互联信息技术有限公司 | 视频态度标签提取方法及基于视频的交互方法 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102479291A (zh) * | 2010-11-30 | 2012-05-30 | 国际商业机器公司 | 情感描述生成与体验方法和设备以及情感交互系统 |
DE112012001794T5 (de) | 2011-04-21 | 2014-02-20 | Sony Corporation | Verfahren zum Bestimmen einer Stimmung aus einem Text |
US20130204535A1 (en) * | 2012-02-03 | 2013-08-08 | Microsoft Corporation | Visualizing predicted affective states over time |
US20130346920A1 (en) * | 2012-06-20 | 2013-12-26 | Margaret E. Morris | Multi-sensorial emotional expression |
US20140095148A1 (en) * | 2012-10-03 | 2014-04-03 | Kanjoya, Inc. | Emotion identification system and method |
US9104467B2 (en) | 2012-10-14 | 2015-08-11 | Ari M Frank | Utilizing eye tracking to reduce power consumption involved in measuring affective response |
US9477993B2 (en) | 2012-10-14 | 2016-10-25 | Ari M Frank | Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention |
KR102011495B1 (ko) | 2012-11-09 | 2019-08-16 | 삼성전자 주식회사 | 사용자의 심리 상태 판단 장치 및 방법 |
JP6191278B2 (ja) * | 2013-06-26 | 2017-09-06 | カシオ計算機株式会社 | 情報処理装置、コンテンツ課金システム及びプログラム |
KR20150009032A (ko) * | 2013-07-09 | 2015-01-26 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
DE102015113941A1 (de) | 2014-08-21 | 2016-02-25 | Affectomatics Ltd. | Rating von Restaurants auf der Grundlage von affektiver Reaktion |
US11269891B2 (en) | 2014-08-21 | 2022-03-08 | Affectomatics Ltd. | Crowd-based scores for experiences from measurements of affective response |
US10572679B2 (en) | 2015-01-29 | 2020-02-25 | Affectomatics Ltd. | Privacy-guided disclosure of crowd-based scores computed based on measurements of affective response |
US9805381B2 (en) | 2014-08-21 | 2017-10-31 | Affectomatics Ltd. | Crowd-based scores for food from measurements of affective response |
US11494390B2 (en) | 2014-08-21 | 2022-11-08 | Affectomatics Ltd. | Crowd-based scores for hotels from measurements of affective response |
KR102247518B1 (ko) * | 2014-12-23 | 2021-05-03 | 삼성전자주식회사 | 웨어러블 장치, 관리 서버, 이들을 포함하는 제어 시스템 및 그의 제어 방법 |
US11232466B2 (en) | 2015-01-29 | 2022-01-25 | Affectomatics Ltd. | Recommendation for experiences based on measurements of affective response that are backed by assurances |
US10783431B2 (en) * | 2015-11-11 | 2020-09-22 | Adobe Inc. | Image search using emotions |
US11132709B2 (en) * | 2017-11-30 | 2021-09-28 | International Business Machines Corporation | Implementation of physical changes to devices for effective electronic content reception |
CN113287281A (zh) * | 2018-09-21 | 2021-08-20 | 史蒂夫·柯蒂斯 | 将情绪数据整合至社交网络平台并在社交网络平台上共享情绪数据的系统及方法 |
US10681402B2 (en) | 2018-10-09 | 2020-06-09 | International Business Machines Corporation | Providing relevant and authentic channel content to users based on user persona and interest |
CN111209445B (zh) * | 2018-11-21 | 2023-05-02 | 中国电信股份有限公司 | 识别终端用户情绪的方法和装置 |
JP7247544B2 (ja) * | 2018-11-22 | 2023-03-29 | 富士フイルムビジネスイノベーション株式会社 | 情報処理システム |
US20220122147A1 (en) * | 2019-02-05 | 2022-04-21 | Sony Group Corporation | Emotion calculation device, emotion calculation method, and program |
US11553871B2 (en) | 2019-06-04 | 2023-01-17 | Lab NINE, Inc. | System and apparatus for non-invasive measurement of transcranial electrical signals, and method of calibrating and/or using same for various applications |
WO2022015665A1 (en) * | 2020-07-15 | 2022-01-20 | Pcms Holdings, Inc. | Closed-loop extended reality stimulus presentation and perception feedback using multi-channel physiological signals |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282847A (ja) * | 2000-04-03 | 2001-10-12 | Nec Corp | 感性適応型情報提示装置及びプログラムを記録した機械読み取り可能な記録媒体 |
JP2003178078A (ja) * | 2001-12-12 | 2003-06-27 | Matsushita Electric Ind Co Ltd | 画像、音声データへの付加用標識データとその付加方法 |
JP3793462B2 (ja) * | 2002-01-17 | 2006-07-05 | シャープ株式会社 | コンテンツリスト表示システム |
US7233684B2 (en) * | 2002-11-25 | 2007-06-19 | Eastman Kodak Company | Imaging method and system using affective information |
US7509347B2 (en) * | 2006-06-05 | 2009-03-24 | Palm, Inc. | Techniques to associate media information with related information |
JP5241714B2 (ja) * | 2006-07-07 | 2013-07-17 | プロテウス デジタル ヘルス, インコーポレイテッド | スマートな非経口送達システム |
US20080091515A1 (en) * | 2006-10-17 | 2008-04-17 | Patentvc Ltd. | Methods for utilizing user emotional state in a business process |
US8782681B2 (en) * | 2007-03-08 | 2014-07-15 | The Nielsen Company (Us), Llc | Method and system for rating media and events in media based on physiological data |
JP4965322B2 (ja) * | 2007-04-17 | 2012-07-04 | 日本電信電話株式会社 | ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム |
US8151292B2 (en) * | 2007-10-02 | 2012-04-03 | Emsense Corporation | System for remote access to media, and reaction and survey data from viewers of the media |
CN101917898A (zh) * | 2007-10-31 | 2010-12-15 | 埃姆申塞公司 | 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法 |
WO2009073634A1 (en) * | 2007-11-30 | 2009-06-11 | Emsense Corporation | Correlating media instance information with physiological responses from participating subjects |
-
2009
- 2009-03-31 CN CN200910133413A patent/CN101853259A/zh active Pending
-
2010
- 2010-02-22 JP JP2010035591A patent/JP2010244523A/ja active Pending
- 2010-03-30 US US12/749,718 patent/US8788495B2/en active Active
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662919A (zh) * | 2011-02-10 | 2012-09-12 | 微软公司 | 对内容片段设置书签 |
WO2013061195A1 (en) * | 2011-10-27 | 2013-05-02 | International Business Machines Corporation | User experience adjustment in controllable events |
US8856061B2 (en) | 2011-10-27 | 2014-10-07 | International Business Machines Corporation | User experience adjustment in controllable events |
CN104145272B (zh) * | 2012-11-06 | 2017-11-17 | 英特尔公司 | 使用生理数据确定社会情绪 |
CN104145272A (zh) * | 2012-11-06 | 2014-11-12 | 英特尔公司 | 使用生理数据确定社会情绪 |
CN109241347A (zh) * | 2012-12-13 | 2019-01-18 | 微软技术许可有限责任公司 | 用于内容反应注释的系统和方法 |
CN109241347B (zh) * | 2012-12-13 | 2022-01-04 | 微软技术许可有限责任公司 | 用于内容反应注释的系统和方法 |
CN103605513A (zh) * | 2013-11-06 | 2014-02-26 | 小米科技有限责任公司 | 一种图标处理方法、装置及终端设备 |
CN104750380A (zh) * | 2013-12-31 | 2015-07-01 | 中国移动通信集团公司 | 一种信息处理的方法及电子设备 |
CN104008764A (zh) * | 2014-04-30 | 2014-08-27 | 小米科技有限责任公司 | 多媒体信息标记方法及相关装置 |
CN105610884B (zh) * | 2014-11-21 | 2019-03-29 | 阿里巴巴集团控股有限公司 | 旅游信息的提供方法及装置 |
CN105610884A (zh) * | 2014-11-21 | 2016-05-25 | 阿里巴巴集团控股有限公司 | 旅游信息的提供方法及装置 |
CN106454060A (zh) * | 2015-08-10 | 2017-02-22 | 宏达国际电子股份有限公司 | 影音管理方法及其系统 |
CN108293150A (zh) * | 2015-12-22 | 2018-07-17 | 英特尔公司 | 情绪定时媒体回放 |
CN105678325A (zh) * | 2015-12-31 | 2016-06-15 | 哈尔滨工业大学深圳研究生院 | 一种文本情感标注方法、装置及系统 |
CN105975536A (zh) * | 2016-04-29 | 2016-09-28 | 合网络技术(北京)有限公司 | 网络资源的推荐方法和装置 |
CN108634969A (zh) * | 2018-05-16 | 2018-10-12 | 京东方科技集团股份有限公司 | 情绪检测设备、情绪检测系统、情绪检测方法、存储介质 |
CN110650364A (zh) * | 2019-09-27 | 2020-01-03 | 北京达佳互联信息技术有限公司 | 视频态度标签提取方法及基于视频的交互方法 |
CN110650364B (zh) * | 2019-09-27 | 2022-04-01 | 北京达佳互联信息技术有限公司 | 视频态度标签提取方法及基于视频的交互方法 |
Also Published As
Publication number | Publication date |
---|---|
US8788495B2 (en) | 2014-07-22 |
US20100250554A1 (en) | 2010-09-30 |
JP2010244523A (ja) | 2010-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101853259A (zh) | 添加和处理带有情感数据的标签的方法和设备 | |
JP6242426B2 (ja) | 環境入力に基づいて情報を提供するために、知識表現を使用するシステム及び方法 | |
CN102541981B (zh) | 追踪在线社交行为来增强搜索体验 | |
CN106294425B (zh) | 商品相关网络文章之自动图文摘要方法及系统 | |
US8190621B2 (en) | Method, system, and computer readable recording medium for filtering obscene contents | |
CN106504099A (zh) | 一种构建用户画像的系统 | |
CN105574067A (zh) | 项目推荐装置以及项目推荐方法 | |
Vo et al. | Personalization in mobile activity recognition system using K-medoids clustering algorithm | |
CN106716964A (zh) | 用于没有用户跟踪的个人化的隐私保护cookie | |
CN105874753A (zh) | 用于社交数据网络用户行为细分的系统和方法 | |
CN106575503A (zh) | 用于对话理解系统的会话上下文建模 | |
CN106354818B (zh) | 基于社交媒体的动态用户属性提取方法 | |
JP2007213401A (ja) | ユーザ嗜好の音楽データに基づいてコミュニティを構成するコミュニティサイトサーバ及びプログラム | |
CN106886518A (zh) | 一种微博账号分类的方法 | |
CN103309918A (zh) | 解释用户状况的动态社交和传感器数据的近实时分析 | |
KR101761999B1 (ko) | 관계 유형을 고려한 코칭 방법 및 시스템 | |
CN106776860A (zh) | 一种搜索摘要生成方法及装置 | |
CN109472027A (zh) | 一种基于博文相似性的社交机器人检测系统及方法 | |
CN113574522A (zh) | 搜索中的富体验的选择性呈现 | |
JPWO2017191696A1 (ja) | 情報処理システム、および情報処理方法 | |
JP2013109767A (ja) | 広告システムおよび広告方法 | |
CN103703488A (zh) | 智能信息提供系统和方法 | |
Jia et al. | Multi-modal learning for video recommendation based on mobile application usage | |
JP2016136355A (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
KR101693429B1 (ko) | 대인 관계 유형 파악을 통한 코칭 정보 제공 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20101006 |