CN110888997A - 内容评价方法、系统和电子设备 - Google Patents
内容评价方法、系统和电子设备 Download PDFInfo
- Publication number
- CN110888997A CN110888997A CN201811056307.8A CN201811056307A CN110888997A CN 110888997 A CN110888997 A CN 110888997A CN 201811056307 A CN201811056307 A CN 201811056307A CN 110888997 A CN110888997 A CN 110888997A
- Authority
- CN
- China
- Prior art keywords
- information
- emotion
- determining
- user
- biofeedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种内容评价方法,包括获得用户在观看内容时产生的生物反馈信息,其中,所述生物反馈信息包括面部反馈信息和/或声音反馈信息,基于所述生物反馈信息,确定用户的情绪信息,以及基于所述情绪信息生成对所述内容的评价结果。本公开还提供了一种内容评价系统、一种电子设备以及一种计算机可读介质。
Description
技术领域
本公开涉及互联网技术领域,更具体地,涉及一种内容评价方法、系统和电子设备。
背景技术
目前,对于多媒体内容的评价,例如电影、电视剧等,通常只能依靠观看者在观看后写的影评或者是打分作为参考。以上方式是带有明显主观性的个人看法,并且,某些群体会有目的性地公开一些带有导向性的评价内容,例如故意褒奖或贬低某一电影。因此,目前的评价方法不够客观真实。
发明内容
有鉴于此,本公开提供了一种内容评价方法、系统和电子设备。
本公开的一个方面提供了一种内容评价方法,包括,获得用户在观看内容时产生的生物反馈信息,其中,所述生物反馈信息包括面部反馈信息和/或声音反馈信息,基于所述生物反馈信息,确定用户的情绪信息,基于所述情绪信息生成对所述内容的评价结果。
根据本公开实施例,所述基于所述生物反馈信息,确定用户的情绪信息包括,基于所述生物反馈信息,确定所述生物反馈信息的情绪成分信息,其中,包括确定与所述面部反馈信息对应的情绪成分信息,并且/或者,确定与所述声音反馈信息对应的情绪成分信息,以及基于所述情绪成分信息,确定用户的情绪信息。
根据本公开实施例,所述确定所述生物反馈信息的情绪成分信息包括,分析所述生物反馈信息中所包含的各种情绪,以每种情绪持续的时长或出现的频率作为每种情绪的评估值,根据每种情绪的评估值确定所述生物反馈信息的情绪成分信息。
根据本公开实施例,所述基于所述情绪成分信息,确定用户的情绪信息包括,将所述情绪成分信息中评估值最高的情绪确定为用户的情绪信息,或者将所述情绪成分信息输入分类模型,获得用户的情绪信息。
根据本公开实施例,所述方法还包括通过多循环的交叉验证算法建立所述分类模型。
根据本公开实施例,所述基于所述情绪信息生成对所述内容的评价结果包括,获取达到预定样本数量的用户的情绪信息集合,基于所述情绪信息集合,确定属于不同情绪类别的情绪信息的分布,基于所述分布,生成对所述内容的评价结果。
本公开的另一个方面提供了一种内容评价系统,包括信息获得模块、情绪确定模块以及结果生成模块。信息获得模块,用于获得用户在观看内容时产生的生物反馈信息,其中,所述生物反馈信息包括面部反馈信息和/或声音反馈信息。情绪确定模块,用于基于所述生物反馈信息,确定用户的情绪信息。结果生成模块,用于基于所述情绪信息生成对所述内容的评价结果。
根据本公开实施例,所述情绪确定模块包括成分确定子模块以及情绪确定子模块。成分确定子模块,用于基于所述生物反馈信息,确定所述生物反馈信息的情绪成分信息,其中,包括确定与所述面部反馈信息对应的情绪成分信息,并且/或者,确定与所述声音反馈信息对应的情绪成分信息。情绪确定子模块,用于基于所述情绪成分信息,确定用户的情绪信息。
根据本公开实施例,所述成分确定子模块包括分析单元、评估单元以及确定单元。分析单元,用于分析所述生物反馈信息中所包含的各种情绪。评估单元,用于以每种情绪持续的时长或出现的频率作为每种情绪的评估值。确定单元,用于根据每种情绪的评估值确定所述生物反馈信息的情绪成分信息。
根据本公开实施例,所述情绪确定子模块用于将所述情绪成分信息中评估值最高的情绪确定为用户的情绪信息,或者将所述情绪成分信息输入分类模型,获得用户的情绪信息。
根据本公开实施例,所述情绪确定模块还包括建立子模块,用于通过多循环的交叉验证算法建立所述分类模型。
根据本公开实施例,所述结果生成模块包括获得子模块、分布确定子模块以及生成子模块。获得子模块,用于获取达到预定样本数量的用户的情绪信息集合。分布确定子模块,用于基于所述情绪信息集合,确定属于不同情绪类别的情绪信息的分布。生成子模块,用于基于所述分布,生成对所述内容的评价结果。
本公开的另一个方面提供了一种电子设备,包括至少一个处理器以及至少一个存储器,用于存储一个或多个计算机可读指令,其中,当所述一个或多个计算机可读指令被所述至少一个处理器执行时,使得所述处理器执行如上所述的方法。
本公开的另一个方面提供了一种计算机可读介质,其上存储有计算机可读指令,该指令被执行时使处理器执行如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
该方法基于用户在观看内容时产生的生物反馈信息,对内容进行评价,其结果相对于写影评的方式更加客观,能够反映内容的真实情况。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的内容评价方法和系统的应用场景;
图2示意性示出了根据本公开实施例的内容评价方法的流程图;
图3A示意性示出了根据本公开实施例的基于所述生物反馈信息,确定用户的情绪信息的流程图;
图3B示意性示出了根据本公开实施例的确定所述生物反馈信息的情绪成分信息的流程图;
图3C示意性示出了根据本公开实施例的基于所述情绪信息生成对所述内容的评价结果的流程图;
图4示意性示出了根据本公开实施例的内容评价系统的框图;
图5A示意性示出了根据本公开实施例的情绪确定模块的框图;
图5B示意性示出了根据本公开实施例的成分确定子模块的框图;
图5C示意性示出了根据本公开另一实施例的情绪确定模块的框图;
图5D示意性示出了根据本公开实施例的结果生成模块的框图;以及
图6示意性示出了根据本公开实施例的适于实现内容评价方法和系统的计算机系统的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
本公开的实施例提供了一种内容评价方法,包括获得用户在观看内容时产生的生物反馈信息,基于所述生物反馈信息,确定用户的情绪信息,以及基于所述情绪信息生成对所述内容的评价结果。
图1示意性示出了根据本公开实施例的内容评价方法和系统的应用场景。需要注意的是,图1所示仅为可以应用本公开实施例的应用场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,电影院中放映电影时,众多观众坐在观众席上观看。本公开实施例的方法和系统可以采集观众的生物反馈信息,例如采集观众的图像并从中获得人脸图像,或者采集电影院中观众发出的声音信息,用于分析,以获得对该影片的评价,或者作为评价的参考因素。
本公开实施例的方法和系统并不限于集中观看的场景,多个用户通过网络同时或不同时地在各自的终端设备观看多媒体内容时,也可以应用本公开实施例的方法。
图2示意性示出了根据本公开实施例的内容评价方法的流程图。
如图2所示,该方法包括操作S210~S230。
在操作S210,获得用户在观看内容时产生的生物反馈信息,其中,所述生物反馈信息包括面部反馈信息和/或声音反馈信息。
在操作S220,基于所述生物反馈信息,确定用户的情绪信息。
在操作S230,基于所述情绪信息生成对所述内容的评价结果。
该方法基于用户在观看内容时产生的生物反馈信息,对内容进行评价,其结果相对于写影评的方式更加客观,能够反映内容的真实情况。
根据本公开实施例,在操作S210,获得生物反馈信息可以包括获得人脸图像信息和/或声音信息,以下分别进行介绍。
根据本公开实施例,所述获得用户在观看内容时产生的生物反馈信息可以包括获得用户在观看内容时的人脸图像信息。
例如,在电影院的场景下,获得用户在观看内容时的人脸图像信息可以包括获得包含多个人脸的图像,例如从荧幕向观众席的方向拍照,拍到的图像包括观众席上大部分或全部观众的图像,以及对该图像进行人脸检测,获得多个用户在观看内容时的人脸图像。其中,该获得包含多个人脸的图像的操作可以随着内容的播放,按照一定时间间隔多次采集,例如,在电影的播放过程中,可以按照每隔1秒、5秒、10秒或30秒采集一次观众的图像。
在电影院中需要夜视仪的配合进行人脸信息的采集,采集到的是整个影院人们的面部表情。目前比较流行的opencv中人脸识别的算法并不能满足我们进行面部表情识别的需求。所以我们这里需要设置机器学习算法,进行人脸面部表情的区分。人脸识别算法目前主要使用的算法有很多:Gabor变换、PCA、LDA、Ada+Gabor、稀疏表示以及各个算法的结合等等。根据本公开实施例,该方法还包括计算数据库中的相似量,即计算像素之间的距离,确定是否是同一个人。
类似地,当用户通过终端设备观看网络上的多媒体内容时,终端设备的图像传感器可以获得包含人脸的用户图像,并对其进行人脸检测,获得用户在观看内容时的人脸图像。多个用户通过网络分别观看时,可以分别采集。其中,该获得包含多个人脸的图像的操作可以随着内容的播放,按照一定时间间隔多次采集,例如,在电影的播放过程中,可以按照每隔1秒、5秒、10秒或30秒采集一次观众的图像。
根据本公开实施例,在操作S210,所述获得用户在观看内容时产生的生物反馈信息可以包括获得用户在观看内容时产生的声音信息。
例如,在电影院中,可以采集环境中的声音信息,包括电影的声音以及观众发出的声音等。又如,当用户例如在家中通过终端设备观看网络上的多媒体内容时,可以采集环境中的声音信息,包括电影的声音、用户发出的声音以及家中的其他声音等。
根据本公开实施例,在采集以上声音信息后,可以直接基于多媒体内容的声音信息对采集的声音信息进行扣除处理,以从采集的声音信息中去除多媒体内容的声音。
根据本公开实施例,采集声音的过程可以是持续的采集过程,也可以是以采样的方式周期性地进行采集。例如,在电影的播放过程中,可以按照每隔1秒、5秒、10秒或30秒采集一次声音信息。
根据本公开实施例,在获得声音信息后,可以对声音进行处理以区分来自不同用户的声音,并且/或者,用于消除噪声,有利于后续处理。例如基于声纹信息,分离所述声音信息。可以对声音信息进行分析,分析其中所包含的多种不同的声纹信息,基于该些声纹信息,对所述声音信息进行分离,获得每种声纹信息对应的声音信息。
应当了解,本公开实施例的方法可以仅采用用户的面部反馈信息,或者仅采用用户的声音反馈信息,或者也可以结合用户的面部反馈信息以及声音反馈信息共同作为生物反馈信息。
下面结合图3A对本公开实施例的操作S220进行介绍。
图3A示意性示出了根据本公开实施例的基于所述生物反馈信息,确定用户的情绪信息的流程图。
如图3A所示,该方法包括操作S310和S320。
在操作S310,基于所述生物反馈信息,确定所述生物反馈信息的情绪成分信息。其中,确定所述生物反馈信息的情绪成分信息包括确定与所述面部反馈信息对应的情绪成分信息,或者,确定与所述声音反馈信息对应的情绪成分信息,或者基于所述面部反馈信息和声音反馈信息确定情绪成分信息。
根据本公开实施例,可以建立分类模型,例如神经网络模型等,具体可以包括卷积神经网络等。该分类模型经过训练,可以在输入人脸图像信息后输出情绪成分信息,该情绪成分信息表示包含各种情绪的概率,例如,输出向量(0.7,0.2,0.05,……)可以表示第一种情绪(例如愤怒)的成分为0.7,第二种情绪(例如悲伤)的成分为0.2,第三种情绪(例如兴奋)的成分为0.05等等。
在建立用于基于人脸图像识别情绪成分信息的神经网络的过程中,可以修改TensorFlow MNIST的网络样本去训练。代码运行的时候,MNIST之后,适度Softmax回归,取得了91%的准确率,而更深层次的代码(深MNIST),一二层卷积网络对MNIST数据集可以达到99.2%左右的精度。
根据本公开实施例,可以通过多循环的交叉验证算法建立用于确定与所述人脸图像信息对应的情绪成分信息的分类模型。例如,对于给定的训练集,可以采用k-fold交叉验证,例如10折交叉验证,将训练集分为10份,分别选择第2份到第10份、第3份到第10份、第4份到第10份……作为训练集进行训练,得到多个训练后的模型,取多个模型的平均值,即模型的参数取各个模型参数的平均值,得到最优模型,可以利用有限的训练样本达到较好的训练效果。
根据本公开实施例,在操作S310,也可以通过如图3B所示意的方法确定情绪成分信息。
图3B示意性示出了根据本公开实施例的确定所述生物反馈信息的情绪成分信息的流程图。
如图3B所示,该方法包括操作S311~S313。
在操作S311,分析所述生物反馈信息中所包含的各种情绪。
在操作S312,以每种情绪持续的时长或出现的频率作为每种情绪的评估值。
在操作S313,根据每种情绪的评估值确定所述生物反馈信息的情绪成分信息。
根据本公开实施例,由于可以持续或周期性地采集用户的人脸图像信息和/或声音信息,在持续采集的情况下,可以以每种情绪持续的时长作为每种情绪的评估值,在周期性采集的情况下,可以以每种情绪出现的频率作为每种情绪的评估值。例如,在持续采集的情况下,用户多次发笑的时间分别为10秒、5秒、8秒等等,例如可以对其进行求和处理,得到用户在观看内容时的总发笑时长,例如5分钟,而悲伤的情绪的总时长为1分钟等等,则可以基于此,确定该用户的情绪成分信息为(5,1,……)。又如,在周期性采集的情况下,可以以每种情绪出现的次数作为频率来统计每种情绪的评估值,例如用户在观看内容时的总发笑次数为15次,悲伤情绪出现的次数为3次等等,可以确定该用户的情绪成分信息为(15,3,……)。
返回参考图3A。在操作S320,基于所述情绪成分信息,确定用户的情绪信息。
根据本公开实施例,所述基于所述情绪成分信息,确定用户的情绪信息包括将所述情绪成分信息中评估值最高的情绪确定为用户的情绪信息。
根据本公开实施例,所述基于所述情绪成分信息,确定用户的情绪信息包括将所述情绪成分信息输入分类模型,获得用户的情绪信息。根据本公开实施例,可以建立分类模型,例如决策树模型等。当将用户的情绪成分信息输入该分类模型时,可以输出该些用户的情绪信息。
根据本公开实施例,所述方法还包括通过多循环的交叉验证算法建立所述分类模型。例如,对于给定的训练集,可以采用k-fold交叉验证,例如10折交叉验证,将训练集分为10份,分别选择第2份到第10份、第3份到第10份、第4份到第10份……作为训练集进行训练,得到多个训练后的模型,取多个模型的平均值,即模型的参数取各个模型参数的平均值,得到最优模型,可以利用有限的训练样本达到较好的训练效果。
返回参考图2。在操作S230,基于所述情绪信息生成对所述内容的评价结果,下面结合图3C进行示例性说明。
图3C示意性示出了根据本公开实施例的基于所述情绪信息生成对所述内容的评价结果的流程图。
如图3C所示,该方法包括操作S231~S233。
在操作S231,获取达到预定样本数量的用户的情绪信息集合。当基于用户的生物反馈信息确定的用户情绪信息的数量达到预定样本数量时,可以认为采用本公开实施例的方法对所述内容的评价具有一定的可信度。
在操作S232,基于所述情绪信息集合,确定属于不同情绪类别的情绪信息的分布。根据本公开实施例,可以确定在各个时间段内,一定数量的观众中,带有各种情绪的人所占的比例。
在操作S233,基于所述分布,生成对所述内容的评价结果。例如,对于喜剧片,可以基于观众发笑的情况,对该喜剧片进行评价;对于恐怖片,可以基于观众惊恐的表情和/或声音进行评价。根据本公开实施例,该方法可以独立地输出评价结果,也可以结合其他方式的评价,作为综合评价的一个因素。
本公开实施例的方法基于用户在观看内容时产生的生物反馈信息,对内容进行评价,其结果相对于写影评的方式更加客观,能够反映内容的真实情况。
图4示意性示出了根据本公开实施例的内容评价系统400的框图。
如图4所示,该系统400包括信息获得模块410、情绪确定模块420以及结果生成模块430。
信息获得模块410,例如执行上文参考图2描述的操作S210,用于获得用户在观看内容时产生的生物反馈信息。
情绪确定模块420,例如执行上文参考图2描述的操作S220,用于基于所述生物反馈信息,确定用户的情绪信息。
结果生成模块430,例如执行上文参考图2描述的操作S230,用于基于所述情绪信息生成对所述内容的评价结果。
图5A示意性示出了根据本公开实施例的情绪确定模块420的框图。
如图5A所示,该情绪确定模块420包括成分确定子模块510以及情绪确定子模块520。
成分确定子模块510,例如执行上文参考图3A描述的操作S310,用于基于所述生物反馈信息,确定所述生物反馈信息的情绪成分信息,其中,包括确定与所述面部反馈信息对应的情绪成分信息,并且/或者,确定与所述声音反馈信息对应的情绪成分信息。
情绪确定子模块520,例如执行上文参考图3A描述的操作S320,用于基于所述情绪成分信息,确定用户的情绪信息。
图5B示意性示出了根据本公开实施例的成分确定子模块510的框图。
如图5B所示,该成分确定子模块510包括分析单元511、评估单元512以及确定单元513。
分析单元511,例如执行上文参考图3B描述的操作S311,用于分析所述生物反馈信息中所包含的各种情绪。
评估单元512,例如执行上文参考图3B描述的操作S312,用于以每种情绪持续的时长或出现的频率作为每种情绪的评估值。
确定单元513,例如执行上文参考图3B描述的操作S313,用于根据每种情绪的评估值确定所述生物反馈信息的情绪成分信息。
根据本公开实施例,所述情绪确定子模块用于将所述情绪成分信息中评估值最高的情绪确定为用户的情绪信息,或者将所述情绪成分信息输入分类模型,获得用户的情绪信息。
图5C示意性示出了根据本公开另一实施例的情绪确定模块420的框图。
如图5C所示,该情绪确定模块420在前述实施例的基础上,还包括建立子模块530,用于通过多循环的交叉验证算法建立所述分类模型。
图5D示意性示出了根据本公开实施例的结果生成模块430的框图。
如图5D所示,该结果生成模块430包括获得子模块431、分布确定子模块432以及生成子模块433。
获得子模块431,例如执行上文参考图3C描述的操作S231,用于获取达到预定样本数量的用户的情绪信息集合。
分布确定子模块432,例如执行上文参考图3C描述的操作S232,用于基于所述情绪信息集合,确定属于不同情绪类别的情绪信息的分布。
生成子模块433,例如执行上文参考图3C描述的操作S233,用于基于所述分布,生成对所述内容的评价结果。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,信息获得模块410、情绪确定模块420、结果生成模块430、成分确定子模块510、情绪确定子模块520、分析单元511、评估单元512、确定单元513、建立子模块530、得子模块431、分布确定子模块432以及生成子模块433中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,信息获得模块410、情绪确定模块420、结果生成模块430、成分确定子模块510、情绪确定子模块520、分析单元511、评估单元512、确定单元513、建立子模块530、得子模块431、分布确定子模块432以及生成子模块433中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,信息获得模块410、情绪确定模块420、结果生成模块430、成分确定子模块510、情绪确定子模块520、分析单元511、评估单元512、确定单元513、建立子模块530、得子模块431、分布确定子模块432以及生成子模块433中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图6示意性示出了根据本公开实施例的适于实现内容评价方法和系统的计算机系统600的方框图。图6示出的计算机系统仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。图6示出的计算机系统可以实现为电子设备,包括至少一个处理器(例如处理器601)以及至少一个存储器(例如存储部分608)。
如图6所示,根据本公开实施例的计算机系统600包括处理器601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。处理器601例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器601还可以包括用于缓存用途的板载存储器。处理器601可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 603中,存储有系统600操作所需的各种程序和数据。处理器601、ROM 602以及RAM 603通过总线604彼此相连。处理器601通过执行ROM 602和/或RAM 603中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 602和RAM 603以外的一个或多个存储器中。处理器601也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,系统600还可以包括输入/输出(I/O)接口605,输入/输出(I/O)接口605也连接至总线604。系统600还可以包括连接至I/O接口605的以下部件中的一项或多项:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被处理器601执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线、光缆、射频信号等等,或者上述的任意合适的组合。
例如,根据本公开的实施例,计算机可读介质可以包括上文描述的ROM 602和/或RAM 603和/或ROM 602和RAM 603以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (14)
1.一种内容评价方法,包括:
获得用户在观看内容时产生的生物反馈信息,其中,所述生物反馈信息包括面部反馈信息和/或声音反馈信息;
基于所述生物反馈信息,确定用户的情绪信息;
基于所述情绪信息生成对所述内容的评价结果。
2.根据权利要求1所述的方法,其中,所述基于所述生物反馈信息,确定用户的情绪信息包括:
基于所述生物反馈信息,确定所述生物反馈信息的情绪成分信息,其中,包括确定与所述面部反馈信息对应的情绪成分信息,并且/或者,确定与所述声音反馈信息对应的情绪成分信息;以及
基于所述情绪成分信息,确定用户的情绪信息。
3.根据权利要求2所述的方法,其中,所述确定所述生物反馈信息的情绪成分信息包括:
分析所述生物反馈信息中所包含的各种情绪;
以每种情绪持续的时长或出现的频率作为每种情绪的评估值;
根据每种情绪的评估值确定所述生物反馈信息的情绪成分信息。
4.根据权利要求3所述的方法,其中,所述基于所述情绪成分信息,确定用户的情绪信息包括:
将所述情绪成分信息中评估值最高的情绪确定为用户的情绪信息;或者
将所述情绪成分信息输入分类模型,获得用户的情绪信息。
5.根据权利要求4所述的方法,还包括:
通过多循环的交叉验证算法建立所述分类模型。
6.根据权利要求1所述的方法,其中,所述基于所述情绪信息生成对所述内容的评价结果包括:
获取达到预定样本数量的用户的情绪信息集合;
基于所述情绪信息集合,确定属于不同情绪类别的情绪信息的分布;
基于所述分布,生成对所述内容的评价结果。
7.一种内容评价系统,包括:
信息获得模块,用于获得用户在观看内容时产生的生物反馈信息,其中,所述生物反馈信息包括面部反馈信息和/或声音反馈信息;
情绪确定模块,用于基于所述生物反馈信息,确定用户的情绪信息;
结果生成模块,用于基于所述情绪信息生成对所述内容的评价结果。
8.根据权利要求7所述的系统,其中,所述情绪确定模块包括:
成分确定子模块,用于基于所述生物反馈信息,确定所述生物反馈信息的情绪成分信息,其中,包括确定与所述面部反馈信息对应的情绪成分信息,并且/或者,确定与所述声音反馈信息对应的情绪成分信息;以及
情绪确定子模块,用于基于所述情绪成分信息,确定用户的情绪信息。
9.根据权利要求8所述的系统,其中,所述成分确定子模块包括:
分析单元,用于分析所述生物反馈信息中所包含的各种情绪;
评估单元,用于以每种情绪持续的时长或出现的频率作为每种情绪的评估值;
确定单元,用于根据每种情绪的评估值确定所述生物反馈信息的情绪成分信息。
10.根据权利要求9所述的系统,其中,所述情绪确定子模块用于:
将所述情绪成分信息中评估值最高的情绪确定为用户的情绪信息;或者
将所述情绪成分信息输入分类模型,获得用户的情绪信息。
11.根据权利要求10所述的系统,所述情绪确定模块还包括:
建立子模块,用于通过多循环的交叉验证算法建立所述分类模型。
12.根据权利要求7所述的系统,其中,所述结果生成模块包括:
获得子模块,用于获取达到预定样本数量的用户的情绪信息集合;
分布确定子模块,用于基于所述情绪信息集合,确定属于不同情绪类别的情绪信息的分布;
生成子模块,用于基于所述分布,生成对所述内容的评价结果。
13.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个计算机程序,
其中,当一个或多个计算机程序被一个或多个处理器执行时,使得一个或多个处理器实现权利要求1至6中任一项的方法。
14.一种计算机可读介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至6中任一项的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811056307.8A CN110888997A (zh) | 2018-09-10 | 2018-09-10 | 内容评价方法、系统和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811056307.8A CN110888997A (zh) | 2018-09-10 | 2018-09-10 | 内容评价方法、系统和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110888997A true CN110888997A (zh) | 2020-03-17 |
Family
ID=69745467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811056307.8A Pending CN110888997A (zh) | 2018-09-10 | 2018-09-10 | 内容评价方法、系统和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110888997A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200110890A1 (en) * | 2018-10-08 | 2020-04-09 | Hyundai Motor Company | Multi device system and method of controlling the same |
CN111784163A (zh) * | 2020-07-01 | 2020-10-16 | 深圳前海微众银行股份有限公司 | 数据测评方法、装置、设备及存储介质 |
CN112887771A (zh) * | 2021-01-28 | 2021-06-01 | Oppo广东移动通信有限公司 | 视频评价方法及装置、计算机可读介质和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140007149A1 (en) * | 2012-07-02 | 2014-01-02 | Wistron Corp. | System, apparatus and method for multimedia evaluation |
CN104504112A (zh) * | 2014-12-30 | 2015-04-08 | 何业文 | 影院信息采集系统 |
CN105959737A (zh) * | 2016-06-30 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种基于用户情绪识别的视频评价方法和装置 |
CN107452385A (zh) * | 2017-08-16 | 2017-12-08 | 北京世纪好未来教育科技有限公司 | 一种基于语音的数据评价方法及装置 |
CN108337563A (zh) * | 2018-03-16 | 2018-07-27 | 深圳创维数字技术有限公司 | 视频评价方法、装置、设备和存储介质 |
-
2018
- 2018-09-10 CN CN201811056307.8A patent/CN110888997A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140007149A1 (en) * | 2012-07-02 | 2014-01-02 | Wistron Corp. | System, apparatus and method for multimedia evaluation |
CN104504112A (zh) * | 2014-12-30 | 2015-04-08 | 何业文 | 影院信息采集系统 |
CN105959737A (zh) * | 2016-06-30 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种基于用户情绪识别的视频评价方法和装置 |
CN107452385A (zh) * | 2017-08-16 | 2017-12-08 | 北京世纪好未来教育科技有限公司 | 一种基于语音的数据评价方法及装置 |
CN108337563A (zh) * | 2018-03-16 | 2018-07-27 | 深圳创维数字技术有限公司 | 视频评价方法、装置、设备和存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200110890A1 (en) * | 2018-10-08 | 2020-04-09 | Hyundai Motor Company | Multi device system and method of controlling the same |
CN111784163A (zh) * | 2020-07-01 | 2020-10-16 | 深圳前海微众银行股份有限公司 | 数据测评方法、装置、设备及存储介质 |
CN112887771A (zh) * | 2021-01-28 | 2021-06-01 | Oppo广东移动通信有限公司 | 视频评价方法及装置、计算机可读介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509941B (zh) | 情绪信息生成方法和装置 | |
CN109522815B (zh) | 一种专注度评估方法、装置及电子设备 | |
US11430260B2 (en) | Electronic display viewing verification | |
JP6260979B1 (ja) | 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム | |
US20190172458A1 (en) | Speech analysis for cross-language mental state identification | |
US20190034706A1 (en) | Facial tracking with classifiers for query evaluation | |
US9639743B2 (en) | Anonymization of facial images | |
US20180144746A1 (en) | Audio analysis learning using video data | |
US20040001616A1 (en) | Measurement of content ratings through vision and speech recognition | |
US20210319897A1 (en) | Multimodal analysis combining monitoring modalities to elicit cognitive states and perform screening for mental disorders | |
US20200236428A1 (en) | Facilitating Television Based Interaction With Social Networking Tools | |
US20200314490A1 (en) | Media manipulation using cognitive state metric analysis | |
US20220101146A1 (en) | Neural network training with bias mitigation | |
CN109871807B (zh) | 人脸图像处理方法和装置 | |
KR20130136557A (ko) | 개인화된 광고 선택 시스템 및 방법 | |
CN111241883B (zh) | 防止远程被测人员作弊的方法和装置 | |
US11430561B2 (en) | Remote computing analysis for cognitive state data metrics | |
CN110888997A (zh) | 内容评价方法、系统和电子设备 | |
CN111401100B (zh) | 视频质量评估方法、装置、设备及存储介质 | |
CN113496156B (zh) | 一种情感预测方法及其设备 | |
CN111754267A (zh) | 基于区块链的数据处理方法及系统 | |
Aydin et al. | Automatic personality prediction from audiovisual data using random forest regression | |
CH715893A9 (fr) | Système et procédé destinés à lire et analyser le comportement, y compris le langage verbal, le langage corporel et les expressions faciales, afin de déterminer la congruence d'une personne. | |
Liu et al. | Learning to predict salient faces: A novel visual-audio saliency model | |
Lin et al. | Looking at the body: Automatic analysis of body gestures and self-adaptors in psychological distress |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |