CN114170356A - 线上路演方法、装置、电子设备及存储介质 - Google Patents

线上路演方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114170356A
CN114170356A CN202111499096.7A CN202111499096A CN114170356A CN 114170356 A CN114170356 A CN 114170356A CN 202111499096 A CN202111499096 A CN 202111499096A CN 114170356 A CN114170356 A CN 114170356A
Authority
CN
China
Prior art keywords
audience
emotion
image
user
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111499096.7A
Other languages
English (en)
Other versions
CN114170356B (zh
Inventor
潘建军
方欢胜
陈勋坤
周彦君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minorand Zhejiang Network Technology Co ltd
Original Assignee
Minorand Zhejiang Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minorand Zhejiang Network Technology Co ltd filed Critical Minorand Zhejiang Network Technology Co ltd
Priority to CN202111499096.7A priority Critical patent/CN114170356B/zh
Publication of CN114170356A publication Critical patent/CN114170356A/zh
Application granted granted Critical
Publication of CN114170356B publication Critical patent/CN114170356B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种线上路演方法、装置、电子设备及存储介质,其中,方法包括:根据受众用户的人脸图像查询受众用户的身份识别数据;根据身份识别数据为受众用户的人脸图像匹配受众类型标签;将受众用户的人脸图像输入情绪识别神经网络模型以输出受众用户的人脸图像的即时情绪参数;根据即时情绪参数形成动态受众情绪分组;根据动态受众情绪分组以及动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。本申请根据具体的受众用户的人脸图像生成能反映用户听讲情况的虚拟表情以帮助路演用户及时调整的线上路演方法、装置、电子设备及存储介质。

Description

线上路演方法、装置、电子设备及存储介质
技术领域
本申请涉及线上路演领域,具体而言,涉及一种线上路演方法、装置、电子设备及存储介质。
背景技术
路演是指通过现场演示的方法,引起目标人群的关注,使他们产生兴趣,最终达成销售。随着互联网技术的发展,线上路演作为线上直播技术的一个重要分支已经越来越成为路演的主要方式,其具有不限制受众的观看地点、同时也不限制参与路演受众人数的优势。
但是,线上路演相较线下路演而言,路演用户(路演主讲、路演主持、路演导播等)无法获知受众的听讲情况(情绪、听讲人数和受关注度等),进而无法主动改善线上路演的呈现效果,从而实际路演效果往往小于预期路演效果。
在相关技术中,尤其是在线直播领域或在线会议领域中,存在直接将受众用户的图像直接投放在路演用户设备的技术方案,但是收到设备显示范围的限制,能否反映的受众情况有限。
在另一些相关技术中,通过人脸图像的识别选择出表情较为突出或者具有代表性的用户进行显示,但是这样仍然无法从宏观上反映所有受众的听讲情况,并且由于显示的受众的切换从而导致路演用户不能持续观察受众状态,导致反馈其实不连贯也无法有效给路演用户提供参考。
发明内容
本申请的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本申请的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本申请的一些实施例提出了线上路演方法、装置、电子设备及存储介质,来解决以上背景技术部分提到的技术问题。
作为本申请的第一方面,本申请的一些实施例提供了一种线上路演方法,包括:响应于一个受众用户终端所上传的受众用户的人脸图像,根据受众用户的人脸图像查询使用受众用户终端的受众用户的身份识别数据;根据身份识别数据为受众用户的人脸图像匹配受众类型标签;将受众用户的人脸图像输入情绪识别神经网络模型以使情绪识别神经网络模型输出受众用户的人脸图像的即时情绪参数;根据即时情绪参数对受众用户的人脸图像对应的受众用户进行聚类以形成动态受众情绪分组;根据动态受众情绪分组以及动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。
作为本申请的第二方面,本申请的一些实施例提供了一种线上路演装置,包括:查询模块,用于响应于一个受众用户终端所上传的受众用户的人脸图像,根据受众用户的人脸图像查询使用受众用户终端的受众用户的身份识别数据;匹配模块,用于根据身份识别数据为受众用户的人脸图像匹配受众类型标签;分析模块,用于将受众用户的人脸图像输入情绪识别神经网络模型以使情绪识别神经网络模型输出受众用户的人脸图像的即时情绪参数;分组模块,用于根据即时情绪参数对受众用户的人脸图像对应的受众用户进行聚类以形成动态受众情绪分组;生成模块,用于根据动态受众情绪分组以及动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。
作为本申请的第三方面,本申请的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
作为本申请的第四方面,本申请的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本申请的有益效果在于:提供了一种根据具体的受众用户的人脸图像生成能反映用户听讲情况的虚拟表情以帮助路演用户及时调整的线上路演方法、装置、电子设备及存储介质。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。
另外,贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
在附图中:
图1是根据本申请一种实施例的线上路演方法的应用场景图;
图2是根据本申请一种实施例的线上路演方法的主要步骤示意图;
图3是根据本申请一种实施例的线上路演方法中步骤S1的一部分具体步骤的示意图;
图4是根据本申请一种实施例的线上路演方法中步骤S2的一部分具体步骤的示意图;
图5是根据本申请一种实施例的线上路演方法中步骤S4的一部分具体步骤的示意图;
图6是根据本申请一种实施例的线上路演方法中步骤S5的一部分具体步骤的示意图;
图7是根据本申请一种实施例的线上路演方法的另一部分具体步骤的示意图;
图8是根据本申请一种实施例的线上路演方法的再一部分具体步骤的示意图;
图9是根据本申请一种实施例的线上路演方法中步骤St01的一部分具体步骤的示意图;
图10是根据本申请一种实施例的线上路演装置的模块示意框图;
图11是根据本申请一种实施例的电子设备的结构示意图;
图12是根据本申请一种实施例的线上路演方法中情绪衡量维度坐标系的示意图;
图13是根据本申请一种实施例的线上路演方法中路演用户终端界面的示意图;
图14是根据本申请一种实施例的线上路演方法中另一路演用户终端界面的示意图;
图15是本图14中路演用户终端界面下一时刻的示意图;
图16是根据本申请一种实施例的线上路演方法中又一路演用户终端界面的示意图;
图17是根据本申请一种实施例的线上路演方法中再一路演用户终端界面的示意图。
图中附图标记的含义:
服务器;120、路演用户终端;121、路演终端设备(路演主讲);122、路演终端设备(路演主持);130、受众用户终端;131、受众终端设备(路演评审);132、受众终端设备(第一路演听众);133、受众终端设备(第二路演听众);
800、电子设备;801、处理装置;802、ROM;803、RAM;804、总线;805、I/O接口;806、输入装置;807、输出装置;808、存储装置;809、通信装置。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
参考图1所示,图1示出了本申请的一个具体应用场景,在该应用场景中,参与路演的人员分为受众用户和路演用户,其中,受众用户为接受路演内容和信息的一方,受众用户的具体角色可以分为专业的路演评审(比如投资路演的投资人)和一般观众(可以随时进入或离开路演直播间的观众);路演用户为输出路演内容和信息的一方,路演用户的具体角色可以分为路演主讲和路演主持。
其中,受众用户所使用的终端设备定义为受众用户终端设备,相似的,路演用户所使用的终端设备定义为路演用户终端。
本申请的终端设备(包括受众用户终端130和路演用户终端120)可以被构造为一个智能手机、平板计算或者笔记本计算机,其至少具有数据通讯、图像显示、图像采集和声音采集等功能以实现本申请的线上路演的功能。如图1所示,本申请的受众用户通过与路演平台服务器的数据交互从而观看线上路演,而路演用户通过与路演平台服务器的数据交互在线上进行路演。
图2示出了本申请的线上路演方法的主要步骤,如图2所示,本申请的线上路演方法主要包括如下步骤:
S1:响应于一个受众用户终端所上传的受众用户的人脸图像,根据受众用户的人脸图像查询使用受众用户终端的受众用户的身份识别数据。
S2:根据身份识别数据为受众用户的人脸图像匹配受众类型标签。
S3:将受众用户的人脸图像输入情绪识别神经网络模型以使情绪识别神经网络模型输出受众用户的人脸图像的即时情绪参数。
S4:根据即时情绪参数对受众用户的人脸图像对应的受众用户进行聚类以形成动态受众情绪分组。
S5:根据动态受众情绪分组以及动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。
作为具体方案,受众用户终端可以在本地预先处理受众用户的人脸图像,如果受众用户的人脸图像变化不大,则暂时不上传人脸图像。比如,正常而言,受众用户终端每秒采集10帧受众用户的人脸图像,但是如果这10帧人脸图像的用户表情变动不大的话,仅从这10帧人脸图像中选取一帧人脸图像上传。当然,为了降低受众终端的程序运行负担,可以降低每秒的人脸图像采集帧数,比如每秒采集一帧。
在服务器接收到相应的人脸图像后,作为优选方案,如图3所示,步骤S1具体包括如下步骤:
S11:将受众用户的人脸图像输入至一个用户身份识别神经网络模型以使用户身份识别身份网络输出受众用户的标准人像图像和对应的人像置信度。
S12:判断人像置信度是否大于预设的置信度阈值,如果是则将标准人像图像对应的身份识别数据作为受众用户的身份识别数据,如果小于则向用户身份识别神经网络模型输入下一帧受众用户的人脸图像。
作为一种优选方案,用户身份识别神经网络模型可以被构建为一个卷积神经网络模型。
在获取受众用户身份后,根据用户身份就可以为其匹配在本次路演中的角色,是专家评审还是一般用户。这决定了人脸图像会影响那一部分的虚拟表情,如果是专家评审则可以直接显示专家评审的真实人脸图像。一般用户则进入到后继形成基于用户分类的虚拟表情。
在步骤S3中,根据情绪识别神经网络模型输出对应的人脸图像的即时情绪参数,情绪识别神经网络模型为一个卷积神经网络模型。
本申请中,可以通过人脸图像和对应已经标定的即时情绪参数作为训练集对情绪识别神经网络模型进行训练,测试和验证从而获取训练收敛的情绪识别神经网络模型。
具体而言,即时情绪参数包括:情绪效价参数、情绪唤醒度参数和情绪优势度参数。其中,情绪效价参数表示表情的愉悦程度,情绪效价参数越高表示表情越愉快;情绪唤醒度参数表示表情的程度,情绪唤醒度参数越高表示表情越强烈;情绪优势度参数表示表情控制满足感,情绪优势度参数越大表示表情显示得越胸有成竹。
在模型训练标定时,适当设置这些参数的精确度,比如将程度由0到10以及由0到-10分成20个程度,最小计量单位为1,也就是所有参数都为整数位,0代表最中性的表情。
当然为了获取更精细的分类,可以划分更小单位参数划分。比如分为200个计量程度。
在获得每个人脸图像的即时情绪参数后如果均在路演终端的屏幕上显示显然会不太现实(因为路演参与的一般用户会较多),如果按照简单的开心与否进行柱状图等方式的统计显示又没法相对真实且宏观为路演用户提供受众情绪参考。
因此,本申请中采用如下的方案,参照图5和图12所示,上述步骤S4具体包括如下步骤:
S41:构建一个以情绪效价参数、情绪唤醒度参数和情绪优势度参数作为坐标轴构建一个情绪衡量维度坐标系。
S42:将当前多个受众用户的人脸图像的情绪效价参数、情绪唤醒度参数和情绪优势度参数作为它们的坐标值从而在情绪衡量维度坐标系中多个受众情绪坐标点。
S43:对情绪衡量维度坐标系中的多个受众情绪坐标点进行均值漂移聚类以获得受众情绪坐标点的情绪聚类集合,同一个情绪聚类集合中的坐标点所对应的人脸图像构成一个动态的受众情绪分组。
在图12中,三个坐标轴X、Y、Z分别代表情绪效价参数、情绪唤醒度参数和情绪优势度参数的坐标轴,坐标系中的坐标点(不同形状)代表一个人脸表情
这样可以在有效的降低所要显示的虚拟表情数,在受众情绪分组中的受众用户具有相类似的情绪表情,因此只需代表性的显示他们典型表情即可以代替这个群组,这个在实际研发中,作为可选方案,可以选取一个用户图像来代表整个受众情绪分组,但是由于采集图像本身为瞬时图像没有时间延续的代表性,另外由于个人个性化部分也无法完全代替群组整体的情况。
因此,作为进一步的优选方案,为了能更综合的反应受众情绪的综合情况,作为具体方案,参照图6所示,上述步骤S5具体包括如下步骤:
S51:计算一个动态受众情绪分组中所有人脸图像的情绪效价参数的效价统计平均值。这里的统计平均值可以为统计学中的各种均值的方式。
S52:计算一个动态受众情绪分组中所有人脸图像的情绪唤醒度参数的唤醒统计平均值。
S53:计算一个动态受众情绪分组中所有人脸图像的情绪优势度参数的优势统计平均值。
S54:根据效价统计平均值、唤醒统计平均值和优势统计平均值生成或调整虚拟受众形象的虚拟表情中虚拟五官的位置参数和形状参数。
作为一种扩展方案,在实际应用中发现,在情绪效价参数、情绪唤醒度参数和情绪优势度参数中并不是每个参数都对虚拟表情有相同作用,比如情绪优势度相较另外两个参数而言对于路演的场景而言并不那么重要。
所以具体而言,在显示虚拟五官时,情绪加权系数Q=0.4×X+0.4×Y+0.2Z。其中,X为效价统计平均值、Y为唤醒统计平均值和、Z为优势统计平均值。
比如眼睛大小等于眼睛大小标准值乘以情绪加权系数Q,此时情绪加权系数相当于修正了需要考虑的情绪项。从而使虚拟形象更能体现路演用户的关注点。
S55:根据受众用户的受众类型标签生成虚拟受众形象在路演用户终端显示时的显示位置参数。
S56:根据受众用户所形成的动态受众情绪分组的数目生成虚拟受众形象在路演用户终端显示时的显示数量参数。
S57:根据动态受众情绪分组中受众用户的数量的相对关系生成虚拟受众形象在路演用户终端显示时的显示比例参数。
具体而言,其中,显示位置参数至少用于设定虚拟受众形象在路演用户终端显示时的静态位置或动态位置;显示数量参数至少用于设定虚拟受众形象在路演用户终端显示时的静态数量或动态数量;显示比例参数至少用于设定虚拟受众形象在路演用户终端显示时的相对大小。
如图13所示,可以在路演用户终端界面中,直接显示专家评审的实时图像,而在上方以动态的虚拟表情的方式显示受众的情绪情况,动态刷新的频率可以认为控制,或者,作为优选方案,根据动态受众情绪分组的组数的增加或减少的斜率值进行刷新,当斜率值大于等于预设值时则可以进行动态刷新。刷新时并非直接将上次状态直接删除,而是可以采用分栏的形式保留一段时间。虚拟表情的大小代表受众数目多少。这样可以直观反应对应该表情受众的数目。
如图14和图15所示,可以不显示专家评审的实时图像,而也将他们作为受众在虚拟表情中进行表达,当然他们的表情在计算效价统计平均值、唤醒统计平均值和优势统计平均值时具有较大的权重。
如图16所示,可以采用有性别差异的虚拟表情,性别是由动态受众情绪分组数量较多的性别决定的。
如图17所示,还可以在无性别差异的虚拟表情外圈以圆环的颜色分段表示组内性别比例或者年龄比例、职业比例等可以细分的受众用户属性的细分类型。
作为优选的方案,参照图7所示,本申请的线上路演方法还包括如下步骤:
St01:用户终端通过客户端注册并登录。
St02:发布路演信息。
St03:用户终端根据路演信息提交用于报名参加路演的项目信息。
St04:根据预设的路演信息、参加报名的项目信息;筛选项目信息,保留允许参加路演的路演项目,并对每个路演项目划分可用时长。
St05:通过客户端采集路演准备数据。
St06:发出路演请求。
St07:将用户终端分为选手、主持人、嘉宾、评审等不同角色;在路演的不同阶段,系统根据预定规则给予不同角色用户终端不同的功能和权限;用户终端通过登录客户端,并与用户终端信息表进行验证以确认其角色。
St08:响应于路演请求,并审核路演请求和路演预热数据,当审核通过时,发出审核通过指令。
St09:响应于审核通过指令,分发路演准开始指令到客户端。
St10:通过客户端采集路演执行数据。
St11:基于审核通过指令分配对应的路演频道,并从路演执行数据中获取对应的路演视频数据,通过对应的路演频道发送路演视频数据和路演预热数据。
具体而言,其中步骤St02中的路演信息包括:路演主题、路演时长、路演项目数量。
具体而言,其中步骤St03中的项目信息包括路演标题、路演时长和路演参加人员的基础身份信息。
具体而言,其中步骤St11中的路演预热数据包括路演预热视频和路演参考文件。
作为进一步的优选方案,参照图8所示,本申请的线上路演方法还包括如下步骤:
St21:在单个路演项目进行过程的预设时间段一,进行至少一次游戏互动;采集互动信息一,储存互动信息一。
St22:在相邻两个路演项目之间间隔一个预设时间段,进行至少一次游戏互动;采集互动信息二,储存互动信息二。
St23:在路演进行过程中,对路演进行实时记录和监控;当发生违规现象时;断开路演频道的信号。
St24:根据互动信息一和互动信息二,获得对应每一路演项目的初步评价结果。
St25:收集对应每一路演项目的评审结果和初步评价结果,生成综合评价结果。
St26:将综合评价结果发送至路演项目对应的路演用户终端。
具体而言,其中游戏互动采用多个互动游戏中的至少一种;预设时间段一中进行的游戏互动采用选手从多个互动游戏自选的至少一种互动游戏;预设时间段二中进行的游戏互动采用多个互动游戏中随机选择的至少一种互动游戏。
具体而言,其中互动信息一和所述互动信息二均至少包括互动参与人数和互动弹幕数量。
作为具体方案,参照图9所示,上述步骤St01具体包括如下步骤:
St011:生成第一待签名信息,第一待签名信息包括移动用户标识,并且第一待签名信息的生成方式与注册服务器生成第二待签名信息的生成方式一致。
St012:生成第一请求签名值,第一请求签名值是基于第一签名密钥对第一待签名信息计算生成的。
St013:用户通过客户端注册的步骤包括:向注册服务器发送客户端注册请求,客户端注册请求包括移动用户标识和第一请求签名值。
St014:接收注册服务器发送的注册成功应答消息。
如图10所示,本申请的线上路演装置,包括:查询模块,用于响应于一个受众用户终端所上传的受众用户的人脸图像,根据受众用户的人脸图像查询使用受众用户终端的受众用户的身份识别数据;匹配模块,用于根据身份识别数据为受众用户的人脸图像匹配受众类型标签;分析模块,用于将受众用户的人脸图像输入情绪识别神经网络模型以使情绪识别神经网络模型输出受众用户的人脸图像的即时情绪参数;分组模块,用于根据即时情绪参数对受众用户的人脸图像对应的受众用户进行聚类以形成动态受众情绪分组;生成模块,用于根据动态受众情绪分组以及动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。
如图11所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM802以及RAM803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806:包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808:以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图11示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图11中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM802被安装。在该计算机程序被处理装置801执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperTextTransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,adhoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的:也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:响应于一个受众用户终端所上传的受众用户的人脸图像,根据受众用户的人脸图像查询使用受众用户终端的受众用户的身份识别数据;根据身份识别数据为受众用户的人脸图像匹配受众类型标签;将受众用户的人脸图像输入情绪识别神经网络模型以使情绪识别神经网络模型输出受众用户的人脸图像的即时情绪参数;根据即时情绪参数对受众用户的人脸图像对应的受众用户进行聚类以形成动态受众情绪分组;根据动态受众情绪分组以及动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言―诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言:诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。
也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。
例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种线上路演方法,包括:
响应于一个受众用户终端所上传的受众用户的人脸图像,根据所述受众用户的人脸图像查询使用所述受众用户终端的受众用户的身份识别数据;
根据所述身份识别数据为所述受众用户的人脸图像匹配受众类型标签;
将所述受众用户的人脸图像输入情绪识别神经网络模型以使所述情绪识别神经网络模型输出所述受众用户的人脸图像的即时情绪参数;
根据所述即时情绪参数对所述受众用户的人脸图像对应的所述受众用户进行聚类以形成动态受众情绪分组;
根据所述动态受众情绪分组以及所述动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。
2.根据权利要求1所述的线上路演方法,其中,所述响应于一个受众用户终端所上传的受众用户的人脸图像,根据所述受众用户的人脸图像查询使用所述受众用户终端的受众用户的身份识别数据,包括:
将所述受众用户的人脸图像输入至一个用户身份识别神经网络模型以使所述用户身份识别身份网络输出所述受众用户的标准人像图像和对应的人像置信度;
判断所述人像置信度是否大于预设的置信度阈值,如果是则将所述标准人像图像对应的身份识别数据作为所述受众用户的身份识别数据,如果小于则向所述用户身份识别神经网络模型输入下一帧所述受众用户的人脸图像。
3.根据权利要求1所述的线上路演方法,其中,所述根据所述身份识别数据为所述受众用户的人脸图像匹配受众类型标签,包括:
根据所述受众用户的身份识别数据查询该身份识别数据下的受众类型标签的列表;
查询当前所述受众用户所观看的线上路演项目的项目编号并根据所述项目编号查询到参加该线上路演项目的受众用户的受众用户列表;
根据所述线上路演项目的受众用户列表中的受众用户的身份识别数据和与身份识别数据对应的受众类型标签从所述受众用户的受众类型标签的列表中选择其中一个受众类型标签作为匹配到所述的人脸图像的受众类型标签。
4.根据权利要求1所述的线上路演方法,其中,所述即时情绪参数包括:情绪效价参数、情绪唤醒度参数和情绪优势度参数。
5.根据权利要求4所述的线上路演方法,其中,所述根据所述即时情绪参数对所述受众用户的人脸图像对应的所述受众用户进行聚类以形成动态受众情绪分组,包括:
构建一个以所述情绪效价参数、情绪唤醒度参数和情绪优势度参数作为坐标轴构建一个情绪衡量维度坐标系;
将当前多个所述受众用户的人脸图像的所述情绪效价参数、情绪唤醒度参数和情绪优势度参数作为它们的坐标值从而在所述情绪衡量维度坐标系中多个受众情绪坐标点;
对所述情绪衡量维度坐标系中的多个所述受众情绪坐标点进行均值漂移聚类以获得所述受众情绪坐标点的情绪聚类集合,同一个所述情绪聚类集合中的坐标点所对应的所述人脸图像构成一个所述动态受众情绪分组。
6.根据权利要求5所述的线上路演方法,其中,所述根据所述动态受众情绪分组以及所述动态受众情绪分组中受众用户的即时情绪参数的汇总生成虚拟受众形象或/和虚拟受众形象的虚拟表情,包括:
计算一个所述动态受众情绪分组中所有所述人脸图像的情绪效价参数的效价统计平均值;
计算一个所述动态受众情绪分组中所有所述人脸图像的情绪唤醒度参数的唤醒统计平均值;
计算一个所述动态受众情绪分组中所有所述人脸图像的情绪优势度参数的优势统计平均值;
根据所述效价统计平均值、唤醒统计平均值和优势统计平均值生成或调整所述虚拟受众形象的虚拟表情中虚拟五官的位置参数和形状参数。
7.根据权利要求6所述的线上路演方法,其中,所述根据所述动态受众情绪分组以及所述动态受众情绪分组中受众用户的即时情绪参数的汇总生成虚拟受众形象或/和虚拟受众形象的虚拟表情,还包括:
根据所述受众用户的受众类型标签生成所述虚拟受众形象在所述路演用户终端显示时的显示位置参数;
根据所述受众用户所形成的所述动态受众情绪分组的数目生成所述虚拟受众形象在所述路演用户终端显示时的显示数量参数;
根据所述动态受众情绪分组中所述受众用户的数量的相对关系生成所述虚拟受众形象在所述路演用户终端显示时的显示比例参数;
其中,所述显示位置参数至少用于设定所述虚拟受众形象在所述路演用户终端显示时的静态位置或动态位置;所述显示数量参数至少用于设定所述虚拟受众形象在所述路演用户终端显示时的静态数量或动态数量;所述显示比例参数至少用于设定所述虚拟受众形象在所述路演用户终端显示时的相对大小。
8.一种线上路演装置,包括:
查询模块,用于响应于一个受众用户终端所上传的受众用户的人脸图像,根据所述受众用户的人脸图像查询使用所述受众用户终端的受众用户的身份识别数据;
匹配模块,用于根据所述身份识别数据为所述受众用户的人脸图像匹配受众类型标签;
分析模块,用于将所述受众用户的人脸图像输入情绪识别神经网络模型以使所述情绪识别神经网络模型输出所述受众用户的人脸图像的即时情绪参数;
分组模块,用于根据所述即时情绪参数对所述受众用户的人脸图像对应的所述受众用户进行聚类以形成动态受众情绪分组;
生成模块,用于根据所述动态受众情绪分组以及所述动态受众情绪分组中受众用户的即时情绪参数的汇总生成或调整用于显示在路演用户终端的虚拟受众形象或/和虚拟受众形象的虚拟表情。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述处理器实现如权利要求1至7任意一项所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1至7任意一项所述的方法。
CN202111499096.7A 2021-12-09 2021-12-09 线上路演方法、装置、电子设备及存储介质 Active CN114170356B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111499096.7A CN114170356B (zh) 2021-12-09 2021-12-09 线上路演方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111499096.7A CN114170356B (zh) 2021-12-09 2021-12-09 线上路演方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN114170356A true CN114170356A (zh) 2022-03-11
CN114170356B CN114170356B (zh) 2022-09-30

Family

ID=80484943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111499096.7A Active CN114170356B (zh) 2021-12-09 2021-12-09 线上路演方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114170356B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120072939A1 (en) * 2010-09-22 2012-03-22 General Instrument Corporation System and Method for Measuring Audience Reaction to Media Content
CN104361356A (zh) * 2014-12-08 2015-02-18 清华大学 一种基于人机交互的电影受众体验评价方法
CN108062538A (zh) * 2017-12-29 2018-05-22 成都智宝大数据科技有限公司 人脸识别方法及装置
US20180350144A1 (en) * 2018-07-27 2018-12-06 Yogesh Rathod Generating, recording, simulating, displaying and sharing user related real world activities, actions, events, participations, transactions, status, experience, expressions, scenes, sharing, interactions with entities and associated plurality types of data in virtual world
CN109635616A (zh) * 2017-10-09 2019-04-16 阿里巴巴集团控股有限公司 互动方法和设备
CN110135257A (zh) * 2019-04-12 2019-08-16 深圳壹账通智能科技有限公司 业务推荐数据生成、装置、计算机设备和存储介质
CN110446000A (zh) * 2019-08-07 2019-11-12 三星电子(中国)研发中心 一种生成对话人物形象的方法和装置
CN110830811A (zh) * 2019-10-31 2020-02-21 广州酷狗计算机科技有限公司 直播互动方法及装置、系统、终端、存储介质
CN110991238A (zh) * 2019-10-30 2020-04-10 中国科学院自动化研究所南京人工智能芯片创新研究院 一种基于语音情感分析和微表情识别的演讲辅助系统
CN111936036A (zh) * 2017-09-29 2020-11-13 华纳兄弟娱乐公司 使用生物特征传感器数据检测神经状态来指导现场娱乐
WO2020238023A1 (zh) * 2019-05-24 2020-12-03 平安科技(深圳)有限公司 信息推荐方法、装置、终端及存储介质
CN112418068A (zh) * 2020-11-19 2021-02-26 中国平安人寿保险股份有限公司 基于情绪识别的线上培训效果评估方法、装置和设备
CN112969087A (zh) * 2021-03-15 2021-06-15 北京城市网邻信息技术有限公司 一种信息展示方法、客户端、电子设备及存储介质
KR20210083523A (ko) * 2019-12-27 2021-07-07 네이버 주식회사 웹 브라우저 디스플레이 방법 및 이를 이용하는 단말장치

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120072939A1 (en) * 2010-09-22 2012-03-22 General Instrument Corporation System and Method for Measuring Audience Reaction to Media Content
CN104361356A (zh) * 2014-12-08 2015-02-18 清华大学 一种基于人机交互的电影受众体验评价方法
CN111936036A (zh) * 2017-09-29 2020-11-13 华纳兄弟娱乐公司 使用生物特征传感器数据检测神经状态来指导现场娱乐
CN109635616A (zh) * 2017-10-09 2019-04-16 阿里巴巴集团控股有限公司 互动方法和设备
CN108062538A (zh) * 2017-12-29 2018-05-22 成都智宝大数据科技有限公司 人脸识别方法及装置
US20180350144A1 (en) * 2018-07-27 2018-12-06 Yogesh Rathod Generating, recording, simulating, displaying and sharing user related real world activities, actions, events, participations, transactions, status, experience, expressions, scenes, sharing, interactions with entities and associated plurality types of data in virtual world
CN110135257A (zh) * 2019-04-12 2019-08-16 深圳壹账通智能科技有限公司 业务推荐数据生成、装置、计算机设备和存储介质
WO2020238023A1 (zh) * 2019-05-24 2020-12-03 平安科技(深圳)有限公司 信息推荐方法、装置、终端及存储介质
CN110446000A (zh) * 2019-08-07 2019-11-12 三星电子(中国)研发中心 一种生成对话人物形象的方法和装置
CN110991238A (zh) * 2019-10-30 2020-04-10 中国科学院自动化研究所南京人工智能芯片创新研究院 一种基于语音情感分析和微表情识别的演讲辅助系统
CN110830811A (zh) * 2019-10-31 2020-02-21 广州酷狗计算机科技有限公司 直播互动方法及装置、系统、终端、存储介质
KR20210083523A (ko) * 2019-12-27 2021-07-07 네이버 주식회사 웹 브라우저 디스플레이 방법 및 이를 이용하는 단말장치
CN112418068A (zh) * 2020-11-19 2021-02-26 中国平安人寿保险股份有限公司 基于情绪识别的线上培训效果评估方法、装置和设备
CN112969087A (zh) * 2021-03-15 2021-06-15 北京城市网邻信息技术有限公司 一种信息展示方法、客户端、电子设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AELEE KIM 等: "The Effect of Immersion on Emotional Responses to Film Viewing in a VirtualEnvironment", 《2018 IEEE CONFERENCE ON VIRTUAL REALITY AND 3D USER INTERFACES (VR)》 *
潘哲琦 等: "基于表情识别的情绪影集剪辑系统", 《电子技术与软件工程》 *
郭淼: "陌生共鸣、虚拟认同与社交疲惫:"夸夸群"蹿红背后的情绪传播", 《现代传播(中国传媒大学学报)》 *
陈筱: "基于卷积神经网络的在线教学过程中学习者情感识别研究", 《中国优秀硕士学位论文全文数据库 (社会科学Ⅱ辑)》 *

Also Published As

Publication number Publication date
CN114170356B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
CN111711828B (zh) 一种信息处理方法、装置和电子设备
CN111476871B (zh) 用于生成视频的方法和装置
CN111277849B (zh) 一种图像处理方法、装置、计算机设备以及存储介质
CN110366043B (zh) 视频处理方法、装置、电子设备及可读介质
CN110602514B (zh) 一种直播频道的推荐方法、装置、电子设备及存储介质
CN111414543B (zh) 用于生成评论信息序列的方法、装置、电子设备和介质
CN111711829B (zh) 直播间推荐方法、装置、计算机可读存储介质及设备
CN113422988B (zh) 直播封面生成方法、装置、电子设备及存储介质
CN112995776B (zh) 共享屏幕内容抓屏帧率确定方法、装置、设备和存储介质
CN110248195B (zh) 用于输出信息的方法和装置
CN114390308B (zh) 直播过程中的界面显示方法、装置、设备、介质及产品
CN109829379A (zh) 信息处理方法、装置、服务器以及存储介质
CN110248201A (zh) 直播事件处理方法、装置、电子设备及计算机存储介质
CN108235114A (zh) 视频流的内容解析方法和系统、电子设备、存储介质
CN117238451B (zh) 训练方案确定方法、装置、电子设备和存储介质
CN111432282A (zh) 一种视频推荐方法及装置
CN115527090A (zh) 模型训练方法、装置、服务器及存储介质
CN112381074B (zh) 图像识别方法、装置、电子设备和计算机可读介质
CN113011911B (zh) 基于人工智能的数据预测方法、装置、介质及电子设备
CN114170356B (zh) 线上路演方法、装置、电子设备及存储介质
CN111125544A (zh) 用户推荐方法及装置
CN115314477A (zh) 基于多方视频的会议控制方法、装置、设备及存储介质
CN115757933A (zh) 推荐信息生成方法、装置、设备、介质和程序产品
CN114996509A (zh) 训练视频特征提取模型和视频推荐的方法和装置
CN111327943B (zh) 信息管理方法及装置、系统、计算机设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant