CN113157174A - 数据处理方法、装置、电子设备及计算机存储介质 - Google Patents
数据处理方法、装置、电子设备及计算机存储介质 Download PDFInfo
- Publication number
- CN113157174A CN113157174A CN202010144320.XA CN202010144320A CN113157174A CN 113157174 A CN113157174 A CN 113157174A CN 202010144320 A CN202010144320 A CN 202010144320A CN 113157174 A CN113157174 A CN 113157174A
- Authority
- CN
- China
- Prior art keywords
- user
- interactive media
- facial expression
- information
- playing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 45
- 230000002452 interceptive effect Effects 0.000 claims abstract description 516
- 230000008921 facial expression Effects 0.000 claims abstract description 280
- 230000014509 gene expression Effects 0.000 claims abstract description 138
- 238000000034 method Methods 0.000 claims abstract description 110
- 230000001815 facial effect Effects 0.000 claims abstract description 64
- 230000008569 process Effects 0.000 claims abstract description 64
- 230000003993 interaction Effects 0.000 claims abstract description 18
- 230000008451 emotion Effects 0.000 claims description 66
- 238000013475 authorization Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 230000002996 emotional effect Effects 0.000 description 7
- 238000006467 substitution reaction Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 230000036651 mood Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 206010011469 Crying Diseases 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000007667 floating Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
- G06F16/436—Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/44—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种数据处理方法、装置、电子设备及计算机存储介质。其中,所述数据处理方法,包括:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户的人脸图像,并基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。通过本发明实施例,互动媒体播放过程中的交互更加丰富。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种数据处理方法、装置、电子设备及计算机存储介质。
背景技术
随着互联网技术和计算机技术的发展和成熟,越来越多的人的日常生活和娱乐依赖于观看互动媒体。用户在通过客户端或者浏览器观看互动媒体时,通过点击“播放”按钮,使客户端或者浏览器播放互动媒体,用户只能被动地观看互动媒体内容,用户无法影响互动媒体中的剧情的走向,使得用户对互动媒体的参与感和代入感均较低。
发明内容
有鉴于此,本发明实施例提供一种视频交互方案,以解决上述部分或全部问题。
根据本发明实施例的第一方面,提供了一种数据处理方法包括:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户的人脸图像,并基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
根据本发明实施例的第二方面,提供了一种数据处理方法,包括:若在互动媒体播放过程中检测到针对用户的互动触发操作,则采集用户的人体反馈数据,并基于采集的用户的人体反馈数据,识别出所述用户的情绪信息;基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支;播放与所述情绪信息对应的互动媒体分支中的互动播放内容。
根据本发明实施例的第三方面,提供了一种数据处理方法,包括:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户群体的图像数据,并基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息;基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息;确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
根据本发明实施例的第四方面,提供了一种数据处理装置,包括:信息获取模块,用于若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则基于采集到的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;互动媒体确定模块,用于基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;播放模块,用于播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
根据本发明实施例的第五方面,提供了一种数据处理装置,包括:第一获取模块,用于若在互动媒体播放过程中检测到针对用户的互动触发操作,则采集用户的人体反馈数据,并基于采集的用户的人体反馈数据,识别出所述用户的情绪信息;分支确定模块,用于基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支;第一互动播放模块,用于播放与所述情绪信息对应的互动媒体分支中的互动播放内容。
根据本发明实施例的第六方面,提供了一种数据处理装置,包括:第二获取模块,用于若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户群体的图像数据,并基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息;统计模块,用于基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息;第二互动播放模块,用于确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
根据本发明实施例的第七方面,提供了一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如第一方面到第三方面中任一所述的数据处理方法对应的操作。
根据本发明实施例的第八方面,提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面到第三方面中任一所述的数据处理方法。
根据本发明实施例提供的数据处理方案,在检测到人脸表情采集触发操作后,采集人脸图像,并识别出人脸表情信息,从而根据人脸表情信息确定对应的互动播放内容并进行播放,从而实现了基于用户的表情对后续播放互动媒体进行控制,提升了用户与互动媒体之间的交互性,使得用户观看互动媒体时的参与感和代入感更高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1a为根据本发明实施例一的一种数据处理方法的步骤流程图;
图1b为根据本发明实施例一的一种使用场景的界面变化示意图;
图1c为根据本发明实施例一的一种使用场景的示意图;
图2a为根据本发明实施例二的一种数据处理方法的步骤流程图;
图2b为根据本发明实施例二的一种使用场景界面变化示意图;
图2c为根据本发明实施例二的使用场景的步骤流程示意图;
图2d为根据本发明实施例二的使用场景的示意图;
图3a为根据本发明实施例三的一种数据处理方法的步骤流程图;
图3b为根据本发明实施例三的一种使用场景的界面变化示意图;
图3c为根据本发明实施例三的一种使用场景的示意图;
图4a为根据本发明实施例四的一种数据处理方法的步骤流程图;
图4b为根据本发明实施例四的一种使用场景的界面变化示意图;
图4c为根据本发明实施例四的一种使用场景的示意图;
图5为根据本发明实施例五的一种数据处理装置的结构框图;
图6为根据本发明实施例六的一种数据处理装置的结构框图;
图7为根据本发明实施例七的一种数据处理装置的结构框图;
图8为根据本发明实施例八的一种电子设备的结构示意图。
具体实施方式
为了使本领域的人员更好地理解本发明实施例中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明实施例一部分实施例,而不是全部的实施例。基于本发明实施例中的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本发明实施例保护的范围。
下面结合本发明实施例附图进一步说明本发明实施例具体实现。
实施例一
参照图1a,示出了根据本发明实施例一的一种数据处理方法的步骤流程图。
在本实施例中,以数据处理方法以终端设备作为执行主体为例对其进行说明。当然,在其他实施例中,该数据处理方法也可以以服务端(服务端包括服务器或云端)作为执行主体,终端设备用于与用户进行交互(如采集用户的人脸图像、向用户显示图像、接收用户操作等)。
本实施例的数据处理方法包括以下步骤:
步骤S102:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户的人脸图像,并基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息。
互动媒体包括下列至少之一:用于展示供观看者模仿的互动动作的互动教练视频、用于展示剧目情节的互动剧目视频。
其中,互动教练视频可以是教导观看者体育动作的视频,例如,健身教练视频等,观看者通过模仿互动动作,进行健身或者学习体育动作,而且可以调整自己的情绪,如使用户更加开心等。
互动剧目视频可以是展示剧情的视频,例如,用于展示推理剧的剧情的视频。
针对用户的人脸表情采集触发操作用于指示采集用户的人脸图像,并对人脸图像进行表情识别,以获得用户的表情,如微笑、悲伤、愤怒、恐惧等等。
人脸表情采集触发操作可以是用户主动触发的操作,如用户点击互动媒体的播放界面中显示的控件;也可以是在互动媒体播放过程中,根据预设的触发条件触发的操作,如在互动媒体中预先设置了标记,当检测播放到该标记时表示检测到该触发操作。
预设的标记可以与互动媒体中的某句台词对应,或者与播放时间对应等等。
若检测到该触发操作,则可以通过采集用户在某一时刻或者某一时间段内的人脸图像,并对这些人脸图像进行表情识别的方式获得人脸表情信息。
其中,人脸表情信息用于表征用户在某一时刻或某一时间段内观看播放的互动媒体的情绪状态。
例如,人脸表情信息为在某一时间段内,用户产生微笑的表情三次,表示该时间段内用户观看互动媒体的情绪较为开心。或者,人脸表情信息为在某一时间段内,用户产生愤怒的表情五次,表示该时间段内用户观看互动媒体的情绪较为愤怒,等等。
根据需要的不同,可以采用不同的表情识别方式,本实施例对此不作限制。例如,如果需要获得用户与微笑相关的人脸表情信息,则可以使用训练的、具有微笑识别功能的神经网络模型(如卷积神经网络模型CNN等)进行表情识别。
当然,如果需要获得其他表情相关的人脸表情信息,则可以使用相应的表情识别算法。
步骤S104:基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支。
由于人脸表情信息能够表征用户在观看互动媒体时的情绪,该情绪即为用户对互动媒体的反馈,因此,可以基于不同的人脸表情信息确定不同的互动媒体分支,从而使得用户可以通过自己的表情影响后续播放的互动播放内容,从而提升互动媒体播放过程中与用户的互动性,而且使后续播放的互动播放内容更加符合用户的需要。
这样不仅提升了互动媒体播放过程中与用户的互动性,使用户能够参与到互动媒体的播放过程中,提升参与感,而且,这样还可以提升用户粘性。
在一种情况中,确定与所述用户的人脸表情信息对应的互动媒体分支时,可以根据人脸表情信息从多个候选互动媒体分支中选取一个作为对应的互动媒体分支。例如,若人脸表情信息指示用户在观看搞笑类的互动媒体A(互动媒体例如为互动视频)的过程中微笑的次数低于3次,则表示该用户的“笑点”高于互动媒体A的搞笑程度,基于人脸表情信息,选取搞笑程度高于互动媒体A的互动媒体分支B作为与人脸表情信息对应的互动媒体分支。
或者,若人脸表情信息指示用户在观看互动媒体A的过程中微笑的次数等于或大于3次,则表示该用户的“笑点”与互动媒体A的搞笑程度匹配,基于人脸表情信息,选取搞笑程度与互动媒体A相同的互动媒体分支C作为与人脸表情信息对应的互动媒体分支。需要说明的是,此处的搞笑程度相同可以广义地理解为互动媒体A与互动媒体分支C搞笑程度的差值在预设范围内。
互动媒体的搞笑程度可以预先设置。如互动媒体A的搞笑程度为5,互动媒体分支B的搞笑程度为9,互动媒体分支C的搞笑程度为6等等。
在另一种情况中,可以预设对应关系,对应关系用于指示不同的人脸表情信息对应的互动媒体分支。在确定时,根据对应关系确定人脸表情信息对应的互动媒体分支。
步骤S106:播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
确定对应的互动媒体分支后,可以在当前播放的互动媒体播放完成后播放该分支对应的互动播放内容;或者,无论当前播放的互动媒体是否播放完成,直接终止当前的互动媒体的播放,并播放该分支对应的互动播放内容。
下面结合一种具体的用户通过终端设备观看互动媒体的使用场景对数据处理方法进行说明如下:
如图1b和图1c所示,通过终端设备(如手机)观看互动媒体A的界面如图1b中界面1所示。在互动媒体A中预设了标记A,标记A与演员A所说的台词A对应。当检测到互动媒体即将播放演员A讲台词A的图像帧时,确定检测到人脸表情采集触发操作。
此时,可以在终端设备的屏幕上展示引导信息,以提示用户即将开始采集用户的人脸图像。在引导信息展示完成后,调用图像采集设备(如摄像头)采集时间段A内的用户的人脸图像,并在互动媒体的播放界面中展示采集到的人脸图像,如图1b中界面2所示。
同时,针对采集到的人脸图像进行表情识别,获取人脸表情信息。例如,人脸表情信息可以指示用户在时间段A内微笑次数。
之后,根据人脸表情信息确定对应的互动媒体分支,并播放该互动媒体分支对应的互动播放内容。如,人脸表情信息指示用户微笑次数大于或等于第一设定阈值,则选取搞笑程度与互动媒体A相同或者搞笑程度差值在预设范围内的互动媒体分支B,作为对应的互动媒体分支,并播放该互动媒体分支B的互动播放内容(如图1b中界面3所示)。在此过程中,用户无需额外操作或者仅需要进行较少的操作,就可以通过人脸表情实现交互,控制后续播放的互动播放内容,例如,控制后续互动媒体剧情的走向。
需要说明的是,本发明实施例中,互动媒体可以为视频内容,例如,短视频剧、电影、UGC(User Generated Content,用户生成内容)等。
通过本实施例,在检测到人脸表情采集触发操作后,采集人脸图像,并识别出人脸表情信息,从而根据人脸表情信息确定对应的互动媒体分支,并播放其对应的互动播放内容,从而实现了基于用户的表情对后续播放互动媒体进行控制,提升了用户与互动媒体之间的交互性,使得用户观看互动媒体时的参与感和代入感更高。
本实施例的数据处理方法可以由任意适当的具有数据处理能力的电子设备执行,包括但不限于:服务器、移动终端(如平板电脑、手机等)和PC机等。
实施例二
参照图2a,示出了根据本发明实施例二的一种数据处理方法的步骤流程图。
在本实施例中,以通过终端设备执行该数据处理方法为例,对数据处理方法的实现过程进行详细说明。
本实施例的数据处理方法包括以下步骤:
步骤S200a:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,确定是否获得图像采集设备的使用授权。
需要说明的是,确定是否获得图像采集设备的使用授权的操作为可选操作。在一具体实现中,若在互动媒体中预设了标记,如该标记与演员A的台词A的播放起始时间对应,如第5分30秒,则在检测到互动媒体播放到预设的标记时,确定检测到人脸表情采集触发操作。
由于后续过程中需要采集人脸图像,因此,为了保证用户的信息安全,确定是否获得图像采集设备的使用授权。例如,确定是否获得使用摄像头的授权。如果获得使用授权,则执行步骤S200b;如果未获得使用授权,则暂停当前互动媒体的播放,并展示授权提示信息,以提示用户授予摄像头使用权限。
授权提示信息可以通过弹窗、悬浮窗、分屏窗口等任何适当的方式、在任何适当的位置展示,本实施例对此不作限制。
在展示授权提示信息后,确定授权是否通过,若授权通过表示获得使用授权,则执行步骤S200b;反之,若授权未通过,表示用户不允许使用图像采集设备,则可以在确定预设的总超时时间到达时,播放其他互动媒体分支对应的互动播放内容。
其中,总超时时间可以根据需要预先配置。
可选地,为了提升用户体验,在等待总超时时间到达的过程中可以继续播放互动媒体,供用户观看。
步骤S200b:若获得所述使用授权,则确定用于对用户进行引导的引导信息的第一展示时长是否大于第一预设值。
引导信息用于对用户进行引导,其可以包括引导UI(User Interface,用户界面)和/或引导文案。其中引导UI可以是动态图像、静态图像、或者包括图像的控件等等。引导文案可以是进行操作说明的文字等等。
本领域技术人员可以根据需要预先配置第一展示时长(记作GMT,即引导信息显示时间),例如,如果需要在互动媒体的播放界面中展示引导信息,则可以配置第一展示时长为大于第一预设值的某个值,如30秒、1分钟、5分钟等等。如果不需要展示引导信息,则可以配置第一展示时长等于或小于第一预设值。这样就实现了通过配置不同的第一展示时长,方便地控制引导信息是否展示的目的。
第一预设值可以根据需要确定,例如,第一预设值可以为0秒、30秒、1分钟等。
可选地,在配置有数据处理方法的应用中还可以设置引导信息控制选项,供用户自主控制引导信息的展示时长。
若第一展示时长小于或等于第一预设值,则调用图像采集设备,并确定图像采集设备是否能够采集到人脸图像。如果能够采集到人脸图像,则执行步骤S202;反之,如果未能够采集到人脸图像,则在互动媒体的播放界面中展示用于提示未检测到人脸的提示信息,之后执行步骤S202。
若第一展示时长大于第一预设值,则表示需要展示引导信息,因此可以执行步骤S200c。
步骤S200c:若大于所述第一预设值,则在互动媒体的播放界面中展示所述引导信息,并在展示完成后执行基于采集的所述用户的人脸图像,进行表情识别,获得所述用户的人脸表情信息的操作。
在第一展示时间大于第一预设值时,表示需要展示引导信息,因此,可以在互动媒体的播放界面中的任何适当的位置、以适当的方式(如弹窗、浮层等)展示引导信息,从而通过其引导用户,并说明后续将进入人脸互动过程,展示引导信息的界面如图2b中界面2所示。引导信息展示完成后执行步骤S202。
若引导信息中包括的引导UI为动态图像,则可以在动态图像播放完成时确定引导信息展示完成。或者,根据引导信息的展示时长确定其是否展示完成。如,引导信息的展示时长达到第一展示时长,则确定引导信息展示完成。
步骤S202:基于采集到的所述用户的人脸图像,进行表情识别,获得所述用户的人脸表情信息。
在一具体实现中,步骤S202包括以下子步骤:
子步骤S2021:在第一预设时长内,调用图像采集设备采集人脸图像,并通过表情识别确定采集的人脸图像中包含预设表情的人脸图像的计数值。
第一预设时长(即FMT,实时反馈信息最大显示时间)可以由本领域技术人员根据需要设置。如1分钟、2分钟、5分钟等等。
通过在第一预设时长内采集人脸图像,并对人脸图像进行表情识别,确定其中包含预设表情(如微笑、悲伤、愤怒等等)的人脸图像的计数值,可以确定用户观看互动媒体的情绪,进而可以根据用户的情绪确定后续播放的互动媒体分支,从而实现用户通过脸部表情控制互动媒体的内容(如控制剧情走向)的目的。
可选地,为了保证能够采集到高质量的人脸图像,从而确保这种交互的可靠性和交互质量,在引导信息展示完成后,调用图像采集设备开始采集人脸图像时,可以在互动媒体的播放界面中展示实时反馈信息,以通过实时反馈信息引导用户或者向用户传达一些信息,同时可以启动倒计时,倒计时的时长为第一预设时长。
实时反馈信息包括实时反馈UI和实时反馈文案。其中,实时反馈UI可以包括采集的人脸图像和动态图像的组合,或者采集的人脸图像和静态图像的组合等等,这样用户可以通过实时反馈信息确定自己被采集的人脸图像,如果出现图像采集设备采集不到的人脸图像的情况用户也可以及时发现并进行相应调整。实时反馈文案可以是说明文字等。
在一具体实现中,确定采集的人脸图像中包含预设表情的图像的计数值,包括以下过程:
过程A:确定所述第一预设时长是否到达,若否,则调用所述图像采集设备,并确定是否采集到人脸图像。
如果第一预设时长达到,表示实时反馈过程结束,不需要继续采集人脸图像,可以执行步骤S2022。
如果第一预设时长未到达,表示仍处于实时反馈过程中,因而调用图像采集设备采集人脸图像,为了保证交互的可靠性,避免长时间未采集到人脸图像导致无法获得有效的人脸表情信息,造成无法进行可靠、高效的交互,需要确定图像采集设备是否采集到人脸图像。例如,针对图像设备采集到的图像,使用人脸识别算法对其进行识别,确定其中是否包含人脸,如果包含,则确定采集到人脸图像;反之,则确定未采集到人脸图像。若采集到人脸图像,则执行过程B1;反之,则执行过程B2。
过程B1:若采集到人脸图像,则对所述人脸图像进行表情识别,并根据识别结果确定所述人脸图像中是否包含所述预设表情。
在一种情况中,本领域技术人员可以针对采集到的每个人脸图像进行表情识别,并确定其是否包含预设表情,如果包含预设表情则执行过程C1;反之,则执行过程C2。
以预设表情是微笑为例,针对图像采集设备采集的每张人脸图像,采用训练的、具有微笑识别能力的神经网络模型(如卷积神经网络模型,CNN)对其进行表情识别,识别结果用于指示人脸图像中的人脸的微笑程度。
如果微笑程度大于或等于第二设定阈值,则确定人脸图像中包含预设表情;反之,如果微笑程度小于第二设定阈值,则确定人脸图像中未包含预设表情。
或者,在另一种情况中,也可以从采集的、连续的多张人脸图像中选取包含预设表情概率最高的一张,根据概率最高的一张确定是否包含预设表情,如果包含则执行过程C1;反之则执行过程C2。
具体地,仍以预设表情是微笑为例,将每100ms(毫秒)图像采集设备采集的N张人脸图像(记作图像A)作为一个集合,分别对这N张图像A进行表情识别,确定每个图像A的微笑程度,从中选取微笑程度最高的一张人脸图像(为了便于说明该张人脸图像记作图像B)作为这100ms的代表人脸图像。
每1s(秒)可以获得M张图像B,再从M张图像B中获取微笑程度最高的一张人脸图像(记作图像C),作为这1s的代表人脸图像。
每3s(秒)可以获得P张图像C,再从P张图像C中获取微笑程度最高的一张人脸图像(记作图像D)作为用于判断是否包含预设表情的人脸图像。若图像D的微笑程度大于或等于第二设定阈值,则确定人脸图像包含预设表情,执行过程C1;反之,若图像D的微笑程度小于第二设定阈值,则确定人脸图像未包含预设表情,执行过程C2。
这种方式可以很好地适应人脸表情是连续变化的情况,保证检测的准确性,避免用户的一个微笑表情检测到过多的包含预设表情的人脸图像,而导致对用户的情绪判断不准确。
过程B2:若未采集到人脸图像,则在所述互动媒体的播放界面中展示用于提示未检测到人脸的提示信息。
通过在播放界面中展示提示信息的方式告知用户未检测到人脸,请用户调整图像采集设备或者自己的位置,并返回过程A继续执行。
过程C1:若包含所述预设表情,则将所述计数值加一。
计数值用于指示在第一预设时长内,用户产生预设表情的次数,如微笑了3次、悲伤了5次等等,因此,如果检测到某个人脸图像(该人脸图像可以是一个检测周期如3秒内微笑程度最高的人脸图像)包含预设表情,则将计数值加一。
在加一后,返回确定所述第一预设时长是否到达的操作继续执行(即过程A),直至所述第一预设时长到达。这样就可以确定第一预设时长内用户微笑的次数。
过程C2:若未包含预设表情,则返回确定所述第一预设时长是否到达的操作继续执行,直至所述第一预设时长到达。
子步骤S2022:根据所述计数值,确定所述人脸表情信息。
在一具体实现中,可以直接将该计数值确定为人脸表情信息。或者,人脸表情信息中也可以根据需要包括其他信息,本实施例对此不作限制。例如,人脸表情信息中除计数值外,还可以包括计数值对应的预设表情的信息,如人脸表情信息包括用于指示微笑的信息以及微笑的计数值。
步骤S204a:确定与人脸表情信息对应的结果信息的第二展示时长是否大于第二预设值。
本领域技术人员可以根据需要配置第二展示时长(即RT,结果信息显示时间)。例如,如果需要在互动媒体的播放界面展示结果信息,则第二展示时长配置大于第二预设值,如30秒、1分钟、5分钟等等。如果不需要展示结果信息,则可以配置第二展示时长等于或小于第二预设值。这样就实现了通过配置不同的第二展示时长,方便地控制结果信息是否展示的目的。
第二预设值可以根据需要确定,例如,第一预设值可以为0秒、30秒、1分钟等。
如果,确定第二展示时长大于第二预设值,则执行步骤S204b;反之,如果小于或等于第二预设值,则执行步骤S206a。
需要说明的是,前述的总超时时间(即TT)可以是第一展示时长(GMT)、第一预设时长(FMT)和第二展示时长(RT)的总和。
结果信息与人脸表情信息对应,如,人脸表情信息对应的计数值大于或等于第一设定阈值,则展示指示成功的结果信息;人脸表情信息对应的计数值小于第一设定阈值,则展示指示失败的结果信息。结果信息用于告知用户通过人脸表情控制的结果。
结果信息包括结果UI和结果文案。结果UI可以包括动态图像、静态图像等等。结果文案可以是根据需要配置的说明文字。
步骤S204b:若大于所述第二预设值,则在所述互动媒体的播放界面展示所述结果信息。
结果信息可以在任何适当的位置、以适当的方式(如弹窗、浮层等等)展示。结果信息展示完成后可以执行步骤S206a。
步骤S206a:确定跳转开关的状态。
跳转开关用于控制是否立即跳转到其他互动媒体分支进行播放。跳转开关的状态可以是预先配置的,也可以是用户通过设置选项进行控制。
跳转开关的状态可以是用于指示开启的第一状态或者用于指示关闭的第二状态。若其为第一状态,则执行步骤S206b;或者,若其为第二状态,则执行步骤S206c。
步骤S206b:若所述跳转开关的状态为指示开启的第一状态,则终止所述互动媒体的播放,并执行播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作。
如果跳转开关开启,表示希望从当前播放的互动媒体跳转,因此,无论当前播放的互动媒体是否播放完成,均终止当前互动媒体的播放并播放与人脸表情信息对应的互动媒体分支中的互动播放内容,即执行步骤S208和步骤S210。需要说明的是,虽然本实施例中以步骤S208在步骤S206a之后执行,但并不限于此,在其他实施例中,步骤S208可以在步骤S2022之后、步骤S210之前的任意适当时间执行。
步骤S206c:若所述跳转开关的状态为指示关闭的第二状态,则继续所述互动媒体的播放直至所述互动媒体播放完成并执行播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作。
如果跳转开关关闭,表示希望观看完整的当前播放的互动媒体,因此,继续所述互动媒体的播放直至所述互动媒体播放完成,并播放与人脸表情信息对应的互动媒体分支中的互动播放内容,即执行步骤S208和步骤S210。需要说明的是,虽然本实施例中以步骤S208在步骤S206a之后执行,但并不限于此,在其他实施例中,步骤S208可以在步骤S2022之后、步骤S210之前的任意适当时间执行。
步骤S208:基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支。
在一种可行方式中,若所述人脸表情信息对应的计数值大于或等于第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第一互动媒体分支,作为对应的互动媒体分支。
例如,第一设定阈值为5,以预设表情是微笑为例,如果人脸表情信息指示用户在第一预设时长内微笑了5次或者以上,则表示当前播放的互动媒体的搞笑程度比较符合用户的需求,因此,根据当前播放的互动媒体的用于指示搞笑程度的预设属性的属性值,从候选互动媒体分支中确定第一互动媒体分支,第一互动媒体分支的搞笑程度与当前播放的互动媒体的搞笑程度匹配(该匹配可以理解为第一互动媒体分支的搞笑程度与当前播放互动媒体的搞笑程度的差值在预设范围内,如预设范围可以[-1,1])。
需要说明的是,针对不同的预设表情,其对应的预设属性可能不同。例如,预设表情为悲伤,则预设属性可以是指示互动媒体悲伤程度的属性等。
或者,在另一种可行方式中,若所述人脸表情信息对应的计数值小于所述第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第二互动媒体分支,作为对应的互动媒体分支。
仍以第一设定阈值为5,预设表情是微笑为例,如果人脸表情信息指示用户在第一预设时长内微笑了3次,则表示当前播放的互动媒体的搞笑程度无法满足用户的需求,因此,根据当前播放的互动媒体的用于指示搞笑程度的预设属性的属性值,从候选互动媒体分支中确定第二互动媒体分支,第二互动媒体分支的搞笑程度应高于当前播放的互动媒体的搞笑程度。需要说明的是,该高于可以理解为第一互动媒体分支的预设属性的属性值大于当前播放的互动媒体的预设属性的属性值,也可以理解为第一互动媒体分支的预设属性的属性值与当前播放的互动媒体的预设属性的属性值的差值为正数,且高于某一值,本领域技术人员可以根据需要适当设置。
步骤S210:播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
本步骤可以采用实施例一中步骤S106的方式实现,故不再赘述。
步骤S212:根据所述人脸表情信息和所述互动媒体的类型信息,从多个候选对象中,确定推荐对象。
需要说明的是,本步骤为可选步骤。
根据人脸表情信息不仅可以确定互动媒体的互动媒体分支,而且可以根据其为用户提供针对性的、个性化的视频推荐,从而充分利用用户对互动媒体的情绪反馈,为其提供更好的视频观看体验。
以用户观看的互动媒体的类型为搞笑类型为例,若人脸表情信息指示用户的微笑的计数值大于或等于预设推荐值(本领域技术人员可以根据需要设置,本实施例对此不作限制),表示用户较为喜欢该类型的互动媒体,因而可以为用户推荐相同类型的互动媒体。反之,若人脸表情信息指示用户的微笑的计数值小于预设推荐值,表示用户不喜欢该类型的互动媒体,可以向用户推荐其他类型的互动媒体。
互动媒体的类型信息包括但不限于:搞笑类型、悲剧类型、爱情类型等等。
下面结合一个具体使用场景,对该方法的实现过程进行说明,如图2c和图2d所示,本使用场景中的数据处理方法包括以下步骤:
step A:若检测到人脸表情采集触发操作,则确定是否获得图像采集设备的使用授权。
用户通过终端设备(如手机)观看互动媒体A的界面如图2b中界面1所示。互动媒体A预设了与5分20秒对应的标记。当检测到播放到该标记对应的时间时,确定检测到人脸表情采集触发操作,开始进入人脸表情识别玩法。
根据互动媒体A的分类信息,可以确定对应的预设表情,例如,互动媒体A为搞笑类互动媒体,则识别的预设表情为微笑。本领域技术人员可以预先配置第一设定阈值(如微笑累加值),以便后续根据第一设定阈值和人脸表情信息确定对应的互动媒体分支。例如,第一设定阈值可以是5。
通过调用终端设备的API等方式可以确定是否获得图像采集设备的使用授权。若获得使用授权则执行step B1;反之,若未获得使用授权则执行step B2。
step B1:确定第一展示时间(GMT)是否大于第一预设值。
第一展示时间用于指示是否展示引导信息。以第一预设值是0为例,如果第一展示时间大于0,表示需要展示引导信息,执行step C;反之,如果等于0,表示不需要展示引导信息,执行step D。
step B2:暂停互动媒体播放,并展示授权提示信息,并确定授权是否通过。
授权提示信息可以采用弹窗方式展示。之后,确定授权是否通过,如果授权通过,则执行step B1;反之,如果授权未通过,则执行step E。
step C:在互动媒体的播放界面展示引导信息。
在播放界面的适当位置显示引导信息中的引导U I(如动态图像)和引导文案(如操作说明),以引导用户,并说明后续将进入人脸互动玩法,需要用户操作,显示引导信息的界面如图2b中界面2所示。
在引导信息展示完成后(如动图图像播放完成或者展示时长达到第一展示时长,当然,在其他使用场景中引导信息的展示时长可以与第一展示时长不同),执行step F。
需要说明的是,虽然本使用场景中为了便于说明以A~C的方式对步骤进行了标识,但这并不用于限定步骤间的执行顺序,例如,step B1也可以在step A之前执行,只要保证在执行step F之前确定获得图像采集设备的使用授权,且根据需要展示了引导信息即可。
step D:确定图像采集设备中是否有人脸。
例如,通过对图像采集设备采集的图像进行人脸识别,确定其中是否包括人脸。如果包含人脸,则执行step F;反之,如果不包括人脸,则执行step H。
step E:等待总超时时间到达。
总超时时间可以根据需要设置。例如,在本实施例中,总超时时间是第一展示时间(GMT,引导信息显示时间)、第二展示时间(RT,结果信息显示时间)和第一预设时长(FMT,实时反馈信息最大显示时间)的总和。
在总超时时间到达时,执行step L。
step F:展示实时反馈信息,并启动第一预设时长的倒计时。
实时反馈信息中包括实时UI和实时反馈文案,其展示界面如图2b中界面3所示。在step F中启动倒计时之后进入实时反馈循环,开始采集人脸图像,并进行微笑计数,即执行step I1。
step H:在互动媒体播放界面展示用于提示未检测到人脸的提示信息。
在提示信息展示后执行step I1。
step I1:确定第一预设时长是否到达。
如果倒计时未到,则执行step I2;反之,如果倒计时到达,则将计数值确定为人脸表情信息,并则执行step J。
step I2:调用图像采集设备,确定图像采集设备能够采集到人脸图像。
例如,对图像采集设备采集的图像进行人脸识别,如果识别出有人脸,则执行stepI3;反之,如果未识别出人脸,则执行step I6。
图像采集设备可以是摄像头,摄像头一般具有互动媒体摄像/传播和静态图像捕捉等基本功能,它是借由镜头采集图像后,由摄像头内的感光组件电路及控制组件对图像进行处理并转换成电脑所能识别的数字信号,然后借由并行端口或USB连接输入到电脑后由软件再进行图像还原。
step I3:展示实时反馈信息,并执行step I4。
step I4:确定人脸图像中是否包括预设表情。
例如,通过神经网络模型确定人脸图像的微笑程度,如果微笑程度大于第二设定阈值,则确定包含预设表情(即微笑表情),执行step I5;反之,返回step I1继续执行。
表情是人际交往中传递情感的重要方式之一,对人脸图像进行表情识别(即人脸表情识别)是指利用计算机对检测到的人脸图像进行面部表情特征提取,进而确定人脸的表情。这样使计算机能够按照人的思维认识对人脸表情进行相应的理解处理,并能够根据人们的需求做出响应,即决定互动媒体中剧情的未来走向,从而建立友好的、智能化的人机交互环境。
step I5:将计数值加一,并返回step I1继续执行。
step I6:在互动媒体播放界面展示用于提示未检测到人脸的提示信息,并返回step I1继续执行。
step J:确定第二展示时间是否大于第二预设值。
例如,第二预设值可以是0,若第二展示时间大于第二预设值,表示需要展示结果信息,故执行step K1;反之,若第二展示时间小于或等于第二预设值,表示不需要展示结果信息,故执行step K2。
step K1:展示与人脸表情信息对应的结果信息。
例如,若人脸表情信息指示的计数值大于第一设定值(即5),则确定对应的结果信息为第一结果信息(即指示成功的结果信息)。第一结果信息包括指示成功的结果UI(其可以是动态图像或静态图像)和第一结果文案(如指示成功的文字),展示第一结果信息的界面如图2b中界面4所示。
又例如,若人脸表情信息指示的计数值小于或等于第一设定值(即5),则确定对应的结果信息为第二结果信息(即指示失败的结果信息)。第二结果信息包括指示失败的结果UI(其可以是动态图像或静态图像)和第二结果文案(如指示失败的文字)。
在结果信息展示完成后,执行step K2。
step K2:跳转开关的状态。
若所述跳转开关的状态为指示开启的第一状态,则终止所述互动媒体的播放,并执行step L。
或者,若所述跳转开关的状态为指示关闭的第二状态,则执行step E,继续所述互动媒体的播放直至所述互动媒体播放完成,之后执行step L。
step L:根据人脸表情信息确定对应的互动媒体分支,并播放对应的互动媒体分支中的互动播放内容。
例如,人脸表情信息指示计数值大于第一设定阈值(如5),则确定第一互动媒体分支,即正确的互动媒体分支进行播放,播放第一互动媒体分支中的互动播放内容的界面如图2b中界面5所示。
或者,人脸表情信息指示计数值小于或等于第一设定阈值(如5),则确定第二互动媒体分支,即失败的互动媒体分支进行播放。
在本使用场景中,实时采集人脸图像,并通过表情识别算法进行人脸表情识别,实时计算人脸表情的变化,如果计算机识别到人脸有指定的表情发生(比如微笑),则对计数值进行累加。然后,进入下一个检测微笑的循环,并重复上面判断,直到倒计时时间结束,使得可以将人脸表情识别技术应用到互动内容播放中,通过人类脸部表情的变化(如微笑、悲伤、愤怒等)的判定,决定内容剧情的走向,丰富了互动形式。相较于现有技术中,在互动媒体播放到某时间点时,屏幕画面出现多个选项,用户根据自己的理解,选择点击某选项;在选项被点击后,播放对应的互动媒体的方式,这种交互方式参与感更强,交互性更好。
通过本实施例,在检测到人脸表情采集触发操作后,采集人脸图像,并识别出人脸表情信息,从而根据人脸表情信息确定对应的互动媒体分支,从而实现了基于用户的表情对后续播放互动媒体进行控制,提升了用户与互动媒体之间的交互性,使得用户观看互动媒体时的参与感和代入感更高。
本实施例的数据处理方法可以由任意适当的具有数据处理能力的电子设备执行,包括但不限于:服务器、移动终端(如平板电脑、手机等)和PC机等。
实施例三
参照图3a,示出了根据本发明实施例三的一种数据处理方法的步骤流程图。
本实施例的数据处理方法包括以下步骤:
步骤S302:若在互动媒体播放过程中检测到针对用户的互动触发操作,则采集用户的人体反馈数据,并基于采集的用户的人体反馈数据,识别出所述用户的情绪信息。
互动触发操作用于指示采集用户的人体反馈数据,并对人体反馈数据进行识别,以获得用户的情绪信息。情绪信息例如,微笑三次、哭泣四次等等。
互动触发操作可以是用户主动触发的操作,如用户点击互动媒体的播放界面中显示的控件;也可以是在互动媒体播放过程中,根据预设的触发条件触发的操作,如在互动媒体中预先设置了标记,当检测播放到该标记时表示检测到该触发操作。
预设的标记可以与互动媒体中的某句台词对应,或者与播放时间对应等等。
在本实施例中,人体反馈数据包括用于指示用户的情绪的、基于听觉的反馈数据和/或基于触觉的反馈数据。
基于听觉的反馈数据可以笑声、哭声、掌声等等。基于触觉的反馈数据包括拍掌的动作、点赞的动作等等。
以基于听觉的反馈数据为例,若检测到该触发操作,则可以通过采集用户在某一时刻或者某一时间段内的声音数据,并对这些声音数据进行情绪识别的方式,以获得用户的情绪信息。
例如,通过对声音数据进行识别,确定用户的情绪信息。例如,情绪信息为用户在某一时间段内产生笑声三次。
根据不同类型的人体反馈数据,可以采用不同的识别方式,本实施例对此不作限制。例如,针对声音数据可以采用声纹识别等方式,确定声音是否满足笑声的特征、或者满足哭声的特征等等。
针对基于触觉的反馈数据,以采集拍掌为例,可以通过采集包含用户的图像,再对图像进行姿态识别,从而确定用户是否做出拍掌的动作,以及拍掌的次数,从而确定情绪信息。
步骤S304:基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支。
由于情绪信息能够表征用户在观看互动媒体时的情绪,该情绪即为用户对互动媒体的反馈,因此,可以基于不同的情绪信息确定不同的互动媒体分支,从而使得用户可以通过自己的人体反馈影响后续播放的互动播放内容,从而提升互动媒体播放过程中与用户的互动性,而且使后续播放的互动播放内容更加符合用户的需要。
这样不仅提升了互动媒体播放过程中与用户的互动性,使用户能够参与到互动媒体的播放过程中,提升参与感,而且,这样还可以提升用户粘性。
在一种情况中,确定与所述用户的情绪信息对应的互动媒体分支时,可以根据情绪信息从多个候选互动媒体分支中选取一个作为对应的互动媒体分支。例如,若情绪信息指示用户在观看搞笑类的互动媒体A(互动媒体例如为互动视频)的过程中微笑的次数低于3次,则表示该用户的“笑点”高于互动媒体A的搞笑程度,基于情绪信息,选取搞笑程度高于互动媒体A的互动媒体分支B作为与情绪信息对应的互动媒体分支。
互动媒体的搞笑程度可以预先设置。如互动媒体A的搞笑程度为5,互动媒体分支B的搞笑程度为9,互动媒体分支C的搞笑程度为6等等。
在另一种情况中,可以预设对应关系,对应关系用于指示不同的情绪信息对应的互动媒体分支。在确定时,根据对应关系确定情绪信息对应的互动媒体分支。
步骤S306:播放与所述情绪信息对应的互动媒体分支中的互动播放内容。
确定对应的互动媒体分支后,可以在当前播放的互动媒体播放完成后播放该分支对应的互动播放内容;或者,无论当前播放的互动媒体是否播放完成,直接终止当前的互动媒体的播放,并播放该分支对应的互动播放内容。
下面结合图3b和图3c所示,对用户通过终端设备观看互动媒体的使用场景对数据处理方法进行说明如下:
通过终端设备(如手机)观看互动媒体A的界面如图3b中界面1所示。在互动媒体A中预设了标记A,标记A与演员A所说的台词A对应。当检测到互动媒体即将播放演员A讲台词A的图像帧时,确定检测到互动触发操作。
此时,可以在终端设备的屏幕上展示引导信息,以提示用户即将开始采集用户的声音。在引导信息展示完成后,调用麦克风采集时间段A内的用户的声音,并在互动媒体的播放界面中展示采集到用户的声音,如图3b中界面2所示。
同时,针对采集到的声音进行表情识别,获取情绪信息。例如,情绪信息可以指示用户在时间段A内笑的次数。
之后,根据情绪信息确定对应的互动媒体分支,并播放该互动媒体分支对应的互动播放内容。如,情绪信息指示用户笑的次数大于或等于第一设定阈值,则选取搞笑程度与互动媒体A相同或者搞笑程度差值在预设范围内的互动媒体分支B,作为对应的互动媒体分支,并播放该互动媒体分支B的互动播放内容(如图3b中界面3所示)。在此过程中,用户无需额外操作或者仅需要进行较少的操作,就可以通过表达情绪的人体反馈数据实现交互,控制后续播放的互动播放内容,例如,控制后续互动媒体剧情的走向。
需要说明的是,本发明实施例中,互动媒体可以为视频内容,例如,短视频剧、电影、UGC(User Generated Content,用户生成内容)等。
通过本实施例,在检测到互动触发操作后,采集人体反馈数据,并识别出情绪信息,从而根据情绪信息确定对应的互动媒体分支,从而实现了基于用户的情绪对后续播放互动媒体进行控制,提升了用户与互动媒体之间的交互性,使得用户观看互动媒体时的参与感和代入感更高。
本实施例的数据处理方法可以由任意适当的具有数据处理能力的电子设备执行,包括但不限于:服务器、移动终端(如平板电脑、手机等)和PC机等。
实施例四
参照图4a,示出了根据本发明实施例四的一种数据处理方法的步骤流程图。
本实施例的数据处理方法包括以下步骤:
步骤S402:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户群体的图像数据,并基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息。
在本实施例中,针对用户的人脸表情采集触发操作用于指示采集用户的人脸图像,并对人脸图像进行表情识别,以获得用户的表情,如微笑、悲伤、愤怒、恐惧等等。
人脸表情采集触发操作可以是用户主动触发的操作,如用户点击互动媒体的播放界面中显示的控件;也可以是在互动媒体播放过程中,根据预设的触发条件触发的操作,如在互动媒体中预先设置了标记,当检测播放到该标记时表示检测到该触发操作。
预设的标记可以与互动媒体中的某句台词对应,或者与播放时间对应等等。
例如,在一具体实现中,在多人同时通过一终端设备观看互动媒体的过程,检测到人脸表情采集触发操作时,所述基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息可以通过以下子步骤实现:
子步骤S4021:在第一预设时长内,调用图像采集设备采集所述用户群体的图像数据。
第一预设时长可以根据需要确定,本实施例对此不作限制。例如,通过图像采集设备采集1分钟内的用户群体的图像数据,图像数据中包括至少两个用户的人脸图像。
子步骤S4022:对至少部分所述图像数据进行人脸识别,获得所述用户群体中至少部分用户的人脸图像。
通过对图像数据进行人脸识别,可以获得图像数据中包含的人脸图像。人脸识别可以采用现有的任何适当的人脸识别算法,本实施例对此不作限制。
由于用户群体中用户的人脸可能相互之间会存在遮挡,可能用户群体中的部分用户可能无法获得有效的人脸图像,因此,识别出的人脸图像可能是用户群体中的部分用户。
子步骤S4023:对所述人脸图像进行人脸表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息。
在获得用户的人脸图像后,对人脸图像进行表情识别,就可以获得人脸图像对应的用户的表情,如微笑、哭泣、愤怒等。
通过对同一用户的不同时刻的人脸图像的表情进行统计,就可以获得该用户的第一人脸表情信息。例如,第一人脸表情信息为微笑三次、或者哭泣四次等等。
例如,所述对所述人脸图像进行表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息,包括:对所述人脸图像进行表情识别,确定对应的用户包含预设表情的人脸图像的计数值;根据所述计数值,确定所述人脸图像对应的用户的第一人脸表情信息。
预设表情可以根据需要确定,例如,预设表情与用户观看的互动媒体的类型对应。搞笑类互动媒体对应的预设表情为微笑、悲剧类互动媒体对应的预设表情为哭泣等等。
针对某个人脸图像,通过表情识别确定其为微笑表情,则将人脸图像对应的用户的计数值加一,这样通过计数值反映了用户在第一预设时间段内微笑的次数,从而表征了用户的情绪。
第一人脸表情信息中可以包括预设情绪以及计数值,从而指示用户观看互动媒体的情绪。
步骤S404:基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息。
第二人脸表情信息用于指示用户群体中产生预设表情超过设定次数的用户的占比。根据第二人脸表情信息可以确定用户群体的综合情绪,从而根据用户群体的确定互动媒体的走向。
例如,在一具体实现中,步骤S404包括以下子步骤:
步骤S4041:基于识别出的各所述用户的第一人脸表情信息,获取预设表情的计数值大于或等于第三设定值的目标用户的数量。
第三设定值可以根据需要确定,例如,3次、4次等等。以用户群体为4个用户,第三设定值为3为例,用户A的第一人脸表情信息指示用户A微笑3次,用户B的第一人脸表情信息指示用户B微笑2次,用户C的第一人脸表情信息指示用户C微笑3次,用户D的第一人脸表情信息指示用户微笑1次,则目标用户的数量为2。
步骤S4042:根据所述目标用户的数量,统计确定所述用户群体的第二人脸表情信息。
根据目标用户的数量和用户群体数量,可以确定用户群体的第二人脸表情信息指示用户群体中产生微笑的目标用户占比50%。
步骤S406:确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
由于第二人脸表情信息综合指示了用户群体对互动媒体的内容的情绪反馈,因此,可以基于不同的第二人脸表情信息确定不同的互动媒体分支,从而使得用户可以通过自己的表情影响后续播放的互动播放内容,从而提升互动媒体播放过程中与用户的互动性,而且使后续播放的互动播放内容更加符合用户的需要。
而且这种方式在多人同时观看互动媒体时,可以综合考虑不同用户的情绪,进行综合判断。此外,针对同一用户在观看不同的互动媒体分支对应的播放内容时的情绪不同,也可以进行相应的反馈,从而使得用户群体中的更多用户获取较为满意的播放内容。
这样不仅提升了互动媒体播放过程中与用户的互动性,使用户能够参与到互动媒体的播放过程中,提升参与感,而且,还提升了用户之间的互动性,增加了用户间的交互。
在一种情况中,确定与第二人脸表情信息对应的互动媒体分支时,可以根据第二人脸表情信息从多个候选互动媒体分支中选取一个作为对应的互动媒体分支。例如,若第二人脸表情信息指示用户群体在观看搞笑类的互动媒体A(互动媒体例如为互动视频)的过程中微笑的次数超过3次的用户占比超过60%,则表示该互动媒体较为适合这一用户群体,可以选取搞笑程度与互动媒体A的搞笑程度相当的互动媒体分支B作为与人脸表情信息对应的互动媒体分支。
互动媒体的搞笑程度可以预先设置。如互动媒体A的搞笑程度为5,互动媒体分支B的搞笑程度为6等等。
确定对应的互动媒体分支后,可以在当前播放的互动媒体播放完成后播放该分支对应的互动播放内容;或者,无论当前播放的互动媒体是否播放完成,直接终止当前的互动媒体的播放,并播放该分支对应的互动播放内容。
下面结合一种具体的用户通过终端设备观看互动媒体的使用场景对数据处理方法进行说明如下:
如图4b和图4c所示,通过终端设备(如手机)观看互动媒体A的界面如图4b中界面1所示。在互动媒体A中预设了标记A,标记A与演员A所说的台词A对应。当检测到互动媒体即将播放演员A讲台词A的图像帧时,确定检测到人脸表情采集触发操作。
此时,可以在终端设备的屏幕上展示引导信息,以提示用户即将开始采集用户的人脸图像。在引导信息展示完成后,调用图像采集设备(如摄像头)采集时间段A内的用户群体的图像数据,并在互动媒体的播放界面中展示至少部分采集到的人脸图像,如图4b中界面2所示。
同时,针对采集到的人脸图像进行表情识别,获取至少部分用户对应的第一人脸表情信息。例如,用户A的第一人脸表情信息可以指示用户A在时间段A内微笑次数。用户B的第一人脸表情信息可以指示用户B在时间段A内微笑次数。
之后,根据第一人脸表情信息进行统计确定用户群体的第二人脸表情信息。如微笑次数超过3次的用户占比为70%。
根据第二人脸表情信息确定对应的互动媒体分支,并播放该互动媒体分支对应的互动播放内容。如,第二人脸表情信息指示用户微笑次数大于或等于第一设定阈值的用户占比超过70%,则选取搞笑程度与互动媒体A相同或者搞笑程度差值在预设范围内的互动媒体分支B,作为对应的互动媒体分支,并播放该互动媒体分支B的互动播放内容(如图4b中界面3所示)。在此过程中,用户无需额外操作或者仅需要进行较少的操作,就可以通过人脸表情实现交互,控制后续播放的互动播放内容,例如,控制后续互动媒体剧情的走向。
需要说明的是,本发明实施例中,互动媒体可以为视频内容,例如,短视频剧、电影、UGC(User Generated Content,用户生成内容)等。
通过本实施例,在检测到人脸表情采集触发操作后,采集用户群体的图像数据,并识别出至少部分用户的第一人脸表情信息,从而根据第一人脸表情信息统计确定用户群体的第二人脸表情信息,根据第二人脸表情信息确定对应的互动媒体分支,并播放其对应的互动播放内容,从而实现了基于用户群体的综合表情对后续播放互动媒体进行控制,提升了用户与互动媒体之间的交互性,而且提升了用户群体中用户之间的互动性,使得用户观看互动媒体时的参与感和代入感更高。
实施例五
参照图5,示出了根据本发明实施例五的一种数据处理装置的结构框图。
本实施例的数据处理装置包括:信息获取模块502,用于若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户的人脸图像,并基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;互动媒体确定模块504,用于基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;播放模块506,用于播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
可选地,信息获取模块502包括:采集计数模块5021,用于在基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息时,在第一预设时长内,调用图像采集设备采集人脸图像,并通过表情识别确定采集的人脸图像中包含预设表情的人脸图像的计数值;生成模块5022,用于根据所述计数值,确定所述人脸表情信息。
可选地,采集计数模块5021用于在通过表情识别确定采集的人脸图像中包含预设表情的图像的计数值时,确定所述第一预设时长是否到达,若否,则调用所述图像采集设备,并确定是否采集到人脸图像;若采集到人脸图像,则对所述人脸图像进行表情识别,并根据识别结果确定所述人脸图像中是否包含所述预设表情;若包含所述预设表情,则将所述计数值加一,并返回确定所述第一预设时长是否到达的操作继续执行,直至所述第一预设时长到达。
可选地,采集计数模块5021还用于在确定采集的人脸图像中包含预设表情的图像的计数值时,若未采集到人脸图像,则在所述互动媒体的播放界面中展示用于提示未检测到人脸的提示信息。
可选地,采集计数模块5021还用于在确定采集的人脸图像中包含预设表情的图像的计数值时,若未包含预设表情,则返回确定所述第一预设时长是否到达的操作继续执行,直至所述第一预设时长到达。
可选地,所述装置还包括:授权确定模块508,用于在所述基于采集到的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息之前确定是否获得图像采集设备的使用授权;若获得所述使用授权,则确定用于对用户进行引导的引导信息的第一展示时长是否大于第一预设值;若大于所述第一预设值,则在互动媒体的播放界面中展示所述引导信息,并在展示完成后执行基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息的操作。
可选地,所述装置还包括结果展示确定模块510,用于在基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支之前,确定与人脸表情信息对应的结果信息的第二展示时长是否大于第二预设值;若大于所述第二预设值,则在所述互动媒体的播放界面展示所述结果信息。
可选地,所述装置还包括跳转确定模块512,用于在若大于所述第二预设值,则在所述互动媒体的播放界面展示所述结果交互信息之后,确定跳转开关的状态;若所述跳转开关的状态为指示开启的第一状态,则终止所述互动媒体的播放,并执行播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作;或者,若所述跳转开关的状态为指示关闭的第二状态,则继续所述互动媒体的播放直至所述互动媒体播放完成并播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作。
可选地,互动媒体确定模块504用于若所述人脸表情信息对应的计数值大于或等于第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第一互动媒体分支,作为对应的互动媒体分支;或者,若所述人脸表情信息对应的计数值小于所述第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第二互动媒体分支,作为对应的互动媒体分支。
可选地,所述互动媒体包括下列至少之一:用于展示供观看者模仿的互动动作的互动教练视频、用于展示剧目情节的互动剧目视频。
可选地,所述装置还包括:推荐模块514,用于根据所述人脸表情信息和所述互动媒体的类型信息,从多个候选对象中,确定推荐对象。
本实施例的数据处理装置用于实现前述多个方法实施例中相应的数据处理方法,并具有相应的方法实施例的有益效果,在此不再赘述。此外,本实施例的数据处理装置中的各个模块的功能实现均可参照前述方法实施例中的相应部分的描述,在此亦不再赘述。
实施例六
参照图6,示出了根据本发明实施例六的一种数据处理装置的结构框图。
本实施例的数据处理装置包括:第一获取模块602,用于若在互动媒体播放过程中检测到针对用户的互动触发操作,则采集用户的人体反馈数据,并基于采集的用户的人体反馈数据,识别出所述用户的情绪信息;分支确定模块604,用于基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支;第一互动播放模块606,用于播放与所述情绪信息对应的互动媒体分支中的互动播放内容。可选地,所述人体反馈数据包括用于指示用户的情绪的、基于听觉的反馈数据和/或基于触觉的反馈数据。
本实施例的数据处理装置用于实现前述多个方法实施例中相应的数据处理方法,并具有相应的方法实施例的有益效果,在此不再赘述。此外,本实施例的数据处理装置中的各个模块的功能实现均可参照前述方法实施例中的相应部分的描述,在此亦不再赘述。
实施例七
参照图7,示出了根据本发明实施例七的一种数据处理装置的结构框图。
本实施例的数据处理装置包括:第二获取模块702,用于若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户群体的图像数据,并基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息;
统计模块704,用于基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息;
第二互动播放模块706,用于确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
可选地,第二获取模块702用于在所述基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息时,在第一预设时长内,调用图像采集设备采集所述用户群体的图像数据;对至少部分所述图像数据进行人脸识别,获得所述用户群体中至少部分用户的人脸图像;对所述人脸图像进行人脸表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息。
可选地,所述第二获取模块702用于在所述对所述人脸图像进行表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息时,对所述人脸图像进行表情识别,确定对应的用户包含预设表情的人脸图像的计数值;根据所述计数值,确定所述人脸图像对应的用户的第一人脸表情信息。
可选地,所述统计模块704用户在基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息时,基于识别出的各所述用户的第一人脸表情信息,获取预设表情的计数值大于或等于第三设定值的目标用户的数量;根据所述目标用户的数量,统计确定所述用户群体的第二人脸表情信息。
本实施例的数据处理装置用于实现前述多个方法实施例中相应的数据处理方法,并具有相应的方法实施例的有益效果,在此不再赘述。此外,本实施例的数据处理装置中的各个模块的功能实现均可参照前述方法实施例中的相应部分的描述,在此亦不再赘述。
实施例八
参照图8,示出了根据本发明实施例八的一种电子设备的结构示意图,本发明具体实施例并不对电子设备的具体实现做限定。
如图8所示,该电子设备可以包括:处理器(processor)802、通信接口(Communications Interface)804、存储器(memory)806、以及通信总线808。
其中:
处理器802、通信接口804、以及存储器806通过通信总线808完成相互间的通信。
通信接口804,用于与其它电子设备如终端设备或服务器进行通信。
处理器802,用于执行程序810,具体可以执行上述数据处理方法实施例中的相关步骤。
具体地,程序810可以包括程序代码,该程序代码包括计算机操作指令。
处理器802可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。电子设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器806,用于存放程序810。存储器806可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。
程序810具体可以用于使得处理器802执行以下操作:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户的人脸图像,并基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
在一种可选的实施方式中,程序810还用于使得处理器802在所述基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息时,在第一预设时长内,调用图像采集设备采集人脸图像,并通过表情识别确定采集的人脸图像中包含预设表情的人脸图像的计数值;根据所述计数值,确定所述人脸表情信息。
在一种可选的实施方式中,程序810还用于使得处理器802在所述通过表情识别确定采集的人脸图像中包含预设表情的图像的计数值时,确定所述第一预设时长是否到达,若否,则调用所述图像采集设备,并确定是否采集到人脸图像;若采集到人脸图像,则对所述人脸图像进行表情识别,并根据识别结果确定所述人脸图像中是否包含所述预设表情;若包含所述预设表情,则将所述计数值加一,并返回确定所述第一预设时长是否到达的操作继续执行,直至所述第一预设时长到达。
在一种可选的实施方式中,程序810还用于使得处理器802若未采集到人脸图像,则在所述互动媒体的播放界面中展示用于提示未检测到人脸的提示信息。
在一种可选的实施方式中,程序810还用于使得处理器802若未包含预设表情,则返回确定所述第一预设时长是否到达的操作继续执行,直至所述第一预设时长到达。
在一种可选的实施方式中,程序810还用于使得处理器802在所述基于采集到的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息之前,确定是否获得图像采集设备的使用授权;若获得所述使用授权,则确定用于对用户进行引导的引导信息的第一展示时长是否大于第一预设值;若大于所述第一预设值,则在互动媒体的播放界面中展示所述引导信息,并在展示完成后执行基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息的操作。
在一种可选的实施方式中,程序810还用于使得处理器802在基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支之前,确定与人脸表情信息对应的结果信息的第二展示时长是否大于第二预设值;若大于所述第二预设值,则在所述互动媒体的播放界面展示所述结果信息。
在一种可选的实施方式中,程序810还用于使得处理器802在若大于所述第二预设值,则在所述互动媒体的播放界面展示所述结果交互信息之后,确定跳转开关的状态;若所述跳转开关的状态为指示开启的第一状态,则终止所述互动媒体的播放,并执行播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作;或者,若所述跳转开关的状态为指示关闭的第二状态,则继续所述互动媒体的播放直至所述互动媒体播放完成并执行播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作。
在一种可选的实施方式中,程序810还用于使得处理器802在基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支时,若所述人脸表情信息对应的计数值大于或等于第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第一互动媒体分支,作为对应的互动媒体分支;或者,若所述人脸表情信息对应的计数值小于所述第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第二互动媒体分支,作为对应的互动媒体分支。
在一种可选的实施方式中,所述互动媒体包括下列至少之一:用于展示供观看者模仿的互动动作的互动教练视频、用于展示剧目情节的互动剧目视频。
在一种可选的实施方式中,程序810还用于使得处理器802在根据所述人脸表情信息和所述互动媒体的类型信息,从多个候选对象中,确定推荐对象。
或者,
程序810具体可以用于使得处理器802执行以下操作:若在互动媒体播放过程中检测到针对用户的互动触发操作,则采集用户的人体反馈数据,并基于采集的用户的人体反馈数据,识别出所述用户的情绪信息;基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支;播放与所述情绪信息对应的互动媒体分支中的互动播放内容。
在一种可选的实施方式中,人体反馈数据包括用于指示用户的情绪的、基于听觉的反馈数据和/或基于触觉的反馈数据。
或者,
程序810具体可以用于使得处理器802执行以下操作:若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户群体的图像数据,并基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息;基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息;确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
在一种可选的实施方式中,程序810还用于使得处理器802在所述基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息时,在第一预设时长内,调用图像采集设备采集所述用户群体的图像数据;对至少部分所述图像数据进行人脸识别,获得所述用户群体中至少部分用户的人脸图像;对所述人脸图像进行人脸表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息。
在一种可选的实施方式中,程序810还用于使得处理器802在所述对所述人脸图像进行表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息时,对所述人脸图像进行表情识别,确定对应的用户包含预设表情的人脸图像的计数值;根据所述计数值,确定所述人脸图像对应的用户的第一人脸表情信息。
在一种可选的实施方式中,程序810还用于使得处理器802在所述基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息时,基于识别出的各所述用户的第一人脸表情信息,获取预设表情的计数值大于或等于第三设定值的目标用户的数量;根据所述目标用户的数量,确定所述用户群体的第二人脸表情信息。
程序810中各步骤的具体实现可以参见上述数据处理方法实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
通过本实施例的电子设备,在检测到人脸表情采集触发操作后,采集人脸图像,并识别出人脸表情信息,从而根据人脸表情信息确定对应的互动媒体分支中的互动播放内容并进行播放,从而实现了基于用户的表情对后续播放互动媒体进行控制,提升了用户与互动媒体之间的交互性,使得用户观看互动媒体时的参与感和代入感更高。
需要指出,根据实施的需要,可将本发明实施例中描述的各个部件/步骤拆分为更多部件/步骤,也可将两个或多个部件/步骤或者部件/步骤的部分操作组合成新的部件/步骤,以实现本发明实施例的目的。
上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CD ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如ASIC或FPGA)的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,RAM、ROM、闪存等),当所述软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的数据处理方法。此外,当通用计算机访问用于实现在此示出的数据处理方法的代码时,代码的执行将通用计算机转换为用于执行在此示出的数据处理方法的专用计算机。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
以上实施方式仅用于说明本发明实施例,而并非对本发明实施例的限制,有关技术领域的普通技术人员,在不脱离本发明实施例的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明实施例的范畴,本发明实施例的专利保护范围应由权利要求限定。
Claims (23)
1.一种数据处理方法,包括:
若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户的人脸图像,并基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;
基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;
播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
2.根据权利要求1所述的方法,其中,所述基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息,包括:
在第一预设时长内,调用图像采集设备采集人脸图像,并通过表情识别确定采集的人脸图像中包含预设表情的人脸图像的计数值;
根据所述计数值,确定所述人脸表情信息。
3.根据权利要求2所述的方法,其中,所述通过表情识别确定采集的所述人脸图像中包含预设表情的图像的计数值,包括:
确定所述第一预设时长是否到达,若否,则调用所述图像采集设备,并确定是否采集到人脸图像;
若采集到人脸图像,则对所述人脸图像进行表情识别,并根据识别结果确定所述人脸图像中是否包含所述预设表情;
若包含所述预设表情,则将所述计数值加一,并返回确定所述第一预设时长是否到达的操作继续执行,直至所述第一预设时长到达。
4.根据权利要求3所述的方法,其中,所述方法还包括:
若未采集到人脸图像,则在所述互动媒体的播放界面中展示用于提示未检测到人脸的提示信息。
5.根据权利要求3所述的方法,其中,所述方法还包括:
若未包含预设表情,则返回确定所述第一预设时长是否到达的操作继续执行,直至所述第一预设时长到达。
6.根据权利要求1所述的方法,其中,在所述基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息之前,所述方法还包括:
确定是否获得图像采集设备的使用授权;
若获得所述使用授权,则确定用于对用户进行引导的引导信息的第一展示时长是否大于第一预设值;
若大于所述第一预设值,则在互动媒体的播放界面中展示所述引导信息,并在展示完成后执行基于采集到的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息的操作。
7.根据权利要求1所述的方法,其中,在基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支之前,所述方法还包括:
确定与人脸表情信息对应的结果信息的第二展示时长是否大于第二预设值;
若大于所述第二预设值,则在所述互动媒体的播放界面展示所述结果信息。
8.根据权利要求1所述的方法,其中,所述方法还包括:
确定跳转开关的状态;
若所述跳转开关的状态为指示开启的第一状态,则终止所述互动媒体的播放,并执行播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作;
或者,若所述跳转开关的状态为指示关闭的第二状态,则继续所述互动媒体的播放直至所述互动媒体播放完成并执行播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容的操作。
9.根据权利要求2所述的方法,其中,所述基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支,包括:
若所述人脸表情信息对应的计数值大于或等于第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第一互动媒体分支,作为对应的互动媒体分支;
或者,若所述人脸表情信息对应的计数值小于所述第一设定阈值,则根据播放的所述互动媒体的预设属性的属性值,从至少一个候选互动媒体分支中确定第二互动媒体分支,作为对应的互动媒体分支。
10.根据权利要求1所述的方法,其中,所述互动媒体包括下列至少之一:用于展示供观看者模仿的互动动作的互动教练视频、用于展示剧目情节的互动剧目视频。
11.根据权利要求1所述的方法,其中,所述方法还包括:
根据所述人脸表情信息和所述互动媒体的类型信息,从多个候选对象中,确定推荐对象。
12.一种数据处理方法,包括:
若在互动媒体播放过程中检测到针对用户的互动触发操作,则采集用户的人体反馈数据,并基于采集的用户的人体反馈数据,识别出所述用户的情绪信息;
基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支;
播放与所述情绪信息对应的互动媒体分支中的互动播放内容。
13.根据权利要求12所述的方法,其中,所述人体反馈数据包括用于指示用户的情绪的、基于听觉的反馈数据和/或基于触觉的反馈数据。
14.一种数据处理方法,包括:
若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户群体的图像数据,并基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息;
基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息;
确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
15.根据权利要求14所述的方法,其中,所述基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息,包括:
在第一预设时长内,调用图像采集设备采集所述用户群体的图像数据;
对至少部分所述图像数据进行人脸识别,获得所述用户群体中至少部分用户的人脸图像;
对所述人脸图像进行人脸表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息。
16.根据权利要求15所述的方法,其中,所述对所述人脸图像进行表情识别,获得各所述人脸图像对应的用户的第一人脸表情信息,包括:
对所述人脸图像进行表情识别,确定对应的用户包含预设表情的人脸图像的计数值;
根据所述计数值,确定所述人脸图像对应的用户的第一人脸表情信息。
17.根据权利要求14所述的方法,其中,所述基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息,包括:
基于识别出的各所述用户的第一人脸表情信息,获取预设表情的计数值大于或等于第三设定值的目标用户的数量;
根据所述目标用户的数量,确定所述用户群体的第二人脸表情信息。
18.一种数据处理装置,包括:
信息获取模块,用于若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则基于采集到的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;
互动媒体确定模块,用于基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;
播放模块,用于播放与所述用户的人脸表情信息对应的互动媒体分支中的互动播放内容。
19.一种数据处理装置,包括:
第一获取模块,用于若在互动媒体播放过程中检测到针对用户的互动触发操作,则采集用户的人体反馈数据,并基于采集的用户的人体反馈数据,识别出所述用户的情绪信息;
分支确定模块,用于基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支;
第一互动播放模块,用于播放与所述情绪信息对应的互动媒体分支中的互动播放内容。
20.一种数据处理装置,包括:
第二获取模块,用于若在互动媒体播放过程中检测到针对用户的人脸表情采集触发操作,则采集用户群体的图像数据,并基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息;
统计模块,用于基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息;
第二互动播放模块,用于确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
21.一种电子设备,包括:
显示器,用于显示播放的互动媒体的内容,以及,在所述互动媒体播放过程中用于提示用户进行表情互动操作的互动提示;
图像采集设备,用于采集用户的人脸图像;
处理器,用于基于采集的所述用户的人脸图像进行表情识别,获得所述用户的人脸表情信息;并且,基于所述用户的人脸表情信息,确定与所述用户的人脸表情信息对应的互动媒体分支;并通过显示器播放对应的互动媒体分支中的互动播放内容;
或者,所述处理器用于基于采集的用户的人体反馈数据,识别出所述用户的情绪信息;基于所述用户的情绪信息,确定与所述情绪信息对应的互动媒体分支;播放与所述情绪信息对应的互动媒体分支中的互动播放内容;
或者,所述处理器用于基于采集的用户群体的图像数据,识别出所述用户群体中至少部分用户的第一人脸表情信息;基于识别出的各所述用户的第一人脸表情信息,统计确定所述用户群体的第二人脸表情信息;确定与所述第二人脸表情信息对应的互动媒体分支,并播放确定的所述互动媒体分支中的互动播放内容。
22.根据权利要求21所述的设备,其特征在于,还包括存储器;
所述存储器,用于至少存储对应于多个互动媒体分支的互动播放内容,其中,每个互动媒体分支与至少一个人脸表情信息对应,或者,每个互动媒体分支与至少一个情绪信息对应,或者,每个互动媒体分支与至少一个第二人脸表情信息对应。
23.一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-11中任一所述的数据处理方法,或者,执行时实现如权利要求12-13中任一所述的数据处理方法,或者,执行时实现如权利要求14-17中任一所述的数据处理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2020100766340 | 2020-01-23 | ||
CN202010076634 | 2020-01-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113157174A true CN113157174A (zh) | 2021-07-23 |
CN113157174B CN113157174B (zh) | 2024-06-14 |
Family
ID=76882086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010144320.XA Active CN113157174B (zh) | 2020-01-23 | 2020-03-04 | 数据处理方法、装置、电子设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113157174B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113762156A (zh) * | 2021-09-08 | 2021-12-07 | 北京优酷科技有限公司 | 观影数据处理方法、装置及存储介质 |
CN114302235A (zh) * | 2021-12-27 | 2022-04-08 | 深圳Tcl数字技术有限公司 | 多媒体播放方法、装置、存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103501547A (zh) * | 2013-08-09 | 2014-01-08 | 刘波涌 | 实现角色扮演的无线终端设备及方法 |
CN107451265A (zh) * | 2017-07-31 | 2017-12-08 | 广州网嘉玩具科技开发有限公司 | 一种基于物联网与人工智能技术的故事平台 |
CN107801096A (zh) * | 2017-10-30 | 2018-03-13 | 广东欧珀移动通信有限公司 | 视频播放的控制方法、装置、终端设备及存储介质 |
CN107801097A (zh) * | 2017-10-31 | 2018-03-13 | 上海高顿教育培训有限公司 | 一种基于用户交互的视频课程播放方法 |
CN108040284A (zh) * | 2017-12-21 | 2018-05-15 | 广东欧珀移动通信有限公司 | 电台播放控制方法、装置、终端设备及存储介质 |
CN108924608A (zh) * | 2018-08-21 | 2018-11-30 | 广东小天才科技有限公司 | 一种视频教学的辅助方法及智能设备 |
US20190090020A1 (en) * | 2017-09-19 | 2019-03-21 | Sony Corporation | Calibration system for audience response capture and analysis of media content |
-
2020
- 2020-03-04 CN CN202010144320.XA patent/CN113157174B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103501547A (zh) * | 2013-08-09 | 2014-01-08 | 刘波涌 | 实现角色扮演的无线终端设备及方法 |
CN107451265A (zh) * | 2017-07-31 | 2017-12-08 | 广州网嘉玩具科技开发有限公司 | 一种基于物联网与人工智能技术的故事平台 |
US20190090020A1 (en) * | 2017-09-19 | 2019-03-21 | Sony Corporation | Calibration system for audience response capture and analysis of media content |
CN107801096A (zh) * | 2017-10-30 | 2018-03-13 | 广东欧珀移动通信有限公司 | 视频播放的控制方法、装置、终端设备及存储介质 |
CN107801097A (zh) * | 2017-10-31 | 2018-03-13 | 上海高顿教育培训有限公司 | 一种基于用户交互的视频课程播放方法 |
CN108040284A (zh) * | 2017-12-21 | 2018-05-15 | 广东欧珀移动通信有限公司 | 电台播放控制方法、装置、终端设备及存储介质 |
CN108924608A (zh) * | 2018-08-21 | 2018-11-30 | 广东小天才科技有限公司 | 一种视频教学的辅助方法及智能设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113762156A (zh) * | 2021-09-08 | 2021-12-07 | 北京优酷科技有限公司 | 观影数据处理方法、装置及存储介质 |
CN113762156B (zh) * | 2021-09-08 | 2023-10-24 | 北京优酷科技有限公司 | 观影数据处理方法、装置及存储介质 |
CN114302235A (zh) * | 2021-12-27 | 2022-04-08 | 深圳Tcl数字技术有限公司 | 多媒体播放方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113157174B (zh) | 2024-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11503377B2 (en) | Method and electronic device for processing data | |
CN112651334B (zh) | 机器人视频交互方法和系统 | |
CN113157174B (zh) | 数据处理方法、装置、电子设备及计算机存储介质 | |
US11671657B2 (en) | Method and apparatus for shared viewing of media content | |
CN113703579B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
WO2020108024A1 (zh) | 信息交互方法、装置、电子设备及存储介质 | |
CN111696538A (zh) | 语音处理方法、装置和介质 | |
CN117908677A (zh) | 一种视频通话方法及可穿戴设备 | |
US20140012792A1 (en) | Systems and methods for building a virtual social network | |
CN114489331A (zh) | 区别于按钮点击的隔空手势交互方法、装置、设备和介质 | |
WO2024001802A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111696536A (zh) | 语音处理方法、装置和介质 | |
CN109587391B (zh) | 服务器装置、发布系统、发布方法 | |
JP5847646B2 (ja) | テレビ制御装置、テレビ制御方法及びテレビ制御プログラム | |
CN109740557A (zh) | 对象检测方法及装置、电子设备和存储介质 | |
CN106101824B (zh) | 信息处理方法、电子设备及服务器 | |
CN114022814A (zh) | 视频处理方法和装置、电子设备及计算机可读的存储介质 | |
CN111696537B (zh) | 语音处理方法、装置和介质 | |
JP5930946B2 (ja) | 対話状態推定装置、対話状態推定方法、およびプログラム | |
CN110764618A (zh) | 一种仿生交互系统、方法及相应的生成系统和方法 | |
CN112820265A (zh) | 一种语音合成模型训练方法和相关装置 | |
CN113163245A (zh) | 数据处理方法、装置、电子设备及计算机存储介质 | |
CN113157236B (zh) | 数据处理方法、装置、电子设备及计算机存储介质 | |
US11936948B1 (en) | Method and system for generating a visual composition of user reactions in a shared content viewing session | |
WO2024038699A1 (ja) | 表情加工装置、表情加工方法および表情加工プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240617 Address after: Room 201, No. 9 Fengxiang East Street, Yangsong Town, Huairou District, Beijing Patentee after: Youku Culture Technology (Beijing) Co.,Ltd. Country or region after: China Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands Patentee before: ALIBABA GROUP HOLDING Ltd. Country or region before: Cayman Islands |
|
TR01 | Transfer of patent right |