CN113709565B - 记录观看视频的人脸表情的方法和装置 - Google Patents

记录观看视频的人脸表情的方法和装置 Download PDF

Info

Publication number
CN113709565B
CN113709565B CN202110883762.0A CN202110883762A CN113709565B CN 113709565 B CN113709565 B CN 113709565B CN 202110883762 A CN202110883762 A CN 202110883762A CN 113709565 B CN113709565 B CN 113709565B
Authority
CN
China
Prior art keywords
facial expression
viewer
expression image
displaying
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110883762.0A
Other languages
English (en)
Other versions
CN113709565A (zh
Inventor
欧恩惠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Hangzhou Co Ltd
Original Assignee
Vivo Mobile Communication Hangzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Hangzhou Co Ltd filed Critical Vivo Mobile Communication Hangzhou Co Ltd
Priority to CN202110883762.0A priority Critical patent/CN113709565B/zh
Publication of CN113709565A publication Critical patent/CN113709565A/zh
Priority to PCT/CN2022/108454 priority patent/WO2023011300A1/zh
Application granted granted Critical
Publication of CN113709565B publication Critical patent/CN113709565B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请公开了一种记录观看视频的人脸表情的方法和装置,属于图像处理技术领域。其中,方法包括:在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;在视频播放界面显示的第一时间进度条的第一位置节点上,显示第一观看者的第一人脸表情图像;其中,第一位置节点为第一时间进度条的对应第一采集时刻的位置节点。

Description

记录观看视频的人脸表情的方法和装置
技术领域
本申请属于图像处理技术领域,具体涉及一种记录观看视频的人脸表情的方法、一种记录观看视频的人脸表情的装置、一种电子设备以及一种可读存储介质。
背景技术
随着科技的发展,电子设备的功能越来越多样。
目前,电子设备通常具备播放视频的功能,越来越多的用户通过电子设备的播放视频的功能观看视频。
但是,当多个用户观看视频时,用户无法获知一同观看视频的其他用户在观看视频时的情绪变化,这导致用户的视频观看体验差。
发明内容
本申请实施例的目的是提供一种记录观看视频的人脸表情的方法、装置、设备及存储介质,能够解决用户的视频观看体验差的问题。
第一方面,本申请实施例提供了一种记录观看视频的人脸表情的方法,所述方法包括:
在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;
在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像;
其中,所述第一位置节点为所述第一时间进度条的对应所述第一采集时刻的位置节点。
第二方面,本申请实施例提供了一种记录观看视频的人脸表情的装置,所述装置包括:
获取模块,用于在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;
第一显示模块,用于在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像;
其中,所述第一位置节点为所述时间进度条的对应所述第一采集时刻的位置节点。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤。
第五方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法。
在本申请实施例中,提供了一种记录观看视频的人脸表情的方法,方法包括:在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;在视频播放界面显示的第一时间进度条的第一位置节点上,显示第一观看者的第一人脸表情图像;其中,第一位置节点为第一时间进度条的对应第一采集时刻的位置节点。基于此,在播放视频的过程中,可以实时记录第一观看者的人脸表情,并且在视频播放界面的时间进度条上显示第一观看者的人脸表情,使得其他观看者可以通过时间进度条上显示的人脸表情,了解到第一观看者观看视频过程中的变化,方便用户在观看视频的过程中交流和互动,增加了视频观看的趣味性,丰富了用户的观看体验。
附图说明
图1是本申请实施例提供的一种记录观看视频的人脸表情的方法的流程示意图;
图2是本申请实施例提供的一种摄像装置采集到的观看者的图像的示意图;
图3a是本申请实施例提供的一种观看者A的第一人脸表情图像的示意图;
图3b是本申请实施例提供的一种观看者B的第一人脸表情图像的示意图;
图3c是本申请实施例提供的一种观看者C的第一人脸表情图像的示意图;
图4是本申请实施例提供的一种视频播放界面的示意图一;
图5是本申请实施例提供的一种视频播放界面的示意图二;
图6是本申请实施例提供的一种视频播放界面的示意图三;
图7是本申请实施例提供的一种第一输入的示意图;
图8是本申请实施例提供的一种视频播放界面的示意图四;
图9是本申请实施例提供的一种记录观看视频的人脸表情的装置的结构示意图;
图10是本申请实施例提供的一种电子设备的结构示意图;
图11是实现本申请实施例的一种电子设备的硬件结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的记录观看视频的人脸表情的方法、装置、设备及存储介质进行详细地说明。
本申请实施例提供了一种记录观看视频的人脸表情的方法,如图1所示,该方法包括如下S1100和S1200:
S1100、在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像。
在本实施例中,在检测到播放视频的情况下,可通过摄像装置采集视频观看者的图像,并将摄像装置采集图像的时刻记为第一采集时刻。在此基础上,从采集到的图像中提取人脸图像,将提取出的人脸图像作为第一观看者在第一采集时刻的第一人脸表情图像。
在一个实施例中,第一观看者可以为一个观看者,也可以为多个观看者。在第一观看者为多个观看者的情况下,通过摄像装置采集到的图像中包括多个观看者的人脸图像,分别提取出对应每一观看者的人脸图像,将每一观看者的人脸图像作为每一观看者的第一人脸表情图像。
在一个实施例中,可将当前时刻作为第一采集时刻。
在一个示例中,摄像装置采集到的观看者的图像可如图2所示,进一步的,得到第一人脸表情图像可如图3所示。
具体地,请参见图2,其是本申请实施例的一种摄像装置采集到的观看者的图像和第一人脸表情图像的示意图,该摄像装置采集到的图像201中包括观看者A、观看者B和观看者C。请参见图3a,通过对摄像装置采集到的图像进行处理,得到观看者A的第一人脸表情图像,请参见图3b,通过对摄像装置采集到的图像进行处理,得到观看者B的第一人脸表情图像,请参见图3c,通过对摄像装置采集到的图像进行处理,得到观看者C的第一人脸表情图像。
在一个实施例中,在获取第一观看者在第一采集时刻的第一人脸表情图像之前,该方法还包括:S2100-S2200。
S2200、获取第一观看者在第二采集时刻的第二人脸表情图像。
在本实施例中,第二采集时刻为开始执行本申请实施例提供的记录观看视频的人脸表情的方法的时刻。
在一个实施例中,第二采集时刻通常为开始播放视频的时刻。可以理解的是,第二采集时刻为第一采集时刻之前的采集时刻。
S2300、在视频播放界面上显示第一时间进度条,并在所述第一时间进度条的对应第二采集时刻的第二位置节点上,显示第一观看者的第二人脸表情图像。
第二表情图像用于区分不同的观看者。
在第一时间进度条对应的第二采集时刻的第二位置节点上,也就是在第一时间进度条对应开始播放视频的时刻的位置处,显示第二人脸表情图像,可以表示该时间进度条对应的用户。
在第一观看者为多个观看者的情况下,在获取第一观看者在第一采集时刻的第一人脸表情图像之前,该方法还包括:S3100-S3200。
S3100、在第一观看者为多个观看者的情况下,获取每一观看者在第二采集时刻的第二人脸表情图像。
需要说明的是,上述S3100的具体实现与上述S1100的具体实现相同,这里不再赘述。
S3200、在视频播放界面上显示与每一观看者一一对应的时间进度条,并每一时间进度条的对应第二采集时刻的第二位置节点上,显示对应观看者的第二人脸表情图像。
可以根据第二人脸表情图像的数量,确定待显示的时间进度条的数量。在具体实施时,在得到第二人脸表情图像后,对第二人脸表情图像的数量进行统计。根据统计得到的数量,显示相同数量的时间进度条。之后,分别在每一观看者的时间进度条的第二位置节点上,显示相应观看者的第二人脸表情图像。
在一个实施例中,可在视频播放界面的最下面显示与每一观看者一一对应的时间进度条。这样,可减少时间进度条对视频画面的遮挡。
在本实施例中,在多个观看视频时,可以根据观看者的数量显示相应数量的时间进度条,并在每一时间进度条的第二位置节点分别显示对应观看者的第二人脸图像,以方便用户区别不同观看者的对应的进度条,方便用户操作。
在本申请的一个实施例中,在获取第一观看者在第一采集时刻的第一人脸表情图像之前,该方法还包括:S4100-S4300。
S4100、显示表示开启表情记录的控件。
S4200、接收针对于所述控件的第二输入。
S4300、响应于所述第二输入,开启摄像装置。
在本实施例中,上述S4100中的控件可以为一个选择框。在被需要执行本申请实施例提供的记录观看视频的人脸表情的方法时,可选中该选择框。将选中该选择框的输入,作为第二输入。在接收到第二输入的情况下,开启摄像装置,以采集第一观看者在第二采集时刻的第二人脸表情图像以及第一观看者在第一采集时刻的第一人脸图像。
在上述内容的基础上,上述S1100的具体实现为:通过所述摄像装置获取第一观看者在第一采集时刻的第一人脸表情图像。
在执行S1100之后,进入S1200、在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像。
在本实施例中,第一位置节点为第一时间进度条的对应第一采集时刻的位置节点。
第一时间进度条用于展示视频播放的进度。第一时间进度条由多个位置节点组成,一个位置节点对应一个采集时刻,一个位置节点上显示有对应采集时刻的人脸表情图像。
在一个实施例中,在第一时间进度条的第一位置节点上显示第一观看者的第一人脸表情图像,具体可以为:在第一时间进度条的第一位置节点上显示第一观看者的第一人脸表情图像的缩略图。
在本申请实施例中,提供了一种记录观看视频的人脸表情的方法,方法包括:在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;在视频播放界面显示的第一时间进度条的第一位置节点上,显示第一观看者的第一人脸表情图像;其中,第一位置节点为第一时间进度条的对应第一采集时刻的位置节点。基于此,在播放视频的过程中,可以实时记录第一观看者的人脸表情,并且在视频播放界面的时间进度条上显示第一观看者的人脸表情,使得其他观看者可以通过时间进度条上显示的人脸表情,了解到第一观看者观看视频过程中的变化,方便用户在观看视频的过程中交流和互动,增加了视频观看的趣味性,丰富了用户的观看体验。
在一个实施例中,在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像,进一步可以包括:
S5100、在所述第一观看者为多个观看者的情况下,在视频播放界面分别显示与每一观看者对应的所述第一时间进度条。
S5200、分别在每一所述第一时间进度条的第一位置节点上显示对应观看者的第一人脸表情图像。
在本实施例中,视频播放界面显示有与观看者个数相同的时间进度条。一个时间进度条对应一个观看者。
在本实施例中,一个时间进度条由多个位置节点组成,一个位置节点对应一个采集时刻,一个位置节点上显示有对应采集时刻的人脸表情图像。
在一个实施例中,分别在每一所述第一时间进度条的第一位置节点上显示对应观看者的第一人脸表情图像,具体可以为:分别在每一所述第一时间进度条的第一位置节点上显示对应观看者的第一人脸表情图像的缩略图。
请参见图4,其是本申请实施例的一种视频播放界面的示意图。具体来讲,在多个观看者观看视频的过程中,视频播放界面显示有视频画面401,在视频播放界面还显示有三个时间进度条,这三个时间进度条分别对应观看者A、观看者B和观看者C,并且,在时间进度条的对应10:20(第一采集时刻)的位置节点处,显示每一观看者的第一人脸表情图像。
需要说明的是,图4中仅以时间进度条上显示第一采集时刻10:20的第一人脸表情图像进行示出,而并未示出第一采集时刻之前的人脸表情图像。
在本实施例中,对于一个观看者来说,在播放视频的情况下,获取该观看者在第一采集时刻的第一人脸表情图像。然后在该观看者对应的时间进度条的第一采集时刻对应的第一位置节点处,显示采集到的第一人脸表情图像。基于此,可将视频播放过程中每一观看者的人脸表情记录在对应时间进度条上。进一步的,对于任一观看者,可根据任一时间进度条上记录的人脸表情,获知对应观看者的情绪变化,方便用户在观看视频的过程中交流和互动,增加了视频观看的趣味性,丰富了用户的观看体验。
在一个实施例中,可以在第一观看者的人脸表情发生变化的情况下,显示第一人脸表情图像。在该实施例中,在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像,进一步可以包括:在所述第一人脸表情图像相对所述第一观看者在上一采集时刻的人脸表情图像发生变化的情况下,在所述第一时间进度条的第一位置节点上显示所述第一人脸表情图像。
在本实施例中,在显示第一人脸表情图像之前,确定第一人脸表情图像相对第一观看者在上一采集时刻的人脸表情图像是否发生变化。其中,确定第一人脸表情图像相对第一观看者在上一采集时刻的人脸表情图像是否发生变化的过程可以为:将第一观看者的第一人脸表情图像输入至情绪检测算法中,得到第一观看者的第一人脸表情图像对应的情绪标识。将上一采集时刻的第一观看者的人脸表情图像输入至情绪检测算法中,得到上一采集时刻的第一观看者的人脸表情图像对应的情绪标识。对比得到的两个情绪标识,以确定两者是否相同。
在一个示例中,情绪标识可以为:快乐,愤怒,悲伤,中立,惊讶,厌恶或恐惧等。
在相同的情况下,确定第一人脸表情图像相对第一观看者在上一采集时刻的人脸表情图像未发生变化。此时,无需在第一时间进度条的第一位置节点上显示第一人脸表情图像。
在不相同的情况下,确定第一人脸表情图像相对第一观看者在上一采集时刻的人脸表情图像发生变化,此时,在第一时间进度条的第一位置节点上显示第一人脸表情图像。
需要说明的是,在第一观看者的人脸表情发生变化的情况下,显示第一人脸表情图像,可以是仅在第一时间进度条的第一位置节点上显示第一人脸表情图像,即仅显示当前获取的观看者的人脸表情图像。在第一观看者的人脸表情发生变化的情况下,显示第一人脸表情图像,也可以是在第一时间进度条的第一位置节点上显示第一人脸表情图像,在第一时间进度条上还显示上一采集时刻获取的、相对第一人脸表情图像发生变化的人脸图像。
示例性地,请参见图5,其是本申请实施例的另一种视频播放界面。具体来讲,在多个观看者观看视频的过程中,在视频播放界面显示有三个时间进度条,这三个时间进度条分别对应观看者A、观看者B和观看者C,并且,当观看者的人脸表情发生变化时,在该观看者对应的时间进度条上的相应的位置节点上显示第一人脸表情图像,其中,观看者A的表情包括表情A1、表情A2和表情A3,观看者B的表情包括表情B1和表情B3,观看者C的表情包括表情C1、表情C2和表情C3。
在本实施例中,仅在第一人脸表情图像相对第一观看者在上一采集时刻的人脸表情图像发生变化的情况下,在第一时间进度条的第一位置节点上显示所述第一人脸表情图像。这样,在实现获知观看者的情绪变化的情况下,可降低对应时间进度条上所显示的人脸表情图像的数量,进而减少对视频画面的遮挡,进一步提升观看体验。
在一个实施例中,在显示所述第一观看者的第一人脸表情图像之后,该方法还包括:S6100-S6200。
S6100、接收选择第一时间进度条的第一位置节点第一输入。
在本实施例中,在视频播放界面显示一个第一时间进度条的情况下,第一输入为用户选择该第一时间进度条的输入。在视频播放界面显示多个第一时间进度条的情况下,用户可点击至少一个时间进度条上一个位置节点。在此基础上,在检测到任一时间进度条上的一个位置节点被点击的情况下,确定接收到第一输入。
其中,用户可以为使用执行本申请实施例提供的记录观看视频的人脸表情的方法的执行主体的人,例如,可以为本申请任一实施例中涉及到的观看者。
S6200、响应于第一输入,显示第一位置节点对应的视频图像,并显示所述第一时间进度条在所述第一位置节点处的第一人脸表情图像。
在一个实施例中,上述S6200中的显示第一时间进度条在第一位置节点处的第一人脸表情图像,具体可以为:在视频播放界面放大显示第一位置节点对应的第一人脸表情图像。
示例性地,请参见图6,响应于第一输入,在视频播放界面的右侧放大显示第一位置节点对应的第一人脸表情图像601,即第一人脸表情图像601遮挡一部分视频画面。
在本实施例中,在第一输入为选择一个第一时间进度条的第一位置节点的第一输入的情况下,通过上述S6100和S6200可实现查看一个观看者在第一位置节点处所观看的视频图像,以及该观看者在第一位置节点处的第一人脸表情图像,从而可以方便用户查看第一人脸表情图像,以及对该第一人脸表情图像进行评论。
在一个实施例中,在视频播放界面显示多个第一时间进度条的情况下,上述S6200中的显示第一时间进度条在第一位置节点处的第一人脸表情图像,具体可以为:在视频播放界面放大显示多个第一时间进度条中每一第一时间进度条在第一位置节点处的第一人脸表情图像。
示例性地,请参见图7,观看者A的表情包括表情A1、表情A2和表情A3,观看者B的表情包括表情B1和表情B3,观看者C的表情包括表情C1、表情C2和表情C3,用户同时点击观看者A的时间进度条的第一位置节点的表情A2和观看者C的时间进度条的第一位置节点的表情C2。之后,请参见图8,在视频播放界面的右侧放大显示观看者A在第一位置节点的第一人脸表情图像801和观看者C在第一位置节点的第一人脸表情图像802。
在第一输入为选择两个及以上个时间进度条的第一位置节点第一输入的情况下,通过上述S6100和S6200可实现查看两个及以上个观看者在第一位置节点处所观看的视频图像,以及该两个及以上个观看者的第一人脸表情图像,
在本实施例中,通过上述S6100和S6200,用户可以同时查看不同观看者的第一人脸表情图像,可以将不同观看者的观看情绪进行比较,从而可以方便用户对第一人脸表情图像进行评论,增加观看的趣味性。
在一个实施例中,在显示所述第一时间进度条在所述第一位置节点处的第一人脸表情图像之后,该方法还包括:S7100-S7200。
S7100、响应于第一输入,获取对所述第一人脸表情图像的评论信息。
在本实施例中,在接收到第一输入的情况下,还获取对于视频图像上显示的人脸表情图像的评论信息。
在一个实施例中,评论信息可以包括“赞”的次数、“踩”的次数,以及具体评论。
在本实施例中,评论信息由用户输入,其中,用户可以为使用执行本申请实施例提供的记录观看视频的人脸表情的方法的执行主体的人,例如任一观看者。当然,用户还可以为非使用执行本申请实施例提供的记录观看视频的人脸表情的方法的执行主体的人。对于后者,本申请实施例提供的记录观看视频的人脸表情的方法在上述S6100之前还包括:发送显示有人脸表情图像的时间进度条的视频至其他电子设备。
在一个示例中,用户在输入评论信息,具体输入可以为:点击“赞”的图标,或“踩”的图标,或输入具体评价。
以图8示出的评论信息为例,评论信息例如可以包括“赞”,以及“赞”的次数,“踩”,以及“踩”的次数,以及具体评论,且分别为“内心忐忑”以及“我都惊呆了”等。
S7200、显示评论信息。
示例性地,请继续参见图8,在视频播放界面的右侧放大显示观看者A在第一位置节点的第一人脸表情图像801和观看者C在第一位置节点的第一人脸表情图像802,并在第一人脸表情图像801和第一人脸表情图像802下显示其他用户的评论信息。
在本实施例中,通过上述S7100和S7200,可增加用户之间的交互,从而进一步的提高用户的视频观看体验。
需要说明的是,本申请实施例提供的记录观看视频的人脸表情的方法,执行主体可以为记录观看视频的人脸表情的装置,或者该记录观看视频的人脸表情的装置中的用于执行记录观看视频的人脸表情的方法的控制模块。本申请实施例中以记录观看视频的人脸表情的装置执行记录观看视频的人脸表情的方法为例,说明本申请实施例提供的记录观看视频的人脸表情的装置。
如图9所示,本申请实施例提供了一种记录观看视频的人脸表情的装置900,所述装置900包括:获取模块910以及第一显示模块920。其中:
获取模块910,用于在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;
第一显示模块920,用于在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像;
其中,所述第一位置节点为所述第一时间进度条的对应所述第一采集时刻的位置节点。
在一个实施例中,所述第一显示模块具体用于:在所述第一观看者为多个观看者的情况下,在视频播放界面分别显示与每一观看者对应的所述第一时间进度条;分别在每一所述第一时间进度条的第一位置节点上显示对应观看者的第一人脸表情图像。
在一个实施例中,所述第一显示模块920具体用于:在所述第一人脸表情图像相对所述第一观看者在上一采集时刻的人脸表情图像发生变化的情况下,在所述第一时间进度条的第一位置节点上显示所述第一人脸表情图像。
在一个实施例中,所述装置900还包括:第一接收模块,用于接收选择所述第一时间进度条的第一位置节点的第一输入;第一响应模块,用于响应于所述第一输入,显示所述第一位置节点对应的视频图像,并显示所述第一时间进度条在所述第一位置节点处的第一人脸表情图像。
在一个实施例中,所述装置900还包括:第二响应模块,用于响应于所述第一输入,获取对所述第一人脸表情图像的评论信息;第三显示模块,用于显示所述评论信息。
在一个实施例中,所述装置900还包括:第四显示模块,用于显示表示开启表情记录的控件;第二接收模块,用于接收针对于所述控件的第二输入;第三响应模块,用于响应于所述第二输入,开启摄像装置;在本实施例中,所述获取模块910具体用于:通过所述摄像装置获取第一观看者在第一采集时刻的第一人脸表情图像。
在本申请实施例中,提供了一种记录观看视频的人脸表情的方法,方法包括:在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;在视频播放界面显示的第一时间进度条的第一位置节点上,显示第一观看者的第一人脸表情图像;其中,第一位置节点为第一时间进度条的对应第一采集时刻的位置节点。基于此,在播放视频的过程中,可以实时记录第一观看者的人脸表情,并且在视频播放界面的时间进度条上显示第一观看者的人脸表情,使得其他观看者可以通过时间进度条上显示的人脸表情,了解到第一观看者观看视频过程中的变化,方便用户在观看视频的过程中交流和互动,增加了视频观看的趣味性,丰富了用户的观看体验。
本申请实施例中的记录观看视频的人脸表情的装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的记录观看视频的人脸表情的装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的记录观看视频的人脸表情的装置能够实现图1的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图10所示,本申请实施例还提供一种电子设备1000,包括处理器1001,存储器1002,存储在存储器1002上并可在所述处理器1001上运行的程序或指令,该程序或指令被处理器1001执行时实现上述记录观看视频的人脸表情的方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图11是实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备1100包括但不限于:射频单元1101、网络模块1102、音频输出单元1103、输入单元1104、传感器1105、显示单元1106、用户输入单元1107、接口单元1108、存储器1109、以及处理器1110等部件。
本领域技术人员可以理解,电子设备1100还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图11中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,处理器1110,用于:在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像;其中,所述第一位置节点为所述第一时间进度条的对应所述第一采集时刻的位置节点。
可选地,处理器1110在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像时,用于:在所述第一观看者为多个观看者的情况下,在视频播放界面分别显示与每一观看者对应的所述第一时间进度条;分别在每一所述第一时间进度条的第一位置节点上显示对应观看者的第一人脸表情图像。
可选地,处理器1110在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像时,还用于:在所述第一人脸表情图像相对所述第一观看者在上一采集时刻的人脸表情图像发生变化的情况下,在所述第一时间进度条的第一位置节点上显示所述第一人脸表情图像。
可选地,处理器1110在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像之后,用于:接收选择所述第一时间进度条的第一位置节点的第一输入;响应于所述第一输入,显示所述第一位置节点对应的视频图像,并显示所述第一时间进度条在所述第一位置节点处的第一人脸表情图像。
可选地,处理器1110在显示所述第一时间进度条在所述第一位置节点处的第一人脸表情图像之后,用于:响应于所述第一输入,获取对所述第一人脸表情图像的评论信息;显示所述评论信息。
可选地,处理器1110在获取第一观看者在第一采集时刻的第一人脸表情图像之前,用于:显示表示开启表情记录的控件;接收针对于所述控件的第二输入;响应于所述第二输入,开启摄像装置;处理器1110在获取第一观看者在第一采集时刻的第一人脸表情图像时,用于:通过所述摄像装置获取第一观看者在第一采集时刻的第一人脸表情图像。
在本申请实施例中,提供了一种记录观看视频的人脸表情的方法,方法包括:在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;在视频播放界面显示的第一时间进度条的第一位置节点上,显示第一观看者的第一人脸表情图像;其中,第一位置节点为第一时间进度条的对应第一采集时刻的位置节点。基于此,在播放视频的过程中,可以实时记录第一观看者的人脸表情,并且在视频播放界面的时间进度条上显示第一观看者的人脸表情,使得其他观看者可以通过时间进度条上显示的人脸表情,了解到第一观看者观看视频过程中的变化,方便用户在观看视频的过程中交流和互动,增加了视频观看的趣味性,丰富了用户的观看体验。
应理解的是,本申请实施例中,输入单元1104可以包括图形处理器(GraphicsProcessing Unit,GPU)11041和麦克风11042,图形处理器11041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1106可包括显示面板11061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板11061。用户输入单元1107包括触控面板11071以及其他输入设备11072。触控面板11071,也称为触摸屏。触控面板11071可包括触摸检测装置和触摸控制器两个部分。其他输入设备11072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器1109可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器1110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1110中。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述记录观看视频的人脸表情的方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述记录观看视频的人脸表情的方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。

Claims (10)

1.一种记录观看视频的人脸表情的方法,其特征在于,所述方法包括:
在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;
在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像;
其中,所述第一位置节点为所述第一时间进度条的对应所述第一采集时刻的位置节点;
在所述显示所述第一观看者的第一人脸表情图像之后,所述方法还包括:
接收选择所述第一时间进度条的第一位置节点的第一输入;
响应于所述第一输入,获取对所述第一人脸表情图像的评论信息,其中,所述评论信息由用户输入,所述用户为所述第一观看者,或者为除所述第一观看者以外的用户;
显示所述评论信息。
2.根据权利要求1所述的方法,其特征在于,所述在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像,包括:
在所述第一观看者为多个观看者的情况下,在视频播放界面分别显示与每一观看者对应的所述第一时间进度条;
分别在每一所述第一时间进度条的第一位置节点上显示对应观看者的第一人脸表情图像。
3.根据权利要求1所述的方法,其特征在于,所述在视频播放界面显示的第一时间进度条的第一位置节点上,显示第一观看者的第一人脸表情图像,包括:
在所述第一人脸表情图像相对所述第一观看者在上一采集时刻的人脸表情图像发生变化的情况下,在所述第一时间进度条的第一位置节点上显示所述第一人脸表情图像。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述第一输入,显示所述第一位置节点对应的视频图像,并显示所述第一时间进度条在所述第一位置节点处的第一人脸表情图像。
5.根据权利要求1所述的方法,其特征在于,所述方法在所述获取第一观看者在第一采集时刻的第一人脸表情图像之前,包括:
显示表示开启表情记录的控件;
接收针对于所述控件的第二输入;
响应于所述第二输入,开启摄像装置;
所述获取第一观看者在第一采集时刻的第一人脸表情图像,包括:
通过所述摄像装置获取第一观看者在第一采集时刻的第一人脸表情图像。
6.一种记录观看视频的人脸表情的装置,其特征在于,所述装置包括:
获取模块,用于在播放视频的情况下,获取第一观看者在第一采集时刻的第一人脸表情图像;
第一显示模块,用于在视频播放界面显示的第一时间进度条的第一位置节点上,显示所述第一观看者的第一人脸表情图像;
其中,所述第一位置节点为所述第一时间进度条的对应所述第一采集时刻的位置节点;
所述装置还包括:
第一接收模块,用于接收选择所述第一时间进度条的第一位置节点的第一输入;
第二响应模块,用于响应于所述第一输入,获取对所述第一人脸表情图像的评论信息,其中,所述评论信息由用户输入,所述用户为所述第一观看者,或者为除所述第一观看者以外的用户;
第三显示模块,用于显示所述评论信息。
7.根据权利要求6所述的装置,其特征在于,所述第一显示模块具体用于:
在所述第一观看者为多个观看者的情况下,在视频播放界面分别显示与每一观看者对应的所述第一时间进度条;
分别在每一所述第一时间进度条的第一位置节点上显示对应观看者的第一人脸表情图像。
8.根据权利要求6所述的装置,其特征在于,所述第一显示模块具体用于:
在所述第一人脸表情图像相对所述第一观看者在上一采集时刻的人脸表情图像发生变化的情况下,在所述第一时间进度条的第一位置节点上显示所述第一人脸表情图像。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第一响应模块,用于响应于所述第一输入,显示所述第一位置节点对应的视频图像,并显示所述第一时间进度条在所述第一位置节点处的第一人脸表情图像。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第四显示模块,用于显示表示开启表情记录的控件;
第二接收模块,用于接收针对于所述控件的第二输入;
第三响应模块,用于响应于所述第二输入,开启摄像装置;
所述获取模块具体用于:
通过所述摄像装置获取第一观看者在第一采集时刻的第一人脸表情图像。
CN202110883762.0A 2021-08-02 2021-08-02 记录观看视频的人脸表情的方法和装置 Active CN113709565B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110883762.0A CN113709565B (zh) 2021-08-02 2021-08-02 记录观看视频的人脸表情的方法和装置
PCT/CN2022/108454 WO2023011300A1 (zh) 2021-08-02 2022-07-28 记录观看视频的人脸表情的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110883762.0A CN113709565B (zh) 2021-08-02 2021-08-02 记录观看视频的人脸表情的方法和装置

Publications (2)

Publication Number Publication Date
CN113709565A CN113709565A (zh) 2021-11-26
CN113709565B true CN113709565B (zh) 2023-08-22

Family

ID=78651307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110883762.0A Active CN113709565B (zh) 2021-08-02 2021-08-02 记录观看视频的人脸表情的方法和装置

Country Status (2)

Country Link
CN (1) CN113709565B (zh)
WO (1) WO2023011300A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113709565B (zh) * 2021-08-02 2023-08-22 维沃移动通信(杭州)有限公司 记录观看视频的人脸表情的方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008271587A (ja) * 2008-06-02 2008-11-06 Sony Corp 画像再生装置及び方法、並びにプログラム
CN103826160A (zh) * 2014-01-09 2014-05-28 广州三星通信技术研究有限公司 获取视频的信息的方法及设备及播放视频的方法及设备
EP3101653A1 (en) * 2005-07-18 2016-12-07 LG Electronics Inc. Image display device and image display method
CN106878809A (zh) * 2017-02-15 2017-06-20 腾讯科技(深圳)有限公司 一种视频收藏方法、播放方法、装置、终端及系统
CN107872729A (zh) * 2017-11-15 2018-04-03 暴风集团股份有限公司 获取、生成视频帧缩略图的方法和装置及获取系统
CN110446093A (zh) * 2019-08-15 2019-11-12 天脉聚源(杭州)传媒科技有限公司 一种视频进度条显示方法、装置和存储介质
CN112004156A (zh) * 2020-09-02 2020-11-27 腾讯科技(深圳)有限公司 一种视频播放方法、相关装置及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103530788A (zh) * 2012-07-02 2014-01-22 纬创资通股份有限公司 多媒体评价系统、多媒体评价装置以及多媒体评价方法
US9727215B2 (en) * 2013-11-11 2017-08-08 Htc Corporation Method for performing multimedia management utilizing tags, and associated apparatus and associated computer program product
KR102243653B1 (ko) * 2014-02-17 2021-04-23 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN112492397A (zh) * 2019-09-12 2021-03-12 上海哔哩哔哩科技有限公司 视频处理方法、计算机设备和存储介质
CN113709565B (zh) * 2021-08-02 2023-08-22 维沃移动通信(杭州)有限公司 记录观看视频的人脸表情的方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3101653A1 (en) * 2005-07-18 2016-12-07 LG Electronics Inc. Image display device and image display method
JP2008271587A (ja) * 2008-06-02 2008-11-06 Sony Corp 画像再生装置及び方法、並びにプログラム
CN103826160A (zh) * 2014-01-09 2014-05-28 广州三星通信技术研究有限公司 获取视频的信息的方法及设备及播放视频的方法及设备
CN106878809A (zh) * 2017-02-15 2017-06-20 腾讯科技(深圳)有限公司 一种视频收藏方法、播放方法、装置、终端及系统
CN107872729A (zh) * 2017-11-15 2018-04-03 暴风集团股份有限公司 获取、生成视频帧缩略图的方法和装置及获取系统
CN110446093A (zh) * 2019-08-15 2019-11-12 天脉聚源(杭州)传媒科技有限公司 一种视频进度条显示方法、装置和存储介质
CN112004156A (zh) * 2020-09-02 2020-11-27 腾讯科技(深圳)有限公司 一种视频播放方法、相关装置及存储介质

Also Published As

Publication number Publication date
CN113709565A (zh) 2021-11-26
WO2023011300A1 (zh) 2023-02-09

Similar Documents

Publication Publication Date Title
CN113906419A (zh) 用于媒体浏览应用程序的用户界面
US11706485B2 (en) Display device and content recommendation method
JP2020514892A (ja) マルチメディアの再生中に対話属性を表示するための方法および装置
CN108600818B (zh) 展示多媒体资源的方法及装置
CN112887794B (zh) 视频剪辑方法及装置
CN113065008A (zh) 信息推荐方法、装置、电子设备及存储介质
CN113596555B (zh) 视频播放方法、装置及电子设备
CN111857460A (zh) 分屏处理方法、分屏处理装置、电子设备和可读存储介质
CN112911401A (zh) 视频播放方法及装置
CN112911147A (zh) 显示控制方法、显示控制装置及电子设备
CN113901241B (zh) 页面展示方法、装置、电子设备及存储介质
CN113783995A (zh) 显示控制方法、装置、电子设备和介质
CN113709565B (zh) 记录观看视频的人脸表情的方法和装置
CN113794831B (zh) 视频拍摄方法、装置、电子设备及介质
CN112181252B (zh) 截屏方法、装置及电子设备
CN112822394B (zh) 显示控制方法、装置、电子设备及可读存储介质
CN112214774A (zh) 权限设置方法、文件播放方法、装置和电子设备
CN112202958B (zh) 截图方法、装置及电子设备
CN113721816A (zh) 视频处理方法及装置
CN113794920A (zh) 界面显示方法、装置、电子设备及介质
CN113923392A (zh) 视频录制方法、视频录制装置和电子设备
CN112887780A (zh) 视频名称的显示方法及装置
CN112486650A (zh) 操作路径切换方法、装置和电子设备
CN115103054B (zh) 信息处理方法、装置、电子设备及介质
CN114780180B (zh) 一种对象数据显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant