CN111372029A - 视频显示方法、装置及电子设备 - Google Patents

视频显示方法、装置及电子设备 Download PDF

Info

Publication number
CN111372029A
CN111372029A CN202010306986.0A CN202010306986A CN111372029A CN 111372029 A CN111372029 A CN 111372029A CN 202010306986 A CN202010306986 A CN 202010306986A CN 111372029 A CN111372029 A CN 111372029A
Authority
CN
China
Prior art keywords
target
emotion type
expression
video frame
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010306986.0A
Other languages
English (en)
Inventor
孙鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN202010306986.0A priority Critical patent/CN111372029A/zh
Publication of CN111372029A publication Critical patent/CN111372029A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种视频显示方法、装置及电子设备,所述方法包括:获取目标视频帧,所述目标视频帧包括目标人物;在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。本发明能够实现快速在视频中添加表情标识,第一表情标识的显示不仅便于用户直接看到视频中目标人物的情绪,而且提高了视频显示效果的丰富性和趣味性。

Description

视频显示方法、装置及电子设备
技术领域
本发明涉及通信技术领域,尤其涉及一种视频显示方法、装置及电子设备。
背景技术
随着电子设备的发展,电子设备的应用功能也越来越多,例如:电子设备能够录制视频、播放视频等。这样,用户可以通过录制视频的方式记录生活日记,或者记录家人(如孩子)的成长过程等,在用户需要获取视频通话对端用户的情绪状态的情况下,用户只能通过观察视频画面中的用户的脸部表情才能获取对方的情绪状态,在视频通话质量差的情况下用户可能无法判断对方的情绪状态,尤其是在用户的表情动作不太明显的情况下,用户获取的情绪状态可能是不准确的。
发明内容
本发明提供了一种视频显示方法、装置及电子设备,能够解决目前的视频通话过程中,视频通话用户的表情或情绪状态的获取难度大的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种视频显示方法,所述方法包括:
获取目标视频帧,所述目标视频帧包括目标人物;
在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;
其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。
第二方面,本发明实施例还提供了一种视频显示装置,包括:
获取模块,用于获取目标视频帧,所述目标视频帧包括目标人物;
第一显示模块,用于在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;
其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。
第三方面,本发明实施例还提供了一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的视频显示方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的视频显示方法的步骤。
在本发明实施例中,通过获取目标视频帧,所述目标视频帧包括目标人物;在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型,通过与第一情绪类型对应的第一表情标识的直观的显示方式,使得视频通话对方能够快速便捷且准确地获取目标人物的情绪,第一表情标识的显示不仅便于用户直接看到视频中目标人物的情绪,而且提高了视频显示效果的丰富性和趣味性。
附图说明
图1表示本发明实施例的视频显示方法的流程图;
图2表示本发明实施例的添加按钮的示意图;
图3表示本发明实施例的显示表情贴纸的示意图之一;
图4表示本发明实施例的显示文本贴纸的示意图之一;
图5表示本发明实施例的显示表情贴纸和文本贴纸的示意图之一;
图6表示本发明实施例的显示表情贴纸和文本贴纸的示意图之二;
图7表示本发明实施例的显示表情贴纸的示意图之二;
图8表示本发明实施例的显示表情贴纸的示意图之三;
图9表示本发明实施例的显示文本贴纸的示意图之二;
图10表示本发明实施例的显示文本贴纸的示意图之三;
图11表示本发明实施例的显示第一情绪类型的属性信息的示意图;
图12表示本发明实施例的显示备选情绪类型的属性信息的示意图;
图13表示本发明实施例的选择第二情绪类型的属性信息的示意图;
图14表示本发明实施例的显示第三表情标识的示意图;
图15表示本发明实施例的视频显示装置的框图;
图16表示本发明实施例的电子设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种视频显示方法,所述方法包括:
步骤11:获取目标视频帧,所述目标视频帧包括目标人物。
可选地,目标视频帧可以是视频录制过程中的预览视频的视频帧,也可以是视频录制完成后得到视频数据中的视频帧(这里所说的视频录制完成后得到的视频数据可以是本设备录制的视频数据,可以是接收其他设备发送的视频数据)。也就是说本发明实施例中的视频显示方法可以是在视频录制过程中所显示的预览视频,也可以是视频录制完成后进行播放时所显示的视频。
可选地,该目标人物可以是目标视频帧中包含的所有符合预定条件的人物(如符合预定条件的人物为:具有面部特征的人物和对应有语音信息中的至少一个);或者,该目标人物也可以是预先设定的目标人物。
作为一种实现方式:预先设定目标人物,可以具体包括:接收用户对显示界面中所显示的目标视频帧中的第一人物的选择输入,并响应于所述选择输入确定所述第一人物为所述目标人物。如:在录制目标视频帧的过程中,接收用户对预览界面中的第一人物的第一选择输入,并响应于所述第一选择输入,确定所述第一人物为目标人物;再如:在播放目标视频帧的过程中,接收用户对播放界面中的第一人物的第二选择输入,并响应于所述第二选择输入,确定所述第一人物为目标人物。
作为另一种实现方式:预先设定目标人物,可以具体包括:获取目标图像中的第一人物;将目标视频帧中与所述第一人物相匹配的第二人物确定为所述目标人物。例如:用户可以预先从相册中选择一张包含有第一人物的目标图像,或者拍摄一张包含有第一人物的目标图像,然后在视频录制或者视频播放时,通过将目标视频帧中的第二人物与第一人物进行匹配,并在匹配成功时确定所述第二人物为所述目标人物。
步骤12:在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。
可选地,可以是在所述目标视频帧的显示界面(如录制该目标视频帧的预览界面、播放该目标视频帧的播放界面),悬浮显示一添加按钮201,如图2所示。其中,该添加按钮201可以是在目标视频帧的显示界面中一直悬浮显示,也可以是响应于用户的激活输入,显示在该显示界面中。
如:用户在相册中选择包含目标人物的目标视频,通过点击目标视频帧右上方的添加按钮201,则触发显示第一情绪类型对应的第一表情标识的功能;进一步地,在触发显示第一情绪类型对应的第一表情标识的功能之后,若用户想要保存当前的第一表情标识,则可以通过单击添加按钮201保存当前效果;若用户不想要保存当前效果,则可以双击该添加按钮201则不保留该效果,同时回到目标视频帧的显示界面。
可选地,所述目标区域可以是目标视频帧中的预定区域,如目标视频帧中的边角位置(如图2中的左上角区域,左下角区域,右下角区域,右上角区域等)、边缘区域(如图2中的左侧区域,右侧区域、上侧区域、下侧区域等)。
可选地,该目标区域也可以根据目标视频帧中目标人物的位置确定,如距离目标视频帧中目标人物在预定距离内的区域范围等(如目标人物的头顶上方或者目标人物的肢体下方等)。
可选地,所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型,可以通过对目标视频帧进行表情识别和语音识别处理,解析目标视频帧中的目标人物的情绪类型。例如:该情绪类型可以包括:平静、高兴、伤心、厌恶、惊讶、恐惧、愤怒等。
其中,表情识别技术是通过人工智能算法来检测和分析人脸表达出的情绪状态,通过情绪识别可以判断当前人脸对应的情绪状态所属的情绪类型。语音识别技术是通过人工智能算法让机器听懂人类的语言,对声音进行识别并解析话语的含义,进而做出判断和响应;这样基于语音识别技术可以识别得到语音内容,进而根据语音内容可以确定其所属的情绪类型。
可选地,所述第一表情标识包括以下至少一项:表情贴纸、文本贴纸;其中,所述文本贴纸的显示方式与所述第一情绪类型相关联。
例如:第一情绪类型包括:所述目标人物的面部表情所属的情绪类型的情况下,该第一表情标识可以是表情贴纸和文本贴纸中的至少一个。
其中,该表情贴纸可以根据目标人物的面部表情所属的情绪类型确定,如图3所示,识别到目标人物301的面部表情所属的情绪类型为“愤怒”,则该第一表情标识可以是图3中显示的“愤怒”的表情贴纸302;如识别到目标人物的面部表情所属的情绪类型为“开心”,则该第一表情标识可以是“开心”的表情贴纸。
该文本贴纸也可以根据目标人物的面部表情所属的情绪类型确定,如图4所示,识别到目标人物401的面部表情所属的情绪类型为“愤怒”,则该第一表情标识可以是图4中显示的“愤怒”的文本信息402(如“我很愤怒”),且该文本信息402按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示;如识别到目标人物的面部表情所属的情绪类型为“开心”,则该第一表情标识可以是“开心”的文本信息(如“我很开心”),且该文本信息按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示。
当然,如图5所示,若识别到目标人物501的面部表情所属的情绪类型为“愤怒”,则该第一表情标识还可以是图5中显示的“愤怒”的表情贴纸502以及“愤怒”的文本信息503(如“我很愤怒”),且该文本信息503按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示;如识别到目标人物的面部表情所属的情绪类型为“开心”,则该第一表情标识可以是“开心”的表情贴纸以及“开心”的文本信息(如“我很开心”),且该文本信息按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示。
又例如:第一情绪类型包括:所述目标人物的语音信息所属的情绪类型的情况下,该第一表情标识可以是表情贴纸和文本贴纸中的至少一个。
其中,该表情贴纸可以根据目标人物的语音信息所属的情绪类型确定,如图3所示,识别到目标人物301的语音信息所属的情绪类型为“愤怒”,则该第一表情标识可以图3中显示的“愤怒”的表情贴纸302;如识别到目标人物的语音信息所属的情绪类型为“开心”,则该第一表情标识可以是“开心”的表情贴纸。
该文本贴纸也可以根据目标人物的语音信息所属的情绪类型确定,如图4所示,识别到目标人物401的语音信息所属的情绪类型为“愤怒”,则该第一表情标识可以是图4中显示的“愤怒”的文本信息402(如“我很愤怒”),且该文本信息402按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示;如识别到目标人物的语音信息所属的情绪类型为“开心”,则该第一表情标识可以是“开心”的文本信息(如“我很开心”),且该文本信息按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示。
当然,如图5所示,识别到目标人物501的语音信息所属的情绪类型为“愤怒”,该第一表情标识还可以是图5中显示的“愤怒”的表情贴纸502以及“愤怒”的文本信息503(如“我很愤怒”),且该文本信息503按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示;如识别到目标人物的语音信息所属的情绪类型为“开心”,则该第一表情标识可以是“开心”的表情贴纸以及显示“开心”的文本信息(如“我很开心”),且该文本信息按照目标人物的面部表情所属的情绪类型对应的显示方式进行显示。
再例如:第一情绪类型包括:所述目标人物的面部表情所属的情绪类型和目标人物的语音信息所属的情绪类型的情况下,该第一表情标识可以是包括:与该目标人物的面部表情所属的情绪类型对应的表情贴纸,以及目标人物的语音信息所属的情绪类型对应的文本贴纸,具体可参见以上实施例所述,此处不再赘述。
可选地,所述文本贴纸的显示方式与所述第一情绪类型相关联,可以是不同的情绪类型对应的文本贴纸的显示方式不同;如文本贴纸可以包括文本信息以及图案贴纸;其中,文本贴纸显示方式的不同可以包括但不限于:字体形状的不同(如字体类型的不同等)、字体样式的不同(如字体颜色不同、字体背景颜色的不同等)、字体大小的不同、文本上的贴纸图案的不同等。
例如:情绪类型为“开心”时,可以采用跳跃的字体,同时在字体边缘加上悦动的人物或动物图案,以此来传达欢快愉悦的情绪;情绪类型为“伤心”时,可以采用坠落的字体(如每个文字都是一种下坠的状态),同时在字体边缘加上飘落的雪花或泪滴,以此来传达悲伤难过的情绪,如图6中的文本贴纸601所示,或者还可以在文本贴纸601的同时显示“伤心”的表情贴纸602。
上述方案中,通过获取目标视频帧,所述目标视频帧包括目标人物;在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型,通过与第一情绪类型对应的第一表情标识的直观的显示方式,使得视频通话对方能够快速便捷且准确地获取目标人物的情绪,从而提高视频显示效果的丰富性,并且具有更高的趣味性。
可选地,根据以上至少一个实施例,所述第一情绪类型包括所述目标人物的面部表情所属的情绪类型的情况下,所述在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识的步骤,可以具体包括:
获取所述目标人物的目标面部表情信息;
在所述目标视频帧的目标区域,显示所述目标面部表情信息所属的第一情绪类型对应的至少一个表情贴纸。
可选地,获取所述目标人物的目标面部表情信息,可以是通过表情识别技术进行目标人物的面部表情的识别,进而通过人工智能算法来检测和分析人脸表达出的情绪状态,通过情绪识别可以判断目标人物的目标面部表情信息所属的情绪类型。
这样,在确定目标人物的目标面部表情信息所属的第一情绪类型的情况下,在目标视频帧的目标区域(如目标人物的头部上方区域),显示第一情绪类型对应的至少一个表情贴纸,以提高视频显示效果的丰富性,并且具有更高的趣味性。
例如:表情贴纸库中可以预先存储有第一情绪类型对应的多个表情贴纸,在显示第一情绪类型对应的至少一个表情贴纸时,可以是显示这多个表情贴纸中的一个(进一步地,还可以是在多个区域中分别显示这多个表情贴纸中的一个),或者是显示这多个表情贴纸中的至少两个等,本发明实施例不以此为限。
可选地,根据以上至少一个实施例,所述第一情绪类型包括所述目标人物的语音信息所属的情绪类型的情况下:所述在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识的步骤,可以具体包括:
获取所述目标人物的目标语音信息;
在所述目标视频帧的目标区域,以目标显示方式,显示所述目标语音信息的内容对应的文本贴纸;其中,所述目标显示方式与所述目标语音信息所属的第一情绪类型相关联。
可选地,获取所述目标人物的目标语音信息可以是采用语音识别技术识别得到目标人物的对应的语音内容,进而根据语音内容可以确定其所属的情绪类型。
这样,在确定目标人物的目标语言信息所属的第一情绪类型的情况下,在目标视频帧的目标区域(如目标人物的下方区域),显示第一情绪类型对应的文本贴纸,且文本贴纸的目标显示方式与第一情绪类型相关,以提高视频显示效果的丰富性,并且具有更高的趣味性。
例如:情绪类型为“开心”时,可以采用跳跃的字体,同时在字体边缘加上悦动的人物或动物图案,以此来传达欢快愉悦的情绪;情绪类型为“伤心”时,可以采用坠落的字体(如每个文字都是一种下坠的状态),同时在字体边缘加上飘落的雪花或泪滴,以此来传达悲伤难过的情绪。
可选地,根据以上至少一个实施例,所述在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识的步骤之后,还可以具体包括:
接收用户对所述第一表情标识的第一输入;
响应于所述第一输入,将所述第一表情标识更新为第二表情标识。
可选地,该第一输入可以是用户对所述第一表情标识的双击输入;或者是对所述第一表情标识的滑动输入(如横向滑动输入、竖向滑动输入等);响应于所述第一输入,在所述第一情绪类型对应的至少两个表情标识之间进行切换显示。
例如:用户可以通过对所述第一表情贴纸的横向滑动输入,切换第一情绪类型对应的不同的表情贴纸。如图3所示,在当前显示有第一情绪类型对应的第一表情贴纸302的情况下,接收用户对第一表情贴纸302的横向滑动输入,并响应于所述横向滑动输入,将第一表情贴纸302更新为第一情绪类型对应的第二表情贴纸701,如图7所示;进一步地,在当前显示有第一情绪类型对应的第二表情贴纸701的情况下,接收用户对第二表情贴纸701的横向滑动输入,并响应于所述横向滑动输入,将第二表情贴纸701更新为第一情绪类型对应的第三表情贴纸801,如图8所示。
其中,在切换显示第一情绪类型对应的不同的表情贴纸时,该表情贴纸(如第一表情贴纸302、第二表情贴纸701、第三表情贴纸801)的显示方式(如表情贴纸数量、尺寸等)可以是预先设定的,即当切换到第一表情贴纸302时,按照第一表情贴纸302的显示方式(如表情贴纸的数量为3个、尺寸相对较小)进行显示,当切换到第二表情贴纸701时,按照第二表情贴纸701的显示方式(如表情贴纸的数量为1个尺寸相对较大)进行显示,当切换到第三表情贴纸801时,按照第三表情贴纸801的显示方式(如表情贴纸的数量为2个,尺寸相较于第一表情贴纸和第二表情贴纸来说相对适中)进行显示。
需要说明的是,上述表情贴纸的显示方式仅为示例,本发明实施例中表情贴纸的显示方式还可以采用除此之外的其他形式,本发明实施例不以此为限。
又例如:用户可以通过对所述文本贴纸的横向滑动输入,切换第一情绪类型对应的不同显示方式的文本贴纸。如图6所示,在当前显示有第一情绪类型对应的第一显示方式的文本贴纸601的情况下,接收用户对第一显示方式的文本贴纸601的横向滑动输入,并响应于所述横向滑动输入,将第一显示方式的文本贴纸601更新为第一情绪类型对应的第二显示方式的文本贴纸901,如图9所示(其中在显示第一情绪类型对应的文本贴纸901的同时还可以显示第一情绪类型对应的表情贴纸902);进一步地,在当前显示有第一情绪类型对应的第二显示方式的文本贴纸901的情况下,接收用户对第二显示方式的文本贴纸901的横向滑动输入,并响应于所述横向滑动输入,将第二显示方式的文本贴纸901更新为第一情绪类型对应的第三显示方式的文本贴纸1001,如图10所示(其中在显示第一情绪类型对应的文本贴纸1001的同时还可以显示第一情绪类型对应的表情贴纸1002)。
需要说明的是,上述文本贴纸的显示方式仅为示例,本发明实施例中文本贴纸的显示方式还可以采用除此之外的其他形式,本发明实施例不以此为限。
上述方案中,通过对当前显示的第一情绪类型对应的表情标识的第一输入,可以切换该第一情绪类型对应的不同的表情标识,可以不需要通过界面的跳转,就可以进行更换第一情绪类型对应的表情标识的设置,其操作便捷、更灵活,并且进一步有利于提高表情标识显示的多样性,从而进一步提高了提高视频显示效果的丰富性,并且具有更高的趣味性。
可选地,根据以上至少一个实施例,所述获取目标视频帧的步骤之后,所述方法还可以具体包括:
显示所述目标人物的第一情绪类型的第一属性信息;
可选地,显示所述目标人物的第一情绪类型的第一属性信息的步骤,可以在上述步骤12之前执行,也可以在上述步骤12之后执行,也可以与上述步骤12同时执行。
如图11所示,在获取目标视频帧的步骤之后,可以显示所述目标人物的第一情绪类型的第一属性信息1101;其中,所述第一属性信息1101可以包括表征该第一情绪类型的图标或者该第一情绪类型的名称等,还可以包括显示第一表情标识的说明信息,如在第一情绪类型为“愤怒”的情况下,可以显示如下说明信息1101:“根据目标人物的面部表情信息和/或语音信息,判断TA的第一情绪类型为:愤怒,为您推荐以下表情标识”;当然,还可以显示“愤怒”的表情贴纸1102,以及“愤怒”的文本贴纸1103。
在所述目标视频帧的目标区域,显示第一标情绪类型对应的第一表情标识之后,接收用户对所述第一属性信息的第二输入;响应于所述第二输入,显示至少一个备选情绪类型的属性信息;
如图12所示,在显示所述目标人物的第一情绪类型的第一属性信息的情况下,接收用户对所述第一属性信息的第二输入(如该第二输入可以是点击输入),这样响应于所述第二输入,可以显示至少一个备选情绪类型的属性信息;其中,该至少一个备选情绪类型的属性信息可以在一个悬浮框1201中显示,该悬浮框中显示有至少一个备选情绪类型的属性信息,如平静、高兴、伤心、厌恶、惊讶、恐惧、愤怒等;可选地,在当前第一情绪类型为“愤怒”的情况下,还可以显示有“愤怒”的表情贴纸1202。
可选的,该悬浮框1201内的第一情绪类型的属性信息可以采用特殊标记显示(如:颜色、形状、尺寸等的不同),以示意出当前确定的第一情绪类型;
接收用户对所述至少一个备选情绪类型的属性信息中的第二情绪类型的属性信息的第三输入;响应于所述第三输入,将所述第一情绪类型的属性信息更新为所述第二情绪类型的属性信息,并将所述第一表情标识更新为所述第二情绪类型对应的第三表情标识。
如图13所示,在显示至少一个备选情绪类型的属性信息的情况下,如选择了第二属性信息为“惊讶”,则将第二属性信息“惊讶”进行特殊标记,以意出当前选择的第二情绪类型对应的第二属性信息,并通过点击“确定”按钮,确定第二情绪类型为“惊讶”,并将所述说明信息中的第一情绪类型的第一属性信息更新为第二情绪类型的第二属性信息,以及将所述第一情绪类型对应的第一表情标识更新为所述第二情绪类型对应的第三表情标识1401,如图14所示,将第一属性信息为“愤怒”更新为第二属性信息为“惊讶”,并将第一表情标识(如图13中“愤怒”的表情表示1202)更新显示“惊讶”的第三表情标识1401。
可选地,该悬浮框1201内的“取消”按钮可以用来取消悬浮框1201的显示,如在当前显示悬浮框1201的情况下,用户可以通过点击“取消”按钮,退出该悬浮框1201的显示。
该实施例中,通过显示目标人物的第一情绪类型的第一属性信息,以及响应于用户可以对第一情绪类型的第一属性信息的第二输入,显示至少一个备选情绪类型的属性信息,以提供用户更新目标人物的情绪类型的选择操作,以使得在通过算法识别到的情绪类型可能出现偏差的情况下(比如把惊讶的情绪识别为愤怒),用户可以通过以上选择操作,来切换正确的情绪类型。
这样,用户可以直接点击属性信息,就能基于所显示的备选情绪类型的属性信息,更改当前目标人物对应的情绪类型,不需要通过界面的跳转,就可以进行更换目标人物对应的情绪类型的设置,其操作便捷、更灵活。上述方案中,通过获取目标视频帧,所述目标视频帧包括目标人物;在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型,通过与第一情绪类型对应的第一表情标识的直观的显示方式,使得视频通话对方能够快速便捷且准确地获取目标人物的情绪,第一表情标识的显示不仅便于用户直接看到视频中目标人物的情绪,而且提高了视频显示效果的丰富性和趣味性。
并且通过对当前显示的第一情绪类型对应的表情标识的第一输入,可以切换该第一情绪类型对应的不同的表情标识,可以不需要通过界面的跳转,就可以进行更换第一情绪类型对应的表情标识的设置,其操作便捷、更灵活,并且进一步有利于提高表情标识显示的多样性,从而进一步提高了提高视频显示效果的丰富性,并且具有更高的趣味性。
此外,该方案中还可以显示情绪类型对应的属性信息,这样用户可以直接点击属性信息,就能基于所显示的备选情绪类型的属性信息,更改当前目标人物对应的情绪类型,不需要通过界面的跳转,就可以进行更换目标人物对应的情绪类型的设置,其操作便捷、更灵活。
如图15所示,本发明实施例提供了一种视频显示装置1500,包括:
获取模块1510,用于获取目标视频帧,所述目标视频帧包括目标人物;
第一显示模块1520,用于在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;
其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。
可选地,所述第一表情标识包括以下至少一项:表情贴纸、文本贴纸;
其中,所述文本贴纸的显示方式与所述第一情绪类型相关联。
可选地,所述第一情绪类型包括所述目标人物的面部表情所属的情绪类型;
所述第一显示模块1520包括:
第一获取单元,用于获取所述目标人物的目标面部表情信息;
第一显示单元,用于在所述目标视频帧的目标区域,显示所述目标面部表情信息所属的第一情绪类型对应的至少一个表情贴纸。
可选地,所述第一情绪类型包括所述目标人物的语音信息所属的情绪类型;
所述第一显示模块1520包括:
第二获取单元,用于获取所述目标人物的目标语音信息;
第二显示单元,用于在所述目标视频帧的目标区域,以目标显示方式,显示所述目标语音信息的内容对应的文本贴纸;
其中,所述目标显示方式与所述目标语音信息所属的第一情绪类型相关联。
可选地,所述视频显示装置1500还包括:
第一接收模块,用于在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识之后,接收用户对所述第一表情标识的第一输入;
第一响应模块,用于响应于所述第一输入,将所述第一表情标识更新为第二表情标识。
可选地,所述视频显示装置1500还包括:
第二显示模块,用于在获取目标视频帧之后,显示所述目标人物的第一情绪类型的第一属性信息;
第二接收模块,用于在所述目标视频帧的目标区域,显示第一标情绪类型对应的第一表情标识之后,接收用户对所述第一属性信息的第二输入;
第二响应模块,用于响应于所述第二输入,显示至少一个备选情绪类型的属性信息;
第三接收模块,用于接收用户对所述至少一个备选情绪类型的属性信息中的第二情绪类型的第二属性信息的第三输入;
第三响应模块,用于响应于所述第三输入,将所述第一属性信息更新为所述第二属性信息,并将所述第一表情标识更新为所述第二情绪类型对应的第三表情标识。
本发明实施例提供的视频显示装置能够实现以上至少一个实施例中视频显示方法的各个过程,为避免重复,这里不再赘述。
本发明实施例中的视频显示装置1500,通过获取目标视频帧,所述目标视频帧包括目标人物;在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型,通过与第一情绪类型对应的第一表情标识的直观的显示方式,使得视频通话对方能够快速便捷且准确地获取目标人物的情绪,第一表情标识的显示不仅便于用户直接看到视频中目标人物的情绪,而且提高了视频显示效果的丰富性和趣味性。
图16为实现本发明各个实施例的一种电子设备的硬件结构示意图。
该电子设备1600包括但不限于:射频单元1601、网络模块1602、音频输出单元1603、输入单元1604、传感器1605、显示单元1606、用户输入单元1607、接口单元1608、存储器1609、处理器1610、以及电源1611等部件。本领域技术人员可以理解,图16中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器1610,用于获取目标视频帧,所述目标视频帧包括目标人物;
显示单元1606,还用于在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。
本发明实施例提供的电子设备1600能够实现以上至少一个视频显示方法实施例的各个过程,为避免重复,这里不再赘述。
本发明实施例中的电子设备1600,通过获取目标视频帧,所述目标视频帧包括目标人物;在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型,通过与第一情绪类型对应的第一表情标识的直观的显示方式,使得视频通话对方能够快速便捷且准确地获取目标人物的情绪,第一表情标识的显示不仅便于用户直接看到视频中目标人物的情绪,而且提高了视频显示效果的丰富性和趣味性。
应理解的是,本发明实施例中,射频单元1601可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器1610处理;另外,将上行的数据发送给基站。通常,射频单元1601包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元1601还可以通过无线通信系统与网络和其他设备通信。
电子设备通过网络模块1602为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元1603可以将射频单元1601或网络模块1602接收的或者在存储器1609中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元1603还可以提供与电子设备1600执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元1603包括扬声器、蜂鸣器以及受话器等。
输入单元1604用于接收音频或视频信号。输入单元1604可以包括图形处理器(Graphics Processing Unit,GPU)16041和麦克风16042,图形处理器16041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元1606上。经图形处理器16041处理后的图像帧可以存储在存储器1609(或其它存储介质)中或者经由射频单元1601或网络模块1602进行发送。麦克风16042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元1601发送到移动通信基站的格式输出。
电子设备1600还包括至少一种传感器1605,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板16061的亮度,接近传感器可在电子设备1600移动到耳边时,关闭显示面板16061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器1605还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元1606用于显示由用户输入的信息或提供给用户的信息。显示单元1606可包括显示面板16061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板16061。
用户输入单元1607可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元1607包括触控面板16071以及其他输入设备16072。触控面板16071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板16071上或在触控面板16071附近的操作)。触控面板16071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1610,接收处理器1610发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板16071。除了触控面板16071,用户输入单元1607还可以包括其他输入设备16072。具体地,其他输入设备16072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板16071可覆盖在显示面板16061上,当触控面板16071检测到在其上或附近的触摸操作后,传送给处理器1610以确定触摸事件的类型,随后处理器1610根据触摸事件的类型在显示面板16061上提供相应的视觉输出。虽然在图16中,触控面板16071与显示面板16061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板16071与显示面板16061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元1608为外部装置与电子设备1600连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元1608可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备1600内的一个或多个元件或者可以用于在电子设备1600和外部装置之间传输数据。
存储器1609可用于存储软件程序以及各种数据。存储器1609可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1609可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器1610是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器1609内的软件程序和/或模块,以及调用存储在存储器1609内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器1610可包括一个或多个处理单元;优选的,处理器1610可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1610中。
电子设备1600还可以包括给各个部件供电的电源1611(比如电池),优选的,电源1611可以通过电源管理系统与处理器1610逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备1600包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种电子设备,包括处理器1610,存储器1609,存储在存储器1609上并可在所述处理器1610上运行的计算机程序,该计算机程序被处理器1610执行时实现上述视频显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述视频显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (13)

1.一种视频显示方法,其特征在于,所述方法包括:
获取目标视频帧,所述目标视频帧包括目标人物;
在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;
其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。
2.根据权利要求1所述的视频显示方法,其特征在于,所述第一表情标识包括以下至少一项:表情贴纸、文本贴纸;
其中,所述文本贴纸的显示方式与所述第一情绪类型相关联。
3.根据权利要求1所述的视频显示方法,其特征在于,所述第一情绪类型包括所述目标人物的面部表情所属的情绪类型;
所述在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识,包括:
获取所述目标人物的目标面部表情信息;
在所述目标视频帧的目标区域,显示所述目标面部表情信息所属的第一情绪类型对应的至少一个表情贴纸。
4.根据权利要求1所述的视频显示方法,其特征在于,所述第一情绪类型包括所述目标人物的语音信息所属的情绪类型;
所述在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识,包括:
获取所述目标人物的目标语音信息;
在所述目标视频帧的目标区域,以目标显示方式,显示所述目标语音信息的内容对应的文本贴纸;
其中,所述目标显示方式与所述目标语音信息所属的第一情绪类型相关联。
5.根据权利要求1所述的视频显示方法,其特征在于,所述在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识之后,还包括:
接收用户对所述第一表情标识的第一输入;
响应于所述第一输入,将所述第一表情标识更新为第二表情标识。
6.根据权利要求1所述的视频显示方法,其特征在于,所述获取目标视频帧之后,还包括:
显示所述目标人物的第一情绪类型的第一属性信息;
所述在所述目标视频帧的目标区域,显示第一标情绪类型对应的第一表情标识之后,还包括:
接收用户对所述第一属性信息的第二输入;
响应于所述第二输入,显示至少一个备选情绪类型的属性信息;
接收用户对所述至少一个备选情绪类型的属性信息中的第二情绪类型的第二属性信息的第三输入;
响应于所述第三输入,将所述第一属性信息更新为所述第二属性信息,并将所述第一表情标识更新为所述第二情绪类型对应的第三表情标识。
7.一种视频显示装置,其特征在于,包括:
获取模块,用于获取目标视频帧,所述目标视频帧包括目标人物;
第一显示模块,用于在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识;
其中,所述第一情绪类型包括以下至少一项:所述目标人物的面部表情所属的情绪类型、所述目标人物的语音信息所属的情绪类型。
8.根据权利要求7所述的视频显示装置,其特征在于,所述第一表情标识包括以下至少一项:表情贴纸、文本贴纸;
其中,所述文本贴纸的显示方式与所述第一情绪类型相关联。
9.根据权利要求7所述的视频显示装置,其特征在于,所述第一情绪类型包括所述目标人物的面部表情所属的情绪类型;
所述第一显示模块包括:
第一获取单元,用于获取所述目标人物的目标面部表情信息;
第一显示单元,用于在所述目标视频帧的目标区域,显示所述目标面部表情信息所属的第一情绪类型对应的至少一个表情贴纸。
10.根据权利要求7所述的视频显示装置,其特征在于,所述第一情绪类型包括所述目标人物的语音信息所属的情绪类型;
所述第一显示模块包括:
第二获取单元,用于获取所述目标人物的目标语音信息;
第二显示单元,用于在所述目标视频帧的目标区域,以目标显示方式,显示所述目标语音信息的内容对应的文本贴纸;
其中,所述目标显示方式与所述目标语音信息所属的第一情绪类型相关联。
11.根据权利要求7所述的视频显示装置,其特征在于,还包括:
第一接收模块,用于在所述目标视频帧的目标区域,显示第一情绪类型对应的第一表情标识之后,接收用户对所述第一表情标识的第一输入;
第一响应模块,用于响应于所述第一输入,将所述第一表情标识更新为第二表情标识。
12.根据权利要求7所述的视频显示装置,其特征在于,还包括:
第二显示模块,用于在获取目标视频帧之后,显示所述目标人物的第一情绪类型的第一属性信息;
第二接收模块,用于在所述目标视频帧的目标区域,显示第一标情绪类型对应的第一表情标识之后,接收用户对所述第一属性信息的第二输入;
第二响应模块,用于响应于所述第二输入,显示至少一个备选情绪类型的属性信息;
第三接收模块,用于接收用户对所述至少一个备选情绪类型的属性信息中的第二情绪类型的第二属性信息的第三输入;
第三响应模块,用于响应于所述第三输入,将所述第一属性信息更新为所述第二属性信息,并将所述第一表情标识更新为所述第二情绪类型对应的第三表情标识。
13.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至6中任一项所述的视频显示方法的步骤。
CN202010306986.0A 2020-04-17 2020-04-17 视频显示方法、装置及电子设备 Pending CN111372029A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010306986.0A CN111372029A (zh) 2020-04-17 2020-04-17 视频显示方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010306986.0A CN111372029A (zh) 2020-04-17 2020-04-17 视频显示方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN111372029A true CN111372029A (zh) 2020-07-03

Family

ID=71210952

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010306986.0A Pending CN111372029A (zh) 2020-04-17 2020-04-17 视频显示方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111372029A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112135083A (zh) * 2020-09-27 2020-12-25 广东小天才科技有限公司 一种视频通话过程中脸舞互动的方法及系统
CN112565913A (zh) * 2020-11-30 2021-03-26 维沃移动通信有限公司 视频通话方法、装置和电子设备
CN112633170A (zh) * 2020-12-23 2021-04-09 平安银行股份有限公司 通讯优化方法、装置、设备及介质
CN113141297A (zh) * 2021-03-29 2021-07-20 维沃移动通信有限公司 聊天提示方法、装置、电子设备及介质
WO2024116378A1 (ja) * 2022-12-01 2024-06-06 日本電信電話株式会社 情報提示装置、情報提示方法、及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101557440A (zh) * 2008-04-07 2009-10-14 株式会社Ntt都科摩 情绪识别消息系统、其移动通信终端和消息存储服务器
EP2753076A2 (en) * 2013-01-07 2014-07-09 Samsung Electronics Co., Ltd Method for user function operation based on face recognition and mobile terminal supporting the same
CN106060572A (zh) * 2016-06-08 2016-10-26 乐视控股(北京)有限公司 视频播放方法及装置
CN107516533A (zh) * 2017-07-10 2017-12-26 阿里巴巴集团控股有限公司 一种会话信息处理方法、装置、电子设备
CN108377418A (zh) * 2018-02-06 2018-08-07 北京奇虎科技有限公司 一种视频标注处理方法和装置
CN108960204A (zh) * 2018-08-02 2018-12-07 台州市金算子知识产权服务有限公司 人脸识别的表情涂鸦方法、装置、存储介质及电子设备
WO2019201511A1 (en) * 2018-04-18 2019-10-24 Sony Corporation Method and data processing apparatus
CN110377761A (zh) * 2019-07-12 2019-10-25 深圳传音控股股份有限公司 一种增强视频体验的方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101557440A (zh) * 2008-04-07 2009-10-14 株式会社Ntt都科摩 情绪识别消息系统、其移动通信终端和消息存储服务器
EP2753076A2 (en) * 2013-01-07 2014-07-09 Samsung Electronics Co., Ltd Method for user function operation based on face recognition and mobile terminal supporting the same
CN103916536A (zh) * 2013-01-07 2014-07-09 三星电子株式会社 用于移动终端中的用户界面方法和系统
CN106060572A (zh) * 2016-06-08 2016-10-26 乐视控股(北京)有限公司 视频播放方法及装置
CN107516533A (zh) * 2017-07-10 2017-12-26 阿里巴巴集团控股有限公司 一种会话信息处理方法、装置、电子设备
CN108377418A (zh) * 2018-02-06 2018-08-07 北京奇虎科技有限公司 一种视频标注处理方法和装置
WO2019201511A1 (en) * 2018-04-18 2019-10-24 Sony Corporation Method and data processing apparatus
CN108960204A (zh) * 2018-08-02 2018-12-07 台州市金算子知识产权服务有限公司 人脸识别的表情涂鸦方法、装置、存储介质及电子设备
CN110377761A (zh) * 2019-07-12 2019-10-25 深圳传音控股股份有限公司 一种增强视频体验的方法及装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112135083A (zh) * 2020-09-27 2020-12-25 广东小天才科技有限公司 一种视频通话过程中脸舞互动的方法及系统
CN112565913A (zh) * 2020-11-30 2021-03-26 维沃移动通信有限公司 视频通话方法、装置和电子设备
CN112633170A (zh) * 2020-12-23 2021-04-09 平安银行股份有限公司 通讯优化方法、装置、设备及介质
CN112633170B (zh) * 2020-12-23 2024-05-31 平安银行股份有限公司 通讯优化方法、装置、设备及介质
CN113141297A (zh) * 2021-03-29 2021-07-20 维沃移动通信有限公司 聊天提示方法、装置、电子设备及介质
CN113141297B (zh) * 2021-03-29 2023-02-24 维沃移动通信有限公司 聊天提示方法、装置、电子设备及介质
WO2024116378A1 (ja) * 2022-12-01 2024-06-06 日本電信電話株式会社 情報提示装置、情報提示方法、及びプログラム

Similar Documents

Publication Publication Date Title
CN111372029A (zh) 视频显示方法、装置及电子设备
CN108737904B (zh) 一种视频数据处理方法及移动终端
CN107943390B (zh) 一种文字复制方法及移动终端
CN108132752B (zh) 一种文本编辑方法及移动终端
CN110557565B (zh) 视频处理方法和移动终端
CN111445927B (zh) 一种音频处理方法及电子设备
CN110830362B (zh) 一种生成内容的方法、移动终端
CN109660728B (zh) 一种拍照方法及装置
CN109815462B (zh) 一种文本生成方法及终端设备
CN110995919B (zh) 一种消息处理方法和电子设备
CN107748640B (zh) 一种熄屏显示方法及移动终端
CN109993821B (zh) 一种表情播放方法及移动终端
CN110830368B (zh) 即时通讯消息发送方法及电子设备
CN111026305A (zh) 音频处理方法及电子设备
CN108600079B (zh) 一种聊天记录展示方法及移动终端
CN110544287A (zh) 一种配图处理方法及电子设备
CN108563392B (zh) 一种图标显示控制方法及移动终端
CN107944040B (zh) 一种歌词的显示方法和移动终端
CN110062281B (zh) 一种播放进度调节方法及其终端设备
CN109669710B (zh) 便签处理方法及终端
CN110795188A (zh) 一种消息交互方法及电子设备
CN108959585B (zh) 一种表情图片获取方法和终端设备
CN108632465A (zh) 一种语音输入的方法及移动终端
CN111190528B (zh) 笔刷显示方法、电子设备及存储介质
CN111126388B (zh) 图像识别的方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200703

RJ01 Rejection of invention patent application after publication