CN110110142A - 视频处理方法、装置、电子设备及介质 - Google Patents
视频处理方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN110110142A CN110110142A CN201910319229.4A CN201910319229A CN110110142A CN 110110142 A CN110110142 A CN 110110142A CN 201910319229 A CN201910319229 A CN 201910319229A CN 110110142 A CN110110142 A CN 110110142A
- Authority
- CN
- China
- Prior art keywords
- user
- video
- processed
- image data
- replacement instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Abstract
本申请公开了一种视频处理方法、装置、电子设备及介质。其中,本申请中,当获取待处理视频数据之后,可以基于待处理视频数据,检测第一用户是否生成替换指令,并再检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物生成的替换指令,将待处理视频中的部分图像进行对应添加或切换。进而可以提高在线远程视频连线时,学生与老师间的互动性。
Description
技术领域
本申请中涉及图像处理技术,尤其是一种视频处理方法、装置、电子设备及介质。
背景技术
随着社会的发展,越来越多的人会选择学习各种各样的知识来不断扩充自己。其中,由于传统的学生与教师面对面授课均需要双方在路上耗费大量的时间及精力。因此,随着通信时代的发展,网络授课已被广大的用户所接受。
一般的,网络授课是基于互联网络远程在线的互动培训课堂。网络授课是采用音视频传输以及数据协同等网络传输技术,模拟真实课堂环境,通过网络给学生提供有效地培训环境。进一步的,网络授课不仅可以避免线下授课带来的额外耗费时间精力的问题,还可以在授课结束后,随时观看授课时的回放视频,以便巩固所学知识。在一般的远程授课视频中,通常由教师端和学生端通过使用自身的智能设备,完成由老师向学生进行课程教育的过程。
然而,采用上述提及的在线授课方式由于客观存在的教师和学生间的远距离沟通交流,从而可能出现:师生间互动不够充分而导致的学生学习效率不佳的问题。
发明内容
本发明的实施例提供一种视频处理方法、装置、电子设备及介质。
其中,根据本申请实施例的一个方面,提供的一种视频处理方法,其特征在于,包括:
获取待处理视频数据;
基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;
当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。
可选地,在基于本申请上述方法的另一个实施例中,所述检测第一用户是否生成替换指令,包括:
检测所述第一用户的肢体特征,并基于所述肢体特征,判定所述第一用户是否生成替换指令;
和/或,
检测所述第一用户的音频特征,并基于所述音频特征,判定所述第一用户是否生成替换指令。
可选地,在基于本申请上述方法的另一个实施例中,所述检测所述第一用户的肢体特征,并基于所述肢体特征,判定所述第一用户是否生成替换指令,包括:
检测所述第一用户的手指特征;
基于所述第一用户的手指特征,确定所述第一用户的手指朝向为预设方向时,判定所述第一用户生成所述替换指令。
可选地,在基于本申请上述方法的另一个实施例中,在所述检测所述第一用户的手指特征之后,还包括:
检测所述第一用户的手臂特征;以及所述基于所述第一用户的手指特征,确定所述第一用户的手指朝向为预设方向时,判定所述第一用户生成所述替换指令,包括:
基于所述第一用户的手指特征,确定所述第一用户的手指朝向为预设方向,以及,当基于所述第一用户的手臂特征,确定所述第一用户的手指与手臂的夹角小于预定角度时,判定所述第一用户生成所述替换指令。
可选地,在基于本申请上述方法的另一个实施例中,所述检测所述第一用户的音频特征,并基于所述音频特征,判定所述第一用户是否生成替换指令,包括:
获取所述第一用户的音频特征;
将所述第一用户的音频特征,与数据库中的各图像数据进行匹配;
当得到第三图像数据时,判定所述第一用户生成所述替换指令,所述第三图像数据为在所述数据库中,与所述第一用户的音频特征相匹配的图像数据。
可选地,在基于本申请上述方法的另一个实施例中,所述当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据,包括:
当检测到所述第一用户生成所述替换指令时,将所述待处理视频中,目标区域的第一图像数据替换成所述第二图像数据;
和/或,
当检测到所述第一用户生成所述替换指令时,将所述待处理视频中,第二用户的第一图像数据替换成所述第二图像数据。
可选地,在基于本申请上述方法的另一个实施例中,在所述当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据之后,还包括:
当检测到所述第一用户生成恢复指令时,将所述待处理视频中的第二图像数据恢复为所述第一图像数据。
可选地,在基于本申请上述方法的另一个实施例中,所述检测所述第一用户是否生成替换指令,包括:
基于神经网络图像语义分割模型,检测所述第一用户是否生成所述替换指令。
可选地,在基于本申请上述方法的另一个实施例中,在所述基于神经网络图像语义分割模型,检测所述第一用户是否生成所述替换指令之前,还包括:
获取样本图像,其中,所述样本图像包括至少一个样本特征;
利用所述样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的所述神经网络图像语义分割模型。
根据本申请实施例的另一个方面,提供的一种视频处理装置,包括:
获取模块,被配置为获取待处理视频数据;
检测模块,被配置为基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;
替换模块,被配置为当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述视频处理方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述视频处理方法的操作。
本申请中,当获取待处理视频数据之后,可以基于待处理视频数据,检测第一用户是否生成替换指令,并再检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据。通过应用本申请的技术方案,可以根据监测到的待处理视频中目标人物生成的替换指令,将待处理视频中的部分图像进行对应添加或切换。进而可以提高在线远程视频连线时,学生与老师间的互动性。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请视频处理方法的系统架构示意图。
图2为本申请视频处理方法另一个实施例的流程图。
图3a-图3i为本申请中对待处理视频进行图像数据替换的画面。
图4为本申请视频处理方法又一个实施例的流程图。
图5为本申请视频处理装置的结构示意图。
图6为本申请显示电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
需要说明,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本申请中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本申请中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
下面结合图1至图4来描述根据本申请示例性实施方式的用于进行视频处理方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
图1示出了可以应用本申请实施例的视频处理方法或视频处理装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
本申请中的终端设备101、102、103可以为提供各种服务的终端设备。例如用户通过终端设备103(也可以是终端设备101或102)获取待处理视频数据;基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。
在此需要说明的是,本申请实施例所提供的视频处理方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的视频处理装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
本申请还提出一种视频处理方法、装置、目标终端及介质。
图2示意性地示出了根据本申请实施方式的一种视频处理方法的流程示意图。如图2所示,该方法包括:
S101,获取待处理视频数据。
首先需要说明的是,本申请中,不对获取待处理视频的设备做具体限定,例如,本申请可以由智能设备获取用户生成的待处理视频,也可以由服务器获取用户生成的待处理视频。
另外,本申请中,不对智能设备做具体限定,即智能设备可以为任意的智能设备,例如,手机,电子笔记本,PDA等等。
可选的,本申请中不对待处理视频做具体限定,即本申请中的待处理视频可以为任意的视频。在一种优选的实施方式中,待处理视频可以是在线教学类的课堂视频。进一步的,为了方便描述,以下本申请均以待处理视频为在线教学课堂视频为例进行举例说明。
S102,基于待处理视频数据,检测第一用户是否生成替换指令,第一用户为出现在待处理视频中的用户。
可选的,本申请在获取待处理视频后,可以进一步的在待处理视频中,检测第一用户是否生成有替换指令,其中,第一用户可以为出现在待处理视频中的用户。在此需要说明的是,第一用户可以为待处理视频中的任一用户。例如,在教学类课堂视频中,第一用户可以为老师,第一用户也可以为多个学生中的任意一位。
另外,本申请同样不对替换指令的具体形式做限定,即替代指令可以为由第一用户通过肢体方式而生成的指令,替代指令也可以为由第一用户通过语音方式而生成的指令,又或,替代指令也可以为由第一用户通过输入数据方式而生成的指令。
S103,当检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据。
可选的,本申请中,在基于待处理视频数据,检测第一用户是否生成替换指令之后,可以进一步的在确定检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据。
其中,替换指令用于替换待处理视频中,某个区域的图像数据。例如,替换指令可以用于替换待处理视频中,某个人物的头像,使其从自身的头像被替换为其他用户的头像,以增加互动的趣味性。或者,替换指令也可以用于增加在待处理视频中,某个位置的图像,例如,在一节英语教学的视频中,可以在老师说出一段中文内容且生成替换指令后,在老师的头部旁边出现有关该发言内容的英文内容,使观看者可以更加清晰直观的理解该段内容,以增加学习的效率。
还需要说明的是,本申请可以由多种方式实现将待处理视频中的第一图像数据替换成第二图像数据。例如,本申请可以首先将待处理视频中的第一图像数据进行删除,进而再将第二图像数据放入到原本属于第一图像数据的区域。或者,本申请也可以在确定第一图像数据在待处理视频中的位置和区域大小后,直接将符合该区域大小的第二图像数据覆盖在第一图像数据所在待处理视频的位置上,已达到在视频中替换图像的效果。
另外,本申请中,不对第一图像数据以及第二图像数据做任何限定,也即第一图像数据可以为待处理视频中,任意区域的任意图像数据。可以理解的,第二图像数据可以为与第一图像数据在待处理视频中,具有相同大小的任意图像数据。
进一步的,本申请中,不对第一图像数据替换成第二图像数据的时间做具体限定,即本申请可以在检测到第一用户生成替换指令时,立即将待处理视频中的第一图像数据替换成第二图像数据。本申请也可以在检测到第一用户生成替换指令时,在预设时间段后将待处理视频中的第一图像数据替换成第二图像数据。
本申请中,当获取待处理视频数据之后,可以基于待处理视频数据,检测第一用户是否生成替换指令,并再检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据。通过应用本申请的技术方案,可以根据监测到的待处理视频中目标人物生成的替换指令,将待处理视频中的部分图像进行对应添加或切换。进而可以提高在线远程视频连线时,学生与老师间的互动性。
可选的,在本申请S102(检测第一用户是否生成替换指令)中,可以由以下两种方式的任意一种或多种生成得到:
第一种方式:
检测第一用户的肢体特征,并基于肢体特征,判定第一用户是否生成替换指令。
可选的,本申请中可以通过检测待处理视频中,第一用户的肢体特征,并基于第一用户生成的肢体特征,判断其是否发出了替换指令。
需要说明的是,本申请中,不对第一用户的肢体特征做具体限定,即第一用户可以采用其任意的肢体生成替换指令。例如,第一用户可以通过其手臂动作生成替换指令,第一用户也可以通过其头部动作生成替换指令。另外需要说明的是,第一用户也可以通过其多种肢体特征的组合,生成对应的替换指令。例如,第一用户可以通过其手臂与头部的肢体组合动作,生成替换指令。
以第一用户为老师,且其通过头部器官的动作生成替换指令举例,如图3a,图3b所示:在当检测到待处理视频中,老师出现连续三下摇头的肢体动作时,可以在视频中老师的旁边生成一个无奈的表情,以供同为该课堂视频的学生观看,以提高在线课堂视频的互动性。
在本申请的一种可能的实施方式中,本申请中在通过检测待处理视频中,第一用户的肢体特征,并基于第一用户生成的肢体特征,判断其是否发出了替换指令时,还可以通过以下方式具体生成得到:
检测第一用户的手指特征。
基于第一用户的手指特征,确定第一用户的手指朝向为预设方向时,判定第一用户生成替换指令。
可选的,本申请中不对第一用户的手指朝向做具体限定,即本申请可以在检测到第一用户将自身手指方向指向东南西北的某一方位时,判定第一用户生成替换指令。又或,也可以在检测到第一用户将自身手指方向指向自身的某一器官时,判定第一用户生成替换指令。
进一步而言,同样以第一用户为老师,且其通过手指动作生成替换指令举例,如图3c,图3d所示:在当检测到待处理视频中,老师出现将手指指向天空的肢体动作时,判定检测到的老师的该肢体特征为生成用于鼓掌的替换指令,进一步的,可以在视频中的特定区域生成一个鼓掌的表情标识,以供同为该课堂视频的学生观看,以提高在线课堂视频的互动性。
在本申请另外一种可能的实施方式中,本申请在检测第一用户的手指特征之后,还可以进一步的检测第一用户的手臂特征;
基于第一用户的手指特征,确定第一用户的手指朝向为预设方向,以及,当基于第一用户的手臂特征,确定第一用户的手指与手臂的夹角小于预定角度时,判定第一用户生成替换指令。
可选的,本申请中,可以在检测到第一用户的手指指向与第一用户的手臂夹角小于预定角度时,判定该第一用户当前生成了替换指令。
可以理解的,为了避免老师在讲课过程中,由于手部的无意动作导致生成特定的替换指令所带来的用户体验不佳的问题。例如,当老师无意将手指特意指向自己的面部器官时,通常其手指与手臂的夹角为小于90度,然而当老师特意将手指特意指向自己的面部器官时,通常其手指与手臂的夹角为大于90度。本申请中,可以在检测第一用户的手指朝向时,还进一步的检测用户的手指与手臂的夹角,以确定第一用户在做出该手指朝向的动作时,是由于其本意所生成还是无意生成的。
进一步而言,同样以第一用户为老师,且其通过手指朝向以及手指手臂夹角的组合动作生成替换指令举例,如图3e,图3f所示:在当检测到待处理视频中,老师出现将手指指向黑板的肢体动作时,确定老师的手指朝向为预设方向。另外,进一步的检测到老师的手指与手臂的夹角a为大于90°的角度时,判定老师的该肢体特征为生成用于翻译自己讲话内容的替换指令,进一步的,可以在视频中的特定区域生成一个将老师讲话内容翻译成特定语言的提示框,以供同为该课堂视频的学生观看,以提高在线课堂视频的授课效率。
第二种方式:
检测第一用户的音频特征,并基于音频特征,判定第一用户是否生成替换指令。
可选的,本申请中可以通过检测待处理视频中,第一用户的音频特征,并基于第一用户生成的音频特征,判断其是否发出了替换指令。
需要说明的是,本申请中,不对第一用户的音频特征做具体限定,即第一用户可以利用任意的音频生成替换指令。例如,第一用户可以通过其具有明确含义的语言生成替换指令,第一用户也可以通过预先设置的特定声音生成替换指令。另外还需要说明的是,第一用户也可以通过其肢体特征以及音频的组合,生成对应的替换指令。例如,第一用户可以通过其手指与音频的肢体组合方式,生成替换指令。
以第一用户为老师,且其通过音频来生成替换指令举例:如图3g所示,在通过检测老师的音频特征检测待处理视频时,确定老师说出表扬的字段时,可以在视频中学生的旁边生成一个小红花(或奖状等)的图像标识,以供同为该课堂视频的学生观看,以提高在线课堂视频的互动性。
在本申请再一种可能的实施方式中,在检测第一用户的音频特征,并基于音频特征,判定第一用户是否生成替换指令的实施方式中,可以通过以下方式得到:
获取第一用户的音频特征;
将第一用户的音频特征,与数据库中的各图像数据进行匹配;
当得到第三图像数据时,判定第一用户生成替换指令,第三图像数据为在数据库中,与第一用户的音频特征相匹配的图像数据。
本申请中,可以在获取第一用户的音频后,从数据库中查找与该音频对应的图像数据,并在确定数据库中存在能与该音频对应的图像数据后,再判定该第一用户生成的音频为用于生成替换指令的音频特征。
例如,同样以第一用户为老师,且其通过手指以及音频的组合方式生成替换指令举例,如图3h,图3i所示:在当检测到待处理视频中,老师出现将手指指向第一学生的肢体动作,且通过检测老师的音频特征,确定老师说出“熊大”的语音时,判定老师的该肢体与音频的组合方式为可能生成用于替换学生头像的替换指令,进一步的,将根据该“熊大”的音频得到对应的文本后,将该“熊大”的文本与数据库中的各图像数据进行匹配,并在确定数据库中包含“熊大”的图像数据后,在待处理视频中,将该第一学生的头像替换成熊大的动画头像,以供同为该课堂视频的学生观看,以提高在线课堂视频的互动性。
在此需要注意的是,本申请中,上述提及的检测第一用户是否生成替换指令的两种实施方式中,可以由其中任一种实施方式单独实行,也可以由该两种方式同时进行。本申请对此不做限定。
进一步可选的,在本申请的一种实施方式中,在S103(当检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据)中,还包括一种具体的实施方式,如图4所示,包括:
S201,获取待处理视频数据。
S202,基于待处理视频数据,检测第一用户是否生成替换指令。
本申请中,可以基于神经网络图像语义分割模型,检测第一用户是否生成替换指令,具体方式可以为:
获取样本图像,其中,样本图像包括至少一个样本特征;
利用样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的神经网络图像语义分割模型。
可选的,本申请的针对监测的待处理视频中,可以通过多个方式检测第一用户是否生成替换指令,例如可以检测用户的四肢器官特征,也可以检测用户的面部特征。进一步的,本申请可以利用神经网络模型,来对目标用户的肢体特征进行检测并分析。
进一步的,本申请可以通过神经网络图像语义分割模型,来识别待处理视频中的图像所包括的至少一个对象(肢体特征)。更进一步而言,神经网络图像语义分割模型还可以对目标图像中的面部特征中的每一器官特征进行分类,并且将属于同一分类的器官特征分为同一类型,这样,目标图像进行语义分割之后所得到的面部特征可以为多个不同的器官特征所组成的面部特征。
可选的,对于所使用的神经网络图像语义分割模型,一种实施方式中,可以通过样本图像对神经网络图像语义分割模型进行训练。具体地,可以获取样本图像,并利用样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的神经网络图像语义分割模型。
其中,样本图像包括至少一个样本肢体特征,样本肢体特征可以与本申请实施例中的肢体特征相同。例如,样本图像中的样本面部特征可以包括用户的眼部特征,唇部特征,额头特征,耳部特征,手指特征,手臂特征等等。
神经网络图像语义分割模型对样本图像进行语义分割处理时,对样本图像中的像素点分类越准确,则识别样本图像中的标记对象的准确率越高。其中需要说明的是,预设条件可以是自定义设定的。
例如,可以设定预设条件为:对像素点的分类准确率达到70%以上,那么,样本图像对神经网络图像语义分割模型进行反复训练,在神经网络图像语义分割模型对像素点的分类准确率达到70%以上时,则此时该神经网络图像语义分割模型可以应用在本发明实施例中,对目标图像进行语义分割处理。
S203,当检测到第一用户生成替换指令时,将待处理视频中,目标区域的第一图像数据替换成第二图像数据。
可选的,本申请在基于待处理视频数据,检测第一用户是否生成替换指令之后,可以进一步的在检测到第一用户生成替换指令时,将待处理视频中的目标区域的第一图像数据替换成第二图像数据。
其中,本申请不对目标区域做具体限定,即目标区域可以为待处理视频中的任意一个区域。同样的,本申请也不对目标区域在待处理视频中的大小做具体限定。目标区域的具体变化并不会影响本申请的保护范围。
S204,当检测到第一用户生成替换指令时,将待处理视频中,第二用户的第一图像数据替换成第二图像数据。
与S203相同,本申请在基于待处理视频数据,检测第一用户是否生成替换指令之后,可以进一步的在检测到第一用户生成替换指令时,将待处理视频中的第二用户的第一图像数据替换成第二图像数据。
其中,第二用户的第一图像数据可以为第二用户中,任意的图像数据。例如,当检测到第一用户生成替换指令时,可以将待处理视频中,位于第二用户头部的图像数据替换成第二图像数据(例如其他用户的头像或是动画头像等)。又或,检测到第一用户生成替换指令时,也可以将待处理视频中,第二用户的图像数据替换成第二图像数据(例如其他用户或是动画形象等)。还需要说明的是,本申请中的第二用户与第一用户可以为同一用户,第二用户与第一用户也可以不为同一用户。
需要注意的是,本申请中的步骤S203以及S204可以为单独实施的步骤,步骤S203以及S204也可以为并列实施的步骤。本申请对此不做限定。
S205,当检测到第一用户生成恢复指令时,将待处理视频中的第二图像数据恢复为第一图像数据。
可选的,本申请中在当检测到第一用户生成替换指令时,将待处理视频中,第二用户的第一图像数据替换成第二图像数据之后,还可以进一步的检测该第一用户是否针对替换指令生成了恢复指令。其中,该恢复指令用于将待处理视频中的第二图像数据恢复为第一图像数据。以避免在线课堂视频中,第二图像数据长期替换成第一图像数据所带来的长时间遮挡视频的问题。
本申请中,当获取待处理视频数据之后,可以基于神经网络网络模型,检测待处理视频中第一用户是否生成替换指令,并再检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据。通过应用本申请的技术方案,可以确定监测到的待处理视频中目标人物生成替换指令后,将待处理视频中的部分图像进行对应添加或切换。进而可以提高在线远程课堂视频时,提高学习的效率。
在本申请的另外一种实施方式中,如图5所示,本申请还提供一种视频处理装置,该装置包括获取模块301,检测模块302,替换模块303,其中,
获取模块301,被配置为获取待处理视频数据;
检测模块302,被配置为基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;
替换模块303,被配置为当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。
本申请中,当获取待处理视频数据之后,可以基于待处理视频数据,检测第一用户是否生成替换指令,并再检测到第一用户生成替换指令时,将待处理视频中的第一图像数据替换成第二图像数据。通过应用本申请的技术方案,可以根据监测到的待处理视频中目标人物生成的替换指令,将待处理视频中的部分图像进行对应添加或切换。进而可以提高在线远程视频连线时,学生与老师间的互动性。
可选的,在本申请的另一种实施方式中,检测模块302,还包括,检测单元,其中:
检测单元,被配置为检测所述第一用户的肢体特征,并基于所述肢体特征,判定所述第一用户是否生成替换指令;
和/或,
检测单元,被配置为检测所述第一用户的音频特征,并基于所述音频特征,判定所述第一用户是否生成替换指令。
在本申请的另外一种实施方式中,检测模块302,还包括,判定单元,其中:
检测单元,被配置为检测所述第一用户的手指特征;
判定单元,被配置为当基于所述第一用户的手指特征,确定所述第一用户的手指朝向为预设方向时,判定所述第一用户生成所述替换指令。
在本申请的另一种实施方式中,检测模块302还包括,获取单元,匹配单元,其中:
检测单元,被配置为获取所述第一用户的音频特征;
匹配单元,被配置为将所述第一用户的音频特征,与数据库中的各图像数据进行匹配;
判定单元,被配置为当得到第三图像数据时,判定所述第一用户生成所述替换指令,所述第三图像数据为在所述数据库中,与所述第一用户的音频特征相匹配的图像数据。
在本申请的另一种实施方式中,替换模块303,还包括:
替换模块303,被配置为当检测到所述第一用户生成所述替换指令时,将所述待处理视频中,目标区域的第一图像数据替换成所述第二图像数据;
和/或,
替换模块303,被配置为当检测到所述第一用户生成所述替换指令时,将所述待处理视频中,第二用户的第一图像数据替换成所述第二图像数据。
在本申请的另一种实施方式中,还包括,回复模块304,其中:
回复模块304,被配置为当检测到所述第一用户生成恢复指令时,将所述待处理视频中的第二图像数据恢复为所述第一图像数据。
在本申请的另一种实施方式中,检测模块302,还包括:
检测模块302,被配置为基于神经网络图像语义分割模型,监测所述待处理视频中,所述目标用户的面部特征。
在本申请的另一种实施方式中,检测模块302,还包括:
获取单元,被配置为获取样本图像,其中,所述样本图像包括至少一个样本面部特征;
生成单元,被配置为利用所述样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的所述神经网络图像语义分割模型。
图6是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,电子设备400可以包括以下一个或多个组件:处理器401和存储器402。
处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请中方法实施例提供的互动特效标定方法。
在一些实施例中,电子设备400还可选包括有:外围设备接口403和至少一个外围设备。处理器401、存储器402和外围设备接口403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口403相连。具体地,外围设备包括:射频电路404、触摸显示屏405、摄像头406、音频电路407、定位组件408和电源409中的至少一种。
外围设备接口403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和外围设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和外围设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置电子设备400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在电子设备400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在电子设备400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
定位组件408用于定位电子设备400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件408可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源409用于为电子设备400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以电子设备400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测电子设备400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在电子设备400的侧边框和/或触摸显示屏405的下层。当压力传感器413设置在电子设备400的侧边框时,可以检测用户对电子设备400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏405的下层时,由处理器401根据用户对触摸显示屏405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置电子设备400的正面、背面或侧面。当电子设备400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制触摸显示屏405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏405的显示亮度;当环境光强度较低时,调低触摸显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
接近传感器416,也称距离传感器,通常设置在电子设备400的前面板。接近传感器416用于采集用户与电子设备400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变小时,由处理器401控制触摸显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变大时,由处理器401控制触摸显示屏405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对电子设备400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由电子设备400的处理器420执行以完成上述视频处理方法,该方法包括:获取待处理视频数据;基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备400的处理器420执行,以完成上述视频处理方法,该方法包括:获取待处理视频数据;基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (12)
1.一种视频处理方法,其特征在于,包括:
获取待处理视频数据;
基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;
当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。
2.如权利要求1所述的方法,其特征在于,所述检测第一用户是否生成替换指令,包括:
检测所述第一用户的肢体特征,并基于所述肢体特征,判定所述第一用户是否生成替换指令;
和/或,
检测所述第一用户的音频特征,并基于所述音频特征,判定所述第一用户是否生成替换指令。
3.如权利要求2所述的方法,其特征在于,所述检测所述第一用户的肢体特征,并基于所述肢体特征,判定所述第一用户是否生成替换指令,包括:
检测所述第一用户的手指特征;
基于所述第一用户的手指特征,确定所述第一用户的手指朝向为预设方向时,判定所述第一用户生成所述替换指令。
4.如权利要求3所述的方法,其特征在于,在所述检测所述第一用户的手指特征之后,还包括:
检测所述第一用户的手臂特征;以及所述基于所述第一用户的手指特征,确定所述第一用户的手指朝向为预设方向时,判定所述第一用户生成所述替换指令,包括:
基于所述第一用户的手指特征,确定所述第一用户的手指朝向为预设方向,以及,当基于所述第一用户的手臂特征,确定所述第一用户的手指与手臂的夹角小于预定角度时,判定所述第一用户生成所述替换指令。
5.如权利要求2所述的方法,其特征在于,所述检测所述第一用户的音频特征,并基于所述音频特征,判定所述第一用户是否生成替换指令,包括:
获取所述第一用户的音频特征;
将所述第一用户的音频特征,与数据库中的各图像数据进行匹配;
当得到第三图像数据时,判定所述第一用户生成所述替换指令,所述第三图像数据为在所述数据库中,与所述第一用户的音频特征相匹配的图像数据。
6.如权利要求1所述的方法,其特征在于,所述当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据,包括:
当检测到所述第一用户生成所述替换指令时,将所述待处理视频中,目标区域的第一图像数据替换成所述第二图像数据;
和/或,
当检测到所述第一用户生成所述替换指令时,将所述待处理视频中,第二用户的第一图像数据替换成所述第二图像数据。
7.如权利要求1或6所述的方法,其特征在于,在所述当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据之后,还包括:
当检测到所述第一用户生成恢复指令时,将所述待处理视频中的第二图像数据恢复为所述第一图像数据。
8.如权利要求1所述的方法,其特征在于,所述检测所述第一用户是否生成替换指令,包括:
基于神经网络图像语义分割模型,检测所述第一用户是否生成所述替换指令。
9.如权利要求8所述的方法,其特征在于,在所述基于神经网络图像语义分割模型,检测所述第一用户是否生成所述替换指令之前,还包括:
获取样本图像,其中,所述样本图像包括至少一个样本特征;
利用所述样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的所述神经网络图像语义分割模型。
10.一种视频处理装置,其特征在于,包括:
获取模块,被配置为获取待处理视频数据;
检测模块,被配置为基于所述待处理视频数据,检测第一用户是否生成替换指令,所述第一用户为出现在所述待处理视频中的用户;
替换模块,被配置为当检测到所述第一用户生成所述替换指令时,将所述待处理视频中的第一图像数据替换成第二图像数据。
11.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
显示器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-9中任一所述视频处理方法的操作。
12.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-9中任一所述视频处理方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910319229.4A CN110110142A (zh) | 2019-04-19 | 2019-04-19 | 视频处理方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910319229.4A CN110110142A (zh) | 2019-04-19 | 2019-04-19 | 视频处理方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110110142A true CN110110142A (zh) | 2019-08-09 |
Family
ID=67486050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910319229.4A Pending CN110110142A (zh) | 2019-04-19 | 2019-04-19 | 视频处理方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110110142A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111343507A (zh) * | 2020-02-29 | 2020-06-26 | 北京大米未来科技有限公司 | 在线授课方法、装置、存储介质和电子设备 |
CN112565913A (zh) * | 2020-11-30 | 2021-03-26 | 维沃移动通信有限公司 | 视频通话方法、装置和电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106358069A (zh) * | 2016-10-31 | 2017-01-25 | 维沃移动通信有限公司 | 一种视频数据处理方法及移动终端 |
US20170102776A1 (en) * | 2008-08-14 | 2017-04-13 | Sony Corporation | Information processing apparatus, method and program |
CN108259968A (zh) * | 2017-12-13 | 2018-07-06 | 华为技术有限公司 | 视频弹幕的处理方法、系统以及相关设备 |
CN108289180A (zh) * | 2018-01-30 | 2018-07-17 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN108932053A (zh) * | 2018-05-21 | 2018-12-04 | 腾讯科技(深圳)有限公司 | 基于手势的绘图方法、装置、存储介质和计算机设备 |
US20190116397A1 (en) * | 2017-10-13 | 2019-04-18 | Hon Hai Precision Industry Co., Ltd. | Electronic device and method for broadcasting video according to a user's emotive response |
-
2019
- 2019-04-19 CN CN201910319229.4A patent/CN110110142A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170102776A1 (en) * | 2008-08-14 | 2017-04-13 | Sony Corporation | Information processing apparatus, method and program |
CN106358069A (zh) * | 2016-10-31 | 2017-01-25 | 维沃移动通信有限公司 | 一种视频数据处理方法及移动终端 |
US20190116397A1 (en) * | 2017-10-13 | 2019-04-18 | Hon Hai Precision Industry Co., Ltd. | Electronic device and method for broadcasting video according to a user's emotive response |
CN108259968A (zh) * | 2017-12-13 | 2018-07-06 | 华为技术有限公司 | 视频弹幕的处理方法、系统以及相关设备 |
CN108289180A (zh) * | 2018-01-30 | 2018-07-17 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
CN108932053A (zh) * | 2018-05-21 | 2018-12-04 | 腾讯科技(深圳)有限公司 | 基于手势的绘图方法、装置、存储介质和计算机设备 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111343507A (zh) * | 2020-02-29 | 2020-06-26 | 北京大米未来科技有限公司 | 在线授课方法、装置、存储介质和电子设备 |
CN112565913A (zh) * | 2020-11-30 | 2021-03-26 | 维沃移动通信有限公司 | 视频通话方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796005A (zh) | 在线教学监控的方法、装置、电子设备及介质 | |
WO2020211607A1 (zh) | 生成视频的方法、装置、电子设备及介质 | |
CN110750992A (zh) | 命名实体识别方法、装置、电子设备及介质 | |
CN110046018A (zh) | 显示消息的方法、装置、电子设备及介质 | |
CN108304506A (zh) | 检索方法、装置及设备 | |
CN110334736A (zh) | 图像识别方法、装置、电子设备及介质 | |
CN111104980A (zh) | 确定分类结果的方法、装置、设备及存储介质 | |
CN110535820A (zh) | 针对恶意域名的分类方法、装置、电子设备及介质 | |
CN111062248A (zh) | 图像检测的方法、装置、电子设备及介质 | |
CN110675473B (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN110837300B (zh) | 虚拟交互的方法、装置、电子设备及存储介质 | |
CN110110142A (zh) | 视频处理方法、装置、电子设备及介质 | |
CN110348318A (zh) | 图像识别方法、装置、电子设备及介质 | |
CN109445963A (zh) | 内容分享方法、装置、设备及计算机可读存储介质 | |
CN110795660B (zh) | 数据分析方法、装置、电子设备及介质 | |
CN111128115B (zh) | 信息验证方法、装置、电子设备及存储介质 | |
CN112860046B (zh) | 选择运行模式的方法、装置、电子设备及介质 | |
CN112925922A (zh) | 获取地址的方法、装置、电子设备及介质 | |
CN111341317A (zh) | 唤醒音频数据的评价方法、装置、电子设备及介质 | |
CN110853124A (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
KR101774807B1 (ko) | 휴대 단말기 및 그 동작 방법 | |
CN111292773A (zh) | 音视频合成的方法、装置、电子设备及介质 | |
CN114296627A (zh) | 内容显示方法、装置、设备及存储介质 | |
CN109816047B (zh) | 提供标签的方法、装置、设备及可读存储介质 | |
CN111212323A (zh) | 音视频合成的方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190809 |
|
RJ01 | Rejection of invention patent application after publication |