CN111695376A - 视频处理方法、视频处理装置及电子设备 - Google Patents
视频处理方法、视频处理装置及电子设备 Download PDFInfo
- Publication number
- CN111695376A CN111695376A CN201910187450.9A CN201910187450A CN111695376A CN 111695376 A CN111695376 A CN 111695376A CN 201910187450 A CN201910187450 A CN 201910187450A CN 111695376 A CN111695376 A CN 111695376A
- Authority
- CN
- China
- Prior art keywords
- video
- moving object
- face
- video processing
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 52
- 238000012545 processing Methods 0.000 title claims abstract description 44
- 230000000694 effects Effects 0.000 claims abstract description 66
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000008569 process Effects 0.000 claims abstract description 22
- 230000004044 response Effects 0.000 claims abstract description 7
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 10
- 210000004709 eyebrow Anatomy 0.000 claims description 7
- 230000008034 disappearance Effects 0.000 claims description 5
- 230000003993 interaction Effects 0.000 abstract description 15
- 230000002452 interceptive effect Effects 0.000 abstract description 13
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 235000013601 eggs Nutrition 0.000 description 9
- 241000282898 Sus scrofa Species 0.000 description 6
- 239000010410 layer Substances 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000002346 layers by function Substances 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 235000005809 Carpobrotus aequilaterus Nutrition 0.000 description 1
- 244000187801 Carpobrotus edulis Species 0.000 description 1
- 235000004550 Disphyma australe Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
公开了一种视频处理方法、视频处理装置和电子设备。该视频处理方法,包括:在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置;确定所述第一视频中的运动对象的第二位置;确定所述第一位置是否与所述第二位置匹配;以及,响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。这样,提高了用户参与视频类互动的参与感和互动体验。
Description
技术领域
本申请涉及视频处理领域,且更为具体地,涉及一种视频处理方法、视频处理装置和电子设备。
背景技术
近年来,在比如春节之类的重要节日中,集福卡活动越来越受到人们的欢迎。
可以通过多种方式来收集福卡,例如,可以通过AR扫描福字来收集福卡,也就是,通过扫描任意的福字,如电脑图片,包装图片,门神对联图片,手写的福字等来随机获得福卡。此外,还可以通过好友相互赠送,参与特定活动等方式来获得福卡。
但是,这些获得福卡的方式相对来说趣味性和互动性不够,用户难以在获得福卡的过程中得到乐趣。如果用户在参与视频类的互动过程中得到福卡,则能够提高用户的参与感和互动体验。
因此,期望提供改进的视频处理方案。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种视频处理方法、视频处理装置和电子设备,其通过人脸识别来确定人脸在视频中的位置是否与视频内的运动对象的位置匹配,并在匹配的情况下显示所述运动对象的选中效果,从而提高了用户参与视频类互动的参与感和互动体验。
根据本申请的一方面,提供了一种视频处理方法,包括:在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置;确定所述第一视频中的运动对象的第二位置;确定所述第一位置是否与所述第二位置匹配;以及,响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。
在上述视频处理方法中,通过人脸识别确定人脸在第一视频中对应的第一位置包括:通过人脸识别确定人脸的眉心关键点位;基于所述眉心关键点位进行整体人脸脸型估计;以及,基于估计的人脸范围确定所述第一位置。
在上述视频处理方法中,所述第一视频中的运动对象具有预先设定的运动轨迹、运动速度和出现时间点。
在上述视频处理方法中,所述运动对象包括不同类型的多个运动对象,且每个类型的运动对象具有预设的不同大小、运动速度和出现概率。
在上述视频处理方法中,所述运动对象中的连续两个运动对象之间的出现时间差在预设时间范围内。
在上述视频处理方法中,显示所述运动对象的选中效果包括:以所述运动对象与所述人脸的接触效果和随后的消失效果显示所述运动对象。
在上述视频处理方法中,进一步包括:显示特定类型的运动对象;以及,在显示所述特定类型的运动对象之前,显示所述特定类型的运动对象的出现提示。
在上述视频处理方法中,在通过人脸识别确定人脸在第一视频中对应的第一位置之前进一步包括:获取要进行人脸识别的用户的身份信息;以及,基于所述用户的身份信息确定所述用户是否验证通过。
在上述视频处理方法中,进一步包括:显示人脸识别结果;录制所显示的人脸识别结果以获得第二视频;以及,合成所述第一视频和所述第二视频以获得第三视频。
在上述视频处理方法中,进一步包括:在人脸识别的过程结束后,向用户显示结果呈现页面,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图,用于保存所述第三视频的第一选项,用于再次播放所述第一视频并进行人脸识别的第二选项,以及用于分享所述第三视频的第三选项。
根据本申请的另一方面,提供了一种视频处理装置,包括:人脸位置确定单元,用于在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置;对象位置确定单元,用于确定所述第一视频中的运动对象的第二位置;位置匹配单元,用于确定所述第一位置是否与所述第二位置匹配;以及,对象显示单元,用于响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。
在上述视频处理装置中,所述人脸位置确定单元用于:通过人脸识别确定人脸的眉心关键点位;基于所述眉心关键点位进行整体人脸脸型估计;以及,基于估计的人脸范围确定所述第一位置。
在上述视频处理装置中,所述第一视频中的运动对象具有预先设定的运动轨迹、运动速度和出现时间点。
在上述视频处理装置中,所述运动对象包括不同类型的多个运动对象,且每个类型的运动对象具有预设的不同大小、运动速度和出现概率。
在上述视频处理装置中,所述运动对象中的连续两个运动对象之间的出现时间差在预设时间范围内。
在上述视频处理装置中,所述对象显示单元用于:以所述运动对象与所述人脸的接触效果和随后的消失效果显示所述运动对象。
在上述视频处理装置中,进一步包括:对象提示单元,用于显示特定类型的运动对象之前,显示所述特定类型的运动对象的出现提示;所述对象显示单元用于显示所述特定类型的运动对象。
在上述视频处理装置中,进一步包括:用户验证单元,用于在通过人脸识别确定人脸在第一视频中对应的第一位置之前,获取要进行人脸识别的用户的身份信息;以及,基于所述用户的身份信息确定所述用户是否验证通过。
在上述视频处理装置中,进一步包括:人脸显示单元,用于显示人脸识别结果;视频录制单元,用于录制所显示的人脸识别结果以获得第二视频;以及视频合成单元,用于合成所述第一视频和所述第二视频以获得第三视频。
在上述视频处理装置中,进一步包括:结果呈现单元,用于在人脸识别的过程结束后,向用户显示结果呈现页面,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图,用于保存所述第三视频的第一选项,用于再次播放所述第一视频并进行人脸识别的第二选项,以及用于分享所述第三视频的第三选项。
根据本申请的再一方面,提供了一种电子设备,包括:处理器;以及,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的视频处理方法。
根据本申请的又一方面,提供了一种计算机可读介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如上所述的视频处理方法。
本申请提供的视频处理方法、视频处理装置和电子设备,通过人脸识别来确定人脸在视频中的位置是否与视频内的运动对象的位置匹配,并在匹配的情况下显示所述运动对象的选中效果,可以提高用户参与视频类互动的参与感和互动体验。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1图示了根据本申请实施例的视频处理方法的流程图。
图2图示了根据本申请实施例的视频处理装置的框图。
图3图示了根据本申请实施例的电子设备的框图。
图4图示了根据本申请实施例的示例性云架构。
图5图示了根据本申请实施例的云架构的抽象功能层的示意图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
如上所述,在目前的集福卡活动中,用户难以在获得福卡的过程中得到乐趣。
如果通过互动视频的方式收集福卡,则可以使用户获得互动乐趣,因此,如何提高用户在互动视频中的互动体验是需要解决的问题。
针对上述技术问题,本申请的基本构思是通过对用户进行人脸识别来确定用户的人脸在视频中的位置,并进一步与视频内的运动对象的位置匹配,以通过匹配来确定所述运动对象由用户选中,并显示所述运动对象的选中效果。
具体地,本申请提供的视频处理方法、视频处理装置和电子设备首先在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置,然后确定所述第一视频中的运动对象的第二位置,再确定所述第一位置是否与所述第二位置匹配,最后响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。
这样,可以利用人脸识别的智能技术来实现用户选中视频中的运动对象的操作,增加了用户参与互动视频的乐趣,从而提高了用户参与视频类互动的参与感和互动体验。
值得注意的是,在本申请提供的视频处理方法、视频处理装置和电子设备中,所述运动对象不仅限于上述集福卡活动中的福卡,也可以是其它运动对象。并且,通过用户的人脸和运动对象的位置的匹配实现的选中操作也不仅限于通过选中运动对象而收集运动对象,也可以通过选中所述运动对象来实现其它目的。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
图1图示了根据本申请实施例的视频处理方法的流程图。
如图1所示,根据本申请实施例的视频处理方法包括:S110,在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置;S120,确定所述第一视频中的运动对象的第二位置;S130,确定所述第一位置是否与所述第二位置匹配;以及S140,响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。
在步骤S110中,在播放所述第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置。也就是,如上所述,为了用户通过人脸来实现选中所述运动对象的操作,需要通过人脸识别技术来识别人脸,以确定人脸在所述第一视频中对应的第一位置。
具体地,在本申请实施例中,可以通过基于眉心关键点位的整体人脸脸型估计的方式来进行人脸识别。也就是,首先获取包括人脸的图像,例如,当用户通过移动终端,比如智能手机播放视频时,通过所述移动终端的前置摄像头拍摄包含用户的人脸的图像。然后,针对单帧图像,通过人脸识别确定人脸的眉心关键点位,例如,作为估计的人脸位置的中心点。然后,例如通过人脸识别获得对应于人脸的矩形对角线,从而估计整体人脸脸型。最后,基于估计出的整体人脸脸型所对应的人脸范围来确定所述人脸在第一视频中对应的第一位置,例如,位于所述第一视频的中心位置。
因此,在根据本申请实施例的视频处理方法中,通过人脸识别确定人脸在第一视频中对应的第一位置包括:通过人脸识别确定人脸的眉心关键点位;基于所述眉心关键点位进行整体人脸脸型估计;以及,基于估计的人脸范围确定所述第一位置。
值得注意的是,在本申请实施例中,所述第一位置不仅限于所述第一视频中的单个位置。例如,在如上所述估计出人脸范围的情况下,可以将所述人脸范围在所述第一视频中对应的所有位置作为所述第一位置。此外,如果通过人脸识别获得所述人脸在所述第一视频中的边缘位置,则可以以所有边缘位置作为所述第一位置。
在步骤S120中,确定所述第一视频中的运动对象的第二位置。也就是,为了进行用户的人脸与所述运动对象的位置匹配,需要确定所述运动对象在所述第一视频中的第二位置。具体地,可以基于所述运动对象的预先设定的运动轨迹和运动速度和出现时间点,获得所述运动对象在识别到所述用户的人脸的时间点的位置以作为所述第二位置。
也就是,在本申请实施例中,可以预先设置所述运动对象的物理控制引擎,以控制所述运动对象的运动,包括运动轨迹、运动速度和开始时间点,从而使得所述运动对象在任一时间点的位置是可确定的。例如,可以预先设置所述运动对象的4条运动轨迹,所述4条运动轨迹以屏幕的宽度中线为基准,分别相对分布在左右两侧。并且,该4条运动轨迹可以均为垂直轨迹,运动对象随机分布地出现在四条轨迹上,以初始速度垂直下落,且下落过程具有一加速度。
因此,在根据本申请实施例的视频处理方法中,所述第一视频中的运动对象具有预先设定的运动轨迹、运动速度和出现时间点。
另外,在本申请实施例中,所述运动对象可以包括不同类型的多个运动对象。例如,以集福卡活动为例,可以包括不同类型的多种福卡,比如在外形尺寸上,可以包括大、中、小三种外形。并且,可以设置为大福卡下落速度慢,因而容易被用户选中,中福卡速度适中,小福卡下落速度快,不容易被用户选中。另外,不同大小的福卡的出现概率可以预先设置,比如大福卡占比50%,中福卡25%,小福卡25%。
因此,在根据本申请实施例的视频处理方法中,所述运动对象包括不同类型的多个运动对象,且每个类型的运动对象具有预设的不同大小、运动速度和出现概率。
此外,除了上述形状属性之外,在所述运动对象上还可以携带向用户呈现的信息。例如,以福卡为例,除了不带品牌标识的普通福卡之外,还可以包括带品牌标识的品牌福卡,比如所述品牌福卡可以按概率随机下发展现,以保证所有品牌福卡在前20秒都得到展现。并且,可以设置品牌福卡之间展示的随机概率相同,且控制品牌福卡的展现概率是普通福卡的4倍。
并且,为了使得用户能够连续选中所述第一视频中的运动对象,但又不至于过于容易或者过于困难,可以通过设置连续两个运动对象之间的出现时间差的方式。例如,将两个福卡下落的时间差随机控制在0.5秒-3秒之间。另外,还可以设置所述运动对象的其它运动模式,例如,在互动前8秒只出现如上所述的运动速度慢的大尺寸的福卡,8秒后按预定概率出现大、中、小三种外形的福卡,同时控制下落时间差在0.5秒-1秒之间。
因此,在根据本申请实施例的视频处理方法中,所述运动对象中的连续两个运动对象之间的出现时间差在预设时间范围内。
在步骤S130中,确定所述第一位置是否与所述第二位置匹配。这里,如上所述,所述第一位置可能是多种情况,相应地,确定所述第一位置是否与所述第二位置匹配的方式也不同。
例如,如果所述第一位置是识别出的人脸的关键点位在所述第一视频中的位置,比如,人脸在所述第一视频中的中心位置,则可以通过确定所述第二位置是否在以所述第一位置为圆心、预定距离为半径的圆形范围内来确定所述第一位置是否与所述第二位置匹配。或者,如果所述第一位置是识别出的人脸的边缘轮廓或者整体范围在所述第一视频中的位置坐标集合,则可以通过确定所述第二位置的坐标是否在所述位置坐标集合内来确定所述第一位置是否与所述第二位置匹配。
并且,所述第一视频中的所述运动对象的数目同样可能为多个,因此,所述运动对象的所述第二位置也可能为多个位置。对此,可以设置为如果人脸的第一位置与多个第二位置匹配,则判定所述第一位置仅与所述第二位置之一匹配,当然也可以判定所述第一位置同时与所述多个第二位置匹配。
在步骤S140中,响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。这里,在本申请实施例中,用户看起来是通过脸部来接触所述运动对象,从而选中所述运动对象,因此,所述运动对象的选中效果可以包括所述运动对象与所述人脸的接触效果。例如,以人脸顶中福卡为例,其选中效果可以为福卡被顶中后轻微弹起,然后以炸裂动效渐隐消失。
当然,本领域技术人员可以理解,所述选中效果还可以包括其它视觉效果,比如显示+1,出现其它视觉元素,以及生成特效音等。
因此,在根据本申请实施例的视频处理方法中,显示所述运动对象的选中效果包括:以所述运动对象与所述人脸的接触效果和随后的消失效果显示所述运动对象。
在本申请实施例中,除了所述第一视频中的一般运动对象以外,还可以显示特定类型的运动对象。例如,在福卡当中可以包括彩蛋卡,该彩蛋卡被选中以后可以显示特定视觉元素,以及显示X2等视觉效果。并且,在显示所述特定类型的运动对象之前,可以显示其出现提示,以便于用户提前准备选中所述特定类型的运动对象。
此外,在本申请实施例中,可以设置所述特定类型的运动对象的出现时机。例如,彩蛋卡控制在用户选中5个福卡之后,再间隔曝光2个福卡之后出现,比如,在用户选中第5个福卡之后,即时显示文案提示“彩蛋即将到达”。
因此,在根据本申请实施例的视频处理方法中,进一步包括:显示特定类型的运动对象;以及,在显示所述特定类型的运动对象之前,显示所述特定类型的运动对象的出现提示。
并且,在处理所述第一视频中的多个运动对象时,可以以进度条的方式向用户呈现已经选中几个运动对象。例如,可以呈现用户的能量条,能量条的前进机制为最小值0,最大值100,长度按屏幕宽度展示,按照运动对象的总数均分。每选中一个运动对象,前进1个单位的长度,例如如果活动机制为选中10个结束,则能量条每次前进10。能量条还可以带有其它标识,例如,猪年春节可以带有宠物猪标识,其同步跟随能量条对应向前移动。
因为根据本申请实施例的视频处理方法可以应用于比如集福卡一类的活动,因此,在用户参与所述互动活动之前,可以首先对用户进行验证。
也就是,在根据本申请实施例的视频处理方法中,在通过人脸识别确定人脸在第一视频中对应的第一位置之前进一步包括:获取要进行人脸识别的用户的身份信息;以及,基于所述用户的身份信息确定所述用户是否验证通过。
值得注意的是,在本申请实施例中,所述用户的身份信息除了包括比如ID之类的用户标识以外,还可以进一步包括用户参与活动的活动次数信息,也就是,可以限制用户每天参与活动的次数。
为了使得用户在视频互动过程中获得实时体验,在识别人脸的过程中,可以向用户显示人脸识别结果,也就是,用户在使用客户端设备进行人脸识别时,可以在所述客户端设备的屏幕上显示用户的人脸,使得用户可以知道自己的人脸在所述第一视频中的什么位置。
并且,除了所述第一视频之外,还可以录制人脸在屏幕上的呈现效果以获得第二视频。此外,可以合成所述第一视频和所述第二视频,以获得用户参与整个互动视频过程的第三视频。
因此,在根据本申请实施例的视频处理方法中,进一步包括:显示人脸识别结果;录制所显示的人脸识别结果以获得第二视频;以及,合成所述第一视频和所述第二视频以获得第三视频。
最后,在人脸识别的过程结束之后,可以向用户呈现参与整个视频互动活动的结果。也就是说,可以向用户显示结果呈现页面。所述结果呈现页面可以包括用户参与当前活动所获得权益、用户参与活动的过程的精彩回放、用于引导用户分享的选项按钮、以及用于用户再次参与互动的选项等。
也就是,在根据本申请实施例的视频处理方法中,进一步包括:在人脸识别的过程结束后,向用户显示结果呈现页面,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图,用于保存所述第三视频的第一选项,用于再次播放所述第一视频并进行人脸识别的第二选项,以及用于分享所述第三视频的第三选项。
应用示例
下面,以根据本申请实施例的视频处理方法应用于猪年春节的顶福卡活动为例来描述根据本申请实施例的视频处理方法的应用示例。
首先,游戏初始化从入口处获得用户登录信息,加载动画体现“猪年”、“顶福卡”、“赢福气”主题。初始化完成后展开游戏界面,同时弹窗引导用户参与活动的说明。此时可以播放活动的背景音乐,且点击可关闭声音,并且在游戏界面可选择退出,例如,退出需要二次确认。活动说明可以包括1.Gif动图引导如何顶福卡;2.活动名称,例如可以在服务端配置;3.已参与人数,按实际参与统计展示;4.活动说明(例如,30秒内需要顶中10个福卡;5.活动规则,例如通过点击弹窗查看规则详情;6.开始活动功能按钮,点击该按钮后弹窗消失,回到游戏初始界面。
在游戏初始界面,判断用户的登录状态,并且校验用户的单日参与次数是否达上限。例如,用户单日直接可参与2次,分享活动可获得额外1次机会。当日已玩次数为2则引导明日再玩,提供返回活动来源页面的入口。
用户及参与次数校验成功后,回到游戏界面,并展现人脸识别引导框。当人脸点位扫描及提取特征成功后,触发倒计时,例如,倒计时以蒙层形式覆盖展现在互动界面之上,倒计时结束后自动启动游戏。
活动的界面构成可以包括:1.新年节日风格前贴模板贴纸,2.活动能量条,能量条上有宠物猪元素,随能量条走动前进;3.福卡,顶中福卡则能量条前进,福卡具体包含3种:普通福卡:不带品牌标识,默认福卡样式;品牌福卡,展现品牌标识,和普通福卡只有品牌曝光的区别,顶中效果一致;彩蛋卡,视觉表现与常规福卡有所区别,例如可以带有猪脸的特殊标识,顶中后效果翻倍(即1个彩弹卡相当于顶中2个普通福卡的效果);4.30秒倒计时标识;5.彩蛋触发人脸贴纸,贴纸为可爱、喜庆风格,带有猪年元素;6.顶中福卡等的视觉特效,并伴随特效音,例如,彩蛋卡被顶中后同时触发人脸前贴贴纸,贴纸结合人脸点位跟随人脸展示;7.提示文案,例如“彩蛋即将到达,顶中加分”;8.互动成功/失败提示。
这里,福卡通过服务端下发,支持灵活调整样式。例如,常规福卡样式支持10种,包括普通福卡+9种品牌福卡,具体福卡的展现及顺序通过概率控制,例如,第1个下落出现的控制为不带品牌标识的普通福卡;之后按概率随机下发展现品牌福卡,保证所有品牌福卡在前20秒都得到展现;品牌福卡之间展示的随机概率相同,控制品牌福卡的展现概率是普通福卡的4倍。
活动机制可以设定为:1.30秒内进度条充满,则活动成果,可以在活动成功的告知界面点击“打开宝箱”,打开结果分享页。2.30秒内进度条不满,则活动失败,引导再玩或分享。具体地,如果当日已玩少于2次,显示当天可玩次数,引导用户再玩;如果当天已玩2次,可以分享继续玩,分享成功返回,自动跳转到人脸识别后倒计时启动游戏的环节;如果当天已玩超过2次,引导用户明天再试。
活动成功后可以进行结果分享,结果分享页面包括闯关获得权益、查看精彩回放、引导分享按钮、再玩一次功能按钮等。闯关权益由福气值/积分、权益卡券等构成,例如福气值为随机在100-500范围内获得,权益卡券与个人中心卡券包打通,发放延用已有能力。用户点击查看精彩回放后,新打开页面预览播放互动过程的录制视频,用户可以选择保存到手机(保存视频到手机相册),或上传到系统。再玩一次的功能按钮在可玩次数>0时显示,否则隐藏。点击再玩一次,从人脸识别后倒计时启动游戏的环节开始再次互动。可以在不同场景下设置差异化的分享引导文案:1.第1次活动成果:分享给朋友可多玩一次;2.第2次活动成果且第1次未分享:分享给朋友可多玩一次;3.其他:邀请更多朋友来玩。
点击分享按钮后,以分享卡片形式引导用户分享。例如,分享卡片可包括:游戏名称;刺激性数字(XXX人已参与);游戏配图/参与者精彩回放封面;“我”用时XX秒,收到XXX福气值;参与二维码;分享渠道直接露出。用户可以将分享卡片分享到社交渠道,新用户通过识别二维码打开H5页面,进一步引导下载,或者打开应用的互动页面。
示例性装置
图2图示了根据本申请实施例的视频处理装置的流程图。
如图2所示,根据本申请实施例的视频处理装置200包括:人脸位置确定单元210,用于在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置;对象位置确定单元220,用于确定所述第一视频中的运动对象的第二位置;位置匹配单元230,用于确定所述人脸位置确定单元210所确定的所述第一位置是否与所述对象位置确定单元220所确定的所述第二位置匹配;以及,对象显示单元240,用于响应于所述位置匹配单元230确定所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。
在一个示例中,在上述视频处理装置200中,所述人脸位置确定单元210用于:通过人脸识别确定人脸的眉心关键点位;基于所述眉心关键点位进行整体人脸脸型估计;以及,基于估计的人脸范围确定所述第一位置。
在一个示例中,在上述视频处理装置200中,所述第一视频中的运动对象具有预先设定的运动轨迹、运动速度和出现时间点。
在一个示例中,在上述视频处理装置200中,所述运动对象包括不同类型的多个运动对象,且每个类型的运动对象具有预设的不同大小、运动速度和出现概率。
在一个示例中,在上述视频处理装置200中,所述运动对象中的连续两个运动对象之间的出现时间差在预设时间范围内。
在一个示例中,在上述视频处理装置200中,所述对象显示单元240用于:以所述运动对象与所述人脸的接触效果和随后的消失效果显示所述运动对象。
在一个示例中,在上述视频处理装置200中,进一步包括:对象提示单元,用于显示特定类型的运动对象之前,显示所述特定类型的运动对象的出现提示;所述对象显示单元240用于显示所述特定类型的运动对象。
在一个示例中,在上述视频处理装置200中,进一步包括:用户验证单元,用于在通过人脸识别确定人脸在第一视频中对应的第一位置之前,获取要进行人脸识别的用户的身份信息;以及,基于所述用户的身份信息确定所述用户是否验证通过。
在一个示例中,在上述视频处理装置200中,进一步包括:人脸显示单元,用于显示人脸识别结果;视频录制单元,用于录制所显示的人脸识别结果以获得第二视频;以及视频合成单元,用于合成所述第一视频和所述第二视频以获得第三视频。
在一个示例中,在上述视频处理装置200中,进一步包括:结果呈现单元,用于在人脸识别的过程结束后,向用户显示结果呈现页面,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图,用于保存所述第三视频的第一选项,用于再次播放所述第一视频并进行人脸识别的第二选项,以及用于分享所述第三视频的第三选项。
这里,本领域技术人员可以理解,上述视频处理装置200中的各个单元和模块的具体功能和操作已经在上面参考图1的视频处理方法的描述中得到了详细介绍,并因此,将省略其重复描述。
如上所述,根据本申请实施例的视频处理装置200可以实现在各种终端设备中,例如用户的智能手机等。在一个示例中,根据本申请实施例的视频处理装置200可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该视频处理装置200可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该视频处理装置200同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该视频处理装置200与该终端设备也可以是分立的设备,并且该视频处理装置200可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示例性电子设备
下面,参考图3来描述根据本申请实施例的电子设备。
图3图示了根据本申请实施例的电子设备的框图。
如图3所示,电子设备10包括一个或多个处理器11和存储器12。
处理器13可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的视频处理方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如人脸位置、运动对象位置等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
该输入装置13可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括视频处理结果等。该输出装置14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图3中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频处理方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在第一用户计算设备上执行、部分地在第一用户设备上执行、作为一个独立的软件包执行、部分在第一用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频处理方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
示例性云架构
值得注意的是,根据本申请实施例的视频处理方法可以采用基于云计算环境的系统架构,简称为云架构。本领域技术人员可以理解,云计算是一种服务提供模式,可以实现对可配置计算资源所组成(例如,网络,网络带宽,服务器,处理器,内存,存储介质,应用程序,虚拟机,和服务)的共享资源池进行按需式网络访问。该共享资源池仅需较小的管理工作或与服务供应商的交互,便能快速进行配置和发布。
图4图示了根据本申请实施例的示例性云架构。如图4所示,示例性的云架构20包括一系列云计算节点21。通过这些云计算节点21,本地计算设备,例如,车载电脑22A、智能手机22B,个人数字助手22C和平板电脑22D等可实现互联通信。云计算节点21彼此之间可通信,并可被虚拟地或物理地分组以形成一系列节点网络,例如私有云,公有云,社区云或混合云等,通过这样的方式,为云用户提供无需在本地计算设备进行资源维护的云服务,例如基础设备,软件程序或平台等。本领域技术人员可以理解,图4中所示意的计算设备仅为示例,云计算环境可与其他任意的可计算设备通过网络直接或间接地实现互联,对此本申请并不意在进行任何限制。
图5图示了根据本申请实施例的云架构的抽象功能层的示意图。
如图5所示,由云架构20所提供的一组抽象功能层包括硬件和软件层,虚拟层,管理层和工作层。本领域技术人员可以理解,图5中所示意的部件,层和功能仅为示例,用以说明云架构20的特征,对此本申请并不意在进行任何限制。
硬件和软件层层包括一系列硬件和软件,其中硬件包括但不限于主机,RISC(精简指令集计算机Reduced Instruction Set Computer)体系结构的服务器,服务器,刀锋性服务器,存储设备,网络和网络组件等。此外,软件包括网络应用服务器和数据库软件等。
虚拟层包括一系列虚拟实体,包括但不限于虚拟服务器,虚拟存储空间,虚拟网络,虚拟专用网络,虚拟应用程序和操作系统和虚拟客户端等。
管理层用于实现如下描述的功能。首先,资源供应功能,其能够提供用于在云架构内执行任务所需的计算资源和其他资源的动态采购;第二,计量和定价功能,其能够实现对云架构内的资源进行使用成本追踪,且对资源消耗进行计费或标价等;第三,安全防护功能,其能够对云用户和任务进行身份验证,并保护数据和其他资源;第四,用户门户功能,其能够为云用户和系统管理员提供对云架构的访问通道;第五,服务管理功能,其能够对云计算资源进行分配和管理,以满足所需服务的需求;第六,服务级别协议规划和实施功能,其能够根据SLA(Service Level Agreement,SLA,服务级别协议)对所需的云计算资源进行预安排和采购。
工作层提供了藉由云架构可实现的功能示例,例如,如上所述的根据本申请实施例的视频处理方法。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (12)
1.一种视频处理方法,其特征在于,包括:
在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置;
确定所述第一视频中的运动对象的第二位置;
确定所述第一位置是否与所述第二位置匹配;以及
响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。
2.根据权利要求1所述的视频处理方法,其特征在于,通过人脸识别确定人脸在第一视频中对应的第一位置包括:
通过人脸识别确定人脸的眉心关键点位;
基于所述眉心关键点位进行整体人脸脸型估计;以及
基于估计的人脸范围确定所述第一位置。
3.根据权利要求1所述的视频处理方法,其特征在于,所述第一视频中的运动对象具有预先设定的运动轨迹、运动速度和出现时间点。
4.根据权利要求3所述的视频处理方法,其特征在于,所述运动对象包括不同类型的多个运动对象,且每个类型的运动对象具有预设的不同大小、运动速度和出现概率。
5.根据权利要求3所述的视频处理方法,其特征在于,所述运动对象中的连续两个运动对象之间的出现时间差在预设时间范围内。
6.根据权利要求1所述的视频处理方法,其特征在于,显示所述运动对象的选中效果:
以所述运动对象与所述人脸的接触效果和随后的消失效果显示所述运动对象。
7.根据权利要求1所述的视频处理方法,其特征在于,进一步包括:
显示特定类型的运动对象;以及
在显示所述特定类型的运动对象之前,显示所述特定类型的运动对象的出现提示。
8.根据权利要求1所述的视频处理方法,其特征在于,在通过人脸识别确定人脸在第一视频中对应的第一位置之前进一步包括:
获取要进行人脸识别的用户的身份信息;以及
基于所述用户的身份信息确定所述用户是否验证通过。
9.根据权利要求1所述的视频处理方法,其特征在于,进一步包括:
显示人脸识别结果;
录制所显示的人脸识别结果以获得第二视频;以及
合成所述第一视频和所述第二视频以获得第三视频。
10.根据权利要求9所述的视频处理方法,其特征在于,进一步包括:
在人脸识别的过程结束后,向用户显示结果呈现页面,所述结果呈现页面包括以下的至少其中之一:
所述第三视频的缩略图,
用于保存所述第三视频的第一选项,
用于再次播放所述第一视频并进行人脸识别的第二选项,以及
用于分享所述第三视频的第三选项。
11.一种视频处理装置,其特征在于,包括:
人脸位置确定单元,用于在播放第一视频的过程中,通过人脸识别确定人脸在所述第一视频中对应的第一位置;
对象位置确定单元,用于确定所述第一视频中的运动对象的第二位置;
位置匹配单元,用于确定所述第一位置是否与所述第二位置匹配;以及
对象显示单元,用于响应于所述第一位置匹配所述第二位置,显示所述运动对象的选中效果。
12.一种电子设备,包括:
处理器;以及
存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如权利要求1-10中任一项所述的视频处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910187450.9A CN111695376A (zh) | 2019-03-13 | 2019-03-13 | 视频处理方法、视频处理装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910187450.9A CN111695376A (zh) | 2019-03-13 | 2019-03-13 | 视频处理方法、视频处理装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111695376A true CN111695376A (zh) | 2020-09-22 |
Family
ID=72474766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910187450.9A Pending CN111695376A (zh) | 2019-03-13 | 2019-03-13 | 视频处理方法、视频处理装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111695376A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160142672A1 (en) * | 2014-11-17 | 2016-05-19 | International Business Machines Corporation | Automatic screen adjustment for multi location video conferencing |
CN105791692A (zh) * | 2016-03-14 | 2016-07-20 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN106730814A (zh) * | 2016-11-22 | 2017-05-31 | 深圳维京人网络科技有限公司 | 基于ar及人脸识别技术的海洋捕鱼类游戏 |
CN106730815A (zh) * | 2016-12-09 | 2017-05-31 | 福建星网视易信息系统有限公司 | 一种易实现的体感互动方法及系统 |
CN107333057A (zh) * | 2017-06-16 | 2017-11-07 | 光锐恒宇(北京)科技有限公司 | 一种应用中的交互实现方法和装置 |
CN107667393A (zh) * | 2015-05-18 | 2018-02-06 | 盖姆科公司 | 视频游戏系统 |
CN108255304A (zh) * | 2018-01-26 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 基于增强现实的视频数据处理方法、装置和存储介质 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN108845670A (zh) * | 2018-06-27 | 2018-11-20 | 苏州馨镜家园软件科技有限公司 | 一种基于体感设备的在线虚拟健身娱乐系统及方法 |
CN109286760A (zh) * | 2018-09-28 | 2019-01-29 | 上海连尚网络科技有限公司 | 一种娱乐视频制作方法及其终端 |
-
2019
- 2019-03-13 CN CN201910187450.9A patent/CN111695376A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160142672A1 (en) * | 2014-11-17 | 2016-05-19 | International Business Machines Corporation | Automatic screen adjustment for multi location video conferencing |
CN107667393A (zh) * | 2015-05-18 | 2018-02-06 | 盖姆科公司 | 视频游戏系统 |
CN105791692A (zh) * | 2016-03-14 | 2016-07-20 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN106730814A (zh) * | 2016-11-22 | 2017-05-31 | 深圳维京人网络科技有限公司 | 基于ar及人脸识别技术的海洋捕鱼类游戏 |
CN106730815A (zh) * | 2016-12-09 | 2017-05-31 | 福建星网视易信息系统有限公司 | 一种易实现的体感互动方法及系统 |
CN107333057A (zh) * | 2017-06-16 | 2017-11-07 | 光锐恒宇(北京)科技有限公司 | 一种应用中的交互实现方法和装置 |
CN108255304A (zh) * | 2018-01-26 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 基于增强现实的视频数据处理方法、装置和存储介质 |
CN108845670A (zh) * | 2018-06-27 | 2018-11-20 | 苏州馨镜家园软件科技有限公司 | 一种基于体感设备的在线虚拟健身娱乐系统及方法 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN109286760A (zh) * | 2018-09-28 | 2019-01-29 | 上海连尚网络科技有限公司 | 一种娱乐视频制作方法及其终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111698523B (zh) | 文字虚拟礼物的赠送方法、装置、设备及存储介质 | |
CN110225408B (zh) | 一种信息广播方法、装置及设备 | |
CN113058270B (zh) | 直播互动方法和装置、存储介质及电子设备 | |
CN107911724B (zh) | 直播互动方法、装置及系统 | |
CN107911736B (zh) | 直播互动方法及系统 | |
CN111050222B (zh) | 一种虚拟物品发放方法、装置和存储介质 | |
US20160284157A1 (en) | Systems and methods for multi-media content sharing and management | |
CN113031836B (zh) | 一种直播数据处理方法、装置以及可读存储介质 | |
JP2009510608A (ja) | ターゲット広告 | |
CN113490004B (zh) | 一种直播互动方法及相关装置 | |
US9317883B2 (en) | Method and system for venture capital raising for startup via award and reality TV show | |
CN110703913A (zh) | 对象交互方法和装置、存储介质及电子装置 | |
CN109286822A (zh) | 基于直播视频识别的互动方法、装置、设备及存储介质 | |
US20140018157A1 (en) | Reward-based features for videogame observers | |
CN113630630B (zh) | 一种视频解说配音信息的处理方法、装置及设备 | |
CN108769775A (zh) | 网络直播中的数据处理方法和装置、网络直播系统 | |
CN110162667A (zh) | 视频生成方法、装置及存储介质 | |
CN112188223B (zh) | 直播视频播放方法、装置、设备及介质 | |
CN113824983A (zh) | 数据匹配方法、装置、设备及计算机可读存储介质 | |
CN107491991A (zh) | 基于晃动的人机识别方法及应用其的广告投放方法和系统 | |
CN110336957A (zh) | 一种视频制作方法、装置、介质和电子设备 | |
JP6547404B2 (ja) | 写真シール作成装置、情報配信システム、写真シール作成装置の制御方法 | |
CN111695376A (zh) | 视频处理方法、视频处理装置及电子设备 | |
EP4206886A1 (en) | Method and apparatus for displaying an interface for emoji input | |
CN111666793A (zh) | 视频处理方法、视频处理装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |