CN112291590A - 视频处理方法及设备 - Google Patents
视频处理方法及设备 Download PDFInfo
- Publication number
- CN112291590A CN112291590A CN202011194064.1A CN202011194064A CN112291590A CN 112291590 A CN112291590 A CN 112291590A CN 202011194064 A CN202011194064 A CN 202011194064A CN 112291590 A CN112291590 A CN 112291590A
- Authority
- CN
- China
- Prior art keywords
- special effect
- target
- video frame
- processed
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 38
- 230000000694 effects Effects 0.000 claims abstract description 528
- 238000000034 method Methods 0.000 claims abstract description 63
- 230000033001 locomotion Effects 0.000 claims description 94
- 238000012545 processing Methods 0.000 claims description 92
- 230000003993 interaction Effects 0.000 claims description 49
- 230000009471 action Effects 0.000 claims description 43
- 230000002452 interceptive effect Effects 0.000 claims description 21
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 11
- 238000004806 packaging method and process Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000012805 post-processing Methods 0.000 description 5
- 241000086550 Dinosauria Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241000203475 Neopanax arboreus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23424—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2387—Stream processing in response to a playback request from an end-user, e.g. for trick-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
Abstract
本公开实施例提供一种视频处理方法及设备,该方法包括:获取待处理视频帧及其对应的特效设置信息;将所述待处理视频帧及其对应的特效设置信息发送至服务器,以使所述服务器根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,并在所述第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频;接收所述服务器发送的目标视频,并显示所述目标视频,提高特效添加的效率,从而提高用户体验。
Description
技术领域
本公开实施例涉及视频处理技术领域,尤其涉及一种视频处理方法及设备。
背景技术
随着技术的进步,应用程序(Application,APP)的类型越来越多,一些应用程序可以用来发布用户拍摄的视频。
目前,为了提高用户体验,用户在拍摄视频时,可以从应用程序提供的特效中选择目标特效,然后应用程序将目标特效添加至视频,并显示添加了该目标特效的视频。但当目标特效较复杂时,将目标特效添加至视频所需时间较长,导致特效添加效率低,而且还会受到用户终端设备性能的限制,难以显示复杂的特效效果,从而降低用户体验。
发明内容
本公开实施例提供一种视频处理方法及设备,以提高特效添加的效率。
第一方面,本公开实施例提供一种视频处理方法,包括:
获取待处理视频帧及其对应的特效设置信息;
将所述待处理视频帧及其对应的特效设置信息发送至服务器,以使所述服务器根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,并在所述第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频;
接收所述服务器发送的目标视频,并显示所述目标视频。
第二方面,本公开实施例提供一种视频处理方法,包括:
获取第一设备发送的待处理视频帧及其对应的特效设置信息;
根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧;
在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频;
将所述目标视频发送至所述第一设备。
第三方面,本公开实施例提供一种视频处理设备,应用于第一设备,所述设备包括:
第一处理模块,用于获取待处理视频帧及其对应的特效设置信息;
第一收发模块,用于将所述待处理视频帧及其对应的特效设置信息发送至服务器,以使所述服务器根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,并在所述第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频;
所述第一收发模块,还用于接收所述服务器发送的目标视频,并显示所述目标视频。
第四方面,本公开实施例提供一种视频处理设备,应用于服务器,所述设备包括:
第二收发模块,获取第一设备发送的待处理视频帧及其对应的特效设置信息;
第二处理模块,用于根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧;
所述第二处理模块,还用于在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频;
所述第二收发模块,还用于将所述目标视频发送至所述第一设备。
第五方面,本公开实施例提供一种电子设备,包括:至少一个处理器和存储器。
所述存储器存储计算机执行指令。
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面以及第一方面各种可能的设计所述的视频处理方法。
第六方面,本公开实施例提供一种电子设备,包括:至少一个处理器和存储器。
所述存储器存储计算机执行指令。
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第二方面以及第二方面各种可能的设计所述的视频处理方法。
第七方面,本公开实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面以及第一方面各种可能的设计所述的视频处理方法。
第八方面,本公开实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第二方面以及第二方面各种可能的设计所述的视频处理方法。
本实施例提供的视频处理方法及设备,通过第一设备获取待处理视频帧,该处理视频帧为需要添加特效的视频帧,以及获取该待处理视频帧对应的特效设置信息,将该待处理视频帧及其对应的特效设置信息发送至服务器,服务器根据该特效设置信息在待处理视频帧上添加所需添加的目标特效,以得到该待处理视频对应的目标视频帧,即得到添加了目标特效的待处理视频帧,由于服务器性能较高,利用服务器添加特效可以缩短特效添加的时间,因此,即使特效较复杂,也可以在较短时间内将复杂特效添加至待处理视频帧上,实现复杂特效的添加,并且提高特效添加的效率。服务器在第一设备拍摄结束后,对所有目标视频帧进行拼接以得到目标视频,即得到完整视频,然后将该完整视频发送至第一设备,以使第一设备可以直接获得添加了目标特效,即复杂特效的完整视频,从而可以向用户展示存在复杂特效的完整视频,提高用户体验。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的视频处理系统的架构示意图;
图2为本公开实施例提供的视频处理方法的流程示意图一;
图3为本公开实施例提供的第一界面的示意图一;
图4为本公开实施例提供的文视频处理方法的流程示意图二;
图5为本公开实施例提供的第一界面的示意图二;
图6为本公开实施例提供的目标特效与初始特效的对比图一;
图7为本公开实施例提供的目标特效与初始特效的对比图二;
图8为本公开实施例提供的第二界面的示意图一;
图9为本公开实施例提供的第二界面的示意图二;
图10为本公开实施例提供的视频处理方法的流程示意图三;
图11为本公开实施例提供的视频处理方法的流程示意图四;
图12为本公开实施例提供的视频处理方法设备的结构框图一;
图13为本公开实施例提供的视频处理方法设备的结构框图二;
图14为本公开实施例提供的电子设备的硬件结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
目前,为了提高用户体验,用户在拍摄视频时,可以从应用程序提供的特效中选择目标特效,然后应用程序将目标特效添加至视频,并显示添加了该目标特效的视频。但当目标特效较复杂时,将目标特效添加至视频所需时间较长,导致特效添加效率低,而且还会受到用户终端设备性能的限制,难以显示复杂的特效效果,从而降低用户体验。
为了解决上述问题,本公开的技术构思是第一设备在拍摄视频时,在第一设备拍摄得到的视频帧上实时添加简单特效,以供用户可以根据该简单特效进行互动,满足用户的互动需求,同时第一设备将拍摄得到的视频帧实时传输至服务器,服务器在该视频帧上添加复杂特效,由于服务器的性能较高,能够实现复杂特效的添加,并且添加复杂特效的时间较短,提高复杂特效的添加效率和效果,提高了用户的使用满意度。
下面以具体地实施例对本公开的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
参见图1,图1为视频处理系统的架构示意图。如图1所示,该视频包括第一设备101和服务器102。用户在通过第一设备101拍摄视频时,可以将拍摄得到的视频帧推送至服务器102中,以使服务器102在视频帧上添加相应的目标特效,并在第一设备101拍摄结束后将存在目标特效的视频帧进行拼接以得到目标视频。第一设备101也可以在拍摄结束后,从服务器102中下载目标视频,以得到存在目标特效的视频。
其中,服务器的数量可以为一个或多个。当服务器为多个时,例如为两个时,一个服务器用于与第一设备进行通信(即接收第一设备发送的数据,以及发送数据至第一设备),另一个用于进行渲染。
其中,第一设备101可以为移动终端(例如,智能手机、掌上电脑、平板电脑等具有拍摄功能的移动设备、可穿戴电子设备)、计算机设备(例如,台式机、笔记本电脑、一体机、智能家居设备等)等。
参考图2,图2为本公开实施例提供的视频处理方法的流程示意图一。本实施例的方法可以应用在图1所示的第一设备中,如图2所示,该视频处理方法包括:
S201、获取待处理视频帧及其对应的特效设置信息。
在本公开实施例中,当用户想要发布或拍摄视频时,可以打开第一设备上的应用程序,该应用程序显示用于拍摄视频的第一页面。视频一般由多帧画面组成,因此,在拍摄视频的过程中,第一设备实时获取拍摄得到的视频帧,即一帧画面,并将该视频帧作为待处理视频帧,同时获取待处理视频帧对应的特效设置信息,该待处理视频帧对应的特效设置信息为在拍摄该待处理视频帧时所得到的与生成特效或调整特效相关的信息。
其中,应用程序可以为发布视频的应用程序,也可以是其它可以拍摄视频的应用程序,本公开不对其进行限制。
在本公开实施例中,可选的,在确定是否需要开始拍摄视频时,可以根据相关的触发操作进行确定,即第一设备上的第一界面可以包括第一按键,响应作用于第一按键的触发操作,开始拍摄视频。例如,参见图3,第一界面上显示第一按键10,当用户点击该第一按键10时,第一设备在视频拍摄区域内开始拍摄视频。
在任意实施例中,可选的,待处理视频帧对应的特效设置信息用于确定在视频帧需添加的目标特效,以及如何动态调整该目标特效。具体的,特效设置信息包括以下信息中的至少一项:目标特效的标识、第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
其中,目标特效的标识为在其对应的待处理视频帧上需添加的特效的标识。第一设备的移动信息是在拍摄得到其对应的待处理视频帧时,根据拍摄用户(即使用第一设备拍摄视频的用户)移动第一设备的动作生成的,其表明拍摄用户是如何移动第一设备的。交互信息是根据其对应的待处理视频帧内的用户(即被拍摄人员或拍摄用户)的动作生成的。
S202、将待处理视频帧及其对应的特效设置信息发送至服务器,以使服务器根据特效设置信息在待处理视频帧上添加目标特效,得到待处理视频帧对应的目标视频帧,并在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频。
在本公开实施例中,在拍摄得到待处理视频帧后,将该待处理视频帧以及其对应的特效设置信息实时传输至服务器,以使服务器在待处理视频帧上添加与其对应的特效设置信息匹配的目标特效,得到目标视频帧,实现目标特效的准确添加。并且,服务器在第一设备拍摄结束后,对所有待处理视频帧对应的目标视频帧进行拼接,以得到目标视频,即得到完整的存在目标特效的拍摄视频。
可选的,在将待处理视频帧发送至服务器时,可以每次仅发送一个待处理视频帧,也可以发送连续第一预设数量的待处理视频帧,该第一预设数量可以根据实际需求进行设定,例如,2个。
可选的,服务器在对所有待处理视频帧对应的目标视频帧进行拼接时,可以按照待处理视频帧对应的拍摄顺序,对相应的目标视频帧进行拼接,以使得到的目标视频是有序连贯的,保证视频的完整性和有序性。
进一步的,可选的,待处理视频帧对应的拍摄顺序可以根据服务器接收待处理视频帧的顺序确定,也可以根据待处理视频帧对应的拍摄时间进行确定,当然,也可以通过其它方式进行确定(例如,待处理视频帧对应的序号),本公开不以此为限。
另外,服务器在确定第一设备是否拍摄结束时,若连续预设时间内未接受到第一设备发送的待处理视频帧时,或者,在接收到第一设备发送的结束标识时,可以确定第一设备拍摄结束。其中预设时间的大小可以根据实际情况进行设置,在此,不对其进行限制。
S203、接收服务器发送的目标视频,并显示目标视频。
在本公开实施例中,第一设备接收服务器发送的根据所有目标视频帧生成的目标视频,并将其保存在指定位置。当用户想要发布或播放该目标视频时,直接从该指定位置中获取该目标视频,然后进行发布或播放,实现目标视频的展示,且无需第一设备在待处理视频帧上添加目标特效,可以降低第一设备上相关资源的占用,提高第一设备的运行速度。
其中,第一设备可以在其拍摄结束后,从服务器中下载目标视频,即下载添加了目标特效的完整视频,也可以是服务器主动在第一设备拍摄结束后,主动下发目标视频至第一设备。
从上述描述可知,第一设备在拍摄视频的过程中,将拍摄得到的视频帧作为待处理视频帧,并获取该待处理视频帧对应的特效设置信息,将该待处理视频帧及其对应的特效设置信息发送至服务器,服务器根据该特效设置信息在待处理视频帧上添加所需添加的特效,即添加目标特效,以得到该待处理视频对应的目标视频帧,即得到添加了目标特效的待处理视频帧,由于服务器性能较高,利用服务器添加特效可以缩短特效添加的时间,因此,即使特效较复杂,也可以在较短时间内将复杂特效添加至待处理视频帧上,从而提高特效添加的效率和效果。服务器在第一设备拍摄结束后,对所有目标视频帧进行拼接以得到目标视频,即得到完整视频,然后将该完整视频发送至第一设备,以使第一设备可以直接获得添加了目标特效,即复杂特效的完整视频,从而可以向用户展示存在复杂特效的完整视频,提高用户体验。
参考图4,图4为本公开实施例提供的视频处理方法流程示意图二。在图2实施例的基础上,第一设备还可以在待处理视频帧上实时添加简单特效,以供用户互动和预览,下面将结合一个具体实施例在第一设备本地上的待处理视频帧上实时添加简单特效的过程进行详细描述,如图4所示,该方法包括:
S401、获取待处理的视频帧。
S402、响应于用于指示添加目标特效的第一触发操作,在待处理视频帧上添加与目标特效对应的初始特效。
在本公开实施例中,在拍摄视频的过程中,若检测到用户输入用于指示添加目标特效的第一触发操作,表明需要在用户输入该第一触发操作时拍摄得到的待处理视频帧上添加目标特效,则确定与该第一触发操作匹配的特效设置信息为目标特效的标识。但由于目标特效较复杂,为了提高特效的添加效率,第一设备在该待处理视频帧上添加相对简单的初始特效,则获取该目标特效的标识所对应的初始特效,并在该待处理视频帧上添加目标特效所对应的初始特效,同时在第一界面上实时显示添加了初始特效的待处理视频帧,以使用户可以实时通过第一设备显示的添加初始特效的待处理视频帧确定该待处理视频帧上会如何显示目标特效,即确定反馈效果,从而可以使用户实时调整交互操作,实现用户与特效的准确互动。
另外,可选的,第一设备在将初始特效添加至待处理视频帧上时,可以添加至默认位置上,相应的,服务器根据初始特效在待处理视频帧上的添加位置确定目标特效在所述目标视频帧上的添加位置,从而时目标特效与初始特效的添加位置一致。
此外,可选的,第一界面还包括特效列表,相应的,第一触发操作包括点击或长按操作。举例来说,当第一触发操作为点击操作时,第一触发操作具体时在用户从该特效列表中选择目标特效后,对第一按键所执行的点击操作,该点击操作可以使第一设备切换到开始拍摄视频的状态。
以一个具体应用场景为例,当用户想要在视频上添加特效时,可以选择第一界面提供的特效列表中的一个特效,然后点击第一按键,第一设备将该特效作为目标特效,并将该特效的标识作为目标特效的标识。由于目标特效较复杂,其对第一设备的性能要求较高,因此可以仅在第一设备展示简单特效,即展示该目标特效对应的简单特效,获取目标特效的标识对应的初始特效,即简单特效,然后在拍摄得到的待处理视频帧上添加该初始特效,实现特效的简单展示,以供用户与简单特效进行互动。例如,如图5所示,当用户选择特效列表11中的特效2(参见图6中(a)所示的恐龙特效)后,点击第一按键,第一设备开始拍摄视频,则将特效2的标识作为目标特效的标识,然后将目标特效的标识对应的初始特效(参见图6中(b)所示的抱枕特效)添加至该待处理视频帧上,从而可以使被拍摄人员可以根据待处理视频帧上的初始特效调整自身的动作,如图7中(a)所示,第一设备在待处理视频帧上添加抱枕特效后,被拍摄人员可以做出抱住该抱枕特效的动作,由于服务器添加目标特效,即恐龙特效,因此,服务器添加目标特效至视频帧,并在第一设备结束拍摄后将处理后的视频帧拼接得到的目标视频发送给第一设备,在第一设备上显示出被拍摄人员做出抱住恐龙特效的动作(参见图7中(b)所示),从而实现被拍摄人员与目标特效的互动,增加趣味性。
进一步的,可选的,用户在从特效列表中选择目标特效时,可以是在开始拍摄视频之前,从第一设备提供的特效列表中选择目标特效。若在拍摄过程中,用户并未选择取消或替换该目标特效,则该目标特效对应的初始特效便会添加在拍摄的完整视频上,即会添加在所有待处理视频帧上。相应的,第一设备发送至服务器的所有待处理视频帧对应的特效设置信息均会包括该目标特效的标识。当然,第一设备也可以仅发送一次目标特效的标识至服务器,以告知服务器所有待处理视频帧均需添加该目标特效。
另外,可选的,用户还可以在拍摄视频过程中,从第一设备提供的特效列表中选择新的目标特效,即在拍摄视频的过程中,用户可以点击第一按键,以使第一设备切换到暂停拍摄视频的状态,然后用户重新从第一设备提供的特效列表中选择特效,即选择新的目标特效。用户在选择新的目标特效后,可以重新点击第一按键,以使第一设备重新切换到开始拍摄视频的状态。第一设备在继续拍摄视频过程中,将新的目标特效对应的新的初始特效添加至第一设备重新拍摄得到的待处理视频帧上。相应的,若用户在第一时刻的后续时刻未选择取消或替换该特效,重新拍摄得到的待处理的视频频所对应的特效设置信息包括该新的目标特效的标识。当然,第一设备也可以仅发送一次该新的目标特效的标识至服务器,即仅使重新拍摄得到的第一个待处理视频所对应的特效设置信息包括该新的目标特效的标识,以告知服务器在第一个待处理视频以及在第一个待处理视频之后的待处理视频帧上均需添加该新的目标特效。
进一步的,第一设备将新的初始特效添加至重新拍摄得到的待处理视频帧上时,该待处理视频帧上不再添加用户之前选择的目标特效所对应的初始特效,以实现特效的替换。相应的,服务器也会将新的目标特效添加至重新拍摄得到的待处理视频帧上,且该待处理视频帧上不再添加用户之前选择的目标特效。
在本公开任意实施例中,可选的,第一设备在将初始特效添加至待处理视频帧上后,还可以根据环境亮度对初始特效的亮度进行相应的调节处理。
具体的,在根据环境亮度调整初始特效的亮度时,可以直接将初始特效的亮度调节至该环境亮度,也可以确定环境亮度对应的目标亮度,并将初始特效的亮度调节至该目标亮度。
可选的,在确定环境亮度对应的目标亮度时,可以根据预设的亮度计算公式进行确定,也可以直接通过查询相关亮度表进行确定。
在本公开实施例中,可选的,在拍摄包括用户的视频的过程中,还可以根据用户的动作对简单特效进行相应的处理,实现用户与简单特效的互动,其具体过程包括:在将初始特效添加至待处理视频帧上后,响应于接收到的第二触发动作,确定交互信息,并根据交互信息对待处理视频帧上的初始特效进行相应的交互处理。在第一界面显示处理后的目标视频帧。
可选的,第二触发动作包括手势动作、脸部动作和头部动作、语音输入等类型的动作。其中,手势动作包括五指张开动作、手部翻转动作和握拳动作等手部动作,当然,当用户做出其它指定手势(例如,“V”手势)的动作时,也可以认为其做出指定动作。脸部动作包括眼部操作(例如,视线移动、眨眼等动作)、嘴部动作(例如,做出指定口型)等。头部动作包括摇头动作和点头动作等。语音输入包括用户输入的各类型的语音指令等。
具体的,第二触发操作可以包括交互操作,根据该交互操作可以实现用户与初始特效的交互,例如,用户做出视线移动操作,初始特效也会相应进行移动。在拍摄视频的过程中,若检测到来自用户的指定动作,表明接收到用户做出的第二触发动作,即表明需根据该第二触发动作对初始特效进行动态调整,以实现与用户的互动,生成该第二触发动作对应的交互信息,并根据该交互信息对在用户做出该第二触发动作期间内的待处理视频帧上的初始特效进行处理,以实现对用户的互动动作的响应,并且显示处理后的待处理视频帧,以使用户可以实时获知其与目标特效的互动效果,从而继续与初始特效进行互动,以实现与目标特效的互动,满足用户的互动需求。
其中,做出第二触发动作的用户可以为被拍摄人员,也可以为拍摄用户,例如,当使用第一设备的前置摄像头拍摄视频时,拍摄用户一般也为被拍摄人员,因此,做出第二触发动作的用户可以为拍摄用户;当使用第一设备的后置摄像头拍摄视频时,拍摄用户一般不为被拍摄人员,因此,做出第二触发动作的用户一般为被拍摄人员。
其中,第二触发动作对应的交互信息包括第二触发动作的具体类型,例如,第二触发动作为视线向右移动,则交互信息包括视线向右移动类型。
以一个具体应用场景为例,在拍摄视频的过程中,在检测到用户做出视线向右移动动作,表明用户做出交互操作,则根据视线向右移动动作生成相应的交互信息,并根据该交互信息将待处理视频帧上的初始特效向右移动,即对拍摄获得的时刻在开始时刻与截止时刻之间的待处理视频帧上的初始特效按照视线移动的方向进行移动,其中开始时刻为用户的视线开始移动的时刻,截止时刻为用户的视线停止移动的时刻。例如,如图7中(a)所示,在时刻1拍摄获得的视频帧上添加抱枕特效,且在时刻1检测到用户(当使用前置摄像装置时,用户也为视频中的被拍摄人员)做出视线向右移动动作,则根据该视线向右移动动作向右移动该视频帧上的抱枕特效。
在公开实施例中,当在待处理视频帧上显示初始特效,即在拍摄视频的过程中,根据用户的动作调整视频帧上的初始特效,以实现与初始特效进行互动,进而实现与目标特效进行互动,增加趣味性。
在本公开实施例中,可选的,在拍摄包括用户的视频过程中,不仅可以根据该用户的动作对初始特效进行处理,还可以根据拍摄用户作用于第一设备上的动作对初始特效进行处理,其具体过程包括:在将初始特效添加至待处理视频帧上后,响应作用于第一设备的第三触发操作,并根据第三触发操作对待处理视频帧上的初始特效进行相应的移动处理。
具体的,第三触发操作为移动操作,在拍摄视频的过程中,若检测到拍摄用户移动第一设备,则第一设备上的相关硬件部件(例如,陀螺仪)采集相应的移动信息以得到在移动期间内拍摄得到的待处理视频帧所对应的第一设备的移动信息,并根据该第一设备的移动信息对该待处理视频帧上的初始特效进行移动处理,以实现对拍摄用户的互动动作的响应,增加特效的真实感。
进一步的,可选的,第一设备的移动信息包括第一设备移动的加速度,即移动加速度,以及第一设备移动时的朝向,即移动朝向,则根据该第一设备的移动信息对该待处理视频帧上的初始特效进行移动处理,包括:
根据移动加速度和移动朝向计算目标位置,该目标位置为待处理视频帧上的初始特效所需移动到的目标位置,然后将待处理视频帧上的初始特效移动至该目标位置。
另外,可选的,特效设置信息还可以包括作用于初始特效的移动信息。第一设备不仅可以根据交互信息和第一设备的移动信息调整初始特效,也还可以根据作用于初始特效的移动信息调整初始特效。具体的,响应于作用于初始特效的第四触发操作,确定作用于初始特效的移动信息,并根据作用于初始特效的移动信息对初始特效进行移动旋转处理。
其中,第四触发操作包括移动操作和/或旋转操作等操作,相应的,作用于初始特效的移动信息包括初始特效对应的移动位置和/或旋转角度等信息。该移动位置表明初始特效在其对应的待处理视频帧所处的位置。旋转角度表明用户转动初始特效的角度。举例来说,在拍摄视频的过程中,用户可以选中第一页面显示的初始特效,并将其由位置1移动至位置2,实现初始特效的移动,用户也可以在选中初始特效后,对其进行旋转,以实现初始特效的转动。
在任意实施例中,可选的,特效设置信息还可以包括文本信息。文字信息包括待添加文本内容以及文本格式标识。在拍摄视频的过程中,用户还可以在视频上添加文本,即待添加文本内容,并选择文本格式以使第一设备根据该文本格式调整待添加文本内容的格式。相应的,在添加文本期间内拍摄得到的视频帧所对应的特效设置信息包括该待添加文本内容及该文本格式对应的文本格式标识。
S403、将待处理视频帧及其对应的特效设置信息发送至服务器,以使服务器根据特效设置信息在待处理视频帧上添加目标特效,得到待处理视频帧对应的目标视频帧,并在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频。
在本公开实施例中,在得到待处理视频帧及其对应的特效设置信息后,对待处理视频帧进行编码,并对编码后的待处理视频帧和待处理视频帧对应的特效设置信息进行封装,得到视频包;将视频包发送至服务器,以使服务器对视频包进行解析,得到编码后的待处理视频帧和特效设置信息,并对编码后的待处理视频帧进行解码,得到待处理视频帧。
可选的,在对编码后的待处理视频帧和待处理视频帧对应的特效设置信息进行封装时,可以按照预设视频格式,对编码后的待处理视频帧和待处理视频帧对应的特效设置信息进行封装,以得到包括该编码后的待处理视频帧和该特效设置信息。
S404、接收服务器发送的目标视频,并显示目标视频。
在本公开实施例中,第一设备在获取到服务器发送的目标视频后,还可以对该目标视频进行后处理。即通过第一设备提供第二界面,该第二界面播放目标视频的界面,该第二界面包括第二按键。响应作用于第二按键的第五触发操作,对目标视频进行后处理,其中后处理包括诸如倒播处理、滤镜处理和倍速处理中的一个或多个。
在本公开实施例中,第五触发操作为点击操作。第二按键包括倒播按键、滤镜按键和倍速按键中的一个或多个。当用户想要对目标视频进行后处理时,可以通过点击相应的第一按键。
举例来说,如图8所示,第二界面包括倒播按键20。当用户想要倒播目标视频时,可以通过点击倒播按键,第一设备进行响应该操作以对目标视频进行倒播处理;如图9中(a)所示,第二界面包括滤镜按键21,当用户想要对目标视频添加某种滤镜,可以点击滤镜按键,然后界面上显示多种滤镜样式,如图9中(b)所示,用户可以选择滤镜样式2,第一设备按照用户选择的滤镜样式对目标视频进行处理;此外,第二界面还可以包括倍速按键,当用户想要对目标视频按照某种倍速播放时,可以点击倍速按键,然后显示多个倍速选项,用户可以选择一个倍速选项,第一设备按照用户选择的倍速选项对目标视频进行处理,例如,倍速选项包括0.5倍速、1.0倍速和1.5倍速,用户选择0.5倍速这个选项,则第一设备对目标视频进行0.5倍速处理,以使在播放处理后的目标视频时,按照0.5倍速进行播放。
需要说明,后处理还可以包括其它类型的处理,例如,在目标视频上添加贴纸、添加背景音乐等,本公开不对其进行限制。
在本公开实施例中,由于用户无法实时看到添加了目标特效的待处理视频帧,通过实时展示添加了初始特效,即简单特效的待处理视频帧给用户,以使用户可以获知待处理视频帧上会如何显示目标特效,实现效果的实时反馈,且该初始特效相当于用户与目标特效之间进行交互的参照物,用户可以根据显示的初始特效调整其做出的交互动作,实现用户与目标特效准确互动。
参考图10,图10为本公开实施例提供的视频处理方法的流程示意图三。本实施例的方法可以应用在图1所示的服务器中,如图10所示,该视频处理方法包括:
S1001、获取第一设备发送的待处理视频帧及其对应的特效设置信息。
S1002、根据特效设置信息在待处理视频帧上添加目标特效,得到待处理视频帧对应的目标视频帧。
在本公开实施例中,服务器接收第一设备发送的待处理视频帧,即第一设备拍摄得到的视频帧,以及该待处理视频帧对应的特效设置信息,以利用该特效设置信息在该待处理视频帧上添加目标特效,得到该待处理视频帧对应的目标视频帧,实现目标特效的添加。
可选的,特效设置信息以下信息中的至少一项:目标特效的标识、第一设备的移动信息、以及根据接收到的触发动作(即上述实施例中的第二触发动作)确定的交互信息。
在本公开实施例中,可选的,服务器在待处理视频帧上添加目标特效后,还可以根据特效设置信息对待处理视频帧上的目标特效进行调整,即当特效设置信息包括交互信息和/或第一设备的移动信息时,若特效设置信息中未包括目标特效的标识,则获取保存的目标特效的标识,若特效设置信息中包括目标特效的标识,则直接获取特效设置信息中的目标特效的标识。在获取到目标特效的标识后,获取目标特效的标识对应的目标特效,并在待处理视频帧上添加目标特效。然后根据交互信息对目标特效进行相应的交互处理,得到待处理视频帧对应的目标视频帧,和/或,根据根据第一设备的移动信息对目标特效进行相应的移动处理。
其中,服务器根据交互信息对目标特效进行处理的过程与上述第一设备根据交互信息对初始特效进行处理的过程类似,在此,不再对其进行赘述。且服务器根据第一设备的移动信息对目标特效进行处理的过程与上述第一设备根据第一设备的移动信息对初始特效进行处理的过程类似,即根据第一设备的移动信息中的移动加速度和移动朝向计算目标位置,并将目标特效移动至目标位置,在此,也不再对其进行赘述。
在任意实施例中,可选的,特效设置信息还可以包括文本信息。文字信息包括待添加文本内容以及文本格式标识。服务器根据该文字信息在待处理视频帧上添加待添加文本内容,该待添加文本内容的文本格式为文本格式标识所对应的格式,以实现服务器对文本特效的添加。
另外,可选的,特效设置信息还可以包括作用于初始特效的移动信息,该移动信息可以包括初始特效对应的移动位置和/或旋转角度等信息。其中,作用于初始特效的移动信息是根据用户输入的第四触发操作确定的,该第四触发操作包括移动操作或旋转操作。
其中,移动位置表明初始特效在其对应的待处理视频帧所处的位置,例如,某个初始特效的初始位置,即在视频1上的位置为位置1,用户选中该初始特效,并将其移动至位置2。在对初始特效移动的过程中拍摄得到的视频帧包括视频帧2,则视频帧2对应的特效设置信息还包括作用于初始特效的移动信息,该移动信息包括初始特效在该视频帧2上所处的位置,即包括位置2。服务器在接收到视频帧1及其对应的特效设置信息后,在视频帧1上的初始位置,即位置1上添加目标特效,并在接收到视频帧2及其对应的特效设置信息后,该特效设置信息包括作用于初始特效的移动信息,先在视频帧2上添加目标特效,然后对该目标特效进行移动,以将目标特效由位置1移动至位置2。
在本公开实施例中,当用户在第一设备上移动初始特效时,服务器也可以相应地移动该初始特效对应的目标特效,实现特效的同步处理,避免出现仅在第一设备上处理特效,而服务器并未同步对相应特效进行处理的问题,提高用户使用满意度。
返回图图10,步骤S1003中,在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频。
返回图图10,步骤S1004中,将目标视频发送至第一设备。
在本公开实施例中,在得到待处理视频帧对应的目标视频帧后,对所有目标视频帧进行拼接以得到目标视频,并将目标视频发送至第一设备,即将已经添加了目标特效的完整目标视频发送至第一设备。
在本公开实施例中,服务器可以根据用户输入的移动信息和/或特效设置新对相应的第一目标视频帧上的目标特效进行实时处理,实现特效的动态处理,从而实现拍摄用户/被拍摄人员与目标特效的互动,满足用户的互动需求。
在本公开实施例中,服务器根据初始特效在待处理视频帧上的添加位置确定目标特效在目标视频帧上的添加位置,例如,服务器在待处理视频帧上添加的目标特效的位置与第一设备在待处理视频帧上添加的初始特效的位置一致,且服务器对待处理视频帧上添加的目标特效所进行的处理与第一设备对在待处理视频帧上添加的初始特效所进行的处理同步一致,从而可以使得用户通过第一设备的初始特效在待处理视频帧上的显示效果确定目标特效在待处理视频帧上的显示效果。
在本公开实施例中,服务器获取第一设备发送的待处理视频帧以及其对应的特效设置信息,然后根据该特效设置信息在该待处理视频帧添加相应的目标特效,实现视频帧的特效处理,由于服务器的性能较高,因此,可以处理各种复杂的特效,并且还可以大大缩短进行特效处理的时间,即提高在视频帧上添加特效的效率,即使所需添加的特效较复杂,也可以在较短时间内实现特效处理,无需第一设备添加复杂特效,减少第一设备的资源的占用,提高其运行速度。并且服务器在将已经添加目标特效的待处理视频帧返回至第一设备,以使用户能够获取到进行特效处理的视频,保证用户的需求。
参考图11,图11为本公开实施例提供的视频处理方法的流程示意图四。在图10实施例的基础上,还可以根据待处理视频帧对应的拍摄环境亮度对目标特效的亮度进行调整,下面对过程进行详细描述,如图11所示,该方法包括:
S1101、获取第一设备发送的待处理视频帧及其对应的特效设置信息,并获取第一设备发送的待处理视频帧对应的环境亮度。
在本公开实施例中,待处理视频帧对应的环境亮度为待处理视频帧对应的拍摄环境的亮度值,即拍摄得到该待处理视频帧时,第一设备所处环境的亮度值。
S1102、根据特效设置信息在待处理视频帧上添加目标特效。
S1103、根据环境亮度对目标特效的亮度进行相应的调节处理,得到待处理视频帧对应的目标视频帧。
在本公开实施例中,在待处理视频帧上添加目标特效后,若该待处理视频帧存在对应的环境亮度,则根据环境亮度调整待处理视频帧上的目标特效的亮度,以使目标特效的亮度与拍摄环境更加匹配,从而使目标特效更具有真实感。
在本公开实施例中,在根据环境亮度调整目标特效的亮度时,可以直接将目标特效的亮度调节至该环境亮度,也可以确定环境亮度对应的目标亮度,并将目标特效的亮度调节至该目标亮度。
另外,进一步的,在确定环境亮度对应的目标亮度时,可以根据预设的亮度计算公式进行确定,也可以直接通过查询相关亮度表进行确定。
S1104、在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频。
S1105、将目标视频发送至第一设备。
在本公开实施例中,在得到目标视频后,对目标视频进行编码,并将编码后的目标视频发送至第一设备,以使第一设备对编码后的目标视频进行解码,得到目标视频。
其中,在对目标视频进行编解码时,可以采用现有编解码技术,在此,不对其进行限制。
在本公开实施例中,在待处理视频帧上添加目标特效后,还可以根据该待处理视频帧对应的拍摄环境的亮度对该目标特效的亮度进行调整,以使目标特效的亮度更符合拍摄环境,增强目标特效的真实感,提高用户的视觉体验,
对应于上文图2至图9实施例的视频处理方法,图12为本公开实施例提供的视频处理设备的结构框图一。为了便于说明,仅示出了与本公开实施例相关的部分。参照图12,设备包括:第一处理模块1201和第一收发模块1202。
其中,第一处理模块1201,用于获取待处理视频帧及其对应的特效设置信息。
第一收发模块1202,用于将待处理视频帧及其对应的特效设置信息发送至服务器,以使服务器根据特效设置信息在待处理视频帧上添加目标特效,得到待处理视频帧对应的目标视频帧,并在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频。
第一收发模块1202,还用于接收服务器发送的目标视频,并显示目标视频。
在本公开的一个实施例中,第一处理模块1201还用于:
响应于用于指示添加目标特效的第一触发操作,在待处理视频帧上添加与目标特效对应的初始特效。
在本公开的一个实施例中,服务器根据初始特效在待处理视频帧上的添加位置确定目标特效在目标视频帧上的添加位置。
在本公开的一个实施例中,第一处理模块1201还用于:
响应于接收到的第二触发动作,确定交互信息,并根据交互信息对待处理视频帧上的初始特效进行相应的交互处理。
在本公开的一个实施例中,第一处理模块1201还用于:
响应作用于第一设备的第三触发操作,并根据第三触发操作对待处理视频帧上的初始特效进行相应的移动处理。
在本公开的一个实施例中,第一处理模块1201还用于:
获取环境亮度,并根据环境亮度对待处理视频帧上的初始特效的亮度进行相应的调节处理。
在本公开的一个实施例中,第一收发模块1202还用于:
对待处理视频帧进行编码,并对编码后的待处理视频帧和待处理视频帧对应的特效设置信息进行封装,得到视频包;将视频包发送至服务器,以使服务器对视频包进行解析,得到编码后的待处理视频帧和特效设置信息,并对编码后的待处理视频帧进行解码,得到待处理视频帧。
在本公开的一个实施例中,特效设置信息包括以下信息中的至少一项:目标特效的标识、第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
对应于上文图10至图11实施例的视频处理方法,图13为本公开实施例提供的视频处理设备的结构框图二,该视频处理设备应用与服务器。为了便于说明,仅示出了与本公开实施例相关的部分。参照图13,设备包括:第二收发模块1301和第二处理模块1302。
第二收发模块1301,获取第一设备发送的待处理视频帧及其对应的特效设置信息。
第二处理模块1302,用于根据特效设置信息在待处理视频帧上添加目标特效,得到待处理视频帧对应的目标视频帧。
第二处理模块1302,还用于在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频。
第二收发模块1301,还用于将目标视频发送至第一设备。
在本公开的一个实施例中,特效设置信息包括以下信息中的至少一项:目标特效的标识、第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
在本公开的一个实施例中,若特效设置信息包括目标特效的标识,则第二处理模块1302还用于:
获取目标特效的标识对应的目标特效,并在待处理视频帧上添加目标特效。
在本公开的一个实施例中,若特效设置信息包括交互信息,则第二处理模块1302还用于:
获取目标特效的标识对应的目标特效;在待处理视频帧上添加目标特效,并根据交互信息对目标特效进行相应的交互处理,得到待处理视频帧对应的目标视频帧。
在本公开的一个实施例中,若特效设置信息包括第一设备的移动信息,则第二处理模块1302还用于:
获取目标特效的标识对应的目标特效;在待处理视频帧上添加目标特效,并根据第一设备的移动信息对目标特效进行相应的移动处理。
在本公开的一个实施例中,第一设备的移动信息包括移动加速度和移动朝向。
第二处理模块1302还用于:
根据移动加速度和移动朝向计算目标位置,并将目标特效移动至目标位置。
在本公开的一个实施例中,第二处理模块1302还用于:
在所根据特效设置信息在待处理视频帧上添加目标特效之后,获取第一设备发送的待处理视频帧对应的环境亮度。根据环境亮度对目标特效的亮度进行相应的调节处理。
在本公开的一个实施例中,第二收发模块1301还用于:
对目标视频进行编码,并将编码后的目标视频发送至第一设备,以使第一设备对编码后的目标视频进行解码,得到目标视频。
本实施例提供的设备,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
参考图14,其示出了适于用来实现本公开实施例的电子设备1400的结构示意图,该电子设备1400可以为第一设备或服务器。其中,第一设备可以为移动终端,移动终端可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(PersonalDigital Assistant,简称PDA)、平板电脑(Portable Android Device,简称PAD)、便携式多媒体播放器(Portable Media Player,简称PMP)、车载终端(例如车载导航终端)、可穿戴电子设备等等的移动终端以及诸如数字TV、台式计算机、智能家居设备等等的固定终端。图14示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图14所示,电子设备1400可以包括处理装置(例如中央处理器、图形处理器等)1401,其可以根据存储在只读存储器(Read Only Memory,简称ROM)1402中的程序或者从存储装置1406加载到随机访问存储器(Random Access Memory,简称RAM)1403中的程序而执行各种适当的动作和处理。在RAM 1403中,还存储有电子设备1400操作所需的各种程序和数据。处理装置1401、ROM 1402以及RAM 1403通过总线1404彼此相连。输入/输出(I/O)接口1405也连接至总线1404。
通常,以下装置可以连接至I/O接口1405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1406;包括例如液晶显示器(Liquid CrystalDisplay,简称LCD)、扬声器、振动器等的输出装置1407;包括例如磁带、硬盘等的存储装置1406;以及通信装置1406。通信装置1406可以允许电子设备1400与其他设备进行无线或有线通信以交换数据。虽然图14示出了具有各种装置的电子设备1400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1406从网络上被下载和安装,或者从存储装置1406被安装,或者从ROM1402被安装。在该计算机程序被处理装置1401执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network,简称LAN)或广域网(Wide Area Network,简称WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
第一方面,根据本公开的一个或多个实施例,提供了一种视频处理方法,应用于第一设备,所述方法包括:
获取待处理视频帧及其对应的特效设置信息;
将所述待处理视频帧及其对应的特效设置信息发送至服务器,以使所述服务器根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,并在所述第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频;
接收所述服务器发送的目标视频,并显示所述目标视频。
根据本公开的一个或多个实施例,所述方法还包括:
响应于用于指示添加目标特效的第一触发操作,在所述待处理视频帧上添加与所述目标特效对应的初始特效。
根据本公开的一个或多个实施例,所述服务器根据所述初始特效在所述待处理视频帧上的添加位置确定所述目标特效在所述目标视频帧上的添加位置。
根据本公开的一个或多个实施例,所述方法还包括:
响应于接收到的第二触发动作,确定交互信息,并根据所述交互信息对所述待处理视频帧上的初始特效进行相应的交互处理。
根据本公开的一个或多个实施例,所述方法包括:
响应作用于所述第一设备的第三触发操作,并根据所述第三触发操作对所述待处理视频帧上的初始特效进行相应的移动处理。
根据本公开的一个或多个实施例,所述方法还包括:
获取环境亮度,并根据环境亮度对所述待处理视频帧上的初始特效的亮度进行相应的调节处理。
根据本公开的一个或多个实施例,将所述待处理视频帧及其对应的特效设置信息发送至服务器,包括:
对所述待处理视频帧进行编码,并对编码后的待处理视频帧和所述待处理视频帧对应的特效设置信息进行封装,得到视频包;
将所述视频包发送至所述服务器,以使所述服务器对所述视频包进行解析,得到所述编码后的待处理视频帧和所述特效设置信息,并对所述编码后的待处理视频帧进行解码,得到所述待处理视频帧。
根据本公开的一个或多个实施例,所述特效设置信息包括以下信息中的至少一项:所述目标特效的标识、所述第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
第二方面,根据本公开的一个或多个实施例,提供了一种视频处理方法,应用于服务器,所述方法包括:
获取第一设备发送的待处理视频帧及其对应的特效设置信息;
根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧;
在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频;
将所述目标视频发送至所述第一设备。
根据本公开的一个或多个实施例,所述特效设置信息包括以下信息中的至少一项:所述目标特效的标识、所述第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
根据本公开的一个或多个实施例,若所述特效设置信息包括目标特效的标识,则根据所述特效设置信息在所述待处理视频帧上添加目标特效,包括:
获取所述目标特效的标识对应的目标特效,并在所述待处理视频帧上添加所述目标特效。
根据本公开的一个或多个实施例,若所述特效设置信息包括交互信息,则根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,包括:
获取目标特效的标识对应的目标特效;
在所述待处理视频帧上添加所述目标特效,并根据所述交互信息对所述目标特效进行相应的交互处理,得到所述待处理视频帧对应的目标视频帧。
根据本公开的一个或多个实施例,若特效设置信息包括第一设备的移动信息,则根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,包括:
获取目标特效的标识对应的目标特效;
在所述待处理视频帧上添加所述目标特效,并根据所述第一设备的移动信息对所述目标特效进行相应的移动处理。
根据本公开的一个或多个实施例,所述第一设备的移动信息包括移动加速度和移动朝向;
所述根据所述第一设备的移动信息对所述目标特效进行相应的移动处理,包括:
根据移动加速度和移动朝向计算目标位置,并将所述目标特效移动至所述目标位置。
根据本公开的一个或多个实施例,在所根据所述特效设置信息在所述待处理视频帧上添加目标特效之后,还包括:
获取第一设备发送的所述待处理视频帧对应的环境亮度;
根据所述环境亮度对所述目标特效的亮度进行相应的调节处理。
根据本公开的一个或多个实施例,所述将所述目标视频发送至所述第一设备,包括:
对所述目标视频进行编码,并将编码后的目标视频发送至所述第一设备,以使所述第一设备对所述编码后的目标视频进行解码,得到所述目标视频。
第三方面,根据本公开的一个或多个实施例,提供了一种视频处理设备,应用于第一设备,所述设备包括:
其中,第一处理模块,用于获取待处理视频帧及其对应的特效设置信息;
第一收发模块,用于将所述待处理视频帧及其对应的特效设置信息发送至服务器,以使所述服务器根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,并在所述第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频;
所述第一收发模块,还用于接收所述服务器发送的目标视频,并显示所述目标视频。
根据本公开的一个或多个实施例,所述第一处理模块还用于:
响应于用于指示添加目标特效的第一触发操作,在所述待处理视频帧上添加与所述目标特效对应的初始特效。
根据本公开的一个或多个实施例,所述服务器根据所述初始特效在所述待处理视频帧上的添加位置确定所述目标特效在所述目标视频帧上的添加位置。
根据本公开的一个或多个实施例,所述第一处理模块还用于:
响应于接收到的第二触发动作,确定交互信息,并根据所述交互信息对所述待处理视频帧上的初始特效进行相应的交互处理。
根据本公开的一个或多个实施例,第一处理模块还用于:
响应作用于所述第一设备的第三触发操作,并根据所述第三触发操作对所述待处理视频帧上的初始特效进行相应的移动处理。
根据本公开的一个或多个实施例,所述第一处理模块还用于:
获取环境亮度,并根据环境亮度对所述待处理视频帧上的初始特效的亮度进行相应的调节处理。
根据本公开的一个或多个实施例,所述第一收发模块还用于:
对所述待处理视频帧进行编码,并对编码后的待处理视频帧和所述待处理视频帧对应的特效设置信息进行封装,得到视频包;
将所述视频包发送至所述服务器,以使所述服务器对所述视频包进行解析,得到所述编码后的待处理视频帧和所述特效设置信息,并对所述编码后的待处理视频帧进行解码,得到所述待处理视频帧。
根据本公开的一个或多个实施例,所述特效设置信息包括以下信息中的至少一项:所述目标特效的标识、所述第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
第四方面,根据本公开的一个或多个实施例,提供了一种视频处理设备,应用于服务器,所述设备包括:
第二收发模块,获取第一设备发送的待处理视频帧及其对应的特效设置信息;
第二处理模块,用于根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧;
所述第二处理模块,还用于在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频;
所述第二收发模块,还用于将所述目标视频发送至所述第一设备。
根据本公开的一个或多个实施例,特效设置信息包括以下信息中的至少一项:所述目标特效的标识、所述第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
根据本公开的一个或多个实施例,若所述特效设置信息包括目标特效的标识,则第二处理模块还用于:
获取所述目标特效的标识对应的目标特效,并在所述待处理视频帧上添加所述目标特效。
根据本公开的一个或多个实施例,若所述特效设置信息包括交互信息,则第二处理模块还用于:
获取目标特效的标识对应的目标特效;
在所述待处理视频帧上添加所述目标特效,并根据所述交互信息对所述目标特效进行相应的交互处理,得到所述待处理视频帧对应的目标视频帧。
根据本公开的一个或多个实施例,若特效设置信息包括第一设备的移动信息,则第二处理模块还用于:
获取目标特效的标识对应的目标特效;
在所述待处理视频帧上添加所述目标特效,并根据所述第一设备的移动信息对所述目标特效进行相应的移动处理。
根据本公开的一个或多个实施例,所述第一设备的移动信息包括移动加速度和移动朝向;
所述第二处理模块还用于:
根据移动加速度和移动朝向计算目标位置,并将所述目标特效移动至所述目标位置。
根据本公开的一个或多个实施例,所述第二处理模块还用于:
在所根据所述特效设置信息在所述待处理视频帧上添加目标特效之后,获取第一设备发送的所述待处理视频帧对应的环境亮度;根据所述环境亮度对所述目标特效的亮度进行相应的调节处理。
根据本公开的一个或多个实施例,所述第二收发模块还用于:
对所述目标视频进行编码,并将编码后的目标视频发送至所述第一设备,以使所述第一设备对所述编码后的目标视频进行解码,得到所述目标视频。
第五方面,根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面以及第一方面各种可能的设计所述的视频处理方法。
第六方面,根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第二方面以及第二方面各种可能的设计所述的视频处理方法。
第七方面,根据本公开的一个或多个实施例,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面以及第一方面各种可能的设计所述的视频处理方法。
第八方面,根据本公开的一个或多个实施例,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第二方面以及第二方面各种可能的设计所述的视频处理方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (22)
1.一种视频处理方法,其特征在于,应用于第一设备,所述方法包括:
获取待处理视频帧及其对应的特效设置信息;
将所述待处理视频帧及其对应的特效设置信息发送至服务器,以使所述服务器根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,并在所述第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频;
接收所述服务器发送的目标视频,并显示所述目标视频。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于用于指示添加目标特效的第一触发操作,在所述待处理视频帧上添加与所述目标特效对应的初始特效。
3.根据权利要求2所述的方法,其特征在于,所述服务器根据所述初始特效在所述待处理视频帧上的添加位置确定所述目标特效在所述目标视频帧上的添加位置。
4.根据权利要求2所述的方法,其特征在于,所述方法还包括:
响应于接收到的第二触发动作,确定交互信息,并根据所述交互信息对所述待处理视频帧上的初始特效进行相应的交互处理。
5.根据权利要求2所述的方法,其特征在于,所述方法还包括:
响应作用于所述第一设备的第三触发操作,并根据所述第三触发操作对所述待处理视频帧上的初始特效进行相应的移动处理。
6.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取环境亮度,并根据环境亮度对所述待处理视频帧上的初始特效的亮度进行相应的调节处理。
7.根据权利要求1至5任一项所述的方法,其特征在于,将所述待处理视频帧及其对应的特效设置信息发送至服务器,包括:
对所述待处理视频帧进行编码,并对编码后的待处理视频帧和所述待处理视频帧对应的特效设置信息进行封装,得到视频包;
将所述视频包发送至所述服务器,以使所述服务器对所述视频包进行解析,得到所述编码后的待处理视频帧和所述特效设置信息,并对所述编码后的待处理视频帧进行解码,得到所述待处理视频帧。
8.根据权利要求1所述的方法,其特征在于,所述特效设置信息包括以下信息中的至少一项:所述目标特效的标识、所述第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
9.一种视频处理方法,其特征在于,应用于服务器,所述方法包括:
获取第一设备发送的待处理视频帧及其对应的特效设置信息;
根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧;
在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频;
将所述目标视频发送至所述第一设备。
10.根据权利要求9所述的方法,其特征在于,所述特效设置信息包括以下信息中的至少一项:所述目标特效的标识、所述第一设备的移动信息、以及根据接收到的触发动作确定的交互信息。
11.根据权利要求10所述的方法,其特征在于,若所述特效设置信息包括目标特效的标识,则根据所述特效设置信息在所述待处理视频帧上添加目标特效,包括:
获取所述目标特效的标识对应的目标特效,并在所述待处理视频帧上添加所述目标特效。
12.根据权利要求10所述的方法,其特征在于,若所述特效设置信息包括交互信息,则根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,包括:
获取目标特效的标识对应的目标特效;
在所述待处理视频帧上添加所述目标特效,并根据所述交互信息对所述目标特效进行相应的交互处理,得到所述待处理视频帧对应的目标视频帧。
13.根据权利要求10所述的方法,其特征在于,若特效设置信息包括第一设备的移动信息,则根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,包括:
获取目标特效的标识对应的目标特效;
在所述待处理视频帧上添加所述目标特效,并根据所述第一设备的移动信息对所述目标特效进行相应的移动处理。
14.根据权利要求13所述的方法,其特征在于,所述第一设备的移动信息包括移动加速度和移动朝向;
所述根据所述第一设备的移动信息对所述目标特效进行相应的移动处理,包括:
根据移动加速度和移动朝向计算目标位置,并将所述目标特效移动至所述目标位置。
15.根据权利要求9至14任一项所述的方法,其特征在于,在所根据所述特效设置信息在所述待处理视频帧上添加目标特效之后,还包括:
获取第一设备发送的所述待处理视频帧对应的环境亮度;
根据所述环境亮度对所述目标特效的亮度进行相应的调节处理。
16.根据权利要求9至14任一项所述的方法,其特征在于,所述将所述目标视频发送至所述第一设备,包括:
对所述目标视频进行编码,并将编码后的目标视频发送至所述第一设备,以使所述第一设备对所述编码后的目标视频进行解码,得到所述目标视频。
17.一种视频处理设备,其特征在于,应用于第一设备,所述设备包括:
第一处理模块,用于获取待处理视频帧及其对应的特效设置信息;
第一收发模块,用于将所述待处理视频帧及其对应的特效设置信息发送至服务器,以使所述服务器根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧,并在所述第一设备拍摄结束后,对得到的所有目标视频帧进行拼接,生成目标视频;
所述第一收发模块,还用于接收所述服务器发送的目标视频,并显示所述目标视频。
18.一种视频处理设备,其特征在于,应用于服务器,所述设备包括:
第二收发模块,获取第一设备发送的待处理视频帧及其对应的特效设置信息;
第二处理模块,用于根据所述特效设置信息在所述待处理视频帧上添加目标特效,得到所述待处理视频帧对应的目标视频帧;
所述第二处理模块,还用于在第一设备拍摄结束后,对得到的所有目标视频帧进行拼接生成目标视频;
所述第二收发模块,还用于将所述目标视频发送至所述第一设备。
19.一种电子设备,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1至8任一项所述的视频处理方法。
20.一种电子设备,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求9至16任一项所述的视频处理方法。
21.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1至8任一项所述的视频处理方法。
22.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求9至16任一项所述的视频处理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011194064.1A CN112291590A (zh) | 2020-10-30 | 2020-10-30 | 视频处理方法及设备 |
PCT/CN2021/122904 WO2022089178A1 (zh) | 2020-10-30 | 2021-10-09 | 视频处理方法及设备 |
US18/044,122 US20230319341A1 (en) | 2020-10-30 | 2021-10-09 | Video processing method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011194064.1A CN112291590A (zh) | 2020-10-30 | 2020-10-30 | 视频处理方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112291590A true CN112291590A (zh) | 2021-01-29 |
Family
ID=74353799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011194064.1A Pending CN112291590A (zh) | 2020-10-30 | 2020-10-30 | 视频处理方法及设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230319341A1 (zh) |
CN (1) | CN112291590A (zh) |
WO (1) | WO2022089178A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022089178A1 (zh) * | 2020-10-30 | 2022-05-05 | 北京字节跳动网络技术有限公司 | 视频处理方法及设备 |
CN114697703A (zh) * | 2022-04-01 | 2022-07-01 | 北京字跳网络技术有限公司 | 视频数据生成方法、装置、电子设备及存储介质 |
CN114885192A (zh) * | 2021-02-05 | 2022-08-09 | 北京小米移动软件有限公司 | 视频处理方法、视频处理装置及存储介质 |
WO2023072238A1 (zh) * | 2021-11-01 | 2023-05-04 | 北京字跳网络技术有限公司 | 内容显示方法、装置、设备及介质 |
WO2023224548A3 (zh) * | 2022-05-17 | 2024-01-25 | 脸萌有限公司 | 特效视频确定方法、装置、电子设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115190359A (zh) * | 2022-05-12 | 2022-10-14 | 南京奥拓电子科技有限公司 | 一种视频播放格式自动转换方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104796767A (zh) * | 2015-03-31 | 2015-07-22 | 北京奇艺世纪科技有限公司 | 一种云视频编辑方法和系统 |
US20160071058A1 (en) * | 2014-09-05 | 2016-03-10 | Sony Corporation | System and methods for creating, modifying and distributing video content using crowd sourcing and crowd curation |
CN106060655A (zh) * | 2016-08-04 | 2016-10-26 | 腾讯科技(深圳)有限公司 | 一种视频处理方法、服务器及终端 |
CN109035288A (zh) * | 2018-07-27 | 2018-12-18 | 北京市商汤科技开发有限公司 | 一种图像处理方法及装置、设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040226047A1 (en) * | 2003-05-05 | 2004-11-11 | Jyh-Bor Lin | Live broadcasting method and its system for SNG webcasting studio |
CN102868923B (zh) * | 2012-09-13 | 2016-04-06 | 北京富年科技有限公司 | 应用于移动终端视频的特效云处理方法、设备及系统 |
CN104427259A (zh) * | 2013-09-03 | 2015-03-18 | 广州市千钧网络科技有限公司 | 视频音频特效实时播放方法及装置 |
CN104967865B (zh) * | 2015-03-24 | 2019-10-11 | 腾讯科技(北京)有限公司 | 视频预览方法和装置 |
CN107948543B (zh) * | 2017-11-16 | 2021-02-02 | 北京奇虎科技有限公司 | 一种视频特效处理方法及装置 |
CN112291590A (zh) * | 2020-10-30 | 2021-01-29 | 北京字节跳动网络技术有限公司 | 视频处理方法及设备 |
-
2020
- 2020-10-30 CN CN202011194064.1A patent/CN112291590A/zh active Pending
-
2021
- 2021-10-09 WO PCT/CN2021/122904 patent/WO2022089178A1/zh active Application Filing
- 2021-10-09 US US18/044,122 patent/US20230319341A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160071058A1 (en) * | 2014-09-05 | 2016-03-10 | Sony Corporation | System and methods for creating, modifying and distributing video content using crowd sourcing and crowd curation |
CN104796767A (zh) * | 2015-03-31 | 2015-07-22 | 北京奇艺世纪科技有限公司 | 一种云视频编辑方法和系统 |
CN106060655A (zh) * | 2016-08-04 | 2016-10-26 | 腾讯科技(深圳)有限公司 | 一种视频处理方法、服务器及终端 |
CN109035288A (zh) * | 2018-07-27 | 2018-12-18 | 北京市商汤科技开发有限公司 | 一种图像处理方法及装置、设备和存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022089178A1 (zh) * | 2020-10-30 | 2022-05-05 | 北京字节跳动网络技术有限公司 | 视频处理方法及设备 |
CN114885192A (zh) * | 2021-02-05 | 2022-08-09 | 北京小米移动软件有限公司 | 视频处理方法、视频处理装置及存储介质 |
WO2023072238A1 (zh) * | 2021-11-01 | 2023-05-04 | 北京字跳网络技术有限公司 | 内容显示方法、装置、设备及介质 |
CN114697703A (zh) * | 2022-04-01 | 2022-07-01 | 北京字跳网络技术有限公司 | 视频数据生成方法、装置、电子设备及存储介质 |
CN114697703B (zh) * | 2022-04-01 | 2024-03-22 | 北京字跳网络技术有限公司 | 视频数据生成方法、装置、电子设备及存储介质 |
WO2023224548A3 (zh) * | 2022-05-17 | 2024-01-25 | 脸萌有限公司 | 特效视频确定方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20230319341A1 (en) | 2023-10-05 |
WO2022089178A1 (zh) | 2022-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112291590A (zh) | 视频处理方法及设备 | |
CN112261459B (zh) | 一种视频处理方法、装置、电子设备和存储介质 | |
CN112637622A (zh) | 一种直播演唱方法、装置、设备及介质 | |
WO2022007724A1 (zh) | 视频处理方法、装置、设备及存储介质 | |
WO2018205663A1 (zh) | 虚拟场景中的视频播放、数据提供方法、客户端及服务器 | |
CN112653920B (zh) | 视频处理方法、装置、设备及存储介质 | |
CN112051961A (zh) | 虚拟交互方法、装置、电子设备及计算机可读存储介质 | |
CN111526411A (zh) | 视频的处理方法、装置、设备及介质 | |
US20220159197A1 (en) | Image special effect processing method and apparatus, and electronic device and computer readable storage medium | |
CN113467603A (zh) | 音频处理方法、装置、可读介质及电子设备 | |
CN111970571A (zh) | 视频制作方法、装置、设备及存储介质 | |
CN110662105A (zh) | 动画文件的生成方法、装置及存储介质 | |
WO2023169305A1 (zh) | 特效视频生成方法、装置、电子设备及存储介质 | |
CN112969093A (zh) | 互动业务处理方法、装置、设备及存储介质 | |
CN113806306A (zh) | 媒体文件处理方法、装置、设备、可读存储介质及产品 | |
CN109636917B (zh) | 三维模型的生成方法、装置、硬件装置 | |
CN117244249A (zh) | 多媒体数据生成方法、装置、可读介质及电子设备 | |
US20180160133A1 (en) | Realtime recording of gestures and/or voice to modify animations | |
CN115082368A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN114860139A (zh) | 视频播放方法、装置、电子设备、存储介质和程序产品 | |
CN111710046A (zh) | 交互方法、装置和电子设备 | |
CN111813969A (zh) | 多媒体数据处理方法、装置、电子设备及计算机存储介质 | |
CN113794836B (zh) | 一种子弹时间视频生成方法、装置、系统、设备和介质 | |
CN113794936B (zh) | 一种精彩瞬间生成方法、装置、系统、设备和介质 | |
US20230377248A1 (en) | Display control method and apparatus, terminal, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |