CN111601033A - 视频处理方法、装置及存储介质 - Google Patents

视频处理方法、装置及存储介质 Download PDF

Info

Publication number
CN111601033A
CN111601033A CN202010345830.3A CN202010345830A CN111601033A CN 111601033 A CN111601033 A CN 111601033A CN 202010345830 A CN202010345830 A CN 202010345830A CN 111601033 A CN111601033 A CN 111601033A
Authority
CN
China
Prior art keywords
video
video frame
frame
segment
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010345830.3A
Other languages
English (en)
Inventor
常冰琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Pinecone Electronic Co Ltd
Original Assignee
Beijing Xiaomi Pinecone Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Pinecone Electronic Co Ltd filed Critical Beijing Xiaomi Pinecone Electronic Co Ltd
Priority to CN202010345830.3A priority Critical patent/CN111601033A/zh
Publication of CN111601033A publication Critical patent/CN111601033A/zh
Priority to JP2020156102A priority patent/JP6990282B2/ja
Priority to US17/025,429 priority patent/US11368632B2/en
Priority to EP20199670.9A priority patent/EP3905203B1/en
Priority to KR1020200167930A priority patent/KR102508080B1/ko
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/06Cutting and rejoining; Notching, or perforating record carriers otherwise than by recording styli
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/013Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the incoming video signal comprising different parts having originally different frame rate, e.g. video and graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/428Real-time

Abstract

本公开涉及一种视频处理方法、装置及存储介质,应用于终端。所述方法包括:识别出第一视频段中的目标对象;获取第二视频段的当前视频帧;获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。由此,能够快速获得目标对象分身特效的拼接视频,无需用户手动进行复杂的后期编辑,处理效率高。

Description

视频处理方法、装置及存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及一种视频处理方法、装置及存储介质。
背景技术
视频的分身特效是一种较为常见的视频特效技术,它表现为在视频的同一场景下(即,视频的一帧图像中)同时出现多个相同对象(例如,人、物体)。举例来说,针对人物A的分身特效可以表现为视频的同一场景下出现多个人物A,其中,每个人物A的动作可以一致、也可以不同。在需得到带有分身特效的视频时,一般要先拍摄几段原始视频作为素材,之后,专业人员通过使用后期视频编辑工具对拍摄的素材进行拼接,最终,得到同一个对象的几个分身同时出现在视频的相同场景中。在上述方式中,需要先拍摄素材再后期制作,制作周期长,并且拍摄时无法得到及时的反馈,另外,拍摄素材需要预先规划(例如选择场景、确定取景位置等),准备过程繁琐,后期处理则需要具备专业知识的专业人员来进行,对专业知识要求高,难度大。
发明内容
为克服相关技术中存在的问题,本公开提供一种视频处理方法、装置及存储介质。
根据本公开实施例的第一方面,提供一种视频处理方法,应用于终端,所述方法包括:
识别出第一视频段中的目标对象;
获取第二视频段的当前视频帧;
获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;
根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
可选地,所述根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧,包括:
根据所述第一图像区域和所述第二图像区域,利用图像拼接算法确定图像拼接边界;
根据所述图像拼接边界,从所述第一目标视频帧中获取包含所述第一图像区域在内的第一局部图像,并从所述第二视频段的所述当前视频帧中获取包含所述第二图像区域在内的第二局部图像;
将所述第一局部图像和所述第二局部图像拼接为所述第一视频帧。
可选地,在根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接前,所述方法还包括:
将所述第一视频段中的目标帧作为基准帧;
将所述第一目标视频帧与所述基准帧进行画面对齐处理;和/或
将所述第二视频段的当前视频帧与所述基准帧进行画面对齐处理。
可选地,所述画面对齐处理包括:
从所述基准帧和指定视频帧的背景特征点中,获取背景特征相同的目标背景特征点,所述指定视频帧为所述第一目标视频帧和所述第二视频段的当前视频帧中的任一个;
根据所述目标背景特征点,将所述指定视频帧与所述基准帧对齐。
可选地,所述方法还包括:
实时获取图像采集装置采集到的视频流;
针对所述视频流的当前视频帧,获取所述目标对象在第二目标视频帧中对应的第三图像区域,其中,所述第二目标视频帧为所述第一视频段中与所述视频流的所述当前视频帧时刻上对应的视频帧;
将所述第三图像区域添加到所述视频流的所述当前视频帧,以得到处理后的第二视频帧;
在视频预览界面中展示所述第二视频帧。
可选地,所述将所述第三图像区域添加到所述视频流的所述当前视频帧包括:
根据所述第三图像区域在所述第二目标视频帧所处的位置,确定所述第三图像区域在所述视频流的所述当前视频帧的添加位置;
将所述第三图像区域添加到所述视频流的所述当前视频帧中的所述添加位置处。
可选地,所述根据所述第三图像区域在所述第二目标视频帧所处的位置,确定所述第三图像区域在所述视频流的所述当前视频帧的添加位置,包括:
从所述第二目标视频帧的背景特征点中,获取所述第三图像区域周边预设范围的第一背景特征点;
从所述视频流的所述当前视频帧的背景特征点中,确定与所述第一背景特征点背景特征相同的第二背景特征点;
根据所述第二背景特征点在所述视频流的所述当前视频帧中的位置,确定所述添加位置。
可选地,在所述根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接前,所述方法还包括:
在所述第一视频段与所述第二视频段时长不同的情况下,对所述第一视频段和所述第二视频段进行时长对齐处理。
可选地,所述时长对齐处理包括以下方式中的任一种:
以所述第一视频段和所述第二视频段中时长较短的视频段为基准,删除时长较长的视频段中的部分视频帧,以使所述第一视频段和所述第二视频段时长相同;
根据所述第一视频段和所述第二视频段中时长较短的视频段中已有的视频帧,增加所述时长较短的视频段的视频帧,以使所述第一视频段和所述第二视频段时长相同。
根据本公开实施例的第二方面,提供一种视频处理装置,应用于终端,所述装置包括:
识别模块,被配置为识别出第一视频段中的目标对象;
第一获取模块,被配置为获取第二视频段的当前视频帧;
第二获取模块,被配置为获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;
拼接模块,被配置为根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
根据本公开实施例的第三方面,提供一种视频处理装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
识别出第一视频段中的目标对象;
获取第二视频段的当前视频帧;
获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;
根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的视频处理方法的步骤。
通过上述技术方案,识别出第一视频段中的目标对象,获取第二视频段的当前视频帧,之后,获取目标对象在第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取目标对象在第二视频段的当前视频帧中对应的第二图像区域,之后,根据第一图像区域和第二图像区域,对第一目标视频帧和第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。其中,第一目标视频帧与第二视频段的当前视频帧的视频帧时刻对应。这样,基于已有的两段视频,对于这两段视频中时刻对应的两个视频帧,将其中一视频帧中带有目标对象的画面部分与另一视频帧中带有目标对象的画面部分拼接,以得到处理后的第一视频帧,从而,基于这样的第一视频帧,能够在后续过程中快速获得带有分身特效的拼接视频,无需用户手动进行复杂的后期编辑,处理效率高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据本公开的一种实施方式提供的视频处理方法的流程图。
图2是根据本公开提供的视频处理方法中,识别目标对象的一种示例性结果。
图3是根据本公开提供的视频处理方法中,根据第一图像区域和第二图像区域,对第一目标视频帧和第二视频段的当前视频帧进行画面拼接的步骤的一种示例性流程图。
图4是根据本公开的另一种实施方式提供的视频处理方法的流程图。
图5A~图5C示出了本公开提供的视频处理方法实施过程中终端的示例性的界面示意图。
图6是根据本公开的一种实施方式提供的视频处理装置的框图。
图7是根据一示例性实施例示出的一种视频处理装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据本公开的一种实施方式提供的视频处理方法的流程图。该方法可以应用于终端,其中,终端可以例如为移动电话、计算机、消息收发设备、平板设备、个人数字助理等。如图1所示,该方法可以包括以下步骤:
在步骤11中,识别出第一视频段中的目标对象;
在步骤12中,获取第二视频段的当前视频帧;
在步骤13中,获取目标对象在第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取目标对象在第二视频段的当前视频帧中对应的第二图像区域;
在步骤14中,根据第一图像区域和第二图像区域,对第一目标视频帧和第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
采用上述方案,能够基于已有的两段视频,对于这两段视频中时刻对应的两个视频帧,将其中一视频帧中带有目标对象的画面部分与另一视频帧中带有目标对象的画面部分拼接,以得到处理后的第一视频帧,从而,基于这样的第一视频帧,能够在后续过程中快速获得带有分身特效的拼接视频,无需用户手动进行复杂的后期编辑,处理效率高。
下面,针对上述几个步骤的具体实施方式分别进行详细说明。
在步骤11中,识别出第一视频段中的目标对象。
目标对象可以为有生命的生物(例如,人、动物、植物),也可以为无生命的物体(例如桌子、电脑等)。本公开的目的在于为目标对象实现分身特效,也就是使处理后的视频的同一场景下包含终端在不同时刻拍摄到的至少两个该目标对象。
第一视频段是终端已经拍摄好的、带有目标对象的一段视频。在实际应用场景中,针对目标对象,可以通过终端对目标对象进行拍摄,以获得第一视频段。例如,若要制作人物A的分身特效,人物A就是目标对象,用户可通过操作终端对人物A进行拍摄(画面中包括人物A和非人物A的背景),拍摄完毕后即可获得第一视频段。
在一种可能的场景中,第一视频段可通过如下方式获得:
响应于第一视频段拍摄指令,开始记录实时获取到的视频流,直到接收到第一视频段停止拍摄指令为止;
将所记录的视频流作为第一视频段。
其中,第一视频段拍摄指令用于指示开始拍摄第一视频段,第一视频段停止拍摄指令则用于指示结束此次的拍摄,视频流就是终端(例如,终端的取景框)实时抓取到的视频帧,因此,第一视频段就是自终端接收到第一视频段拍摄指令开始、到终端接收到第一视频段停止拍摄指令为止的这段时间内所记录的视频流。
第一视频段拍摄指令和第一视频段停止拍摄指令可以通过用户对终端的操作而产生。示例地,终端可以设置有用于拍摄第一视频段的开始拍摄按键(例如,实体按键或虚拟按键),若用户点击该按键,就对应生成第一视频段拍摄指令,以及,终端可以设置有用于指示停止拍摄第一视频段的停止拍摄按键,若用户点击该按键,就对应生成第一视频段停止拍摄指令,其中,上述开始拍摄按键和停止拍摄案件可以为相同按键、也可以为不同按键。再例如,终端可以设置有用于拍摄第一视频段的按压区域(例如,终端屏幕上的区域或终端机身上的区域),若用户按压该区域,就对应生成第一视频段拍摄指令,若用户不再按压该区域(例如,用户手指由按压该区域改为从该按压区域抬起),就生成第一视频段停止拍摄指令,即,长按拍摄、松手停止拍摄。
或者,第一视频段停止拍摄指令可以基于第一视频段拍摄指令产生。示例地,可以预先设置一拍摄时长,在检测到第一视频段拍摄指令时开始计时,当计时时长达到该拍摄时长时,生成第一视频段停止拍摄指令。这一场景中,第一视频段的时长等于预先设置的拍摄时长。
识别出第一视频段中的目标对象,实际上就是识别出第一视频段所包含的视频帧中的目标对象。在一种可能的实施方式中,步骤11可以包括以下步骤:
根据第三视频帧,通过目标对象识别模型,确定第三视频帧中与目标对象对应的像素点。
其中,第三视频帧为第一视频段中的一帧视频。目标对象识别模型可以识别图像中各像素点是否属于目标对象。在一种可能的场景中,将第三视频帧输入至目标对象识别模型后,可以得到如图2所示的输出结果,其中,白色像素点表示目标对象,黑色像素点表示非目标对象。
示例地,目标对象识别模型可以通过如下方式获得:
获取训练数据,每一训练数据包括一历史图像和该历史图像中各像素点是否属于目标对象的标记信息;
根据训练数据,对图像分割模型进行训练,以获得目标对象识别模型。
其中,图像分割模型属于神经网络模型,在每一次的训练中,以一历史图像作为图像分割模型的输入数据,并将该历史图像对应的标记信息作为模型的真实输出,以调整模型内参数,经过多次训练,当满足模型停止训练条件时,将得到的模型作为目标对象识别模型。
通过确定出的与目标对象对应的像素点,可以定位目标对象在第三视频帧中的位置。另外,根据这些与目标对象对应的像素点,还能将目标对象在第三视频帧对应的图像区域原封不动地从第三视频帧中提取出来。
在实际应用场景中,识别第一视频段中的目标对象,可能需要识别出第一视频段中每一视频帧中的目标对象,通过将第一视频段中的每一视频帧分别视为第三视频帧,执行上述步骤即可。并且,如上所述,通过识别第一视频段中的目标对象,既能定位出目标对象在第一视频段各视频帧中的位置,又能将目标对象在第一视频段各视频帧中对应的图像区域原封不动地提取出来。
现在回到图1,在步骤12中,获取第二视频段的当前视频帧。
第二视频段是终端已经拍摄好的、带有目标对象的一段视频。本公开的目的就在于将第一视频段和第二视频段的目标对象对应拼接到同一画面中。在一种可能的实施方式中,第二视频段通过如下方式获得:
响应于视频拍摄指令,开始记录实时获取到的视频流,直到接收到视频停止拍摄指令为止;
将所记录的视频流作为第二视频段。
其中,视频拍摄指令用于指示开始拍摄第二视频段,视频停止拍摄指令则用于指示结束此次对第二视频段的拍摄。第二视频段就是自终端接收到视频拍摄指令开始、到终端接收到视频停止拍摄指令为止的这段时间内所记录的视频流。
视频拍摄指令和视频停止拍摄指令可以通过用户对终端的操作而产生。示例地,终端可以设置有用于拍摄第二视频段的开始拍摄按键(例如,实体按键或虚拟按键),若用户点击该按键,就对应生成视频拍摄指令,以及,终端可以设置有用于指示停止拍摄第二视频段的停止拍摄按键,若用户点击该按键,就对应生成视频停止拍摄指令,其中,上述开始拍摄按键和停止拍摄案件可以为相同按键、也可以为不同按键。再例如,终端可以设置有用于拍摄第二视频段的按压区域(例如,终端屏幕上的区域或终端机身上的区域),若用户按压该区域,就对应生成视频拍摄指令,若用户不再按压该区域(例如,用户手指由按压该区域改为从该按压区域抬起),就生成视频停止拍摄指令,即,长按拍摄、松手停止拍摄。
或者,视频停止拍摄指令可以基于视频拍摄指令产生。示例地,可以预先设置一拍摄时长,在检测到视频拍摄指令时开始计时,当计时时长达到该拍摄时长时,生成视频停止拍摄指令。这一场景中,第二视频段的时长等于预先设置的拍摄时长。
其中,第二视频段中每一视频帧均可作为第二视频段的当前视频帧。
在步骤13中,获取目标对象在第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取目标对象在第二视频段的当前视频帧中对应的第二图像区域。
其中,第一视频段的第一目标视频帧与第二视频段的当前视频帧的视频帧时刻对应。
需要说明的是,此处所述的时刻对应并非是时间戳一致,而是指第一视频段和第二视频段在时序上存在一个对应关系,这个对应关系可以是第一视频段的第N帧视频帧对应于第二视频段的第M帧视频帧,其中,M和N可以相同,也可以不同。
在前文中对于步骤11的描述中已经指出,通过识别出第一视频段中的目标对象(即,识别出第一视频段中各视频帧中属于目标对象的像素点),能定位出目标对象在第一视频段各视频帧中的位置,且能将目标对象在第一视频段各视频帧中对应的图像区域原封不动地提取出来。从而,通过步骤11,能够从第一视频段的第一目标视频帧识别出的目标对象,进而,能够获取到目标对象在第一目标视频帧中对应的第一图像区域。
参照前文给出的识别目标对象的方式,基于相同的原理,可以识别出第二视频段的当前视频帧中的目标对象,进而,能够基于识别结果定位出目标对象在第二视频段的当前视频帧中的位置,并能将目标对象在第二视频段的当前视频帧中对应的图像区域原封不动地提取出来,即,能获取到目标对象在第二视频段的当前视频帧中对应的第二图像区域。
在步骤14中,根据第一图像区域和第二图像区域,对第一目标视频帧和第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
也就是说,得到的第一视频帧既包含目标对象在第二视频段的当前视频帧中对应的图像内容(即,第二图像区域),又包含目标对象在第一视频段的第一目标视频帧中对应的图像内容(即,第一图像区域),相当于得到了经画面拼接而生成的具有分身特效的新图像。
在一种可能的实施方式中,如图3所示,步骤14可以包括以下步骤。
在步骤31中,根据第一图像区域和第二图像区域,利用图像拼接算法确定图像拼接边界。
其中,图像拼接算法可以直接使用目前常用的图像拼接算法(或者,图像融合算法等)。针对两个(或多个)图像,在明确各自画面中需要保留的部分后,通过图像拼接算法能够确定出各图像中适合作为拼接边界与其他图像进行拼接的像素点,多个这样的像素点能够构成拼接边界,从而,在明确需要保留第一图像区域和第二图像区域后,根据第一视频段的第一目标视频帧、第一图像区域、第二视频段的当前视频帧、第二图像区域基于,通过图像拼接算法可以直接确定出图像拼接边界。
在步骤32中,根据图像拼接边界,从第一目标视频帧中获取包含第一图像区域在内的第一局部图像,并从第二视频段的当前视频帧中获取包含第二图像区域在内的第二局部图像。
示例地,可以以图像拼接边界为界限,从第一目标视频帧中获取与第一图像区域处于图像拼接边界同一侧的全部像素点,作为第一局部图像。再例如,第一局部图像除了包括第一目标视频帧中与第一图像区域处于图像拼接边界同一侧的全部像素点之外,还包括处于图像拼接边界的部分或全部像素点。
示例地,可以以图像拼接边界为界限,从第二视频段的当前视频帧中获取与第二图像区域处于图像拼接边界同一侧的全部像素点,作为第二局部图像。再例如,第二局部图像除了包括第二视频段的当前视频帧中与第二图像区域处于图像拼接边界同一侧的全部像素点之外,还包括处于图像拼接边界的部分或全部像素点。
其中,第一局部图像和第二局部图像应当恰好能够组成与原视频帧大小一致的图像。
在步骤33中,将第一局部图像和第二局部图像拼接为第一视频帧。
基于步骤32获得的第一局部图像和第二局部图像,可以直接拼接获得新图像,作为处理后的第一视频帧。
实际应用场景中,用户可以首先通过终端进行第一次视频拍摄,以获得第一视频段,在第一次视频拍完毕后,用户可以继续通过终端进行第二次视频拍摄,以获得第二视频段。之后,基于第一视频段和第二视频段中相互对应的两帧视频帧,执行上述步骤11~步骤14,就能得到处理后的第一视频帧,且该第一视频帧带有针对目标对象的分身特效。
通过上述技术方案,识别出第一视频段中的目标对象,获取第二视频段的当前视频帧,之后,获取目标对象在第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取目标对象在第二视频段的当前视频帧中对应的第二图像区域,之后,根据第一图像区域和第二图像区域,对第一目标视频帧和第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。其中,第一目标视频帧与第二视频段的当前视频帧的视频帧时刻对应。这样,基于已有的两段视频,对于这两段视频中时刻对应的两个视频帧,将其中一视频帧中带有目标对象的画面部分与另一视频帧中带有目标对象的画面部分拼接,以得到处理后的第一视频帧,从而,基于这样的第一视频帧,能够在后续过程中快速获得带有分身特效的拼接视频,无需用户手动进行复杂的后期编辑,处理效率高。
由于第一视频段和第二视频段在拍摄角度、拍摄位置、拍摄手法上并不一定完全一致,会造成第一视频段中的视频帧与第二视频段的视频帧之间在画面上存在位置变换。其中,涉及到的位置变换可以包括但不限于以下中的至少一者:平移、旋转、拉伸、放大、缩小、畸变。因此,为了使经拼接处理后得到的第一视频帧中画面内容更加和谐,避免同一画面的目标对象之间出现过大的位置差异(例如,拍摄过程中目标对象位于地面,由于拍摄第一视频段和第二视频段时终端有竖直方向的移动,使得拼接后的画面中,目标对象中一者处于较高的地面,另一者处于较低的地面),在对第一目标视频帧和第二视频段的当前视频帧进行画面拼接之前,还可以进行画面对齐处理。
可选地,在步骤14根据第一图像区域和第二图像区域,对第一目标视频帧和第二视频段的当前视频帧进行画面拼接之前,本公开提供的方法还可以包括以下步骤:
将第一视频段中的目标帧作为基准帧;
将第一目标视频帧与基准帧进行画面对齐处理;和/或
将第二视频段的当前视频帧与基准帧进行画面对齐处理。
其中,目标帧可以为第一视频段中的任意一帧。示例地,目标帧可以为第一视频段的首帧视频帧。
将第一目标视频帧与基准帧进行画面对齐处理,和/或,将第二视频段的当前视频帧与基准帧进行画面对齐处理。
其中,画面对齐处理可以包括:
从基准帧和指定视频帧的背景特征点中,获取背景特征相同的目标背景特征点;
根据目标背景特征点,将指定视频帧与基准帧对齐。
其中,指定视频帧为第一目标视频帧和第二视频段的当前视频帧中的任一个。
由于在本公开提供的拍摄场景中,一般是在同一环境中拍摄得到第一视频段和第二视频段,而第一、第二视频段中的目标对象的位置、状态可能是随时变化的,而画面中除目标对象之外的背景则是趋近于静止的,因此,可以以视频帧中的背景为参照,进行画面对齐。
其中,通过特征提取算法,能够提取出基准帧的背景特征点,同时能够提取出指定视频帧的背景特征点,基于这两帧各自的背景特征点,能够确定出背景特征相同的特征点,作为目标背景特征点。需要说明的是,利用特征提取算法提取特征点的方式属于现有技术,为本领域的常用技术手段,因此,更细节的描述在本公开中不再给出。
根据目标背景特征点在基准帧中所处的位置,以及,目标背景特征点在指定视频帧中所处的位置,可以得到一个用于表示目标特征点在画面中的位置变换的变换矩阵。示例地,可以采用目前常用的最小二乘法求取该变换矩阵。再例如,该变换矩阵可以为3*3矩阵。
如上所述,指定视频帧为第一目标视频帧或第二视频段的当前视频帧。基于第一目标视频帧与基准帧之间的变换矩阵,可以将第一视频帧与基准帧对齐,和/或,基于第二视频段的当前视频帧与基准帧之间的变换矩阵,可以将第二视频段的当前视频与基准帧对齐。这样,能够保证对第一目标视频帧和第二视频段的当前视频帧进行画面拼接时画面尽可能是相互对齐的,使第一视频帧各部分画面结构一致,有利于提升第一视频帧的画面质量,视觉上更加和谐。
可选地,除图1中示出的各步骤之外,本公开提供的方法还可以包括以下步骤:
基于第一视频帧,生成目标视频段;
在视频预览界面中展示目标视频段。
在一种可能的实施方式中,可以将包含第一视频帧在内的多个视频帧合成为目标视频段,并在视频预览界面中展示该目标视频段。目标视频段中的其他视频帧可以直接取自第一视频段或者直接取自第二视频段,或者,目标视频段中的其他视频帧可以是基于与第一视频帧相同的方式生成的带有分身特效的视频帧。
示例地,随着时间的推进(即,从视频段的第一帧走到视频段的最后一帧),第二视频段的当前视频帧是时刻变化的,相应地,与第二视频段的当前视频帧时刻上对应的第一目标视频帧也是时刻变化的,这样,每当获得一第二视频段的当前视频帧,就可以执行上述步骤11~步骤14,从而对应得到多个处理后的第一视频帧,基于这些第一视频帧以及这些第一视频帧各自在第一视频段中对应的时间顺序(也就是在第二视频段中对应的顺序,参照前文所述,第一视频帧是基于第一视频段和第二视频段中时刻对应的视频帧生成的),即可生成目标视频段。
通过上述方式,在得到处理后的第一视频帧后,基于这个第一视频帧,能够直接生成目标视频段,即,生成带有分身特效的视频段。
可选地,在步骤14之前,本公开提供的方法还可以包括以下步骤:
在第一视频段与第二视频段时长不同的情况下,对第一视频段和第二视频段进行时长对齐处理。
由于第一视频段和第二视频段是分别拍摄的,因此二者的时长可能不同。在这种情况下,在对第一目标视频帧和第二视频段的当前视频帧进行画面拼接之前,还可以对第一视频段和第二视频段进行时长对齐处理。
示例地,时长对齐处理可以包括以下方式中的任一种:
以第一视频段和第二视频段中时长较短的视频段为基准,删除时长较长的视频段中的部分视频帧,以使第一视频段和第二视频段时长相同;
根据第一视频段和第二视频段中时长较短的视频段中已有的视频帧,增加时长较短的视频段的视频帧,以使第一视频段和第二视频段时长相同。
在第一种方式中,时长对齐处理可以以二者中时长较短的视频段为基准,删除时长较长的视频段中的部分视频帧,以使第一视频段和第二视频段时长相同。
示例地,若第一视频段包含300帧视频帧,第二视频段包含500帧视频帧,则可以将第二视频段中第301帧~第500帧视频帧从第二视频段中删除,保留第二视频段中的前300帧用作上述处理过程中所使用的第二视频段。
在第二种方式中,对齐处理可以以二者中时长较长的视频段为基准,扩充时长较短的视频段中的视频帧。即,根据第一视频段和第二视频段中时长较短的视频段中已有的视频帧,增加时长较短的视频段的视频帧,以使第一视频段和第二视频段时长相同。
其中,可以以时长较短的视频段中已有的视频帧为基础,循环或往复以实现扩充。
示例地,若第一视频段包含300帧视频帧,第二视频段中包含200帧视频帧,且第二视频段中视频帧编号依次为u1~u200:
若使用循环方式扩充,可以将第二视频段扩充为u1、u2、u3、…、u199、u200、u1、u2、u3、…、u100;
若使用往复方式扩充,可以将第二视频段扩充为u1、u2、u3、…、u199、u200、u199、u198、…、u100。
可选地,基于本公开任意实施例提供的视频处理方法,该方法还可以包括以下步骤:
获取图像采集装置在采集第一视频段时的拍摄参数;
控制图像采集装置按照拍摄参数进行图像采集,以获得第二视频段。
在通过图像采集装置拍摄第二视频段时,可以直接使用该图像采集装置拍摄第一视频段时的拍摄参数。示例地,在图像采集装置开始拍摄第一视频段开始,可以锁定图像采集装置的拍摄参数,从而在拍摄第二视频段时,图像采集装置可以自动基于与第一视频段一致的拍摄参数进行拍摄。
其中,图像采集装置的拍摄参数可以包括但不限于以下中的至少一者:ISO、曝光时间、对焦距离、白平衡参数。
通过上述方式,在拍摄第二视频段时,能够自动使用与第一视频段对应的拍摄参数,无需用户手动调节,能够解决拍摄参数设置繁琐的问题,另外,使用相同拍摄参数拍摄第一视频段和第二视频段,还能使二者的画面呈现相似,有利于后续的视频处理。
可选地,本公开还可以基于第一视频段已拍摄的内容,实时提供拼接预览的功能。因此,本公开提供的方法还可以包括以下步骤,如图4所示。
在步骤41中,实时获取图像采集装置采集到的视频流;
在步骤42中,针对视频流的当前视频帧,获取目标对象在第二目标视频帧中对应的第三图像区域;
在步骤43中,将第三图像区域添加到视频流的当前视频帧,以得到处理后的第二视频帧;
在步骤44中,在视频预览界面中展示第二视频帧。
视频流可以认为是实时传输的视频帧。以终端为例,终端通过图像采集装置的取景框能够实时获取到一系列视频帧,这一系列视频帧就构成视频流,当前能够获取到的视频帧就是视频流的当前视频帧。如步骤41中所述,终端能够实时获取图像采集装置采集到的视频流,
在步骤42中,针对视频流的当前视频帧,获取目标对象在第二目标视频帧中对应的第三图像区域。
其中,第二目标视频帧为第一视频段中与视频流的当前视频帧时刻上对应的视频帧。需要说明的是,此处所述的时刻上对应并非是时间戳一致,而是指第一视频段和视频流在时序上存在一个对应关系,这个对应关系可以是第一视频段的第K帧视频帧对应于视频流的第I帧视频帧,其中,K和I可以相同。
在前文中对于步骤11的描述中已经指出,识别出目标对象(例如,通过目标对象识别模型进行识别)后,能定位出目标对象在一视频帧中的位置,且能将目标对象在该视频帧中对应的图像区域原封不动地提取出来。从而,根据视频流的当前视频帧,通过识别目标对象,能够获取到目标对象在第二目标视频帧中对应的第三图像区域。其中,有关于目标对象的识别在前文中已有描述,此处不赘述,并且,第三图像区域的获取也与前文中给出的第一图像区域的获取原理相同,此处不做过多说明。
在步骤43中,将第三图像区域添加到视频流的当前视频帧,以得到处理后的第二视频帧。
在一种可能的实施方式中,步骤43可以包括以下步骤:
根据第三图像区域在第二目标视频帧所处的位置,确定第三图像区域在视频流的当前视频帧的添加位置;
将第三图像区域添加到视频流的当前视频帧中的添加位置处。
在一种可能的实施例中,根据第三图像区域在第二目标视频帧所处的位置,确定第三图像区域在视频流的当前视频帧的添加位置,可以包括以下步骤:
将视频流的当前视频帧中、与第三图像区域在第二目标视频帧所处的位置一致的位置作为第三图像区域在视频流的当前视频帧的添加位置。
也就是说,若第三图像区域在第二目标视频帧所处的位置对应于位置坐标集合D1,那么就可以将位置坐标集合D1作为第三图像区域在视频流的当前视频帧的添加位置。
在另一种可能的实施例中,根据第三图像区域在第二目标视频帧所处的位置,确定第三图像区域在视频流的当前视频帧的添加位置,可以包括以下步骤:
从第二目标视频帧的背景特征点中,获取第三图像区域周边预设范围的第一背景特征点;
从视频流的当前视频帧的背景特征点中,确定与第一背景特征点背景特征相同的第二背景特征点;
根据第二背景特征点在视频流的当前视频帧中的位置,确定添加位置。
通过如前文所述的特征提取算法,能够提取出第二目标视频帧的背景特征点。根据第二目标视频帧的背景特征点在第二目标视频帧中所处位置,结合第三图像区域在第二目标视频帧中所处位置,可以确定出第三图像区域周边预设范围的第一背景特征点。
相应地,通过如前文所述的特征提取算法,能够提取出视频流的当前视频帧的背景特征点,从而,可以从视频流的当前视频帧的背景特征点中,确定与第一背景特征点背景特征相同的第二背景特征点。
从而,根据第二背景特征点在视频流的当前视频帧中的位置,确定添加位置,其中,添加位置为被第二背景特征点包围的位置。
另外,由于第一视频段和视频流在拍摄角度、拍摄手法上并不一定完全一致,会造成第一视频段中的视频帧与视频流的视频帧之间在画面上存在位置变换。其中,涉及到的位置变换可以包括但不限于以下中的至少一者:平移、旋转、拉伸、放大、缩小、畸变。因此,为了使预览的画面内容更加和谐,避免预览画面中同一画面的目标对象之间出现过大的位置差异(例如,拍摄过程中目标对象位于地面,由于拍摄第一视频段和视频流时终端有竖直方向的移动,使得拼接后的画面中,目标对象中一者处于较高的地面,另一者处于较低的地面),在将第三图像区域添加到视频流的当前视频帧,还可以进行画面对齐处理。
可选地,在将第三图像区域添加到视频流的所述当前视频帧这一步骤之前,本公开提供的方法还可以包括以下步骤:
将第二目标视频帧与视频流的当前视频帧进行画面对齐处理。
示例地,画面对齐处理可以包括:
从第二目标视频帧和视频流的当前视频帧的背景特征点中,获取背景特征相同的第三背景特征点;
根据第三背景特征点,将第二目标视频帧与视频流的当前视频帧对齐。
由于在本公开提供的拍摄场景中,一般是在同一环境中拍摄得到第一视频段和视频流,而第一视频段、视频流中的目标对象的位置、状态可能是随时变化的,而画面中除目标对象之外的背景则是趋近于静止的,因此,可以以视频帧中的背景为参照,进行画面对齐。
其中,通过特征提取算法,能够提取出第二目标视频帧的背景特征点,同时能够提取出视频流的当前视频帧的背景特征点,基于这两帧各自的背景特征点,能够确定出背景特征相同的特征点,作为第三背景特征点。
根据第三背景特征点在第二目标视频帧中所处的位置,以及,目标背景特征点在视频流的当前视频帧中所处的位置,可以得到一个用于表示目标特征点在画面中的位置变换的变换矩阵。从而,基于这个变换矩阵,就可以将第二目标视频帧向视频流的当前视频帧对齐。
这样,能够保证将第三图像区域添加到视频流的当前视频帧时,画面尽可能是相互对齐的,使实时预览画面各部分画面结构一致,有利于提升第二视频帧的画面质量,视觉上更加和谐。
在步骤44中,在视频预览界面中展示第二视频帧。
在获得第二视频帧后,在视频预览界面展示该第二视频帧。
需要说明的是,在针对视频流的当前视频帧进行实时预览时,并不关心视频流中是否存在目标对象或者目标对象的位置,而只需要将第三图像区域(目标对象在第二目标视频帧中对应的区域)覆盖到视频流的当前视频帧,以为用户提供预览,使用户能够实时预览具有拼接效果的画面,进而确认已拍摄内容的画面效果以及确定开始拍摄第二视频段的时机。
通过上述方案,基于实时预览功能,能够实时地看到第一视频段中的目标对象被添加到当前画面的呈现效果,从而能够帮助用户确认已拍摄内容的展现效果,以更加准确地录制第二视频段,使第二视频段中的目标对象处于用户期望的位置。
图5A~图5C示出了本公开提供的视频处理方法实施过程中终端的示例性的界面示意图。
图5A示出了拍摄第一视频段过程中终端界面的展示情况。其中,P1为第一视频段中的目标对象。如图5A所示,在拍摄第一视频段时,目标对象位于画面左侧。画面右侧的圆形区域为拍摄按钮,图5A展示了该拍摄按钮被按下的状态,当该拍摄按钮被按下,其圆形区域中央实时显示已拍摄时长。根据图5A可以看出,第一视频段此时已拍摄了1.6s。
图5B示出了第一视频段拍摄完毕,实时预览过程中终端界面的展示情况。画面右侧的圆形区域为拍摄按钮,图5B展示了该拍摄按钮未被按下的状态,由图5B可知,此时还未开始拍摄第二视频段,而是实时预览。P2为终端实时获取到的视频流中的目标对象,它能反映目标对象实际上所处的位置,从图5B可以看出,在第一段视频拍摄完毕后,目标对象已经由画面左侧的位置移动到了画面右侧的位置。参照步骤41~步骤44可知,P1为目标对象在第一视频段的第二目标视频帧中对应的第三图像区域,它被实时地添加到了视频流的当前视频帧,以得到处理后的第二视频帧,并展示到视频预览界面中。由此,手持终端的用户可以实时预览到若第一视频段中的目标对象被添加到当前画面,将形成怎样的拼接画面,从而更好地控制第二视频段的拍摄,选择合适的时机拍摄第二视频段,避免拼接后视频画面中目标对象重合或距离过远。
图5C示出了第二视频段拍摄过程中终端界面的展示情况。其中,P2为第一视频段中的目标对象。如图5C所示,在拍摄第二视频段时,目标对象位于画面右侧。画面右侧的圆形区域为拍摄按钮,图5C展示了该拍摄按钮被按下的状态,当该拍摄按钮被按下,其圆形区域中央实时显示已拍摄时长。根据图5C可以看出,第二视频段已拍摄0.6s。P1为第一视频段中的目标对象,P2为终端实时获取到的视频流中的目标对象。图5C中有关P1的描述与展示原理与图5B中相似,也就是说,在第二视频段拍摄过程中,终端仍是在实时获取视频流,所以仍可以实时预览,图5C与图5B的区别仅在于实时获取到的视频流是否被记录,其中,图5C中实时获取到的视频流被记录为第二视频段,图5B中实时获取到的视频流并未被记录。可知,P1为目标对象在第一视频段的第二目标视频帧中对应的第三图像区域,它被实时地添加到了视频流的当前视频帧,以得到处理后的第二视频帧,并展示到视频预览界面中。由此,手持终端的用户在拍摄第二视频段的同时,可以实时预览到若第一视频段中的目标对象被添加到当前画面,将形成怎样的拼接画面,从而更好地控制第二视频段的拍摄,避免拼接后视频画面中目标对象重合或距离过远。
另外,在视频预览界面展示第二视频帧(实时预览)或目标视频段(经画面拼接而生成的视频段)时,还可以为用户提供撤销操作的入口。也就是说,在视频预览界面展示第二视频帧时,用户通过撤销操作可以重新拍摄第一视频段,以及,在视频预览界面展示目标视频段时,用户通过撤销操作可以重新拍摄第二视频段。
图6是根据本公开的一种实施方式提供的视频处理装置的框图,可以应用于终端。如图6所示,该装置60可以包括:
识别模块61,被配置为识别出第一视频段中的目标对象;
第一获取模块62,被配置为获取第二视频段的当前视频帧;
第二获取模块63,被配置为获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;
拼接模块64,被配置为根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
可选地,所述拼接模块64包括:
第一确定子模块,被配置为根据所述第一图像区域和所述第二图像区域,利用图像拼接算法确定图像拼接边界;
第一获取子模块,被配置为根据所述图像拼接边界,从所述第一目标视频帧中获取包含所述第一图像区域在内的第一局部图像,并从所述第二视频段的所述当前视频帧中获取包含所述第二图像区域在内的第二局部图像;
拼接子模块,被配置为将所述第一局部图像和所述第二局部图像拼接为所述第一视频帧。
可选地,所述装置60还包括:
第一确定模块,被配置为在根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接前,将所述第一视频段中的目标帧作为基准帧;
第一对齐模块,被配置为将所述第一目标视频帧与所述基准帧进行画面对齐处理;和/或
第二对齐模块,被配置为将所述第二视频段的当前视频帧与所述基准帧进行画面对齐处理。
可选地,所述画面对齐处理包括:
从所述基准帧和指定视频帧的背景特征点中,获取背景特征相同的目标背景特征点,所述指定视频帧为所述第一目标视频帧和所述第二视频段的当前视频帧中的任一个;
根据所述目标背景特征点,将所述指定视频帧与所述基准帧对齐。
可选地,所述装置60还包括:
采集模块,被配置为实时获取图像采集装置采集到的视频流;
第三获取模块,被配置为针对所述视频流的当前视频帧,获取所述目标对象在第二目标视频帧中对应的第三图像区域,其中,所述第二目标视频帧为所述第一视频段中与所述视频流的所述当前视频帧时刻上对应的视频帧;
添加模块,被配置为将所述第三图像区域添加到所述视频流的所述当前视频帧,以得到处理后的第二视频帧;
第一预览模块,被配置为在视频预览界面中展示所述第二视频帧。
可选地,所述添加模块包括:
第二确定子模块,被配置为根据所述第三图像区域在所述第二目标视频帧所处的位置,确定所述第三图像区域在所述视频流的所述当前视频帧的添加位置;
添加子模块,被配置为将所述第三图像区域添加到所述视频流的所述当前视频帧中的所述添加位置处。
可选地,所述第二确定子模块,包括:
第二获取子模块,被配置为从所述第二目标视频帧的背景特征点中,获取所述第三图像区域周边预设范围的第一背景特征点;
第三确定子模块,被配置为从所述视频流的所述当前视频帧的背景特征点中,确定与所述第一背景特征点背景特征相同的第二背景特征点;
第四确定子模块,被配置为根据所述第二背景特征点在所述视频流的所述当前视频帧中的位置,确定所述添加位置。
可选地,所述装置60还包括:
第三对齐模块,被配置为在所述根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接前,在所述第一视频段与所述第二视频段时长不同的情况下,对所述第一视频段和所述第二视频段进行时长对齐处理。
可选地,所述时长对齐处理包括以下方式中的任一种:
以所述第一视频段和所述第二视频段中时长较短的视频段为基准,删除时长较长的视频段中的部分视频帧,以使所述第一视频段和所述第二视频段时长相同;
根据所述第一视频段和所述第二视频段中时长较短的视频段中已有的视频帧,增加所述时长较短的视频段的视频帧,以使所述第一视频段和所述第二视频段时长相同。
可选地,所述装置60还包括:
视频生成模块,被配置为基于所述第一视频帧,生成目标视频段;
第二预览模块,被配置为在视频预览界面中展示所述目标视频段。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的视频处理方法的步骤。
图7是根据一示例性实施例示出的视频处理装置的框图。例如,装置700可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图7,装置700可以包括以下一个或多个组件:处理组件702,存储器704,电力组件706,多媒体组件708,音频组件710,输入/输出(I/O)的接口712,传感器组件714,以及通信组件716。
处理组件702通常控制装置700的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件702可以包括一个或多个处理器720来执行指令,以完成上述的视频处理方法的全部或部分步骤。此外,处理组件702可以包括一个或多个模块,便于处理组件702和其他组件之间的交互。例如,处理组件702可以包括多媒体模块,以方便多媒体组件708和处理组件702之间的交互。
存储器704被配置为存储各种类型的数据以支持在装置700的操作。这些数据的示例包括用于在装置700上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器704可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件706为装置700的各种组件提供电力。电力组件706可以包括电源管理系统,一个或多个电源,及其他与为装置700生成、管理和分配电力相关联的组件。
多媒体组件708包括在所述装置700和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置700处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件710被配置为输出和/或输入音频信号。例如,音频组件710包括一个麦克风(MIC),当装置700处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器704或经由通信组件716发送。在一些实施例中,音频组件710还包括一个扬声器,用于输出音频信号。
I/O接口712为处理组件702和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件714包括一个或多个传感器,用于为装置700提供各个方面的状态评估。例如,传感器组件714可以检测到装置700的打开/关闭状态,组件的相对定位,例如所述组件为装置700的显示器和小键盘,传感器组件714还可以检测装置700或装置700一个组件的位置改变,用户与装置700接触的存在或不存在,装置700方位或加速/减速和装置700的温度变化。传感器组件714可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件714还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件714还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件716被配置为便于装置700和其他设备之间有线或无线方式的通信。装置700可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件716还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置700可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述视频处理方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器704,上述指令可由装置700的处理器720执行以完成上述视频处理方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的视频处理方法的代码部分。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (13)

1.一种视频处理方法,其特征在于,应用于终端,所述方法包括:
识别出第一视频段中的目标对象;
获取第二视频段的当前视频帧;
获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;
根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧,包括:
根据所述第一图像区域和所述第二图像区域,利用图像拼接算法确定图像拼接边界;
根据所述图像拼接边界,从所述第一目标视频帧中获取包含所述第一图像区域在内的第一局部图像,并从所述第二视频段的所述当前视频帧中获取包含所述第二图像区域在内的第二局部图像;
将所述第一局部图像和所述第二局部图像拼接为所述第一视频帧。
3.根据权利要求1所述的方法,其特征在于,在根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接前,所述方法还包括:
将所述第一视频段中的目标帧作为基准帧;
将所述第一目标视频帧与所述基准帧进行画面对齐处理;和/或
将所述第二视频段的当前视频帧与所述基准帧进行画面对齐处理。
4.根据权利要求3所述的方法,其特征在于,所述画面对齐处理包括:
从所述基准帧和指定视频帧的背景特征点中,获取背景特征相同的目标背景特征点,所述指定视频帧为所述第一目标视频帧和所述第二视频段的当前视频帧中的任一个;
根据所述目标背景特征点,将所述指定视频帧与所述基准帧对齐。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
实时获取图像采集装置采集到的视频流;
针对所述视频流的当前视频帧,获取所述目标对象在第二目标视频帧中对应的第三图像区域,其中,所述第二目标视频帧为所述第一视频段中与所述视频流的所述当前视频帧时刻上对应的视频帧;
将所述第三图像区域添加到所述视频流的所述当前视频帧,以得到处理后的第二视频帧;
在视频预览界面中展示所述第二视频帧。
6.根据权利要求5所述的方法,其特征在于,所述将所述第三图像区域添加到所述视频流的所述当前视频帧包括:
根据所述第三图像区域在所述第二目标视频帧所处的位置,确定所述第三图像区域在所述视频流的所述当前视频帧的添加位置;
将所述第三图像区域添加到所述视频流的所述当前视频帧中的所述添加位置处。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第三图像区域在所述第二目标视频帧所处的位置,确定所述第三图像区域在所述视频流的所述当前视频帧的添加位置,包括:
从所述第二目标视频帧的背景特征点中,获取所述第三图像区域周边预设范围的第一背景特征点;
从所述视频流的所述当前视频帧的背景特征点中,确定与所述第一背景特征点背景特征相同的第二背景特征点;
根据所述第二背景特征点在所述视频流的所述当前视频帧中的位置,确定所述添加位置。
8.根据权利要求1所述的方法,其特征在于,在所述根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接前,所述方法还包括:
在所述第一视频段与所述第二视频段时长不同的情况下,对所述第一视频段和所述第二视频段进行时长对齐处理。
9.根据权利要求8所述的方法,其特征在于,所述时长对齐处理包括以下方式中的任一种:
以所述第一视频段和所述第二视频段中时长较短的视频段为基准,删除时长较长的视频段中的部分视频帧,以使所述第一视频段和所述第二视频段时长相同;
根据所述第一视频段和所述第二视频段中时长较短的视频段中已有的视频帧,增加所述时长较短的视频段的视频帧,以使所述第一视频段和所述第二视频段时长相同。
10.根据权利要求1至9任一项所述的方法,其特征在于,所述方法还包括:
基于所述第一视频帧,生成目标视频段;
在视频预览界面中展示所述目标视频段。
11.一种视频处理装置,其特征在于,应用于终端,所述装置包括:
识别模块,被配置为识别出第一视频段中的目标对象;
第一获取模块,被配置为获取第二视频段的当前视频帧;
第二获取模块,被配置为获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;
拼接模块,被配置为根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
12.一种视频处理装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
识别出第一视频段中的目标对象;
获取第二视频段的当前视频帧;
获取所述目标对象在所述第一视频段的第一目标视频帧中对应的第一图像区域,以及,获取所述目标对象在所述第二视频段的所述当前视频帧中对应的第二图像区域,其中,所述第一目标视频帧与所述第二视频段的所述当前视频帧的视频帧时刻对应;
根据所述第一图像区域和所述第二图像区域,对所述第一目标视频帧和所述第二视频段的当前视频帧进行画面拼接,以得到处理后的第一视频帧。
13.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1~10中任一项所述方法的步骤。
CN202010345830.3A 2020-04-27 2020-04-27 视频处理方法、装置及存储介质 Pending CN111601033A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010345830.3A CN111601033A (zh) 2020-04-27 2020-04-27 视频处理方法、装置及存储介质
JP2020156102A JP6990282B2 (ja) 2020-04-27 2020-09-17 ビデオ処理方法、装置および記憶媒体
US17/025,429 US11368632B2 (en) 2020-04-27 2020-09-18 Method and apparatus for processing video, and storage medium
EP20199670.9A EP3905203B1 (en) 2020-04-27 2020-10-01 Method and apparatus for processing video, and storage medium
KR1020200167930A KR102508080B1 (ko) 2020-04-27 2020-12-04 비디오 처리 방법, 장치 및 저장 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010345830.3A CN111601033A (zh) 2020-04-27 2020-04-27 视频处理方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN111601033A true CN111601033A (zh) 2020-08-28

Family

ID=72190887

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010345830.3A Pending CN111601033A (zh) 2020-04-27 2020-04-27 视频处理方法、装置及存储介质

Country Status (5)

Country Link
US (1) US11368632B2 (zh)
EP (1) EP3905203B1 (zh)
JP (1) JP6990282B2 (zh)
KR (1) KR102508080B1 (zh)
CN (1) CN111601033A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113709559A (zh) * 2021-03-05 2021-11-26 腾讯科技(深圳)有限公司 视频划分方法、装置、计算机设备及存储介质
CN113841112A (zh) * 2020-08-06 2021-12-24 深圳市大疆创新科技有限公司 图像处理方法、相机及移动终端
CN114025237A (zh) * 2021-12-02 2022-02-08 维沃移动通信有限公司 视频生成方法、装置和电子设备
CN114302071A (zh) * 2021-12-28 2022-04-08 影石创新科技股份有限公司 视频处理方法、装置、存储介质及电子设备
CN114554280A (zh) * 2022-01-14 2022-05-27 影石创新科技股份有限公司 影分身视频的生成方法、生成装置、电子设备及存储介质
CN114697723A (zh) * 2020-12-28 2022-07-01 北京小米移动软件有限公司 一种视频生成方法、装置及介质
CN115134527A (zh) * 2022-06-29 2022-09-30 上海传英信息技术有限公司 处理方法、智能终端及存储介质
WO2022222835A1 (zh) * 2021-04-21 2022-10-27 维沃移动通信(杭州)有限公司 视频处理方法、视频处理装置和电子设备
WO2022227918A1 (zh) * 2021-04-30 2022-11-03 北京字跳网络技术有限公司 视频处理方法、设备及电子设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113572978A (zh) * 2021-07-30 2021-10-29 北京房江湖科技有限公司 全景视频的生成方法和装置
CN114598902B (zh) * 2022-03-09 2023-12-22 安徽文香科技股份有限公司 一种视频帧处理方法、装置及电子设备
CN116708751B (zh) * 2022-09-30 2024-02-27 荣耀终端有限公司 一种拍照时长的确定方法、装置和电子设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140240551A1 (en) * 2013-02-23 2014-08-28 Samsung Electronics Co., Ltd. Apparatus and method for synthesizing an image in a portable terminal equipped with a dual camera
CN105450946A (zh) * 2014-06-09 2016-03-30 华为技术有限公司 一种图像处理方法、装置及计算装置
CN108259781A (zh) * 2017-12-27 2018-07-06 努比亚技术有限公司 视频合成方法、终端及计算机可读存储介质
CN109922294A (zh) * 2019-01-31 2019-06-21 维沃移动通信有限公司 一种视频处理方法及移动终端
US20190215496A1 (en) * 2013-03-15 2019-07-11 Fotonation Limited Extended Color Processing on Pelican Array Cameras
CN110070551A (zh) * 2019-04-29 2019-07-30 北京字节跳动网络技术有限公司 视频图像的渲染方法、装置和电子设备
CN110211076A (zh) * 2019-05-09 2019-09-06 上海联影智能医疗科技有限公司 图像拼接方法、图像拼接设备和可读存储介质
CN110557556A (zh) * 2018-06-01 2019-12-10 珠海格力电器股份有限公司 一种多对象拍摄的方法及装置
CN110675420A (zh) * 2019-08-22 2020-01-10 华为技术有限公司 一种图像处理方法和电子设备
CN110730296A (zh) * 2013-04-30 2020-01-24 索尼公司 图像处理装置、图像处理方法及计算机可读介质
CN110969569A (zh) * 2018-09-28 2020-04-07 传线网络科技(上海)有限公司 试镜视频的生成方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328788A (ja) 2004-06-21 2004-11-18 Daiichikosho Co Ltd 記録済みの背景映像に別途撮影された人物映像を合成して表示出力する方法およびその方法を採用したカラオケ装置
EP2119224A1 (en) 2007-02-01 2009-11-18 Yissum Research Development Company, of The Hebrew University of Jerusalem Method and system for video indexing and video synopsis
US8103134B2 (en) * 2008-02-20 2012-01-24 Samsung Electronics Co., Ltd. Method and a handheld device for capturing motion
KR101946019B1 (ko) 2014-08-18 2019-04-22 삼성전자주식회사 파노라믹 동영상을 생성하는 동영상 처리 장치 및 그 방법
US10264194B2 (en) 2015-03-26 2019-04-16 Sony Corporation Information processing device, information processing method, and program
US20200036909A1 (en) 2018-07-27 2020-01-30 BriefCam Ltd. System and method allowing simultaneous viewing of live and recorded video content

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140240551A1 (en) * 2013-02-23 2014-08-28 Samsung Electronics Co., Ltd. Apparatus and method for synthesizing an image in a portable terminal equipped with a dual camera
US20190215496A1 (en) * 2013-03-15 2019-07-11 Fotonation Limited Extended Color Processing on Pelican Array Cameras
CN110730296A (zh) * 2013-04-30 2020-01-24 索尼公司 图像处理装置、图像处理方法及计算机可读介质
CN105450946A (zh) * 2014-06-09 2016-03-30 华为技术有限公司 一种图像处理方法、装置及计算装置
CN108259781A (zh) * 2017-12-27 2018-07-06 努比亚技术有限公司 视频合成方法、终端及计算机可读存储介质
CN110557556A (zh) * 2018-06-01 2019-12-10 珠海格力电器股份有限公司 一种多对象拍摄的方法及装置
CN110969569A (zh) * 2018-09-28 2020-04-07 传线网络科技(上海)有限公司 试镜视频的生成方法及装置
CN109922294A (zh) * 2019-01-31 2019-06-21 维沃移动通信有限公司 一种视频处理方法及移动终端
CN110070551A (zh) * 2019-04-29 2019-07-30 北京字节跳动网络技术有限公司 视频图像的渲染方法、装置和电子设备
CN110211076A (zh) * 2019-05-09 2019-09-06 上海联影智能医疗科技有限公司 图像拼接方法、图像拼接设备和可读存储介质
CN110675420A (zh) * 2019-08-22 2020-01-10 华为技术有限公司 一种图像处理方法和电子设备

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113841112A (zh) * 2020-08-06 2021-12-24 深圳市大疆创新科技有限公司 图像处理方法、相机及移动终端
CN114697723B (zh) * 2020-12-28 2024-01-16 北京小米移动软件有限公司 一种视频生成方法、装置及介质
CN114697723A (zh) * 2020-12-28 2022-07-01 北京小米移动软件有限公司 一种视频生成方法、装置及介质
CN113709559A (zh) * 2021-03-05 2021-11-26 腾讯科技(深圳)有限公司 视频划分方法、装置、计算机设备及存储介质
CN113709559B (zh) * 2021-03-05 2023-06-30 腾讯科技(深圳)有限公司 视频划分方法、装置、计算机设备及存储介质
WO2022222835A1 (zh) * 2021-04-21 2022-10-27 维沃移动通信(杭州)有限公司 视频处理方法、视频处理装置和电子设备
WO2022227918A1 (zh) * 2021-04-30 2022-11-03 北京字跳网络技术有限公司 视频处理方法、设备及电子设备
CN114025237A (zh) * 2021-12-02 2022-02-08 维沃移动通信有限公司 视频生成方法、装置和电子设备
CN114302071A (zh) * 2021-12-28 2022-04-08 影石创新科技股份有限公司 视频处理方法、装置、存储介质及电子设备
CN114302071B (zh) * 2021-12-28 2024-02-20 影石创新科技股份有限公司 视频处理方法、装置、存储介质及电子设备
CN114554280A (zh) * 2022-01-14 2022-05-27 影石创新科技股份有限公司 影分身视频的生成方法、生成装置、电子设备及存储介质
CN114554280B (zh) * 2022-01-14 2024-03-19 影石创新科技股份有限公司 影分身视频的生成方法、生成装置、电子设备及存储介质
CN115134527A (zh) * 2022-06-29 2022-09-30 上海传英信息技术有限公司 处理方法、智能终端及存储介质
CN115134527B (zh) * 2022-06-29 2024-03-12 上海传英信息技术有限公司 处理方法、智能终端及存储介质

Also Published As

Publication number Publication date
US20210337136A1 (en) 2021-10-28
EP3905203B1 (en) 2024-04-17
EP3905203A1 (en) 2021-11-03
KR102508080B1 (ko) 2023-03-09
JP6990282B2 (ja) 2022-01-12
US11368632B2 (en) 2022-06-21
KR20210133112A (ko) 2021-11-05
JP2021175174A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
CN111601033A (zh) 视频处理方法、装置及存储介质
CN107426502B (zh) 拍摄方法及装置、电子设备、存储介质
CN104243818A (zh) 图像处理方法、装置及设备
EP3174283A1 (en) Preview image display method and apparatus, computer program and recording medium
CN107015648B (zh) 图片处理方法及装置
US11770497B2 (en) Method and device for processing video, and storage medium
CN109922252B (zh) 短视频的生成方法及装置、电子设备
US11310443B2 (en) Video processing method, apparatus and storage medium
CN108470321B (zh) 照片的美颜处理方法、装置和存储介质
CN110266958B (zh) 一种拍摄方法、装置及系统
CN108924529B (zh) 图像显示的控制方法及装置
CN111586296B (zh) 图像拍摄方法、图像拍摄装置及存储介质
KR102557592B1 (ko) 이미지 표시 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체
CN113315903B (zh) 图像获取方法和装置、电子设备、存储介质
CN109035136B (zh) 图像处理方法及装置、存储介质
CN113286073A (zh) 拍摄方法、拍摄装置及存储介质
CN114078280A (zh) 动作捕捉方法、装置、电子设备及存储介质
CN114390189A (zh) 图像处理方法、装置、存储介质及移动终端
CN112346606A (zh) 一种图片处理方法、装置及存储介质
CN115278060B (zh) 一种数据处理方法、装置、电子设备及存储介质
CN112000250B (zh) 一种信息处理方法、装置、电子设备及存储介质
CN114727006A (zh) 图像拍摄方法和装置
CN114727000A (zh) 合影方法、装置、终端设备及存储介质
CN112752030A (zh) 拍摄方法、拍摄装置及存储介质
CN114697517A (zh) 视频处理方法、装置、终端设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200828

RJ01 Rejection of invention patent application after publication