CN110266970A - 一种短视频制作方法和系统 - Google Patents
一种短视频制作方法和系统 Download PDFInfo
- Publication number
- CN110266970A CN110266970A CN201910468342.9A CN201910468342A CN110266970A CN 110266970 A CN110266970 A CN 110266970A CN 201910468342 A CN201910468342 A CN 201910468342A CN 110266970 A CN110266970 A CN 110266970A
- Authority
- CN
- China
- Prior art keywords
- picture
- short
- image
- sighted frequency
- focus image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/913—Television signal processing therefor for scrambling ; for copy protection
- H04N2005/91307—Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本发明涉及短视频制作方法和系统,其中,所述方法包括:获取短视频设计图和对应的素材,其中,所述素材至少包括图片;响应于所述图片符合预置要求,获取图片的焦点图像;采用所述焦点图像替换素材中的对应原始图片;以及基于所述短视频设计图和所述素材生成短视频。本发明向用户提供短视频模板,用户只需简单的几个操作步骤,便可以获得高质量的短视频,为用户节省了时间成本和精力。短视频设计图层次分明、界限清晰,易于服务器读取和识别,因而视频生成速度快、质量高。在生成短视频时,识别出用户图片中的焦点图像,去掉了图片中的其他无关图像,在短视频中更加突出了图片中的展示图像,满足了用户的展示需求。
Description
技术领域
本发明涉及一种视频制作技术领域,特别地涉及一种短视频制作方法和系统。
背景技术
随着手机、平板电脑等移动终端的普及、生活质量的提高和生活方式的改变,通过拍照、录像来记录和分享生活在普通消费者中越来越流行。相比于静态的图片和数据量较大的视频,信息量多而数据量小的短视频普遍受到人们的欢迎。越来越多的人喜欢用短视频来分享生活。然而,现有的视频制作系统过于专业,系统庞杂,处理过程繁琐,对于普通用户而言,需要具有较高水平的视频处理知识,花费大量的时间和精力才能获得较高质量的短视频。另外,在生成短视频时,用户有时仅需要显示图片中的焦点人物或物品,而不显示背景,目前尚未有满足这类需求的、简单高效的短视频制作方法。
发明内容
针对现有技术中存在的技术问题,本发明提出了一种短视频制作方法和系统,用户制作过程简单、效率高,生成的视频质量高,并且能够满足用户在短视频中显示图片素材中的焦点人物或物品的需求。
为了解决上述技术问题,本发明提供了一种短视频制作方法,其中,包括:
获取短视频设计图和对应的素材,其中,所述素材至少包括图片;
响应于所述图片符合预置要求,获取图片的焦点图像;
采用所述焦点图像替换素材中的对应原始图片;以及
基于所述短视频设计图和所述素材生成短视频。
优选地,获取图片中的焦点图像的步骤进一步包括:
对图片中的焦点图像进行定位,获取定位点坐标;
以所述定位点坐标限定的图像范围作为焦点图像。
其中,所述定位点为两个,所述定位点坐标限定的图像范围为以两个定位点为对角顶点的矩形范围。
优选地,对图片中的焦点图像进行定位的步骤包括:
以所述图片作为定位模型的输入,经过所述定位模型的计算得到焦点图像的定位点坐标。
其中,所述定位模型为全卷积网络模型或卷积神经网络模型。
其中,所述预置要求为:图片的素材来源为用户。
优选地,在获取图片的焦点图像之后,计算所述焦点图像对其原始图片的占比,响应于所述占比大于或等于预置的占比阈值,采用所述焦点图像替换素材中的原始图片。
优选地,所述的短视频制作方法进一步包括:基于所述短视频设计图获取视频输出描述层、系统资源配置层、素材描述层和特效描述层的信息;
根据所述系统资源配置层的信息配置系统参数;
根据素材描述层的信息读取素材及属性信息;
根据特效描述层的信息获取特效信息;
按照系统参数、素材属性信息及特效信息,依据所述素材生成多帧画面;以及
按照视频输出描述层的信息,基于所述多帧画面生成短视频。
优选地,所述的短视频制作方法进一步包括:在短视频中的预设帧画面上叠加版权信息。
为了解决上述技术问题,本发明还提供了一种短视频制作系统,其中,包括:
素材获取模块,经配置用于根据短视频设计图获取对应的素材,其中,所述素材至少包括图片;
焦点图像获取模块,经配置用于响应所述图片符合预置要求,获取图片的焦点图像,并采用所述焦点图像替换素材中的对应原始图片;以及
视频制作模块,经配置用于基于所述短视频设计图和所述素材生成短视频。
优选地,所述焦点图像获取模块包括:
图片确定单元,经配置用于根据所述图片的素材来源信息,在所述图片的素材来源为用户时确定所述图片符合预置要求;
定位单元,经配置用于对符合预置要求的图片的焦点图像进行定位,获取定位点坐标;
图像截取单元,经配置用于根据所述定位点坐标,从所述图片中截取限定所述定位点坐标限定的图像;以及
素材置换单元,经配置用于采用所述焦点图像替换素材中的对应原始图片。
其中,所述定位单元经进一步配置,以所述图片作为定位模型的输入,经过所述定位模型的计算得到定位点坐标。
其中,所述定位模型为全卷积网络模型或卷积神经网络模型。
所述素材置换单元经进一步配置,计算所述焦点图像对其原始图片的占比,响应于所述占比大于或等于预置的占比阈值,采用所述焦点图像替换素材中的对应原始图片。
优选地,所述的系统还进一步包括版权信息增加模块,经配置用于在短视频中的预设帧画面上叠加版权信息。
本发明向用户提供短视频模板,根据用户提供的素材生成短视频设计图,基于所述短视频设计图生成短视频。用户只需简单的几个操作,便可以获得高质量的短视频,为用户节省了时间成本和精力。短视频设计图层次分明、界限清晰,素材和特效的描述区分明显,易于服务器读取和识别,因而视频生成速度快、质量高。在生成短视频时,可以识别出用户图片中的焦点图像,从而去掉了图片中的其他无关图像,在短视频中更加突出了图片中的展示图像,满足了用户的展示需求。通过在短视频中增加版权信息,增加了对短视频的保护措施。
附图说明
下面,将结合附图对本发明的优选实施方式进行进一步详细的说明,其中:
图1是根据本发明的一个实施例的短视频制作方法流程图,;
图2是根据本发明的一个实施例的获得一幅图片的焦点图像的方法流程图;
图3是根据本发明的一个实施例的生成短视频的流程图;以及
图4是根据本发明的一个实施例的短视频制作系统原理框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在以下的详细描述中,可以参看作为本申请一部分用来说明本申请的特定实施例的各个说明书附图。在附图中,相似的附图标记在不同图式中描述大体上类似的组件。本申请的各个特定实施例在以下进行了足够详细的描述,使得具备本领域相关知识和技术的普通技术人员能够实施本申请的技术方案。应当理解,还可以利用其它实施例或者对本申请的实施例进行结构、逻辑或者电性的改变。
如图1所示,为根据本发明一实施例的短视频制作方法流程图,其中,所述方法包括:
步骤S1,获取短视频设计图和对应的素材。所述的短视频设计图为设计师完成的短视频模板设计图,或者为用户在短视频模板的基础上生成的用户设计图。短视频设计图包括分层组织的数据层,所述数据层至少包括素材描述层和特效描述层。所述素材描述层用于描述生成短视频所用素材的属性信息,例如素材名称、素材类型、素材来源及素材值,其中,所述素材来源为用户或设计师。当一个素材的素材来源定义为用户时,其为用户可以编辑的可替换素材。所述素材值包括素材存储地址或素材内容。通过素材描述层中的素材值可以获取素材或根据存储地址读取素材。通常,短视频设计图中包括有多个素材。例如图片、视频或这字等。特效描述层用于描述短视频中使用的特效信息,例如特效相关素材、特效名称、时长、特效位置和投影类型等。
得到素材后,还需要对文字素材和图片进行预处理。对图片的预处理包括:
步骤S2,读取一个图片素材的素材来源信息。
步骤S3,判断所述图片的素材来源是用户还是设计师,如果是设计师,返回步骤S2读取另一个图片素材的素材来源信息;如果是用户,说明所述图片符合预置要求,则执行步骤S4。
步骤S4,获取图片中的焦点图像。图片中的图像可分为焦点图像和背景图像。其中,所述的焦点图像为图片中占主要面积的图像,代表了拍摄人要展示的内容。在一个实施例中,为了获得一幅图片的焦点图像,具体如图2所示,包括以下步骤:
步骤S41,对图片中的焦点图像进行定位,获取定位点坐标。具体地,以所述图片作为定位模型的输入,经过所述定位模型的计算得到焦点图像的定位点坐标。所述的定位模型采用卷积神经网络(Convolutional Neural Network,简称CNN)算法或全卷积网络(Fully Convolutional Networks,简称FCN)算法。采用训练集对定位模型训练,得到可以准确输出焦点图像多个定位点坐标的矩阵及变量,将训练得到矩阵及变量按照层级存储,从而确定所述定位模型。将素材中的图片输入给所述定位模型,经过定位模型的逐层计算得到所述定位点坐标。
步骤S42,以所述定位点坐标限定的图像范围作为焦点图像。例如,当所述定位点为两个时,将以定位点为对角顶点的矩形范围从所述图片中截取下来作为焦点图像。
在得到一个图片的焦点图像后,可以有两种处理方式:
方式一:
步骤S5a,采用所述焦点图像替换素材中的对应原始图片,然后执行步骤S6。
方式二:
步骤S50b,计算所述焦点图像对其原始图片的占比。
步骤S51b,判断所述占比是否大于或等于预置的占比阈值,例如60%,70%等,如果所述占比大于或等于预置的占比阈值,则在转向步骤S6;如果所述占比小于预置的占比阈值,则在步骤S52b,采用所述焦点图像替换素材中的原始图片,然后执行步骤S6。
步骤S6,判断是否还有图片要处理,如果已经处理完所有的图片,则执行步骤S7,如果还有图片要处理,转向步骤S2。
步骤S7,将文字素材处理成为具有alpha透明度通道的文字图片。
步骤S8,基于所述短视频设计图和所述素材生成短视频。具体如图3所示,包括以下步骤:
步骤S81,基于所述短视频设计图获取视频输出描述层、系统资源配置层、素材描述层、特效描述层和资源描述层的信息。其中,所述视频输出描述层包括如短视频的分辨率,帧率,播放时长等信息;系统资源配置层包括例如滤镜的配置路径、转场配置路径等信息;素材描述层包括例如模板素材名称或ID、素材类型、素材来源、素材值、文字属性、图片属性、视频属性等信息;用户素材描述层中描述的素材信息与素材描述层中的信息一一对应,并且,该数据层中的素材为素材描述层中素材来源为用户的素材,其为供用户替换的素材,当用户使用模板制作短视频时,将该数据层中的信息修改为用户素材信息;特效描述层描述了该模板在素材播出时使用的特效,例如不同视频段的过渡转场效果、图片的淡入淡出效果等;资源描述层,如模板素材和用户素材的url。这些信息分层组织在一起构成短视频设计图。
步骤S82,根据所述系统资源配置层的信息配置系统参数。例如,将系统资源配置信息层中记录的滤镜配置路径、转场配置路径分别配置给相应的读取参数,从而读取滤镜信息、转场信息等。
步骤S83,根据素材描述层读取素材及属性信息。例如,根据素材值读取素材,并读取对应的属性信息。所述属性信息包括某一类型素材的自身属性信息,例如,素材为文字时的一些文字属性,如字体、字号、颜色;素材为图片时对应的图片属性,如,指定裁切的矩形区域、缩放模式;素材为视频时对应的视频属性,如视频音乐是否为背景音乐、旋转角度等。属性信息还包括附加属性信息,如滤镜信息、视觉信息(如透明或面具)等。
步骤S84,根据特效描述层获取特效信息。例如相关素材、启止时间,位于画面的具体位置。还可以包括子特效信息,例如中空、镜像、反色等。
步骤S85,按照系统参数、素材属性信息及特效信息,依据所述素材生成多帧画面。
例如,对读取的画面做裁切、滤镜、旋转、缩放、快慢速等各种处理。在一个实施例中,在需要进行旋转、缩放、透视等操作时,根据预先计算好的参数,调用OpenCV(OpenSource Computer Vision Library,计算机视觉库)中的相应工具得到相应变化效果。
另外,对于模板中配置的一些图片/视频等素材的2D/3D特效,可以通过图形处理器(Graphic Processing Unit,简称GPU)利用OpenGL(Open Graphics Library,开放图形库)来处理生成。对于没有GPU配置的服务器,也可以直接使用软件模拟的OpenGL。或者是对于某些特效,比如“水波纹”效果、“火焰”效果,可以通过本发明提供的三角形剖分和三角形纹理填充来实现,既可以达到使用OpenGL实现的特效,也更加方便对视频特效的扩展,并且不再需要GPU和OpenGL的支持,对不同服务器的部署更加友好。
以“水波纹”效果为例,根据特效信息中对应的素材及其起止时间,读取所述时间段内的素材,对所述素材进行三角形剖分和三角形纹理填充。具体包括:对该段素材的每一帧原始素材画面进行三角形剖分,获取多个三角形的原始位置点,根据水波函数计算出所述原始位置点在每一帧画面上的位置,在每一帧画面上,以原画面像素填充以新的位置点构成的三角形区域,当素材以设置的帧率生成视频时,该时间段内的素材则获得了“水波纹”效果。
如果有转场属性,在一个实施例中,根据转场配置路径,读取与转场类型对应的灰度视频。根据转场类型的不同,其中,不同的灰度视频可以使每一帧画面变化不同,从而得到不同的转场效果。
对于转场,在一个实施例中,将前一个特效的最后一帧画面和后一个特效的第一帧画面融合起来时,根据这个灰度视频的一帧画面的像素点的灰度值计算融合合的画面的像素值。以灰度视频的某个像素点的灰度值为100时为例,合成之后的画面对应点的像素值为:前景像素值x100/255+背景像素值x(255-100)/255。其中,所述前景是指前一个特效的最后一帧画面,所述的背景是指后一个特效的第一帧画面。由于每个像素值基本都包括RGBA四个分量,即Red(红色)、Green(绿色)、Blue(蓝色)和Alpha(透明度),每一个分量分别按上述公式计算,则得到一个像素的全部分量值。
如果融合后的画面仅是原始画面的局部画面,则采用融合后的画面替换原始画面中的融合前的画面,并合成在一起得到最终画面。
步骤S86,按照视频输出描述层中的信息,如帧率,基于所述多帧画面生成短视频。
通过以上方法生成的短视频中,以图片为素材生成的视频中,仅显示原图片中的焦点人物/物品,剔除了原图片中的杂乱背景,突出了图片拍摄者的展示意图。另外,如果焦点图像过去过大,显得突兀,可以补充单纯的背景图片。例如,可将焦点图像中的人物或物品设置在画面占比的某个范围内,例如70%-90%,其余补充纯色或模糊的背景,既起到了突出显示人物或物品的目的,也照顾到展示时的给人的美感,从而更有效地提高短视频的画面质量。
当短视频设计图中包括模板描述层时,在生成所述短视频后,还包括步骤S87,向短视频增加版权信息。即:从模板描述层中读取所述版权信息,如模板名称、作者等,将所述版权信息制成透明的图片,并根据设置算法计算得到插入所述图片的视频画面帧数Fn,将所述版权图片叠加在短视频第Fn帧的画面上,从而在生成的短视频上携带了版权信息。
如图4所示,为根据本发明一个实施例的短视频制作系统原理框图,所述短视频制作系统包括:素材获取模块1、焦点图像获取模块2和视频制作模块3。其中,所述素材获取模块1根据短视频设计图获取对应的素材,并将其发送给视频制作模块3。在一个实施例中,所述短视频设计图包括素材描述层、用户素材描述层、特效描述层、视频输出描述层、系统资源配置层、素材描述层、特效描述层和资源描述层。其中,资源描述层记载了素材描述层、用户素材描述层中的素材的url,在素材描述层和用户素材描述层中包括了多个素材的描述信息,其中,每一个素材的描述信息中的素材值中包括了素材存储地址或素材内容。通过读取资源描述层的url可以获得到对应的素材,或者通过素材值也可以得到相应的素材。当素材获取模块1根据从短视频设计图中的用户素材描述层中获得图片时,将所述图片输送给焦点图像获取模块2。
焦点图像获取模块2响应所述图片符合预置要求,获取图片的焦点图像,并采用所述焦点图像替换素材中的对应原始图片。具体地,所述焦点图像获取模块2包括图片确定单元21、定位单元22、图像截取单元23和素材置换单元24。所述图片确定单元21用于根据每一个图片素材的素材来源信息,在所述图片素材的素材来源为用户时确定所述图片符合预置要求,即需要识别图片的焦点图像,将其发送给所述定位单元22进行处理。所述定位单元22对图片中的焦点图像进行定位,获取定位点坐标。其中,所述定位单元22利用定位模型,以所述图片作为定位模型的输入,经过所述定位模型的计算得到定位点坐标。其中在一个实施例中,定位模型采用CNN算法或FCN算法。首先采用CNN算法或FCN算法建模,然后采用训练集对新建定位模型训练,得到可以准确输出焦点图像的多个定位点坐标的矩阵及变量,将训练得到矩阵及变量按照层级存储,从而确定了所述定位模型。所述定位单元22将素材中的图片输入给所述定位模型,经过定位模型的逐层计算得到所述定位点坐标。
关于定位模型,首先根据FCN算法设计所述定位模型的结构及变量。例如,所述定位模型至少包括特征提取器和回归器。其中,特征提取器包括n层特征图(Feature Map,简称FM),每个特征图为N×M的像素矩阵,通常N=M,矩阵中的每一个像素单元对应一个神经元。其中,在一个实施例中,第一层为卷积层,其输入为样本图像,并设置多个大小为5×5的卷积核,每一个卷积核分别与样本图像进行卷积计算,分别得到一个特征图。其中,特征图的大小设为28×28。因而,特征图中的每个神经元与输入图像中5×5邻域相连。在第一层特征图中,每个滤波器共有5×5=25个单元参数和一个偏置参数bias,第一层共有6个滤波器,因而共有(5×5+1)×6=156个可训练参数;156×(28×28)=122,304个连接。
接下来的第二层为下采样层。在下采样层设置6个大小为2×2的滤波器,并设置特征图的大小为14×14。每一个卷积核分别与第一层的一个特征图进行卷积计算后得到下采样层的一个特征图,因而,下采样层中共有6个特征图,每个特征图中的每个神经元与前一层对应特征图的2×2邻域相连接。该层每个单元的4个输入相加,乘以一个可训练系数,再加上一个可训练偏置系数,结果通过sigmoid函数计算。可训练系数和偏置系数控制着sigmoid函数的非线性程度。如果系数比较小,那么运算近似于线性运算,下采样相当于模糊图像。如果系数比较大,根据偏置系数的大小,下采样可以被看成是有噪声的“或”运算或者有噪声的“与”运算。每个单元的2×2运算后的数值所形成的区域并不重叠,因此这层中每个特征图的大小是前一层中特征图大小的1/4(行和列各1/2)。这一层有(2×2+1)×6=30个可训练参数和30×14×14=5880个连接。
接下来第三层为卷积层。设置该层的特征图大小为10×10。通过16个5×5的卷积核分别卷积计算前一层的特征图,因而得到16个特征图。每个特征图连接到前一层中的所有6个或者几个特征图,因而,本层的特征图是上一层特征图的不同组合。例如,该层的前6个特征图以前一层中3个相邻的特征图子集为输入,接下来6个特征图以前一层中4个相邻特征图子集为输入,然后的3个以不相邻的4个特征图子集为输入。最后一个将前一层中所有特征图为输入。这样该层层有1516个可训练参数和151600个连接。本实施例通过不完全的连接机制将连接的数量保持在合理的范围内,不同的特征图有不同的输入,所以可以抽取不同的特征。
接下来第四层为一个下采样层。设置该层的特征图大小为5×5。通过16个2×2的卷积核去卷积前一层的特征图,因而,特征图中的每个单元与前一层中相应特征图的2×2邻域相连接。该层有32个可训练参数和2000个连接。
接下来第五层为一个卷积层,有120个特征图。采用120个5×5的卷积核去卷积前一层的特征图,因而本层的每个特征图的大小为1×1,从而构成了前一层和这一层之间的全连接。每个特征图中的每个单元与前一层的全部16个单元的5×5邻域相连。这层有48120个可训练连接。所述120个特征图组成一个矩阵,输出给回归器。
在本实施例,回归器与特征提取器的计算过程类似,通过3层卷积计算,在最后一层设置4个特征图,且特征图的大小设置为1×1。所述4个特征图对应的数值就是要求的坐标值。
前述实施例中的样本图像为某个训练集中的训练图片。每一个训练集包括一种物品(如树木)的、大量的训练图片,每一幅训练图片具有4个定位坐标值。
当通过前述的定位模型得到一幅图片的定位坐标值时,将其与该图片的原始定位坐标值进行对比。根据对比结果调整定位模型中的参数,使重新得到的定位坐标值向原始定位坐标值逼近,反复执行所述过程,直到定位坐标值向原始定位坐标值不能再近为止。
然后再向该定位模型输入同一训练集中的另一个训练图片,重复前述过程,直到计算完该训练集中所有训练图片。将最终确定下的矩阵和变量,按照层级结构存储,从而得到一个完整的定位模型。
为了提高该定位模型的定位准确率,还可以通过计算验证集图片来验证定位的准确率,并根据验证结果调整模型参数。直到定位的准确率符合要求为止,如准确率达到99.9%以上。
本发明利用所述定位模型得到输入图像上的焦点图像的两个定位坐标,但本领域的普通技术人员应知,也可以训练得到输出4个或更多个定位点的坐标。具体模型的训练过程与前述过程相似,在此不再赘述。
图像截取单元23根据所述定位点坐标,从原始图片中截取所述定位点坐标限定的图像区域,从而得到该图片的焦点图像。
素材置换单元24,采用所述焦点图像替换素材中的对应原始图片。在另一个实施例中,素材置换单元24在替换之前还进行如下处理:计算所述焦点图像对其原始图片的占比,只有在所述占比大于或等于预置的占比阈值时替换掉素材中的对应原始图片。在原始图片的焦点图像足够大时,其背景图片不会影响观看,因而不需要只展示焦点图像。
视频制作模块3从短视频设计图中获取到模板描述层、视频输出描述层、系统资源配置层、素材描述层、特效描述层、用户素材描述层和资源描述层的信息,利用上述信息,根据图3的过程生成短视频。在该短视频中,对应于素材来源为用户的图片,不再是原始图片,而是该图片中的焦点图像,更加突出了图片拍摄者的展示意图。
为了方便视频制作模块3制作短视频,还包括文字预处理模块4,用于将素材中的文字素材处理成具有alpha透明度通道的文字图片,再将其发送给视频制作模块3。
为了保护生成的短视频的版权,在一个实施例中还包括版权信息增加模块5。当短视频设计图中包括有模板描述层时,在所述模板描述层记载了所述模板的作者、模板名称等版权信息,版权信息增加模块从所述模板描述层中读取所述版权信息,将所述版权信息制成透明的版权图片,并根据设置算法计算得到插入所述图片的视频画面帧数Fn,将所述版权图片叠加在帧数为Fn的画面上,从而在生成的短视频上携带了版权信息,有利于对短视频的版权保护。
上述实施例仅供说明本发明之用,而并非是对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明范围的情况下,还可以做出各种变化和变型,因此,所有等同的技术方案也应属于本发明公开的范畴。
Claims (15)
1.一种短视频制作方法,其中,包括:
获取短视频设计图和对应的素材,其中,所述素材至少包括图片;
响应于所述图片符合预置要求,获取图片的焦点图像;
采用所述焦点图像替换素材中的对应原始图片;以及
基于所述短视频设计图和所述素材生成短视频。
2.根据权利要求1所述的短视频制作方法,其中,获取图片的焦点图像的步骤进一步包括:
对符合预置要求的图片的焦点图像进行定位,获取定位点坐标;以及
以所述定位点坐标限定的图像范围作为焦点图像。
3.根据权利要求2所述的短视频制作方法,其中,所述定位点为两个,所述定位点坐标限定的图像范围为以两个定位点为对角顶点的矩形范围。
4.根据权利要求2或3所述的短视频制作方法,其中,对图片的焦点图像进行定位的步骤包括:
以所述图片作为定位模型的输入,经过所述定位模型的计算得到焦点图像的定位点坐标。
5.根据权利要求4所述的短视频制作方法,其中,所述定位模型为全卷积网络模型或卷积神经网络模型。
6.根据权利要求1所述的短视频制作方法,其中,所述预置要求为:图片的素材来源为用户。
7.根据权利要求1所述的短视频制作方法,其中,在获取图片的焦点图像之后,计算所述焦点图像对其原始图片的占比,响应于所述占比大于或等于预置的占比阈值,采用所述焦点图像替换素材中的原始图片。
8.根据权利要求1所述的短视频制作方法,其中,进一步包括:基于所述短视频设计图获取视频输出描述层、系统资源配置层、素材描述层和特效描述层的信息;
根据所述系统资源配置层的信息配置系统参数;
根据素材描述层的信息读取素材及属性信息;
根据特效描述层的信息获取特效信息;
按照系统参数、素材属性信息及特效信息,依据所述素材生成多帧画面;以及
按照视频输出描述层的信息,基于所述多帧画面生成短视频。
9.根据权利要求1或8所述的短视频制作方法,其中,进一步包括:在短视频中的预设帧画面上叠加版权信息。
10.一种短视频制作系统,其中,包括:
素材获取模块,经配置用于根据短视频设计图获取对应的素材,其中,所述素材至少包括图片;
焦点图像获取模块,经配置用于响应所述图片符合预置要求,获取图片的焦点图像,并采用所述焦点图像替换素材中的对应原始图片;以及
视频制作模块,经配置用于基于所述短视频设计图和所述素材生成短视频。
11.根据权利要求10所述的系统,其中,所述焦点图像获取模块包括:
图片确定单元,经配置用于根据所述图片的素材来源信息,在所述图片的素材来源为用户时确定所述图片符合预置要求;
定位单元,经配置用于对符合预置要求的图片的焦点图像进行定位,获取定位点坐标;
图像截取单元,经配置用于根据所述定位点坐标,从所述图片中截取限定所述定位点坐标限定的图像;以及
素材置换单元,经配置用于采用所述焦点图像替换素材中的对应原始图片。
12.根据权利要求11所述的系统,其中,所述定位单元经进一步配置,以所述图片作为定位模型的输入,经过所述定位模型的计算得到定位点坐标。
13.根据权利要求12所述的系统,其中,所述定位模型为全卷积网络模型或卷积神经网络模型。
14.根据权利要求11所述的系统,其中,所述素材置换单元经进一步配置,计算所述焦点图像对其原始图片的占比,响应于所述占比大于或等于预置的占比阈值,采用所述焦点图像替换素材中的对应原始图片。
15.根据权利要求10所述的系统,其中,还进一步包括版权信息增加模块,经配置用于在短视频中的预设帧画面上叠加版权信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910468342.9A CN110266970A (zh) | 2019-05-31 | 2019-05-31 | 一种短视频制作方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910468342.9A CN110266970A (zh) | 2019-05-31 | 2019-05-31 | 一种短视频制作方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110266970A true CN110266970A (zh) | 2019-09-20 |
Family
ID=67916232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910468342.9A Pending CN110266970A (zh) | 2019-05-31 | 2019-05-31 | 一种短视频制作方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110266970A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112565625A (zh) * | 2019-09-26 | 2021-03-26 | 北京小米移动软件有限公司 | 视频处理方法、装置及介质 |
CN112653849A (zh) * | 2021-01-14 | 2021-04-13 | 上海翰莓科技有限公司 | 一种短视频设计服务系统 |
CN112911399A (zh) * | 2021-01-18 | 2021-06-04 | 网娱互动科技(北京)股份有限公司 | 一种快速生成短视频的方法 |
CN113411517A (zh) * | 2021-05-28 | 2021-09-17 | 北京达佳互联信息技术有限公司 | 视频模板的生成方法、装置、电子设备及存储介质 |
CN113784165A (zh) * | 2021-09-17 | 2021-12-10 | 北京快来文化传播集团有限公司 | 短视频滤镜叠加方法、系统、电子设备及可读存储介质 |
CN117676201A (zh) * | 2023-12-15 | 2024-03-08 | 书行科技(北京)有限公司 | 视频生成方法、装置、电子设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1457989A2 (en) * | 2003-03-11 | 2004-09-15 | Sony Corporation | Picture material editing apparatus and picture material editing method |
CN104780439A (zh) * | 2014-01-15 | 2015-07-15 | 腾讯科技(深圳)有限公司 | 视频的处理方法及装置 |
CN106875433A (zh) * | 2017-03-09 | 2017-06-20 | 广东欧珀移动通信有限公司 | 裁剪构图的控制方法、控制装置及电子装置 |
CN107665482A (zh) * | 2017-09-22 | 2018-02-06 | 北京奇虎科技有限公司 | 实现双重曝光的视频数据实时处理方法及装置、计算设备 |
-
2019
- 2019-05-31 CN CN201910468342.9A patent/CN110266970A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1457989A2 (en) * | 2003-03-11 | 2004-09-15 | Sony Corporation | Picture material editing apparatus and picture material editing method |
CN104780439A (zh) * | 2014-01-15 | 2015-07-15 | 腾讯科技(深圳)有限公司 | 视频的处理方法及装置 |
CN106875433A (zh) * | 2017-03-09 | 2017-06-20 | 广东欧珀移动通信有限公司 | 裁剪构图的控制方法、控制装置及电子装置 |
CN107665482A (zh) * | 2017-09-22 | 2018-02-06 | 北京奇虎科技有限公司 | 实现双重曝光的视频数据实时处理方法及装置、计算设备 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112565625A (zh) * | 2019-09-26 | 2021-03-26 | 北京小米移动软件有限公司 | 视频处理方法、装置及介质 |
CN112653849A (zh) * | 2021-01-14 | 2021-04-13 | 上海翰莓科技有限公司 | 一种短视频设计服务系统 |
CN112653849B (zh) * | 2021-01-14 | 2023-07-25 | 上海翰莓科技有限公司 | 一种短视频设计服务系统 |
CN112911399A (zh) * | 2021-01-18 | 2021-06-04 | 网娱互动科技(北京)股份有限公司 | 一种快速生成短视频的方法 |
CN113411517A (zh) * | 2021-05-28 | 2021-09-17 | 北京达佳互联信息技术有限公司 | 视频模板的生成方法、装置、电子设备及存储介质 |
CN113411517B (zh) * | 2021-05-28 | 2023-04-07 | 北京达佳互联信息技术有限公司 | 视频模板的生成方法、装置、电子设备及存储介质 |
CN113784165A (zh) * | 2021-09-17 | 2021-12-10 | 北京快来文化传播集团有限公司 | 短视频滤镜叠加方法、系统、电子设备及可读存储介质 |
CN113784165B (zh) * | 2021-09-17 | 2023-05-05 | 北京快来文化传播集团有限公司 | 短视频滤镜叠加方法、系统、电子设备及可读存储介质 |
CN117676201A (zh) * | 2023-12-15 | 2024-03-08 | 书行科技(北京)有限公司 | 视频生成方法、装置、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110266970A (zh) | 一种短视频制作方法和系统 | |
Kowalski et al. | Art-based rendering of fur, grass, and trees | |
Markosian et al. | Art-based rendering with continuous levels of detail | |
US8866841B1 (en) | Method and apparatus to deliver imagery with embedded data | |
US20200380750A1 (en) | Transferring Vector Style Properties to a Vector Artwork | |
Gerl et al. | Interactive example-based hatching | |
CN108765520A (zh) | 文本信息的渲染方法和装置、存储介质、电子装置 | |
CN111047506A (zh) | 环境图生成和孔填充 | |
Fabrikant | Towards an Understanding of Geovisualization with Dynamic Displays: Issues and Prospects. | |
CN114782460B (zh) | 图像分割模型的生成方法及图像的分割方法、计算机设备 | |
CN112686939A (zh) | 景深图像的渲染方法、装置、设备及计算机可读存储介质 | |
CN113223187A (zh) | 广告成品图批量制作方法、系统、设备及可读存储介质 | |
Winnemöller et al. | Texture design and draping in 2d images | |
CN116055800A (zh) | 一种移动端获得定制背景实时舞蹈视频的方法 | |
CN116954605A (zh) | 页面生成方法、装置及电子设备 | |
CN104574493B (zh) | 一种远景平滑淡出的方法及装置 | |
Dy et al. | MCGAN: mask controlled generative adversarial network for image retargeting | |
Li et al. | ARF-Plus: Controlling Perceptual Factors in Artistic Radiance Fields for 3D Scene Stylization | |
CN113763546A (zh) | 卡预览方法、装置及电子设备 | |
Zheng et al. | [Retracted] Visual Sensing Technology for Digital Image‐Oriented Public Art Design | |
US11282275B1 (en) | Apparatus and method for generating storybook | |
CN116112657B (zh) | 图像处理方法、装置、计算机可读存储介质及电子装置 | |
CN112087663B (zh) | 一种移动端生成明暗环境适配舞蹈视频的方法 | |
CN103186648B (zh) | 一种页面图元叠印处理的方法及装置 | |
Yoshida et al. | Perceptually-guided design of nonperspectives through pictorial depth cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190920 |