CN107563962A - 视频数据实时处理方法及装置、计算设备 - Google Patents
视频数据实时处理方法及装置、计算设备 Download PDFInfo
- Publication number
- CN107563962A CN107563962A CN201710805713.9A CN201710805713A CN107563962A CN 107563962 A CN107563962 A CN 107563962A CN 201710805713 A CN201710805713 A CN 201710805713A CN 107563962 A CN107563962 A CN 107563962A
- Authority
- CN
- China
- Prior art keywords
- image
- special object
- processing
- current frame
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Circuits (AREA)
Abstract
本发明公开了一种视频数据实时处理方法及装置、计算设备,其方法包括:实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图;将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;显示处理后的视频数据。本发明采用了深度学习方法,实现了高效率高精准性的完成场景分割处理。且对用户技术水平不做限制,节省用户时间。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种视频数据实时处理方法及装置、计算设备。
背景技术
随着科技的发展,图像采集设备的技术也日益提高。使用图像采集设备录制的视频也更加清晰、分辨率、显示效果也大幅提高。但现有录制的视频仅是单调的录制素材本身,无法满足用户提出的越来越多的个性化要求。现有技术可以在录制视频后,由用户手动对视频再做进一步的处理,以满足用户的个性化要求。但这样处理需要用户具有较高的图像处理技术,并且在处理时需要花费用户较多的时间,处理繁琐,技术复杂。
因此,需要一种视频数据实时处理方法,以便实时满足用户的个性化要求。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的视频数据实时处理方法及装置、计算设备。
根据本发明的一个方面,提供了一种视频数据实时处理方法,其包括:
实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;
从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图;
将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;
将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;
显示处理后的视频数据。
可选地,从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图进一步包括:
关键信息为关键点信息;
从当前帧图像中提取出位于特定对象边缘的关键点信息。
可选地,从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图进一步包括:
关键信息为关键点信息;
根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的距离;
根据具有对称关系的至少两个关键点之间的距离,对效果贴图进行缩放处理。
可选地,从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图进一步包括:
关键信息为关键点信息;
根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度;
根据具有对称关系的至少两个关键点之间的旋转角度,对效果贴图进行旋转角度处理。
可选地,从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图进一步包括:
关键信息为关键点信息;
判断特定对象的特定区域的关键点信息是否符合预设条件;
若是,在特定对象的特定区域绘制效果贴图。
可选地,将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像进一步包括:
将效果贴图和前景图像、对当前帧图像进行场景分割处理得到的背景图像进行融合处理,得到当前帧处理后的图像。
可选地,将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像进一步包括:
将效果贴图和前景图像、预设的动态或静态背景图像进行融合处理,得到当前帧处理后的图像。
可选地,将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像进一步包括:
将当前帧处理后的图像中效果贴图位于前景图像区域的部分进行过滤。
可选地,在得到当前帧处理后的图像之后,方法还包括:
在当前帧处理后的图像的部分区域中添加静态或动态效果贴图。
可选地,在将当前帧处理后的图像覆盖原帧图像得到处理后的视频数据之前,方法还包括:
对当前帧处理后的图像进行色调处理、光照处理和/或亮度处理。
可选地,关键信息为关键点信息;特定对象为人体;关键点信息包括位于人脸边缘的关键点信息和/或位于人体边缘的关键点信息。
可选地,显示处理后的视频数据进一步包括:将处理后的视频数据实时显示;
方法还包括:将处理后的视频数据上传至云服务器。
可选地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
可选地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
可选地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的另一方面,提供了一种视频数据实时处理装置,其包括:
获取模块,适于实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
分割模块,适于对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;
绘制模块,适于从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图;
融合模块,适于将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;
覆盖模块,适于将当前帧处理后的图像覆盖原帧图像得到处理后的视频数据;
显示模块,适于显示处理后的视频数据。
可选地,关键信息为关键点信息;绘制模块进一步适于:
从当前帧图像中提取出位于特定对象边缘的关键点信息。
可选地,关键信息为关键点信息;绘制模块进一步包括:
第一计算模块,适于根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的距离;
缩放模块,适于根据具有对称关系的至少两个关键点之间的距离,对效果贴图进行缩放处理。
可选地,关键信息为关键点信息;绘制模块进一步包括:
第二计算模块,适于根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度;
旋转模块,适于根据具有对称关系的至少两个关键点之间的旋转角度,对效果贴图进行旋转角度处理。
可选地,关键信息为关键点信息;绘制模块进一步包括:
判断模块,适于判断特定对象的特定区域的关键点信息是否符合预设条件;若是,在特定对象的特定区域绘制效果贴图。
可选地,融合模块进一步适于:
将效果贴图和前景图像、对当前帧图像进行场景分割处理得到的背景图像进行融合处理,得到当前帧处理后的图像。
可选地,融合模块进一步适于:
将效果贴图和前景图像、预设的动态或静态背景图像进行融合处理,得到当前帧处理后的图像。
可选地,融合模块进一步包括:
过滤模块,适于将当前帧处理后的图像中效果贴图位于前景图像区域的部分进行过滤。
可选地,装置还包括:
区域贴图模块,适于在当前帧处理后的图像的部分区域中添加静态或动态效果贴图。
可选地,装置还包括:
图像处理模块,适于对当前帧处理后的图像进行色调处理、光照处理和/或亮度处理。
可选地,关键信息为关键点信息;特定对象为人体;关键点信息包括位于人脸边缘的关键点信息和/或位于人体边缘的关键点信息。
可选地,显示模块,进一步适于将处理后的视频数据实时显示;
装置还包括:
上传模块,适于将处理后的视频数据上传至云服务器。
可选地,上传模块进一步适于:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
可选地,上传模块进一步适于:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
可选地,上传模块进一步适于:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述视频数据实时处理方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述视频数据实时处理方法对应的操作。
根据本发明提供的视频数据实时处理方法及装置、计算设备,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图;将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;显示处理后的视频数据。本发明在实时获取到图像采集设备录制视频时包含特定对象的当前帧图像后,从当前帧图像中分割出特定对象的前景图像,在其边缘绘制效果贴图,并与其进行融合,并覆盖原当前帧图像得到处理后的视频数据。本发明可以直接得到处理后的视频。本发明采用了深度学习方法,实现了高效率高精准性地完成场景分割处理。且不需要用户对录制的视频进行额外处理,节省用户时间,还可以实时显示给用户处理后的视频数据,方便用户查看显示效果。同时对用户技术水平不做限制,方便大众使用。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的视频数据实时处理方法的流程图;
图2示出了根据本发明另一个实施例的视频数据实时处理方法的流程图;
图3示出了根据本发明一个实施例的视频数据实时处理装置的功能框图;
图4示出了根据本发明另一个实施例的视频数据实时处理装置的功能框图;
图5示出了根据本发明一个实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明中特定对象可以是图像中的人体、植物、动物等任何对象,在实施例中以人体为例进行说明,但不仅限于人体。
图1示出了根据本发明一个实施例的视频数据实时处理方法的流程图。如图1所示,视频数据实时处理方法具体包括如下步骤:
步骤S101,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像。
本实施例中图像采集设备以移动终端为例进行说明。实时获取到移动终端摄像头在录制视频时的当前帧图像或者拍摄视频时的当前帧图像。由于本发明对特定对象进行处理,因此获取当前帧图像时仅获取包含特定对象的当前帧图像。除实时获取图像采集设备所拍摄和/或所录制的视频外,还可以实时获取当前所播放的视频中包含特定对象的当前帧图像。
步骤S102,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像。
当前帧图像中包含了特定对象,如人体。对当前帧图像进行场景分割处理,主要是将特定对象从当前帧图像中分割出来,得到当前帧图像针对于特定对象的前景图像,该前景图像可以仅包含特定对象。
在对当前帧图像进行场景分割处理时,可以利用深度学习方法。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。如利用深度学习的人体分割方法可以对当前帧图像进行场景分割,得到包含人体的前景图像。
步骤S103,从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图。
为方便绘制效果贴图,需要从当前帧图像中提取出特定对象的关键信息。该关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键点信息为例进行说明,但本发明的关键信息不限于是关键点信息。使用关键点信息可以提高根据关键点信息绘制效果贴图的处理速度和效率,可以直接根据关键点信息绘制效果贴图,不需要再对关键信息进行后续计算、分析等复杂操作。同时,关键点信息便于提取,且提取准确,绘制效果贴图的效果更精准。由于一般采用在特定对象的边缘绘制效果贴图,因此,在从当前帧图像中提取时,提取出位于特定对象边缘的关键点信息。当特定对象为人体时,提取的关键点信息包括位于人脸边缘的关键点信息、位于人体边缘的关键点信息等。
效果贴图可以为静态的效果贴图,也可以为动态的效果贴图。效果贴图可以为如火焰、跳动的音符、浪花等效果,具体根据实施情况进行设置,此处不做限定。根据提取出的关键点信息,可以确定特定对象各边缘位置,进而可以在特定对象的边缘绘制效果贴图。如在人体的边缘绘制火焰,使得人体周围火焰环绕。
步骤S104,将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像。
将效果贴图与分割处理得到的针对于特定对象的前景图像进行融合处理,使得效果贴图更真实的与前景图像融合在一起,得到当前帧处理后的图像。为使效果贴图和前景图像可以更好的融合,在对当前帧图像进行分割处理时,对分割得到的前景处理的边缘进行半透明处理,模糊特定对象的边缘,以便更好的融合。
步骤S105,将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据。
使用当前帧处理后的图像直接覆盖掉原当前帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到当前帧处理后的图像。
步骤S106,显示处理后的视频数据。
得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
根据本发明提供的视频数据实时处理方法,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图;将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;显示处理后的视频数据。本发明在实时获取到视频包含特定对象的当前帧图像后,从当前帧图像中分割出特定对象的前景图像,在其边缘绘制效果贴图,并与其进行融合,并覆盖原当前帧图像得到处理后的视频数据。本发明可以直接得到处理后的视频,不需要用户对录制的视频进行额外处理,节省用户时间,还可以实时显示给用户处理后的视频数据,方便用户查看显示效果。同时对用户技术水平不做限制,方便大众使用。
图2示出了根据本发明另一个实施例的视频数据实时处理方法的流程图。如图2所示,视频数据实时处理方法具体包括如下步骤:
步骤S201,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像。
步骤S202,对当前帧图像进行场景分割处理,得到当前帧图像针对于所述特定对象的前景图像。
以上步骤参考图1实施例中的步骤S101-S102的描述,在此不再赘述。
步骤S203,从当前帧图像中提取出特定对象的关键点信息,根据关键点信息在特定对象的边缘绘制效果贴图。
从当前帧图像中提取出特定对象的关键点信息,关键点信息包括特定对象边缘的关键点信息,还可以包括特定对象的特定区域的关键点信息。
根据提取出的关键点信息,可以确定特定对象各边缘位置,进而可以在特定对象的边缘绘制效果贴图。
步骤S204,根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的距离。
步骤S205,根据具有对称关系的至少两个关键点之间的距离,对效果贴图进行缩放处理。
由于特定对象在录制视频时与图像采集设备的距离不同,导致特定对象在当前帧图像中的大小也不一致。如人体在录制视频时与图像采集设备的距离较远时,人体在当前帧图像中呈现较小,人体在录制视频时与图像采集设备的距离较近时,人体在当前帧图像中呈现较大。根据特定对象的关键点信息,可以计算出具有对称关系的至少两个关键点之间的距离。如计算出人脸边缘两个眼角所在为止的关键点之间的距离。根据具有对称关系的至少两个关键点之间的距离,结合特定对象的实际距离,可以得出特定对象在录制视频时与图像采集设备的距离,根据距离,对效果贴图进行缩放处理,以使效果贴图更切合特定对象的大小。如计算出人脸边缘两个眼角所在为止的关键点之间的距离,得到人体在录制视频时与图像采集设备的距离较远,由于人体在当前帧图像中呈现较小,分割得到的前景图像也较小,可以对应的将效果贴图进行缩小处理,以更切合前景图像。或者计算出人脸边缘两个眼角所在为止的关键点之间的距离,得到人体在录制视频时与图像采集设备的距离较近,由于人体在当前帧图像中呈现较大,分割得到的前景图像也较大,可以对应的将效果贴图进行放大处理,以更切合前景图像。
步骤S206,根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度。
步骤S207,根据具有对称关系的至少两个关键点之间的旋转角度,对效果贴图进行旋转角度处理。
考虑到特定对象在图像采集设备录制视频时获取到的当前帧图像中可能存在不是正向面对的情况,如人体以扭头的形式在当前帧图像中呈现时,为使效果贴图更切合前景图像,也需要对效果贴图进行旋转角度处理。
根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度。如计算出人脸边缘两个眼角的旋转角度。根据具有对称关系的至少两个关键点之间的旋转角度,对效果贴图进行旋转角度处理。如计算出人脸边缘两个眼角的连线向左旋转了15度,对应的将效果贴图向左旋转15度,以更切合前景图像。
步骤S208,判断特定对象的特定区域的关键点信息是否符合预设条件。
步骤S209,在特定对象的特定区域绘制效果贴图。
除在特定对象的边缘绘制效果贴图外,还可以根据特定对象的特定区域的关键点信息在特定对象的特定区域绘制效果贴图。需要判断特定对象的特定区域的关键点信息是否符合预设条件,符合时,执行步骤S209,在特定对象的特定区域绘制效果贴图。若不符合时,不进行绘制。如人体的嘴部,可以在嘴巴张开时,在嘴巴部分绘制喷出的火焰。此时,可以计算嘴巴上下两边的关键点信息的距离,判断距离是否符合嘴巴张开的距离,当符合时,在嘴巴部分绘制喷出的火焰。除嘴巴外,还可以对眼睛、鼻子、耳朵等多个区域的关键点信息进行判断。具体的区域和预设条件根据实施情况进行设置,此处不做限定。
以上步骤S204-S209的处理顺序不做限定,可以根据实际情况进行调整。
步骤S210,将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像。
在将效果贴图和前景图像进行融合处理时,可以使用对当前帧图像进行场景分割处理得到的背景图像(即当前帧图像原有的背景图像),将效果贴图和前景图像、背景图像进行融合处理,得到当前帧处理后的图像。也可以将效果贴图和前景图像、预设的动态或静态背景图像进行融合处理,得到当前帧处理后的图像。使用的预设的动态或静态背景图像可以与效果贴图相互呼应,如效果贴图为火焰时,预设的动态或静态背景图像可以为大火炉、火焰山等,使得当前帧处理后的图像达到一个整体的呼应效果。
进一步,当效果贴图有与前景图像重叠的区域时,如效果贴图的火焰覆盖在人体上,遮挡了一部分人体的显示时,可以将当前帧处理后的图像中效果贴图位于前景图像区域的部分进行过滤,使其仅显示在前景图像的特定对象的边缘,不影响特定对象的显示。
在当前帧处理后的图像的图层顺序从前往后依次为特定对象、效果贴图、背景图像,当当前帧处理后的图像中还包含其他图层时,其他图层的顺序不影响特定对象、效果贴图、背景图像的前后顺序。
步骤S211,在当前帧处理后的图像的部分区域中添加静态或动态效果贴图。
在当前帧处理后的图像特定对象之前的图层的部分区域,还可以添加静态或动态效果贴图。该效果贴图可以和之前绘制在特定对象边缘的效果贴图一致,也可以为与绘制在特定对象边缘的效果贴图相呼应的效果贴图。如绘制在特定对象边缘的效果贴图为火焰时,在当前帧处理后的图像的部分区域中添加的效果贴图可以为随机的火花粒子。
步骤S212,对当前帧处理后的图像进行色调处理、光照处理和/或亮度处理。
由于当前帧处理后的图像中包含了效果贴图,为使当前帧处理后的图像的效果更自然真实,可以对当前帧处理后的图像进行图像处理。图像处理可以包括对当前帧处理后的图像进行色调处理、光照处理、亮度处理等。如效果贴图为火焰时,可以将当前帧处理后的图像的色调调整偏黄色,进行加光、调亮处理等,使其火焰的效果更加自然真实。
步骤S213,将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据。
使用当前帧处理后的图像直接覆盖掉原当前帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到当前帧处理后的图像。
步骤S214,显示处理后的视频数据。
得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
步骤S215,将处理后的视频数据上传至云服务器。
将处理后的视频数据可以直接上传至云服务器,具体的,可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
根据本发明提供的视频数据实时处理方法,考虑到获取到的当前帧图像中特定对象的距离、旋转角度等问题,对应的对效果贴图进行缩放、旋转处理,使其更加切合特定对象的显示,提高显示效果。并且还可以在特定对象的特定区域绘制效果贴图,满足用户的不同需求。背景使用与效果贴图向呼应的背景、在当前帧处理后图像的部分区域中添加静态或动态效果贴图,使得当前帧处理后图像的显示效果更整体化。对当前帧处理后图像进行图像处理使其显示效果更自然真实。本发明可以直接得到处理后的视频,还可以将处理后的视频直接上传至云服务器,不需要用户对录制的视频进行额外处理,节省用户时间,还可以实时显示给用户处理后的视频数据,方便用户查看显示效果。同时对用户技术水平不做限制,方便大众使用。
图3示出了根据本发明一个实施例的视频数据实时处理装置的功能框图。如图3所示,视频数据实时处理装置包括如下模块:
获取模块310,适于实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像。
本实施例中图像采集设备以移动终端为例进行说明。获取模块310实时获取到移动终端摄像头在录制视频时的当前帧图像或者拍摄视频时的当前帧图像。由于本发明对特定对象进行处理,因此获取模块310获取当前帧图像时仅获取包含特定对象的当前帧图像。获取模块310除实时获取图像采集设备所拍摄和/或所录制的视频外,获取模块310还可以实时获取当前所播放的视频中包含特定对象的当前帧图像。
分割模块320,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像。
当前帧图像包含了特定对象,如人体。分割模块320对当前帧图像进行场景分割处理,主要是将特定对象从当前帧图像中分割出来,得到当前帧图像针对于特定对象的前景图像,该前景图像可以仅包含特定对象。
分割模块320在对当前帧图像进行场景分割处理时,可以利用深度学习方法。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。如分割模块320利用深度学习的人体分割方法可以对当前帧图像进行场景分割,得到包含人体的前景图像。
绘制模块330,适于从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图。
为方便绘制效果贴图,绘制模块330需要从当前帧图像中提取出特定对象的关键信息。该关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键点信息为例进行说明,但本发明的关键信息不限于是关键点信息。使用关键点信息可以提高根据关键点信息绘制效果贴图的处理速度和效率,可以直接根据关键点信息绘制效果贴图,不需要再对关键信息进行后续计算、分析等复杂操作。同时,关键点信息便于提取,且提取准确,绘制效果贴图的效果更精准。由于一般采用在特定对象的边缘绘制效果贴图,因此,绘制模块330在从当前帧图像中提取时,提取出位于特定对象边缘的关键点信息。当特定对象为人体时,绘制模块330提取的关键点信息包括位于人脸边缘的关键点信息、位于人体边缘的关键点信息等。
效果贴图可以为静态的效果贴图,也可以为动态的效果贴图。效果贴图可以为如火焰、跳动的音符、浪花等效果,具体根据实施情况进行设置,此处不做限定。绘制模块330根据提取出的关键点信息,可以确定特定对象各边缘位置,进而绘制模块330可以在特定对象的边缘绘制效果贴图。如绘制模块330在人体的边缘绘制火焰,使得人体周围火焰环绕。
融合模块340,适于将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像。
融合模块340将效果贴图与分割处理得到的针对于特定对象的前景图像进行融合处理,使得效果贴图更真实的与前景图像融合在一起,得到当前帧处理后的图像。为使效果贴图和前景图像可以更好的融合,分割模块320在对当前帧图像进行分割处理时,对分割得到的前景处理的边缘进行半透明处理,模糊特定对象的边缘,以便融合模块340将效果贴图和前景图像更好的融合。
融合模块340在将效果贴图和前景图像进行融合处理时,可以使用对当前帧图像进行场景分割处理得到的背景图像(即当前帧图像原有的背景图像),将效果贴图和前景图像、背景图像进行融合处理,得到当前帧处理后的图像。融合模块340也可以将效果贴图和前景图像、预设的动态或静态背景图像进行融合处理,得到当前帧处理后的图像。融合模块340使用的预设的动态或静态背景图像可以与效果贴图相互呼应,如效果贴图为火焰时,预设的动态或静态背景图像可以为大火炉、火焰山等,使得当前帧处理后的图像达到一个整体的呼应效果。
在当前帧处理后的图像的图层顺序从前往后依次为特定对象、效果贴图、背景图像,当当前帧处理后的图像中还包含其他图层时,其他图层的顺序不影响特定对象、效果贴图、背景图像的前后顺序。
覆盖模块350,适于将当前帧处理后的图像覆盖原帧图像得到处理后的视频数据。
覆盖模块350使用当前帧处理后的图像直接覆盖掉原当前帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到当前帧处理后的图像。
显示模块360,适于显示处理后的视频数据。
显示模块360得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
根据本发明提供的视频数据实时处理装置,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;从当前帧图像中提取出特定对象的关键点信息,根据关键点信息在特定对象的边缘绘制效果贴图;将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;显示处理后的视频数据。本发明在实时获取到视频包含特定对象的当前帧图像后,从当前帧图像中分割出特定对象的前景图像,在其边缘绘制效果贴图,并与其进行融合,并覆盖原当前帧图像得到处理后的视频数据。本发明可以直接得到处理后的视频,不需要用户对录制的视频进行额外处理,节省用户时间,还可以实时显示给用户处理后的视频数据,方便用户查看显示效果。同时对用户技术水平不做限制,方便大众使用。
图4示出了根据本发明另一个实施例的视频数据实时处理装置的功能框图。如图4所示,与图3不同之处在于,视频数据实时处理装置还包括:
区域贴图模块370,适于在当前帧处理后的图像的部分区域中添加静态或动态效果贴图。
在当前帧处理后的图像特定对象之前的图层的部分区域,区域贴图模块370还可以添加静态或动态效果贴图。该效果贴图可以和之前绘制在特定对象边缘的效果贴图一致,也可以为与绘制在特定对象边缘的效果贴图相呼应的效果贴图。如绘制模块330绘制在特定对象边缘的效果贴图为火焰时,区域贴图模块370在当前帧处理后的图像的部分区域中添加的效果贴图可以为随机的火花粒子。
图像处理模块380,适于对当前帧处理后的图像进行色调处理、光照处理和/或亮度处理。
由于当前帧处理后的图像中包含了效果贴图,为使当前帧处理后的图像的效果更自然真实,图像处理模块380可以对当前帧处理后的图像进行图像处理。图像处理可以包括对当前帧处理后的图像进行色调处理、光照处理、亮度处理等。如效果贴图为火焰时,图像处理模块380可以将当前帧处理后的图像的色调调整偏黄色,进行加光、调亮处理等,使其火焰的效果更加自然真实。
上传模块390,适于将处理后的视频数据上传至云服务器。
上传模块390将处理后的视频数据可以直接上传至云服务器,具体的,上传模块390可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者上传模块390还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者上传模块390还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
绘制模块330还包括了第一计算模块331、缩放模块332、第二计算模块333、旋转模块334和判断模块335。
第一计算模块331,适于根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的距离。
缩放模块332,适于根据具有对称关系的至少两个关键点之间的距离,对效果贴图进行缩放处理。
由于特定对象在录制视频时与图像采集设备的距离不同,导致特定对象在当前帧图像中的大小也不一致。如人体在录制视频时与图像采集设备的距离较远时,人体在当前帧图像中呈现较小,人体在录制视频时与图像采集设备的距离较近时,人体在当前帧图像中呈现较大。第一计算模块331根据特定对象的关键点信息,可以计算出具有对称关系的至少两个关键点之间的距离。如第一计算模块331计算出人脸边缘两个眼角所在为止的关键点之间的距离。缩放模块332根据具有对称关系的至少两个关键点之间的距离,结合特定对象的实际距离,可以得出特定对象与图像采集设备的距离,根据距离,缩放模块332对效果贴图进行缩放处理,以使效果贴图更切合特定对象的大小。如第一计算模块331计算出人脸边缘两个眼角所在为止的关键点之间的距离,缩放模块332得到人体在录制视频时与图像采集设备的距离较远,由于人体在当前帧图像中呈现较小,分割模块320分割得到的前景图像也较小,缩放模块332可以对应的将效果贴图进行缩小处理,以更切合前景图像。或者第一计算模块331计算出人脸边缘两个眼角所在为止的关键点之间的距离,得到人体在录制视频时与图像采集设备的距离较近,由于人体在当前帧图像中呈现较大,分割模块320分割得到的前景图像也较大,缩放模块332可以对应的将效果贴图进行放大处理,以更切合前景图像。
第二计算模块333,适于根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度。
旋转模块334,适于根据具有对称关系的至少两个关键点之间的旋转角度,对效果贴图进行旋转角度处理。
考虑到特定对象在图像采集设备录制视频时获取到的当前帧图像中可能存在不是正向面对的情况,如人体以扭头的形式在当前帧图像中呈现时,为使效果贴图更切合前景图像,也需要对效果贴图进行旋转角度处理。
第二计算模块333根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度。如第二计算模块333计算出人脸边缘两个眼角的旋转角度。旋转模块334根据具有对称关系的至少两个关键点之间的旋转角度,对效果贴图进行旋转角度处理。如第二计算模块333计算出人脸边缘两个眼角的连线向左旋转了15度,对应的旋转模块334将效果贴图向左旋转15度,以更切合前景图像。
判断模块335,适于判断特定对象的特定区域的关键点信息是否符合预设条件;若是,在特定对象的特定区域绘制效果贴图。
绘制模块330除在特定对象的边缘绘制效果贴图外,还可以根据特定对象的特定区域的关键点信息在特定对象的特定区域绘制效果贴图。需要判断模块335判断特定对象的特定区域的关键点信息是否符合预设条件,符合时,在特定对象的特定区域绘制效果贴图。若不符合时,不进行绘制。如人体的嘴部,判断模块335判断嘴巴张开时,在嘴巴部分绘制喷出的火焰。此时,判断模块335可以计算嘴巴上下两边的关键点信息的距离,判断距离是否符合嘴巴张开的距离,当符合时,在嘴巴部分绘制喷出的火焰。除嘴巴外,判断模块335还可以对眼睛、鼻子、耳朵等多个区域的关键点信息进行判断。具体的区域和预设条件根据实施情况进行设置,此处不做限定。
融合模块340还包括了过滤模块341。
过滤模块341,适于将当前帧处理后的图像中效果贴图位于前景图像区域的部分进行过滤。
当效果贴图有与前景图像重叠的区域时,如效果贴图的火焰覆盖在人体上,遮挡了一部分人体的显示时,过滤模块341可以将当前帧处理后的图像中效果贴图位于前景图像区域的部分进行过滤,使其仅显示在前景图像的特定对象的边缘,不影响特定对象的显示。
除此之外的其他模块的描述可以参照图3实施例中的描述,在此不再赘述。
根据本发明提供的视频数据实时处理装置,考虑到获取到的当前帧图像中特定对象的距离、旋转角度等问题,对应的对效果贴图进行缩放、旋转处理,使其更加切合特定对象的显示,提高显示效果。并且还可以在特定对象的特定区域绘制效果贴图,满足用户的不同需求。背景使用与效果贴图向呼应的背景、在当前帧处理后图像的部分区域中添加静态或动态效果贴图,使得当前帧处理后图像的显示效果更整体化。对当前帧处理后图像进行图像处理使其显示效果更自然真实。本发明可以直接得到处理后的视频,还可以将处理后的视频直接上传至云服务器,不需要用户对录制的视频进行额外处理,节省用户时间,还可以实时显示给用户处理后的视频数据,方便用户查看显示效果。同时对用户技术水平不做限制,方便大众使用。
本申请还提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的视频数据实时处理方法。
图5示出了根据本发明一个实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图5所示,该计算设备可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:
处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。
通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器502,用于执行程序510,具体可以执行上述视频数据实时处理方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行以下操作:
在一种可选的实施方式中,程序510用于使得处理器502实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图;将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;显示处理后的视频数据。
在一种可选的实施方式中,关键信息为关键点信息,程序510用于使得处理器502从当前帧图像中提取出位于特定对象边缘的关键点信息。
在一种可选的实施方式中,关键信息为关键点信息,程序510用于使得处理器502根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的距离;根据具有对称关系的至少两个关键点之间的距离,对效果贴图进行缩放处理。
在一种可选的实施方式中,关键信息为关键点信息,程序510用于使得处理器502根据特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度;根据具有对称关系的至少两个关键点之间的旋转角度,对效果贴图进行旋转角度处理。
在一种可选的实施方式中,关键信息为关键点信息,程序510用于使得处理器502判断特定对象的特定区域的关键点信息是否符合预设条件;若是,在特定对象的特定区域绘制效果贴图。
在一种可选的实施方式中,程序510用于使得处理器502将效果贴图和前景图像、对当前帧图像进行场景分割处理得到的背景图像进行融合处理,得到当前帧处理后的图像。
在一种可选的实施方式中,程序510用于使得处理器502将效果贴图和前景图像、预设的动态或静态背景图像进行融合处理,得到当前帧处理后的图像。
在一种可选的实施方式中,程序510用于使得处理器502将当前帧处理后的图像中效果贴图位于前景图像区域的部分进行过滤。
在一种可选的实施方式中,程序510用于使得处理器502在当前帧处理后的图像的部分区域中添加静态或动态效果贴图。
在一种可选的实施方式中,程序510用于使得处理器502对当前帧处理后的图像进行色调处理、光照处理和/或亮度处理。
在一种可选的实施方式中,关键信息为关键点信息,特定对象为人体;关键点信息包括位于人脸边缘的关键点信息和/或位于人体边缘的关键点信息。
在一种可选的实施方式中,程序510用于使得处理器502将处理后的视频数据实时显示;将处理后的视频数据上传至云服务器。
在一种可选的实施方式中,程序510用于使得处理器502将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
在一种可选的实施方式中,程序510用于使得处理器502将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
在一种可选的实施方式中,程序510用于使得处理器502将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
程序510中各步骤的具体实现可以参见上述视频数据实时处理实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
通过本实施例提供的方案,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像;从当前帧图像中提取出特定对象的关键信息,根据关键信息在特定对象的边缘绘制效果贴图;将效果贴图和前景图像进行融合处理,得到当前帧处理后的图像;将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;显示处理后的视频数据。本发明在实时获取到视频包含特定对象的当前帧图像后,从当前帧图像中分割出特定对象的前景图像,在其边缘绘制效果贴图,并与其进行融合,并覆盖原当前帧图像得到处理后的视频数据。本发明可以直接得到处理后的视频。本发明采用了深度学习方法,实现了高效率高精准性地完成场景分割处理。且不需要用户对录制的视频进行额外处理,节省用户时间,还可以实时显示给用户处理后的视频数据,方便用户查看显示效果。同时对用户技术水平不做限制,方便大众使用。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的视频数据实时处理的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种视频数据实时处理方法,其包括:
实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
对当前帧图像进行场景分割处理,得到当前帧图像针对于所述特定对象的前景图像;
从当前帧图像中提取出所述特定对象的关键信息,根据所述关键信息在所述特定对象的边缘绘制效果贴图;
将所述效果贴图和所述前景图像进行融合处理,得到当前帧处理后的图像;
将当前帧处理后的图像覆盖原当前帧图像得到处理后的视频数据;
显示所述处理后的视频数据。
2.根据权利要求1所述的方法,其中,所述从当前帧图像中提取出所述特定对象的关键信息,根据所述关键信息在所述特定对象的边缘绘制效果贴图进一步包括:
所述关键信息为关键点信息;
从当前帧图像中提取出位于所述特定对象边缘的关键点信息。
3.根据权利要求1或2所述的方法,其中,所述从当前帧图像中提取出所述特定对象的关键信息,根据所述关键信息在所述特定对象的边缘绘制效果贴图进一步包括:
所述关键信息为关键点信息;
根据所述特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的距离;
根据具有对称关系的至少两个关键点之间的距离,对所述效果贴图进行缩放处理。
4.根据权利要求1-3中任一项所述的方法,其中,所述从当前帧图像中提取出所述特定对象的关键信息,根据所述关键信息在所述特定对象的边缘绘制效果贴图进一步包括:
所述关键信息为关键点信息;
根据所述特定对象的关键点信息,计算具有对称关系的至少两个关键点之间的旋转角度;
根据具有对称关系的至少两个关键点之间的旋转角度,对所述效果贴图进行旋转角度处理。
5.根据权利要求1-4中任一项所述的方法,其中,所述从当前帧图像中提取出所述特定对象的关键信息,根据所述关键信息在所述特定对象的边缘绘制效果贴图进一步包括:
所述关键信息为关键点信息;
判断所述特定对象的特定区域的关键点信息是否符合预设条件;
若是,在所述特定对象的特定区域绘制效果贴图。
6.根据权利要求1-5中任一项所述的方法,其中,所述将所述效果贴图和所述前景图像进行融合处理,得到当前帧处理后的图像进一步包括:
将所述效果贴图和所述前景图像、对所述当前帧图像进行场景分割处理得到的背景图像进行融合处理,得到当前帧处理后的图像。
7.根据权利要求1-5中任一项所述的方法,其中,所述将所述效果贴图和所述前景图像进行融合处理,得到当前帧处理后的图像进一步包括:
将所述效果贴图和所述前景图像、预设的动态或静态背景图像进行融合处理,得到当前帧处理后的图像。
8.一种视频数据实时处理装置,其包括:
获取模块,适于实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
分割模块,适于,对当前帧图像进行场景分割处理,得到当前帧图像针对于所述特定对象的前景图像;
绘制模块,适于从当前帧图像中提取出所述特定对象的关键信息,根据所述关键信息在所述特定对象的边缘绘制效果贴图;
融合模块,适于将所述效果贴图和所述前景图像进行融合处理,得到当前帧处理后的图像;
覆盖模块,适于将当前帧处理后的图像覆盖原帧图像得到处理后的视频数据;
显示模块,适于显示所述处理后的视频数据。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的视频数据实时处理方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的视频数据实时处理方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710805713.9A CN107563962A (zh) | 2017-09-08 | 2017-09-08 | 视频数据实时处理方法及装置、计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710805713.9A CN107563962A (zh) | 2017-09-08 | 2017-09-08 | 视频数据实时处理方法及装置、计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107563962A true CN107563962A (zh) | 2018-01-09 |
Family
ID=60980315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710805713.9A Pending CN107563962A (zh) | 2017-09-08 | 2017-09-08 | 视频数据实时处理方法及装置、计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107563962A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064390A (zh) * | 2018-08-01 | 2018-12-21 | Oppo(重庆)智能科技有限公司 | 一种图像处理方法、图像处理装置及移动终端 |
CN112770185A (zh) * | 2020-12-25 | 2021-05-07 | 北京达佳互联信息技术有限公司 | 雪碧图的处理方法、装置、电子设备和存储介质 |
CN112991147A (zh) * | 2019-12-18 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436668A (zh) * | 2011-09-05 | 2012-05-02 | 上海大学 | 京剧脸谱自动化妆方法 |
CN105847728A (zh) * | 2016-04-13 | 2016-08-10 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN106302124A (zh) * | 2016-08-18 | 2017-01-04 | 北京奇虎科技有限公司 | 一种添加特效的方法及电子设备 |
CN106791347A (zh) * | 2015-11-20 | 2017-05-31 | 比亚迪股份有限公司 | 一种图像处理方法、装置及使用该方法的移动终端 |
CN107105310A (zh) * | 2017-05-05 | 2017-08-29 | 广州盈可视电子科技有限公司 | 一种视频直播中人物形象替换方法、装置和一种录播系统 |
-
2017
- 2017-09-08 CN CN201710805713.9A patent/CN107563962A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436668A (zh) * | 2011-09-05 | 2012-05-02 | 上海大学 | 京剧脸谱自动化妆方法 |
CN106791347A (zh) * | 2015-11-20 | 2017-05-31 | 比亚迪股份有限公司 | 一种图像处理方法、装置及使用该方法的移动终端 |
CN105847728A (zh) * | 2016-04-13 | 2016-08-10 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN106302124A (zh) * | 2016-08-18 | 2017-01-04 | 北京奇虎科技有限公司 | 一种添加特效的方法及电子设备 |
CN107105310A (zh) * | 2017-05-05 | 2017-08-29 | 广州盈可视电子科技有限公司 | 一种视频直播中人物形象替换方法、装置和一种录播系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064390A (zh) * | 2018-08-01 | 2018-12-21 | Oppo(重庆)智能科技有限公司 | 一种图像处理方法、图像处理装置及移动终端 |
CN109064390B (zh) * | 2018-08-01 | 2023-04-07 | Oppo(重庆)智能科技有限公司 | 一种图像处理方法、图像处理装置及移动终端 |
CN112991147A (zh) * | 2019-12-18 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
US11651529B2 (en) | 2019-12-18 | 2023-05-16 | Beijing Bytedance Network Technology Co., Ltd. | Image processing method, apparatus, electronic device and computer readable storage medium |
CN112991147B (zh) * | 2019-12-18 | 2023-10-27 | 抖音视界有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN112770185A (zh) * | 2020-12-25 | 2021-05-07 | 北京达佳互联信息技术有限公司 | 雪碧图的处理方法、装置、电子设备和存储介质 |
CN112770185B (zh) * | 2020-12-25 | 2023-01-20 | 北京达佳互联信息技术有限公司 | 雪碧图的处理方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107507155A (zh) | 视频分割结果边缘优化实时处理方法、装置及计算设备 | |
CN107820027A (zh) | 视频人物装扮方法、装置、计算设备及计算机存储介质 | |
CN107483892A (zh) | 视频数据实时处理方法及装置、计算设备 | |
CN108109161A (zh) | 基于自适应阈值分割的视频数据实时处理方法及装置 | |
CN107665482A (zh) | 实现双重曝光的视频数据实时处理方法及装置、计算设备 | |
CN107547804A (zh) | 实现场景渲染的视频数据处理方法及装置、计算设备 | |
CN107566853A (zh) | 实现场景渲染的视频数据实时处理方法及装置、计算设备 | |
CN107613360A (zh) | 视频数据实时处理方法及装置、计算设备 | |
CN107945188A (zh) | 基于场景分割的人物装扮方法及装置、计算设备 | |
CN106200914B (zh) | 增强现实的触发方法、装置及拍照设备 | |
CN107578369A (zh) | 视频数据处理方法及装置、计算设备 | |
CN108111911A (zh) | 基于自适应跟踪框分割的视频数据实时处理方法及装置 | |
CN107563962A (zh) | 视频数据实时处理方法及装置、计算设备 | |
CN107862277A (zh) | 直播服饰装扮推荐方法、装置、计算设备及存储介质 | |
CN107613161A (zh) | 基于虚拟世界的视频数据处理方法及装置、计算设备 | |
CN107977927A (zh) | 基于图像数据的身材调整方法及装置、计算设备 | |
JP2013542505A (ja) | 画像内のコンテンツの検閲処理を行うための方法および装置 | |
CN107610149A (zh) | 图像分割结果边缘优化处理方法、装置及计算设备 | |
CN107743263B (zh) | 视频数据实时处理方法及装置、计算设备 | |
CN108171716A (zh) | 基于自适应跟踪框分割的视频人物装扮方法及装置 | |
CN107547803A (zh) | 视频分割结果边缘优化处理方法、装置及计算设备 | |
CN113760161A (zh) | 数据生成、图像处理方法、装置、设备及存储介质 | |
CN107766803B (zh) | 基于场景分割的视频人物装扮方法、装置及计算设备 | |
CN107633547A (zh) | 实现场景渲染的图像数据实时处理方法及装置、计算设备 | |
CN107680105A (zh) | 基于虚拟世界的视频数据实时处理方法及装置、计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180109 |