CN113989717A - 视频图像处理方法、装置、电子设备及存储介质 - Google Patents

视频图像处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113989717A
CN113989717A CN202111272959.7A CN202111272959A CN113989717A CN 113989717 A CN113989717 A CN 113989717A CN 202111272959 A CN202111272959 A CN 202111272959A CN 113989717 A CN113989717 A CN 113989717A
Authority
CN
China
Prior art keywords
depth
target
determining
value
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111272959.7A
Other languages
English (en)
Inventor
张涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202111272959.7A priority Critical patent/CN113989717A/zh
Publication of CN113989717A publication Critical patent/CN113989717A/zh
Priority to PCT/CN2022/123079 priority patent/WO2023071707A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Abstract

本公开实施例提供了一种视频图像处理方法、装置、电子设备及存储介质,该方法包括:确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与目标视频相对应的至少一条深度分割线的分割线深度值;针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据当前像素点的像素深度值和目标深度分割线的分割线深度值,确定当前像素点的目标像素值;根据各目标深度视图中各像素点的目标像素值,确定目标视频中各视频帧的三维显示视频帧。本技术方案,实现了根据预先确定的至少一条深度分割线对视频帧中的各像素点进行处理,得到相应视频帧的三维显示视频帧,提高了三维显示便捷性以及普适性的技术效果。

Description

视频图像处理方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及图像处理技术领域,尤其涉及一种视频图像处理方法、装置、电子设备及存储介质。
背景技术
3D特效是目前备受关注的问题,其目的是给予用户逼真的3D视觉效果,以使用户在观看视频时有身临其境的感觉,从而提高用户观看体验。
目前,3D特效实现主要依赖3D特效设备,如VR、AR眼镜,此种方式可以达到较好的3D视觉效果,但是存在成本较高以及场景受限的问题,如,无法在移动终端或者PC端上无法实现。
发明内容
本公开提供一种视频图像处理方法、装置、电子设备及存储介质,以实现在不借助三维显示设备的基础上,使图像进行三维显示的技术效果。
第一方面,本公开实施例提供了一种视频图像处理方法,该方法包括:
确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;
针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;
根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
第二方面,本公开实施例还提供了一种视频图像处理装置,该装置包括:
分割线确定模块,用于确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;
像素值确定模块,用于针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;
视频显示模块,用于根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
第三方面,本公开实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开实施例任一所述图像处理方法。
第四方面,本公开实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行本公开实施例任一所述图像处理方法。
本公开实施例的技术方案,通过对目标视频中各视频帧的目标深度视图进行处理,得到与目标视频相对应的至少一条深度分割线,该深度分割线作为目标视频中各视频帧的前背景分割线。基于至少一条深度分割线确定视频帧中各像素点的目标显示信息,进而基于目标显示信息得到与视频帧相对应的三维显示视频帧,解决了现有技术中需要三维显示时,需要借助于三维显示设备,存在三维显示成本较高以及普适性较差的问题,实现了在无需借助三维显示设备的条件下,只需要根据预先确定的至少一条深度分割线对视频帧中的各像素点进行处理,就可以得到相应视频帧的三维显示视频帧,提高了三维显示便捷性以及普适性的技术效果。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例一所提供的一种视频图像处理方法流程示意图;
图2为本公开实施例所提供的至少一条深度分割线的示意图;
图3为本公开实施例二所提供的一种视频图像处理方法流程示意图;
图4为本公开实施例所提供的视频帧和与视频帧对应的待处理深度图;
图5为本公开实施例所提供的视频帧和与视频帧对应的待处理掩膜图;
图6为本公开实施例三所提供的一种视频图像处理方法流程示意图;
图7为本公开实施例所提供的一种三维视频帧的示意图;
图8为本公开实施例四所提供的一种视频图像处理装置结构示意图;
图9为本公开实施例五所提供的一种电子设备结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
实施例一
图1为本公开实施例一所提供的一种视频图像处理方法流程示意图,本公开实施例适用于在互联网所支持的任意视频展示场景中,用于对视频帧的各像素点进行处理,以得到三维显示效果的情形,该方法可以由视频图像处理装置来执行,该装置可以通过软件和/或硬件的形式实现,可选的,通过电子设备来实现,该电子设备可以是移动终端、PC端或服务器等。本实施例所提供的方法可以由服务端来执行,客户端来执行,或者是客户端和服务端的配合来执行。
如图1所示,所述方法包括:
S110、确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值。
其中,将当前需要处理的视频作为目标视频。目标视频中包括多个视频帧。可以分别确定每个视频帧的目标深度视图。通常,可以直接将视频帧转换为相应的深度视图,但此时深度视图中的深度信息多是一个绝对深度信息,为了使前后视频帧的深度相匹配,可以将整个视频帧经绝对深度信息配准之后的深度视图作为目标深度视图。深度分割线可以是前背景分割线,即用于区分前景和背景的分割线。至少一条深度分割线的数量可以是一条,也可以是多条。用户可以根据实际需求标记多条深度分割线,进而根据各视频帧的目标深度视图确定多条深度分割线的深度值。将深度分割线的深度值作为分割线深度值。
具体的,提取目标视频中的各视频帧,并对各视频帧进行处理,得到各视频帧的目标深度视图。根据各视频帧的深度视图可以对预先标记的深度分割线进行处理,以确定各深度分割线的分割线深度值。
在本实施例中,在所述确定目标视频中各视频帧的目标深度视图之前,还包括:接收所述目标视频;设置与所述目标视频相对应的至少一条深度分割线,并确定所述至少一条深度分割线的位置和宽度,以根据所述深度分割线的位置和宽度确定相应像素点的目标像素值。
通常,服务器的算力是远大于显示设备的算力,如,显示设备可以是移动终端、PC端等,因此可以基于服务器确定目标视频中各视频帧的目标深度视图,进而确定各视频帧对应的三维显示视频帧。三维显示视频帧也可以理解为三维特效视频帧。即,将目标视频发送至服务器,服务器对每个视频帧处理,得到与目标视频相对应的三维显示视频。基于标记工具在目标视频上标记至少一个线条,该线条可以与显示设备的边缘线垂直,也可以不垂直。位置可以理解为,深度线在目标视频中的什么位置,例如,参见图2中的标记1,深度分割线的位置为视频边缘的位置,深度分割线的宽度与目标视频的显示参数相匹配,可选的,分割线的宽度为长边长度的二十分之一。
具体的,将服务器待处理的视频作为目标视频。根据需求对目标视频进行深度线标记,得到至少一条深度分割线。同时,在标记深度分割线时,可以根据目标视频的显示信息,确定深度分割线的宽度和位置。如果深度分割线的数量为一条,则深度分割线可以标记的任意位置;如果深度分割线的数量为两条,为了与用户的观看习惯相适配,可以是视频正常播放时,与显示参数的长边垂直的位置。深度分割线的宽度通常为长边宽度的二十分之一。当然,深度分割线也可以是目标视频内部,环绕目标视频一圈的分割线,参见图2中的标记2环形深度分割线。
需要说明的是,标记1和标记2是择一选择使用的,同一目标视频中通常不存在既有标记1又有标记2所对应的情形。
在本实施例中,所述确定所述至少一条深度分割线的位置的宽度,包括:根据所述目标视频的显示参数,确定所述至少一条深度分割线在所述目标视频中的位置和宽度。
其中,所述显示参数为目标视频显示在显示界面时的显示长度和显示宽度。位置可以是深度分割线距离目标视频边缘线的相对位置。宽度可以是深度分割线相对应目标显示视频中显示长度的宽度值。
在本实施例中,设置至少一条深度分割线的好处在于,可以确定该至少一条深度分割线的分割线深度值,进而根据分割线深度值确定目标视频帧各视频帧的目标像素值,从而得到三维显示视频帧的技术效果。
S120、针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据当前像素点的像素深度值和目标深度分割线的分割线深度值,确定当前像素点的目标像素值。
其中,目标视频中包括多个视频帧,每个视频帧都存在一幅目标深度视图。可以对目标深度视图中的每个像素点进行处理,将当前将要处理或者正在处理的像素点作为当前像素点。与目标视频相对应的深度分割线包括至少一条,可以将当前像素点所处于的深度分割线作为目标深度分割线。像素深度值可以是当前像素点在目标深度视图中的深度值。分割线深度值可以是预先确定的分割线的深度值。分割线深度值用于确定视频帧中像素点的像素值,从而确定相应的三维显示效果。深度分割线有一定的宽度,相应的该分割线上包括多个像素点,此时多个像素点的深度值是相同的。根据像素深度值和分割线深度值之间的关系,可以确定当前像素点的目标像素值。
具体的,针对每个视频帧的目标深度视图,可以确定当前视频帧中每个像素点所对应的深度分割线,并确定当前像素点的深度值与相应分割线深度值之间的对应关系。根据对应关系,可以确定各像素点的目标像素值。
S130、根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
其中,目标像素值可以是像素点的RGB值,可以是对视频帧相应像素点调整后的像素值。三维显示视频帧可以是用户看上去为三维特效的视频帧。
具体的,根据S120重新确定的各视频帧中各像素点的像素值,得到各像素点的目标像素值。基于各视频帧中每个像素点的目标像素值,确定各视频帧所对应的三维显示视频帧。可以进一步根据各三维显示视频帧,确定与目标视频相对应的目标三维视频。
需要说明的是,该目标三维视频是从视觉角度上看上去为三维显示的视频。
本公开实施例的技术方案,通过对目标视频中各视频帧的目标深度视图进行处理,得到与目标视频相对应的至少一条深度分割线,该深度分割线作为目标视频中各视频帧的前背景分割线。基于至少一条深度分割线确定视频帧中各像素点的目标显示信息,进而基于目标显示信息得到与视频帧相对应的三维显示视频帧,解决了现有技术中需要三维显示时,需要借助于三维显示设备,存在三维显示成本较高以及普适性较差的问题,实现了在无需借助三维显示设备的条件下,只需要根据预先确定的至少一条深度分割线对视频帧中的各像素点进行处理,就可以得到相应视频帧的三维显示视频帧,提高了三维显示便捷性以及普适性的技术效果。
实施例二
图3为本公开实施例二所提供的一种视频图像处理方法流程示意图,在前述实施例的基础上,可以对确定目标视频帧各目标深度视图进行进一步细化,其具体的实施方式可以参见本技术方案的详细阐述。其中,与上述实施例相同或者相应的技术术语在此不再赘述。
如图3所示,所述方法包括:
S210、确定各视频帧的待处理深度视图以及待处理特征点。
其中,将视频帧直接转换的深度视图,作为待处理深度视图。待处理特征点可以是视频帧中非常稳定的局部特征的特征点。
具体的,可以采用相应的深度视图处理算法,将各视频帧转换为待处理深度视图。同时,可以采用特征点采集算法确定各视频帧中的待处理特征点。
在本实施例中,所述确定各视频帧的待处理深度视图待处理特征点,包括:对各视频帧进行深度估计,得到各视频帧的待处理深度视图;基于特征点检测算法对各视频帧进行处理,确定各视频帧的待处理特征点。
其中,待处理深度视图中每个像素点的深度值表征视频帧中各像素点相对于摄像头成像平面的距离值。也就是说,待处理深度视图是根据每个像素点距离摄像装置平面的距离所构成的示意图。可选的,将距离摄像装置较远的物体,用较深的颜色来表示。参见图4,视频帧可以是图4(a),视频帧对应的深度视图为4(b),即图4(b)为简单的一幅深度视图,其中,颜色的深重表征距离摄像装置的远近,深色表示距离摄像头较远,浅色表示距离摄像头较近。
在确定待处理深度视图的同时,可以确定各视频帧中的待处理特征点。可选的,可以采用SIFI(scale invariant feature transform尺寸不变特征变换)特征点检测算法,确定每个视频帧中的待处理特征点。SIFI特征点检测算法具有对旋转、尺度缩放、亮度变化等保持不变的特性,是一种非常稳定的局部特征,可以作为视频帧中较小的局部区域的唯一表征。可以理解为,可以采用特征点检测算法确定视频帧中的待处理特征点。
S220、依次对相邻两个视频帧的待处理特征点进行处理,得到相邻两个视频帧的3D特征点对集合。
其中,3D特征点对集合中包括多组特征点对。每组特征点对中包括两个特征点,这两个特征点是对两个相邻视频帧处理后得到的。例如,视频帧1和视频帧2为相邻视频帧,可以分别确定视频帧1和视频帧2中的待处理特征点,进一步确定视频帧1中的待处理特征点与视频帧2中的哪些待处理特征点是相对应的,将相对应的两个特征点作为一个特征点对。需要说明的是,此时的特征点对可能为二维特征点对,可以进一步对二维特征点对处理,得到3D特征点对。
可选的,所述依次对相邻两个视频帧的待处理特征点进行处理,得到相邻两个视频帧的3D特征点对集合,包括:基于特征点匹配算法依次对相邻两个视频帧的特征点匹配处理,得到与相邻两个视频帧相关联的至少一组2D特征点对;通过对所述相邻两个视频帧的待处理深度视图进行3D点云重建,得到与待处理深度视图相对应的原始3D点云,以及与所述至少一组2D特征点对相对应的至少一组3D特征点对;基于所述至少一组3D特征点对确定所述相邻两个视频帧的3D特征点对集合。
其中,可以将相邻两个视频帧中相匹配的特征点对作为2D特征点对。2D特征点对的数量可以是8组。至少一组2D特征点对的数量与相邻两个视频帧中匹配到的特征点对数量相一致。若基于相邻两个视频帧确定出的特征点对数量少于预设数量阈值,可能是视频发生了转场,此种情况下可以是不用配准处理。可以对视频帧的待处理深度视图进行3D点云重建,确定相邻两个视频帧中2D特征点对所对应的3D特征点对。相邻两个视频帧中2D特征点对的组数包括至少一个,相应的,3D特征点对的组数也包括至少一组。可以将至少一组3D特征点对作为3D特征点对集合中的点对。优选的,至少一组3D特征点对的数量为8组。
示例性的,相邻两个视频帧用t和t-1表示,可以基于特征点处理算法确定t帧和t-1帧中的特征点,并基于特征点匹配算法,得到一一对应的特征点对(2D特征点对)。一个特征点对为同一点在t帧和t-1帧上的不同投影。利用待处理深度视图将t帧和t-1帧重建为3D点云,并确定2D特征点对在3D点云中的对应位置,从而得到3D特征点对。可以理解为3D特征点对的数量与2D特征点对的数量相一致。
S230、根据所述3D特征点对集合中的多组3D特征点对,确定相邻两个视频帧的相机运动参数,并将所述相机运动参数作为所述相邻两个视频帧中前一视频帧的相机运动参数。
其中,基于相机运动参数确定算法对3D特征点对集合中的多组3D特征点对处理,可以求解得到相机运动参数。相机运动参数中包括旋转矩阵和位移矩阵。旋转矩阵和位移矩阵表征拍摄相邻两个视频帧时,相机在空间中的移动信息。根据相机运动参数,可以确定对相邻两个视频帧中除3D特征点对之外的点云进行处理。可以将得到的相机运动参数作为相邻视频帧中前一视频帧的运动参数。
具体的,可以采用RANSAC算法对相邻两个视频帧的3D特征点对集合中的3D特征点云进行处理,可以求解得到相邻两个视频帧的旋转矩阵R和平移矩阵T,并将旋转矩阵和平移矩阵作为相邻两个视频帧中前一视频帧的相机运动参数。
S240、根据各视频帧的待处理深度视图以及相应的相机运动参数,确定各视频帧的目标深度视图。
在本实施例中,所述根据各视频帧的待处理深度视图以及相应的相机运动参数,确定各视频帧的目标深度视图,包括:针对各待处理深度视图,根据当前待处理深度视图的原始3D点云、旋转矩阵和平移矩阵,得到所述当前待处理深度视图的待使用3D点云;基于各待处理深度视图的所述原始3D点云、待使用3D点云以及预设深度调整系数,得到与各视频帧相对应的目标深度视图。
其中,可以将基于待处理深度视图直接重建的3D点云作为原始3D点云。将原始3D点云经过旋转矩阵和平移矩阵处理后,得到的3D点云作为待使用3D点云。也就是说,原始3D点云是未修正过的点云,待使用原始3D点云是经过相机参数修正之后的点云。预设深度调整系数可以理解为调参系数,用于对原始3D点云和待使用3D点云进行再次处理的系数,经预设深度调整系数处理之后的点云更加与视频帧相匹配。
示例性的,相机运动参数中的旋转矩阵用R表示,平移矩阵用T表示,修正t帧待处理深度视图中的深度值可以是:
P=P'*R+T
P”=P'*(1-a)+P*a
D=P”[:,:,2]
其中,P'为t视频帧修正前的点云,P”为t视频帧修正后的点云,P为一中间值,D为修正后t视频帧的3D点云的深度,a为预设深度调整系数。
可以理解为,基于相机运动参数对视频帧的3D点云进行处理,可以得到相邻两个视频帧之间的相对深度值,解决了待处理深度视图中的深度值为绝对值,导致图像配准不准确的问题,实现了对视频帧中每个像素点的深度值进行对其,从而得到相对深度值的视频帧,为后续确定深度分割线提供了可靠性的保证。
具体的,在对每个视频帧进行深度配准,得到每个视频帧中每个像素点的深度值后,可以根据每个像素点的深度值更新待处理深度视图,从而得到与每个视频帧相对应的目标深度视图,该目标深度视图是经过深度配准之后得到的视图。
S250、根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值。
在本实施例中,在所述根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值之前,还包括:确定各视频帧中的显著对象,并基于所述显著对象确定相应视频帧的待处理掩膜图,以基于各视频帧的待处理掩膜图以及目标深度视图,确定所述分割线深度值。
其中,显著物体的概念来源于用户对视觉系统的研究。可以将各视频帧中首先映入用户眼睛的物体作为显著性物体,即,将画面中容易本第一眼就关注到的物体作为显著物体。显著物体通常具备在画面中心、像素清晰、深度适用等特点。可以预先训练得到显著物体分割的神经网络,后续基于该神经网络确定每个视频帧中的显著性物体。在确定显著物体后,可以将显著物体所对应的像素点设置为第一预设像素值,将视频帧中显著物体之外的像素点设置为第二预设像素值。示例性的,第一预设像素值可以是255,第二预设像素值可以是0。在基于神经网络确定出当前视频帧中的显著物体后,可以将显著物体所对应的像素点的颜色设置为白色,将非显著性物体所对应的像素点的颜色设置为黑色。将此时得到的图像作为待处理掩膜图像,参见图5,其中,图5中的(a)表示视频帧,图5中的(b)表示待处理掩膜图像,区域1标识视频帧中显著对象的掩膜区域。待处理掩膜图像是指将视频帧中显著区域的像素点设置为白色,非显著对象的像素点设置为黑色后得到的图像。深度分割线可以理解为前背景分割线。分割线深度值用于确定相应像素点的深度值。
具体的,将目标视频中的每个视频帧输入至预先训练好的显著物体分割模型中,得到每个视频帧中的显著物体。将显著物体对应的像素点设置为白色,除显著物体之外的像素点都设置为黑色,从而得到包括显著物体轮廓的黑白示意图,将此黑白示意图作为待处理掩膜图。进一步的,通过对每个视频帧的目标深度视图和相应的待处理掩膜图,可以确定至少一条分割线的分割线深度值。
在本实施例中,所述根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值,包括:针对各视频帧,根据当前视频帧的待处理掩膜图和目标深度视图,确定所述待处理掩膜图中掩膜区域的平均深度值;根据各视频帧的平均深度值以及预设分割线调整系数,确定所述至少一条深度分割线的分割线深度值。
需要说明的是,2D视频存在3D视频观感主要是利用用户的视错觉。因此,可以预先确定至少两条深度分割线的深度值,进而根据深度值调整视频帧中相应像素点的像素值,从而达到3D显示的效果。
其中,显著对象在待处理掩膜图中对应的区域作为掩膜区域,即,待处理掩膜图中白色区域为掩膜区域。平均深度值为对掩膜区域中所有像素点的深度值处理后得到的值。预设分割线调整系数可以是根据经验预先设置的系数,该系数可以调整至少两条深度分割线的深度值,从而确定相应像素点的像素值,以达到3D显示的效果。
通常,如果显著对象在显示设备上突出显示,就常会被理解为三维特效显示,因此可以对至少一条深度分割线上的像素点分析处理,以确定相应像素点的目标像素值。
具体的,为了清楚的介绍如何确定平均深度值,可以以确定其中一个视频帧的平均深度值为例来介绍。获取当前视频帧的待处理掩膜图和目标深度视图,确定待处理掩膜图中掩膜区域的像素点在目标深度视图中所对应的深度值。通过对掩膜区域中各深度值求和,得到掩膜区域总深度值。同时,对目标深度视图中所有像素点的深度值求和,得到总深度值。计算总深度值和掩膜区域总深度值的比值,得到当前视频帧的平均深度值。基于此种方式可以确定每个视频帧的平均深度值。在得到每个视频帧的平均深度值之后,根据预设分割线调整系数对平均深度值处理,得到至少一条分割线的分割线深度值。
在本实施例中,确定每个视频帧的平均深度值,可以是:如果存在与当前视频帧相对应的待处理掩膜图,则确定所述掩膜区域中各待处理像素点在所述目标深度视图中的待处理深度值;根据所述目标深度视图中各待显示像素点的待显示深度值和各待处理深度值,确定所述掩膜区域的平均深度值。相应的,如果不存在与所述当前视频帧相对应的待处理掩膜图,则根据记录的各视频帧的平均深度值,确定所述当前视频帧的平均深度值。
可以理解为,当前视频帧中包括显著物体,那么存在与显著物体所对应的待处理掩膜图,此时可以按照上述方式确定掩膜区域所对应的平均深度值。若当前视频帧中不包括显著物体,则可以不用根据目标深度视图和待处理掩膜图,计算当前视频帧的平均深度值,可以记录所有视频帧的平均深度值,并将所有平均深度值中最大的深度值,作为当前视频帧的平均深度值。
在上述技术方案的基础上,在确定各视频帧的平均深度值之后,还包括:根据各视频帧所对应的平均深度值,确定平均深度值的最大值和最小值;根据所述最小值、所述分割线调整系数以及所述最大值,确定所述至少一条深度分割线的分割线深度值。
其中,若视频帧的数量包括N个,那么目标视频帧中各视频帧的平均深度值可以用1×N阶向量来表示,向量中的值表示该视频帧所对应的平均深度值。分割线调整系数用于确定深度分割线的最终深度值,将最终确定出的深度值作为分割线深度值。
具体的,根据每个视频帧中的平均深度值,从中选择出最大的深度值和最小的深度值,同时,根据预先设置的分割线调整系数,可以确定出深度分割线的分割线深度值,此时的分割线深度值是具体参考依据的,即得到的分割线深度值是比较准确的。
在上述技术方案的基础上,深度分割线的数量包括两条,那么确定两条深度分割线的分割线深度值可以是:至少一条深度分割线包括第一深度分割线和第二深度分割线,根据所述最小值、所述第一分割线调整系数、所述第二分割线调整系数以及所述最大值,确定所述第一深度分割线的第一分割线深度值,以及所述第二深度分割线的第二分割线深度值。
示例性的,假设每个视频帧所对应的待处理掩膜图表示为:{si∣i=1,2,...,N},目标深度视图表示为:{di∣i=1,2,...,N};其中,i目标视频帧中的第几个视频帧,即总共有N个视频帧。如果该视频帧中存在显著物体,则确定掩膜区域深度值可以是采用下述公式中if∑maski=>0所对应的函数表达式∑di/∑maski,其中,maski用于表征目标深度视图中显著对象的像素点所对应的深度值。如果该视频帧中不存在显著物体,则确定掩膜区域深度值可以是采用下述公式中else所对应的函数表达式max_depth.即各视频帧中掩膜区域的最大深度值。可以采用此种方式,得到每个视频帧的掩膜区域深度值,就显著对象的深度值。如果第一分割线调整系数和第二分割线调整系数分别为α1和α2。确定第一分割线深度值和第二分割线深度值可以是:ref_depth1=dmin+α1*(dmax-dmin);ref_depth2=dmin2*(dmax-dmin),其中,ref_depth1表示第一分割线深度值和ref_depth2表示第二分割线深度值,dmax表示所有视频帧中的最大平均深度值,dmin表示所有视频帧中的最小平均深度值。采用此计算公式,可以确定出两条分割线的深度值,如果深度分割线是左右分布的,通常可以将第一分割线深度值作为左边的分割线的深度值,将第二分割线深度值最为右边的分割线的深度值。
需要说明的是,上述确定分割线深度值的方式,可以基于显著对象的深度在整个视频中的动态变化过程来计算分割线的深度值,同时考虑了视频中没有显著物时的异常处理,具有更强的鲁棒性。α1与α2的值可以分别被设置为0.3和0.7。
S260、针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值。
S270、根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
本公开实施例的技术方案,在确定深度分割线的宽度和位置之后,可以确定每个视频帧的待处理深度视图和相邻两个视频帧的3D特征点对,基于3D特征点对可以确定相邻两个视频帧之间的相机运动参数,基于相机运动参数可以确定每个视频帧所对应的3D点云和相应的深度值,即对待处理深度视图配准之后得到每个视频帧所对应的相对深度视图,即目标深度视图。根据目标深度视图和每个视频帧的待处理掩膜图,可以确定出每个视频帧的显著对象区域的平均深度值,基于平均深度值得到目标视频的分割线深度值,此种方式解决了现有技术中需要依赖3D显示设备才能进行三维显示,存在成本较高的问题,实现了根据各视频帧每个像素点的深度值和分割线深度值,确定相应像素点的目标像素值,进而基于目标像素值实现三维显示的技术效果。
实施例三
图6为本公开实施例三所提供的一种视频图像处理方法流程示意图,在前述实施例的基础上,可以对确定目标深度分割线,以及确定目标显示信息进行进一步细化,其具体的实施方式可以参见本技术方案的详细阐述。其中,与上述实施例相同或者相应的技术术语在此不再赘述。
如图6所示,所述方法包括:
S310、确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值。
S320、根据当前像素点的位置信息、所述至少一条深度分割线的位置和宽度,将包括所述当前像素点的深度分割线作为所述目标深度分割线。
其中,位置信息可以是像素点在图像中的横纵坐标。深度分割线的位置可以是深度分割线在目标视频中的位置信息。宽度可以是深度分割线所占屏幕的宽度,即该位置和宽度内存在多个像素点。
具体的,如果深度分割线的数量包括一个,则可以是根据当前像素点的位置信息,确定该像素点是否在分割线上,若是,则将此深度分割线作为目标深度分割线。如果深度分割线的数量包括两个,则根据当前像素点的位置信息和各深度分割线的位置和宽度,确定当前像素点位于哪一个深度分割线上,并将位于的深度分割线作为目标深度分割线。
S330、根据当前像素点的像素深度值、分割线深度值、以及当前像素点所属视频帧的待处理掩膜图,确定当前像素点的目标像素值。
可选的,如果当前像素点的像素深度值小于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则保持当前像素点的原始像素值不变,并将原始像素值作为所述目标像素值;如果当前像素点的像素深度值大于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则将当前像素点的原始像素值调整为第一预设像素值,并将所述第一预设像素值作为所述当前像素点的目标像素值。
其中,可以根据各视频帧的目标深度视图,确定当前像素点的深度值,并将此深度值作为像素深度值。原始像素值为采集各视频帧时像素点的像素值。
具体的,如果当前像素点的像素深度值小于目标深度分割线的分割线深度值,则确定当前像素点是否为显著对象上的像素点,若也为显著对象上的像素点,则说明需要将当前像素点突出显示,以得到相应的三维显示效果。可以保持当前像素点的像素值不变。如果当前像素点的像素深度值大于目标深度分割线,说明此像素点距离摄像装置比较远,同时,可以确定该像素点位于掩膜区域中,则可以将当前像素的原始像素值设置为第一预设像素值,可选的,设置为0,或者设置为255。
可选的,如果不存在与当前像素点相对应的目标深度分割线,则将所述当前像素点的原始像素值作为所述目标像素值。
还需要说明的是,如果当前像素点不在深度分割线上,则保持像素点的原始像素值不变。
S340、根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
具体的,根据目标深度视图中各像素点的深度值和相应分割线的分割线深度值,可以确定视频帧中各像素点的目标像素值,并基于各像素点的目标像素值得到目标视频帧的三维显示视频帧。其中某个视频帧的三维显示视频帧的效果,可以参见图7,当然,在实际显示的时候可以将深度分割线去掉,此处仅仅是示意图,并不对技术方案做相应的限定。基于图7可以看到,该视频帧对应的为三维显示效果。
本公开实施例的技术方案,通过确定目标视频中各像素点与相应深度分割线的分割线深度值,确定各像素点的目标像素值,进一步根据目标像素值显示各像素点,达到了三维显示的技术效果,解决了现有技术中必须使用三维显示设备才能三维显示的技术问题。
实施例四
图8为本公开实施例四所提供的一种视频图像处理装置结构示意图,如图8所示,所述装置包括:分割线确定模块410、像素值确定模块420和视频显示模块430。
其中,分割线确定模块410,用于确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;像素值确定模块420,用于针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;视频显示模块430,用于根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
在上述各技术方案的基础上,所述装置还包括:
视频接收模块,用于接收所述目标视频;
分割线设置模块,用于设置与所述目标视频相对应的至少一条深度分割线,并根据所述目标视频的显示参数,确定所述至少一条深度分割线在所述目标视频中的位置和宽度,以根据所述深度分割线的位置和宽度所对应的深度值确定相应像素点的目标像素值;其中,所述显示参数为目标视频显示在显示界面时的显示长度和显示宽度。
在上述各技术方案的基础上,所述分割线确定模块中包括:第一信息处理单元,用于确定各视频帧的待处理深度视图以及待处理特征点;特征点对确定单元,用于依次对相邻两个视频帧的待处理特征点进行处理,得到相邻两个视频帧的3D特征点对集合;其中,所述3D特征点对集合中包括多组3D特征点对;运动参数确定单元,用于根据所述3D特征点对集合中的多组3D特征点对,确定相邻两个视频帧的相机运动参数,并将所述相机运动参数作为所述相邻两个视频帧中前一视频帧的相机运动参数;其中,所述相机运动参数包括旋转矩阵和位移矩阵;深度视图确定单元,用于根据各视频帧的待处理深度视图以及相应的相机运动参数,确定各视频帧的目标深度视图。
在上述各技术方案的基础上,所述第一信息处理单元,还用于对各视频帧进行深度估计,得到各视频帧的待处理深度视图;基于特征点检测算法对各视频帧进行处理,确定各视频帧的待处理特征点。
在上述各技术方案的基础上,特征点对确定单元,还用于基于特征点匹配算法依次对相邻两个视频帧的待处理特征点匹配处理,得到与相邻两个视频帧相关联的至少一组2D特征点对;通过对所述相邻两个视频帧的待处理深度视图进行3D点云重建,得到与待处理深度视图相对应的原始3D点云,以及与所述至少一组2D特征点对相对应的至少一组3D特征点对;基于所述至少一组3D特征点对确定所述相邻两个视频帧的3D特征点对集合。
在上述各技术方案的基础上,所述深度视图确定单元,还用于:
针对各待处理深度视图,根据当前待处理深度视图的原始3D点云、旋转矩阵和平移矩阵,得到所述当前待处理深度视图的待使用3D点云;基于各待处理深度视图的所述原始3D点云、待使用3D点云以及预设深度调整系数,得到与各视频帧相对应的目标深度视图。
在上述各技术方案的基础上,所述装置还包括:掩膜图像确定模块,用于确定各视频帧中的显著对象,并基于所述显著对象确定相应视频帧的待处理掩膜图,以基于各视频帧的待处理掩膜图以及目标深度视图,确定所述分割线深度值。
在上述各技术方案的基础上,所述分割线确定模块,用于针对各视频帧,根据当前视频帧的待处理掩膜图和目标深度视图,确定所述待处理掩膜图中掩膜区域的平均深度值;根据各视频帧的平均深度值以及预设分割线调整系数,确定所述至少一条深度分割线的分割线深度值。
在上述各技术方案的基础上,所述分割线确定模块,用于如果存在与当前视频帧相对应的待处理掩膜图,则确定所述掩膜区域中各待处理像素点在所述目标深度视图中的待处理深度值;根据所述目标深度视图中各待显示像素点的待显示深度值和各待处理深度值,确定所述掩膜区域的平均深度值;或,如果不存在与所述当前视频帧相对应的待处理掩膜图,则根据记录的各视频帧的平均深度值,确定所述当前视频帧的平均深度值。
在上述各技术方案的基础上,所述分割线确定模块,用于根据各视频帧的平均深度值,确定平均深度值的最大值和最小值;根据所述最小值、所述分割线调整系数以及所述最大值,确定所述至少一条深度分割线的分割线深度值。
在上述各技术方案的基础上,所述至少一条深度分割线包括第一深度分割线和第二深度分割线,预设分割线调整系数包括第一分割线调整系数和第二分割线调整系数,所述分割线确定模块,分割线深度值确定模块,还用于:根据所述最小值、所述第一分割线调整系数、所述第二分割线调整系数以及所述最大值,确定所述第一深度分割线的第一分割线深度值,以及所述第二深度分割线的第二分割线深度值。
在上述各技术方案的基础上,所述像素值确定模块,用于根据当前像素点的位置信息、所述至少一条深度分割线的位置和宽度,确定当前像素点是否位于至少一条深度分割线上;若是,则将包括所述当前像素点的深度分割线作为所述目标深度分割线。
在上述各技术方案的基础上,所述像素值确定模块,用于根据当前像素点的像素深度值、分割线深度值、以及当前像素点所属视频帧的待处理掩膜图,确定当前像素点的目标像素值。
在上述各技术方案的基础上,所述像素值确定模块,用于如果当前像素点的像素深度值小于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则保持当前像素点的原始像素值不变,并将原始像素值作为所述目标像素值;如果当前像素点的像素深度值大于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则将当前像素点的原始像素值调整为第一预设像素值,并将所述第一预设像素值作为所述当前像素点的目标像素值。
本公开实施例的技术方案,通过对目标视频中各视频帧的目标深度视图进行处理,得到与目标视频相对应的至少一条深度分割线,该深度分割线作为目标视频中各视频帧的前背景分割线。基于至少一条深度分割线确定视频帧中各像素点的目标显示信息,进而基于目标显示信息得到与视频帧相对应的三维显示视频帧,解决了现有技术中需要三维显示时,需要借助于三维显示设备,存在三维显示成本较高以及普适性较差的问题,实现了在无需借助三维显示设备的条件下,只需要根据预先确定的至少一条深度分割线对视频帧中的各像素点进行处理,就可以得到相应视频帧的三维显示视频帧,提高了三维显示便捷性以及普适性的技术效果。
本公开实施例所提供的视频图像处理装置可执行本公开任意实施例所提供的视频图像处理方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本公开实施例的保护范围。
实施例五
图9为本公开实施例五所提供的一种电子设备结构示意图。下面参考图9,其示出了适于用来实现本公开实施例的电子设备(例如图9中的终端设备或服务器)500的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置506加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。编辑/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的编辑装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置506;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置506被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开实施例的方法中限定的上述功能。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
本公开实施例提供的电子设备与上述实施例提供的视频图像处理方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
实施例六
本公开实施例提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所提供的视频图像处理方法。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;
针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;
根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言-诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言-诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,【示例一】提供了一种图像视频处理方法,该方法包括:
确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;
针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;
根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
根据本公开的一个或多个实施例,【示例二】提供了一种图像视频处理方法,该方法包括:
可选的,在所述确定目标视频中各视频帧的目标深度视图之前,还包括:接收所述目标视频;设置与所述目标视频相对应的至少一条深度分割线,并确定所述至少一条深度分割线的位置和宽度,以根据所述深度分割线的位置和宽度确定相应像素点的目标像素值。
根据本公开的一个或多个实施例,【示例三】提供了一种图像视频处理方法,该方法包括:
可选的,所述确定所述至少一条深度分割线的位置的宽度,包括:根据所述目标视频的显示参数,确定所述至少一条深度分割线在所述目标视频中的位置和宽度;其中,所述显示参数为播放所述目标视频时,播放界面的显示长度和显示高度。
根据本公开的一个或多个实施例,【示例四】提供了一种图像视频处理方法,该方法包括:
可选的,所述确定目标视频中各视频帧的目标深度视图,包括:确定各视频帧的待处理深度视图以及待处理特征点;依次对相邻两个视频帧的待处理特征点进行处理,得到相邻两个视频帧的3D特征点对集合;其中,所述3D特征点对集合中包括多组3D特征点对;根据所述3D特征点对集合中的多组3D特征点对,确定相邻两个视频帧的相机运动参数,并将所述相机运动参数作为所述相邻两个视频帧中前一视频帧的相机运动参数;根据各视频帧的待处理深度视图以及相应的相机运动参数,确定各视频帧的目标深度视图。
根据本公开的一个或多个实施例,【示例五】提供了一种图像视频处理方法,该方法包括:
可选的,所述确定各视频帧的待处理深度视图待处理特征点,包括:对各视频帧进行深度估计,得到各视频帧的待处理深度视图;基于特征点检测算法对各视频帧进行处理,确定各视频帧的待处理特征点。
根据本公开的一个或多个实施例,【示例六】提供了一种图像视频处理方法,该方法包括:
可选的,所述依次对相邻两个视频帧的待处理特征点进行处理,得到相邻两个视频帧的3D特征点对集合,包括:基于特征点匹配算法依次对相邻两个视频帧的特征点匹配处理,得到与相邻两个视频帧相关联的至少一组2D特征点对;通过对所述相邻两个视频帧的待处理深度视图进行3D点云重建,得到与待处理深度视图相对应的原始3D点云,以及与所述至少一组2D特征点对相对应的至少一组3D特征点对;基于所述至少一组3D特征点对确定所述相邻两个视频帧的3D特征点对集合。
根据本公开的一个或多个实施例,【示例七】提供了一种图像视频处理方法,该方法包括:
可选的,所述根据所述3D特征点对集合中的多组3D特征点对,确定相邻两个视频帧的相机运动参数,并将所述相机运动参数作为所述相邻两个视频帧中前一视频帧的相机运动参数,包括:通过对各3D特征点对集合中的每组3D特征点对的位置信息进行处理,得到各相机运动参数中的旋转矩阵和位移矩阵,并将所述旋转矩阵和所述位移矩阵作为所述相邻两个视频帧中前一视频帧的相机运动参数。
根据本公开的一个或多个实施例,【示例八】提供了一种图像视频处理方法,该方法包括:
可选的,所述根据各视频帧的待处理深度视图以及相应的相机运动参数,确定各视频帧的目标深度视图,包括:针对各待处理深度视图,根据当前待处理深度视图的原始3D点云和相机运动参数,得到与所述当前待处理深度视图相对应的待使用3D点云;基于各待处理深度视图所对应的所述原始3D点云、待使用3D点云以及预设深度调整系数,得到与各视频帧相对应的目标深度视图。
根据本公开的一个或多个实施例,【示例九】提供了一种图像视频处理方法,该方法包括:
可选的,在所述根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值之前,还包括:确定各视频帧中的显著对象,并基于所述显著对象确定相应视频帧的待处理掩膜图,以基于各视频帧的待处理掩膜图以及目标深度视图,确定所述分割线深度值。
根据本公开的一个或多个实施例,【示例十】提供了一种图像视频处理方法,该方法包括:
可选的,所述根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值,包括:针对各视频帧,根据当前视频帧的待处理掩膜图和目标深度视图,确定所述待处理掩膜图中掩膜区域的平均深度值;根据各视频帧的平均深度值以及预设分割线调整系数,确定所述至少一条深度分割线的分割线深度值。
根据本公开的一个或多个实施例,【示例十一】提供了一种图像视频处理方法,该方法包括:
可选的,所述据当前视频帧的待处理掩膜图和目标深度视图,确定所述待处理掩膜图中掩膜区域的平均深度值,包括:如果存在与当前视频帧相对应的待处理掩膜图,则确定所述掩膜区域中各待处理像素点在所述目标深度视图中的待处理深度值;根据所述目标深度视图中各待显示像素点的待显示深度值和各待处理深度值,确定所述掩膜区域的平均深度值。
根据本公开的一个或多个实施例,【示例十二】提供了一种图像视频处理方法,该方法包括:
可选的,所述根据当前视频帧的待处理掩膜图和目标深度视图,确定所述待处理掩膜图中掩膜区域的平均深度值,包括:如果不存在与所述当前视频帧相对应的待处理掩膜图,则根据记录的各视频帧的平均深度值,确定所述当前视频帧的平均深度值。
根据本公开的一个或多个实施例,【示例十三】提供了一种图像视频处理方法,该方法包括:
可选的,所述根据各视频帧的平均深度值以及预设分割线调整系数,确定所述至少一条深度分割线的分割线深度值,包括:根据各视频帧所对应的平均深度值,确定平均深度值的最大值和最小值;根据所述最小值、所述分割线调整系数以及所述最大值,确定所述至少一条深度分割线的分割线深度值。
根据本公开的一个或多个实施例,【示例十四】提供了一种图像视频处理方法,该方法包括:
可选的,所述至少一条深度分割线包括第一深度分割线和第二深度分割线,预设分割线调整系数包括第一分割线调整系数和第二分割线调整系数,所述根据所述最小值、所述分割线调整系数以及所述最大值,确定所述至少一条深度分割线的分割线深度值,包括:根据所述最小值、所述第一分割线调整系数、所述第二分割线调整系数以及所述最大值,确定所述第一深度分割线的第一分割线深度值,以及所述第二深度分割线的第二分割线深度值。
根据本公开的一个或多个实施例,【示例十五】提供了一种图像视频处理方法,该方法包括:
可选的,所述确定当前目标深度视图中当前像素点所对应的目标深度分割线,包括:根据当前像素点的位置信息、所述至少一条深度分割线的位置和宽度,确定当前像素点是否位于至少一条深度分割线上;
若是,则将包括所述当前像素点的深度分割线作为所述目标深度分割线。
根据本公开的一个或多个实施例,【示例十六】提供了一种图像视频处理方法,该方法包括:
可选的,所述根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值,包括:根据当前像素点的像素深度值、分割线深度值、以及当前像素点所属视频帧的待处理掩膜图,确定当前像素点的目标像素值。
根据本公开的一个或多个实施例,【示例十七】提供了一种图像视频处理方法,该方法包括:
可选的,所述根据当前像素点的像素深度值、分割线深度值、以及当前像素点所属视频帧的待处理掩膜图,确定当前像素点的目标像素值,包括:如果当前像素点的像素深度值小于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则保持当前像素点的原始像素值不变,并将原始像素值作为所述目标像素值;如果当前像素点的像素深度值大于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则将当前像素点的原始像素值调整为第一预设像素值,并将所述第一预设像素值作为所述当前像素点的目标像素值。
根据本公开的一个或多个实施例,【示例十八】提供了一种图像视频处理方法,该方法包括:
可选的,如果不存在与当前像素点相对应的目标深度分割线,则将所述当前像素点的原始像素值作为所述目标像素值。
根据本公开的一个或多个实施例,【示例十九】提供了一种图像视频处理装置,该装置包括:
分割线确定模块,用于确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;
像素值确定模块,用于针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;
视频显示模块,用于根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (17)

1.一种视频图像处理方法,其特征在于,包括:
确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;
针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;
根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
2.根据权利要求1所述的方法,其特征在于,在所述确定目标视频中各视频帧的目标深度视图之前,还包括:
接收所述目标视频;
设置与所述目标视频相对应的至少一条深度分割线,并根据所述目标视频的显示参数,确定所述至少一条深度分割线在所述目标视频中的位置和宽度,以根据所述深度分割线的位置和宽度所对应的深度值确定相应像素点的目标像素值;
其中,所述显示参数为目标视频显示在显示界面时的显示长度和显示宽度。
3.根据权利要求1所述的方法,其特征在于,所述确定目标视频中各视频帧的目标深度视图,包括:
确定各视频帧的待处理深度视图以及待处理特征点;
依次对相邻两个视频帧的待处理特征点进行处理,得到相邻两个视频帧的3D特征点对集合;其中,所述3D特征点对集合中包括多组3D特征点对;
根据所述3D特征点对集合中的多组3D特征点对,确定相邻两个视频帧的相机运动参数,并将所述相机运动参数作为所述相邻两个视频帧中前一视频帧的相机运动参数;其中,所述相机运动参数包括旋转矩阵和位移矩阵;
根据各视频帧的待处理深度视图以及相应的相机运动参数,确定各视频帧的目标深度视图。
4.根据权利要求3所述的方法,其特征在于,所述确定各视频帧的待处理深度视图待处理特征点,包括:
对各视频帧进行深度估计,得到各视频帧的待处理深度视图;
基于特征点检测算法对各视频帧进行处理,确定各视频帧的待处理特征点。
5.根据权利要求3所述的方法,其特征在于,所述依次对相邻两个视频帧的待处理特征点进行处理,得到相邻两个视频帧的3D特征点对集合,包括:
基于特征点匹配算法依次对相邻两个视频帧的待处理特征点匹配处理,得到与相邻两个视频帧相关联的至少一组2D特征点对;
通过对所述相邻两个视频帧的待处理深度视图进行3D点云重建,得到与待处理深度视图相对应的原始3D点云,以及与所述至少一组2D特征点对相对应的至少一组3D特征点对;
基于所述至少一组3D特征点对确定所述相邻两个视频帧的3D特征点对集合。
6.根据权利要求4所述的方法,其特征在于,所述根据各视频帧的待处理深度视图以及相应的相机运动参数,确定各视频帧的目标深度视图,包括:
针对各待处理深度视图,根据当前待处理深度视图的原始3D点云、旋转矩阵和平移矩阵,得到所述当前待处理深度视图的待使用3D点云;
基于各待处理深度视图的所述原始3D点云、待使用3D点云以及预设深度调整系数,得到与各视频帧相对应的目标深度视图。
7.根据权利要求1所述的方法,其特征在于,在所述根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值之前,还包括:
确定各视频帧中的显著对象,并基于所述显著对象确定相应视频帧的待处理掩膜图,以基于各视频帧的待处理掩膜图以及目标深度视图,确定所述分割线深度值。
8.根据权利要求7所述的方法,其特征在于,所述根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值,包括:
针对各视频帧,根据当前视频帧的待处理掩膜图和目标深度视图,确定所述待处理掩膜图中掩膜区域的平均深度值;
根据各视频帧的平均深度值以及预设分割线调整系数,确定所述至少一条深度分割线的分割线深度值。
9.根据权利要求8所述的方法,其特征在于,所述据当前视频帧的待处理掩膜图和目标深度视图,确定所述待处理掩膜图中掩膜区域的平均深度值,包括:
如果存在与当前视频帧相对应的待处理掩膜图,则确定所述掩膜区域中各待处理像素点在所述目标深度视图中的待处理深度值;
根据所述目标深度视图中各待显示像素点的待显示深度值和各待处理深度值,确定所述掩膜区域的平均深度值;或,如果不存在与所述当前视频帧相对应的待处理掩膜图,则根据记录的各视频帧的平均深度值,确定所述当前视频帧的平均深度值。
10.根据权利要求8所述的方法,其特征在于,所述根据各视频帧的平均深度值以及预设分割线调整系数,确定所述至少一条深度分割线的分割线深度值,包括:
根据各视频帧的平均深度值,确定平均深度值的最大值和最小值;
根据所述最小值、所述分割线调整系数以及所述最大值,确定所述至少一条深度分割线的分割线深度值。
11.根据权利要求10所述的方法,其特征在于,所述至少一条深度分割线包括第一深度分割线和第二深度分割线,预设分割线调整系数包括第一分割线调整系数和第二分割线调整系数,所述根据所述最小值、所述分割线调整系数以及所述最大值,确定所述至少一条深度分割线的分割线深度值,包括:
根据所述最小值、所述第一分割线调整系数、所述第二分割线调整系数以及所述最大值,确定所述第一深度分割线的第一分割线深度值以及所述第二深度分割线的第二分割线深度值。
12.根据权利要求1所述的方法,其特征在于,所述确定当前目标深度视图中当前像素点所对应的目标深度分割线,包括:
根据当前像素点的位置信息、所述至少一条深度分割线的位置和宽度,确定当前像素点是否位于至少一条深度分割线上;
若是,则将包括所述当前像素点的深度分割线作为所述目标深度分割线。
13.根据权利要求1所述的方法,其特征在于,所述根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值,包括:
根据当前像素点的像素深度值、分割线深度值、以及当前像素点所属视频帧的待处理掩膜图,确定当前像素点的目标像素值。
14.根据权利要求13所述的方法,其特征在于,所述根据当前像素点的像素深度值、分割线深度值、以及当前像素点所属视频帧的待处理掩膜图,确定当前像素点的目标像素值,包括:
如果当前像素点的像素深度值小于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则保持当前像素点的原始像素值不变,并将原始像素值作为所述目标像素值;
如果当前像素点的像素深度值大于所述分割线深度值,以及所述当前像素点位于所述待处理掩膜图中的掩膜区域,则将当前像素点的原始像素值调整为第一预设像素值,并将所述第一预设像素值作为所述当前像素点的目标像素值。
15.一种视频图像处理装置,其特征在于,包括:
分割线确定模块,用于确定目标视频中各视频帧的目标深度视图,并根据各目标深度视图确定与所述目标视频相对应的至少一条深度分割线的分割线深度值;
像素值确定模块,用于针对各目标深度视图,确定当前目标深度视图中当前像素点所对应的目标深度分割线,并根据所述当前像素点的像素深度值和所述目标深度分割线的分割线深度值,确定当前像素点的目标像素值;
视频显示模块,用于根据各目标深度视图中各像素点的目标像素值,确定所述目标视频中各视频帧的三维显示视频帧。
16.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-14中任一所述视频图像处理方法。
17.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-14中任一所述视频图像处理方法。
CN202111272959.7A 2021-10-29 2021-10-29 视频图像处理方法、装置、电子设备及存储介质 Pending CN113989717A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111272959.7A CN113989717A (zh) 2021-10-29 2021-10-29 视频图像处理方法、装置、电子设备及存储介质
PCT/CN2022/123079 WO2023071707A1 (zh) 2021-10-29 2022-09-30 视频图像处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111272959.7A CN113989717A (zh) 2021-10-29 2021-10-29 视频图像处理方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN113989717A true CN113989717A (zh) 2022-01-28

Family

ID=79744495

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111272959.7A Pending CN113989717A (zh) 2021-10-29 2021-10-29 视频图像处理方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN113989717A (zh)
WO (1) WO2023071707A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071707A1 (zh) * 2021-10-29 2023-05-04 北京字节跳动网络技术有限公司 视频图像处理方法、装置、电子设备及存储介质
WO2024060923A1 (zh) * 2022-09-22 2024-03-28 北京字跳网络技术有限公司 移动物体的深度估计方法、装置、电子设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8983176B2 (en) * 2013-01-02 2015-03-17 International Business Machines Corporation Image selection and masking using imported depth information
WO2014125842A1 (ja) * 2013-02-18 2014-08-21 株式会社P2P Bank 画像処理装置、画像処理方法、画像処理用コンピュータプログラムおよび画像処理用コンピュータプログラムを格納した情報記録媒体
CN104504410A (zh) * 2015-01-07 2015-04-08 深圳市唯特视科技有限公司 基于三维点云的三维人脸识别装置和方法
CN104992442B (zh) * 2015-07-08 2018-01-16 北京大学深圳研究生院 面向平面显示设备的视频立体化绘制方法
CN106875397B (zh) * 2017-01-04 2020-04-14 努比亚技术有限公司 一种实现交互式图像分割的方法、装置及终端
CN112419388A (zh) * 2020-11-24 2021-02-26 深圳市商汤科技有限公司 深度检测方法、装置、电子设备和计算机可读存储介质
CN113989717A (zh) * 2021-10-29 2022-01-28 北京字节跳动网络技术有限公司 视频图像处理方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071707A1 (zh) * 2021-10-29 2023-05-04 北京字节跳动网络技术有限公司 视频图像处理方法、装置、电子设备及存储介质
WO2024060923A1 (zh) * 2022-09-22 2024-03-28 北京字跳网络技术有限公司 移动物体的深度估计方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2023071707A1 (zh) 2023-05-04

Similar Documents

Publication Publication Date Title
CN112989904B (zh) 风格图像生成方法、模型训练方法、装置、设备和介质
WO2023071707A1 (zh) 视频图像处理方法、装置、电子设备及存储介质
CN112927271B (zh) 图像处理方法、图像处理装置、存储介质与电子设备
CN110349107B (zh) 图像增强的方法、装置、电子设备、及存储介质
CN112182299A (zh) 一种视频中精彩片段的获取方法、装置、设备和介质
WO2023207379A1 (zh) 图像处理方法、装置、设备及存储介质
CN113873264A (zh) 显示图像的方法、装置、电子设备及存储介质
CN113949808A (zh) 视频生成方法、装置、可读介质及电子设备
CN113989173A (zh) 视频融合方法、装置、电子设备及存储介质
CN115761090A (zh) 特效渲染方法、装置、设备、计算机可读存储介质及产品
WO2022166907A1 (zh) 图像处理方法、装置、设备及可读存储介质
CN114531553A (zh) 生成特效视频的方法、装置、电子设备及存储介质
WO2024056020A1 (zh) 一种双目图像的生成方法、装置、电子设备及存储介质
CN113902636A (zh) 图像去模糊方法及装置、计算机可读介质和电子设备
CN113205011A (zh) 图像掩膜确定方法及装置、存储介质和电子设备
CN111192305B (zh) 用于生成三维图像的方法和装置
CN115937290A (zh) 一种图像深度估计方法、装置、电子设备及存储介质
CN115358959A (zh) 特效图的生成方法、装置、设备及存储介质
CN114913061A (zh) 一种图像处理方法、装置、存储介质及电子设备
CN111915532B (zh) 图像追踪方法、装置、电子设备及计算机可读介质
CN113920023A (zh) 图像处理方法及装置、计算机可读介质和电子设备
CN113891057A (zh) 视频的处理方法、装置、电子设备和存储介质
CN114119413A (zh) 图像处理方法及装置、可读介质和移动终端
CN112651909B (zh) 图像合成方法、装置、电子设备及计算机可读存储介质
CN111626919B (zh) 图像合成方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination