CN113538317B - 图像处理方法、装置、终端设备以及可读存储介质 - Google Patents
图像处理方法、装置、终端设备以及可读存储介质 Download PDFInfo
- Publication number
- CN113538317B CN113538317B CN202110974605.0A CN202110974605A CN113538317B CN 113538317 B CN113538317 B CN 113538317B CN 202110974605 A CN202110974605 A CN 202110974605A CN 113538317 B CN113538317 B CN 113538317B
- Authority
- CN
- China
- Prior art keywords
- image
- real
- angle
- target
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 230000000007 visual effect Effects 0.000 claims abstract description 86
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 29
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 26
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 230000002159 abnormal effect Effects 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 18
- 239000000945 filler Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 abstract description 22
- 230000000295 complement effect Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 239000011800 void material Substances 0.000 description 7
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提供了一种图像处理方法、装置、终端设备以及可读存储介质。所述方法包括:确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角;获得从各个所述真实视角采集的图像数据;利用所述采集的图像数据合成所述目标视角的基础图像和填充图像;以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。该方法可补全传统视角合成算法合成的虚拟视角图像存在的空洞区域,使得合成的虚拟视角图像更逼近虚拟视角处的真实图像,增强了用户的观看体验。
Description
技术领域
本发明涉及数据处理技术领域,特别是涉及一种图像处理方法、装置、终端设备以及可读存储介质。
背景技术
在视频拍摄场景中,为了使观众获得沉浸式观看体验,通常会在拍摄点的周围布设多个摄像装备,以从多方位拍摄视频。然而,这种布设方式需要较多的摄像装备,增大了摄像装备的安装、校准、调试、数据传输同步等工作量。相关技术中采用一种自由视角合成算法,利用摄像装备采集的真实图像合成未安装摄像装备的视角的虚拟视角图像,从而降低摄像装备的布设数量。然而,这种自由视角合成算法合成的虚拟视角图像会存在空洞区域(不包含有效像素),如果直接将合成的虚拟视角图像等效为从虚拟视角采集的图像,将会限制用户的观看体验。因此,如何避免合成的虚拟视角图像存在空洞区域,成为亟待解决的问题。
发明内容
本发明实施例的目的在于提供一种图像处理方法、装置、终端设备以及可读存储介质,可补全传统视角合成算法合成的虚拟视角图像存在的空洞区域,使得合成的虚拟视角图像更逼近虚拟视角处的真实图像。具体技术方案如下:
在本发明实施例的第一方面,首先提供了一种图像处理方法,所述方法包括:
确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角;
获得从各个所述真实视角采集的图像数据;
利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,所述基础图像是虚拟视角图像中与所述目标视角处的实际图像相似度最高的图像,所述填充图像是所述虚拟视角图像中除所述基础图像外的其它图像,所述虚拟视角图像是利用所述采集的图像数据在所述目标视角下合成的图像;
以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。
可选地,利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,包括:
针对所述采集的图像数据中的每一帧真实图像,将各个像素点在真实视角的图像坐标系下的坐标转换为在真实视角的相机坐标系下的坐标;
将在真实视角的相机坐标系下的坐标转换为在世界坐标系下的坐标;
将在世界坐标系下的坐标转换为在所述目标视角的相机坐标系下的坐标;
将在所述目标视角的相机坐标系下的坐标转换为在所述目标视角的图像坐标系下的坐标;
根据坐标转换后得到的多帧图像获得所述目标视角的基础图像和填充图像,一帧所述真实图像用于得到一帧坐标转换后的图像。
可选地,得从各个所述真实视角采集的图像数据,包括:
获得第一图像数据和第二图像数据,所述第一图像数据与所述目标视角处的实际图像的相似度高于所述第二图像数据与所述目标视角处的实际图像的相似度;
利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,包括:
利用所述第一图像数据合成所述目标视角的基础图像;
利用所述第二图像数据合成所述目标视角的填充图像。
可选地,获得第一图像数据和第二图像数据,包括:
从第一真实视角获得所述第一图像数据,所述第一真实视角为所述预设范围内距离所述目标视角最近的真实视角;
从第二真实视角获得所述第二图像数据,所述第二真实视角为所述预设范围内除所述第一真实视角外的其它真实视角。
可选地,以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,包括:
获得所述无效区域中的任意一个像素点在各个所述填充图像中相应位置处的像素值;
剔除各个像素值中的异常像素值;
将剩余的各个像素值的均值确定为处理后的像素值;利用所述处理后的像素值对所述像素点进行填充;
获得所述无效区域中的所有像素点的处理后的像素值并完成填充,直至所述无效区域最小。
可选地,剔除所述各个像素值中的异常像素值,包括:
获得各个所述像素值在预设颜色通道下的均值,所述预设颜色通道为R通道、G通道以及B通道中的任意一者;
根据所述预设颜色通道下的均值,获得各个所述像素值在预设颜色通道下的标准差;
获得所述预设颜色通道下的均值和预设数量倍所述标准差的和值;
将大于所述和值的像素值确定为异常像素值,并剔除所述异常像素值。
在本发明实施例的第二方面,还提供了一种图像处理装置,所述装置包括:
确定模块,用于确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角;
获得模块,用于获得从各个所述真实视角采集的图像数据;
合成模块,用于利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,所述基础图像是虚拟视角图像中与所述目标视角处的实际图像相似度最高的图像,所述填充图像是所述虚拟视角图像中除所述基础图像外的其它图像,所述虚拟视角图像是利用所述采集的图像数据在所述目标视角下合成的图像;
填充模块,用于以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。
可选地,所述合成模块包括:
第一转换子模块,用于针对所述采集的图像数据中的每一帧真实图像,将各个像素点在真实视角的图像坐标系下的坐标转换为在真实视角的相机坐标系下的坐标;
第二转换子模块,用于将在真实视角的相机坐标系下的坐标转换为在世界坐标系下的坐标;
第三转换子模块,用于将在世界坐标系下的坐标转换为在所述目标视角的相机坐标系下的坐标;
第四转换子模块,用于将在所述目标视角的相机坐标系下的坐标转换为在所述目标视角的图像坐标系下的坐标;
第一获得子模块,用于根据坐标转换后得到的多帧图像获得所述目标视角的基础图像和填充图像,一帧所述真实图像用于得到一帧坐标转换后的图像。
可选地,所述获得模块包括:
第二获得子模块,用于获得第一图像数据和第二图像数据,所述第一图像数据与所述目标视角处的实际图像的相似度高于所述第二图像数据与所述目标视角处的实际图像的相似度;
所述合成模块包括:
第一合成子模块,用于利用所述第一图像数据合成所述目标视角的基础图像;
第二合成子模块,用于利用所述第二图像数据合成所述目标视角的填充图像。
可选地,所述第二获得子模块包括:
第三获得子模块,用于从第一真实视角获得所述第一图像数据,所述第一真实视角为所述预设范围内距离所述目标视角最近的真实视角;
第四获得子模块,用于从第二真实视角获得所述第二图像数据,所述第二真实视角为所述预设范围内除所述第一真实视角外的其它真实视角。
可选地,所述填充模块包括:
第五获得子模块,用于获得所述无效区域中的任意一个像素点在各个所述填充图像中相应位置处的像素值;
第一剔除子模块,用于剔除各个像素值中的异常像素值;
确定子模块,用于将剩余的各个像素值的均值确定为处理后的像素值;
填充子模块,用于利用所述处理后的像素值对所述像素点进行填充;
第六获得子模块,用于获得所述无效区域中的所有像素点的处理后的像素值并完成填充,直至所述无效区域最小。
可选地,所述第一剔除子模块包括:
第七获得子模块,用于获得各个所述像素值在预设颜色通道下的均值,所述预设颜色通道为R通道、G通道以及B通道中的任意一者;
第八获得子模块,用于根据所述预设颜色通道下的均值,获得各个所述像素值在预设颜色通道下的标准差;
第九获得子模块,用于获得所述预设颜色通道下的均值和预设数量倍所述标准差的和值;
第二剔除子模块,用于将大于所述和值的像素值确定为异常像素值,并剔除所述异常像素值。
在本发明实施例的第三方面,还提供了一种终端设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现本发明实施例的第一方面所述的图像处理方法中的步骤。
在本发明实施例的又一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述任一所述的图像处理方法中的步骤。
在本发明实施的又一方面,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的图像处理方法。
本发明实施例提供的图像处理方法,首先确定距离目标视角预设范围内的多个真实视角,其中,目标视角为无法采集真实图像的视角,真实视角为可采集真实图像的视角。然后获得从各个真实视角采集的图像数据,利用采集的图像数据合成目标视角的基础图像和填充图像。最后以最小化基础图像中的无效区域为目标,利用填充图像中的像素值对无效区域进行填充,将填充后的基础图像作为从目标视角采集的图像,无效区域为无像素值的区域。该方法可补全传统视角合成算法合成的虚拟视角图像存在的空洞区域,使得合成的虚拟视角图像更逼近虚拟视角处的真实图像,可在摄像装备的布设数量较少的情况下,达到摄像装备的布设数量较多时的拍摄效果,保证了拍摄视频的流畅性,增强了用户的观看体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1是本申请一实施例示出的一种实施场景示意图;
图2是本申请一实施例示出的另一种实施场景示意图;
图3是本申请一实施例示出的一种图像处理方法的流程图;
图4是本发明一实施例示出的一种图像处理装置的结构框图;
图5是本申请一实施例示出的一种终端设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。
在视频拍摄场景中,为了使观众获得沉浸式观看体验,通常会在拍摄点的周围布设多个摄像装备,以从多方位拍摄视频。例如,为了对舞台上的节目进行较好拍摄,通常会在舞台周围每隔一定距离布设摄像装备。然而,这种布设方式需要较多的摄像装备,增大了摄像装备的安装、校准、调试、数据传输同步等工作量,需要耗费大量的财力和物力。
相关技术中的一种解决方式为:采用自由视角合成算法,从安装有摄像装备的真实视角采集真实图像,利用该真实图像中间合成一个中间的虚拟视角图像,将该虚拟视角图像等效为从距离该真实视角较近的虚拟视角采集的图像,从而降低摄像装备的布设数量。图1是本申请一实施例示出的一种实施场景示意图。在图1中,深色阴影部分(包括:L1-L3和R1-R3)为安装的摄像装备,每一个摄像装备对应一个真实视角,浅色阴影部分(包括:O)为虚拟摄像装备,对应一个虚拟视角。那么可以采用自由视角合成算法,利用L1或R1采集的真实图像合成一个虚拟视角图像,将该虚拟视角图像等效为虚拟摄像装备O采集的实际视角图像。
然而,通过相关技术中的自由视角合成算法合成的虚拟视角图像会存在空洞现象,也即,在虚拟视角可以看到的部分,在真实视角下可能会由于被遮挡而无法看到,此时如果将真实视角处的图像投影到虚拟视角下,就会产生空洞区域(利用真实视角处的图像合成的虚拟视角图像无法完全填充到虚拟视角处的实际视角图像中,未填充的部分则为空洞区域,空洞区域即无效区域),空洞区域如下图2中白色部分所示。图2是本申请一实施例示出的另一种实施场景示意图。因此,如果直接将合成的虚拟视角图像等效为从虚拟视角处采集的实际视角图像,将会降低用户的观看体验。
为解决相关技术中通过自由视角合成算法合成的虚拟视角图像存在空洞区域的问题,本申请提供了一种技术构思:除了用于合成虚拟视角图像的真实图像外,通常还存在从其它多个真实视角采集的真实图像,因此可以利用从其它多个真实视角采集的图像数据所合成的虚拟视角图像对空洞区域的像素进行补全。例如,虚拟视角为A,可以利用从真实视角B采集的真实图像合成在虚拟视角A下的虚拟视角图像,进而计算出真实视角B投影到虚拟视角A时的空洞区域maskB-A(在本申请中,利用从真实视角采集的真实图像合成在虚拟视角下的虚拟视角图像,相当于将从真实视角采集的真实图像投影到虚拟视角下,得到的投影则为虚拟视角图像),同理,还可以计算出真实视角C投影到虚拟视角A时的空洞区域maskC-A。以此类推,只要真实视角的数量足够多,所有的空洞区域的并集就能为空,即所有的空洞区域都可以被有效像素覆盖。
下面将对本申请的图像处理方法进行详细说明。图3是本申请一实施例示出的一种图像处理方法的流程图。参照图3,本申请的图像处理方法可以包括如下步骤:
步骤S31:确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角。
在本实施例中,目标视角为未安装有摄像装备的虚拟视角,无法采集真实图像。
通常情况下,从距离目标视角较近的真实视角采集的真实图像,与目标视角处的实际图像的差异较小,因此,在步骤S31可以获得距离目标视角预设范围内的真实视角,其中,预设范围可以任意设置。
步骤S32:获得从各个所述真实视角采集的图像数据。
在确定真实视角后,可以获得从各个真实视角采集的真实图像。以图1为例,真实视角包括:摄像装备L1-L3和R1-R3各自对应的视角,那么可以获得摄像装备L1-L3和R1-R3各自采集的共6帧真实图像。
为便于后续各个实施例的陈述,在此特别说明,在本申请中,从单个真实视角采集一帧真实图像,单帧真实图像用于合成一帧目标视角下的虚拟视角图像。
步骤S33:利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,所述基础图像是虚拟视角图像中与所述目标视角处的实际图像相似度最高的图像,所述填充图像是所述虚拟视角图像中除所述基础图像外的其它图像,所述虚拟视角图像是利用所述采集的图像数据在所述目标视角下合成的图像。
在本实施例中,每一帧采集的图像都可以合成一帧目标视角下的虚拟视角图像,多帧采集的图像都可以合成多帧目标视角下的虚拟视角图像。基础图像是多帧虚拟视角图像中与目标视角处的实际图像相似度最高的图像,填充图像为多帧虚拟视角图像中除基础图像外的其它图像。填充图像用于对基础图像进行修正,经过填充图像修正后的基础图像基本上与从目标视角采集的实际图像无较大差异,因此可以等效为从目标视角采集的实际视角图像。
结合以上实施例,在一种实施方式中,利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,具体可以包括如下步骤:
针对所述采集的图像数据中的每一帧真实图像,将各个像素点在真实视角的图像坐标系下的坐标转换为在真实视角的相机坐标系下的坐标;
将在真实视角的相机坐标系下的坐标转换为在世界坐标系下的坐标;
将在世界坐标系下的坐标转换为在所述目标视角的相机坐标系下的坐标;
将在所述目标视角的相机坐标系下的坐标转换为在所述目标视角的图像坐标系下的坐标;
根据坐标转换后得到的多帧图像获得所述目标视角的基础图像和填充图像,一帧所述真实图像用于得到一帧坐标转换后的图像。在具体实施时,可以采用自由视角合成算法合成基础图像和填充图像。下面首先介绍合成过程中的几个参数,再介绍自由视角合成算法。
(一)、参数
图像数据:Icam
深度数据:Dcam
相机内参:fcam(焦距)、cxcam(原点x轴偏移量)、cycam(原点y轴偏移量)
相机外参:
(相机旋转矩阵)
(相机位移向量)
其中,cam表示相机序号,如IL1为从摄像装备L1采集的图像数据。
(二)自由视角合成算法
利用从摄像装备L1采集的真实图像(图像的长为W、宽为H)合成虚拟摄像装备O(虚拟视角O)处的图像为例,用src表示摄像装备L1,tar表示虚拟摄像装备O,有如下步骤:
步骤1:首先生成内参矩阵intrinsicssrc和外参矩阵extrinsicssrc:
步骤2:假设src采集的真实图像在图像坐标系下的一点P,坐标为(usrc,vsrc),该点的颜色为(r,g,b),深度为d,构成齐次坐标
步骤3:计算点P在src相机坐标系下的坐标
步骤4:计算点P在世界坐标系下的坐标
步骤5:将世界坐标系下的P点投影到目标视角的tar相机坐标系:
P点在tar相机坐标系下的坐标为:
步骤6:P点在tar图像坐标系下的坐标:
例如,src采集的真实图像中的一点P,坐标(usrc=0,vsrc=0),则:
通过计算可知:
点P在src相机坐标系下的坐标
点P在世界坐标系下的坐标
点P在tar相机坐标系下的坐标
点P在tar图像坐标系下的坐标
按照上述步骤1-步骤6,将src采集的真实图像的每一个点投影到tar图像坐标系下,即可得到src采集的真实图像在虚拟视角O下的投影。在本实施例中,src采集的每一帧真实图像可用于投影得到一帧虚拟视角O下的投影图像。将真实图像投影到虚拟视角O的过程,相当于对真实图像中的坐标进行转换的过程,也相当于合成虚拟视角O下的虚拟视角图像的过程。
其中,关于图像坐标系、相机坐标系以及世界坐标系的描述请参照已有技术,本实施例在此不作赘述。
因此,在步骤S33中,可以将用于合成基础图像的真实图像投影到目标视角下,将投影作为基础图像。可以将用于合成填充图像的真实图像投影到目标视角下,将投影作为填充图像。
当然,在具体实施时,也可采用除了上述自由视角合成算法外的其它虚拟视角图像合成算法合成基础图像和填充图像,本实施例对此不作具体限制。
在本实施例中,基础图像的数量为一帧,填充图像的数量为至少一帧。填充图像的数量可以根据实际需求任意选取,一般地,填充图像的数量越多,对基础图像的空洞区域的补全效果越好。
步骤S34:以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。
在本实施例中,无效区域为基础图像中的空洞区域,如图2中的空白部分所示。一帧图像是由多个像素点组成的,有效区域中的各个像素点的像素值不为空(不为空是指像素值在0~255范围内),无效区域中的各个像素点的像素值为空(一般用-1表示为空)。因此可以利用填充图像中的有效区域的像素值对基础图像中的无效区域进行填充,直到基础图像中的无效区域达到最小,此时可以将填充后的基础图像等效为从目标视角采集的实际图像。
在具体实施时,可以将基础图像中的无效区域划分为多个子区域,针对每一个子区域,从多个填充图像中获得相应位置的有效区域,再对获得的多个有效区域进行处理,获得综合区域,最后利用该综合区域中的像素值对子区域进行填充。其中,多个子区域的划分方式和综合区域的获得方式可采用任意方式实现,本实施例对此不作具体限制。
通过本实施例,首先确定距离目标视角预设范围内的多个真实视角,其中,目标视角为无法采集真实图像的视角,真实视角为可采集真实图像的视角。然后获得从各个真实视角采集的图像数据,利用采集的图像数据合成目标视角的基础图像和填充图像。最后以最小化基础图像中的无效区域为目标,利用填充图像中的像素值对无效区域进行填充,将填充后的基础图像作为从目标视角采集的图像,无效区域为无像素值的区域。该方法可补全传统视角合成算法合成的虚拟视角图像存在的空洞区域,使得合成的虚拟视角图像更逼近虚拟视角处的真实图像,可在摄像装备的布设数量较少的情况下,达到摄像装备的布设数量较多时的拍摄效果,保证了拍摄视频的流畅性,增强了用户的观看体验。
结合以上实施例,在一种实施方式中,获得从各个所述真实视角采集的图像数据,包括:
获得第一图像数据和第二图像数据,所述第一图像数据与所述目标视角处的实际图像的相似度高于所述第二图像数据与所述目标视角处的实际图像的相似度。
在此基础上,利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,包括:
利用所述第一图像数据合成所述目标视角的基础图像;
利用所述第二图像数据合成所述目标视角的填充图像。
在本实施例中,可以将采集的真实图像中与目标视角处的实际图像相似度最高的图像作为第一图像数据,将所有所有真实图像中除了第一图像数据外的其它真实图像作为第二图像数据。
在本实施例中,由于第一图像数据与目标视角处的实际视角图像差异较小,因此,如果利用第一图像数据来合成基础图像,可以缩小空洞区域的范围,降低后续对空洞区域的调整量。
在获得第一图像数据后,可以利用第一图像数据合成目标视角的基础图像,合成方法可采用前文所述的自由视角合成算法,也可以采用除了上述自由视角合成算法外的其它虚拟视角图像合成算法。
在获得第二图像数据后,可以利用第二图像数据合成目标视角的填充图像,合成方法可采用前文所述的自由视角合成算法,也可以采用除了上述自由视角合成算法外的其它虚拟视角图像合成算法。
在本实施例中,第一图像数据可以只包含一帧真实图像,也可以包含多帧真实图像。如果只包含一帧真实图像,可以利用该真实图像合成的虚拟视角图像作为基础图像。如果包含多帧真实图像,可以利用与目标视角处的实际图像相似度高的真实图像合成的虚拟视角图像作为初始图像,然后利用第一图像数据包含的其它真实图像所合成的虚拟视角图像对初始图像进行修正,将修正后的初始图像作为基础图像。
在本实施例中,利用与目标视角处的实际图像相似度最高的真实图像来合成基础图像,可以缩小空洞区域的范围,降低后续对空洞区域的调整量。
结合以上实施例,在一种实施方式中,一个真实视角距离目标视角越近,表示从该真实视角处采集的真实图像与目标视角处的实际图像相似度越高,一个真实视角距离目标视角越远,表示从该真实视角处采集的真实图像与目标视角处的实际图像相似度越低。因此,可以通过真实视角与目标视角之间的距离来获得第一图像数据和第二图像数据。
具体地,获得第一图像数据和第二图像数据,具体可以包括:
从第一真实视角获得所述第一图像数据,所述第一真实视角为所述预设范围内距离所述目标视角最近的真实视角;
从第二真实视角获得所述第二图像数据,所述第二真实视角为所述预设范围内除所述第一真实视角外的其它真实视角。
在本实施例中,可以直接将预设范围内距离目标视角最近的真实视角确定为第一真实视角,并利用从该第一真实视角采集的真实图像合成基础图像。示例地,在图1中,由于摄像装备L1或摄像装备R1与虚拟摄像装备O之间的距离最近,因此可以将摄像装备L1对应的视角或摄像装备R1对应的视角确定为第一真实视角。
在本实施例中,视角之间的距离是指:视角对应的摄像装备(包括:真实的摄像装备和虚拟摄像装备)之间的距离。
在本实施例中,可以直接将预设范围内除第一真实视角外的其它真实视角确定为第二真实视角,并利用从各个第二真实视角采集的真实图像合成填充图像。示例地,在图1中,如果将摄像装备L1对应的视角确定为第一真实视角,那么可以将摄像装备L2-L3和R1-R3对应的视角确定为第二真实视角。
在本实施例中,可直接根据目标视角与各个真实视角之间的距离来获得第一图像数据和第二图像数据,能显著加快图像处理效率。
结合以上实施例,在一种实施方式中,本申请还提供了一种利用填充图像中的像素值对无效区域进行填充的方法。具体地,以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,可以包括如下步骤:
获得所述无效区域中的任意一个像素点在各个所述第二图像数据中相应位置处的像素值;
剔除各个像素值中的异常像素值;
将剩余的各个像素值的均值确定为处理后的像素值;利用所述处理后的像素值对所述像素点进行填充;
获得所述无效区域中的所有像素点的处理后的像素值并完成填充,直至所述无效区域最小。
在本实施例中,可以以像素点为单位,对无效区域进行像素填充,当无效区域的每一个像素点都填充完毕后,该无效区域填充完成。假设无效区域为M,m为无效区域为M中的一个像素点,填充图像有n帧(填充图像1、填充图像2、……填充图像n),可通过如下步骤完成像素点m的像素填充:
Step1:在填充图像1-填充图像n中分别找到像素点m的对应位置(根据前文步骤S33中的自由视角合成算法,每一个真实图像中的一点P都可以获得在目标视角处的图像坐标系下的坐标,因此,像素点m可以在填充图像1-填充图像n中找到对应位置)。
Step2:如果某个找到的位置处的像素值不为空,将该像素值放到候选像素值集合Colorm中。
Step3:剔除候选像素值集合Colorm中的异常像素值,将Colorm中剩余的各个像素值的均值确定为处理后的像素值。
Step4:将理后的像素值作为m点的像素值填充到像素点m。
按照上述Step1-Step4,计算完M中的每一个像素点并完成填充,直至无效区域M的范围最小。
其中,在Step1中,可采用任意方式在填充图像中找到像素点m的对应位置,本实施例对此不作具体限制。
具体地,在一种实施方式中,剔除所述各个像素值中的异常像素值,可以包括:
获得各个所述像素值在预设颜色通道下的均值,所述预设颜色通道为R通道、G通道以及B通道中的任意一者;
获得各个像素值与对应均值的差值;
将差值大于预设差值的像素值确定为异常像素值。
一般地,在多个值中,如果某个值与均值差距较大,那么可以确定该值为异常值。因此,在本实施例中,可以将与均值之间差距较大的像素值确定为异常像素值。其中,差距的大小可以使用预设差值来衡量,预设差值可以根据经验值设定,本实施例对预设差值的设置不作具体限定。
在具体实施时,针对无效区域中的某一个像素点m,在获得其在各个填充图像中相应位置处的像素值后,接着获得这些像素值在预设颜色通道下的均值,然后针对这些像素值中的每一个像素值,获得其与均值之间的差值,如果差值大于预设差值,那么可以确定该像素值为异常像素值。
结合以上实施例,在一种实施方式中,预设差值可以设置为预设数量倍标准差,在此基础上,剔除所述各个像素值中的异常像素值的方法,具体可以包括:
获得各个所述像素值在预设颜色通道下的均值,所述预设颜色通道为R通道、G通道以及B通道中的任意一者;
根据所述预设颜色通道下的均值,获得各个所述像素值在预设颜色通道下的标准差;
获得所述预设颜色通道下的均值和预设数量倍所述标准差的和值;
将大于所述和值的像素值确定为异常像素值,并剔除所述异常像素值。
在本实施例中,预设数量可以根据实际需求设置,例如按照经验可以取值为3。在具体实施时,可以从RGB颜色通道上分别进行剔除,只要有一个通道满足剔除条件,那么这个像素值就会被认定为异常像素值并被从候选像素值集合Colorm中剔除。
以R通道为例,预设数量为3时,剔除条件可以为:
/>
如果则ci为异样像素值,应当从候选像素值集合Colorm中剔除。其中,avgR表示各个像素值在R通道下的均值,σR表示各个像素值在R通道下的标准差。
以G通道为例,预设数量为3时,剔除条件可以为:
如果则ci为异样像素值,应当从候选像素值集合Colorm中剔除。其中,avgG表示各个像素值在G通道下的均值,σG表示各个像素值在G通道下的标准差。
以B通道为例,预设数量为3时,剔除条件可以为:
如果则ci为异样像素值,应当从候选像素值集合Colorm中剔除。其中,avgB表示各个像素值在B通道下的均值,σB表示各个像素值在B通道下的标准差。
在完成剔除后,可以将候选像素值集合Colorm中剩余的像素值求取均值,作为处理后的像素值。
结合以上实施例,在一种实施方式中,本申请还提供了一种识别出无效区域的方法,该方法可以包括:
确定目标视角在图像坐标系的尺寸范围;
获得基础图像在图像坐标系下的坐标;
将确定的坐标中落在尺寸范围内的区域作为有效区域;
将尺寸范围内除有效区域外的其它区域作为无效区域。
在本实施例中,不同视角在图像坐标系中对应的尺寸范围不同,可以预先设置目标视角在图像坐标系的尺寸范围。在获得基础图像后,可以将基础图像中各个像素点的坐标转换到图像坐标系下。转换后,坐标落在尺寸范围内那些像素点组成了有效区域。尺寸范围内除有效区域外的其它区域则为无效区域。下面将以一个具体实施例,对本申请的图像处理方法进行详细说明。在该实施例中,设定目标视角为A,已知B,C、…等N个真实相机视角。那么可执行以下步骤:
步骤1’:首先确定一个距离A视角最近的视角(例如视角B)进行投影,合成视角A的基础图像,并计算空洞区域。该步骤主要确定非空洞区域的像素值,这些像素值固定不变,除了非空洞区域,其它部分区域为空洞区域M。确定出空洞区域M,接下来的目标是将M中的像素填满。
步骤2’:将除B视角以外的所有视角投影到A视角,合成n-1个虚拟视角图像。
步骤3’:假设m为空洞区域M中的一个像素点,在n-1个虚拟视角图像中找到像素点m的对应位置的像素值,如果该位置的像素值不为空,将该点的像素值放入m的候选像素值集合Colorm中。
步骤4’:将候选像素值集合Colorm中的各个像素值进行RGB颜色通道上剔除处理,求取剩余像素值的均值,将该均值填充到空洞区域M中的像素点m处。
步骤5’:重复步骤3’-步骤4’,直到计算完所有M中的点。
通过本申请的图像处理方法,可补全传统视角合成算法合成的虚拟视角图像存在的空洞区域,使得合成的虚拟视角图像更逼近虚拟视角处的真实图像,可在摄像装备的布设数量较少的情况下,达到摄像装备的布设数量较多时的拍摄效果,保证了拍摄视频的流畅性,增强了用户的观看体验。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
基于同一发明构思,本发明一实施例提供一种图像处理装置400。参考图4,图4是本发明一实施例示出的一种图像处理装置的结构框图。如图4所示,该装置400包括:
确定模块401,用于确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角;
获得模块402,用于获得从各个所述真实视角采集的图像数据;
合成模块403,用于利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,所述基础图像是虚拟视角图像中与所述目标视角处的实际图像相似度最高的图像,所述填充图像是所述虚拟视角图像中除所述基础图像外的其它图像,所述虚拟视角图像是利用所述采集的图像数据在所述目标视角下合成的图像;
填充模块404,用于以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。
所述合成模块403包括:
第一转换子模块,用于针对所述采集的图像数据中的每一帧真实图像,将各个像素点在真实视角的图像坐标系下的坐标转换为在真实视角的相机坐标系下的坐标;
第二转换子模块,用于将在真实视角的相机坐标系下的坐标转换为在世界坐标系下的坐标;
第三转换子模块,用于将在世界坐标系下的坐标转换为在所述目标视角的相机坐标系下的坐标;
第四转换子模块,用于将在所述目标视角的相机坐标系下的坐标转换为在所述目标视角的图像坐标系下的坐标;
第一获得子模块,用于根据坐标转换后得到的多帧图像获得所述目标视角的基础图像和填充图像,一帧所述真实图像用于得到一帧坐标转换后的图像。
可选地,所述获得模块402包括:
第二获得子模块,用于获得第一图像数据和第二图像数据,所述第一图像数据与所述目标视角处的实际图像的相似度高于所述第二图像数据与所述目标视角处的实际图像的相似度;
所述合成模块403包括:
第一合成子模块,用于利用所述第一图像数据合成所述目标视角的基础图像;
第二合成子模块,用于利用所述第二图像数据合成所述目标视角的填充图像。
可选地,所述第二获得子模块包括:
第三获得子模块,用于从第一真实视角获得所述第一图像数据,所述第一真实视角为所述预设范围内距离所述目标视角最近的真实视角;
第四获得子模块,用于从第二真实视角获得所述第二图像数据,所述第二真实视角为所述预设范围内除所述第一真实视角外的其它真实视角。
可选地,所述填充模块404包括:
第五获得子模块,用于获得所述无效区域中的任意一个像素点在各个所述填充图像中相应位置处的像素值;
第一剔除子模块,用于剔除各个像素值中的异常像素值;
确定子模块,用于将剩余的各个像素值的均值确定为处理后的像素值;
填充子模块,用于利用所述处理后的像素值对所述像素点进行填充;
第六获得子模块,用于获得所述无效区域中的所有像素点的处理后的像素值并完成填充,直至所述无效区域最小。
可选地,所述第一剔除子模块包括:
第七获得子模块,用于获得各个所述像素值在预设颜色通道下的均值,所述预设颜色通道为R通道、G通道以及B通道中的任意一者;
第八获得子模块,用于根据所述预设颜色通道下的均值,获得各个所述像素值在预设颜色通道下的标准差;
第九获得子模块,用于获得所述预设颜色通道下的均值和预设数量倍所述标准差的和值;
第二剔除子模块,用于将大于所述和值的像素值确定为异常像素值,并剔除所述异常像素值。本发明实施例还提供了一种终端设备,如图5所示。图5是本申请一实施例示出的一种终端设备的结构示意图。参照图5,终端设备包括处理器51、通信接口52、存储器53和通信总线54,其中,处理器51,通信接口52,存储器53通过通信总线54完成相互间的通信;
存储器53,用于存放计算机程序;
处理器51,用于执行存储器53上所存放的程序时,实现如下步骤:
确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角;
获得从各个所述真实视角采集的图像数据;
利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,所述基础图像为与所述目标视角处的实际图像相似度最高的图像,所述填充图像用于对所述基础图像进行修正;
以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。
或者处理器51在执行存储器53上所存放的程序时,实现上述其他方法实施例中的步骤。
上述终端提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述终端与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的网页显示方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的网页显示方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (9)
1.一种图像处理方法,其特征在于,包括:
确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角;
获得从各个所述真实视角采集的图像数据,包括:获得第一图像数据和第二图像数据,所述第一图像数据与所述目标视角处的实际图像的相似度高于所述第二图像数据与所述目标视角处的实际图像的相似度;
利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,包括:利用所述第一图像数据合成所述目标视角的基础图像;利用所述第二图像数据合成所述目标视角的填充图像;所述基础图像是虚拟视角图像中与所述目标视角处的实际图像相似度最高的图像,所述填充图像是所述虚拟视角图像中除所述基础图像外的其它图像,所述虚拟视角图像是利用所述采集的图像数据在所述目标视角下合成的图像;所述基础图像是基于所述预设范围内距离所述目标视角最近的真实视角采集的图像数据合成的;
以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。
2.根据权利要求1所述的方法,其特征在于,利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,包括:
针对所述采集的图像数据中的每一帧真实图像,将各个像素点在真实视角的图像坐标系下的坐标转换为在真实视角的相机坐标系下的坐标;
将在真实视角的相机坐标系下的坐标转换为在世界坐标系下的坐标;
将在世界坐标系下的坐标转换为在所述目标视角的相机坐标系下的坐标;
将在所述目标视角的相机坐标系下的坐标转换为在所述目标视角的图像坐标系下的坐标;
根据坐标转换后得到的多帧图像获得所述目标视角的基础图像和填充图像,一帧所述真实图像用于得到一帧坐标转换后的图像。
3.根据权利要求1所述的方法,其特征在于,获得第一图像数据和第二图像数据,包括:
从第一真实视角获得所述第一图像数据,所述第一真实视角为所述预设范围内距离所述目标视角最近的真实视角;
从第二真实视角获得所述第二图像数据,所述第二真实视角为所述预设范围内除所述第一真实视角外的其它真实视角。
4.根据权利要求1-3任一项所述的方法,其特征在于,以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,包括:
获得所述无效区域中的任意一个像素点在各个所述填充图像中相应位置处的像素值;
剔除各个像素值中的异常像素值;
将剩余的各个像素值的均值确定为处理后的像素值;
利用所述处理后的像素值对所述像素点进行填充;
获得所述无效区域中的所有像素点的处理后的像素值并完成填充,直至所述无效区域最小。
5.根据权利要求4所述的方法,其特征在于,剔除所述各个像素值中的异常像素值,包括:
获得各个所述像素值在预设颜色通道下的均值,所述预设颜色通道为R通道、G通道以及B通道中的任意一者;
根据所述预设颜色通道下的均值,获得各个所述像素值在预设颜色通道下的标准差;
获得和值,所述和值为所述预设颜色通道下的均值与预设数量倍所述标准差之和,所述预设数量倍根据经验值设定;
将大于所述和值的像素值确定为异常像素值,并剔除所述异常像素值。
6.一种图像处理装置,其特征在于,包括:
第一确定模块,用于确定距离目标视角预设范围内的多个真实视角,所述目标视角为无法采集真实图像的视角,所述真实视角为可采集真实图像的视角;
获得模块,用于获得从各个所述真实视角采集的图像数据;所述获得模块包括:第二获得子模块,用于获得第一图像数据和第二图像数据,所述第一图像数据与所述目标视角处的实际图像的相似度高于所述第二图像数据与所述目标视角处的实际图像的相似度;
合成模块,用于利用所述采集的图像数据合成所述目标视角的基础图像和填充图像,所述合成模块包括:第一合成子模块,用于利用所述第一图像数据合成所述目标视角的基础图像;第二合成子模块,用于利用所述第二图像数据合成所述目标视角的填充图像;所述基础图像是虚拟视角图像中与所述目标视角处的实际图像相似度最高的图像,所述填充图像是所述虚拟视角图像中除所述基础图像外的其它图像,所述虚拟视角图像是利用所述采集的图像数据在所述目标视角下合成的图像,所述基础图像是基于所述预设范围内距离所述目标视角最近的真实视角采集的图像数据合成的;
填充模块,用于以最小化所述基础图像中的无效区域为目标,利用所述填充图像中的像素值对所述无效区域进行填充,将填充后的所述基础图像作为从所述目标视角采集的图像,所述无效区域为无像素值的区域。
7.根据权利要求6所述的装置,其特征在于,所述合成模块包括:
第一转换子模块,用于针对所述采集的图像数据中的每一帧真实图像,将各个像素点在真实视角的图像坐标系下的坐标转换为在真实视角的相机坐标系下的坐标;
第二转换子模块,用于将在真实视角的相机坐标系下的坐标转换为在世界坐标系下的坐标;
第三转换子模块,用于将在世界坐标系下的坐标转换为在所述目标视角的相机坐标系下的坐标;
第四转换子模块,用于将在所述目标视角的相机坐标系下的坐标转换为在所述目标视角的图像坐标系下的坐标;
第一获得子模块,用于根据坐标转换后得到的多帧图像获得所述目标视角的基础图像和填充图像,一帧所述真实图像用于得到一帧坐标转换后的图像。
8.一种终端设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1至5任一所述的图像处理方法中的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至5中任一所述的图像处理方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110974605.0A CN113538317B (zh) | 2021-08-24 | 2021-08-24 | 图像处理方法、装置、终端设备以及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110974605.0A CN113538317B (zh) | 2021-08-24 | 2021-08-24 | 图像处理方法、装置、终端设备以及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113538317A CN113538317A (zh) | 2021-10-22 |
CN113538317B true CN113538317B (zh) | 2023-12-15 |
Family
ID=78091980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110974605.0A Active CN113538317B (zh) | 2021-08-24 | 2021-08-24 | 图像处理方法、装置、终端设备以及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113538317B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102892021A (zh) * | 2012-10-15 | 2013-01-23 | 浙江大学 | 一种合成虚拟视点图像的新方法 |
CN103414909A (zh) * | 2013-08-07 | 2013-11-27 | 电子科技大学 | 一种应用于三维视频虚拟视点合成的空洞填补方法 |
EP2884745A1 (en) * | 2013-12-16 | 2015-06-17 | Huawei Technologies Co., Ltd. | Virtual view generating method and apparatus |
CN106162137A (zh) * | 2016-06-30 | 2016-11-23 | 北京大学 | 虚拟视点合成方法及装置 |
CN107437234A (zh) * | 2017-06-06 | 2017-12-05 | 深圳天珑无线科技有限公司 | 一种图像合成方法、智能终端及装置 |
CN108647638A (zh) * | 2018-05-09 | 2018-10-12 | 东软集团股份有限公司 | 一种车辆位置检测方法及装置 |
CN112102199A (zh) * | 2020-09-18 | 2020-12-18 | 贝壳技术有限公司 | 深度图像的空洞区域填充方法、装置和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11276142B2 (en) * | 2019-06-27 | 2022-03-15 | Electronics And Telecommunications Research Institute | Apparatus and method for synthesizing virtual viewpoint images |
-
2021
- 2021-08-24 CN CN202110974605.0A patent/CN113538317B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102892021A (zh) * | 2012-10-15 | 2013-01-23 | 浙江大学 | 一种合成虚拟视点图像的新方法 |
CN103414909A (zh) * | 2013-08-07 | 2013-11-27 | 电子科技大学 | 一种应用于三维视频虚拟视点合成的空洞填补方法 |
EP2884745A1 (en) * | 2013-12-16 | 2015-06-17 | Huawei Technologies Co., Ltd. | Virtual view generating method and apparatus |
CN106162137A (zh) * | 2016-06-30 | 2016-11-23 | 北京大学 | 虚拟视点合成方法及装置 |
CN107437234A (zh) * | 2017-06-06 | 2017-12-05 | 深圳天珑无线科技有限公司 | 一种图像合成方法、智能终端及装置 |
CN108647638A (zh) * | 2018-05-09 | 2018-10-12 | 东软集团股份有限公司 | 一种车辆位置检测方法及装置 |
CN112102199A (zh) * | 2020-09-18 | 2020-12-18 | 贝壳技术有限公司 | 深度图像的空洞区域填充方法、装置和系统 |
Non-Patent Citations (2)
Title |
---|
"3D视频中的虚拟视点合成方法研究";Sida Peng.et al;《arXiv:2012.15838v2》;全文 * |
"Neural Body: Implicit Neural Representations with Structured Latent Codes for Novel View Synthesis of Dynamic Humans";周雪梅等;《万方》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113538317A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110717942B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
US9946955B2 (en) | Image registration method | |
JP6513234B2 (ja) | Ledディスプレイに用いられる画像処理方法及び装置 | |
WO2021115136A1 (zh) | 视频图像的防抖方法、装置、电子设备和存储介质 | |
US9460516B2 (en) | Method and image processing apparatus for generating a depth map | |
JP6308748B2 (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
CN106570907B (zh) | 一种相机标定方法及装置 | |
KR101991754B1 (ko) | 이미지 처리 방법 및 장치, 그리고 전자 기기 | |
US20220182595A1 (en) | Optical flow based omnidirectional stereo video processing method | |
CN111866523A (zh) | 全景视频合成方法、装置、电子设备和计算机存储介质 | |
CN110660034A (zh) | 图像校正方法、装置及电子设备 | |
CN113538317B (zh) | 图像处理方法、装置、终端设备以及可读存储介质 | |
CN113538316B (zh) | 图像处理方法、装置、终端设备以及可读存储介质 | |
CN113538318B (zh) | 图像处理方法、装置、终端设备以及可读存储介质 | |
US20110050873A1 (en) | Display Masks for Display and Calibration in Projector-Based Display Systems | |
JP5931062B2 (ja) | 立体画像処理装置、立体画像処理方法、及びプログラム | |
KR20180131743A (ko) | Sift 플로우를 이용한 광각영상의 스테레오 정합 방법 및 장치 | |
CN111353945B (zh) | 鱼眼图像校正方法、装置及存储介质 | |
US8718330B2 (en) | Distance acquisition device, lens correcting system and method applying the distance acquisition device | |
US9380285B2 (en) | Stereo image processing method, stereo image processing device and display device | |
CN112150355B (zh) | 一种图像处理方法及相关设备 | |
CN110738617A (zh) | 相机环形阵列的图像矫正方法、系统及介质 | |
CN113837978B (zh) | 图像合成方法、装置、终端设备以及可读存储介质 | |
CN113837979B (zh) | 直播图像合成方法、装置、终端设备以及可读存储介质 | |
JP6579934B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |