WO2018107910A1 - 一种全景视频融合方法及装置 - Google Patents

一种全景视频融合方法及装置 Download PDF

Info

Publication number
WO2018107910A1
WO2018107910A1 PCT/CN2017/107988 CN2017107988W WO2018107910A1 WO 2018107910 A1 WO2018107910 A1 WO 2018107910A1 CN 2017107988 W CN2017107988 W CN 2017107988W WO 2018107910 A1 WO2018107910 A1 WO 2018107910A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
panoramic video
moving target
video image
cuboid
Prior art date
Application number
PCT/CN2017/107988
Other languages
English (en)
French (fr)
Inventor
张欣
林耀冬
陈杰
Original Assignee
杭州海康威视数字技术股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 杭州海康威视数字技术股份有限公司 filed Critical 杭州海康威视数字技术股份有限公司
Priority to EP17880174.2A priority Critical patent/EP3557522A4/en
Priority to US16/469,747 priority patent/US10991072B2/en
Publication of WO2018107910A1 publication Critical patent/WO2018107910A1/zh

Links

Images

Classifications

    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/14
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

一种全景视频融合方法及装置,用以解决采用拼接方式形成的全景视频图像中全景视频图像不完整的问题。该方法包括:获取全景视频图像(21);从至少两个长方体三维图像中提取运动目标(22);对全景视频图像和运动目标进行图像融合处理,形成融合有运动目标的全景视频图像(23)。该方法避免了采用长方体三维模型生成的全景视频图像中运动目标全部或部分消失以及重叠等问题,保证了全景视频图像的完整性,提升了全景视频图像的品质。

Description

一种全景视频融合方法及装置
本申请要求于2016年12月16日提交中国专利局、申请号为201611176064.2、发明名称为“一种全景视频融合方法及装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及图像处理技术领域,尤其涉及一种全景视频融合方法及装置。
背景技术
随着图像处理技术的快速发展,全景视频越来越多地应用在各个领域。全景视频图像是利用摄像头从不同角度对预设场景进行拍摄,之后将拍摄得到的视频图像进行拼接,形成该预设场景的全景视频图像。全景视频图像可以让观赏者通过一幅视频图像方便地浏览该预设场景的全部角度的场景。
由于将多个视频图像拼接生成全景视频图像,需要利用长方体三维模型先将多个视频图像转化为多个长方体三维图像,在拼接这些长方体三维图像时,相邻长方体三维图像的拼接贴合面会被裁减掉,因此,拼接贴合面上的图像也会被裁减掉。这样,融合后的全景视频图像中,运动目标移动到拼接贴合面时的图像被裁减掉了,进而导致运动目标在经过拼接处时或者到达拼接处附近时消失。
具体地,参照图1所示,为相关技术中运动目标显示异常的简单示意图;该图1中,简单示出具有一定高度的人形作为运动目标,该运动目标由左至右在预设场景(该预设场景包含鱼眼1号和鱼眼2号分别所在的两个局部空间)中行走,当运动目标行走至A点,鱼眼1号和鱼眼2号分别采集相应的视频图像,虚线表示从各自鱼眼摄像头所在位置获取运动目标的采集视线的边界,此时通过进一步分析可知,在鱼眼1号的采集视线中,运动目标的投影均位于地板上,如图中黑色粗线段表示;在鱼眼2号的采集视线中,运动目标的投影均位于拼接墙上,如图中黑色粗线段表示。当运动目标行走至B点时,在鱼眼1号的采集视线中,运动目标的投影部分位于地板上,部分位于拼接处,如图中黑色粗线段表示;在鱼眼2号的采集视线中,运动目标的投影位于拼接处,如图中黑色粗线段表示。由此可知,在将两个局部空间的视频图像进行拼接时,拼接处的视频图像会被剪裁掉,从而导致位于预设拼 接区域的运动目标消失,使得生成的全景视频图像不完整。
发明内容
本申请实施例提供一种全景视频融合方法,用以解决采用拼接方式形成的全景视频图像中全景视频图像不完整的问题。
本申请实施例还提供一种全景视频融合装置,用以解决采用拼接方式形成的全景视频图像中全景视频图像不完整的问题。
本申请实施例采用下述技术方案:
一种全景视频融合方法,包括:
获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
从所述至少两个长方体三维图像中提取运动目标;
对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
通过上述技术方案,针对采用长方体三维模型生成的全景视频图像,从生成全景视频图像时采用的长方体三维图像中提取运动目标,之后,将该运动目标融合到全景视频图像中,从而,避免了由于采用长方体三维模型生成的全景视频图像而导致运动目标显示异常的问题,保证了全景视频图像的画面完整性。
可选地,从所述至少两个长方体三维图像中提取运动目标,具体包括:
当检测到所述全景视频图像中有运动目标在拼接区域显示异常时,从所述至少两个长方体三维图像中提取所述运动目标。
应用该方案可以针对性地提取存在异常的运动目标,而不对正常显示的运动目标进行额外处理,提升了提取的效率及准确性,且降低了提取的繁琐性。
可选地,从所述至少两个长方体三维图像中提取运动目标,具体包括:
从拼接区域对应的长方体三维图像中确定对象图像;
确定所述对象图像中运动前景图像对应的像素点;
根据确定的所述像素点识别运动目标的轮廓;
获取所述运动目标的轮廓所对应图像区域的掩码信息;
根据所述掩码信息提取所述运动目标。
应用上述技术方案,可保证提取的运动目标的准确性。
可选地,从拼接区域对应的长方体三维图像中确定对象图像,具体包括:
确定运动目标所在的拼接区域所属的长方体三维图像;
将确定出的所述长方体三维图像的地面图像作为对象图像。
通过上述技术方案,可保证提取的运动目标的完整性。
可选地,确定所述对象图像中运动前景图像对应的像素点,具体包括:
采用高斯背景建模算法对选取的对象图像中的每一像素点进行高斯背景模型检测,确定运动前景图像对应的像素点。
采用高斯背景建模算法,能够实时且稳定地对所选取的对象图像进行检测,提升获取运动目标的准确性。
可选地,对所述全景视频图像和所述运动目标进行图像融合处理,具体包括:
将所述运动目标插入所述全景视频图像的待融合区域;
采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值;
根据所述确定的像素点的颜色值对所述待融合区域进行图像重构。
应用上述技术方案,能够保证运动目标较佳地融合到全景视频图像中。
可选地,采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值,具体包括:
确定所述插入有运动目标的全景视频图像的颜色值的散度;以及,
根据所述全景视频图像的待融合区域的边界约束条件生成稀疏矩阵;
构建以下泊松方程:
Ax=B               (1)
其中,所述A为稀疏矩阵,所述B为插入有运动目标的全景视频图像的颜色值的散度,所述x为待求解的像素点的颜色值;
求解所述泊松方程,确定融合区域中像素点的颜色值。
应用该技术方案,能够确保运动目标融合到全景视频图像之后,融合区域与其他区域实现自然无缝的融合效果。
一种全景视频融合装置,包括:
获取单元,用于获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
提取单元,用于从所述至少两个长方体三维图像中提取运动目标;
融合单元,用于对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
通过上述技术方案,针对采用长方体三维模型生成的全景视频图像,从生成全景视频图像时采用的长方体三维图像中提取运动目标,之后,将该运动目标融合到全景视频图像中,从而,避免了由于采用长方体三维模型生成的全景视频图像而导致运动目标显示异常的问题,保证了全景视频图像的画面完整性。
可选地,所述提取单元,具体用于:
在检测到所述全景视频图像中有运动目标在拼接区域显示异常时,从所述拼接区域对应的长方体三维图像中提取所述运动目标。
应用该方案可以针对性地提取存在异常的运动目标,而不对正常显示的运动目标进行额外处理,提升了提取的效率及准确性,且降低了提取的繁琐性。
可选地,所述提取单元,具体用于:
从拼接区域对应的长方体三维图像中确定对象图像;
确定所述对象图像中运动前景图像对应的像素点;
根据确定的所述像素点识别运动目标的轮廓;
获取所述运动目标的轮廓所对应图像区域的掩码信息;
根据所述掩码信息提取所述运动目标。
应用上述技术方案,可保证提取的运动目标的准确性。
可选地,所述提取单元在从拼接区域对应的长方体三维图像中确定对象图像时,具体用于:
确定运动目标所在的拼接区域所属的长方体三维图像;
将确定出的所述长方体三维图像的地面图像作为对象图像。
应用上述技术方案,可保证提取的运动目标的完整性。
可选地,所述提取单元在确定所述对象图像中运动前景图像对应的像素点时,具体用于:
采用高斯背景建模算法对选取的对象图像中的每一像素点进行高斯背景模型检测,确定运动前景图像对应的像素点。
采用高斯背景建模算法,能够实时且稳定地对所选取的对象图像进行检 测,提升获取运动目标的准确性。
可选地,所述融合单元,具体用于:
将所述运动目标插入所述全景视频图像的待融合区域;
采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值;
根据所述确定的像素点的颜色值对所述待融合区域进行图像重构。
应用上述技术方案,能够保证运动目标较佳地融合到全景视频图像中。
可选地,所述融合单元在采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值时,具体用于:
确定所述插入有运动目标的全景视频图像的颜色值的散度;以及,
根据所述全景视频图像的待融合区域的边界约束条件生成稀疏矩阵;
构建以下泊松方程:
Ax=B               (1)
其中,所述A为稀疏矩阵,所述B为插入有运动目标的全景视频图像的颜色值的散度,所述x为待求解的像素点的颜色值;
求解所述泊松方程,确定融合区域中像素点的颜色值。
应用该技术方案,能够确保运动目标融合到全景视频图像之后,融合区域与其他区域实现自然无缝的融合效果。
本申请实施例还提供了一种电子设备,适用于全景视频融合,所述电子设备包括:处理器、存储器;所述存储器,用于存储可执行代码;所述处理器,通过读取存储器中存储的可执行代码,以用于执行以下步骤:
获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
从所述至少两个长方体三维图像中提取运动目标;
对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
本申请实施例还提供了一种存储介质,用于存储可执行代码,所述可执行代码在运行时用于执行本申请实施例任一项所述的全景视频融合方法。其中,该全景视频融合方法包括:
获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维 图像拼接形成;
从所述至少两个长方体三维图像中提取运动目标;
对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
本申请实施例还提供了一种全景视频融合系统,包括至少两个全景摄像头,以及图像处理器,其中:
所述至少两个全景摄像头,用于分别采集预设场景中各局部空间的二维图像;
所述图像处理器,用于针对每个局部空间,根据该局部空间的二维图像和该局部空间对应的长方体三维模型,确定该局部空间的长方体三维图像;
根据至少两个长方体三维图像拼接形成全景视频图像;
从所述至少两个长方体三维图像中提取运动目标;
对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
应用上述技术方案,针对采用长方体三维模型生成的全景视频图像,从生成全景视频图像时采用的长方体三维图像中提取运动目标,之后,将该运动目标融合到全景视频图像中,从而,避免了由于采用长方体三维模型生成的全景视频图像而导致运动目标显示异常的问题,保证了全景视频图像的画面完整性。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为相关技术中运动目标显示异常的简单示意图;
图2为本申请实施例1提供的一种全景视频融合方法的步骤示意图;
图3为本申请实施例1中所涉及的全景视频图像的生成方法步骤示意图;
图4(a)为本申请实施例1提供的一种空间结构不规则的预设场景的平面俯视图;
图4(b)为本申请实施例1提供的对图4(a)所示的预设场景划分后的平面俯视图;
图4(c)为本申请实施例1提供的图4(b)所示的预设场景中各局部空 间对应的长方体三维模型的平面俯视图;
图4(d)为本申请实施例提供的图4(c)所示的三个鱼眼摄像头分别采集的三个局部空间的二维图像;
图4(e)为本申请实施例1提供的一种鱼眼摄像头的投影模型示意图;
图4(f)为本申请实施例1提供的基于图4(d)所示的二维图像分别对应生成的长方体三维图像的效果图;
图4(g)为本申请实施例1提供的将各长方体三维图像直接进行拼接后生成的预设场景的全景视频图像的三维效果图;
图5为本申请实施例1中从长方体三维图像中提取运动目标的方法步骤示意图;
图6为本申请实施例1中根据确定的像素点识别运动目标的轮廓的示意图;
图7为本申请实施例2提供的泊松融合方法的步骤示意图;
图8为本申请实施例3提供的一种全景视频融合装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整的描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
实施例1
需要说明的是,实施例1所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。其中,该设备可以为任何具备图像处理功能的设备,如电子计算机、图像处理设备等;也可以是视频监控系统的控制设备。
如图2所示,为本申请实施例1提供的一种全景视频融合方法的步骤示意图,该方法主要包括以下步骤:
步骤21:获取全景视频图像。
其中,该步骤中所涉及的全景视频图像可以根据设置于预设场景不同位 置处的至少两个全景摄像头分别对应的长方体三维图像拼接形成。全景摄像头可以是具有超大视场角,能够以大范围无盲角的方式对特定空间进行拍摄的摄像头,例如可以是鱼眼摄像头。为了描述的方便,本申请实施例以鱼眼摄像头为例展开解释,这并不构成对本申请的限制。
具体地,全景视频图像可以通过以下方式生成,参照图3所示的步骤流程图:
步骤31:获取各全景摄像头分别采集的预设场景中各局部空间的二维图像。
在本申请实施例中,预设场景可以是不规则的,例如,预设场景中可以存在较多的墙面以及拐角,致使该预设场景的视野并不开阔,利用多视角拍摄或单个全景摄像头拍摄并不能采集到该预设场景的全景。
参照图4(a)所示,为本申请实施例1提供的一种空间结构不规则的预设场景的平面俯视图。该预设场景的边界不规则,存在较多遮挡视野的墙面以及拐角,该预设场景大致呈“L”形。
在执行步骤31之前,可以由工作人员预先完成一些准备工作,包括对预设场景中尺寸参数的测量,对预设场景中各局部空间的划分,在各局部空间内安装单个鱼眼摄像头,以及建立各局部空间的预设长方体三维模型,或者,上述准备工作也可以基于机器视觉和智能算法依照预先设定的测量规则、划分规则和模型建立规则实现。
以图4(a)所示的预设场景为例,根据预设场景的空间结构,预先将预设场景划分为若干局部空间。其中,划分的标准是,每个局部空间的视野是开阔的且不大于鱼眼摄像头的可视域,以保证安装于该局部空间中的单个鱼眼摄像头的拍摄范围没有死角。基于此标准,划分局部空间的方式可以有多种,本申请对此不作限制。值得强调的是,划分好的各局部空间之间可以有重合的部分,也可以没有重合部分。图4(b)是本申请实施例提供的对图4(a)所示的预设场景划分后的平面俯视图。如图4(b)所示,将预设场景划分为三个局部空间,分别以不同的划分线定义出局部空间一至局部空间三,其中,局部空间一对应短虚线的划分线,局部空间二对应点虚线的划分线,局部空间三对应长虚线的划分线,三个局部空间之间有重合部分。
划分局部空间完毕后,根据各局部空间的结构,分别确定各局部空间对应的预设长方体三维模型。其中,各预设长方体三维模型的上表面的中心位 置可以是安装于对应的各局部空间内的鱼眼摄像头的位置,预设长方体三维模型可以是能够完全包裹对应局部空间的长方体,尤其可以是对应局部空间的最小外接长方体。图4(c)是本申请实施例1提供的图4(b)所示的预设场景中各局部空间对应的长方体三维模型的平面俯视图。如图4(c)所示,黑色大圆点代表鱼眼摄像头,三个预设长方体三维模型的边界分别用不同的线条表示,对应关系同图4(b)。
作为另一种实施方式,各预设长方体三维模型在水平方向上的中截面的中心,可以是安装于对应的各局部空间内的鱼眼摄像头的位置,该预设长方体三维模型可以是能够完全包裹对应的局部空间的长方体。该预设长方体三维模型与图4(e)所示投影模型相对应。
在本申请实施例中,各鱼眼摄像头分别采集到的各局部空间的原始二维图像是呈圆形的平面二维图像。图4(d)是本申请实施例提供的图4(c)所示的三个鱼眼摄像头分别采集的三个局部空间的二维图像。
步骤32:针对每个局部空间,根据该局部空间的二维图像和该局部空间对应的长方体三维模型,确定该局部空间的长方体三维图像。
在本申请实施例中,可以根据该局部空间的二维图像上的特定数量的像素点,分别确定特定数量的像素点中的每个像素点在该局部空间对应的长方体三维模型投影得到的各投影像素点;再根据确定出的各投影像素点,确定该局部空间的长方体三维图像。
在本申请实施例中,特定数量可以是二维图像中的所有像素点,也可以是二维图像中的部分像素点。具体地,该局部空间的二维图像上的部分像素点具体可以是:在二维图像的各像素点中,按各像素点的排列顺序以一定间隔抽取的部分像素点。抽取部分像素点的方式可以有多种,只要抽取出的部分像素点组成的低分辨率二维图像能在一定程度上保留二维图像的主要信息即可。
由于鱼眼摄像头的投影原理,可以将鱼眼摄像头的可视域视为一个半球球面,将采集到的二维图像视为该半球球面向自身正下方投影得到的平面图像。图4(e)是本申请实施例提供的一种鱼眼摄像头的投影模型示意图。如图4(e)所示,该局部空间对应的长方体三维模型的外接球面的球心可视为鱼眼摄像头所安装的位置,所述预设长方体三维模型在水平方向上、包含球心的中截面可视为该局部空间的上表面,所述预设长方体三维模型的下半部 分可视为该局部空间,所述外接球面的下半球面可视为鱼眼摄像头的可视域,那么,鱼眼摄像头的可视域向自身正下方投影得到的平面图像,就是所述原始二维图像,其中,点1是该局部空间的预设长方体三维模型下表面上的投影像素点,点2是与点1对应的,投影到球面上的球面像素点,点3是点2在垂直方向上投影到平面上的原始像素点。
具体地,本申请实施例提供了一种根据该局部空间的二维图像上的各像素点,分别确定各像素点在该局部空间对应的长方体三维模型上投影得到的各投影像素点的方式,即:确定该局部空间对应的长方体三维模型的外接球面,外接球面的半径不大于全景摄像头的可视距离,该局部空间的二维图像位于该局部空间对应的长方体三维模型的正下方;针对该局部空间的二维图像上的每个像素点,在垂直于二维图像所在平面的方向上,确定该像素点在外接球面上的投影作为球面像素点;确定外接球面的球心与该球面像素点的连线;将该连线与该局部空间对应的长方体三维模型的面的交点作为该像素点在该局部空间对应的长方体三维模型上投影得到的投影像素点;将该像素点的像素值(即颜色值)作为该像素点对应的投影像素点的像素值。
在本申请实施例中,确定出各像素点在该局部空间对应的长方体三维模型上投影得到的各投影像素点后,对该局部空间对应的长方体三维模型进行着色,将着色后的该局部空间的长方体三维模型作为该局部空间的长方体三维图像。图4(f)是本申请实施例提供的基于图4(d)所示的二维图像分别对应生成的长方体三维图像的效果图。
步骤33:根据确定出的各局部空间的长方体三维图像,生成该预设场景的全景视频图像。
在本申请实施例中,可以根据各局部空间分别对应的各预设长方体三维模型的相对位置,放置各长方体三维图像,然后对各长方体三维图像之间的拼接处进行几何调整,直至相邻长方体三维图像之间完全衔接,得到的便是预设场景的全景视频图像,参见图4(g)所示,为本申请实施例提供的将各长方体三维图像直接进行拼接后生成的预设场景的全景视频图像的三维效果图。
其实,在本申请实施例中,针对该步骤21的执行主体而言,其获取全景视频图像的方式可以采用但不限于以下两种:
方式一:接收已经由其他设备按照上述步骤31-步骤33的方式生成的全 景视频图像。
方式二:根据上述步骤31-步骤33的方案由自身生成全景视频图像。
然而,无论通过何种方式获取全景视频图像,针对确定出的全景视频图像,由于仅采用长方体三维模型的拼接处理,因此,都会存在相关技术中的全景视频图像不完整的问题。
为了能够解决上述拼接方案所带来的位于拼接区域的运动目标显示异常的问题,可以从所涉及的至少两个长方体三维图像中提取该运动目标,然后,将该运动目标融合到生成的全景视频图像中,以保证全景视频图像的完整性。
其中,该拼接区域可在生成全景视频图像之后进行确定。具体地,该拼接区域的一边界为拼接处,另一边界为预设准线。针对其中的任一长方体三维图像,可在生成全景视频图像之后,确定在长方体三维图像中的拼接处的位置。同时,根据运动目标的高度以及鱼眼摄像头的采集角度确定预设准线的位置。从而,确定该拼接区域。
步骤22:从至少两个长方体三维图像中提取运动目标。
具体地,在本步骤22中,可以从拼接形成全景视频图像的长方体三维图像中提取出所有的运动目标,然后,通过图像融合方法将运动目标进行融合处理。
可选地,为了能够避免对所有运动目标进行提取操作而存在的繁琐性,可以在检测到全景视频图像中有运动目标在拼接区域显示异常时,从至少两个长方体三维图像中提取运动目标。从而,可以针对性地提取存在异常的运动目标,而不对正常显示的运动目标进行额外处理,一方面提升了提取的效率及准确性,另一方面,降低了提取的繁琐性。
其中,运动目标在拼接区域显示异常,可以指运动目标在拼接区域全部或部分消失,或者出现重影显示等非正常显示的状况。
具体地,在本申请中,可以通过图像对比的方式,将确定的全景视频图像与拼接时所使用的所有长方体三维图像进行比对,若两者不匹配,则确定检测到全景视频图像中有运动目标显示异常,进而,可以从相应的长方体三维图像中提取运动目标。
进一步,参照图5所示,从长方体三维图像中提取运动目标可具体采用以下步骤实现:
步骤401:从拼接区域对应的长方体三维图像中确定对象图像。
为了确保提取到的运动目标的完整性,可以事先确定好提取运动目标所使用的对象图像的准确性,即不仅要保证该对象图像中包含有完整运动目标;而且,还要保证提取的运动目标位于拼接区域,避免额外提取已经存在的运动目标。因而,该步骤401可具体采用以下步骤执行:
第一步,确定运动目标所在的拼接区域所属的长方体三维图像。
在本步骤中,为了减少处理复杂度,避免对所有的长方体三维图像进行运动目标的提取,该步骤将处理对象限定为运动目标所在的拼接区域所属的长方体三维图像,从而,保证提取运动目标的准确性。
第二步,将确定出的长方体三维图像的地面图像作为对象图像。
其实,在本申请方案中,考虑到针对的预设场景主要为室内场景。因此,当有运动目标存在时,一般情况下都是以行走在地面上的人或动物作为运动目标。此时,可以长方体三维图像中的地面图像作为对象图像,若除了行走在地面的运动目标以外,还考虑飞行的运动目标,例如在室内场景中飞行的模型飞机等,则可以整个长方体三维图像作为对象图像。
步骤402:确定对象图像中运动前景图像对应的像素点。
在该步骤402中,确定运动前景的方式有多种,可采用帧差、运动竞争、背景减除等方式,以准确识别出运动前景。其中,本申请以高斯背景建模算法进行运动前景的提取。
首先,介绍高斯背景建模算法,该算法主要是根据对当前确定的背景图像(即本申请中对象图像)进行的背景估计,把对背景图像的运动目标检测问题转化为一个二分类问题,将所有属于该背景图像的像素点划分为固定背景和运动前景两类,进而对分类结果进行处理,得到最终检测结果。
下面,详述本申请采用高斯背景建模算法检测出运动前景的方案,步骤402可具体执行为:
采用高斯背景建模算法对选取的对象图像中的每一像素点进行高斯背景模型检测,确定运动前景图像对应的像素点。
在高斯背景模型的建立过程中,将选取的对象图像中的每一个像素点的颜色值作为一个随机函数P,假设该像素点的颜色值出现的概率服从高斯分布,令I(x,y,t)表示像素点(x,y)在t时刻的颜色值,根据高斯背景建模算法可得到针对任一像素点(x,y)的概率密度函数:
Figure PCTCN2017107988-appb-000001
其中,ut和σt分别为t时刻该像素点(x,y)的高斯分布的期望值和标准差,P(I)表示该像素点的颜色值。
具体而言,对于t时刻的颜色值I(x,y,t),可以按照下面的公式(3)来检测运动前景图像和固定背景图像:
Figure PCTCN2017107988-appb-000002
其中,当|I(x,y,t)-ut-1(x,y)|<λ*σt-1(x,y)时,颜色值I(x,y,t)取值均为0,表示检测出的像素点均为固定背景图像的像素点;当|I(x,y,t)-ut-1(x,y)|≥λ*σt-1(x,y)时,颜色值I(x,y,t)取值均为1,表示检测出的像素点均为运动前景图像的像素点,ut-1和σt-1分别为t-1时刻该像素点(x,y)的高斯分布的期望值和标准差。
至此,可以通过上述方式确定出所需的运动前景图像对应的像素点。而且,通过高斯背景建模算法对对象图像的运动前景以及固定背景进行检测时,由于其在背景估计过程中与时间有联系,因此,高斯背景建模算法具有较高的实时性以及稳定性,这能够提升检测准确性。
步骤403:根据确定的像素点识别运动目标的轮廓。
其实,在确定处运动前景图像对应的像素点之后,可根据这些像素点从对象图像中识别出运动目标的轮廓。所谓运动目标,在本申请实施例中,实际为在预设场景中移动的物体,包括:行走或跑动的人、动物等,以及移动的椅子、飞机等其他非生物体。参照图6所示,假设对象图像中的运动目标为一行走的人,那么根据上述高斯背景建模算法确定出运动前景的像素点,然后利用这些像素点识别出人的轮廓,以保证后续获取的运动目标的完整性。
步骤404:获取运动目标的轮廓所对应图像区域的掩码信息。
由于高斯背景建模算法只是一种背景估计,根据像素点识别出的包含运动目标的轮廓,并不一定是所需的运动目标本身的轮廓。因此,需要获取确定的运动目标的轮廓所对应图像区域的掩码信息。其中,掩码信息可以是人为设定的二值图像的信息,指图像上的每一个像素存在的两种可能的取值或灰度等级状态,并且人们经常用黑白、B&W、单色图像表示二值图像。本申请中由于使用了高斯背景建模算法,因此,可以基于上述确定的0或1的二 分值来表示运动目标的掩码信息。
步骤405:根据掩码信息提取运动目标。
具体地,可以根据运动目标的轮廓所对应图像区域的掩码信息,从中提取所需的运动目标。例如,若运动目标的掩码值为1,则从掩码信息中提取掩码值1所对应的像素点作为运动目标。其实,在具体的提取过程中,也会使用到像素点的位置以及该像素点的颜色值等信息。
步骤23:对全景视频图像和运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
具体地,将提取出的运动目标融合到全景视频图像的相应位置处,可以完整展现实际的预设场景的情形,避免在拼接处或拼接处附近出现运动目标显示异常的状况,提升全景视频图像的准确性和完整性。
由此,通过本申请技术方案,针对采用长方体三维模型生成的全景视频图像,从生成全景视频图像时采用的长方体三维图像中提取位于拼接区域的运动目标,之后,将该运动目标融合到全景视频图像中,从而,避免了由于采用长方体三维模型生成的全景视频图像而导致运动目标在拼接处或拼接处附近显示异常的问题,保证了全景视频图像的画面完整性。尤其是在本实施例1中,采用了高斯背景建模算法,能够实时且稳定地对所选取的对象图像进行检测,提升获取运动目标的准确性。
实施例2
基于上述实施例1提供的全景视频融合方法,在将提取出的运动目标融合到全景视频图像中时,运动目标与全景视频图像的待融合区域的边界可能出现灰度融合不均匀的情况。为解决此问题,本申请实施例2提供了一种对全景视频图像和运动目标进行图像融合处理的方案,参照图7所示,为本申请实施例2提供的泊松融合方法的步骤示意图,该方法主要包括:
步骤51:将运动目标插入全景视频图像的待融合区域。
具体地,将通过实施例1中的方案提取出的运动目标采用插值算法插入全景视频图像的待融合区域,使得待融合区域呈现运动目标。
步骤52:采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值。
在本步骤52中,确定插入有运动目标的全景视频图像的颜色值的散度; 以及,根据全景视频图像的待融合区域的边界约束条件生成稀疏矩阵;需要说明的是,计算散度以及稀疏矩阵可以同时进行,也可以不分先后顺序地依次执行。之后,利用计算得到的散度以及稀疏矩阵构建以下泊松方程:
Ax=B              (1)
其中,所述A为稀疏矩阵,所述B为插入有运动目标的全景视频图像的颜色值的散度,所述x为待求解的像素点的颜色值;
求解上述泊松方程,确定融合区域中像素点的颜色值。
其实,在该步骤中所涉及的稀疏矩阵以及插入有运动目标的全景视频图像的颜色值的散度值可以通过以下方式得到:
插入有运动目标的全景视频图像的颜色值的散度的确定:计算运动目标对应的视频图像的梯度场,计算在拼接处有图像显示异常的全景视频图像的梯度场,计算插入有运动目标的全景视频图像的梯度场,然后对插入有运动目标的全景视频图像的梯度求偏导,确定出插入有运动目标的全景视频图像的散度值。
稀疏矩阵的确定:针对融合区域中每个像素点,对每个像素点求散度值,其中,位于边界处的像素点的散度值通过边界约束条件得到,而边界以外的像素点的散度值通过位于其上、下、左、右的四个像素点的颜色值求和,并与四倍的该像素点的颜色值作差得到。
步骤53:根据确定的像素点的颜色值对融合区域进行图像重构。
在确定出融合区域的各个像素点对应的颜色值后,对融合区域的各像素点进行处理,在该融合区域进行图像重构,即根据确定的像素点的颜色值替换融合区域中各像素点的颜色值,实现图像重构。
采用上述融合方案后,全景视频图像中位于拼接区域的运动目标完整,且在融合边界处的像素点的颜色值较为连续,实现了自然无缝的融合,提升了融合效果,保证了全景视频图像的品质。
通过上述技术方案,针对采用长方体三维模型生成的全景视频图像,从长方体三维模型中提取位于拼接区域的运动目标,之后,将该运动目标融合到全景视频图像中,从而,避免了由于采用长方体三维模型生成的全景视频图像而导致运动目标在拼接处或拼接处附近显示异常的问题,尤其是解决了运动目标显示异常问题,保证了全景视频图像的画面完整性。尤其是采用泊松融合算法对运动目标进行融合处理,由于泊松融合算法充分考虑了运动目 标所对应的图像区域的颜色散度值,且利用了边界条件作为限定,使得确定出的融合区域中各像素点的颜色值与全景视频图像中融合区域以外的区域能够自然无缝地衔接,从而,保证重构后的融合区域的图像与全景视频区域中融合区域以外的区域之间的边界处像素点的颜色值较为连续,实现了自然无缝的融合,提升了融合效果,保证了全景视频图像的品质。
实施例3
与上述实施例1和实施例2属于同一发明构思,本申请还提供了一种全景视频融合装置。如图8所示,该装置主要包括以下功能单元:
获取单元61,用于获取全景视频图像,其中,全景视频图像根据至少两个长方体三维图像拼接形成;
提取单元62,用于从至少两个长方体三维图像中提取运动目标;
融合单元63,用于对全景视频图像和运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
一种可选的实施方式中,为了降低提取的运动目标的繁琐性以及提升提取操作的准确性,提取单元具体用于在检测到全景视频图像中有运动目标在拼接区域显示异常时,从拼接区域对应的长方体三维图像中提取运动目标。
一种可选的实施方式中,为了保证提取的运动目标的准确性,提取单元在从至少两个长方体三维图像中提取运动目标时,具体用于从拼接区域对应的长方体三维图像中确定对象图像,确定对象图像中运动前景图像对应的像素点,根据确定的像素点识别运动目标的轮廓,获取运动目标的轮廓所对应图像区域的掩码信息,根据掩码信息提取运动目标。
一种可选的实施方式中,为了保证提取的运动目标的完整性,提取单元在从长方体三维图像中确定对象图像时,具体用于确定运动目标所在的拼接区域所属的长方体三维图像,将确定出的长方体三维图像的地面图像作为对象图像。
一种可选的实施方式中,为了保证确定出的运动前景图像对应的像素点的准确性,提取单元在确定对象图像中运动前景图像对应的像素点时,具体用于采用高斯背景建模算法对选取的对象图像中的每一像素点进行高斯背景模型检测,确定运动前景图像对应的像素点。
一种可选的实施方式中,为了确保运动目标能够较佳地融合到全景视频 图像中,融合单元可具体用于将运动目标插入全景视频图像的待融合区域,采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值,根据确定的像素点的颜色值对待融合区域进行图像重构。
一种可选的实施方式中,为了确保运动目标融合到全景视频图像之后,融合区域与其他区域能够实现自然无缝的融合效果,融合单元在采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值时,具体用于:确定插入有运动目标的全景视频图像的颜色值的散度;以及,根据全景视频图像的待融合区域的边界约束条件生成稀疏矩阵;构建以下泊松方程:
Ax=B                 (1)
其中,所述A为稀疏矩阵,所述B为插入有运动目标的全景视频图像的颜色值的散度,所述x为待求解的像素点的颜色值;求解所述泊松方程,确定融合区域中像素点的颜色值。
通过上述技术方案,采用全景视频图像融合装置执行上述实施例1或实施例2中的方案,能够有效解决由于采用长方体三维模型生成的全景视频图像中运动目标在拼接处或拼接处附近消失的问题。一方面,采用高斯背景建模算法能够实时且稳定地对所选取的对象图像进行检测,提升获取运动目标的准确性,从而保证全景视频图像的画面完整性。另一方面,采用泊松融合算法对运动目标进行融合处理,使得确定出的融合区域中各像素点的颜色值与全景视频图像中融合区域以外的区域能够自然无缝地衔接,从而,保证重构后的融合区域的图像与全景视频区域中融合区域以外的区域之间的边界处像素点的颜色值较为连续,实现了自然无缝的融合,提升了融合效果,保证全景视频图像的品质。
本申请实施例还提供了一种电子设备,适用于全景视频融合,所述电子设备包括:处理器、存储器;该存储器,用于存储可执行代码;该处理器,通过读取存储器中存储的可执行代码,以用于执行以下步骤:
获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
从所述至少两个长方体三维图像中提取运动目标;
对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运 动目标的全景视频图像。
其中,该电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
应用上述技术方案,针对采用长方体三维模型生成的全景视频图像,从生成全景视频图像时采用的长方体三维图像中提取运动目标,之后,将该运动目标融合到全景视频图像中,从而,避免了由于采用长方体三维模型生成的全景视频图像而导致运动目标显示异常的问题,保证了全景视频图像的画面完整性。
本申请实施例还提供了一种存储介质,用于存储可执行代码,所述可执行代码在运行时用于执行本申请实施例任一项所述的全景视频融合方法。具体的,该全景视频融合方法包括:
获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
从所述至少两个长方体三维图像中提取运动目标;
对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
应用上述技术方案,针对采用长方体三维模型生成的全景视频图像,从生成全景视频图像时采用的长方体三维图像中提取运动目标,之后,将该运 动目标融合到全景视频图像中,从而,避免了由于采用长方体三维模型生成的全景视频图像而导致运动目标显示异常的问题,保证了全景视频图像的画面完整性。
本申请实施例还提供了一种全景视频融合系统,包括至少两个全景摄像头,以及图像处理器,其中:
所述至少两个全景摄像头,用于分别采集预设场景中各局部空间的二维图像;
所述图像处理器,用于针对每个局部空间,根据该局部空间的二维图像和该局部空间对应的长方体三维模型,确定该局部空间的长方体三维图像;
根据至少两个长方体三维图像拼接形成全景视频图像;
从所述至少两个长方体三维图像中提取运动目标;
对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解,可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上, 使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体,这些介质可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (17)

  1. 一种全景视频融合方法,其特征在于,包括:
    获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
    从所述至少两个长方体三维图像中提取运动目标;
    对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
  2. 如权利要求1所述的方法,其特征在于,从所述至少两个长方体三维图像中提取运动目标,具体包括:
    当检测到所述全景视频图像中有运动目标在拼接区域显示异常时,从所述至少两个长方体三维图像中提取所述运动目标。
  3. 如权利要求1所述的方法,其特征在于,从所述至少两个长方体三维图像中提取运动目标,具体包括:
    从拼接区域对应的长方体三维图像中确定对象图像;
    确定所述对象图像中运动前景图像对应的像素点;
    根据确定的所述像素点识别运动目标的轮廓;
    获取所述运动目标的轮廓所对应图像区域的掩码信息;
    根据所述掩码信息提取所述运动目标。
  4. 如权利要求3所述的方法,其特征在于,从拼接区域对应的长方体三维图像中确定对象图像,具体包括:
    确定运动目标所在的拼接区域所属的长方体三维图像;
    将确定出的所述长方体三维图像的地面图像作为对象图像。
  5. 如权利要求3所述的方法,其特征在于,确定所述对象图像中运动前景图像对应的像素点,具体包括:
    采用高斯背景建模算法对选取的对象图像中的每一像素点进行高斯背景模型检测,确定运动前景图像对应的像素点。
  6. 如权利要求1-5任一项所述的方法,其特征在于,对所述全景视频图像和所述运动目标进行图像融合处理,具体包括:
    将所述运动目标插入所述全景视频图像的待融合区域;
    采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值;
    根据所述确定的像素点的颜色值对所述待融合区域进行图像重构。
  7. 如权利要求6所述的方法,其特征在于,采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值,具体包括:
    确定所述插入有运动目标的全景视频图像的颜色值的散度;以及,
    根据所述全景视频图像的待融合区域的边界约束条件生成稀疏矩阵;
    构建以下泊松方程:
    Ax=B          (1)
    其中,所述A为稀疏矩阵,所述B为插入有运动目标的全景视频图像的颜色值的散度,所述x为待求解的像素点的颜色值;
    求解所述泊松方程,确定融合区域中像素点的颜色值。
  8. 一种全景视频融合装置,其特征在于,包括:
    获取单元,用于获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
    提取单元,用于从所述至少两个长方体三维图像中提取运动目标;
    融合单元,用于对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
  9. 如权利要求8所述的装置,其特征在于,所述提取单元,具体用于:
    在检测到所述全景视频图像中有运动目标在拼接区域显示异常时,从所述拼接区域对应的长方体三维图像中提取所述运动目标。
  10. 如权利要求8所述的装置,其特征在于,所述提取单元,具体用于:
    从拼接区域对应的长方体三维图像中确定对象图像;
    确定所述对象图像中运动前景图像对应的像素点;
    根据确定的所述像素点识别运动目标的轮廓;
    获取所述运动目标的轮廓所对应图像区域的掩码信息;
    根据所述掩码信息提取所述运动目标。
  11. 如权利要求10所述的装置,其特征在于,所述提取单元在从拼接区域对应的长方体三维图像中确定对象图像时,具体用于:
    确定运动目标所在的拼接区域所属的长方体三维图像;
    将确定出的所述长方体三维图像的地面图像作为对象图像。
  12. 如权利要求10所述的装置,其特征在于,所述提取单元在确定所述 对象图像中运动前景图像对应的像素点时,具体用于:
    采用高斯背景建模算法对选取的对象图像中的每一像素点进行高斯背景模型检测,确定运动前景图像对应的像素点。
  13. 如权利要求8-12任一项所述的装置,其特征在于,所述融合单元,具体用于:
    将所述运动目标插入所述全景视频图像的待融合区域;
    采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值;
    根据所述确定的像素点的颜色值对所述待融合区域进行图像重构。
  14. 如权利要求13所述的装置,其特征在于,所述融合单元在采用泊松融合算法确定插入有运动目标的全景视频图像的融合区域中像素点的颜色值时,具体用于:
    确定所述插入有运动目标的全景视频图像的颜色值的散度;以及,
    根据所述全景视频图像的待融合区域的边界约束条件生成稀疏矩阵;
    构建以下泊松方程:
    Ax=B          (1)
    其中,所述A为稀疏矩阵,所述B为插入有运动目标的全景视频图像的颜色值的散度,所述x为待求解的像素点的颜色值;
    求解所述泊松方程,确定融合区域中像素点的颜色值。
  15. 一种电子设备,其特征在于,所述电子设备包括:处理器、存储器;所述存储器,用于存储可执行代码;所述处理器,通过读取存储器中存储的可执行代码,以用于执行以下步骤:
    获取全景视频图像,其中,所述全景视频图像根据至少两个长方体三维图像拼接形成;
    从所述至少两个长方体三维图像中提取运动目标;
    对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
  16. 一种存储介质,其特征在于,用于存储可执行代码,所述可执行代码在运行时用于执行权利要求1-7任一项所述的全景视频融合方法。
  17. 一种全景视频融合系统,其特征在于,包括至少两个全景摄像头, 以及图像处理器,其中:
    所述至少两个全景摄像头,用于分别采集预设场景中各局部空间的二维图像;
    所述图像处理器,用于针对每个局部空间,根据该局部空间的二维图像和该局部空间对应的长方体三维模型,确定该局部空间的长方体三维图像;
    根据至少两个长方体三维图像拼接形成全景视频图像;
    从所述至少两个长方体三维图像中提取运动目标;
    对所述全景视频图像和所述运动目标进行图像融合处理,形成融合有运动目标的全景视频图像。
PCT/CN2017/107988 2016-12-16 2017-10-27 一种全景视频融合方法及装置 WO2018107910A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17880174.2A EP3557522A4 (en) 2016-12-16 2017-10-27 METHOD AND DEVICE FOR FUSING PANORAMIC VIDEO IMAGES
US16/469,747 US10991072B2 (en) 2016-12-16 2017-10-27 Method and device for fusing panoramic video images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201611176064.2 2016-12-16
CN201611176064.2A CN108205797B (zh) 2016-12-16 2016-12-16 一种全景视频融合方法及装置

Publications (1)

Publication Number Publication Date
WO2018107910A1 true WO2018107910A1 (zh) 2018-06-21

Family

ID=62557935

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/107988 WO2018107910A1 (zh) 2016-12-16 2017-10-27 一种全景视频融合方法及装置

Country Status (4)

Country Link
US (1) US10991072B2 (zh)
EP (1) EP3557522A4 (zh)
CN (1) CN108205797B (zh)
WO (1) WO2018107910A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108683842A (zh) * 2018-04-25 2018-10-19 深圳岚锋创视网络科技有限公司 一种全景相机及输出全景视频的方法和装置
CN112017222A (zh) * 2020-09-08 2020-12-01 北京正安维视科技股份有限公司 视频全景拼接与三维融合方法及装置
CN112163996A (zh) * 2020-09-10 2021-01-01 沈阳风驰软件股份有限公司 一种基于图像处理的平角视频融合方法
CN112884844A (zh) * 2021-01-13 2021-06-01 深圳市豪恩汽车电子装备股份有限公司 全景影像系统的标定方法、装置及计算机可读存储介质
CN114612613A (zh) * 2022-03-07 2022-06-10 北京拙河科技有限公司 动态光场重建方法及系统
CN116311087A (zh) * 2023-05-23 2023-06-23 深圳市鑫莱达安防技术有限公司 基于摄像机组的监控方法、装置、设备及存储介质
CN116824641A (zh) * 2023-08-29 2023-09-29 卡奥斯工业智能研究院(青岛)有限公司 姿态分类方法、装置、设备和计算机存储介质

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102330264B1 (ko) * 2017-08-04 2021-11-23 삼성전자주식회사 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법
CN108965859B (zh) * 2018-07-09 2020-05-22 歌尔科技有限公司 投影方式识别方法、视频播放方法、装置及电子设备
CN111757146B (zh) * 2019-03-29 2022-11-15 杭州萤石软件有限公司 视频拼接的方法、系统及存储介质
CN111091516B (zh) * 2019-12-24 2021-06-04 广州柏视医疗科技有限公司 一种基于人工智能的抗散射光栅方法及装置
CN111325665A (zh) * 2020-04-07 2020-06-23 同创蓝天投资管理(北京)有限公司 基于网络全景图的视频轻量嵌入方法
CN112055192B (zh) * 2020-08-04 2022-10-11 北京城市网邻信息技术有限公司 图像处理方法、图像处理装置、电子设备及存储介质
CN114143528A (zh) * 2020-09-04 2022-03-04 北京大视景科技有限公司 多视频流融合方法、电子设备、存储介质
CN112085659B (zh) * 2020-09-11 2023-01-06 中德(珠海)人工智能研究院有限公司 一种基于球幕相机的全景拼接融合方法、系统及存储介质
CN112258437A (zh) * 2020-10-22 2021-01-22 广东电网有限责任公司 一种投影图像融合方法、装置、设备和存储介质
CN112200727B (zh) * 2020-11-06 2023-11-21 星宸科技股份有限公司 图像缝合装置、图像处理芯片、及图像缝合方法
CN112257657B (zh) * 2020-11-11 2024-02-27 网易(杭州)网络有限公司 脸部图像融合方法及装置、存储介质、电子设备
CN112488995B (zh) * 2020-11-18 2023-12-12 成都主导软件技术有限公司 列车自动化检修的智能判伤方法及系统
CN112767484B (zh) * 2021-01-25 2023-09-05 脸萌有限公司 定位模型的融合方法、定位方法、电子装置
CN113012302A (zh) * 2021-03-02 2021-06-22 北京爱笔科技有限公司 三维全景图生成方法、装置、计算机设备和存储介质
US11099709B1 (en) 2021-04-13 2021-08-24 Dapper Labs Inc. System and method for creating, managing, and displaying an interactive display for 3D digital collectibles
US11210844B1 (en) 2021-04-13 2021-12-28 Dapper Labs Inc. System and method for creating, managing, and displaying 3D digital collectibles
USD991271S1 (en) 2021-04-30 2023-07-04 Dapper Labs, Inc. Display screen with an animated graphical user interface
US11227010B1 (en) 2021-05-03 2022-01-18 Dapper Labs Inc. System and method for creating, managing, and displaying user owned collections of 3D digital collectibles
US11170582B1 (en) 2021-05-04 2021-11-09 Dapper Labs Inc. System and method for creating, managing, and displaying limited edition, serialized 3D digital collectibles with visual indicators of rarity classifications
US11533467B2 (en) 2021-05-04 2022-12-20 Dapper Labs, Inc. System and method for creating, managing, and displaying 3D digital collectibles with overlay display elements and surrounding structure display elements
CN113344787B (zh) * 2021-06-11 2022-02-01 北京中交华安科技有限公司 最佳缝合线自动调整算法、交通预警方法及系统
CN113360797B (zh) * 2021-06-22 2023-12-15 北京百度网讯科技有限公司 信息处理方法、装置、设备、存储介质及计算机程序产品
CN113610869A (zh) * 2021-08-06 2021-11-05 成都易瞳科技有限公司 基于gis系统的全景监控显示方法
CN115797164B (zh) * 2021-09-09 2023-12-12 同方威视技术股份有限公司 固定视场中的图像拼接方法、装置、系统
US11763497B2 (en) * 2021-10-19 2023-09-19 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for generating simulated datasets for fisheye camera applications
CN115396644B (zh) * 2022-07-21 2023-09-15 贝壳找房(北京)科技有限公司 基于多段外参数据的视频融合方法及装置
CN115293994B (zh) * 2022-09-30 2022-12-16 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备和存储介质
CN115861070A (zh) * 2022-12-14 2023-03-28 湖南凝服信息科技有限公司 一种三维视频融合拼接方法
CN116567166B (zh) * 2023-07-07 2023-10-17 广东省电信规划设计院有限公司 一种视频融合方法、装置、电子设备及存储介质
CN116778170B (zh) * 2023-08-25 2023-11-07 安徽蔚来智驾科技有限公司 点云全景分割方法、控制装置、可读存储介质及车辆
CN117746513B (zh) * 2024-02-19 2024-04-30 成都体育学院 基于视频运动目标检测与融合的运动技术教学方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
CN101577795A (zh) * 2009-06-17 2009-11-11 深圳华为通信技术有限公司 一种实现全景图像的实时预览的方法和装置
CN102426705A (zh) * 2011-09-30 2012-04-25 北京航空航天大学 一种视频场景行为拼接方法
US20120293610A1 (en) * 2011-05-17 2012-11-22 Apple Inc. Intelligent Image Blending for Panoramic Photography
CN104639911A (zh) * 2015-02-09 2015-05-20 浙江宇视科技有限公司 一种全景视频拼接方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2821167B1 (fr) * 2001-02-16 2003-12-05 Immervision Internat Pte Ltd Dispositif support d'appareil photographique
US9317133B2 (en) * 2010-10-08 2016-04-19 Nokia Technologies Oy Method and apparatus for generating augmented reality content
US10848731B2 (en) * 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US9832378B2 (en) * 2013-06-06 2017-11-28 Apple Inc. Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure
US9158985B2 (en) * 2014-03-03 2015-10-13 Xerox Corporation Method and apparatus for processing image of scene of interest
US9563953B2 (en) * 2014-08-28 2017-02-07 Qualcomm Incorporated Systems and methods for determining a seam
WO2016165016A1 (en) * 2015-04-14 2016-10-20 Magor Communications Corporation View synthesis-panorama
CN105046649A (zh) * 2015-06-30 2015-11-11 硅革科技(北京)有限公司 一种去除运动视频中运动物体的全景图拼接方法
US9699380B2 (en) * 2015-11-03 2017-07-04 Intel Corporation Fusion of panoramic background images using color and depth data
US20170243384A1 (en) * 2016-02-19 2017-08-24 Mediatek Inc. Image data processing system and associated methods for processing panorama images and image blending using the same
US10368067B2 (en) * 2016-06-15 2019-07-30 Mediatek Inc. Method and apparatus for selective filtering of cubic-face frames

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
CN101577795A (zh) * 2009-06-17 2009-11-11 深圳华为通信技术有限公司 一种实现全景图像的实时预览的方法和装置
US20120293610A1 (en) * 2011-05-17 2012-11-22 Apple Inc. Intelligent Image Blending for Panoramic Photography
CN102426705A (zh) * 2011-09-30 2012-04-25 北京航空航天大学 一种视频场景行为拼接方法
CN104639911A (zh) * 2015-02-09 2015-05-20 浙江宇视科技有限公司 一种全景视频拼接方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3557522A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108683842B (zh) * 2018-04-25 2021-06-04 影石创新科技股份有限公司 一种全景相机及输出全景视频的方法和装置
CN108683842A (zh) * 2018-04-25 2018-10-19 深圳岚锋创视网络科技有限公司 一种全景相机及输出全景视频的方法和装置
CN112017222A (zh) * 2020-09-08 2020-12-01 北京正安维视科技股份有限公司 视频全景拼接与三维融合方法及装置
CN112163996A (zh) * 2020-09-10 2021-01-01 沈阳风驰软件股份有限公司 一种基于图像处理的平角视频融合方法
CN112163996B (zh) * 2020-09-10 2023-12-05 沈阳风驰软件股份有限公司 一种基于图像处理的平角视频融合方法
CN112884844B (zh) * 2021-01-13 2023-02-03 深圳市豪恩汽车电子装备股份有限公司 全景影像系统的标定方法、装置及计算机可读存储介质
CN112884844A (zh) * 2021-01-13 2021-06-01 深圳市豪恩汽车电子装备股份有限公司 全景影像系统的标定方法、装置及计算机可读存储介质
CN114612613B (zh) * 2022-03-07 2022-11-29 北京拙河科技有限公司 动态光场重建方法及系统
CN114612613A (zh) * 2022-03-07 2022-06-10 北京拙河科技有限公司 动态光场重建方法及系统
CN116311087A (zh) * 2023-05-23 2023-06-23 深圳市鑫莱达安防技术有限公司 基于摄像机组的监控方法、装置、设备及存储介质
CN116311087B (zh) * 2023-05-23 2023-08-08 深圳市鑫莱达安防技术有限公司 基于摄像机组的监控方法、装置、设备及存储介质
CN116824641A (zh) * 2023-08-29 2023-09-29 卡奥斯工业智能研究院(青岛)有限公司 姿态分类方法、装置、设备和计算机存储介质
CN116824641B (zh) * 2023-08-29 2024-01-09 卡奥斯工业智能研究院(青岛)有限公司 姿态分类方法、装置、设备和计算机存储介质

Also Published As

Publication number Publication date
CN108205797A (zh) 2018-06-26
EP3557522A4 (en) 2019-12-04
US10991072B2 (en) 2021-04-27
EP3557522A1 (en) 2019-10-23
US20200090303A1 (en) 2020-03-19
CN108205797B (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
WO2018107910A1 (zh) 一种全景视频融合方法及装置
US8452081B2 (en) Forming 3D models using multiple images
US8447099B2 (en) Forming 3D models using two images
US10846844B1 (en) Collaborative disparity decomposition
US11330172B2 (en) Panoramic image generating method and apparatus
US20140240311A1 (en) Method and device for performing transition between street view images
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
US8463024B1 (en) Combining narrow-baseline and wide-baseline stereo for three-dimensional modeling
CN109035330A (zh) 箱体拟合方法、设备和计算机可读存储介质
US9563959B2 (en) Image processor, lighting processor and method therefor
TW201619910A (zh) 監控系統及其影像處理方法
JP2016537901A (ja) ライトフィールド処理方法
US10438405B2 (en) Detection of planar surfaces for use in scene modeling of a captured scene
EP3998582A1 (en) Three-dimensional model generation method and three-dimensional model generation device
KR101652594B1 (ko) 증강 현실 컨텐츠 제공 장치 및 방법
WO2022237026A1 (zh) 平面信息检测方法及系统
JP6240706B2 (ja) グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
Angladon et al. The toulouse vanishing points dataset
CN114066999A (zh) 基于三维建模的目标定位系统及方法
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
US20180330514A1 (en) Selective 3d registration
CN115880206A (zh) 图像准确度判断方法、装置、设备及存储介质、程序产品
KR101980899B1 (ko) 직교 소실점을 이용한 단일 영상의 내벽 구조 검출 장치 및 방법
CN117635875B (zh) 一种三维重建方法、装置及终端

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17880174

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017880174

Country of ref document: EP

Effective date: 20190716