CN107306349A - 一种三维展现监控视频的方法及装置 - Google Patents

一种三维展现监控视频的方法及装置 Download PDF

Info

Publication number
CN107306349A
CN107306349A CN201610251261.XA CN201610251261A CN107306349A CN 107306349 A CN107306349 A CN 107306349A CN 201610251261 A CN201610251261 A CN 201610251261A CN 107306349 A CN107306349 A CN 107306349A
Authority
CN
China
Prior art keywords
video
image
region
background model
dimensional background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610251261.XA
Other languages
English (en)
Other versions
CN107306349B (zh
Inventor
陈杰
王全占
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201610251261.XA priority Critical patent/CN107306349B/zh
Priority to PCT/CN2016/109630 priority patent/WO2017181699A1/zh
Priority to EP16899278.2A priority patent/EP3448020B1/en
Priority to US16/093,750 priority patent/US20190122423A1/en
Publication of CN107306349A publication Critical patent/CN107306349A/zh
Application granted granted Critical
Publication of CN107306349B publication Critical patent/CN107306349B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例提供了一种三维展现监控视频的方法及装置,应用于电子设备,所述方法包括:获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标;根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域;将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。本发明实施例能够实现监控视频图像与三维背景模型的深度融合,提高监控视频的三维展现效果。

Description

一种三维展现监控视频的方法及装置
技术领域
本发明涉及视频监控技术领域,特别是涉及一种三维展现监控视频的方法及装置。
背景技术
随着视频技术的发展,三维展现视频的方法,即将二维视频图像经过处理模拟成三维的动态真实场景的方法,得到了越来越多的应用。例如,在视频监控领域中,通过将视频采集设备采集的监控视频三维展现,能够使用户更直观地看到监控场景中的视频画面。
现有的三维展现监控视频的方法,主要为只进行监控场景的三维化,即针对每个监控场景,预先构建对应的三维背景模型。在展现监控视频时,针对每个监控场景采集的监控视频,首先展现该监控场景的三维背景模型,然后将采集的监控视频以弹窗的形式完整地展现在三维背景模型之上,达到三维展现监控视频的目的。
但是,上述方法中,监控视频与三维背景模型实际上还是割裂的,监控视频的每一帧图像完整地展现在三维背景模型之上,因此,监控视频图像不能与三维背景模型进行深度融合,监控视频的三维展现效果不够直观。
发明内容
本发明实施例的目的在于提供一种三维展现监控视频的方法及装置,以提高监控视频的三维展现效果。具体技术方案如下:
第一方面,本发明实施例提供了一种三维展现监控视频的方法,应用于电子设备,所述方法包括:
获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标;
根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域;
将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。
进一步地,所述获取预先配置的与所述监控视频的采集场景匹配的三维背景模型和视频网格信息包括:
获取封装在所述监控视频中的预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;或
确定采集所述监控视频的视频采集设备的标识信息,并从预设的存储空间中获取与所述标识信息对应的三维背景模型和视频网格信息。
进一步地,配置所述三维背景模型的过程包括:
接收用户输入的场景信息,其中,所述场景信息至少包括场景的尺寸信息和该场景中固定参照物的尺寸及位置信息;
根据所述用户输入的场景信息,生成所述三维背景模型。
进一步地,配置所述视频网格信息的过程包括:
获取样本监控视频;
将所述样本监控视频叠加到所述三维背景模型中;
接收用户输入的切分指令,将所述样本监控视频中的视频图像切分为多个图像区域,并记录各图像区域的大小;
接收到用户输入的调整指令,根据调整前的各图像区域,及调整后的各图像区域在所述三维背景模型中的区域坐标,生成所述视频网格信息。
进一步地,当获取预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息,获取封装在所述监控视频中的预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息时,所述方法还包括:
将所述三维背景模型和所述视频网格信息发送给采集所述监控视频的视频采集设备,以使所述视频采集设备将所述三维背景模型和所述视频网格信息封装在所述监控视频中。
第二方面,本发明实施例提供了一种三维展现监控视频的装置,应用于电子设备,所述装置包括:
第一获取模块,用于获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标;
处理模块,用于根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域;
第一叠加模块,用于将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。
进一步地,所述第一获取模块包括:
第一获取子模块,用于获取封装在所述监控视频中的预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;或
第二获取子模块,用于确定采集所述监控视频的视频采集设备的标识信息,并从预设的存储空间中获取与所述标识信息对应的三维背景模型和视频网格信息。
进一步地,所述装置还包括:
接收模块,用于接收用户输入的场景信息,其中,所述场景信息至少包括场景的尺寸信息和该场景中固定参照物的尺寸及位置信息;
第一生成模块,用于根据所述用户输入的场景信息,生成所述三维背景模型。
进一步地,所述装置还包括:
第二获取模块,用于获取样本监控视频;
第二叠加模块,用于将所述样本监控视频叠加到所述三维背景模型中;
分析模块,用于接收用户输入的切分指令,将所述样本监控视频中的视频图像切分为多个图像区域,并记录各图像区域的大小;
第二生成模块,用于接收到用户输入的调整指令,根据调整前的各图像区域,及调整后的各图像区域在所述三维背景模型中的区域坐标,生成所述视频网格信息。
进一步地,所述装置还包括:
发送模块,用于将所述三维背景模型和所述视频网格信息发送给采集所述监控视频的视频采集设备,以使所述视频采集设备将所述三维背景模型和所述视频网格信息封装在所述监控视频中。
本发明实施例提供了一种三维展现监控视频的方法及装置,所述方法包括:获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标;根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域;将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。本发明实施例中,视频网格信息包括监控视频的视频图像中各图像区域的大小,及各图像区域在三维背景模型中的区域坐标,可以根据视频网格信息中包括的各图像区域在三维背景模型中的区域坐标,调整监控视频中各图像区域,使各图像区域与三维背景模型契合,进一步地将调整后的各图像区域叠加到三维背景模型中的对应坐标区域内,实现了监控视频图像与三维背景模型的深度融合,提高了监控视频的三维展现效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的三维展现监控视频的方法的流程图;
图2为本发明实施例提供的三维展现监控视频的方法的另一流程图;
图3为本发明实施例提供的三维展现监控视频的装置的结构示意图;
图4为本发明实施例提供的三维展现监控视频的装置的另一结构示意图。
具体实施方式
为了提高监控视频的三维展现效果,本发明实施例提供了一种三维展现监控视频的方法及装置。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
为了提高监控视频的三维展现效果,本发明实施例提供了一种三维展现监控视频的方法过程,如图1所示,该过程包括以下步骤:
S101,获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标。
本发明实施例提供的方法可以应用于电子设备。具体地,该电子设备例如可以包括:笔记本电脑、智能终端、台式计算机、便携式计算机等等。
在本发明实施例中,为了提高监控视频的三维展现效果,电子设备可以针对各监控场景,预先配置与各监控场景对应的三维背景模型和视频网格信息,以使得在展现各监控场景中采集的监控视频时,根据对应各监控场景的三维背景模型和视频网格信息,来展现各监控视频,提高监控视频的三维展现效果。
需要说明的是,上述监控场景可以是室内场景,也可以是室外场景,本发明实施例对此不作限定。
在本发明实施例中,根据监控场景生成三维背景模型的过程可以采用现有技术,本发明实施例对此过程不进行赘述。
上述三维背景模型可以是用多边形表示场景的模型,其具有一定的三维立体效果。上述视频网格信息可以用来表示在三维背景模型中二维视频图像的位置映射关系,具体地,视频网格信息可以包括监控视频的视频图像中各图像区域的大小,及各图像区域在三维背景模型中的区域坐标。
在本发明实施例中,电子设备可以首先获取监控视频,以及预先配置的与该监控视频的采集场景对应的三维背景模型和视频网格信息,以根据获取的三维背景模型和视频网格信息来展示监控视频,提高监控视频的三维展现效果。本发明实施例中,可以将采集监控视频时所在的监控场景称为监控视频的采集场景。
具体地,在获取监控视频时,电子设备可以从视频采集设备处获取其实时采集的监控视频;或者,电子设备也可以从存储设备中获取保存在其中的监控视频。
S102,根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域。
电子设备获取到监控视频以及与该监控视频对应的三维背景模型和视频网格信息后,可以根据视频网格信息,将该监控视频中的视频图像切分为相应大小的多个图像区域,并根据视频网格信息中包括的各图像区域在三维背景模型中的区域坐标,调整各图像区域。
可以理解,针对任一个监控场景,该监控场景可能包含一些固定参照物,例如室内场景中的墙面、地面、屋顶等,因此根据该监控场景生成的三维背景模型中也就包含有上述固定参照物,每个固定参照物在三维背景模型中占一定的区域,如三维背景模型中包括的墙面、地面、屋顶等区域。并且,在该监控场景中采集的二维视频图像中也应该包括同样的区域。但是,二维视频图像中各区域的大小、区域坐标等信息,可能会与三维背景模型中对应各区域的大小、区域坐标等信息有所差别。
因此,在本发明实施例中,为了将二维的监控视频深度融合到三维背景模型中,电子设备可以首先根据视频网格信息,将监控视频中的视频图像切分为相应大小的多个图像区域。例如,可以根据视频网格信息中包括的监控视频的视频图像中各图像区域的大小,将监控视频中的视频图像切分为相应大小的多个图像区域。
将监控视频中的视频图像切分为多个图像区域后,电子设备可以进一步地根据视频网格信息中包括的各图像区域在三维背景模型中的区域坐标,调整各图像区域。具体地,可以调整各图像区域的位置、缩放比例等,使各图像区域与三维背景模型中对应的各区域契合。例如,针对每个图像区域,可以选取该图像区域中的多个标定点,并使用该多个标定点的坐标来标识该图像区域在三维背景模型中的区域坐标。
例如,当监控场景为室内场景时,该监控场景对应的视频网格信息可以包括监控视频的视频图像中的各墙面区域、地面区域以及屋顶区域的大小,从而,电子设备可以根据该视频网格信息,将监控视频切分为对应的多个墙面区域、一个地面区域以及一个屋顶区域;并且,视频网格信息中还可以包括监控视频的视频图像中的各墙面区域、地面区域以及屋顶区域在三维背景模型中的区域坐标,当针对任一墙面区域,视频图像中该墙面区域的大小小于三维背景模型中对应墙面区域的大小时,电子设备可以放大视频图像中该墙面区域的大小,使视频图像中该墙面区域的大小等于三维背景模型中对应墙面区域的大小。
S103,将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。
通过对监控视频进行切分,并对切分后的各图像区域进行调整,可以使监控视频中包括的各图像区域与三维背景模型中对应的各区域契合。
因此,电子设备可以将调整后的各图像区域叠加到三维背景模型中的对应坐标区域内,例如,可以将调整后的各图像区域覆盖三维背景模型中的对应坐标区域,以在该三维背景模型中展现监控视频,提高监控视频的三维展现效果。
本发明实施例提供的三维展现监控视频的方法,视频网格信息包括监控视频的视频图像中各图像区域的大小,及各图像区域在三维背景模型中的区域坐标,可以根据视频网格信息中包括的各图像区域在三维背景模型中的区域坐标,调整监控视频中各图像区域,使各图像区域与三维背景模型契合,进一步地将调整后的各图像区域叠加到三维背景模型中的对应坐标区域内,实现了监控视频图像与三维背景模型的深度融合,提高了监控视频的三维展现效果。
在本发明实施例的一种实现方式中,电子设备可以将预先配置的与各监控场景对应的三维背景模型和视频网格信息直接发送给各视频采集设备,各视频采集设备可以在本地保存其接收到的三维背景模型和视频网格信息。这种情况下,视频采集设备在采集到监控视频后,可以将本地保存的三维背景模型和视频网格信息封装在其采集的监控视频中,并可以将三维背景模型和视频网格信息随监控视频一起发送给电子设备。
这种情况下,电子设备在获取到监控视频后,可以直接获取封装在监控视频中的预先配置的与监控视频的采集场景对应的三维背景模型和视频网格信息。具体地,在本发明实施例中,视频采集设备将三维背景模型和视频网格信息封装在监控视频中发送给电子设备时,可以随监控视频的每一个关键帧发送一次;或者,为了节省数据传输所占的网络资源,视频采集设备也可以只在开始向电子设备发送监控视频的时候发送一次。
可以理解,上述方式中,电子设备将三维背景模型和视频网格信息发送给视频采集设备,视频采集设备需要将接收到的三维背景模型和视频网格信息保存在本地,并需要将三维背景模型和视频网格信息封装在其采集的监控视频中,这种方式需要对视频采集设备进行相应的配置,以使视频采集设备具备将三维背景模型和视频网格信息封装在其采集的监控视频中的功能,适用性较差。并且,电子设备获取视频采集设备实时采集的监控视频时,视频采集设备采集到监控视频后,需要将三维背景模型和视频网格信息封装在其采集的监控视频中后再传输该监控视频,而该过程将影响监控视频的实时传输效率。但该方式中电子设备无需根据监控场景,查找该监控场景对应的三维背景模型,保证了获取到的三维背景模型的准确性。
在本发明实施例的另一种实现方式中,为了提高本发明实施例提供的三维展现监控视频的方法的适用性,并提高监控视频的传输效率,电子设备可以将预先配置的三维背景模型和视频网格信息保存在预设的存储空间中,如,保存在自身或服务器的存储空间中。并且,可以在保存三维背景模型和视频网格信息时,同时保存各三维背景模型和视频网格信息对应的视频采集设备的标识信息。
这种情况下,电子设备在获取到监控视频后,可以首先确定采集该监控视频的视频采集设备的标识信息,然后从预设的存储空间中获取与该标识信息对应的三维背景模型和视频网格信息。
进一步地,在本发明实施例中,电子设备可以预先配置与监控场景对应的三维背景模型。
具体地,电子设备可以首先接收用户输入的场景信息,其中,该场景信息至少可以包括场景的尺寸信息和该场景中固定参照物的尺寸及位置信息。例如,当监控场景为室内场景时,用户输入的场景信息可以是房间的长、宽、高信息,以及该房间中各墙面、地面、屋顶等参照物的尺寸及位置信息;当监控场景为道路场景时,用户输入的场景信息可以是道路的长、宽信息,以及该道路周围的重要建筑物、树木等参照物的尺寸及位置信息。
接收到用户输入的场景信息后,电子设备可以根据用户输入的场景信息,生成对应的三维背景模型。在本发明实施例中,电子设备根据用户输入的场景信息生成对应的三维背景模型的过程可以采用现有技术,本发明对此过程不进行赘述。
进一步地,在本发明实施例中,针对任一监控场景,电子设备生成三维背景模型后,还可以生成与该监控场景及三维背景模型对应的视频网格信息。
具体地,如图2所示,本发明实施例提供的三维展现监控视频的方法,还可以包括以下步骤:
S201,获取样本监控视频。
在本发明实施例中,电子设备针对任一监控场景,生成对应的三维背景模型后,在生成视频网格信息时,可以首先获取样本监控视频。
例如,针对任一监控场景,对应的视频采集设备设置好后,即视频采集设备的镜头不被转动,位置不被改变,焦距不被调整等的情况下,可以使用该视频采集设备采集的监控视频作为用于生成该监控场景对应的视频网格信息的样本监控视频。视频采集设备采集样本监控视频时的相应参数,与该视频采集设备正常工作时采集监控视频的相应参数相同,该相应参数即为拍摄角度、拍摄位置、焦距等参数。
S202,将所述样本监控视频叠加到所述三维背景模型中。
在本发明实施例中,电子设备获取到样本监控视频后,可以将该样本监控视频叠加到预先配置好的三维背景模型中,以生成与该三维背景模型对应的视频网格信息。
S203,接收用户输入的切分指令,将所述样本监控视频中的视频图像切分为多个图像区域,并记录各图像区域的大小。
在本发明实施例中,将样本监控视频叠加到三维背景模型中后,用户可以根据当前的三维背景模型对应的监控场景,输入对样本监控视频中的视频图像进行切分的切分指令。
因此,电子设备可以接收用户输入的切分指令,将样本监控视频中的视频图像切分为多个图像区域,并记录各图像区域的大小。
例如,当监控场景为室内场景时,用户输入的切分指令可以是将样本监控视频中的视频图像切分为与三维背景模型中包括的各区域对应的多个墙面区域、至少一个地面区域以及至少一个屋顶区域,电子设备接收到该切分指令后,可以将样本监控视频中的视频图像切分为对应的多个墙面区域、至少一个地面区域以及至少一个屋顶区域,并且,还可以记录各图像区域的大小。
如上所述,视频采集设备采集样本监控视频时的相应参数,与该视频采集设备正常工作时采集监控视频的相应参数相同,因此,视频采集设备采集的样本监控视频与其正常工作时采集的监控视频包含的视频图像大小相同,并且每个图像区域的位置相同。电子设备将样本视频中的视频图像切分为与三维背景模型中包括的各区域对应的多个图像区域,并记录各图像区域的大小后,在接收到监控视频,对监控视频中的视频图像进行切分时,就可以按照记录的各图像区域的大小,将监控视频中的视频图像切分为同样大小的多个图像区域,也就是说,可以将监控视频中的视频图像切分为与三维背景模型中包括的各区域对应的多个图像区域。
S204,接收到用户输入的调整指令,根据调整前的各图像区域,及调整后的各图像区域在所述三维背景模型中的区域坐标,生成所述视频网格信息。
在本发明实施例中,将样本监控视频切分为多个图像区域后,用户可以根据当前的三维背景模型中包括的各区域,输入对各图像区域进行调整的调整指令。例如,该调整指令可以是调整各图像区域的位置、缩放比例等的指令,使各图像区域与三维背景模型中对应的各区域契合。
因此,电子设备可以接收用户输入的调整指令,并根据调整前的各图像区域,及调整后的各图像区域在三维背景模型中的区域坐标,生成视频网格信息。
例如,当监控场景为室内场景时,电子设备可以根据用户输入的切分指令将样本视频切分为多个墙面区域、至少一个地面区域以及至少一个屋顶区域,然后,当针对任一墙面区域,视频图像中该墙面区域的大小小于三维背景模型中对应墙面区域的大小时,用户可以输入放大该墙面区域的指令,电子设备接收到该指令时,可以放大该墙面区域的大小,使视频图像中该墙面区域的大小等于三维背景模型中对应墙面区域的大小,可选地,还可以根据用户输入的位置调整指令,调整视频图像中该墙面区域的各顶点与三维背景模型中对应墙面区域的各顶点重合。
可以理解,针对同一图像区域,电子设备可以对该图像区域进行一次或多次调整。并且,对于视频图像中包括的多个图像区域,电子设备可以根据用户输入的调整指令,对其中的一个或多个图像区域进行调整。
当电子设备完成对各图像区域的调整后,即可根据调整前的各图像区域,及调整后的各图像区域在三维背景模型中的区域坐标,生成视频网格信息。
在一种实现方式中,电子设备在每次完成对图像区域的调整后,可以弹出提示框,提示用户是否输入确认信息,当未接收到用户输入的确认信息时,表明用户可能想要继续调整图像区域,电子设备可以不生成视频网格信息;当接收到用户输入的确认信息后,可以表明用户调整图像区域的过程结束,电子设备可以根据调整前的各图像区域,及调整后的各图像区域在三维背景模型中的区域坐标,即当前各图像区域在三维背景模型中的区域坐标,生成视频网格信息。
可以理解,当电子设备完成对样本监控视频各图像区域的调整,使调整后的各图像区域与三维背景模型中对应各区域契合,并根据调整前的各图像区域,及调整后的各图像区域在三维背景模型中的区域坐标,生成视频网格信息后,在接收到监控视频,对监控视频的视频图像的各图像区域进行调整时,就可以按照对样本监控视频各图像区域进行调整的方式,对监控视频中对应各图像区域进行相应的调整,从而保证调整后的监控视频各图像区域与三维背景模型中对应的各区域契合,进而提高监控视频的三维展现效果。
本发明实施例提供的方法,可以预先配置与各监控场景对应的三维背景模型和视频网格信息,视频网格信息包括监控视频的视频图像中各图像区域的大小,及各图像区域在三维背景模型中的区域坐标,可以根据视频网格信息中包括的各图像区域在三维背景模型中的区域坐标,调整监控视频中各图像区域,使各图像区域与三维背景模型契合,进一步地将调整后的各图像区域叠加到三维背景模型中的对应坐标区域内,实现了监控视频图像与三维背景模型的深度融合,提高了监控视频的三维展现效果。
相应于上面的方法实施例,本发明实施例还提供了相应的装置实施例。
图3为本发明实施例提供的一种三维展现监控视频的装置,应用于电子设备,所述装置包括:
第一获取模块310,用于获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标;
处理模块320,用于根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域;
第一叠加模块330,用于将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。
本发明实施例提供的三维展现监控视频的装置,视频网格信息包括监控视频的视频图像中各图像区域的大小,及各图像区域在三维背景模型中的区域坐标,可以根据视频网格信息中包括的各图像区域在三维背景模型中的区域坐标,调整监控视频中各图像区域,使各图像区域与三维背景模型契合,进一步地将调整后的各图像区域叠加到三维背景模型中的对应坐标区域内,实现了监控视频图像与三维背景模型的深度融合,提高了监控视频的三维展现效果。
进一步地,所述第一获取模块310包括:
第一获取子模块(图中未示出),用于获取封装在所述监控视频中的预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;或
第二获取子模块(图中未示出),用于确定采集所述监控视频的视频采集设备的标识信息,并从预设的存储空间中获取与所述标识信息对应的三维背景模型和视频网格信息。
进一步地,所述装置还包括:
发送模块(图中未示出),用于将所述三维背景模型和所述视频网格信息发送给采集所述监控视频的视频采集设备,以使所述视频采集设备将所述三维背景模型和所述视频网格信息封装在所述监控视频中。
进一步地,所述装置还包括:
接收模块(图中未示出),用于接收用户输入的场景信息,其中,所述场景信息至少包括场景的尺寸信息和该场景中固定参照物的尺寸及位置信息;
第一生成模块(图中未示出),用于根据所述用户输入的场景信息,生成所述三维背景模型。
进一步地,如图4所示,本发明实施例提供的三维展现监控视频的装置还包括:
第二获取模块410,用于获取样本监控视频;
第二叠加模块420,用于将所述样本监控视频叠加到所述三维背景模型中;
分析模块430,用于接收用户输入的切分指令,将所述样本监控视频中的视频图像切分为多个图像区域,并记录各图像区域的大小;
第二生成模块440,用于接收到用户输入的调整指令,根据调整前的各图像区域,及调整后的各图像区域在所述三维背景模型中的区域坐标,生成所述视频网格信息。
本发明实施例提供的装置,可以预先配置与各监控场景对应的三维背景模型和视频网格信息,视频网格信息包括监控视频的视频图像中各图像区域的大小,及各图像区域在三维背景模型中的区域坐标,可以根据视频网格信息中包括的各图像区域在三维背景模型中的区域坐标,调整监控视频中各图像区域,使各图像区域与三维背景模型契合,进一步地将调整后的各图像区域叠加到三维背景模型中的对应坐标区域内,实现了监控视频图像与三维背景模型的深度融合,提高了监控视频的三维展现效果。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种三维展现监控视频的方法,其特征在于,应用于电子设备,所述方法包括:
获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标;
根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域;
将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。
2.根据权利要求1所述的方法,其特征在于,所述获取预先配置的与所述监控视频的采集场景匹配的三维背景模型和视频网格信息包括:
获取封装在所述监控视频中的预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;或
确定采集所述监控视频的视频采集设备的标识信息,并从预设的存储空间中获取与所述标识信息对应的三维背景模型和视频网格信息。
3.根据权利要求2所述的方法,其特征在于,配置所述三维背景模型的过程包括:
接收用户输入的场景信息,其中,所述场景信息至少包括场景的尺寸信息和该场景中固定参照物的尺寸及位置信息;
根据所述用户输入的场景信息,生成所述三维背景模型。
4.根据权利要求3所述的方法,其特征在于,配置所述视频网格信息的过程包括:
获取样本监控视频;
将所述样本监控视频叠加到所述三维背景模型中;
接收用户输入的切分指令,将所述样本监控视频中的视频图像切分为多个图像区域,并记录各图像区域的大小;
接收到用户输入的调整指令,根据调整前的各图像区域,及调整后的各图像区域在所述三维背景模型中的区域坐标,生成所述视频网格信息。
5.根据权利要求2-4任一项所述的方法,其特征在于,当获取预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息,获取封装在所述监控视频中的预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息时,所述方法还包括:
将所述三维背景模型和所述视频网格信息发送给采集所述监控视频的视频采集设备,以使所述视频采集设备将所述三维背景模型和所述视频网格信息封装在所述监控视频中。
6.一种三维展现监控视频的装置,其特征在于,应用于电子设备,所述装置包括:
第一获取模块,用于获取监控视频,以及预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;其中,所述视频网格信息包括所述监控视频的视频图像中各图像区域的大小,及各图像区域在所述三维背景模型中的区域坐标;
处理模块,用于根据所述视频网格信息,将所述监控视频中的视频图像切分为相应大小的多个图像区域,并根据所述视频网格信息中包括的各图像区域在所述三维背景模型中的区域坐标,调整各图像区域;
第一叠加模块,用于将调整后的各图像区域叠加到所述三维背景模型中的对应坐标区域内。
7.根据权利要求6所述的装置,其特征在于,所述第一获取模块包括:
第一获取子模块,用于获取封装在所述监控视频中的预先配置的与所述监控视频的采集场景对应的三维背景模型和视频网格信息;或
第二获取子模块,用于确定采集所述监控视频的视频采集设备的标识信息,并从预设的存储空间中获取与所述标识信息对应的三维背景模型和视频网格信息。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
接收模块,用于接收用户输入的场景信息,其中,所述场景信息至少包括场景的尺寸信息和该场景中固定参照物的尺寸及位置信息;
第一生成模块,用于根据所述用户输入的场景信息,生成所述三维背景模型。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
第二获取模块,用于获取样本监控视频;
第二叠加模块,用于将所述样本监控视频叠加到所述三维背景模型中;
分析模块,用于接收用户输入的切分指令,将所述样本监控视频中的视频图像切分为多个图像区域,并记录各图像区域的大小;
第二生成模块,用于接收到用户输入的调整指令,根据调整前的各图像区域,及调整后的各图像区域在所述三维背景模型中的区域坐标,生成所述视频网格信息。
10.根据权利要求7-9任一项所述的装置,其特征在于,所述装置还包括:
发送模块,用于将所述三维背景模型和所述视频网格信息发送给采集所述监控视频的视频采集设备,以使所述视频采集设备将所述三维背景模型和所述视频网格信息封装在所述监控视频中。
CN201610251261.XA 2016-04-21 2016-04-21 一种三维展现监控视频的方法及装置 Active CN107306349B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201610251261.XA CN107306349B (zh) 2016-04-21 2016-04-21 一种三维展现监控视频的方法及装置
PCT/CN2016/109630 WO2017181699A1 (zh) 2016-04-21 2016-12-13 一种三维展现监控视频的方法及装置
EP16899278.2A EP3448020B1 (en) 2016-04-21 2016-12-13 Method and device for three-dimensional presentation of surveillance video
US16/093,750 US20190122423A1 (en) 2016-04-21 2016-12-13 Method and Device for Three-Dimensional Presentation of Surveillance Video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610251261.XA CN107306349B (zh) 2016-04-21 2016-04-21 一种三维展现监控视频的方法及装置

Publications (2)

Publication Number Publication Date
CN107306349A true CN107306349A (zh) 2017-10-31
CN107306349B CN107306349B (zh) 2020-05-19

Family

ID=60115602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610251261.XA Active CN107306349B (zh) 2016-04-21 2016-04-21 一种三维展现监控视频的方法及装置

Country Status (4)

Country Link
US (1) US20190122423A1 (zh)
EP (1) EP3448020B1 (zh)
CN (1) CN107306349B (zh)
WO (1) WO2017181699A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154553A (zh) * 2018-01-04 2018-06-12 中测新图(北京)遥感技术有限责任公司 一种三维模型与监控视频的无缝融合方法及装置
CN111586351A (zh) * 2020-04-20 2020-08-25 上海市保安服务(集团)有限公司 场馆三维视频融合可视化监控系统及方法
WO2020228768A1 (zh) * 2019-05-14 2020-11-19 广东康云科技有限公司 一种3d智能教育监控方法、系统和存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325824B (zh) * 2019-07-03 2023-10-10 杭州海康威视系统技术有限公司 图像数据展示方法、装置、电子设备及存储介质
CN113793080A (zh) * 2020-06-18 2021-12-14 北京京东乾石科技有限公司 一种仓库运行状态实时模拟方法和装置
CN114328795B (zh) * 2022-03-11 2022-07-26 土豆数据科技集团有限公司 一种实景三维数据处理方法、装置、服务器和存储介质
CN114675695B (zh) * 2022-03-26 2023-04-18 太仓武港码头有限公司 一种堆场抑尘的控制方法、系统、设备及存储介质
CN114928718A (zh) * 2022-04-29 2022-08-19 厦门图扑软件科技有限公司 视频监控方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101572787A (zh) * 2009-01-04 2009-11-04 四川川大智胜软件股份有限公司 基于计算机视觉精密测量多投影视景自动几何校正和拼接方法
CN103716586A (zh) * 2013-12-12 2014-04-09 中国科学院深圳先进技术研究院 一种基于三维空间场景的监控视频融合系统和方法
CN104539875A (zh) * 2014-09-05 2015-04-22 王学魁 一种视频监控方法和系统
CN104574274A (zh) * 2013-10-18 2015-04-29 财团法人资讯工业策进会 图像处理方法及应用图像处理方法的系统
US9305401B1 (en) * 2007-06-06 2016-04-05 Cognitech, Inc. Real-time 3-D video-security

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650608B2 (en) * 2008-10-08 2020-05-12 Strider Labs, Inc. System and method for constructing a 3D scene model from an image
CN101951502B (zh) * 2010-10-19 2012-11-21 北京硅盾安全技术有限公司 一种三维智能视频监控方法
CN103136738A (zh) * 2011-11-29 2013-06-05 北京航天长峰科技工业集团有限公司 一种复杂场景下固定摄像机监控视频与三维模型配准方法
CN103714529B (zh) * 2012-09-29 2016-12-21 西门子公司 一种基于多级网格的图像分割方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9305401B1 (en) * 2007-06-06 2016-04-05 Cognitech, Inc. Real-time 3-D video-security
CN101572787A (zh) * 2009-01-04 2009-11-04 四川川大智胜软件股份有限公司 基于计算机视觉精密测量多投影视景自动几何校正和拼接方法
CN104574274A (zh) * 2013-10-18 2015-04-29 财团法人资讯工业策进会 图像处理方法及应用图像处理方法的系统
CN103716586A (zh) * 2013-12-12 2014-04-09 中国科学院深圳先进技术研究院 一种基于三维空间场景的监控视频融合系统和方法
CN104539875A (zh) * 2014-09-05 2015-04-22 王学魁 一种视频监控方法和系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154553A (zh) * 2018-01-04 2018-06-12 中测新图(北京)遥感技术有限责任公司 一种三维模型与监控视频的无缝融合方法及装置
WO2020228768A1 (zh) * 2019-05-14 2020-11-19 广东康云科技有限公司 一种3d智能教育监控方法、系统和存储介质
CN111586351A (zh) * 2020-04-20 2020-08-25 上海市保安服务(集团)有限公司 场馆三维视频融合可视化监控系统及方法

Also Published As

Publication number Publication date
CN107306349B (zh) 2020-05-19
WO2017181699A1 (zh) 2017-10-26
US20190122423A1 (en) 2019-04-25
EP3448020A4 (en) 2019-02-27
EP3448020A1 (en) 2019-02-27
EP3448020B1 (en) 2022-04-06

Similar Documents

Publication Publication Date Title
CN107306349A (zh) 一种三维展现监控视频的方法及装置
KR101797006B1 (ko) 드론을 이용한 토지 조사 시스템 및 방법
CN104135609B (zh) 辅助拍照方法、装置及终端
CN106804055B (zh) 一种无线保真Wi-Fi连接方法及移动终端
CN104657206B (zh) 一种图像数据的处理方法和装置
CN106679665A (zh) 一种路线规划方法及装置
CN107690673A (zh) 图像处理方法、装置及服务器
CN106849353B (zh) 输变电工程环保监测与敏感区域预测系统及方法
US8744230B2 (en) Method for real-time correlation of streaming video to geolocation
CN107240040A (zh) 一种旅游地理数据采集管理系统
CN107589963A (zh) 一种图片处理方法、移动终端及计算机可读存储介质
CN107888823A (zh) 一种拍摄处理方法、装置及系统
CN103096129B (zh) 多卫星遥感数据远程实时播报系统及方法
CN104217414A (zh) 用于影像拼接的拼接线提取方法和装置
CN107026959A (zh) 一种图像采集方法及图像采集设备
CN108846175A (zh) 一种矢量户型图生成方法及装置
US8564607B2 (en) Apparatus and method for creating textures of building
CN103327246A (zh) 一种多媒体拍摄处理方法、装置及智能终端
CN111125290A (zh) 一种基于河长制的智能巡河方法、装置及存储介质
CN107194905A (zh) 一种基于非下采样Cotourlet变换的图像处理方法及系统
WO2023103883A1 (zh) 对象自动标注方法、装置、电子设备及存储介质
CN106908797A (zh) 基于gis的x波段面雨量雷达数据提取方法
CN108629521A (zh) 一种适用于农村房屋建设体系的测绘规划编制系统
CN202019401U (zh) 实时定位图像采集多址传输装置
CN206728019U (zh) 一种地震发生初期的震区遥感影像数据星上智能采集系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant