CN111915713A - 一种三维动态场景的创建方法、计算机设备、存储介质 - Google Patents

一种三维动态场景的创建方法、计算机设备、存储介质 Download PDF

Info

Publication number
CN111915713A
CN111915713A CN201910381780.1A CN201910381780A CN111915713A CN 111915713 A CN111915713 A CN 111915713A CN 201910381780 A CN201910381780 A CN 201910381780A CN 111915713 A CN111915713 A CN 111915713A
Authority
CN
China
Prior art keywords
dimensional
attribute information
dynamic
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910381780.1A
Other languages
English (en)
Inventor
金仲明
黄建强
赖百胜
许冉
陈康平
华先胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201910381780.1A priority Critical patent/CN111915713A/zh
Publication of CN111915713A publication Critical patent/CN111915713A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种三维动态场景的创建方法,包括:通过分析历史动态图像确定至少一个图像采集设备的三维映射参数;根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;将所述第一对象的三维属性信息添加至三维动态模板;实时渲染所述三维动态模板得到实时的三维动态场景。相比于传统的三维重建方法获得的三维静态场景,动态场景中包含的信息更为全面丰富,可以作为针对场景下动态物体行为进行分析的依据。

Description

一种三维动态场景的创建方法、计算机设备、存储介质
技术领域
本申请涉及图像处理技术领域,具体涉及一种三维动态场景的创建方法、一种基于三维场景的行为分析方法、数据处理方法,以及相应的装置、一种计算机设备、一种计算机可读存储介质。
背景技术
相比于二维图像,三维图像更能够准确的反映真实世界的信息,因此,将较常采集的二维图像转换为三维图像具有重要的意义。
目前,通常采用三维重建的方法获得三维图像,具体是指通过摄像机获取场景物体的数据图像,并对此图像进行分析处理,再结合计算机视觉知识得出现实环境中物体的三维信息。
申请人在实际应用中发现,仅仅获得三维图像仍然不能够满足需求,需要提供一种创建三维动态场景的方案。
发明内容
鉴于上述问题,提出了本申请以便提供一种克服上述问题或者至少部分地解决上述问题的三维动态场景的创建方法、以及计算机设备、计算机可读存储介质。
依据本申请的一个方面,提供了一种三维动态场景的创建方法,包括:
通过分析历史动态图像确定至少一个图像采集设备的三维映射参数;
根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
将所述第一对象的三维属性信息添加至三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
可选地,所述通过分析历史动态图像确定视频设备的三维映射参数包括:
提取历史动态图像中的单张图像;
通过比对确定对应同一对象的多张图像;
根据对应同一对象的多张图像,确定所述图像采集设备的三维映射参数。
可选地,所述通过比对确定对应同一对象的多张图像包括:
提取所述图像的特征信息;
对图像的特征信息进行匹配,根据匹配结果确定对应同一对象的多张图像。
可选地,在所述根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息之前,所述方法还包括:
在中央处理器和/或图形处理器中创建多个处理线程,所述多个处理线程用于并发执行所述根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息的步骤。
可选地,在所述将所述第一对象的三维属性信息添加至所述三维动态模板中之前,所述方法还包括:
将三维动态场景中第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中。
可选地,所述将三维场景的第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中包括:
调用物联网系统中的物联网设备的设备信息;
根据所述三维映射参数将所述设备信息映射为三维属性信息,作为所述第二对象对应的三维属性信息;
将所述物联网设备的三维属性信息添加至所述三维动态场景的三维动态模板中。
可选地,所述调用物联网系统中的物联网设备的设备信息包括:
识别所述图像采集设备的位置信息,并确定对应所述位置信息的物联网设备。
可选地,所述方法还包括:
通过检测所述实时动态图像确定第二对象发生属性变化,更新所述三维动态模板。
可选地,所述通过检测所述实时动态图像确定所述第二对象发生属性变化,更新所述三维动态模板包括:
获取所述实时动态图像中所述第二对象的二维属性信息;
根据所述三维映射参数将所述第二对象的二维属性信息映射为三维属性信息;
采用所述第二对象的三维属性信息更新所述三维动态模板。
可选地,所述三维属性信息包括位置信息和姿态信息。
可选地,所述图像采集设备包括如下至少一种:监控摄像头、无人机设备。
可选地,所述方法还包括:
获取所述三维动态场景中至少一个第一对象的三维属性信息;
基于所述三维属性信息进行第一对象的行为识别。
可选地,所述基于所述三维属性信息进行第一对象的行为识别包括:
根据所述三维属性信息确定所述第一对象的行为信息;
基于所述至少一个第一对象的行为信息进行事件判定,并根据判定结果确定是否发生目标事件。
可选地,所述基于所述三维属性信息进行第一对象的行为识别包括:
根据所述三维属性信息确定多个第一对象的行为信息;
基于所述多个第一对象的行为信息,对所述多个第一对象进行行为关联,并根据关联结果确定是否具有目标关系。
可选地,所述基于所述三维属性信息进行第一对象的行为识别包括:
基于所述三维属性信息确定所述第一对象的行为模式;
基于所述行为模式对所述第一对象进行行为预测。
可选地,所述方法还包括:
从业务系统获取建筑信息模型,并根据所述建筑信息模型生成三维动态模型。
本申请还提供了一种基于三维场景的行为分析方法,包括:
根据实时动态图像渲染三维动态模板,得到实时的三维动态场景;
获取所述三维动态场景中至少一个第一对象的三维属性信息;
基于所述三维属性信息确定所述第一对象的行为模式;
基于所述行为模式对所述第一对象进行行为预测。
可选地,所述根据实时动态图像渲染三维动态模板,得到实时的三维动态场景包括:
根据三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
将所述第一对象的三维属性信息添加至三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
可选地,所述方法还包括:
通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
本申请还提供了一种三维动态场景的创建方法,包括:
调用物联网系统获得三维动态场景中第二对象的三维属性信息;
根据所述第二对象的三维属性信息更新三维动态模板;
获取第一对象的三维属性信息,并添加至所述三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
本申请还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述一个或多个的方法。
本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如上述一个或多个的方法。
本申请还提供了一种数据处理方法,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据所呈现的拍摄对象有交集,所述至少两个2D图像数据的拍摄对象不完全相同;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
本申请还提供了一种数据处理方法,所述基于所述3D目标数据进行事件检测包括:
从所述3D目标数据识别多个数据对象以及所述数据对象的对象属性;
根据所述数据对象的对象属性建立所述多个数据对象之间的关联;
根据关联结果进行事件判定。
可选地,所述基于所述3D目标数据进行事件检测包括:
从所述3D目标数据中识别多个数据对象以及所述数据对象的对象属性;
根据所述多个数据对象的对象数据统计所述多个数据对象的群体特征;
根据所述群体特征进行事件判定。
可选地,还包括:
获取多个所述3D目标数据,其中,多个所述3D目标数据为时序相关;
基于神经网络技术,进行事件预测。
可选地,在所述基于神经网络技术,进行事件预测之前,所述方法还包括:
根据历史3D目标数据所包括的多个数据对象以及对应所述3D目标数据的目标事件,创建神经网络模型;
所述基于神经网络技术,进行事件预测包括:
根据所述神经网络模型以及所述3D目标数据进行事件预测。
本申请还提供了一种数据处理方法,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据来自针对同一片空间区域拍摄的、位于不同位置或者不同角度的摄像头;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
本申请还提供了一种数据处理方法,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据不完全相同;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
依据本申请实施例,分析序列图像、视频图像等动态图像确定图像采集设备的三维映射参数,从而可以依据三维映射参数,将实时的动态图像中第一对象的二维属性信息映射为三维属性信息,进一步对添加该三维属性信息的三维动态模板进行实时渲染,可以得到实时的三维动态场景,相比于传统的三维重建方法获得的三维静态场景,动态场景中包含的信息更为全面丰富,可以作为针对场景下动态物体行为进行分析的依据。
本申请的三维动态模板可以添加有来自物联网系统中物联网设备的信息,丰富了三维动态模板中所提供的信息种类,使得三维动态场景的还原更为真实。
本申请还在中央处理器和/或图形处理器中创建多个处理线程,从而可以加快对动态图像的处理速度,保证三维动态场景的渲染效果的连贯性。
基于渲染得到的三维动态场景可以进一步进行场景的认知分析,通过分析场景中对象行为,实现场景监控。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本申请实施例一的一种三维动态场景的创建方法实施例的流程图;
图2示出了根据本申请实施例二的一种三维动态场景的创建方法实施例的流程图;
图3示出了根据本申请实施例三的一种三维动态场景的创建方法实施例的流程图;
图4示出了根据本申请实施例四的一种基于三维场景的行为分析方法实施例的流程图;
图5示出了根据本申请实施例五的一种三维动态场景的创建方法实施例的流程图;
图6示出了本申请的一个示例中获得三维映射参数的流程示意图;
图7示出了本申请的一个示例中创建三维动态场景的示意图;
图8示出了本申请一个示例中基于三维场景的行为分析方案的示意图;
图9示出了根据本申请实施例六的一种三维动态场景的创建装置实施例的结构框图;
图10示出了根据本申请实施例七的一种基于三维场景的行为分析装置实施例的结构框图;
图11示出了根据本申请实施例八的一种三维动态场景的创建装置实施例的结构框图;
图12示出了根据本申请实施例九的一种数据处理方法实施例的流程图;
图13示出了根据本申请实施例十的一种数据处理方法实施例的流程图;
图14示出了根据本申请实施例十一的一种数据处理方法实施例的流程图;
图15示出了可被用于实现本公开中所述的各个实施例的示例性系统。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
为使本领域技术人员更好地理解本申请,以下对本申请涉及的概念进行说明:
本申请依据动态图像渲染三维动态场景,相比于三维静态场景,三维动态场景所提供的信息更丰富,例如包括了动态物体的运动情况,可以作为物体行为分析的基础。
本申请所述的场景可以是实体场景,例如街道、室内环境等,也可以是虚拟场景。
本申请所述的动态图像包括多张图像,具体可以包括序列图像,或者可以包括视频图像,也可以同时包括序列图像和视频图像。因此,本申请所述的历史动态图像包括序列图像和视频图像中一种或多种,实时动态图像包括序列图像和视频图像的一种或多种。
序列图像包括有序的多张图像,比如无人机等设备顺序采集的多张图像,移动终端采用连拍方式顺序采集的多张图像,视频图像包括视频采集设备(例如监控摄像机、移动终端等)采集的图像。
通过图像采集设备获得动态图像,图像采集设备可以包括无人机等采集序列图像的设备或是用于采集视频的视频采集设备,一个场景下可以对应多个同类或不同类的图像采集设备。
将动态图像所包括的图像对象分为第一对象和第二对象。本申请可选的一种划分的方式是,第一对象包括前景对象,第二对象包括背景对象,前景对象是图像表达或烘托的主题,一般是位于靠近镜头的位置并且发生运动的物体,背景对象通常是前景对象所处的环境。也可以根据实际业务需求来设定第一对象和第二对象的具体内容,本申请对此并不做限制。
例如,某街道的三维动态场景中,街道建筑物、公共设施、绿化等静态物体作为背景对象,街道上的行人、行车等动态物体作为前景对象。
第一对象或第二对象在二维场景下的属性信息称之为二维属性信息,可以包括位置信息、姿态信息、形状和纹理等外观特征其中的一种或多种。三维属性信息是指图像对象在三维场景下的属性信息,相对于二维属性信息多了第三个维度的信息,也即是深度信息。因此,将二维属性信息映射为三维属性信息就是通过三维映射参数将二位属性信息投射至第三个维度。三维映射参数决定了图像采集设备从三维场景到二维图像的投影关系,可以包括图像采集设备的设备参数,例如相机的运动参数,若存在多个图像采集设备,则三维映射参数还可以包括相机之间的几何关系。
三维动态模板是基于动态场景创建的通用模板,将第一对象的三维属性信息作为纹理添加至三维动态模板,可以渲染得到三维动态场景。
其中,三维动态模板可以添加有第二对象的三维属性信息,第二对象的三维属性信息可以来源于物联网系统中物联网设备的信息,丰富了三维动态模板中所提供的信息种类,使得三维动态场景的还原更为真实。物联网系统基于物联网连接了多个物联网设备,提供了多个物联网设备的设备信息,本申请该设备信息作为三维动态场景中的第二对象的第二属性信息,并根据三维映射参数映射为三维属性信息,再将第二对象的三维属性信息添加至三维动态模板。
本申请首先通过分析已有的历史动态图像,得到图像采集设备的三维映射参数,进而用于对实时动态图像的三维映射中。通过映射得到的三维属性信息添加至三维动态模板,并进行实时渲染,由于采用了动态图像实时进行三维属性信息的映射,可以生成实时的三维动态场景,从而创新提供了一种三维动态场景的生成方法,动态场景中包含的信息更为全面丰富,可以进一步用于动态物体的行为分析。
为加快动态图像的三维处理过程,本申请还在中央处理器和/或图形处理器中创建多个处理线程,加快对动态图像的处理速度,保证三维动态场景的渲染效果的连贯性。
本申请还可以对三维动态场景中第一对象进行监控,当第一对象发生属性变化时,可以根据变化后的属性更新三维动态模板,从而实现了对三维动态模板的及时更新。
参照图1,示出了根据本申请实施例一的一种三维动态场景的创建方法实施例的流程图,该方法具体可以包括以下步骤:
步骤101,通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
图像采集设备采集的动态图像为二维图像,本申请对多张有序的二维图像进行分析,得到三维映射参数。
三维映射参数表征二维属性信息与三维属性信息之间的映射关系,根据三维映射参数可以将二维属性信息映射为三维属性信息。
本申请实施例确定三维映射参数的方案可以包括,首先,提取历史动态图像中的单张图像,进一步通过比对图像确定对应同一对象的多张图像,然后根据对应同一对象的多张图像,确定图像采集设备的三维映射参数。
其中,通过比对确定对应同一对象的多张图像时,可以提取所述图像的特征信息,对图像的特征信息进行匹配,根据匹配结果确定对应同一对象的多张图像。特征信息可以包括尺度不变信息(Scale-invariant feature transform,SIFT),通过SIFT算法提取图像的特征信息,并进行特征信息的匹配,特征信息满足匹配要求的图像作为对应同一对象的多张图像。此处的匹配条件在SIFT算法中设定,可以根据实际需求配置。
本申请实施例可以采用SFM(Structure from Motion,运动恢复结构)算法获得三维映射参数,SFM算法通过相机的移动来确定空间和几何关系。利用SFM方法,通过迭代求解出三维映射参数,进而利用三维映射参数得到三维属性信息,即重建出三维场景的稀疏点云。
在实际处理中,得到特征信息后,可以根据图像采集设备的真实位置信息先进行尺度重建,将特征信息的数据尺度从相机坐标系转为世界坐标系。此外,由于特征信息对应的数据点的个数有限,得到的仅仅是稀疏点云数据,为使得三维场景的构建更加真实,可以对稀疏点云进行稠密化处理,对稠密化处理的点云再次进行特征信息的匹配,进而采用MVS(Multi-View Stereo,立体视觉法)算法结合SFM算法来确定图像采集设备的三维映射参数。
步骤102,根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息。
本申请实施例中,所述二维属性信息可以包括位置信息和姿态信息,当然也可以包括第一对象的颜色信息、身份信息等其他信息,相应表征了第一对象在二维的图像中的位置和状态。可以通过对图像进行结构化分析,识别图像中的第一对象,进一步提取第一对象的二维属性信息。
步骤103,将所述第一对象的三维属性信息添加至三维动态模板。
步骤104,实时渲染所述三维动态模板得到实时的三维动态场景。
参照图2,示出了根据本申请实施例三的一种三维动态场景的创建方法实施例的流程图,该方法具体可以包括以下步骤:
步骤201,通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
步骤202,在中央处理器和/或图形处理器中创建多个处理线程。
步骤203,在所述多个处理线程中根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息。
本申请涉及对大量图像的实时处理,为保证三维动态场景的渲染效果,可以创建多个处理线程执行并发处理,从而加快对动态图像的处理速度。上述多个线程可以在中央处理器(CPU)和图形处理器(GPU)中同时创建,通过异构处理,可以进一步提高处理效率。
步骤204,将三维动态场景中第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中。
本实施例中,三维动态模板中可以添加有第二对象的三维属性信息,丰富了三维动态模板中所提供的信息种类,使得三维动态场景的还原更为真实。
具体可以通过调用物联网系统中的物联网设备的设备信息,以该设备信息作为二维属性信息,并根据三维映射参数将设备信息映射为三维属性信息,作为第二对象对应的三维属性信息,并将物联网设备的三维属性信息添加至三维动态场景的三维动态模板中。
从物联网系统获取物联网设备的设备信息时,首先需要确认哪些物联网设备归属于当前场景,因此,可以识别图像采集设备的位置信息,并确定对应位置信息的物联网设备,也即是确定与图像采集设备处于同一区域的物联网设备。
步骤205,将所述第一对象的三维属性信息添加至三维动态模板。
需要说明的是,将第一对象的三维属性信息和第二对象的三维属性信息添加至三维动态模板的步骤可以根据实际需求设定执行的先后顺序,本申请对此并不做限制。
步骤206,实时渲染所述三维动态模板得到实时的三维动态场景。
步骤207,通过检测所述实时动态图像确定第二对象发生属性变化,更新所述三维动态模板。
针对三维属性信息添加至三维动态模板的第二对象,若检测到其属性发生变化,则需要对三维动态模板进行更新。
可以通过分析实时动态图像,获取所述实时动态图像中所述第二对象的二维属性信息,进一步根据三维映射参数将所述第二对象的二维属性信息映射为三维属性信息,并采用重新确定的三维属性信息更新三维动态模板中的三维属性信息。
参照图3,示出了根据本申请实施例三的一种三维动态场景的创建方法实施例的流程图,该方法具体可以包括以下步骤:
步骤301,通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
步骤302,根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像。
步骤303,将所述第一对象的三维属性信息添加至三维动态模板。
步骤304,实时渲染所述三维动态模板得到实时的三维动态场景。
步骤305,获取所述三维动态场景中至少一个第一对象的三维属性信息。
步骤306,基于所述三维属性信息进行第一对象的行为识别。
上述实施例一和实施例二提供了三维动态场景的创建方法,本实施例可以根据渲染得到的三维动态场景,进行对象行为的识别,也即是实现对三维场景的认知,实现场景监控。
三维动态场景由多个具有时序的三维场景组成,第一对象在每个三维场景中具有对应的三维属性信息,并且在多个三维场景中会发生变化,因此,通过对多个有序的三维场景的分析,可以得到第一对象的行为信息,进而对第一对象进行行为识别。
首先在三维动态场景中检测出第一对象,具体可以采用深度学习算法,实现高精度的检测。
其中,可以对单个第一对象进行行为识别,也可以对多个第一对象进行集体的行为识别。以街道场景下,第一对象包括人为例,可以对单个第一对象在街道的行走轨迹进行监控,得到单个人是否有快速奔跑的行为特征;也可以对两个人的行走轨迹进行识别,得到两个人之间是否具有异常尾随、伴随的行为特征,还可以对多个人的行走轨迹进行识别,得到多个人的群体是否有异常聚集的行为特征。
在一种示例中,对单个第一对象进行行为识别,可以根据三维属性信息确定第一对象的行为信息,进一步基于至少一个第一对象的行为信息进行事件判定,并根据判定结果确定是否发生目标事件。其中,三维属性信息可以包括第一对象所处的位置信息、姿态信息,行为信息可以包括第一对象所处的位置信息、速度信息、方向信息、动作信息等,对行为信息进行判定可以结合具体业务场景的需求,例如安全管理部门需要监测第一对象的安全性,可以对应速度、方向等行为信息设定对应的判定规则;交通部门需要对第一对象的行为速度和行为范围进行监控,可以对应行为速度和行为范围等设定对应的判定规则,新零售业务(例如外卖、快递业务)对行为轨迹设定进行监控,可以对其行为轨迹设定对应的判定规则。
进一步,在判定目标事件后,还可以进一步进行事件分类处理,例如,按照事件紧急程度分类,或是按照事件发生地域分类,以加快事件的处理效率,优化事件的处理结果。
在另一种示例中,对多个行为对象进行行为识别,可以根据三维属性信息确定多个第一对象的行为信息,基于多个第一对象的行为信息,对多个第一对象进行行为关联,并根据关联结果确定是否具有目标关系。例如,可以对多个行人进行行为轨迹的监控,并根据多个行人的行为轨迹设定对应的判定规则,以识别多个人之间的关系,例如是否是同伴还是陌生人关系,进而判断是否发生异常尾随事件;或者识别多个人之间的关系是否为集体或陌生人,进而判断是否发生异常聚集事件。
其中,在识别多个第一对象的关系后,可以采用图的形式来描述第一对象之间的关系,以第一对象作为节点,第一对象之间的关系作为边,利用图结合神经网络模型进行推理预测,得到第一对象之间的关系。
在确定目标关系后,还可以进一步进行目标关系分类,例如,按照目标关系为陌生人的概率进行分类,得到不同等级概率的陌生人分类,从而可以根据第一对象之间关系的分类采用相应的处理措施来处理跟随事件。
上述两个示例中,可以采用目标跟踪算法采集第一对象在多个有序三维场景的三维属性信息,并依据三维属性信息确定第一对象行为信息,并且可以进一步根据三维属性信息、行为信息建立关于第一对象的结构化数据。
在另一种示例中,还可以基于三维属性信息确定第一对象的行为模式,进而基于行为模式对第一对象进行行为预测。利用深度学习算法对多个有序三维场景进行学习,提取各个场景中的三维属性信息形成结构化数据,进一步采用图神经网络学习结构化数据,推算其中的演化规律,也即是行为模式,进而根据该演化规律可以对实时的三维场景进行推演,预测未来的行为。
其中,三维动态模型可以根据业务系统的建筑信息模型(Building InformationModeling)生成。在安全管理系统、交通系统、新零售系统中存在已有的三维模型,即建筑信息模型,通过调整建筑信息模型的坐标映射规则,可以实现动态图像中的二维属性信息和建筑信息模型的位置映射。建筑信息模型的坐标映射规则的调整,例如,标记多组二维图片(来自摄像机拍摄画面),并与三维模型中的匹配的点对(同一点在二维图片和三维模型中的位置),通过三维世界坐标系和二维像素坐标系之间的转化关系,求解矩阵H,具体为三维世界坐标=矩阵H*像素坐标,其中矩阵H即图像采集设备的内外参数。
参照图4,示出了根据本申请实施例四的一种基于三维场景的行为分析方法实施例的流程图,该方法具体可以包括以下步骤:
步骤401,根据实时动态图像渲染三维动态模板,得到实时的三维动态场景。
本步骤可以采用上述实施例1-2的方案实现,此处不再赘述。
步骤402,获取所述三维动态场景中至少一个第一对象的三维属性信息。
步骤403,基于所述三维属性信息确定所述第一对象的行为模式。
步骤404,基于所述行为模式对所述第一对象进行行为预测。
本申请实施例中,优选地,所述根据实时动态图像渲染三维动态模板,得到实时的三维动态场景包括:根据三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;将所述第一对象的三维属性信息添加至三维动态模板;实时渲染所述三维动态模板得到实时的三维动态场景。
本申请实施例中,优选地,所述方法还包括:
通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
步骤402-404及其子步骤的具体实现方式可以参照上述实施例3的方案实现,此处不再赘述。
依据本申请实施例,分析序列图像、视频图像等动态图像确定图像采集设备的三维映射参数,从而可以依据三维映射参数,将实时的动态图像中第一对象的二维属性信息映射为三维属性信息,进一步对添加该三维属性信息的三维动态模板进行实时渲染,可以得到实时的三维动态场景,相比于传统的三维重建方法获得的三维静态场景,动态场景中包含的信息更为全面丰富,可以作为针对场景下动态物体行为进行分析的依据。
基于渲染得到的三维动态场景可以进一步进行场景的认知分析,通过分析场景中对象行为,实现场景监控。
参照图5,示出了根据本申请实施例五的一种三维动态场景的创建方法实施例的流程图,该方法具体可以包括以下步骤:
步骤501,调用物联网系统获得三维动态场景中第二对象的三维属性信息。
步骤502,根据所述第二对象的三维属性信息更新三维动态模板。
步骤503,获取第一对象的三维属性信息,并添加至所述三维动态模板。
步骤504,实时渲染所述三维动态模板得到实时的三维动态场景。
依据本申请实施例,采用添加有物联网系统中第二对象的三维属性信息的三维动态模板,进一步将第一对象的三维属性信息添加至该三维动态模板,通过实时渲染三维动态模板得到实时的三维动态场景,相比于传统的三维重建方法获得的三维静态场景,动态场景中包含的信息更为全面丰富,可以作为针对场景下动态物体行为进行分析的依据。由于添加有来自物联网系统中物联网设备的信息,从而丰富了三维动态模板所提供的信息种类,使得三维动态场景的还原更为真实。
为使本领域技术人员更好地理解本申请,以下通过具体的示例对本申请的一种三维动态场景的创建方法进行说明。
参照图6,示出了本申请的一个示例中获得三维映射参数的流程示意图,图7示出了本申请的一个示例中创建三维动态场景的示意图,具体包括:
一、获得三维映射参数
1、图像获取步骤
获取无人机图像和监控视频图像,得到图像集合。
2、特征提取
提取图像集合中各个图像的特征信息。
3、并行匹配
在CPU和GPU建立多线程执行特征信息的匹配操作,确定对应同一对象的多张图像。
4、SFM
针对多张图像,基于SFM算法结合图像采集设备的真实位置信息,构建三维场景的稀疏点云。
5、特征点领域扩充
对稀疏点云进行稠密化处理,得到稠密点云。
6、并行匹配
采用多线程对稠密点云执行特征信息的匹配操作。
7、MVS表面重建
通过MVS算法对匹配后的稠密点云进行运算,得到图像采集设备的三维属性信息。
二、创建三维动态创景
1、监控视频流
通过视频采集设备获取实时的视频图像,逐张提取图像进行下述处理。
2、图像结构化分析
识别动态图像中的第一对象,并进一步获取第一对象的二维属性信息。
3、数据智能分析与融合
从物联网系统获取其中第二对象的二维属性信息,并映射为三维属性信息。
4、渲染目标3D模型
将第二对象的三维属性信息添加至3D模型。
5、投射并更新三维场景
渲染上述3D模型,则得到三维动态场景。执行对下一章图像的循环处理,进而可以得到实时的三维动态场景。
参考图8示出了本申请一个示例中基于三维场景的行为分析方案的示意图,具体包括:
1、映射
多张不同角度的2D图像映射至3D场景。
2、理解
针对3D场景,进行事件检测、多目标关联和人流密度检测。
3、视频推理3D到4D
获取多个时序3D场景,采用图结合神经网络,推理得到未来态势数据。
4、BIM信息对接
利用系统已有的BIM模型,结合立体视觉技术(MVS)进行三维重建得到三维映射参数,采用三维映射方法得到三维动态场景。进一步可以进行客流分析、异常检测、走失寻找、救援方案。
参照图9,示出了根据本申请实施例六的一种三维动态场景的创建装置实施例的结构框图,具体可以包括:
参数确定模块601,用于通过分析历史动态图像确定至少一个图像采集设备的三维映射参数;
映射模块602,用于根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
第一属性添加模块603,用于将所述第一对象的三维属性信息添加至三维动态模板;
渲染模块604,用于实时渲染所述三维动态模板得到实时的三维动态场景。
在本申请的一种优选实施例中,所述参数确定模块包括:
单张图像提取子模块,用于提取历史动态图像中的单张图像;
多张图像确定子模块,用于通过比对确定对应同一对象的多张图像;
参数计算子模块,用于根据对应同一对象的多张图像,确定所述图像采集设备的三维映射参数。
在本申请的一种优选实施例中,所述多张图像确定子模块,具体用于提取所述图像的特征信息;对图像的特征信息进行匹配,根据匹配结果确定对应同一对象的多张图像。
在本申请的一种优选实施例中,所述装置还包括:
线程出创建模块,用于在中央处理器和/或图形处理器中创建多个处理线程,所述多个处理线程用于并发执行所述根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息的步骤。
在本申请的一种优选实施例中,所述装置还包括:
第二属性添加模块,用于将三维动态场景中第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中。
在本申请的一种优选实施例中,所述第二属性添加模块包括:
设备信息调用子模块,用于调用物联网系统中的物联网设备的设备信息;
设备信息映射子模块,用于根据所述三维映射参数将所述设备信息映射为三维属性信息,作为所述第二对象对应的三维属性信息;
信息添加子模块,用于将所述物联网设备的三维属性信息添加至所述三维动态场景的三维动态模板中。
在本申请的一种优选实施例中,所述设备信息调用子模块,具体用于识别所述图像采集设备的位置信息,并确定对应所述位置信息的物联网设备。
在本申请的一种优选实施例中,所述装置还包括:
模板更新模块,用于通过检测所述实时动态图像确定第二对象发生属性变化,更新所述三维动态模板。
在本申请的一种优选实施例中,所述模板更新模块包括:
二维属性信息获取子模块,用于获取所述实时动态图像中所述第二对象的二维属性信息;
二维信息映射子模块,用于根据所述三维映射参数将所述第二对象的二维属性信息映射为三维属性信息;
模板更新子模块,用于采用所述第二对象的三维属性信息更新所述三维动态模板。
在本申请的一种优选实施例中,所述三维属性信息包括位置信息和姿态信息。
在本申请的一种优选实施例中,所述图像采集设备包括如下至少一种:监控摄像头、无人机设备。
在本申请的一种优选实施例中,所述装置还包括:
三维属性信息获取模块,用于获取所述三维动态场景中至少一个第一对象的三维属性信息;
行为识别模块,用于基于所述三维属性信息进行第一对象的行为识别。
在本申请的一种优选实施例中,所述行为识别模块包括:
第一行为信息确定子模块,用于根据所述三维属性信息确定所述第一对象的行为信息;
行为信息判定子模块,用于基于所述至少一个第一对象的行为信息进行事件判定,并根据判定结果确定是否发生目标事件。
在本申请的一种优选实施例中,所述行为识别模块包括:
第二行为信息确定子模块,用于根据所述三维属性信息确定多个第一对象的行为信息;
关系确定子模块,用于基于所述多个第一对象的行为信息,对所述多个第一对象进行行为关联,并根据关联结果确定是否具有目标关系。
在本申请的一种优选实施例中,所述行为识别模块包括:
模式确定子模块,用于基于所述三维属性信息确定所述第一对象的行为模式;
行为预测子模块,用于基于所述行为模式对所述第一对象进行行为预测。
在本申请的一种优选实施例中,所述装置还包括:
模型生成模块,用于从业务系统获取建筑信息模型,并根据所述建筑信息模型生成三维动态模型。
依据本申请实施例,分析序列图像、视频图像等动态图像确定图像采集设备的三维映射参数,从而可以依据三维映射参数,将实时的动态图像中第一对象的二维属性信息映射为三维属性信息,进一步对添加该三维属性信息的三维动态模板进行实时渲染,可以得到实时的三维动态场景,相比于传统的三维重建方法获得的三维静态场景,动态场景中包含的信息更为全面丰富,可以作为针对场景下动态物体行为进行分析的依据。
本申请的三维动态模板可以添加有来自物联网系统中物联网设备的信息,丰富了三维动态模板中所提供的信息种类,使得三维动态场景的还原更为真实。
本申请还在中央处理器和/或图形处理器中创建多个处理线程,从而可以加快对动态图像的处理速度,保证三维动态场景的渲染效果的连贯性。
基于渲染得到的三维动态场景可以进一步进行场景的认知分析,通过分析场景中对象行为,实现场景监控。
参照图10,示出了根据本申请实施例七的一种基于三维场景的行为分析装置实施例的结构框图,具体可以包括:
场景渲染模块701,用于根据实时动态图像渲染三维动态模板,得到实时的三维动态场景;
属性信息获取模块702,用于获取所述三维动态场景中至少一个第一对象的三维属性信息;
行为模式确定模块703,用于基于所述三维属性信息确定所述第一对象的行为模式;
行为预测模块704,用于基于所述行为模式对所述第一对象进行行为预测。
在本申请的一种优选实施例中,所述场景渲染模块包括:
属性信息映射子模块,用于根据三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
属性信息添加子模块,用于将所述第一对象的三维属性信息添加至三维动态模板;
渲染子模块,用于实时渲染所述三维动态模板得到实时的三维动态场景。
在本申请的一种优选实施例中,所述装置还包括:
参数确定模块,用于通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
依据本申请实施例,分析序列图像、视频图像等动态图像确定图像采集设备的三维映射参数,从而可以依据三维映射参数,将实时的动态图像中第一对象的二维属性信息映射为三维属性信息,进一步对添加该三维属性信息的三维动态模板进行实时渲染,可以得到实时的三维动态场景,相比于传统的三维重建方法获得的三维静态场景,动态场景中包含的信息更为全面丰富,可以作为针对场景下动态物体行为进行分析的依据。
基于渲染得到的三维动态场景可以进一步进行场景的认知分析,通过分析场景中对象行为,实现场景监控。
参照图11,示出了根据本申请实施例八的一种三维动态场景的创建装置实施例的结构框图,具体可以包括:
三维信息获取模块801,用于调用物联网系统获得三维动态场景中第二对象的三维属性信息;
模板更新模块802,用于根据所述第二对象的三维属性信息更新三维动态模板;
信息添加模块803,用于获取第一对象的三维属性信息,并添加至所述三维动态模板;
场景渲染模块804,用于实时渲染所述三维动态模板得到实时的三维动态场景。
依据本申请实施例,采用添加有物联网系统中第二对象的三维属性信息的三维动态模板,进一步将第一对象的三维属性信息添加至该三维动态模板,通过实时渲染三维动态模板得到实时的三维动态场景,相比于传统的三维重建方法获得的三维静态场景,动态场景中包含的信息更为全面丰富,可以作为针对场景下动态物体行为进行分析的依据。由于添加有来自物联网系统中物联网设备的信息,从而丰富了三维动态模板所提供的信息种类,使得三维动态场景的还原更为真实。
参照图12,示出了根据本申请实施例九的一种数据处理方法实施例的流程图,该方法具体可以包括以下步骤:
步骤901,获取至少两个2D图像数据,其中,所述至少两个2D图像数据所呈现的拍摄对象有交集,所述至少两个2D图像数据的拍摄对象不完全相同。
其中,2D图像数据可以包括无人机等设备采集的序列图像,也可以包括摄像头等视频设备采集的视频图像,本申请对此并不做限制。
上述至少两个2D图像数据针对同一场景拍摄的不同图像,因此,对应的拍摄对象有交集,并且对应的拍摄对象不完全相同,也即是对应的角度并不相同,或是基于不同的拍摄时间,场景中的拍摄对象发生了变化因此拍摄对象不完全相同。可以是同一设备或是不同设备拍摄得到。
步骤902,将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据。
步骤903,基于所述3D目标数据,进行事件检测。
一种示例中,可以识别3D数据中的多个数据对象,并判定多个数据对象的关联。具体的,基于所述3D目标数据进行事件检测时,从3D目标数据识别多个数据对象以及数据对象的对象属性,例如数据对象的行为信息;根据数据对象的对象属性建立多个数据对象之间的关联;根据关联结果进行事件判定。例如,可以对多个行人进行行为轨迹的监控,并根据多个行人的行为轨迹设定对应的判定规则,以识别多个人之间的关系,例如是否是同伴还是陌生人关系,进而判断是否发生异常尾随事件;或者识别多个人之间的关系是否为集体或陌生人,进而判断是否发生异常聚集事件。
另一种示例中,可以识别3D数据中的多个数据对象,并根据多个数据对象的对象属性,例如行为特征等,进行事件检测。
具体的,在基于3D目标数据进行事件检测时,从3D目标数据中识别多个数据对象以及数据对象的对象属性;根据多个数据对象的对象数据统计多个数据对象的群体特征;根据群体特征进行事件判定。
例如,可以在3D目标数据中识别出多个人,并识别人所处的位置区域,根据多个人所处的位置区域进而可以统计多个人在该区域内的人流密度,进而根据人流密度判定是否发生拥堵事件。
在具体的实现中,还可以获取多个3D目标数据,其中,多个所述3D目标数据为时序相关;进一步基于神经网络技术,进行事件预测。
在此之前,可以根据历史3D目标数据所包括的多个数据对象以及对应所述3D目标数据的目标事件,创建神经网络模型;进行事件预测时,根据所述神经网络模型以及所述3D目标数据进行事件预测。
其中需要说明的是,数据对象可以是人或移动物体等,其对象数据可以是行动特征,也可以是年龄、身高等特征。本申请对此并不做限制。
参照图13,示出了根据本申请实施例十的一种数据处理方法实施例的流程图,该方法具体可以包括以下步骤:
步骤1001,获取至少两个2D图像数据,其中,所述至少两个2D图像数据来自针对同一片空间区域拍摄的、位于不同位置或者不同角度的摄像头。
步骤1002,将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据。
步骤1003,基于所述3D目标数据,进行事件检测。
本实施例中,2D图像数据可以来源于针对同一场景的摄像头,可以是位于不同位置或是不同角度的不同摄像头拍摄得到,也可以是同一摄像头,在转动后从不同角度拍摄得到2D图像数据。
具体的检测细节可以参考其他实施例的方案,此处不再赘述。
参照图14,示出了根据本申请实施例十一的一种数据处理方法实施例的流程图,该方法具体可以包括以下步骤:
步骤1101,获取至少两个2D图像数据,其中,所述至少两个2D图像数据不完全相同;
步骤1102,将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
步骤1103,基于所述3D目标数据,进行事件检测。
本实施例中所提及的至少两个2D图像数据可以来自于针对同一场景或不同场景的图像获取设备,也可以来自于同一图像获取设备或不同的图像获取设备,可以是同一图像获取设备从同一角度或是从不同角度拍摄得到。
不同的2D图像不完全相同,即其拍摄内容存在差异,可以有部分拍摄对象相同,部分拍摄对象不同,也可以包括完全不同的拍摄对象。
需要说明的是,上述实施例九、十和十一中关于事件预测和事件检测的更多细节可以参照上述实施例3、实施例4以及各个示例。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开的实施例可被实现为使用任意适当的硬件,固件,软件,或及其任意组合进行想要的配置的系统。图15示意性地示出了可被用于实现本公开中所述的各个实施例的示例性系统(或装置)1200。
对于一个实施例,图15示出了示例性系统1200,该系统具有一个或多个处理器1202、被耦合到(一个或多个)处理器1202中的至少一个的系统控制模块(芯片组)1204、被耦合到系统控制模块1204的系统存储器1206、被耦合到系统控制模块1204的非易失性存储器(NVM)/存储设备1208、被耦合到系统控制模块1204的一个或多个输入/输出设备1210,以及被耦合到系统控制模块1206的网络接口1212。
处理器1202可包括一个或多个单核或多核处理器,处理器1202可包括通用处理器或专用处理器(例如图形处理器、应用处理器、基频处理器等)的任意组合。在一些实施例中,系统1200能够作为本申请实施例中所述的浏览器。
在一些实施例中,系统1200可包括具有指令的一个或多个计算机可读介质(例如,系统存储器1206或NVM/存储设备1208)以及与该一个或多个计算机可读介质相合并被配置为执行指令以实现模块从而执行本公开中所述的动作的一个或多个处理器1202。
对于一个实施例,系统控制模块1204可包括任意适当的接口控制器,以向(一个或多个)处理器1202中的至少一个和/或与系统控制模块1204通信的任意适当的设备或组件提供任意适当的接口。
系统控制模块1204可包括存储器控制器模块,以向系统存储器1206提供接口。存储器控制器模块可以是硬件模块、软件模块和/或固件模块。
系统存储器1206可被用于例如为系统1200加载和存储数据和/或指令。对于一个实施例,系统存储器1206可包括任意适当的易失性存储器,例如,适当的DRAM。在一些实施例中,系统存储器1206可包括双倍数据速率类型四同步动态随机存取存储器(DDR4SDRAM)。
对于一个实施例,系统控制模块1204可包括一个或多个输入/输出控制器,以向NVM/存储设备1208及(一个或多个)输入/输出设备1210提供接口。
例如,NVM/存储设备1208可被用于存储数据和/或指令。NVM/存储设备508可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(一个或多个)非易失性存储设备(例如,一个或多个硬盘驱动器(HDD)、一个或多个光盘(CD)驱动器和/或一个或多个数字通用光盘(DVD)驱动器)。
NVM/存储设备1208可包括在物理上作为系统1200被安装在其上的设备的一部分的存储资源,或者其可被该设备访问而不必作为该设备的一部分。例如,NVM/存储设备1208可通过网络经由(一个或多个)输入/输出设备1210进行访问。
(一个或多个)输入/输出设备1210可为系统1200提供接口以与任意其他适当的设备通信,输入/输出设备1210可以包括通信组件、音频组件、传感器组件等。网络接口1212可为系统1200提供接口以通过一个或多个网络通信,系统1200可根据一个或多个无线网络标准和/或协议中的任意标准和/或协议来与无线网络的一个或多个组件进行无线通信,例如接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合进行无线通信。
对于一个实施例,(一个或多个)处理器1202中的至少一个可与系统控制模块1204的一个或多个控制器(例如,存储器控制器模块)的逻辑封装在一起。对于一个实施例,(一个或多个)处理器1202中的至少一个可与系统控制模块1204的一个或多个控制器的逻辑封装在一起以形成系统级封装(SiP)。对于一个实施例,(一个或多个)处理器1202中的至少一个可与系统控制模块1204的一个或多个控制器的逻辑集成在同一模具上。对于一个实施例,(一个或多个)处理器1202中的至少一个可与系统控制模块1204的一个或多个控制器的逻辑集成在同一模具上以形成片上系统(SoC)。
在各个实施例中,系统1200可以但不限于是:浏览器、工作站、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)。在各个实施例中,系统1200可具有更多或更少的组件和/或不同的架构。例如,在一些实施例中,系统1200包括一个或多个摄像机、键盘、液晶显示器(LCD)屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路(ASIC)和扬声器。
其中,如果显示器包括触摸面板,显示屏可以被实现为触屏显示器,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块(programs),该一个或多个模块被应用在终端设备时,可以使得该终端设备执行本申请实施例中各方法步骤的指令(instructions)。
在一个示例中提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如本申请实施例的方法。
在一个示例中还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如本申请实施例的一个或多个的方法。
本申请实施例公开了一种三维动态场景的创建方法和装置,示例1包括一种三维动态场景的创建方法,包括:
通过分析历史动态图像确定至少一个图像采集设备的三维映射参数;
根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
将所述第一对象的三维属性信息添加至三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
示例2可包括示例1所述的方法,其中,所述通过分析历史动态图像确定视频设备的三维映射参数包括:
提取历史动态图像中的单张图像;
通过比对确定对应同一对象的多张图像;
根据对应同一对象的多张图像,确定所述图像采集设备的三维映射参数。
示例3可包括示例2所述的方法,其中,所述通过比对确定对应同一对象的多张图像包括:
提取所述图像的特征信息;
对图像的特征信息进行匹配,根据匹配结果确定对应同一对象的多张图像。
示例4可包括示例1所述的方法,其中,在所述根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息之前,所述方法还包括:
在中央处理器和/或图形处理器中创建多个处理线程,所述多个处理线程用于并发执行所述根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息的步骤。
示例5可包括示例1所述的方法,其中,在所述将所述第一对象的三维属性信息添加至所述三维动态模板中之前,所述方法还包括:
将三维动态场景中第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中。
示例6可包括示例5所述的方法,其中,所述将三维场景的第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中包括:
调用物联网系统中的物联网设备的设备信息;
根据所述三维映射参数将所述设备信息映射为三维属性信息,作为所述第二对象对应的三维属性信息;
将所述物联网设备的三维属性信息添加至所述三维动态场景的三维动态模板中。
示例7可包括示例6所述的方法,其中,所述调用物联网系统中的物联网设备的设备信息包括:
识别所述图像采集设备的位置信息,并确定对应所述位置信息的物联网设备。
示例8可包括示例1或示例5所述的方法,其中,所述方法还包括:
通过检测所述实时动态图像确定第二对象发生属性变化,更新所述三维动态模板。
示例9可包括示例8所述的方法,其中,所述通过检测所述实时动态图像确定所述第二对象发生属性变化,更新所述三维动态模板包括:
获取所述实时动态图像中所述第二对象的二维属性信息;
根据所述三维映射参数将所述第二对象的二维属性信息映射为三维属性信息;
采用所述第二对象的三维属性信息更新所述三维动态模板。
示例10可包括示例1所述的方法,其中,所述三维属性信息包括位置信息和姿态信息。
示例11可包括示例1所述的方法,其中,所述图像采集设备包括如下至少一种:监控摄像头、无人机设备。
示例12可包括示例1所述的方法,其中,所述方法还包括:
获取所述三维动态场景中至少一个第一对象的三维属性信息;
基于所述三维属性信息进行第一对象的行为识别。
示例13可包括示例12所述的方法,其中,所述基于所述三维属性信息进行第一对象的行为识别包括:
根据所述三维属性信息确定所述第一对象的行为信息;
基于所述至少一个第一对象的行为信息进行事件判定,并根据判定结果确定是否发生目标事件。
示例14可包括示例12所述的方法,其中,所述基于所述三维属性信息进行第一对象的行为识别包括:
根据所述三维属性信息确定多个第一对象的行为信息;
基于所述多个第一对象的行为信息,对所述多个第一对象进行行为关联,并根据关联结果确定是否具有目标关系。
示例15可包括示例12所述的方法,其中,所述基于所述三维属性信息进行第一对象的行为识别包括:
基于所述三维属性信息确定所述第一对象的行为模式;
基于所述行为模式对所述第一对象进行行为预测。
示例16可包括示例1所述的方法,其中,所述方法还包括:
从业务系统获取建筑信息模型,并根据所述建筑信息模型生成三维动态模型。
示例17包括一种基于三维场景的行为分析方法,其中,包括:
根据实时动态图像渲染三维动态模板,得到实时的三维动态场景;
获取所述三维动态场景中至少一个第一对象的三维属性信息;
基于所述三维属性信息确定所述第一对象的行为模式;
基于所述行为模式对所述第一对象进行行为预测。
示例18可包括示例17所述的方法,其中,所述根据实时动态图像渲染三维动态模板,得到实时的三维动态场景包括:
根据三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
将所述第一对象的三维属性信息添加至三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
示例19可包括示例18所述的方法,其中,所述方法还包括:
通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
示例20包括一种三维动态场景的创建方法,其中,包括:
调用物联网系统获得三维动态场景中第二对象的三维属性信息;
根据所述第二对象的三维属性信息更新三维动态模板;
获取第一对象的三维属性信息,并添加至所述三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
示例21包括一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如权利要求1-20一个或多个的方法。
示例22包括一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-20一个或多个的方法。
示例23包括一种数据处理方法,其中,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据所呈现的拍摄对象有交集,所述至少两个2D图像数据的拍摄对象不完全相同;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
示例24可包括示例23所述的方法,其中,所述基于所述3D目标数据进行事件检测包括:
从所述3D目标数据识别多个数据对象以及所述数据对象的对象属性;
根据所述数据对象的对象属性建立所述多个数据对象之间的关联;
根据关联结果进行事件判定。
示例25可包括示例23所述的方法,其中,所述基于所述3D目标数据进行事件检测包括:
从所述3D目标数据中识别多个数据对象以及所述数据对象的对象属性;
根据所述多个数据对象的对象数据统计所述多个数据对象的群体特征;
根据所述群体特征进行事件判定。
示例26可包括示例23所述的方法,其中,还包括:
获取多个所述3D目标数据,其中,多个所述3D目标数据为时序相关;
基于神经网络技术,进行事件预测。
示例27可包括示例26所述的方法,其中,在所述基于神经网络技术,进行事件预测之前,所述方法还包括:
根据历史3D目标数据所包括的多个数据对象以及对应所述3D目标数据的目标事件,创建神经网络模型;
所述基于神经网络技术,进行事件预测包括:
根据所述神经网络模型以及所述3D目标数据进行事件预测。
示例28包括一种数据处理方法,其中,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据来自针对同一片空间区域拍摄的、位于不同位置或者不同角度的摄像头;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
示例29包括一种数据处理方法,其中,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据不完全相同;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
虽然某些实施例是以说明和描述为目的的,各种各样的替代、和/或、等效的实施方案、或计算来达到同样的目的实施例示出和描述的实现,不脱离本申请的实施范围。本申请旨在覆盖本文讨论的实施例的任何修改或变化。因此,显然本文描述的实施例仅由权利要求和它们的等同物来限定。

Claims (29)

1.一种三维动态场景的创建方法,其特征在于,包括:
通过分析历史动态图像确定至少一个图像采集设备的三维映射参数;
根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
将所述第一对象的三维属性信息添加至三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
2.根据权利要求1所述的方法,其特征在于,所述通过分析历史动态图像确定视频设备的三维映射参数包括:
提取历史动态图像中的单张图像;
通过比对确定对应同一对象的多张图像;
根据对应同一对象的多张图像,确定所述图像采集设备的三维映射参数。
3.根据权利要求2所述的方法,其特征在于,所述通过比对确定对应同一对象的多张图像包括:
提取所述图像的特征信息;
对图像的特征信息进行匹配,根据匹配结果确定对应同一对象的多张图像。
4.根据权利要求1所述的方法,其特征在于,在所述根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息之前,所述方法还包括:
在中央处理器和/或图形处理器中创建多个处理线程,所述多个处理线程用于并发执行所述根据所述三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息的步骤。
5.根据权利要求1所述的方法,其特征在于,在所述将所述第一对象的三维属性信息添加至所述三维动态模板中之前,所述方法还包括:
将三维动态场景中第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中。
6.根据权利要求5所述的方法,其特征在于,所述将三维场景的第二对象对应的三维属性信息物添加至所述三维动态场景的三维动态模板中包括:
调用物联网系统中的物联网设备的设备信息;
根据所述三维映射参数将所述设备信息映射为三维属性信息,作为所述第二对象对应的三维属性信息;
将所述物联网设备的三维属性信息添加至所述三维动态场景的三维动态模板中。
7.根据权利要求6所述的方法,其特征在于,所述调用物联网系统中的物联网设备的设备信息包括:
识别所述图像采集设备的位置信息,并确定对应所述位置信息的物联网设备。
8.根据权利要求1或5所述的方法,其特征在于,所述方法还包括:
通过检测所述实时动态图像确定第二对象发生属性变化,更新所述三维动态模板。
9.根据权利要求8所述的方法,其特征在于,所述通过检测所述实时动态图像确定所述第二对象发生属性变化,更新所述三维动态模板包括:
获取所述实时动态图像中所述第二对象的二维属性信息;
根据所述三维映射参数将所述第二对象的二维属性信息映射为三维属性信息;
采用所述第二对象的三维属性信息更新所述三维动态模板。
10.根据权利要求1所述的方法,其特征在于,所述三维属性信息包括位置信息和姿态信息。
11.根据权利要求1所述的方法,其特征在于,所述图像采集设备包括如下至少一种:监控摄像头、无人机设备。
12.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述三维动态场景中至少一个第一对象的三维属性信息;
基于所述三维属性信息进行第一对象的行为识别。
13.根据权利要求12所述的方法,其特征在于,所述基于所述三维属性信息进行第一对象的行为识别包括:
根据所述三维属性信息确定所述第一对象的行为信息;
基于所述至少一个第一对象的行为信息进行事件判定,并根据判定结果确定是否发生目标事件。
14.根据权利要求12所述的方法,其特征在于,所述基于所述三维属性信息进行第一对象的行为识别包括:
根据所述三维属性信息确定多个第一对象的行为信息;
基于所述多个第一对象的行为信息,对所述多个第一对象进行行为关联,并根据关联结果确定是否具有目标关系。
15.根据权利要求12所述的方法,其特征在于,所述基于所述三维属性信息进行第一对象的行为识别包括:
基于所述三维属性信息确定所述第一对象的行为模式;
基于所述行为模式对所述第一对象进行行为预测。
16.根据权利要求1所述的方法,其特征在于,所述方法还包括:
从业务系统获取建筑信息模型,并根据所述建筑信息模型生成三维动态模型。
17.一种基于三维场景的行为分析方法,其特征在于,包括:
根据实时动态图像渲染三维动态模板,得到实时的三维动态场景;
获取所述三维动态场景中至少一个第一对象的三维属性信息;
基于所述三维属性信息确定所述第一对象的行为模式;
基于所述行为模式对所述第一对象进行行为预测。
18.根据权利要求17所述的方法,其特征在于,所述根据实时动态图像渲染三维动态模板,得到实时的三维动态场景包括:
根据三维映射参数,将实时动态图像中第一对象的二维属性信息映射为三维属性信息,其中,所述历史动态图像或实时动态图像包括序列图像和/或视频图像;
将所述第一对象的三维属性信息添加至三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
19.根据权利要求18所述的方法,其特征在于,所述方法还包括:
通过分析历史动态图像确定至少一个图像采集设备的三维映射参数。
20.一种三维动态场景的创建方法,其特征在于,包括:
调用物联网系统获得三维动态场景中第二对象的三维属性信息;
根据所述第二对象的三维属性信息更新三维动态模板;
获取第一对象的三维属性信息,并添加至所述三维动态模板;
实时渲染所述三维动态模板得到实时的三维动态场景。
21.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-20一个或多个的方法。
22.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-20一个或多个的方法。
23.一种数据处理方法,其特征在于,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据所呈现的拍摄对象有交集,所述至少两个2D图像数据的拍摄对象不完全相同;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
24.根据权利要求23所述的数据处理方法,其特征在于,所述基于所述3D目标数据进行事件检测包括:
从所述3D目标数据识别多个数据对象以及所述数据对象的对象属性;
根据所述数据对象的对象属性建立所述多个数据对象之间的关联;
根据关联结果进行事件判定。
25.根据权利要求23所述的数据处理方法,其特征在于,所述基于所述3D目标数据进行事件检测包括:
从所述3D目标数据中识别多个数据对象以及所述数据对象的对象属性;
根据所述多个数据对象的对象数据统计所述多个数据对象的群体特征;
根据所述群体特征进行事件判定。
26.根据权利要求23所述的数据处理方法,其特征在于,还包括:
获取多个所述3D目标数据,其中,多个所述3D目标数据为时序相关;
基于神经网络技术,进行事件预测。
27.根据权利要求26所述的数据处理方法,其特征在于,在所述基于神经网络技术,进行事件预测之前,所述方法还包括:
根据历史3D目标数据所包括的多个数据对象以及对应所述3D目标数据的目标事件,创建神经网络模型;
所述基于神经网络技术,进行事件预测包括:
根据所述神经网络模型以及所述3D目标数据进行事件预测。
28.一种数据处理方法,其特征在于,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据来自针对同一片空间区域拍摄的、位于不同位置或者不同角度的摄像头;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
29.一种数据处理方法,其特征在于,包括:
获取至少两个2D图像数据,其中,所述至少两个2D图像数据不完全相同;
将所述至少两个2D图像数据,映射至3D模型,获取3D目标数据;
基于所述3D目标数据,进行事件检测。
CN201910381780.1A 2019-05-08 2019-05-08 一种三维动态场景的创建方法、计算机设备、存储介质 Pending CN111915713A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910381780.1A CN111915713A (zh) 2019-05-08 2019-05-08 一种三维动态场景的创建方法、计算机设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910381780.1A CN111915713A (zh) 2019-05-08 2019-05-08 一种三维动态场景的创建方法、计算机设备、存储介质

Publications (1)

Publication Number Publication Date
CN111915713A true CN111915713A (zh) 2020-11-10

Family

ID=73242000

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910381780.1A Pending CN111915713A (zh) 2019-05-08 2019-05-08 一种三维动态场景的创建方法、计算机设备、存储介质

Country Status (1)

Country Link
CN (1) CN111915713A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205707A (zh) * 2022-09-13 2022-10-18 阿里巴巴(中国)有限公司 样本图像生成方法、存储介质以及电子设备
CN115657728A (zh) * 2022-12-12 2023-01-31 辽宁电力能源发展集团有限公司 一种无人机仿真控制方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205707A (zh) * 2022-09-13 2022-10-18 阿里巴巴(中国)有限公司 样本图像生成方法、存储介质以及电子设备
CN115657728A (zh) * 2022-12-12 2023-01-31 辽宁电力能源发展集团有限公司 一种无人机仿真控制方法及系统

Similar Documents

Publication Publication Date Title
Wan et al. Edge computing enabled video segmentation for real-time traffic monitoring in internet of vehicles
US20200364443A1 (en) Method for acquiring motion track and device thereof, storage medium, and terminal
KR102469295B1 (ko) 깊이를 사용한 비디오 배경 제거
US10254845B2 (en) Hand gesture recognition for cursor control
US10354129B2 (en) Hand gesture recognition for virtual reality and augmented reality devices
US20200290608A1 (en) Forward collision control method and apparatus, electronic device, program, and medium
RU2693906C2 (ru) Основанный на правилах анализ важности видео
US10979622B2 (en) Method and system for performing object detection using a convolutional neural network
US9224211B2 (en) Method and system for motion detection in an image
EP2956891B1 (en) Segmenting objects in multimedia data
US20150350608A1 (en) System and method for activity monitoring using video data
Chen et al. Asynchronous tracking-by-detection on adaptive time surfaces for event-based object tracking
JP6616521B2 (ja) 画像処理装置
CN104969240B (zh) 用于图像处理的方法和系统
KR20220081261A (ko) 객체 포즈 추정 방법 및 장치
Wu et al. Real‐time running detection system for UAV imagery based on optical flow and deep convolutional networks
Mousse et al. People counting via multiple views using a fast information fusion approach
Lage et al. Low-cost IoT surveillance system using hardware-acceleration and convolutional neural networks
CN111915713A (zh) 一种三维动态场景的创建方法、计算机设备、存储介质
Delibasoglu et al. Motion detection in moving camera videos using background modeling and FlowNet
Yang et al. Video anomaly detection for surveillance based on effective frame area
WO2023105800A1 (en) Object detection device, object detection method, and object detection system
US20220180548A1 (en) Method and apparatus with object pose estimation
Liang et al. Towards better railway service: Passengers counting in railway compartment
Rimboux et al. Smart IoT cameras for crowd analysis based on augmentation for automatic pedestrian detection, simulation and annotation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination