CN113450462B - 一种三维场景动态元素还原方法、装置及存储介质 - Google Patents

一种三维场景动态元素还原方法、装置及存储介质 Download PDF

Info

Publication number
CN113450462B
CN113450462B CN202110681368.9A CN202110681368A CN113450462B CN 113450462 B CN113450462 B CN 113450462B CN 202110681368 A CN202110681368 A CN 202110681368A CN 113450462 B CN113450462 B CN 113450462B
Authority
CN
China
Prior art keywords
target object
dimensional scene
model
dimensional
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110681368.9A
Other languages
English (en)
Other versions
CN113450462A (zh
Inventor
卢毅然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Linghui Information Technology Co ltd
Original Assignee
Guangzhou Linghui Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Linghui Information Technology Co ltd filed Critical Guangzhou Linghui Information Technology Co ltd
Priority to CN202110681368.9A priority Critical patent/CN113450462B/zh
Publication of CN113450462A publication Critical patent/CN113450462A/zh
Application granted granted Critical
Publication of CN113450462B publication Critical patent/CN113450462B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种三维场景动态元素还原方法、装置及存储介质,该方法包括:采集影像画面,根据影像画面获取目标对象在三维场景模型中的空间位置信息;采用人工智能技术对影像画面进行图像目标检测,得到目标对象的类别信息;根据目标对象的类别信息在虚拟三维场景中添加对应的三维目标模型;将三维目标模型与目标对象的空间位置还原至三维场景模型,将目标对象还原于三维场景模型中。本发明实施例采用人工智能技术得到目标对象的类别信息获取影像画面中目标对象的空间位置以及类别信息,根据该类别信息获取对应的三维目标模型,结合目标对象的空间位置以及类别信息还原至虚拟三维场景中,能够有效提高虚拟三维场景的还原效果。

Description

一种三维场景动态元素还原方法、装置及存储介质
技术领域
本发明涉及摄影测量定位技术领域,尤其是涉及一种三维场景动态元素还原方法、装置及存储介质。
背景技术
目前,制作三维场景模型的方法包括:通过倾斜摄影技术制作输出三维场景模型;根据现场测绘信息制作成三维场景模型;通过三维引擎软件或3DGIS平台实现三维场景模型的制作。由于三维场景模型通常是以静态元素为主,并不包括动态元素。为了高效真实还原三维场景中的动态元素,现有技术主要是利用定位设备获取定位数据,将该定位数据在三维场景进行动态元素模拟得到动态元素,而且对场景内所有目标需要配备定位设备才能实现,从而导致现成的成本较高。
发明内容
本发明提供一种三维场景动态元素还原方法、装置及存储介质,以解决现有的三维场景动态元素还原方法难以准确将模拟得到的动态元素叠加在原三维场景中,导致三维场景动态元素的还原效果较差的技术问题。
本发明的第一实施例提供了一种三维场景动态元素还原方法,包括:
采集影像画面,根据所述影像画面获取目标对象在三维场景模型中的空间位置;
采用人工智能技术对所述影像画面进行图像目标检测,得到所述目标对象的类别信息;
根据所述目标对象的类别信息在虚拟三维场景中添加对应的三维目标模型;
将所述三维目标模型与所述目标对象的空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中。
进一步的,所述采集影像画面,根据所述影像画面获取目标对象在三维场景模型中的空间位置,具体为:
采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;
将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;
以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对象在所述三维模型中的空间位置。
进一步的,所述利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度,具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备获取的二维图像进行反向角度换算计算得到所述目标对象在视野角度内的相对角度。
进一步的,所述射线交汇测量的方法包括:
以所述起始位置和所述射线角度发射射线至由网格面组成的三维场景模型,将所述射线与所述三维场景模型的网格面的交汇点作为所述目标对象在所述三维模型中的空间位置;或,
以所述起始位置和所述射线角度发射射线至由点云组成的三维场景模型,将所述射线与所述三维场景的点云的交汇点作为所述目标对象在所述三维模型中的空间位置。
进一步的,在得到目标对象在所述三维模型中的空间位置之后,还包括:
根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
进一步的,还原方法还包括:利用人工智能技术对所述影像画面进行图像目标检测,得到所述目标对象的特征信息。
进一步的,还原方法还包括:获取待检测影像画面,采用人工智能技术在预先训练好的视觉神经网络进行目标检测,得到所述目标对象的方位的第一朝向信息,将第一朝向信息和监测设备的角度叠加得到目标对象方位的第二朝向信息。
进一步的,还原方法还包括:将所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别模型和所述空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中;和/或,将获取到的所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别模型和所述空间位置进行收集整理并存储于数据库中。
本发明的第二实施例提供了一种三维场景动态元素还原装置,包括:
位置信息获取模块,用于采集影像画面,根据所述影像画面获取目标对象在三维场景模型中的空间位置;
图像目标检测模块,用于采用人工智能技术对所述影像画面进行图像目标检测,得到所述目标对象的类别信息;
类别模型添加模块,用于根据所述目标对象的类别信息在虚拟三维场景中添加对应的三维目标模型;
三维场景还原模块,用于将所述三维目标模型与所述目标对象的空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中。
本发明的第三实施例提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如上述的三维场景动态元素还原方法。
本发明实施例在获取三维场景模型中的空间位置后,采用人工智能技术得到目标对象的类别信息获取影像画面中目标对象的空间位置以及类别信息,根据该类别信息获取对应的三维目标模型,结合目标对象的空间位置以及类别信息还原至虚拟三维场景中,能够有效提高虚拟三维场景的还原效果。
附图说明
图1是本发明实施例提供的一种三维场景动态元素还原方法的流程示意图;
图2是本发明实施例提供的一种三维场景动态元素还原装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
请参阅图1-2,本发明的第一实施例提供了图1所示的一种三维场景动态元素还原方法,包括:
S1、采集影像画面,根据影像画面获取目标对象在三维场景模型中的空间位置;
S2、采用人工智能技术对影像画面进行图像目标检测,得到目标对象的类别信息;
S3、根据目标对象的类别信息在虚拟三维场景中添加对应的三维目标模型;
S4、将三维目标模型与目标对象的空间位置还原至三维场景模型,将目标对象还原于三维场景模型中。
本发明实施例在获取三维场景模型中的空间位置后,采用人工智能技术得到目标对象的类别信息获取影像画面中目标对象的空间位置以及类别信息,根据该类别信息获取对应的三维目标模型,结合目标对象的空间位置以及类别信息还原至虚拟三维场景中,能够有效提高虚拟三维场景的还原效果。
作为本发明实施例的一种具体实施方式,采集影像画面,根据影像画面获取目标对象在三维场景模型中的空间位置,具体为:
采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
利用投影成像原理,根据镜头特性将位置及范围转换成目标对象视野角度内的相对角度;
将现场监控设备的角度作为射线的基准角度,将基准角度与相对角度进行角度叠加得到射线角度;
以监控设备的现场位置为射线的起始位置,以射线角度对三维场景模型进行射线交汇测量,得到目标对象在三维模型中的空间位置。
本发明实施例采用人工智能技术检测目标对象在影像画面中的位置及范围,并结合投影成像原理对三维场景模型进行交汇测量,从而准确获取目标对象在三维场景模型中的空间位置,提高对目标对象的空间定位精度。
进一步的,本发明实施例还在目标对象在三维场景模型中的相对空间坐标的基础上,叠加三维场景模型的地理空间坐标得到目标对象的地理空间信息,从而能够进一步提高目标对象空间定位的准确性。
作为本发明实施例的一种具体实施方式,利用投影成像原理,根据镜头特性将位置及范围转换成目标对象视野角度内的相对角度,具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备获取的二维图像进行反向角度换算计算得到所述目标对象在视野角度内的相对角度。
可选地,在采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测之前,需要预先制作与现实场景尺寸一致的三维场景模型,三维场景模型的制作方法包括但不限于采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作。可以理解的是,在制作得到与现实场景尺寸一致的三维场景模型后,能够得到与现实场景对应的三维网格或点云数据。
本发明实施例以现场监控设备的角度为基准角度,在此基础上叠加目标对象视野角度内的相对角度得到射线角度,在确定了射线的起始位置以及射线角度后,以射线交汇测量方法能够准确获取目标对象在三维场景模型中的空间位置。
作为本发明实施例的一种具体实施方式,射线交汇测量的方法包括:
以起始位置和射线角度发射射线至由网格面组成的三维场景模型,将射线与三维场景模型的网格面的交汇点作为目标对象在三维模型中的空间位置;或,
以起始位置和射线角度发射射线至由点云组成的三维场景模型,将射线与三维场景的点云的交汇点作为目标对象在三维模型中的空间位置。
在本发明实施例中,所述网格面可以为三角面或四角面构成。
在本发明实施例中,通过确定射线的起始位置以及射线的发射角度,根据射线与三维场景的交汇能够准确获得目标对象的空间位置。
作为本发明实施例的一种具体实施方式,在得到目标对象在所述三维模型中的空间位置之后,还包括:根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
目标对象的实际尺寸包括目标对象的高度信息和宽度信息,本发明实施例根据该位置及范围得到目标对象的成像位置与目标对象的实际位置的距离,计算目标对象在影像画面中的影像尺寸,基于该影像尺寸采用勾股定理计算得到目标对象的实际尺寸。本发明实施例考虑了目标对象的位置及范围与目标对象的实际位置之间的关系,根据影像尺寸计算实际尺寸,能够准确得到目标对象的实际尺寸,从而能够进一步提目标对象的定位效果,从而能够有效提高三维场景动态元素的还原效果。
作为本发明实施例的一种具体实施方式,在“以监控设备的现场位置为射线的起始位置,以射线角度对三维场景模型进行射线交汇测量,得到目标对象的在三维模型中的空间位置”之后,还包括:
将三维场景模型的地理空间坐标与目标对象在三维场景模型中的空间位置进行叠加,得到目标对象的地理空间坐标。
可选地,三维场景模型的地理空间坐标的获取方法包括:利用RTK等测量设备进行现场测量得到该地理空间信息,并将该地理空间信息对目标对象在虚拟三维场景中的相对空间坐标进行叠加以及换算,得到目标对象的地理空间信息。
本发明实施例通将该地理空间信息叠加在目标对象在三维场景模型中的相对空间坐标,所得到的目标对象信息不仅包括经纬度信息,还包括海拔高度和旋转角度信息,从而有效提高对目标对象进行空间定位的全面性。
作为本发明实施例的一种具体实施方式,还原方法还包括:
利用人工智能技术对影像画面进行图像目标检测,得到目标对象的特征信息。
具体为:根据现场监控设备采集若干影像画面,通过视觉神经网络图像识别技术识别影像画面中目标对象的类别特征信息;将影像画面制作为训练样本对神经网络进行训练,得到第二视觉检测神经网络;获取待检测影像画面,根据第二视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在虚拟三维场景中的类别特征信息。可选地,在将影像画面制作为训练样本后,可以通过数据增强扩展样本数据,以提高训练效果的准确性和可靠性。
本发明通过将影像画面制作为训练样本对神经网络进行训练,得到第二视觉检测神经网络,并根据第一视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在虚拟三维场景中的类别特征信息,通过模型训练的方式能够准确得到目标对象在虚拟三维场景中的类别特征信息,从而能够有效提高虚拟三维场景动态元素的还原效果。
进一步的,还原方法还包括:获取待检测影像画面,采用人工智能技术在预先训练好的视觉神经网络进行目标检测,得到所述目标对象的方位的第一朝向信息,将第一朝向信息和监测设备的角度叠加得到目标对象方位的第二朝向信息。
具体为:根据现场监控设备采集若干影像画面,通过视觉神经网络图像识别技术识别影像画面中目标对象的第一朝向信息;将影像画面制作为训练样本对神经网络进行训练,得到第一视觉检测神经网络;获取待检测影像画面,根据第一视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在影像画面中的朝向;然后将第一朝向信息和监测设备的角度进行叠加,即将第一朝向信息和监测设备的朝向进行叠加,叠加后得到第二朝向信息,所述第二朝向信息为目标对象在三维场景中的朝向。
可选地,在将影像画面制作为训练样本后,可以通过数据增强扩展样本数据,以提高训练效果的准确性和可靠性。
本发明通过将影像画面制作为训练样本对神经网络进行训练,得到第一视觉检测神经网络,并根据第一视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在虚拟三维场景中的第一朝向信息,通过模型训练的方式能够准确得到目标对象在虚拟三维场景中的第朝向信息,从而能够有效提高虚拟三维场景动态元素的还原效果。
进一步的,还原方法还包括:将所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别模型和所述空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中;和/或,将获取到的所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别模型和所述空间位置进行收集整理并存储于数据库中。
在本发明的实施过程中不仅可以将获取到的多个维度的信息还原到三维场景模型中,用于直观的向使用者进行展示;同时还可以将收集到的多个维度的信息储存于数据库中,用于后续对数据的处理或使用,可以通过查询数据库获取想要的目标对象的信息。
实施本发明实施例,具有以下有益效果:
本发明实施例在获取三维场景模型中的空间位置后,采用人工智能技术得到目标对象的类别信息获取影像画面中目标对象的空间位置以及类别信息,根据该类别信息获取对应的三维目标模型,本发明实施例结合目标对象的实际尺寸信息、第二朝向信息和三维目标模型还原至虚拟三维场景中,能够有效提高虚拟三维场景的还原效果。
进一步的,本发明实施例还基于目标对象的空间位置获取目标对象的移动轨迹信息,将该移动轨迹信息还原至虚拟三维场景中,能够进一步提高三维场景的还原效果。
本发明实施例作为主动式对目标对象进行信息收集的技术方案,适应用于警务对公共场所区域管理,交通安全管理等。本发明实施例能够提供主动及持续的信息收集,可以实现实时现场事件报警,如突然的人员会集,事故导致的交通堵塞等,能够有效提高突发事件的处理效率;并且本发明实施例能够提供多维度信息检索,如发生案情后,可根据还原的三维场景实现对案件线索进行多维度信息排查,从而能够有效提高案件的侦测效率。
请参阅图2,本发明的第二实施例提供了一种三维场景动态元素还原装置,包括:
位置信息获取模块10,用于采集影像画面,根据影像画面获取目标对象在三维场景模型中的空间位置;
图像目标检测模块20,用于采用人工智能技术对影像画面进行图像目标检测,得到目标对象的类别信息;
类别模型添加模块30,用于根据目标对象的类别信息在虚拟三维场景中添加对应的三维目标模型;
三维场景还原模块40,用于将三维目标模型与目标对象的空间位置还原至三维场景模型,将目标对象还原于三维场景模型中。
本发明实施例在获取三维场景模型中的空间位置后,采用人工智能技术得到目标对象的类别信息获取影像画面中目标对象的空间位置以及类别信息,根据该类别信息获取对应的三维目标模型,结合目标对象的空间位置以及类别信息还原至虚拟三维场景中,能够有效提高虚拟三维场景的还原效果。
作为本发明实施例的一种具体实施方式,位置信息获取模块10具体用于:
采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
利用投影成像原理,根据镜头特性将位置及范围转换成目标对象视野角度内的相对角度;
将现场监控设备的角度作为射线的基准角度,将基准角度与相对角度进行角度叠加得到射线角度;
以监控设备的现场位置为射线的起始位置,以射线角度对三维场景模型进行射线交汇测量,得到目标对象在三维模型中的空间位置。
本发明实施例采用人工智能技术检测目标对象在影像画面中的位置及范围,并结合投影成像原理对三维场景模型进行交汇测量,从而准确获取目标对象在三维场景模型中的空间位置,提高对目标对象的空间定位精度。
进一步的,本发明实施例还在目标对象在三维场景模型中的相对空间坐标的基础上,叠加三维场景模型的地理空间坐标得到目标对象的地理空间信息,从而能够进一步提高目标对象空间定位的准确性。
作为本发明实施例的一种具体实施方式,利用投影成像原理,根据镜头特性将位置及范围转换成目标对象视野角度内的相对角度,具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备获取的二维图像进行反向角度换算计算得到所述目标对象在视野角度内的相对角度。
可选地,在采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测之前,需要预先制作与现实场景尺寸一致的三维场景模型,三维场景模型的制作方法包括但不限于采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作。可以理解的是,在制作得到与现实场景尺寸一致的三维场景模型后,能够得到与现实场景对应的三维网格或点云数据。
本发明实施例以现场监控设备的角度为基准角度,在此基础上叠加目标对象视野角度内的相对角度得到射线角度,在确定了射线的起始位置以及射线角度后,以射线交汇测量方法能够准确获取目标对象在三维场景模型中的空间位置。
作为本发明实施例的一种具体实施方式,射线交汇测量的方法包括:
以起始位置和射线角度发射射线至由网格面组成的三维场景模型,将射线与三维场景模型的网格面的交汇点作为目标对象在三维模型中的空间位置;或,
以起始位置和射线角度发射射线至由点云组成的三维场景模型,将射线与三维场景的点云的交汇点作为目标对象在三维模型中的空间位置。
在本发明实施例中,通过确定射线的起始位置以及射线的发射角度,根据射线与三维场景的交汇能够准确获得目标对象的空间位置。
作为本发明实施例的一种具体实施方式,在得到目标对象在所述三维模型中的空间位置之后,还包括:
根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
目标对象的实际尺寸包括目标对象的高度信息和宽度信息,本发明实施例根据该位置及范围得到目标对象的成像位置与目标对象的实际位置的距离,计算目标对象在影像画面中的影像尺寸,基于该影像尺寸采用勾股定理计算得到目标对象的实际尺寸。本发明实施例考虑了目标对象的位置及范围与目标对象的实际位置之间的关系,根据影像尺寸计算实际尺寸,能够准确得到目标对象的实际尺寸,从而能够进一步提目标对象的定位效果,从而能够有效提高三维场景动态元素的还原效果。
作为本发明实施例的一种具体实施方式,本发明实施例还包括坐标叠加模块,用于:
将三维场景模型的地理空间坐标与目标对象在三维场景模型中的空间位置进行叠加,得到目标对象的地理空间坐标。
可选地,三维场景模型的地理空间坐标的获取方法包括:利用RTK等测量设备进行现场测量得到该地理空间信息,并将该地理空间信息对目标对象在虚拟三维场景中的相对空间坐标进行叠加以及换算,得到目标对象的地理空间信息。
本发明实施例通将该地理空间信息叠加在目标对象在三维场景模型中的相对空间坐标,所得到的目标对象信息不仅包括经纬度信息,还包括海拔高度和旋转角度信息,从而有效提高对目标对象进行空间定位的全面性。
作为本发明实施例的一种具体实施方式,还原方法还包括目标检测模块,用于:
利用人工智能技术对影像画面进行图像目标检测,得到目标对象的特征信息。
具体为:根据现场监控设备采集若干影像画面,通过视觉神经网络图像识别技术识别影像画面中目标对象的类别特征信息;将影像画面制作为训练样本对神经网络进行训练,得到第二视觉检测神经网络;获取待检测影像画面,根据第二视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在虚拟三维场景中的类别特征信息。可选地,在将影像画面制作为训练样本后,可以通过数据增强扩展样本数据,以提高训练效果的准确性和可靠性。
本发明通过将影像画面制作为训练样本对神经网络进行训练,得到第二视觉检测神经网络,并根据第一视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在虚拟三维场景中的类别特征信息,通过模型训练的方式能够准确得到目标对象在虚拟三维场景中的类别特征信息,从而能够有效提高虚拟三维场景动态元素的还原效果。
进一步的,还原方法还包括:获取待检测影像画面,采用人工智能技术在预先训练好的视觉神经网络进行目标检测,得到所述目标对象的方位的第一朝向信息,将第一朝向信息和监测设备的角度叠加得到目标对象方位的第二朝向信息。
具体为:根据现场监控设备采集若干影像画面,通过视觉神经网络图像识别技术识别影像画面中目标对象的第一朝向信息;将影像画面制作为训练样本对神经网络进行训练,得到第一视觉检测神经网络;获取待检测影像画面,根据第一视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在影像画面中的朝向;然后将第一朝向信息和监测设备的角度进行叠加,即将第一朝向信息和监测设备的朝向进行叠加,叠加后得到第二朝向信息,所述第二朝向信息为目标对象在三维场景中的朝向。
可选地,在将影像画面制作为训练样本后,可以通过数据增强扩展样本数据,以提高训练效果的准确性和可靠性。
本发明通过将影像画面制作为训练样本对神经网络进行训练,得到第一视觉检测神经网络,并根据第一视觉检测神经网络对待检测影像画面进行图像目标检测,检测得到目标对象在虚拟三维场景中的第一朝向信息,通过模型训练的方式能够准确得到目标对象在虚拟三维场景中的第朝向信息,从而能够有效提高虚拟三维场景动态元素的还原效果。
进一步的,还原方法还包括:将所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别模型和所述空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中;和/或,将获取到的所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别模型和所述空间位置进行收集整理并存储于数据库中。
在本发明的实施过程中不仅可以将获取到的多个维度的信息还原到三维场景模型中,用于直观的向使用者进行展示;同时还可以将收集到的多个维度的信息储存于数据库中,用于后续对数据的处理或使用,可以通过查询数据库获取想要的目标对象的信息。
实施本发明实施例,具有以下有益效果:
本发明实施例在获取三维场景模型中的空间位置后,采用人工智能技术得到目标对象的类别信息获取影像画面中目标对象的空间位置以及类别信息,根据该类别信息获取对应的三维目标模型,本发明实施例结合目标对象的实际尺寸信息、第二朝向信息和三维目标模型还原至虚拟三维场景中,能够有效提高虚拟三维场景的还原效果。
实施本发明实施例,具有以下有益效果:
本发明实施例在获取三维场景模型中的空间位置后,采用人工智能技术得到目标对象的类别信息获取影像画面中目标对象的空间位置以及类别信息,根据该类别信息获取对应的三维目标模型,本发明实施例结合目标对象的实际尺寸信息、第二朝向信息和三维目标模型还原至虚拟三维场景中,能够有效提高虚拟三维场景的还原效果。
进一步的,本发明实施例还基于目标对象的空间位置获取目标对象的移动轨迹信息,将该移动轨迹信息还原至虚拟三维场景中,能够进一步提高三维场景的还原效果。
本发明实施例作为主动式对目标对象进行信息收集的技术方案,适应用于警务对公共场所区域管理,交通安全管理等。本发明实施例能够提供主动及持续的信息收集,可以实现实时现场事件报警,如突然的人员会集,事故导致的交通堵塞等,能够有效提高突发事件的处理效率;并且本发明实施例能够提供多维度信息检索,如发生案情后,可根据还原的三维场景实现对案件线索进行多维度信息排查,从而能够有效提高案件的侦测效率。
本发明的第三实施例提供了一种计算机可读存储介质,计算机可读存储介质包括存储的计算机程序,其中,在计算机程序运行时控制计算机可读存储介质所在设备执行如上述的三维场景动态元素还原方法。
以上是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (9)

1.一种三维场景动态元素还原方法,其特征在于,包括:
采集影像画面,根据所述影像画面获取目标对象在三维场景模型中的空间位置;
采用人工智能技术对所述影像画面进行图像目标检测,得到所述目标对象的类别信息;
根据所述目标对象的类别信息在虚拟三维场景中添加对应的三维目标模型;
将所述三维目标模型与所述目标对象的空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中;
其中,所述采集影像画面,根据所述影像画面获取目标对象在三维场景模型中的空间位置,具体为:
采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;
将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;
以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对象在所述三维场景模型中的空间位置。
2.如权利要求1所述的三维场景动态元素还原方法,其特征在于,所述利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度,具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备获取的二维图像进行反向角度换算计算得到所述目标对象在视野角度内的相对角度。
3.如权利要求1所述的三维场景动态元素还原方法,其特征在于,所述射线交汇测量的方法包括:
以所述起始位置和所述射线角度发射射线至由网格面组成的三维场景模型,将所述射线与所述三维场景模型的网格面的交汇点作为所述目标对象在所述三维模型中的空间位置;或,
以所述起始位置和所述射线角度发射射线至由点云组成的三维场景模型,将所述射线与所述三维场景的点云的交汇点作为所述目标对象在所述三维模型中的空间位置。
4.如权利要求1所述的三维场景动态元素还原方法,其特征在于,在得到目标对象在所述三维模型中的空间位置之后,还包括:
根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
5.如权利要求4所述的三维场景动态元素还原方法,其特征在于,还包括:
利用人工智能技术对所述影像画面进行图像目标检测,得到所述目标对象的特征信息。
6.如权利要求5所述的三维场景动态元素还原方法,其特征在于,还包括:
获取待检测影像画面,采用人工智能技术在预先训练好的视觉神经网络进行目标检测,得到所述目标对象的方位的第一朝向信息,将第一朝向信息和监测设备的角度叠加得到目标对象方位的第二朝向信息。
7.如权利要求6所述的三维场景动态元素还原方法,其特征在于,还包括:将所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别信息和所述空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中;和/或,将获取到的所述实际尺寸、所述第二朝向信息、所述特征信息、所述类别信息和所述空间位置进行收集整理并存储于数据库中。
8.一种三维场景动态元素还原装置,其特征在于,包括:
位置信息获取模块,用于采集影像画面,根据所述影像画面获取目标对象在三维场景模型中的空间位置;
图像目标检测模块,用于采用人工智能技术对所述影像画面进行图像目标检测,得到所述目标对象的类别信息;
类别模型添加模块,用于根据所述目标对象的类别信息在虚拟三维场景中添加对应的三维目标模型;
三维场景还原模块,用于将所述三维目标模型与所述目标对象的空间位置还原至所述三维场景模型,将所述目标对象还原于所述三维场景模型中;
其中,所述位置信息获取模块,具体为:
采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;
将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;
以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对象在所述三维场景模型中的空间位置。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至7任意一项所述的三维场景动态元素还原方法。
CN202110681368.9A 2021-06-18 2021-06-18 一种三维场景动态元素还原方法、装置及存储介质 Active CN113450462B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110681368.9A CN113450462B (zh) 2021-06-18 2021-06-18 一种三维场景动态元素还原方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110681368.9A CN113450462B (zh) 2021-06-18 2021-06-18 一种三维场景动态元素还原方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113450462A CN113450462A (zh) 2021-09-28
CN113450462B true CN113450462B (zh) 2024-08-09

Family

ID=77812001

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110681368.9A Active CN113450462B (zh) 2021-06-18 2021-06-18 一种三维场景动态元素还原方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113450462B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598794A (zh) * 2018-11-30 2019-04-09 苏州维众数据技术有限公司 三维gis动态模型的构建方法
CN111669698A (zh) * 2019-03-07 2020-09-15 广州慧睿思通信息科技有限公司 定位方法、设备、系统及存储介质
CN112257605A (zh) * 2020-10-23 2021-01-22 中国科学院自动化研究所 基于自标注训练样本的三维目标检测方法、系统及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101951502B (zh) * 2010-10-19 2012-11-21 北京硅盾安全技术有限公司 一种三维智能视频监控方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598794A (zh) * 2018-11-30 2019-04-09 苏州维众数据技术有限公司 三维gis动态模型的构建方法
CN111669698A (zh) * 2019-03-07 2020-09-15 广州慧睿思通信息科技有限公司 定位方法、设备、系统及存储介质
CN112257605A (zh) * 2020-10-23 2021-01-22 中国科学院自动化研究所 基于自标注训练样本的三维目标检测方法、系统及装置

Also Published As

Publication number Publication date
CN113450462A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
WO2022078240A1 (zh) 一种应用于电子地图中的摄像头精准定位方法及处理终端
CN101951502B (zh) 一种三维智能视频监控方法
KR102203135B1 (ko) 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템
CN110617821B (zh) 定位方法、装置及存储介质
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN111339826B (zh) 一种滑坡无人机线性传感器网络框架检测系统
WO2008016153A1 (fr) procédé de prise en charge de contre-mesures pour une catastrophe
CN104410839B (zh) 一种移动式输电线杆塔区域山火与山体滑坡灾害在线监测系统与监测方法
CN105547635A (zh) 一种用于风洞试验的非接触式结构动力响应测量方法
CN104834784A (zh) 一种铁路应急辅助救援三维虚拟电子沙盘系统
Chen et al. Color and depth data fusion using an RGB‐D sensor for inexpensive and contactless dynamic displacement‐field measurement
CN115762067B (zh) 一种基于激光点云与视频数据融合的山体滑坡监测系统
Hein et al. An integrated rapid mapping system for disaster management
CN118037956A (zh) 固定空间内三维虚拟实景生成方法及系统
CN104599281A (zh) 一种基于水平直线方位一致性的全景图与遥感图配准方法
CN110276379A (zh) 一种基于视频图像分析的灾情信息快速提取方法
Stal et al. Highly detailed 3D modelling of Mayan cultural heritage using an UAV
CN108088421B (zh) 一种无人机航测控制点自动识别的方法和系统
JP6928217B1 (ja) 測定処理装置、方法及びプログラム
CN113450462B (zh) 一种三维场景动态元素还原方法、装置及存储介质
KR102393300B1 (ko) 객체 지도 생성 시스템 및 그 방법
CN114943809A (zh) 一种地图模型的生成方法、装置及存储介质
CN205300519U (zh) 铁塔变形测量装置
CN113532390B (zh) 一种基于人工智能技术的目标定位方法、装置及存储介质
JP2011090047A (ja) 移動軌跡図作成装置およびコンピュータプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant