CN116384103A - 一种融合元宇宙与动态实景的仿真测试方法及系统 - Google Patents
一种融合元宇宙与动态实景的仿真测试方法及系统 Download PDFInfo
- Publication number
- CN116384103A CN116384103A CN202310340446.8A CN202310340446A CN116384103A CN 116384103 A CN116384103 A CN 116384103A CN 202310340446 A CN202310340446 A CN 202310340446A CN 116384103 A CN116384103 A CN 116384103A
- Authority
- CN
- China
- Prior art keywords
- simulation
- test
- live
- action
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 154
- 238000010998 test method Methods 0.000 title claims abstract description 28
- 230000004927 fusion Effects 0.000 title claims description 31
- 238000012360 testing method Methods 0.000 claims abstract description 128
- 230000008859 change Effects 0.000 claims abstract description 23
- 238000009877 rendering Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 claims description 25
- 238000005286 illumination Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000001965 increasing effect Effects 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000013102 re-test Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种融合元宇宙与动态实景的仿真测试方法及系统,属于数据仿真测试技术领域,包括:通过倾斜摄影测量采集概略影像数据,基于概略影像数据建立仿真概略模型;通过贴近摄影测量进行二次航线规划,采集精细化影像数据,基于精细化影像数据建立精细实景模型;将精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;在测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;对无人仿真系统测试目标识别与定位获取测试结果,根据测试结果输出无人仿真系统性能阈值。本发明将仿真系统同元宇宙和实景三维融合在一起建立实景模型,可以大大提高虚拟环境对现实世界的还原程度。
Description
技术领域
本发明涉及数据仿真测试技术领域,尤其涉及一种融合元宇宙与动态实景的仿真测试方法及系统。
背景技术
随着社会的不断发展,越来越多的场景需要应用仿真平台,仿真平台无人驾驶、导航定位和物流运输等多个领域得到广泛应用。
相比于传统的实际测试,在虚拟环境中开展仿真测试实验,能在一定程度上节省人力物力财力,但由于目前的仿真环境与真实世界存在较大差异,难以承载复杂的测试功能。随着摄影测量与遥感技术的发展,尤其是实景三维技术的快速发展,提高了三维重建的精度。
因此,需要提出一种新的结合虚拟技术与实景的仿真测试方法,能解决仿真环境与现实世界之间差异较大的问题。
发明内容
本发明提供一种融合元宇宙与动态实景的仿真测试方法及系统,用以解决现有技术中采用仿真测试与现实场景存在较大差异,难以开展复杂测试的缺陷。
第一方面,本发明提供一种融合元宇宙与动态实景的仿真测试方法,包括:
通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;
通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;
将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;
在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;
对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
根据本发明提供的一种融合元宇宙与动态实景的仿真测试方法,所述通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型,包括:
在所述目标场景中确定旋翼无人机的飞行路径,根据所述飞行路径从预设视角获取多个影像;
对所述多个影像依次进行内定向、相对定向和绝对定向之后得到定向影像,采用预设三维实景建模软件在所述定向影像上确定匹配同名点,由所述同名点确定所述多个影像的外方位元素初始值;
对所述外方位元素初始值进行解析空中三角测量,建立所述仿真概略模型。
根据本发明提供的一种融合元宇宙与动态实景的仿真测试方法,所述通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型,包括:
采用人工识别或模式识别,在所述目标场景中提取关键建筑物;
提取所述关键建筑物的物面特征和周围环境信息,基于所述物面特征和所述周围环境信息将所述关键建筑物抽象为顶面和侧面;
基于所述仿真概略模型,在所述顶面和所述侧面上进行所述二次航线规划,采用预设三维实景建模软件采集顶面数据和侧面数据;
利用所述顶面数据和所述侧面数据建立所述精细实景模型。
根据本发明提供的一种融合元宇宙与动态实景的仿真测试方法,所述基于所述仿真概略模型,在所述顶面和所述侧面上进行所述二次航线规划,采用预设三维实景建模软件采集顶面数据和侧面数据,包括:
由摄影距离、顶部矩形宽度、轨迹间重叠率和纵轴方向视场角确定顶部航带数;
根据任意相邻航线之间距离、顶部矩形区域两条短边中点、顶部矩形区域两条短边中点连线顺时针旋转九十度单位向量和所述顶部航带数,确定每条航线的端点拍摄点坐标;
由所述端点拍摄点坐标和镜头旋转角度,得到额外航线端点坐标;
确定所述侧面的最小外接圆,由所述最小外接圆计算最小外接正多边形,根据所述最小外接正多边形的中心坐标和所述最小外接圆的半径,得到所述最小外接正多边形的顶点坐标;
由所述摄影距离、同一航带相邻重叠率和横轴方向视场角确定增加曝光点数目。
根据本发明提供的一种融合元宇宙与动态实景的仿真测试方法,所述将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境,包括:
将所述精细实景模型的实景模式格式转换为预设二进制格式或预设文本存储格式,将转换后的所述精细实景模型导入预设游戏引擎;
将所述转换后的所述精细实景模型的世界坐标系变换至局部坐标系;
在所述预设游戏引擎中添加刚体组件、碰撞体组件、重力组件和动力学模型,得到所述测试系统仿真环境。
根据本发明提供的一种融合元宇宙与动态实景的仿真测试方法,所述在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统,包括:
通过预设动态天气系统插件在所述测试系统仿真环境中添加天气、光照和阴影;
采用所述双循环渲染模式,确定所述测试系统仿真环境中的天气随时间进行随机循环变化。
根据本发明提供的一种融合元宇宙与动态实景的仿真测试方法,所述对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值,包括:
若确定所述测试结果达到预设测试阈值,则输出所述无人仿真系统性能阈值,否则改变测试环境,重新进行测试,直至达到所述预设测试阈值。
第二方面,本发明还提供一种融合元宇宙与动态实景的仿真测试系统,包括:
粗略建立模块,用于通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;
精细建立模块,用于通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;
添加模块,用于将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;
渲染模块,用于在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;
测试模块,用于对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
第三方面,本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述融合元宇宙与动态实景的仿真测试方法。
第四方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述融合元宇宙与动态实景的仿真测试方法。
本发明提供的融合元宇宙与动态实景的仿真测试方法及系统,通过将仿真系统同元宇宙和实景三维融合在一起,通过倾斜摄影测量和贴近摄影测量二次航线规划,建立高分辨率和高精度的实景模型,可以大大提高虚拟环境对现实世界的还原程度,提高仿真系统的质量,对无人系统进行测试,可以提高仿真平台测试功能的承载能力上限。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的融合元宇宙与动态实景的仿真测试方法的流程示意图之一;
图2是本发明提供的融合元宇宙与动态实景的仿真测试方法的流程示意图之二;
图3是本发明提供的旋翼无人机二次航线规划示意图;
图4是本发明提供的在实景元宇宙中测试无人仿真系统阈值的流程图;
图5是本发明提供的无人仿真系统目标检测仿真测试示意图
图6是本发明提供的融合元宇宙与动态实景的仿真测试系统的结构示意图;
图7是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
由于现有的仿真测试系统均存在无法和现实场景进行有效融合的缺陷,本发明提出基于元宇宙动态实景的仿真测试方法,能提高测试环境的仿真程度,提升仿真平台质量和承载能力。
图1是本发明实施例提供的融合元宇宙与动态实景的仿真测试方法的流程示意图之一,如图1所示,包括:
步骤100:通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;
步骤200:通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;
步骤300:将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;
步骤400:在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;
步骤500:对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
本发明实施例中,在进行仿真测试时,采用旋翼无人机采集相关数据,首先通过倾斜摄影测量采集影像数据,对大型目标场景快速进行三维重建,得到仿真概略模型。这里的倾斜摄影测量技术是国际摄影测量领域近十几年发展起来的一项高新技术,该技术通过从一个垂直、四个倾斜、五个不同的视角同步采集影像,获取到丰富的建筑物顶面及侧视的高分辨率纹理。它不仅能够真实地反映地物情况,高精度地获取物方纹理信息,还可通过先进的定位、融合、建模等技术,生成真实的三维城市模型。倾斜摄影测量技术以大范围、高精度、高清晰的方式全面感知复杂场景,通过高效的数据采集设备及专业的数据处理流程生成的数据成果直观反映地物的外观、位置、高度等属性,为真实效果和测绘级精度提供保证,倾斜摄影建模数据也逐渐成为城市空间数据框架的重要内容。
然后对目标场景中的建筑进行二次航线规划,通过旋翼无人机贴近摄影测量,以采集精细化数据,进行二次建模,得到精细实景模型。
进一步地,将建立的精细实景模型导入游戏引擎,并添加组件,建立测试系统的仿真环境,并在仿真环境中引入动态变化,使用UniStorm添加天气、光照和阴影,UniStorm是一种动态天气系统插件,还采用双循环随机渲染模式,天气随时间循环变化,每个循环的过程是随机的。最后在不同的环境条件下,对无人仿真系统进行目标识别与定位的测试,对决策正确性和响应时间进行评估,测试无人仿真系统的性能阈值。
具体地,如图2所示,首先通过倾斜摄影测量完成影像定向,通过光束法平差处理得到仿真概略模型,然后进行二次航线规划,包括顶面数据采集和侧面数据采集,在仿真概略模型基础上得到精细实景模型,为了便于编辑和加工还需要进行格式转换,并在游戏引擎中添加组件,通过设置动态变化和双循环渲染,添加遮挡和噪声,形成多种复杂变化的场景,对无人仿真系统进行测试,得到系统阈值。
本发明通过将仿真系统同元宇宙和实景三维融合在一起,通过倾斜摄影测量和贴近摄影测量二次航线规划,建立高分辨率和高精度的实景模型,可以大大提高虚拟环境对现实世界的还原程度,提高仿真系统的质量,对无人系统进行测试,可以提高仿真平台测试功能的承载能力上限。
基于上述实施例,步骤100包括:
在所述目标场景中确定旋翼无人机的飞行路径,根据所述飞行路径从预设视角获取多个影像;
对所述多个影像依次进行内定向、相对定向和绝对定向之后得到定向影像,采用预设三维实景建模软件在所述定向影像上确定匹配同名点,由所述同名点确定所述多个影像的外方位元素初始值;
对所述外方位元素初始值进行解析空中三角测量,建立所述仿真概略模型。
具体地,为建立仿真概略模型,根据划定重建场景的区域,规划覆盖整个区域的无人机飞行路径。然后,旋翼无人机携带五相机,从五个不同方向进行摄影,获取大量影像。对影像进行内定向、相对定向和绝对定向后,使用ContextCapture软件(一种三维实景建模软件),在拍摄的影像上自动匹配出同名点,根据影像携带的外方位元素初始值,进行解析空中三角测量,建立实景三维网格模型。如下式所示:
其中,(vx,vy)为像主点像方坐标的改正数,(ΔXS,ΔYS,ΔZS)为外方位元素线元素即摄影中心坐标的改正数,为外方位元素角元素即描述摄影姿态的欧拉角,(ΔX,ΔY,ΔZ)为空间点坐标的改正数。a11,a12,a13,a14,a15,a16,a21,a22,a23,a24,a25,a26为误差方程式系数阵中的偏导数,lx,ly为常数项。
基于上述实施例,步骤200包括:
采用人工识别或模式识别,在所述目标场景中提取关键建筑物;
提取所述关键建筑物的物面特征和周围环境信息,基于所述物面特征和所述周围环境信息将所述关键建筑物抽象为顶面和侧面;
基于所述仿真概略模型,在所述顶面和所述侧面上进行所述二次航线规划,采用预设三维实景建模软件采集顶面数据和侧面数据;
利用所述顶面数据和所述侧面数据建立所述精细实景模型。
其中,所述基于所述仿真概略模型,在所述顶面和所述侧面上进行所述二次航线规划,采用预设三维实景建模软件采集顶面数据和侧面数据,包括:
由摄影距离、顶部矩形宽度、轨迹间重叠率和纵轴方向视场角确定顶部航带数;
根据任意相邻航线之间距离、顶部矩形区域两条短边中点、顶部矩形区域两条短边中点连线顺时针旋转九十度单位向量和所述顶部航带数,确定每条航线的端点拍摄点坐标;
由所述端点拍摄点坐标和镜头旋转角度,得到额外航线端点坐标;
确定所述侧面的最小外接圆,由所述最小外接圆计算最小外接正多边形,根据所述最小外接正多边形的中心坐标和所述最小外接圆的半径,得到所述最小外接正多边形的顶点坐标;
由所述摄影距离、同一航带相邻重叠率和横轴方向视场角确定增加曝光点数目。
具体地,本发明实施例采用人工选择或模式识别的方法,在场景中提取出关键建筑物。然后,提取建筑物面特征和周围环境信息,将建筑物抽象为顶面和侧面,在倾斜模型的基础上,规划二次航线路径,如图3所示。采用旋翼无无人机贴近摄影,进行二次数据采集,获取高分辨率影像使用ContextCapture,按照和倾斜摄影相似的方法建立实景模型。
进一步地划分为顶面和侧面,无人机二次航线规划的具体方法如下:
顶面:对顶面拍摄时相机镜头竖直向下,因此航线规划方法与常规倾斜摄影相似,但为了保证顶面与侧面的连接性,需要额外增加一些航线,以保证顶面拍摄的影像与侧面拍摄的影像有一定的重叠度。顶部航带数的计算公式为:
其中,d表示摄影距离,w表示顶部矩形的宽度,oy表示轨迹间的重叠率,fovy表示y方向上的视场角。
每条航线的端点拍摄点坐标的计算公式为:
其中,vi表示顶部矩形区域的两条短边中点,K表示<v1,v2>顺时针旋转九十度后方向上的单位向量,Δw表示相邻航线之间的距离,j表示第j条航线。
额外航线端点坐标的计算公式为:
侧面:目标对象侧面是多个立面的组合。首先计算出目标对象的最小外接圆,然后计算其最小外接正m多边形,以多个立面为基础来对目标对象进行航线规划。正多边形的顶点坐标计算公式为:
(vi·x,vi·y)为正多边形的顶点坐标,(vc·x,vc·y)为正多边形的中心坐标(即最小外接圆的圆心),Rmin为最小外接圆的半径。
再以从低到高的顺序,依次增加航高,对目标对象立面进行环绕飞行。为规避后续三维重建时的拼接连续性问题,需增加曝光点数目如下式所示:
其中ox表示同一条航带上的相邻重叠率,fovx表示xo方向上的视场角。
基于上述实施例,步骤300包括:
将所述精细实景模型的实景模式格式转换为预设二进制格式或预设文本存储格式,将转换后的所述精细实景模型导入预设游戏引擎;
将所述转换后的所述精细实景模型的世界坐标系变换至局部坐标系;
在所述预设游戏引擎中添加刚体组件、碰撞体组件、重力组件和动力学模型,得到所述测试系统仿真环境。
具体地,首先进行格式解析,将osgb格式的实景模式转换为二进制的fbx格式或以文本格式存储的obj格式。再将模型导入到游戏引擎中,并进行坐标转换,通过旋转、缩放、平移。将实景模型由世界坐标系变换到局部坐标系,如下式所示:
其中,R表示旋转矩阵,是一个正交变换矩阵,a1,a2,a3,b1,b2,b3,c1,c2,c3为旋转矩阵中对应的9个元素;T是平移向量,tx,ty,tz表示x,y,z三个方向上平移的距离,λ表示缩放倍数,X、Y、Z为转换局部坐标系旋转分量。
在游戏引擎中,为模型添加刚体、碰撞体、重力等组件和动力学模型,模拟现实世界的物理环境。
基于上述实施例,步骤400包括:
通过预设动态天气系统插件在所述测试系统仿真环境中添加天气、光照和阴影;
采用所述双循环渲染模式,确定所述测试系统仿真环境中的天气随时间进行随机循环变化。
具体地,在仿真环境中引入动态变化,使用UniStorm添加天气、光照和阴影。采用双循环随机渲染模式,天气随时间循环变化,每个循环的过程是随机的;在大场景中,设置循环的随时间动态变化的天气,这种动态变化以固定的时间间隔为周期。且每一个时间段内的循环过程是一个随机的过程,天气的动态变化、顺序等是随机的。系统会随机生成遮挡、模糊、不同光照以及不同的噪声干扰,从而增强随机性。
基于上述实施例,步骤500包括:
若确定所述测试结果达到预设测试阈值,则输出所述无人仿真系统性能阈值,否则改变测试环境,重新进行测试,直至达到所述预设测试阈值。
具体地,在不同的环境条件下,对无人系统进行目标识别与定位的测试,对决策正确性和响应时间进行评估,测试无人系统的性能阈值。
如图4所示,在不同的天气、光照等环境下,使用待测试的无人系统,对特定物体进行目标检测、分类与定位。更换识别物体的类别、摄影机的位置和高度等属性,多次实验,统计无人系统识别的正确率和响应时间。然后,不断改变环境,引入暴雨、暴雪,降低光照,提高环境的恶劣程度。当无人系统的识别率过低或响应时间过长,即认为达到无人系统阈值,无人系统在该环境中不能正常工作,从而得到无人系统的阈值,如图5所示的仿真示例图,将实景影像输入无人系统,得到识别结果(包括用英文标识的具体对象),针对识别结果进行精度检查,从而对系统的阈值进行测试验证。
下面对本发明提供的融合元宇宙与动态实景的仿真测试系统进行描述,下文描述的融合元宇宙与动态实景的仿真测试系统与上文描述的融合元宇宙与动态实景的仿真测试方法可相互对应参照。
图6是本发明实施例提供的融合元宇宙与动态实景的仿真测试系统的结构示意图,如图6所示,包括:粗略建立模块61、精细建立模块62、添加模块63、渲染模块64和测试模块65,其中:
粗略建立模块61用于通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;精细建立模块62用于通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;添加模块63用于将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;渲染模块64用于在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;测试模块65用于对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行融合元宇宙与动态实景的仿真测试方法,该方法包括:通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的融合元宇宙与动态实景的仿真测试方法,该方法包括:通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种融合元宇宙与动态实景的仿真测试方法,其特征在于,包括:
通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;
通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;
将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;
在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;
对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
2.根据权利要求1所述的融合元宇宙与动态实景的仿真测试方法,其特征在于,所述通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型,包括:
在所述目标场景中确定旋翼无人机的飞行路径,根据所述飞行路径从预设视角获取多个影像;
对所述多个影像依次进行内定向、相对定向和绝对定向之后得到定向影像,采用预设三维实景建模软件在所述定向影像上确定匹配同名点,由所述同名点确定所述多个影像的外方位元素初始值;
对所述外方位元素初始值进行解析空中三角测量,建立所述仿真概略模型。
3.根据权利要求1所述的融合元宇宙与动态实景的仿真测试方法,其特征在于,所述通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型,包括:
采用人工识别或模式识别,在所述目标场景中提取关键建筑物;
提取所述关键建筑物的物面特征和周围环境信息,基于所述物面特征和所述周围环境信息将所述关键建筑物抽象为顶面和侧面;
基于所述仿真概略模型,在所述顶面和所述侧面上进行所述二次航线规划,采用预设三维实景建模软件采集顶面数据和侧面数据;
利用所述顶面数据和所述侧面数据建立所述精细实景模型。
4.根据权利要求3所述的融合元宇宙与动态实景的仿真测试方法,其特征在于,所述基于所述仿真概略模型,在所述顶面和所述侧面上进行所述二次航线规划,采用预设三维实景建模软件采集顶面数据和侧面数据,包括:
由摄影距离、顶部矩形宽度、轨迹间重叠率和纵轴方向视场角确定顶部航带数;
根据任意相邻航线之间距离、顶部矩形区域两条短边中点、顶部矩形区域两条短边中点连线顺时针旋转九十度单位向量和所述顶部航带数,确定每条航线的端点拍摄点坐标;
由所述端点拍摄点坐标和镜头旋转角度,得到额外航线端点坐标;
确定所述侧面的最小外接圆,由所述最小外接圆计算最小外接正多边形,根据所述最小外接正多边形的中心坐标和所述最小外接圆的半径,得到所述最小外接正多边形的顶点坐标;
由所述摄影距离、同一航带相邻重叠率和横轴方向视场角确定增加曝光点数目。
5.根据权利要求1所述的融合元宇宙与动态实景的仿真测试方法,其特征在于,所述将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境,包括:
将所述精细实景模型的实景模式格式转换为预设二进制格式或预设文本存储格式,将转换后的所述精细实景模型导入预设游戏引擎;
将所述转换后的所述精细实景模型的世界坐标系变换至局部坐标系;
在所述预设游戏引擎中添加刚体组件、碰撞体组件、重力组件和动力学模型,得到所述测试系统仿真环境。
6.根据权利要求1所述的融合元宇宙与动态实景的仿真测试方法,其特征在于,所述在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统,包括:
通过预设动态天气系统插件在所述测试系统仿真环境中添加天气、光照和阴影;
采用所述双循环渲染模式,确定所述测试系统仿真环境中的天气随时间进行随机循环变化。
7.根据权利要求1所述的融合元宇宙与动态实景的仿真测试方法,其特征在于,所述对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值,包括:
若确定所述测试结果达到预设测试阈值,则输出所述无人仿真系统性能阈值,否则改变测试环境,重新进行测试,直至达到所述预设测试阈值。
8.一种融合元宇宙与动态实景的仿真测试系统,其特征在于,包括:
粗略建立模块,用于通过倾斜摄影测量采集目标场景的概略影像数据,基于所述概略影像数据建立仿真概略模型;
精细建立模块,用于通过贴近摄影测量对所述目标场景进行二次航线规划,采集所述目标场景的精细化影像数据,基于所述精细化影像数据建立精细实景模型;
添加模块,用于将所述精细实景模型导入预设游戏引擎以及添加预设组件,建立测试系统仿真环境;
渲染模块,用于在所述测试系统仿真环境中添加动态环境变化信息,并采用双循环渲染模式增加测试变化信息,得到无人仿真系统;
测试模块,用于对所述无人仿真系统测试目标识别与定位获取测试结果,根据所述测试结果输出无人仿真系统性能阈值。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述融合元宇宙与动态实景的仿真测试方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述融合元宇宙与动态实景的仿真测试方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310340446.8A CN116384103A (zh) | 2023-03-31 | 2023-03-31 | 一种融合元宇宙与动态实景的仿真测试方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310340446.8A CN116384103A (zh) | 2023-03-31 | 2023-03-31 | 一种融合元宇宙与动态实景的仿真测试方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116384103A true CN116384103A (zh) | 2023-07-04 |
Family
ID=86966967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310340446.8A Pending CN116384103A (zh) | 2023-03-31 | 2023-03-31 | 一种融合元宇宙与动态实景的仿真测试方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116384103A (zh) |
-
2023
- 2023-03-31 CN CN202310340446.8A patent/CN116384103A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111126304B (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
CN109615611B (zh) | 一种基于巡检影像的绝缘子自爆缺陷检测方法 | |
Duque et al. | Bridge deterioration quantification protocol using UAV | |
US10297074B2 (en) | Three-dimensional modeling from optical capture | |
US20190026400A1 (en) | Three-dimensional modeling from point cloud data migration | |
Verykokou et al. | UAV-based 3D modelling of disaster scenes for Urban Search and Rescue | |
CN103703758B (zh) | 移动增强现实系统 | |
Lattanzi et al. | 3D scene reconstruction for robotic bridge inspection | |
CN108205797A (zh) | 一种全景视频融合方法及装置 | |
CN111261016B (zh) | 道路地图的构建方法、装置和电子设备 | |
Yeum et al. | Autonomous image localization for visual inspection of civil infrastructure | |
Sauerbier et al. | The practical application of UAV-based photogrammetry under economic aspects | |
CN114758337B (zh) | 一种语义实例重建方法、装置、设备及介质 | |
KR20200136723A (ko) | 가상 도시 모델을 이용하여 객체 인식을 위한 학습 데이터 생성 방법 및 장치 | |
CN111563961B (zh) | 一种变电站的三维建模方法和相关装置 | |
Özdemir et al. | A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment | |
CN112580428A (zh) | 一种配电网设计方法及装置 | |
CN116030208A (zh) | 一种真实无人机虚拟仿真输电线路场景搭建方法及系统 | |
Oskouie et al. | A data quality-driven framework for asset condition assessment using LiDAR and image data | |
CN116977586A (zh) | 一种基于电网gis平台的实景三维建模方法 | |
Lu et al. | Image-based 3D reconstruction for Multi-Scale civil and infrastructure Projects: A review from 2012 to 2022 with new perspective from deep learning methods | |
Kim et al. | Automated two-dimensional geometric model reconstruction from point cloud data for construction quality inspection and maintenance | |
CN116384103A (zh) | 一种融合元宇宙与动态实景的仿真测试方法及系统 | |
Wahbeh et al. | Toward the Interactive 3D Modelling Applied to Ponte Rotto in Rome | |
Potabatti | Photogrammetry for 3D Reconstruction in SOLIDWORKS and its Applications in Industry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |