CN113888705A - 目标场景仿真模型构建方法、数据集生成方法及电子设备 - Google Patents

目标场景仿真模型构建方法、数据集生成方法及电子设备 Download PDF

Info

Publication number
CN113888705A
CN113888705A CN202111475707.4A CN202111475707A CN113888705A CN 113888705 A CN113888705 A CN 113888705A CN 202111475707 A CN202111475707 A CN 202111475707A CN 113888705 A CN113888705 A CN 113888705A
Authority
CN
China
Prior art keywords
texture
target scene
model
simulation model
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111475707.4A
Other languages
English (en)
Other versions
CN113888705B (zh
Inventor
许振宇
宋俊男
朱世强
李月华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202111475707.4A priority Critical patent/CN113888705B/zh
Publication of CN113888705A publication Critical patent/CN113888705A/zh
Application granted granted Critical
Publication of CN113888705B publication Critical patent/CN113888705B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

本发明公开了一种目标场景仿真模型构建方法、数据集生成方法及电子设备,该方法包括对目标场景按照纹理尺度进行场景层次化分割,获得多个层级的分割对象;针对所述多个分割对象,构建每个对象所对应的仿真模型;获取目标场景的图像数据;根据所述分割对象的类型,从所述目标场景的图像数据中分割出每个分割对象所对应的低分辨率纹理图像;将每个分割对象所对应的低分辨率纹理图像进行相似纹理合成,得到每个分割对象所对应的高分辨率纹理图像;分别将每个分割对象所对应的高分辨率纹理图像映射到对应的仿真模型中,得到带纹理的仿真模型;将每个对象所对应的带纹理的仿真模型统一到场景中,获得目标场景仿真模型。适用于地外探测、自动驾驶等场景下的大规模双目数据集生成。

Description

目标场景仿真模型构建方法、数据集生成方法及电子设备
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种目标场景仿真模型构建方法、数据集生成方法及电子设备。
背景技术
利用双目相机进行立体匹配得到三维深度信息的方法是当前计算机视觉技术领域研究的一大热点。相比传统的双目立体匹配算法,基于神经网络的双目立体匹配算法在算法精度及运行效率上正不断展现出日益优异的成果,而神经网络的算法需要依赖较高质量的大规模双目深度数据集。
目前,双目立体匹配研究领域主流的真实场景数据集主要有利用激光雷达采集深度真值信息的KITTI数据集、利用结构光来获取深度信息的Middlebury数据集。然而,前者获取的深度信息较为稀疏,后者的数据集生成方法仅适用于室内近距离场景,无法推广到室外场景,而且两个数据集的数据量仅在数百张的量级,难以满足神经网络的稳定收敛需求。
目前也有通过搭建仿真场景,利用仿真软件生成数万张大规模双目深度数据集,该方式生成的SceneFlow数据集也是当前神经网络训练广泛采用的基础训练集,然而,该数据集完全基于仿真场景,与真实场景差异较大,导致其训练得到的网络模型往往需要在真实数据集微调训练后方能适用。
还有利用现有图片进行纹理贴图的半仿真数据集生成,该方法生成的数据集可以直接用于训练目标双目立体匹配网络模型,然而,该方法仅采用随机纹理映射的方式,未考虑不同距离纹理尺度变化,不同类型场景的纹理属性,与真实数据场景仍存在较大的差异。
发明内容
本申请实施例的目的是提供一种目标场景仿真模型构建方法、数据集生成方法及电子设备,以解决相关技术中存在的数据集仿真模型纹理与真实场景差异较大,真实场景数据集规模不大,精度及稠密度有限的技术问题,本方法充分利用纹理信息的尺度及分布特性,获得更加贴近真实场景的大规模双目深度数据集,满足双目立体匹配神经网络训练及应用需求。
根据本申请实施例的第一方面,提供一种目标场景仿真模型构建方法,包括:
对目标场景按照纹理尺度进行场景层次化分割,获得多个层级的分割对象;
针对所述多个分割对象,构建每个对象所对应的仿真模型;
获取目标场景的图像数据;
根据所述分割对象的类型,从所述目标场景的图像数据中分割出每个分割对象所对应的低分辨率纹理图像;
将每个分割对象所对应的低分辨率纹理图像进行相似纹理合成,得到每个分割对象所对应的高分辨率纹理图像;
分别将每个分割对象所对应的高分辨率纹理图像映射到对应的仿真模型中,得到带纹理的仿真模型;
将每个对象所对应的带纹理的仿真模型统一到场景中,获得目标场景仿真模型。
进一步地,对目标场景按照纹理尺度进行场景层次化分割,获得多个层级的分割对象,包括:
至少综合考虑大尺度的背景纹理、中尺度的地形起伏纹理、小尺度的地表材质纹理以及细尺度的可移动物体表面纹理,对目标场景进行场景层次化分割,获得背景、地形、地表、物体这几个分割对象。
进一步地,将每个分割对象所对应的低分辨率纹理图像进行相似纹理合成,得到每个分割对象所对应的高分辨率纹理图像,包括:
利用图像处理软件,对所述低分辨率纹理图像进行扩展,生成随机分布且连续的相似纹理高分辨率图像;
针对每一分割对象的纹理,在该分割对象对应的所有合成的相似纹理高分辨率纹理图像中,进行相互比较,选择最贴近现有目标场景图片的纹理图像作为高分辨率纹理图像。
进一步地,分别将每个分割对象所对应的高分辨率纹理图像映射到对应的仿真模型中,得到带纹理的仿真模型,包括:
使用仿真软件,为各个所述分割对象的仿真模型添加材质节点,并将所述高分辨率纹理图像以文件节点形式加载,作为材质的颜色属性,实现纹理映射;
调整所述纹理映射的映射方式及缩放尺度,使得各个所述分割对象的仿真模型纹理大小与目标场景一致,并调整至少包括表面粗糙度、表面透光度、表面反光度的材质物理光学属性,使得所述分割对象的仿真模型的视觉效果与目标场景一致,获得带纹理的仿真模型。
根据本申请实施例的第二方面,提供一种层次化半仿真双目数据集生成方法,包括:
构建光源模型;
构建双目相机模型;
通过所述双目相机模型,采集所述光源模型下目标场景仿真模型及景深信息,得到层次化半仿真双目数据集,所述目标场景仿真模型由第一方面所述的方法构建得到。
进一步地,构建光源模型,包括:
使用仿真软件,根据目标场景的光照情况,选择相应的光源类型、辐照度及光源相对于场景的空间位置关系,为所述目标场景仿真模型添加光源模型。
进一步地,构建双目相机模型,包括:
使用仿真软件,根据目标双目数据集图像的视场角、双目视差范围、分辨率,选择对应的焦距、左右目相机间距、分辨率的立体相机参数,来构建双目相机模型。
进一步地,通过所述双目相机模型,采集所述光源模型下目标场景仿真模型及景深信息,得到层次化半仿真双目数据集,包括:
将所述的光源模型,按照所述目标场景的光源空间位置情况,将光源放置到所述的目标场景仿真模型上,并将所述的双目相机模型,按照所述目标双目数据集图像的视角,以相应的俯角,放置到所述的目标场景仿真模型上;
利用仿真软件,为所述双目相机模型添加同一水平面上的随机运动轨迹,使得所述双目相机模型能拍摄同一俯角不同位置下的所述目标场景仿真模型;
利用仿真软件,将所述双目相机模型拍摄的图像及其景深信息作为仿真渲染的输出,并通过动画渲染来得到所述的层次化半仿真双目数据集。
根据本申请实施例的第三方面,提供一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面或第二方面所述的方法。
根据本申请实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如第一方面或第二方面所述方法的步骤。
本申请的实施例提供的技术方案可以包括以下有益效果:
由上述实施例可知,本申请因为采用层次化分割的场景分层建模方法,将目标场景分割成不同尺度的分割对象,并针对性的进行仿真模型的搭建及纹理映射,所以克服了实际场景不同尺度目标表面分布差异大的问题,进而实现了目标场景的精准仿真复现。
因为采用基于纹理合成的目标场景纹理生成方法,利用目标场景低分辨纹理合成高分辨纹理,用于仿真模型的纹理映射,所以克服了仿真模型纹理与实际场景纹理相似度低、大尺度模型纹理映射清晰度不足的问题,进而有效提高了仿真场景纹理数据与目标场景的一致性精度。
因为采用参数可定制的光源及双目模型,可以针对目标场景传感器及光照参数进行灵活的配置,所以克服了现有仿真数据集光照条件,相机焦距,双目相机基线距离单一的问题,进而有效提升双目数据集的数据丰富度,便于双目网络模型的泛化训练。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据一示例性实施例示出的一种目标场景仿真模型构建方法的流程图。
图2是根据一示例性实施例示出的现有目标场景的图像数据及在现有场景图像上进行低分辨率纹理分割提取的效果图。
图3是根据一示例性实施例示出的步骤S14的流程图。
图4是根据一示例性实施例示出的步骤S15的流程图。
图5是根据一示例性实施例示出的从低分辨率原始纹理素材合成高分辨率纹理素材的效果图。
图6是根据一示例性实施例示出的步骤S16的流程图。
图7是根据一示例性实施例示出的纹理映射及参数优化后的结果。
图8是根据一示例性实施例示出的场景的模型。
图9是根据一示例性实施例示出的一种层次化半仿真双目数据集生成方法的流程图。
图10是根据一示例性实施例示出的步骤S23的流程图。
图11是根据一示例性实施例示出的双目及深度渲染结果图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
图1是根据一示例性实施例示出的一种目标场景仿真模型构建方法的流程图,如图1所示,该方法可以包括以下步骤:
步骤S11,对目标场景按照纹理尺度进行场景层次化分割,获得多个层级的分割对象;
步骤S12,针对所述多个分割对象,构建每个对象所对应的仿真模型;
步骤S13,获取目标场景的图像数据;
步骤S14,根据所述分割对象的类型,从所述目标场景的图像数据中分割出每个分割对象所对应的低分辨率纹理图像;
步骤S15,将每个分割对象所对应的低分辨率纹理图像进行相似纹理合成,得到每个分割对象所对应的高分辨率纹理图像;
步骤S16,分别将每个分割对象所对应的高分辨率纹理图像映射到对应的仿真模型中,得到带纹理的仿真模型;
步骤S17,将每个对象所对应的带纹理的仿真模型统一到场景中,获得目标场景仿真模型。
由上述实施例可知,本申请通过对目标场景的层次化分割及针对性仿真模型建立,保留了不同尺度场景分割对象的几何模型特异性,提高了目标场景仿真模型的精度,利用纹理合成的方法,有效地将目标场景的低分辨纹理合成高分辨率纹理,确保了仿真模型纹理与真实环境纹理的一致性,同时,提升了纹理映射后模型表面纹理的清晰度。
在步骤S11的具体实施中,对目标场景按照纹理尺度进行场景层次化分割,获得多个层级的分割对象;
具体地,至少综合考虑大尺度的背景纹理、中尺度的地形起伏纹理、小尺度的地表材质纹理以及细尺度的可移动物体表面纹理,对目标场景进行场景层次化分割,获得背景、地形、地表、物体这几个分割对象。
对于室内地形模拟场景,如图2中现有目标场景的图像数据所示,该场景可以分成大尺度背景纹理的室内墙体,中尺度地形起伏纹理的细沙地、粗沙地、沙砾地等地表,小尺度材质纹理的细沙、粗砂、沙砾等材质,细尺度可移动物体表面纹理的不同岩石。
在步骤S12的具体实施中,针对所述多个分割对象,构建每个对象所对应的仿真模型;
具体地,利用blender等仿真软件,针对所述多个分割对象,按照每个对象的表面起伏特性及物理模型,采用仿真软件相应的生成模型的方法,构建每个对象所对应的仿真模型。按照仿真软件mesh网格不同的生成模型的方法,使用cubic立方体网格构造室内墙体背景,使用landscape地形网格生成不同起伏纹理的地形,利用平面加随机噪声生成不同颗粒感表面,使用rock generator生成随机形状的表面岩石。
在步骤S13的具体实施中,获取目标场景的图像数据;
具体地,可以通过现有视觉传感器拍摄获取到部分目标场景的单目图像数据,作为目标场景的图像数据。
在步骤S14的具体实施中,根据所述分割对象的类型,从所述目标场景的图像数据中分割出每个分割对象所对应的低分辨率纹理图像;参考图3,该步骤可以包括以下子步骤:
步骤S141,针对每一幅目标场景的图像数据,将纹理清晰且对应纹理层次像素占比最大的区域划分出纹理提取的待选区域;
具体地,可以针对每一幅已有场景图像,分别针对大尺度背景纹理的室内墙体,中尺度地形起伏纹理的细沙地、粗沙地、沙砾地等地表,小尺度材质纹理的细沙、粗砂、沙砾等材质,细尺度可移动物体表面纹理的不同岩石,按照近距离纹理清晰且对应纹理层次像素占比最大的区域划分出纹理提取的待选区域。
步骤S142,根据所述分割对象的类型,从所述待选区域中分割出每个分割对象所对应的低分辨率纹理图像。
具体地,利用画图工具,在上述的待选区域中,使用矩形框的选取工具进行拉框分割,以框取尽可能大的目标纹理区域为准,分别得到四个层次场景对应的低分辨率原始纹理素材,在现有场景图像上进行低分辨率纹理分割提取的效果如图2所示,该场景图像中包含细沙地、粗砂地、砂砾地及可移动岩石,利用矩形框选取工具拉框分割得到对应的低分辨率纹理分割图像在图中以局部放大图的形式展示,按照逆时针从左到右的顺序,分别为粗砂地、细沙地、砂砾地、岩石的低分辨率纹理分割图像。
在步骤S15的具体实施中,将每个分割对象所对应的低分辨率纹理图像进行相似纹理合成,得到每个分割对象所对应的高分辨率纹理图像;参考图4,该步骤可以包括以下子步骤:
步骤S151,利用图像处理软件或者纹理合成算法软件,对所述低分辨率纹理图像进行扩展,生成随机分布且连续的相似纹理高分辨率图像;
具体地,分别针对上一步骤中获得的每一张低分辨率纹理素材,利用pixPlant图像处理软件的tiling synth纹理合成功能,选取对应的低分辨率纹理图片进行打开,并进行低分辨率原始纹理扩展生成随机分布且连续的相似纹理高分辨率图像,作为不同层次场景的原始高清纹理,对应输出的高分辨率图像大小设置为8192*8192的分辨率大小,对应的合成模式选择No pattern以确保合成的纹理是随机分布的,从低分辨率原始纹理素材合成高分辨率纹理素材的效果示例如图5所示。
步骤S152,针对每一分割对象的纹理,在该分割对象对应的所有合成的相似纹理高分辨率纹理图像中,进行相互比较,选择最贴近现有目标场景图片的纹理图像作为高分辨率纹理图像。
具体地,针对每一分割对象的纹理,在该分割对象对应的所有合成的相似纹理高分辨率纹理图像中,进行相互比较,以人眼感知来分辨,选择最贴近现有目标场景图片的纹理图像作为最终的纹理映射原始素材,如果有若干张图片暂时无法判断,作为备选纹理原始高分辨素材,在纹理映射及参数优化调整阶段做进一步的比较。
在步骤S16的具体实施中,分别将每个分割对象所对应的高分辨率纹理图像映射到对应的仿真模型中,得到带纹理的仿真模型;参考图6,该步骤可以包括以下子步骤:
步骤S161,使用仿真软件,为各个所述分割对象的仿真模型添加材质节点,并将所述高分辨率纹理图像以文件节点形式加载,作为材质的颜色属性,实现纹理映射;
具体地,使用blender仿真软件的shading功能,为各个层次的模型添加principled BSDF材质节点,并将上一步骤生成的高分辨率纹理原始素材以文件节点形式加载,然后利用SuperTexture插件生成颜色、粗糙度、归一化数值等参数,作为添加principled BSDF材质节点的输入属性,从而实现纹理的映射。
步骤S162,调整所述纹理映射的映射方式及缩放尺度,使得各个所述分割对象的仿真模型纹理大小与目标场景一致,并调整至少包括表面粗糙度、表面透光度、表面反光度的材质物理光学属性,使得所述分割对象的仿真模型的视觉效果与目标场景一致,获得带纹理的仿真模型。
具体地,对纹理映射后的模型,在editor mode模式下,对模型映射的纹理图像进行UV展开,并调整展开面的尺度与纹理映射图之间的大小映射关系,并观察实时渲染效果,选择最贴近真实场景图像的尺度缩放。对principled BSDF材质节点的表面粗糙度、表面透光度、表面反光度等参数不断进行调整,并同时观测实时渲染页面输出的效果图,选取最贴近目标场景的效果图对应的纹理参数作为最终的纹理参数,完成纹理映射及参数优化后的结果如图7所示。
在步骤S17的具体实施中,将每个对象所对应的带纹理的仿真模型统一到场景中,获得目标场景仿真模型;
具体地,根据目标场景中所述各个分割对象的相对空间位置关系,将每个对象所对应的带纹理的仿真模型放置到仿真软件的虚拟三维空间中,得到所述的目标场景仿真模型。
将四个层次模型按照从大尺度纹理墙体,到中尺度纹理地形,再到小尺度材质表面,最后细尺度可移动岩石的顺序放到统一场景中,形成层次化的背景、地形、地表、物体场景模型,并根据目标场景中所述各个分割对象的相对尺度及位置关系,调整对应模型的尺度大小及位置分布,最终得到场景的模型,如图8所示。
图9是根据一示例性实施例示出的一种层次化半仿真双目数据集生成方法的流程图,如图9所示,该方法可以包括以下步骤:
步骤S21,构建光源模型;
步骤S22,构建双目相机模型;
步骤S23,通过所述双目相机模型,采集所述光源模型下目标场景仿真模型及景深信息,得到层次化半仿真双目数据集,所述目标场景仿真模型由步骤S11-步骤S17构建得到。
由以上技术方案可知,本发明由于利用层次化场景分割及纹理映射方法,实现了不同尺度纹理信息以及纹理与场景对象关联关系的保留,因而,生成数据集的双目图像纹理与真实场景更加的贴合,能有效地提升神经网络训练模型的域相关性;利用纹理合成的方法,实现了低分辨率纹理合成高分辨率纹理,提升了纹理映射原始纹理的精度,进而提高了生成数据集的双目图像的准确度。由于对光源、纹理属性的优化,相机参数及位置的定制化搭建,能够适配更加多样化的环境因素变化,也更加贴近真实应用场景的数据,进一步提升数据集的泛化能力。
在步骤S21的具体实施中,构建光源模型;
具体地,使用仿真软件,根据目标场景的光照情况,选择相应的光源类型、辐照度及光源相对于场景的空间位置关系,为所述目标场景仿真模型添加光源模型。
在步骤S22的具体实施中,构建双目相机模型;
具体地,使用仿真软件,根据目标双目数据集图像的视场角、双目视差范围、分辨率,选择对应的焦距、左右目相机间距、分辨率的立体相机参数,来构建双目相机模型。
在步骤S23的具体实施中,通过所述双目相机模型,采集所述光源模型下目标场景仿真模型及景深信息,得到层次化半仿真双目数据集;参考图10,该步骤可以包括以下子步骤:
步骤S231,将所述的光源模型,按照所述目标场景的光源空间位置情况,将光源放置到所述的目标场景仿真模型上,并将所述的双目相机模型,按照所述目标双目数据集图像的视角,以相应的俯角,放置到所述的目标场景仿真模型上;
具体地,在仿真软件Blender中,调整光源模型的location坐标(X,Y,Z),使得光源模型处于构建的目标场景仿真模型上方,同时,观测渲染视图下,目标场景仿真模型的真实光照情况,并调整其中的X, Y坐标,使得光照及阴影的分布与目标场景中贴近;同时调整双目相机模型的location坐标(X,Y,Z),使得相机模型处于构建的目标场景仿真模型上方,其中,双目相机的高度Z调整到与实际目标场景数据采集中一致;调整双目相机的Rotation参数,使得相机按照时间场景中采集传感器的俯视角来进行放置;以上参数的设定可以使得采集到的仿真图像与真实场景下传感器采集的图片数据在图像物体大小、亮度、视野大小等方面尽可能地贴近,从而提升采集数据集的数据有效性。
步骤S232,利用仿真软件,为所述双目相机模型添加同一水平面上的随机运动轨迹,使得所述双目相机模型能拍摄同一俯角不同位置下的所述目标场景仿真模型;
具体地,在仿真软件Blender中的timeline中按照一定的时间间隔,顺序逐个选中对应的时间点,随机调整相机location的X,Y坐标,同时保持Rotation参数不变, 并观测相机视图中拍摄到的图片实时效果,确保调整位置拍摄到图片只包含场景仿真模型;将对应的位置在timeline中插入keyframe,作为对应时间点的相机位置;在timeline完成预期时长的相机位姿调整及keyframe插入后,运行Play Animation,进行相机运动轨迹的动态播放,同时在相机视图中观测实时图片的变化,对图片拍摄范围超过仿真模型范围的部分相机位姿进行调整,从而得到最终的相机运动轨迹;运动轨迹的设计可以使得相机拍摄到更多不同视角下的仿真模型的图像,从而提升数据集数据的丰富度及实际场景的覆盖程度。
步骤S233,利用仿真软件,将所述双目相机模型拍摄的图像及其景深信息作为仿真渲染的输出,并通过动画渲染来得到所述的层次化半仿真双目数据集。
具体地,在仿真软件Blender中的compositing工作窗中勾选UseNodes,得到相机渲染输出节点RenderLayers;添加FileOutput节点,将RenderLayers的Image输出连接到FileOutput节点的Image输入,并更改FileOutput节点的BasePath参数,设置成预期存储数据的路径,实现双目相机图像的渲染输出;添加FileOutput节点,将RenderLayers的Depth输出连接到FileOutput节点的Image输入,并更改FileOutput节点的BasePath参数,设置成预期存储数据的路径,实现景深信息的渲染输出;运行Render Animation, 开启动画渲染,得到最终的层次化半仿真双目数据集,数据集中单帧的效果参考图11,包含2张渲染生成的左右目相机图片,1张渲染生成的深度图,另外,为了深度图可视化更为明显,对深度图进行伪彩化处理,得到图11中的深度伪彩图;通过仿真渲染,可以同时得到双目原始图像及深度信息,有效地解决了实际场景下深度信息采集精度低难度大的问题,而且,随机运动轨迹及动画渲染的结合,可以得到大规模不同视角的仿真数据集,极大地提高了双目深度数据集生成的效率。
相应的,本申请还提供一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述的一种目标场景仿真模型构建方法或一种层次化半仿真双目数据集生成方法。
相应的,本申请还提供一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如上述的一种目标场景仿真模型构建方法或一种层次化半仿真双目数据集生成方法。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (10)

1.一种目标场景仿真模型构建方法,其特征在于,包括:
对目标场景按照纹理尺度进行场景层次化分割,获得多个层级的分割对象;
针对所述多个分割对象,构建每个对象所对应的仿真模型;
获取目标场景的图像数据;
根据所述分割对象的类型,从所述目标场景的图像数据中分割出每个分割对象所对应的低分辨率纹理图像;
将每个分割对象所对应的低分辨率纹理图像进行相似纹理合成,得到每个分割对象所对应的高分辨率纹理图像;
分别将每个分割对象所对应的高分辨率纹理图像映射到对应的仿真模型中,得到带纹理的仿真模型;
将每个对象所对应的带纹理的仿真模型统一到场景中,获得目标场景仿真模型。
2.根据权利要求1所述的一种目标场景仿真模型构建方法,其特征在于,对目标场景按照纹理尺度进行场景层次化分割,获得多个层级的分割对象,包括:
至少综合考虑大尺度的背景纹理、中尺度的地形起伏纹理、小尺度的地表材质纹理以及细尺度的可移动物体表面纹理,对目标场景进行场景层次化分割,获得背景、地形、地表、物体这几个分割对象。
3.根据权利要求1所述的一种目标场景仿真模型构建方法,其特征在于,将每个分割对象所对应的低分辨率纹理图像进行相似纹理合成,得到每个分割对象所对应的高分辨率纹理图像,包括:
利用图像处理软件,对所述低分辨率纹理图像进行扩展,生成随机分布且连续的相似纹理高分辨率图像;
针对每一分割对象的纹理,在该分割对象对应的所有合成的相似纹理高分辨率纹理图像中,进行相互比较,选择最贴近现有目标场景图片的纹理图像作为高分辨率纹理图像。
4.根据权利要求1所述的一种目标场景仿真模型构建方法,其特征在于,分别将每个分割对象所对应的高分辨率纹理图像映射到对应的仿真模型中,得到带纹理的仿真模型,包括:
使用仿真软件,为各个所述分割对象的仿真模型添加材质节点,并将所述高分辨率纹理图像以文件节点形式加载,作为材质的颜色属性,实现纹理映射;
调整所述纹理映射的映射方式及缩放尺度,使得各个所述分割对象的仿真模型纹理大小与目标场景一致,并调整至少包括表面粗糙度、表面透光度、表面反光度的材质物理光学属性,使得所述分割对象的仿真模型的视觉效果与目标场景一致,获得带纹理的仿真模型。
5.一种层次化半仿真双目数据集生成方法,其特征在于,包括:
构建光源模型;
构建双目相机模型;
通过所述双目相机模型,采集所述光源模型下目标场景仿真模型及景深信息,得到层次化半仿真双目数据集,所述目标场景仿真模型由权利要求1所述的方法构建得到。
6.根据权利要求5所述的一种层次化半仿真双目数据集生成方法,其特征在于,构建光源模型,包括:
使用仿真软件,根据目标场景的光照情况,选择相应的光源类型、辐照度及光源相对于场景的空间位置关系,为所述目标场景仿真模型添加光源模型。
7.根据权利要求5所述的一种层次化半仿真双目数据集生成方法,其特征在于,构建双目相机模型,包括:
使用仿真软件,根据目标双目数据集图像的视场角、双目视差范围、分辨率,选择对应的焦距、左右目相机间距、分辨率的立体相机参数,来构建双目相机模型。
8.根据权利要求5所述的一种层次化半仿真双目数据集生成方法,其特征在于,通过所述双目相机模型,采集所述光源模型下目标场景仿真模型及景深信息,得到层次化半仿真双目数据集,包括:
将所述的光源模型,按照所述目标场景的光源空间位置情况,将光源放置到所述的目标场景仿真模型上,并将所述的双目相机模型,按照所述目标双目数据集图像的视角,以相应的俯角,放置到所述的目标场景仿真模型上;
利用仿真软件,为所述双目相机模型添加同一水平面上的随机运动轨迹,使得所述双目相机模型能拍摄同一俯角不同位置下的所述目标场景仿真模型;
利用仿真软件,将所述双目相机模型拍摄的图像及其景深信息作为仿真渲染的输出,并通过动画渲染来得到所述的层次化半仿真双目数据集。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4或5-8中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如权利要求1-4或5-8中任一项所述方法的步骤。
CN202111475707.4A 2021-12-06 2021-12-06 目标场景仿真模型构建方法、数据集生成方法及电子设备 Active CN113888705B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111475707.4A CN113888705B (zh) 2021-12-06 2021-12-06 目标场景仿真模型构建方法、数据集生成方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111475707.4A CN113888705B (zh) 2021-12-06 2021-12-06 目标场景仿真模型构建方法、数据集生成方法及电子设备

Publications (2)

Publication Number Publication Date
CN113888705A true CN113888705A (zh) 2022-01-04
CN113888705B CN113888705B (zh) 2022-04-12

Family

ID=79015626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111475707.4A Active CN113888705B (zh) 2021-12-06 2021-12-06 目标场景仿真模型构建方法、数据集生成方法及电子设备

Country Status (1)

Country Link
CN (1) CN113888705B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557740A (zh) * 2024-01-10 2024-02-13 四川见山科技有限责任公司 三维模型分割层级切换方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110428388A (zh) * 2019-07-11 2019-11-08 阿里巴巴集团控股有限公司 一种图像数据生成方法及装置
CN112215036A (zh) * 2019-07-10 2021-01-12 浙江宇视科技有限公司 跨镜追踪方法、装置、设备及存储介质
CN112258610A (zh) * 2020-10-10 2021-01-22 北京五一视界数字孪生科技股份有限公司 图像标注方法、装置、存储介质及电子设备
CN113034665A (zh) * 2021-01-19 2021-06-25 中电普信(北京)科技发展有限公司 一种基于场景树的仿真建模方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215036A (zh) * 2019-07-10 2021-01-12 浙江宇视科技有限公司 跨镜追踪方法、装置、设备及存储介质
CN110428388A (zh) * 2019-07-11 2019-11-08 阿里巴巴集团控股有限公司 一种图像数据生成方法及装置
CN112258610A (zh) * 2020-10-10 2021-01-22 北京五一视界数字孪生科技股份有限公司 图像标注方法、装置、存储介质及电子设备
CN113034665A (zh) * 2021-01-19 2021-06-25 中电普信(北京)科技发展有限公司 一种基于场景树的仿真建模方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUEHUA LI等: "Meteor Tail: Octomap Based Multi-sensor Data Fusion Method", 《2021 INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE》 *
韩峰: "地形场景信息多通道优化绘制仿真研究", 《计算机仿真》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557740A (zh) * 2024-01-10 2024-02-13 四川见山科技有限责任公司 三维模型分割层级切换方法、装置、电子设备及存储介质
CN117557740B (zh) * 2024-01-10 2024-04-09 四川见山科技有限责任公司 三维模型分割层级切换方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113888705B (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
Yang et al. Surfelgan: Synthesizing realistic sensor data for autonomous driving
Hedman et al. Scalable inside-out image-based rendering
Lazova et al. Control-nerf: Editable feature volumes for scene rendering and manipulation
Zhang et al. Differentiable point-based radiance fields for efficient view synthesis
Chen et al. A neural rendering framework for free-viewpoint relighting
CN105976426B (zh) 一种快速的三维地物模型构建方法
Dall'Asta et al. A comparison of semiglobal and local dense matching algorithms for surface reconstruction
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
Häne et al. Hierarchical surface prediction
CN109685879A (zh) 多视影像纹理分布的确定方法、装置、设备和存储介质
Merras et al. Multi-view 3D reconstruction and modeling of the unknown 3D scenes using genetic algorithms
Osman Ulusoy et al. Dynamic probabilistic volumetric models
CN113888705B (zh) 目标场景仿真模型构建方法、数据集生成方法及电子设备
Shen et al. SGAM: Building a virtual 3d world through simultaneous generation and mapping
Yuan et al. Neural radiance fields from sparse RGB-D images for high-quality view synthesis
WO2023004559A1 (en) Editable free-viewpoint video using a layered neural representation
Liu et al. Creating simplified 3D models with high quality textures
CN111402422B (zh) 三维表面重建方法、装置和电子设备
Waschbüsch et al. 3d video billboard clouds
Onrust et al. Ecologically sound procedural generation of natural environments
Madhusudana et al. Revisiting dead leaves model: Training with synthetic data
Woodford et al. Fast image-based rendering using hierarchical image-based priors
Wang et al. Roaming of oblique photography model in unity3D
Slabaugh Novel volumetric scene reconstruction methods for new view synthesis
Callieri et al. A realtime immersive application with realistic lighting: The Parthenon

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant