CN115641415A - 基于卫星影像生成三维场景的方法、装置、设备及介质 - Google Patents

基于卫星影像生成三维场景的方法、装置、设备及介质 Download PDF

Info

Publication number
CN115641415A
CN115641415A CN202211672162.0A CN202211672162A CN115641415A CN 115641415 A CN115641415 A CN 115641415A CN 202211672162 A CN202211672162 A CN 202211672162A CN 115641415 A CN115641415 A CN 115641415A
Authority
CN
China
Prior art keywords
vector data
geographic
model
scene
dimensional scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211672162.0A
Other languages
English (en)
Other versions
CN115641415B (zh
Inventor
李平阳
贺子懿
赵宏杰
陆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Guoxing Aerospace Technology Co ltd
Original Assignee
Chengdu Guoxing Aerospace Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Guoxing Aerospace Technology Co ltd filed Critical Chengdu Guoxing Aerospace Technology Co ltd
Priority to CN202211672162.0A priority Critical patent/CN115641415B/zh
Publication of CN115641415A publication Critical patent/CN115641415A/zh
Application granted granted Critical
Publication of CN115641415B publication Critical patent/CN115641415B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Instructional Devices (AREA)

Abstract

本申请公开了一种基于卫星影像生成三维场景的方法、装置、设备及介质,通过卫星图像获取到包含地理信息的地理矢量数据,根据该数据生成各个地物类别对应的场景网格模型,再整合成目标区域的三维场景模型;地理矢量数据中包含有丰富且精准的地理信息,得到场景网格模型中对应的地物特征表现准确,进而使得最终获得的三维场景模型生成的三维场景视觉效果好、符合真实场景;进一步地,该方法只需处理二维影像,获得的地理矢量数据信息密度高,使得三维场景模型能够快速生成带地理信息的三维场景,提升了处理速度;同时,该方法实现了三维场景生成的自动化,相比于传统的人为测绘,大大降低地理矢量数据采集人力成本和处理时间,大幅提升处理效率。

Description

基于卫星影像生成三维场景的方法、装置、设备及介质
技术领域
本申请涉及三维建模领域,尤其涉及一种基于卫星影像生成三维场景的方法、装置、设备及介质。
背景技术
城市三维场景构建即构建整个城市的三维模型,在数字城市建设、三维地形图绘制、城市国土规划和管理、虚拟旅游、街道空间分析等诸多领域中有着重要的意义。在传统城市三维场景的生成过程中,通常通过倾斜摄影等技术来生成三维场景,但生成的三维场景通常与真实城市相差较大,造成视觉效果较差,需要进行人为的手动标注和修正,使得城市三维场景的生成效率较低。
发明内容
本申请的主要目的在于提供一种基于卫星影像生成三维场景的方法、装置、设备及介质,旨在解决现有技术中城市三维场景的生成效率较低的技术问题。
为实现上述目的,本申请提供一种基于卫星影像生成三维场景的方法,包括:
基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;
根据所述栅格图像,获得地理矢量数据;
根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;
根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;
根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。
可选地,所述多个地物类别包括道路、建筑、水域和植被;
所述根据所述栅格图像,获得地理矢量数据的步骤之前,还包括:
识别所述栅格图像中所述道路的轮廓像素点;
根据所述道路的轮廓像素点对断连的道路进行短距离连接,以更新所述栅格图像;
所述根据所述栅格图像,获得地理矢量数据的步骤,包括:
根据更新后的栅格图像,获得所述地理矢量数据。
可选地,所述根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据的步骤,包括:
根据所述卫星图像获取所述目标区域的地理信息;其中,所述地理信息包括建筑高度信息、屋顶颜色信息以及道路宽度信息;
根据所述地理信息获取地物属性,其中,所述地物属性包括建筑高度属性、屋顶样式属性以及道路宽度属性;
将所述地物属性赋予所述地理矢量数据,获得所述第一地理矢量数据。
可选地,所述根据所述第一地理矢量数据,生成各个地物类别的场景网格模型的步骤,包括:
对所述第一地理矢量数据进行解析,获得解析后地理矢量数据;
对所述解析后地理矢量数据进行采样处理、光滑处理以及空间变换处理,获得处理后地理矢量数据;其中,通过如下关系式进行所述光滑处理:
Figure 800678DEST_PATH_IMAGE001
,其中,t为自变量,P为插值结果,A、B、 C为线段上相邻的三个点;
根据所述处理后地理矢量数据,生成各个地物类别的所述场景网格模型。
可选地,所述根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型的步骤之前,还包括:
根据所述卫星图像,获取各个地物类别在所述场景网格模型中的纹理坐标;
根据所述纹理坐标生成纹理,以获得各个地物类别的第一场景网格模型;
所述根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型的步骤,包括:
根据各个地物类别的所述第一场景网格模型,获得所述目标区域的三维场景模型。
可选地,所述根据所述栅格图像,获得地理矢量数据的步骤,包括:
根据所述栅格图像,获得初始地理矢量数据;
对所述初始地理矢量数据进行去除多余线段、转角平滑和转角角度规范处理,获得所述地理矢量数据。
可选地,所述识别所述栅格图像中所述道路的轮廓像素点的步骤之前,还包括:
对所述栅格图像进行误差识别和误差去除处理,获得处理后栅格图像;
所述识别所述栅格图像中所述道路的轮廓像素点的步骤,包括:
识别所述处理后栅格图像中所述道路的轮廓像素点。
此外,为实现上述目的,本申请还提供一种基于卫星影像生成三维场景的装置,包括:
栅格图像获取模型,用于基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;
地理矢量数据获取模型,用于根据所述栅格图像,获得地理矢量数据;
地理信息赋予模型,用于根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;
场景网格模型生成模型,用于根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;
三维场景模型生成模型,用于根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。
此外,为实现上述目的,本申请还提供一种计算机设备,该计算机设备包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序,实现上述的方法。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,处理器执行所述计算机程序,实现上述的方法。
本申请所能实现的有益效果。
本申请实施例提出的一种基于卫星影像生成三维场景的方法、装置、设备及介质,通过基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;根据所述栅格图像,获得地理矢量数据;根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。即通过卫星图像获取到包含地理信息的地理矢量数据,根据该数据生成各个地物类别对应的场景网格模型,再整合成目标区域的三维场景模型;地理矢量数据中包含有丰富且精准的地理信息,得到场景网格模型中对应的地物特征表现准确,进而使得最终获得的三维场景模型生成的三维场景视觉效果好、符合真实场景;进一步地,该方法只需处理二维影像,获得的地理矢量数据信息密度高,使得三维场景模型能够快速生成带地理信息的三维场景,提升了处理速度;同时,该方法实现了三维场景生成的自动化,相比于传统的人为测绘,大大降低地理矢量数据采集人力成本和处理时间,大幅提升处理效率。
附图说明
图1为本申请实施例涉及的硬件运行环境的计算机设备结构示意图;
图2为本申请实施例提供的一种基于卫星影像生成三维场景的方法的流程示意图;
图3为本申请实施例提供的一种基于卫星影像生成三维场景的装置的功能模块示意图;
图4为本申请实施例提供的一种基于卫星影像生成三维场景的方法的栅格图像;
图5为本申请实施例提供的一种基于卫星影像生成三维场景的方法的断连道路图像;
图6为本申请实施例提供的一种基于卫星影像生成三维场景的方法的断连道路连接后图像;
图7为本申请实施例提供的一种基于卫星影像生成三维场景的方法的道路网格模型生成过程示意图;
图8为本申请实施例提供的一种基于卫星影像生成三维场景的方法的建筑网格模型生成过程示意图;
图9为本申请实施例提供的一种基于卫星影像生成三维场景的方法的水域网格模型或植被网格模型生成过程示意图;
图10为本申请实施例提供的一种基于卫星影像生成三维场景的方法的第一道路网格模型示意图;
图11为本申请实施例提供的一种基于卫星影像生成三维场景的方法的第一建筑网格模型示意图;
图12为本申请实施例提供的一种基于卫星影像生成三维场景的方法的第一植被网格模型示意图;
图13为本申请实施例提供的一种基于卫星影像生成三维场景的方法的三维场景示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例的主要解决方案是:提出的一种基于卫星影像生成三维场景的方法、装置、设备及介质,通过基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;根据所述栅格图像,获得地理矢量数据;根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。
通过研究发现,现有的城市三维场景的生成过程中,三维场景生成速度较慢,且生成的场景不具有地理信息和地物属性,导致与真实的城市相差较大,三维场景的视觉效果较差,因此需要人为手动进行大量现场测绘工作后再次对生成的三维场景进行标注,才能满足三维场景的视觉效果。但是这增加了项目成本和完成时间,并且整体生成三维场景的效率较低。
为此,本申请提供一种解决方案,通过卫星图像获取到包含地理信息的地理矢量数据,根据该数据生成各个地物类别对应的场景网格模型,再整合成目标区域的三维场景模型;地理矢量数据中包含有丰富且精准的地理信息,得到场景网格模型中对应的地物特征表现准确,进而使得最终获得的三维场景模型生成的三维场景视觉效果好、符合真实场景;进一步地,该方法只需处理二维影像,获得的地理矢量数据信息密度高,使得三维场景模型能够快速生成带地理信息的三维场景,提升了处理速度;同时,该方法实现了三维场景生成的自动化,相比于传统的人为测绘,大大降低地理矢量数据采集人力成本和处理时间,大幅提升处理效率;并且,设置了断连道路连接、误差处理、道路线条细化以及纹理生成等步骤,增强了数据的准确性,进一步提升了三维场景的真实性。
参照图1,图1为本申请实施例方案涉及的硬件运行环境的计算机设备结构示意图。
计算机设备可以包括至少一个处理器301、至少一个存储器302以及存储在所示存储器302中的计算机程序指令,当所述计算机程序指令被所述处理器301执行时实现上述实施例所述的方法。
具体地,上述处理器301可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本发明实施例的一个或多个集成电路。
存储器302可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器302可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器302可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器302可在数据处理装置的内部或外部。在特定实施例中,存储器302是非易失性固态存储器。在特定实施例中,存储器302包括只读存储器(ROM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
处理器301通过读取并执行存储器302中存储的计算机程序指令,以实现上述实施例中的任意一种基于卫星影像生成三维场景的方法。
在一个示例中,计算机设备还可包括通信接口和总线。其中,如图1所示,处理器301、存储器302、通信接口303通过总线310连接并完成相互间的通信。通信接口303,主要用于实现本发明实施例中各模块、装置、单元和/或设备之间的通信。
总线包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGP)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无线带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线可包括一个或多个总线。尽管本发明实施例描述和示出了特定的总线,但本发明考虑任何合适的总线或互连。
参照图2,基于前述实施例的硬件设备,本申请的实施例提供一种基于卫星影像生成三维场景的方法,包括:
S10:基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;
在具体实施过程中,目标区域是指待生成三维场景的区域,本申请以城市级为例,包含有建筑、道路、水域以及植被等地物信息。选择包含信息量大且完整的卫星图像作为目标区域三维重建的图像信息获取源,将其与已标注的地物图像一同对语义分割模型进行训练,训练后的模型可以识别出目标区域卫星图像中的各类地物,并且输出如图4所示的栅格图像,即将标注后卫星图像中的信息转化为像素,栅格图像的属性明显、定位隐含,常用于表示空间地物或现象分布。栅格图像中包含有卫星图像中的坐标信息和投影信息。
具体的,本实施例使用PSPnet语义分割模型,通过约3万组图像数据对模型进行训练,使模型可以识别出建筑、道路、水域和植被这四类地物信息,并分别形成各自栅格图像输出。
S20:根据所述栅格图像,获得地理矢量数据;
在具体实施过程中,地理矢量数据是指用坐标表示地图图形或地理实体的位置和形状的数据,能够将地理实体的空间位置表现得准确无误。将包含地理信息的栅格图像转化为地理矢量数据用于后续的三维生成。
具体的,先将栅格图片进行图像二值化(Threshold):从原始扫描图像计算得到黑白二值图像(Binary Image),即将图像上的白色区域的栅格点赋值为0;而黑色区域为1,黑色区域对应了要矢量化提取的地物;再进行平滑(Smooth)处理,用于去除图像中的斑点等随机噪声,通常表现为斑点;再将线条细化为像素,细化是矢量化过程中的重要步骤,也是矢量化的基础;在进行链式编码,将细化后的图像转换成为点链的集合,其中每个点链对应于一条弧段;最后进行矢量线提取,将每一个点链转化成为一条矢量线,每条线由一系列点组成,点的数目取决于线的弯曲程度和要求的精度。
需要注意的是,栅格图像中包含的地物块都会转化为多边形矢量,但道路这一地物类别需取其矢量中线使其成为折线矢量,以便于后续的使用。
作为一种可选的实施方式,所述多个地物类别包括道路、建筑、水域和植被;
所述根据所述栅格图像,获得地理矢量数据的步骤之前,还包括:
识别所述栅格图像中所述道路的轮廓像素点;
根据所述道路的轮廓像素点对断连的道路进行短距离连接,以更新所述栅格图像;
在具体实施过程中,目标区域中常包含有道路、建筑、水域以及植被等地物类别,在实际生活场景中,常有植物等障碍物遮挡道路,使得图像中的道路出现短距离的断连,这也体现在如图5所示的道路类别对应的栅格图像中,需要通过算法将其连接,得到如图6所示的断连道路重新连接后的栅格图像。
具体的,使用OpenCV轮廓提取算法findContours提取栅格图像中道路轮廓上的像素点;以各个像素点为中心,探测其周围是否存在其他像素点,具体方法为:遍历到的像素点(i,j)的探测距离为b,L=2b+1,探测矩阵A是L行L列元素均为1的矩阵,以(i,j)为中心在栅格图像截取的L行L列的矩阵并进行二值化,记为矩阵B,C=AB,C中为1的元素就是探测到的像素点;最后在这些探测到的像素点的路径上填充像素,使其相互连接。
此时,所述根据所述栅格图像,获得地理矢量数据的步骤,包括:
根据更新后的栅格图像,获得所述地理矢量数据。
可以理解的是,使用更新后的栅格图像转化为地理矢量数据,其道路地物的信息准确性更高。
作为一种可选的实施方式,所述识别所述栅格图像中所述道路的轮廓像素点的步骤之前,还包括:
对所述栅格图像进行误差识别和误差去除处理,获得处理后栅格图像;
在具体实施过程中,由于最初的深度学习会存在一定程度上的误分类,使得栅格图像中存在小点或小洞等误差,通过误差识别和误差去除处理这些误差,使得栅格图像准确度更高,使得后续对道路地物的处理准确性更高。
具体的,由于深度学习中识别的栅格图像中,地物部分为白色、背景为黑色,可以通过分别计算所有联通区域中包含的像素点个数,得出白色斑块的大小,根据实际情况和操作经验设置误差阈值,白色斑块大小低于该阈值的联通区域即为小点误差,去除该联通区域即可去除小点误差;再将栅格图像进行反色,使得地物部分变为黑色、背景变为白色,利用与去除小点误差相同的方法填补小洞误差,填补后再对栅格图像进行反色,得到处理后栅格图像。
此时,所述识别所述栅格图像中所述道路的轮廓像素点的步骤,包括:
识别所述处理后栅格图像中所述道路的轮廓像素点。
可以理解的是,使用处理后栅格图像进行道路轮廓像素点的识别和其他后续步骤,准确性更高。
作为一种可选的实施方式,所述根据所述栅格图像,获得地理矢量数据的步骤,包括:
根据所述栅格图像,获得初始地理矢量数据;
对所述初始地理矢量数据进行去除多余线段、转角平滑和转角角度规范处理,获得所述地理矢量数据。
在具体实施过程中,根据步骤S20中的方法将栅格图像转化为初始地理矢量数据,该数据中常存在线段过多的问题,这会增加后续生成的三维模型的三角面数量,使得模型生成速度降低、模型渲染性能消耗增加,故需去除该数据中的多余线段,并对转角处进行平滑处理以便后续处理。经过上述处理后,建筑地理矢量形状不够方正,不符合实际场景,如果直接将其用于后续三维建筑的生成,效果不够美观,故需对其进行规范:使用ArcGIS软件对该数据进行规范,将建筑矢量数据中的转角角度规范为90度,获得地理矢量数据。
S30:根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;
在具体实施过程中,地理信息包括建筑高度、屋顶样式、道路宽度等,将这些信息赋予地理矢量数据,使得生成的场景能够包含丰富且准确的地理信息和地物属性,由于基础数据信息密度高、信息丰富,最终的三维场景模型处理速度快、生成的三维场景视觉效果好,有利于智慧城市、3D城市底座建设以及3D导航等二次应用和开发。
作为一种可选的实施方式,所述根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据的步骤,包括:
根据所述卫星图像获取所述目标区域的地理信息;其中,所述地理信息包括建筑高度信息、屋顶颜色信息以及道路宽度信息;
根据所述地理信息获取地物属性,其中,所述地物属性包括建筑高度属性、屋顶样式属性以及道路宽度属性;
将所述地物属性赋予所述地理矢量数据,获得所述第一地理矢量数据。
在具体实施过程中,从卫星图像中获取目标区域的建筑高度信息、屋顶颜色信息以及道路宽度信息等地理信息,将上述地理信息转化为建筑高度属性、屋顶样式属性以及道路宽度属性等地物属性,再将上述地物属性赋予地理矢量数据,得到的第一地理矢量数据信息更加丰富。
具体的,通过双目视觉方法获取卫星图像的高度信息图(包含建筑高度信息),其 中,高度信息图为灰度图,其像素点上的颜色越白说明此处的高度越高;将卫星图像中的坐 标信息和投影信息等赋予高度信息图,获得建筑高度属性;最后将每一个建筑矢量作为一 个独立个体去截取高度信息图,将截取的像素点灰度值进行平均,得到每个建筑的平均高 度(即将建筑高度属性赋予地理矢量数据),其中,该数据中包含的所有点为m个,包含的0点 为n个,每个点的值为a,得到的建筑平均高度为:
Figure 724641DEST_PATH_IMAGE002
将每个建筑矢量作为一个独立个体去截取整张卫星图,根据卫星图像获取屋顶颜色,在规定的标准色图上选取相对应的颜色作为屋顶颜色信息,根据各个建筑矢量的建筑形状、所在区域以及所在城市等综合形成屋顶样式属性,最后将屋顶样式属性赋予地理矢量数据,其中,一线城市的屋顶样式中平顶、复合屋顶较多,三线城市中人字屋顶较多。
道路地理矢量数据从本质上讲都是由线段构成的直线,因此,先取得各个道路的 边缘折线,并对所有道路的线段取中心点并做法线,法线与道路边缘折线相交得到每条线 段的道路宽度(即道路宽度信息),对整条道路上的宽度求得平均值,以此方法得到各个道 路的宽度平均值(即道路宽度属性),最后将道路宽度属性赋予地理矢量数据,其中,一条道 路的总线段数为m,每一段宽度为a,其宽度平均值为
Figure 434977DEST_PATH_IMAGE003
S40:根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;
在具体实施过程中,根据包含丰富地物属性的第一地理矢量数据,生成各个地物类别的场景网格模型。场景网格模型主要包括由多边形三角化得到的面和多边形拉伸得到包围面两种主要类型,其中面的三角化使用Delaunay及Triangle Fan方法;包围面使用放样方法(一种创建复杂的平滑3D形状的方法)进行生成侧面,再三角化边缘线对模型开口进行封闭。
作为一种可选的实施方式,所述根据所述第一地理矢量数据,生成各个地物类别的场景网格模型的步骤,包括:
对所述第一地理矢量数据进行解析,获得解析后地理矢量数据;
对所述解析后地理矢量数据进行采样处理、光滑处理以及空间变换处理,获得处理后地理矢量数据;其中,通过如下关系式进行所述光滑处理:
Figure 927138DEST_PATH_IMAGE004
,其中,t为自变量,P为插值结果,A、B、 C为线段上相邻的三个点;
根据所述处理后地理矢量数据,生成各个地物类别的所述场景网格模型。
在具体实施过程中,地理矢量数据能够存储点、线、多边形以及其他常见数据类型,为获得有效的地理信息数据,需要解析以线表示的路网数据、解析以多边型表示的建筑轮廓、植被区域以及河流区域的相关信息,此外还要解析各类图元的额外属性,包括建筑的屋顶样式、建筑高度以及道路宽度等,获得解析后地理矢量数据。
解析后的地理矢量数据需要进行采样处理、光滑处理以及空间变换处理,处理后 地理矢量数据用于各种三角网格模型生成。其中,采样处理是通过在线段类型的矢量数据 上根据距离得到一系列的点坐标;光滑处理是通过线段上的数据点先进行插值再进行等距 采样得到更加光滑的离散点,用于线段光滑插值的二阶贝塞尔曲线公式为:
Figure 231080DEST_PATH_IMAGE005
,其中,P为插值结果,A、B、C为线段上相邻的三 个点;空间变换也称数据点空间变换,通过对点数据做三维空间的旋转,缩放,平移及投影 等操作实现,具体公式为:
Figure 568521DEST_PATH_IMAGE006
,其中,
Figure 211991DEST_PATH_IMAGE007
表示变换后点 的齐次坐标,
Figure 609475DEST_PATH_IMAGE008
为变换矩阵,
Figure 338396DEST_PATH_IMAGE009
为变换前点的齐次坐标。
获得处理后地理矢量数据后,根据其生成各个地物类别的所述场景网格模型,本实施例中主要包括道路网格模型、建筑网格模型、水域网格模型以及植被网格模型。具体的,如图7所示,进行道路交叉点检测,再根据交叉点道路的夹角计算出道路模型生成用的关键控制点,再根据关键控制点生成用于放样的曲线,最后根据曲线放样生成道路网格模型;如图8所示,根据处理后地理矢量数据中的多边形类型数据使用放样的方法生成指定高度的模型,再根据建筑屋顶类型生成形状吻合的屋顶模型并拼接,生成建筑网格模型;如图9所示,使用贝塞尔插值算法调整水域及植被区域轮廓线平滑,再使用三角化方法(包含Delaunay及Triangle Fan两种)生成面,最后生成水域网格模型和植被网格模型。
S50:根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。
在具体实施过程中,将各个地物类别的所述场景网格模型进行组合生成场景多类型模型,在根据地理信息进行位置变换、交叉模型裁剪等调整得到三维场景模型。需要注意的是,建筑网格模型、道路网格模型及植被网格模型可以直接通过坐标设置正确的位置,水域网格模型中由于河流等存在低于地面的部分,其除了进行位置坐标设置外还需要对水域低于地面区域的地形进行变形或使用三角网格布尔算法进行挖洞,以保证三维场景模型的准确性。
相比直接根据地理矢量数据获取三维场景模型,本申请方法是由各个地物类别对应的场景网格模型结合生成三维场景模型,其处理层次分明、准确性高,并且该三维场景模型中包含的信息密度高,能够快速生成带有地理信息的三维场景,并且该模型中包含的地理信息和地物属性准确丰富,使得生成的三维场景视觉效果好、符合真实场景。
作为一种可选的实施方式,所述根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型的步骤之前,还包括:
根据所述卫星图像,获取各个地物类别在所述场景网格模型中的纹理坐标;
根据所述纹理坐标生成纹理,以获得各个地物类别的第一场景网格模型;
在具体实施过程中,纹理作为一种增强三维模型细节和真实度的方法,可以有效增强三维模型的真实感。纹理坐标有多种生成方法,以适用于场景中各类网格模型的贴图要求:对于建筑及道路等纹理坐标与放样线方向相关的模型,其模型上点的纹理坐标的U值(纹理宽度归一化到[0,1]后,用于指明宽度方向坐标)或V值(纹理高度归一化到[0,1]后,用于指明高度方向坐标)与放样曲线的线上距离变化保持一个固定比例因子;对于水域及植被区域等,其纹理坐标通过卫星图像的平面投影的方式来生成。
如图10-图12所示,获取各个场景网格模型的纹理坐标后,通过对预置纹理的融合及拼接实现纹理生成,得到各个地物类别的第一场景网格模型:道路及建筑侧面的纹理通过对相应纹理的集合进行规则化的拼接完成;地面及建筑屋顶等通过将矢量数据中的颜色值与屋顶预定义纹理色彩根据一定比例混合可得到与真实色调一致的建筑屋顶纹理;其它类型的纹理可以根据现有的预定义规则进行指定。
此时,所述根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型的步骤,包括:
根据各个地物类别的所述第一场景网格模型,获得所述目标区域的三维场景模型。
可以理解的是,根据包含纹理的第一场景网格模型生成最终的三维场景模型,该三维场景模型生成如图13所示的三维场景的真实感更强。
为了更清楚地展示本实施例中三维场景模型的效果,本申请还以传统人工辅助标记的方法作为对照进行了实验,实验结果显示:1.手工建模一个3d建筑模型耗时约为20分钟,而通过本实施例方法自动化生成一个建筑模型约为0.01秒,生成速度快了12万倍;2.要在一周内建设一个具有1万栋建筑的城市级三维场景需要场景设计师至少2人、3d模型建模人员至少10人,而使用本实施例方法自动化生成同样的三维场景只需要1个能够使用执行此方法的系统的人员。综上,使用本申请方法生成三维场景能够节约大量场景建模的人力及时间成本,总体效率有了明显提升。
应当理解的是,以上仅为举例说明,对本申请的技术方案并不构成任何限制,本领域的技术人员在实际应用中可以基于需要进行设置,此处不做限制。
通过上述描述不难发现,本实施例是通过卫星图像获取到包含地理信息的地理矢量数据,根据该数据生成各个地物类别对应的场景网格模型,再整合成目标区域的三维场景模型;地理矢量数据中包含有丰富且精准的地理信息,得到场景网格模型中对应的地物特征表现准确,进而使得最终获得的三维场景模型生成的三维场景视觉效果好、符合真实场景;进一步地,该方法只需处理二维影像,获得的地理矢量数据信息密度高,使得三维场景模型能够快速生成带地理信息的三维场景,提升了处理速度;同时,该方法实现了三维场景生成的自动化,相比于传统的人为测绘,大大降低地理矢量数据采集人力成本和处理时间,大幅提升处理效率;并且,设置了断连道路连接、误差处理、道路线条细化以及纹理生成等步骤,增强了数据的准确性,进一步提升了三维场景的真实性。
参照图3,基于相同的发明思路,本申请的实施例还提供一种基于卫星影像生成三维场景的装置,包括:
栅格图像获取模型,用于基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;
地理矢量数据获取模型,用于根据所述栅格图像,获得地理矢量数据;
地理信息赋予模型,用于根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;
场景网格模型生成模型,用于根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;
三维场景模型生成模型,用于根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。
需要说明的是,本实施例中基于卫星影像生成三维场景的装置中各模块是与前述实施例中基于卫星影像生成三维场景的方法中的各步骤一一对应,因此,本实施例的具体实施方式可参照前述基于卫星影像生成三维场景的方法的实施方式,这里不再赘述。
此外,在一种实施例中,本申请的实施例还提供一种计算机设备,所述设备包括处理器,存储器以及存储在所述存储器中的计算机程序,所述计算机程序被处理器运行时实现前述实施例中方法的步骤。
此外,在一种实施例中,本申请的实施例还提供一种计算机存储介质,所述计算机存储介质上存储有计算机程序,所述计算机程序被处理器运行时实现前述实施例中方法的步骤。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。计算机可以是包括智能终端和服务器在内的各种计算设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器/随机存取存储器、磁碟、光盘)中,包括若干指令用以使得一台多媒体终端设备(可以是手机,计算机,电视接收机,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种基于卫星影像生成三维场景的方法,其特征在于,包括以下步骤:
基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;
根据所述栅格图像,获得地理矢量数据;
根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;
根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;
根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。
2.如权利要求1所述的基于卫星影像生成三维场景的方法,其特征在于,所述多个地物类别包括道路、建筑、水域和植被;
所述根据所述栅格图像,获得地理矢量数据的步骤之前,还包括:
识别所述栅格图像中所述道路的轮廓像素点;
根据所述道路的轮廓像素点对断连的道路进行短距离连接,以更新所述栅格图像;
所述根据所述栅格图像,获得地理矢量数据的步骤,包括:
根据更新后的栅格图像,获得所述地理矢量数据。
3.如权利要求1所述的基于卫星影像生成三维场景的方法,其特征在于,所述根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据的步骤,包括:
根据所述卫星图像获取所述目标区域的地理信息;其中,所述地理信息包括建筑高度信息、屋顶颜色信息以及道路宽度信息;
根据所述地理信息,获取地物属性,其中,所述地物属性包括建筑高度属性、屋顶样式属性以及道路宽度属性;
将所述地物属性赋予所述地理矢量数据,获得所述第一地理矢量数据。
4.如权利要求1所述的基于卫星影像生成三维场景的方法,其特征在于,所述根据所述第一地理矢量数据,生成各个地物类别的场景网格模型的步骤,包括:
对所述第一地理矢量数据进行解析,获得解析后地理矢量数据;
对所述解析后地理矢量数据进行采样处理、光滑处理以及空间变换处理,获得处理后地理矢量数据;其中,通过如下关系式进行所述光滑处理:
Figure 956551DEST_PATH_IMAGE001
,其中,t为自变量,P为插值结果,A、B、C为 线段上相邻的三个点;
根据所述处理后地理矢量数据,生成各个地物类别的所述场景网格模型。
5.如权利要求1所述的基于卫星影像生成三维场景的方法,其特征在于,所述根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型的步骤之前,还包括:
根据所述卫星图像,获取各个地物类别在所述场景网格模型中的纹理坐标;
根据所述纹理坐标生成纹理,以获得各个地物类别的第一场景网格模型;
所述根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型的步骤,包括:
根据各个地物类别的所述第一场景网格模型,获得所述目标区域的三维场景模型。
6.如权利要求1所述的基于卫星影像生成三维场景的方法,其特征在于,所述根据所述栅格图像,获得地理矢量数据的步骤,包括:
根据所述栅格图像,获得初始地理矢量数据;
对所述初始地理矢量数据进行去除多余线段、转角平滑和转角角度规范处理,获得所述地理矢量数据。
7.如权利要求2所述的基于卫星影像生成三维场景的方法,其特征在于,所述识别所述栅格图像中所述道路的轮廓像素点的步骤之前,还包括:
对所述栅格图像进行误差识别和误差去除处理,获得处理后栅格图像;
所述识别所述栅格图像中所述道路的轮廓像素点的步骤,包括:
识别所述处理后栅格图像中所述道路的轮廓像素点。
8.一种基于卫星影像生成三维场景的装置,其特征在于,包括:
栅格图像获取模型,用于基于目标区域的卫星图像,获取所述目标区域对应的栅格图像;其中,所述栅格图像包括多个地物类别;
地理矢量数据获取模型,用于根据所述栅格图像,获得地理矢量数据;
地理信息赋予模型,用于根据所述卫星图像对所述地理矢量数据进行地理信息赋予,获得第一地理矢量数据;
场景网格模型生成模型,用于根据所述第一地理矢量数据,生成各个地物类别的场景网格模型;
三维场景模型生成模型,用于根据各个地物类别的所述场景网格模型,获得所述目标区域的三维场景模型。
9.一种计算机设备,其特征在于,该计算机设备包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序,实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,处理器执行所述计算机程序,实现如权利要求1-7中任一项所述的方法。
CN202211672162.0A 2022-12-26 2022-12-26 基于卫星影像生成三维场景的方法、装置、设备及介质 Active CN115641415B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211672162.0A CN115641415B (zh) 2022-12-26 2022-12-26 基于卫星影像生成三维场景的方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211672162.0A CN115641415B (zh) 2022-12-26 2022-12-26 基于卫星影像生成三维场景的方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN115641415A true CN115641415A (zh) 2023-01-24
CN115641415B CN115641415B (zh) 2023-08-22

Family

ID=84949826

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211672162.0A Active CN115641415B (zh) 2022-12-26 2022-12-26 基于卫星影像生成三维场景的方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN115641415B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116212392A (zh) * 2023-05-08 2023-06-06 腾讯科技(深圳)有限公司 一种虚拟路口生成方法、装置、电子设备和存储介质
CN117197382A (zh) * 2023-11-02 2023-12-08 广东省测绘产品质量监督检验中心 一种实景三维数据构建方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070099298A (ko) * 2006-04-04 2007-10-09 (주)아너스베이 모바일 내비게이션용 3차원 형상정보 생성방법 및 장치
US20120314935A1 (en) * 2011-06-10 2012-12-13 Sri International Method and apparatus for inferring the geographic location of captured scene depictions
CN109493320A (zh) * 2018-10-11 2019-03-19 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像道路提取方法及系统、存储介质、电子设备
CN111612901A (zh) * 2020-04-14 2020-09-01 陕西天泽中孚实业有限公司 一种地理信息图像的提取特征与生成方法
CN112633140A (zh) * 2020-12-21 2021-04-09 华南农业大学 多光谱遥感图像城中村多类别建筑物语义分割方法及系统
CN113033385A (zh) * 2021-03-23 2021-06-25 广东电网有限责任公司广州供电局 一种基于深度学习的违章建筑遥感识别方法及系统
CN114417489A (zh) * 2022-03-30 2022-04-29 宝略科技(浙江)有限公司 一种基于实景三维模型的建筑基底轮廓精细化提取方法
CN114494627A (zh) * 2022-01-25 2022-05-13 中煤航测遥感集团有限公司 城市模型的生成方法、装置、设备及计算机可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070099298A (ko) * 2006-04-04 2007-10-09 (주)아너스베이 모바일 내비게이션용 3차원 형상정보 생성방법 및 장치
US20120314935A1 (en) * 2011-06-10 2012-12-13 Sri International Method and apparatus for inferring the geographic location of captured scene depictions
CN109493320A (zh) * 2018-10-11 2019-03-19 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像道路提取方法及系统、存储介质、电子设备
CN111612901A (zh) * 2020-04-14 2020-09-01 陕西天泽中孚实业有限公司 一种地理信息图像的提取特征与生成方法
CN112633140A (zh) * 2020-12-21 2021-04-09 华南农业大学 多光谱遥感图像城中村多类别建筑物语义分割方法及系统
CN113033385A (zh) * 2021-03-23 2021-06-25 广东电网有限责任公司广州供电局 一种基于深度学习的违章建筑遥感识别方法及系统
CN114494627A (zh) * 2022-01-25 2022-05-13 中煤航测遥感集团有限公司 城市模型的生成方法、装置、设备及计算机可读存储介质
CN114417489A (zh) * 2022-03-30 2022-04-29 宝略科技(浙江)有限公司 一种基于实景三维模型的建筑基底轮廓精细化提取方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116212392A (zh) * 2023-05-08 2023-06-06 腾讯科技(深圳)有限公司 一种虚拟路口生成方法、装置、电子设备和存储介质
CN116212392B (zh) * 2023-05-08 2023-08-08 腾讯科技(深圳)有限公司 一种虚拟路口生成方法、装置、电子设备和存储介质
CN117197382A (zh) * 2023-11-02 2023-12-08 广东省测绘产品质量监督检验中心 一种实景三维数据构建方法和装置
CN117197382B (zh) * 2023-11-02 2024-01-12 广东省测绘产品质量监督检验中心 一种实景三维数据构建方法和装置

Also Published As

Publication number Publication date
CN115641415B (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
CN109615611B (zh) 一种基于巡检影像的绝缘子自爆缺陷检测方法
CN112163251B (zh) 建筑模型单体化方法、装置、存储介质及电子设备
Brenner Building reconstruction from images and laser scanning
CN115641415B (zh) 基于卫星影像生成三维场景的方法、装置、设备及介质
Xu et al. Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor
CN114612488A (zh) 建筑物单体化信息提取方法、计算机装置及存储介质
Dal Poz et al. Automated extraction of road network from medium-and high-resolution images
Mousa et al. Building detection and regularisation using DSM and imagery information
Kwak et al. Automatic 3D building model generation from lidar and image data using sequential minimum bounding rectangle
CN114722944A (zh) 点云精度确定方法、电子设备及计算机存储介质
CN116468870B (zh) 一种城市道路三维可视化建模方法及系统
CN117115358B (zh) 数字人自动建模方法及装置
Forlani et al. Building reconstruction and visualization from lidar data
CN113658195A (zh) 图像分割方法、装置及电子设备
CN115841558B (zh) 城市道路建模的方法、装置、电子设备和存储介质
CN113838199B (zh) 一种三维地形生成方法
Namouchi et al. Piecewise horizontal 3d roof reconstruction from aerial lidar
Nakagawa et al. Fusing stereo linear CCD image and laser range data for building 3D urban model
CN114091141A (zh) 一种基于倾斜实景模型的三维道路生成方法及装置
CN113409420A (zh) 自定义地图风格的制图方法、系统、存储介质及设备
CN113989680A (zh) 建筑三维场景自动构建方法及系统
Goebbels et al. Quality enhancement techniques for building models derived from sparse point clouds
CN115731458A (zh) 一种遥感影像的处理方法、装置和电子设备
Ramadhani An Analysis of the Three-Dimensional Modelling Using LiDAR Data and Unmanned Aerial Vehicle (UAV)(Case Study: Institut Teknologi Sepuluh Nopember, Sukolilo Campus)
CN115861826B (zh) 面向模型交叠区域的配置方法、计算设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant