CN117253013B - 基于协同感知的分布式三维重建方法 - Google Patents
基于协同感知的分布式三维重建方法 Download PDFInfo
- Publication number
- CN117253013B CN117253013B CN202311465507.XA CN202311465507A CN117253013B CN 117253013 B CN117253013 B CN 117253013B CN 202311465507 A CN202311465507 A CN 202311465507A CN 117253013 B CN117253013 B CN 117253013B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- characteristic
- image
- target
- edge nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 8
- 230000008447 perception Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 108091006146 Channels Proteins 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明提供一种基于协同感知的分布式三维重建的方法,涉及图像数据处理领域,解决了路况信息的三维建模精度不够高,效率不够快的问题。包括:基于N个边缘节点获取目标的N个不同的二维图像,并分别从所述每个二维图像中提取所述目标的特征点,得到M个特征点;基于云节点获取目标的M个特征点,并基于N个边缘节点建立三维网格;将M个特征点在三维网格中进行特征融合,得到点云数据网络模型;以及基于点云数据网络模型重建目标的三维场景,其中,N为大于1的整数,M为大于等于N的整数。本发明通过特征点与三维网格的匹配构建了点云数据网络模型,在不影响三维场景信息表示的前提下,简化了场景重建的步骤,提高了场景重建的效率。
Description
技术领域
本发明涉及图像数据处理等领域,更具体地涉及一种基于协同感知的分布式三维重建方法。
背景技术
随着自动驾驶技术的日益成熟,实时路况信息三维建模的需求量越来越大,由此,路况信息的三维高精度建模成为自动驾驶领域需要解决的关键性问题。随着各种高精度传感器以及多模态算法的不断更新迭代,基于车车协同的感知、决策算法也日趋成熟。但是现有的协同感知路况建模方法,在不同传感器之间的数据匹配层面,仍存在匹配不准确、匹配速度慢等问题。
发明内容
基于以上技术问题,本发明的主要目的在于提出一种基于协同感知的分布式三维重建方法,用于解决以上技术问题的至少之一。
本发明的一个方面提供了一种基于协同感知的分布式三维重建的方法,包括:基于N个边缘节点获取目标的N个不同的二维图像,分别从所述每个二维图像中提取所述目标的特征点,得到M个特征点;基于云节点获取目标的M个特征点,并基于N个边缘节点建立三维网格;将M个特征点在三维网格中进行特征融合,得到点云数据网络模型;以及基于点云数据网络模型重建目标的三维场景,其中,N为大于1的整数。
可选地,提取二维图像中目标的特征点包括:在边缘节点中利用图像编码器从二维图像中提取目标的特征点。
可选地,在边缘节点中利用图像编码器从二维图像中提取目标的特征点包括:利用特征提取网络对二维图像进行处理,得到特征图像;基于图像编码器提取特征图像中目标的特征点。
可选地,图像编码器在所述N个边缘节点中具有相同的初始参数和网络结构。
可选地,基于N个边缘节点建立三维网格包括:基于N个边缘节点的数量确定三维网格的网格数量;基于网格数量建立三维网格。
可选地,将M个特征点在三维网格中进行特征融合包括:基于自我注意力机制对M个特征点进行特征融合。
可选地,对M个特征点进行特征融合之前还包括:基于匹配模型将M个特征点匹配到三维网格中的对应位置。
可选地,在基于匹配模型将M个特征点匹配到三维网格中的对应位置之前,还包括:基于预先匹配完成的三维网格数据对匹配模型进行训练,以及利用损失函数对匹配模型进行优化。
可选地,基于点云数据网络模型重建目标的三维场景包括:基于解码器解码点云数据网络模型,实现目标的三维场景重建。
本发明的一个方面提供了一种基于协同感知的分布式三维重建的装置,包括提取模块:用于根据N个边缘节点获取目标的N个不同的二维图像,并分别从所述每个二维图像中提取所述目标的特征点,得到M个特征点;融合模块:用于根据云节点获取目标的M个特征点,并基于N个边缘节点建立三维网格;并将M个特征点在三维网格中进行特征融合,得到点云数据网络模型;以及重建模块:用于基于点云数据网络模型重建目标的三维场景,其中,N为大于1的整数,M为大于等于N的整数。
附图说明
图1示意性示出了根据本发明实施例提供的一种基于协同感知的分布式三维重建方法的流程示意图;
图2示意性示出了根据本发明实施例提供的一种基于协同感知的分布式三维重建装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
图1示意性示出了根据本发明实施例提供的一种基于协同感知的分布式三维重建方法的流程示意图,包括操作S110~S140。
如图1所示,在操作S110,基于N个边缘节点获取目标的N个不同的二维图像,并提取N个二维图像中目标的M个特征点,N为大于等于1的整数,M为大于等于N的整数。
在本实施例中,N个边缘节点运用相同的图像编码器,完成每个视角下特征点的提取,其中,N个边缘节点中的图像编码器具有相同的初始参数和网络结构。保证N个边缘节点所提取的特征点具有一致性。
在本实施例中,二维图像首先通过一个3D的Resnet50的特征提取网络进行处理,得到特征图像,然后将特征图像输入编码器中,编码器将特征图像进行排列,得到特征图像序列,并对序列中的每一个特征点进行位置编码,从而确定特征图像中不同特征点的位置,方便后续特征点与三维网络的匹配处理。
在本实施例中,编码器首先采用正余弦函数的形式对特征图序列完成位置编码:;
;
在上式中,PE表示位置编码,pos表示当前特征图像,i为根据特征图像的通道序列数量所确定的常数参数,表示特征图像通道序列的总数,针对于特征图序列中的相邻位置,分别采用正余弦函数完成编码,使得序列中的每一个编码都可以由其他的编码完成线性表出,使得不同的位置之间存在关联。
在本实施例中,针对于序列中的每一个特征图像,利用不同的变换矩阵得到三个矩阵结果,即查询矩阵(Query)、密钥矩阵(Key)、特征矩阵(Value)。针对于某个特征图序列中的查询矩阵,只需要让其匹配序列中的所有密钥矩阵,找到序列和序列之间的差异性,用这个差异性矩阵和特征矩阵相乘,便可完成基于自注意力机制的编码。基于所述编码可以表征特征图之间的关联,从而有助于后续特征点与三维网格的匹配。
在操作S120,基于云节点获取目标的M个特征点,并基于N个边缘节点建立三维网格。
在本实施例中,基于N 个边缘节点的数量确定三维网格的网格数量;并基于所述网格数量建立所述三维网格。例如,对于拥有5个边缘节点,大小为20m×20m×5m三维场景,确定将整个场景分成0.5m×0.5m×0.5m的三维网格,从而得到了初始化之后大小为100×100×25的三维网格空间。
在操作S130,将M个特征点在三维网格中进行特征融合,得到点云数据网络模型。在本实施例中,将M个特征点都放置在三维网格中,并利用自我注意力机制,对同一个网格中的特征点进行融合,从而得到点云数据网络模型。
在本实施例中,对M个特征点进行特征融合之前还包括:基于匹配模型将M个特征点匹配到三维网格中的对应位置。
在本实施例中,基于预先匹配完成的三维网格数据对匹配模型进行训练,以及利用损失函数对匹配模型进行优化。
本实施例中,损失函数主要是针对于自注意力机制网络架构完成设计的,考虑特征点在三维网格中放置的精准性以及特征识别的准确性。在完成特征点的放置之后,针对于每一个特征点,计算其当前三维网格与实际三维网格之间的欧式距离,在根据不同的下游任务设计不同的损失函数与计算好的欧式距离完成组合。在网络的训练过程中,只需要保证损失函数可以成功收敛,便可完成场景的构建。
在本实施例中,通过匹配模型将边缘节点与三维网络进行匹配,从而达到不同边缘节点协同感知的目的,消除了数据源的差别对场景感知产生的影响。
在操作S140,基于点云数据网络模型重建目标的三维场景。在本实施例中,基于解码器完成网格化点云数据与三维重构场景之间的映射。
在本实施例中,解码器针对于编码器得到的每一个位置编号PE,通过逆函数的方式计算得到pos,即特征图像每部分的编号,然后将与目标对应部分的特征图中的特征点放置在指定的三维网格中完成三维场景的重建。
本发明的实施例提供了一种基于协同感知的分布式三维重建的装置,图2示意性示出了根据本发明实施例提供的一种基于协同感知的分布式三维重建装置的结构示意图。
如图所示,该装置包括提取模块210:用于根据N个边缘节点获取目标的N个不同的二维图像,并提取N个二维图像中目标的特征点;融合模块220:用于根据云节点获取目标的M个特征点,并基于N个边缘节点建立三维网格;并将M个特征点在三维网格中进行特征融合,得到点云数据网络模型;以及重建模块230:用于基于点云数据网络模型重建目标的三维场景,其中,N为大于1的整数。
本发明针对于自动驾驶领域现存的端节点数据融合难、三维路况场景重建慢、路况场景重建不直观的问题,通过使用点云网络代替原始图像能够在大幅减小数据传输的基础上,将图像与图像的匹配简化成特征点与三维网格的匹配,在不影响三维场景信息表示的前提下,以最大程度简化了三维重建模型的架构,提升了模型的推理速度,从而能够满足自动驾驶领域对三维场景精度和实时性的双重要求。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于协同感知的分布式三维重建方法,其特征在于,包括:
基于N个边缘节点获取目标的N个不同的二维图像,并分别从每个所述二维图像中提取所述目标的特征点,得到M个特征点和目标的N个特征图像,所述N个边缘节点运用相同的图像编码器,完成每个视角下所述特征点的提取,并基于自我注意力机制对每个特征点进行位置编码,包括:
利用不同的变换矩阵对每个所述特征图像进行计算得到对应的查询矩阵、密钥矩阵和特征矩阵;
并根据每个所述查询矩阵所匹配的密钥矩阵,计算不同所述特征图像之间的差异性矩阵;
并基于所述差异性矩阵和所述特征矩阵得到所述特征图像的编码,其中,所述N个边缘节点中的图像编码器具有相同的初始参数和网络结构,用以保证所述N个边缘节点所提取的特征点具有一致性;
基于云节点获取所述目标的M个特征点,并基于所述N个边缘节点建立三维网格,包括:
基于所述N个边缘节点的数量确定所述三维网格的网格数量;
基于所述网格数量建立所述三维网格,其中,所述N个边缘节点和所述云节点用于构建分布式系统;
将所述M个特征点在所述三维网格中进行特征融合,包括;
基于匹配模型将所述M个特征点匹配到所述三维网格中的对应位置;
基于自我注意力机制对所述M个特征点进行特征融合;
得到点云数据网络模型,所述点云数据网络模型为点云模型;以及
基于所述点云数据网络模型重建所述目标的三维场景,其中,N为大于1的整数,M为大于等于N的整数。
2.根据权利要求1所述的方法,其特征在于,所述在所述边缘节点中利用图像编码器从所述二维图像中提取所述目标的特征点包括:
利用特征提取网络对所述二维图像进行处理,得到特征图像;
基于图像编码器提取所述特征图像中所述目标的特征点。
3.根据权利要求1所述的方法,其特征在于,基于匹配模型将所述M个特征点匹配到所述三维网格中的对应位置之前还包括:
基于预先匹配完成的三维网格数据对所述匹配模型进行训练,以及利用损失函数对所述匹配模型进行优化。
4.根据权利要求1所述的方法,其特征在于,所述基于所述点云数据网络模型重建所述目标的三维场景包括:
基于解码器解码所述点云数据网络模型,实现所述目标的三维场景重建。
5.一种如权利要求1~4任意一项所述的基于协同感知的分布式三维重建装置,其特征在于,包括:
提取模块:用于根据N个边缘节点获取目标的N个不同的二维图像,并分别从所述每个二维图像中提取所述目标的特征点,得到M个特征点和目标的N个特征图像,所述N个边缘节点运用相同的图像编码器,完成每个视角下所述特征点的提取,并基于自我注意力机制对每个特征点进行位置编码,包括:
利用不同的变换矩阵对每个所述特征图像进行计算得到对应的查询矩阵、密钥矩阵和特征矩阵;
并根据每个所述查询矩阵所匹配的密钥矩阵,计算不同所述特征图像之间的差异性矩阵;
并基于所述差异性矩阵和所述特征矩阵得到所述特征图像的编码,其中,所述N个边缘节点中的图像编码器具有相同的初始参数和网络结构,用以保证所述N个边缘节点所提取的特征点具有一致性;
融合模块:用于根据云节点获取所述目标的M个特征点,并基于所述N个边缘节点建立三维网格,包括:
基于所述N个边缘节点的数量确定所述三维网格的网格数量;
基于所述网格数量建立所述三维网格,其中,所述N个边缘节点和所述云节点用于构建分布式系统;
并将所述M个特征点在所述三维网格中进行特征融合,包括;
基于自我注意力机制对所述M个特征点进行特征融合;
得到点云数据网络模型,所述点云数据网络模型为三维点云模型;以及
重建模块:用于基于所述点云数据网络模型重建所述目标的三维场景,其中,N为大于1的整数,M为大于等于N的整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311465507.XA CN117253013B (zh) | 2023-11-07 | 2023-11-07 | 基于协同感知的分布式三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311465507.XA CN117253013B (zh) | 2023-11-07 | 2023-11-07 | 基于协同感知的分布式三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117253013A CN117253013A (zh) | 2023-12-19 |
CN117253013B true CN117253013B (zh) | 2024-02-23 |
Family
ID=89126607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311465507.XA Active CN117253013B (zh) | 2023-11-07 | 2023-11-07 | 基于协同感知的分布式三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117253013B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110310362A (zh) * | 2019-06-24 | 2019-10-08 | 中国科学院自动化研究所 | 基于深度图及imu的高动态场景三维重建方法、系统 |
WO2020248950A1 (zh) * | 2019-06-11 | 2020-12-17 | 华为技术有限公司 | 一种面部特征的有效性判定方法及电子设备 |
CN113093216A (zh) * | 2021-06-07 | 2021-07-09 | 山东捷瑞数字科技股份有限公司 | 一种激光雷达和相机融合的不规则物体测量方法 |
CN115423938A (zh) * | 2022-08-17 | 2022-12-02 | 江西科骏实业有限公司 | 一种基于语义识别的三维模型重建方法及系统 |
WO2023164845A1 (zh) * | 2022-03-02 | 2023-09-07 | 深圳市大疆创新科技有限公司 | 三维重建方法、装置、系统及存储介质 |
CN116797733A (zh) * | 2023-06-21 | 2023-09-22 | 中山大学 | 实时三维物体动态重建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9846963B2 (en) * | 2014-10-03 | 2017-12-19 | Samsung Electronics Co., Ltd. | 3-dimensional model generation using edges |
US11620793B2 (en) * | 2021-03-25 | 2023-04-04 | Autodesk, Inc. | Producing a refined control mesh for generating a smooth surface of an object |
-
2023
- 2023-11-07 CN CN202311465507.XA patent/CN117253013B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020248950A1 (zh) * | 2019-06-11 | 2020-12-17 | 华为技术有限公司 | 一种面部特征的有效性判定方法及电子设备 |
CN110310362A (zh) * | 2019-06-24 | 2019-10-08 | 中国科学院自动化研究所 | 基于深度图及imu的高动态场景三维重建方法、系统 |
CN113093216A (zh) * | 2021-06-07 | 2021-07-09 | 山东捷瑞数字科技股份有限公司 | 一种激光雷达和相机融合的不规则物体测量方法 |
WO2023164845A1 (zh) * | 2022-03-02 | 2023-09-07 | 深圳市大疆创新科技有限公司 | 三维重建方法、装置、系统及存储介质 |
CN115423938A (zh) * | 2022-08-17 | 2022-12-02 | 江西科骏实业有限公司 | 一种基于语义识别的三维模型重建方法及系统 |
CN116797733A (zh) * | 2023-06-21 | 2023-09-22 | 中山大学 | 实时三维物体动态重建方法 |
Non-Patent Citations (3)
Title |
---|
Aircraft-LBDet: Multi-Task Aircraft Detection with Landmark and Bounding Box Detection;Yihang Ma;《Remote Sensing》;第15卷(第10期);第1-18页 * |
一种基于图像相关的图像特征提取匹配算法;王建文;李青;;科技创新导报(21);第55-56页 * |
基于拓扑分析的三维动漫人物造型重构;刘建高;宾敏;;计算机与现代化(10);第73-77页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117253013A (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110705448B (zh) | 一种人体检测方法及装置 | |
CN110197505B (zh) | 基于深度网络及语义信息的遥感图像双目立体匹配方法 | |
CN115439751A (zh) | 一种融合多注意力的高分辨率遥感影像道路提取方法 | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
CN111105459B (zh) | 描述子地图生成方法、定位方法、装置、设备和存储介质 | |
CN115841625A (zh) | 一种基于改进U-Net模型的遥感建筑物影像提取方法 | |
CN115423938A (zh) | 一种基于语义识别的三维模型重建方法及系统 | |
CN114758337A (zh) | 一种语义实例重建方法、装置、设备及介质 | |
CN111079826A (zh) | 融合slam和图像处理的施工进度实时识别方法 | |
CN117253013B (zh) | 基于协同感知的分布式三维重建方法 | |
CN113592015A (zh) | 定位以及训练特征匹配网络的方法和装置 | |
CN113780389A (zh) | 基于一致性约束的深度学习半监督密集匹配方法及系统 | |
CN116258756B (zh) | 一种自监督单目深度估计方法及系统 | |
CN115222947B (zh) | 基于全局自注意力变换网络的岩石节理分割方法和装置 | |
CN115393735A (zh) | 基于改进U-Net的遥感影像建筑物提取方法 | |
CN113763539B (zh) | 一种基于图像和三维输入的隐式函数三维重建方法 | |
CN115773744A (zh) | 模型训练和路网处理方法、装置、设备、介质和产品 | |
CN113192204B (zh) | 单幅倾斜遥感图像中建筑物的三维重建方法 | |
CN114882072A (zh) | 一种多通道图像特征融合的高速相关滤波目标追踪方法 | |
CN114119862A (zh) | 基于宽基线光场成像技术的垃圾堆场三维重建方法及系统 | |
CN112487124A (zh) | 一种使用VBA将CorelDraw地图中点状要素转换到SuperMap的方法 | |
CN117078982B (zh) | 基于深度学习的大倾角立体像对准密集特征匹配方法 | |
CN117058474B (zh) | 一种基于多传感器融合的深度估计方法及系统 | |
CN117593470B (zh) | 一种基于ai模型的街景重构方法及系统 | |
CN113762099B (zh) | 一种基于路侧rsu的实时点云三维重构方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |