CN114022614A - 一种三维重建目标位置置信度的估计方法及系统 - Google Patents

一种三维重建目标位置置信度的估计方法及系统 Download PDF

Info

Publication number
CN114022614A
CN114022614A CN202111311059.9A CN202111311059A CN114022614A CN 114022614 A CN114022614 A CN 114022614A CN 202111311059 A CN202111311059 A CN 202111311059A CN 114022614 A CN114022614 A CN 114022614A
Authority
CN
China
Prior art keywords
target
point set
estimating
confidence
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111311059.9A
Other languages
English (en)
Inventor
王小亮
尹玉成
辛梓
贾腾龙
刘奋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heading Data Intelligence Co Ltd
Original Assignee
Heading Data Intelligence Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heading Data Intelligence Co Ltd filed Critical Heading Data Intelligence Co Ltd
Priority to CN202111311059.9A priority Critical patent/CN114022614A/zh
Publication of CN114022614A publication Critical patent/CN114022614A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明涉及一种三维重建目标位置置信度的估计方法及系统,其方法包括:利用深度学习模型估计目标在当前帧中的每个像素的深度值,并根据所述每个像素的深度值计算目标在相机坐标系中的坐标;基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集;对所述目标点集进行平面拟合,得到平面模型的内点集和外点集;根据所述平面模型的内点集和外点集,计算目标重建的置信度。本发明通过深度学习模型估计多帧图像中像素的深度值和聚类方法的结合,提高了模型的鲁棒性和目标重建精度,并提供了精度评测标准。

Description

一种三维重建目标位置置信度的估计方法及系统
技术领域
本发明属于计算机视觉与三维重建技术领域,具体涉及一种三维重建目标位置置信度的估计方法及系统。
背景技术
单目视觉三维是指利用单目视觉传感器,通过图像帧信息,重建出视域内环境空间三维信息的过程。单目三维重建主要采用多视几何及深度学习两种方法,相比于传统多视几何交汇的方法,深度学习策略具有如下两方面的显著优势:(1)重建结果不依赖相机位姿,从而提高重建的灵活性与可靠性。传统多视几何建图中,相机位姿一般通过IMU(Inertial Measurement Unit,惯性测量单元)获取,其测量结果受环境噪声及累计误差干扰;(2)能获取逐像素三维空间信息,有效提高重建完备性。多视交汇方法是基于目标特征点进行深度解算,难以获取图像中稠密性三维信息;而深度学习是对图像进行逐像素深度预测,不仅能还原视域所有目标三维信息,而且能有效重构兴趣目标的空间轮廓,大幅提高空间目标三维信息的完备性。
相机在移动过程中会持续观测到目标并预测其空间方位信息,为了提高目标深度预测的精度,需要对连续多帧观测进行融合处理。环境因素,诸如连续帧间光照变化、动态目标、物体表面散光等,会给神经网络带来额外噪声及误差,从而影响单帧重建精度。
发明内容
为解决深度学习三维重建中目标位置不确定度分析的问题,提高目标三维重建的精度与可靠性,在本发明的第一方面提供了一种三维重建目标位置置信度的估计方法,包括:利用深度学习模型估计目标在当前帧中的每个像素的深度值,并根据所述每个像素的深度值计算目标在相机坐标系中的坐标;基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集;对所述目标点集进行平面拟合,得到平面模型的内点集和外点集;根据所述平面模型的内点集和外点集,计算目标重建的置信度。
在本发明的一些实施例中,所述根据所述每个像素的深度值计算目标在相机坐标系中的坐标通过如下步骤实现:
Figure BDA0003341027700000021
其中,(Xc i,Yc i)表示第i个像素在相机坐标系的坐标;Zi表示第i个像素的深度值;(ui,vi)表示第i个像素在当前帧图像中的坐标;(fx,fy,Cx,Cy)为相机标定内参。
在本发明的一些实施例中,所述基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集包括如下步骤:计算目标轮廓点云中的每个点在相机坐标系的欧式距离;基于欧式距离和K-Means聚类算法,将目标轮廓点云划分为噪点集和目标点集。
在本发明的一些实施例中,所述根据所述平面模型的内点集和外点集,计算目标重建的置信度如下步骤实现:
Figure BDA0003341027700000022
其中,bf表示置信度,p为内点总数占所有点总数的比例,KL为内点在个三维度上的散度系数加权和。
进一步的,还包括将置信度归一化到区间[0,1]上。
在上述的实施例中,所述利用深度学习模型估计目标在当前帧中的每个像素的深度值包括:利用深度学习模型估计目标在当前帧中的每个像素的深度值
Figure BDA0003341027700000023
根据尺度因子对所述每个像素的深度值
Figure BDA0003341027700000024
进行尺度恢复。
本发明的第二方面,提供了一种三维重建目标位置置信度的估计系统,包括:估计模块,用于利用深度学习模型估计目标在当前帧中的每个像素的深度值,并根据所述每个像素的深度值计算目标在相机坐标系中的坐标;聚类模块,用于基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集;拟合模块,用于对所述目标点集进行平面拟合,得到平面模型的内点集和外点集;计算模块,用于根据所述平面模型的内点集和外点集,计算目标重建的置信度。
进一步的,所述聚类模块包括计算单元和划分单元,所述计算单元,用于计算目标轮廓点云中的每个点在相机坐标系的欧式距离;所述划分单元,用于基于欧式距离和K-Means聚类算法,将目标轮廓点云划分为噪点集和目标点集。
本发明的第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明在第一方面提供的三维重建目标位置置信度的估计方法。
本发明的第四方面,提供了一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现本发明在第一方面提供的三维重建目标位置置信度的估计方法。
本发明的有益效果是:
1.本发明提出了一种基于深度学习三维重建目标位置置信度估计方法,能有效评估当前帧三维重建结果的误差大小;
2.本发明为目标三维重建提供了精度评测标准,指导提升目标重建精度;
3.本发明提供逐帧多目标重建置信度指标,基于此统计分析不同类型及不同场景下目标的误差分布规律,进而在训练集中针对性增加样本,提高网络鲁棒性;
4.本发明为多帧图像融合提供信息权重值,提高数据融合精确度。
附图说明
图1为本发明的一些实施例中的三维重建目标位置置信度的估计方法的基本流程示意图;
图2为本发明的一些实施例中的三维重建目标位置置信度的估计方法的具体流程示意图;
图3为本发明的一些实施例中的三维重建目标位置置信度的估计系统的具体结构示意图;
图4为本发明的一些实施例中的电子设备的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
参考图1,在本发明的第一方面,提供了一种三维重建目标位置置信度的估计方法,包括:S100.利用深度学习模型估计目标在当前帧中的每个像素的深度值,并根据所述每个像素的深度值计算目标在相机坐标系中的坐标;S200.基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集;S300.对所述目标点集进行平面拟合,得到平面模型的内点集和外点集;S400.根据所述平面模型的内点集和外点集,计算目标重建的置信度。
可以理解,上述目标对应为三维重建目标,尤其是单目三维重建目标。本发明没有对目标的数量进行限定,即说明本发明提供的三维重建目标位置置信度的估计方法不仅适用于单个三维重建目标,也能适用于多个三维重建目标。上述深度学习模型至少包括AlexNet、VGG16、VGG19、MARANet、Resnet18、Resnet50、Inception系列、FCN或CNN等用于目标检测或视觉识别中的一种多层神经网络。
在本发明的一些实施例的步骤S100中,所述根据所述每个像素的深度值计算目标在相机坐标系中的坐标通过如下步骤实现:
Figure BDA0003341027700000051
其中,(Xc i,Yc i)表示第i个像素在相机坐标系的坐标;Zi表示第i个像素的深度值;(ui,vi)表示第i个像素在当前帧图像中的坐标;(fx,fy,Cx,Cy)为相机标定内参。
参考图2,在本发明的一些实施例的的步骤S200中,所述基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集包括如下步骤:S201.计算目标轮廓点云中的每个点在相机坐标系的欧式距离;S203.基于欧式距离和K-Means聚类算法,将目标轮廓点云划分为噪点集和目标点集。
具体地,基于步骤S100及目标轮廓点云Ω(Xi,Yi,Zi),对其进行K-Means聚类算法,设置类别数(取类别数为2)以及欧式距离阈值,根据欧式距离阈值将目标轮廓点云划分为两类:在阈值外(大于阈值)的一类为噪点集ΩN,在阈值内(小于等于阈值)的另一类为重建目标点Ω1
在本发明的一些实施例的步骤S300中,对所述目标点集进行平面拟合,得到平面模型的内点集和外点集包括:基于RANSAC算法对目标点集Ω1进行平面拟合,并区分由此产生平面模型上的内点Ωin(内点集)及外点Ωout(外点集),计算Ωin中0.85-0.95分位点深度值;优选0.95分位点(Z0.95),并以此作为目标在当前帧中相机坐标系深度值,此时得到的深度值与实际值吻合度很高。
可以理解,选取0.85-0.95分位点符合正态分布的2sigma原则,且与实际数据符合得很好,而0.95作为最佳实施例也进一步提高了目标的重建精度。
在本发明的一些实施例的步骤S400中,所述根据所述平面模型的内点集和外点集,计算目标重建的置信度如下步骤实现:
Figure BDA0003341027700000061
其中,bf表示置信度,p为内点总数占所有点总数的比例(比值),KL为内点在三个维度(目标轮廓点云的三个维度)上的散度系数加权和。
进一步的,还包括将置信度归一化到区间[0,1]上。具体地,计算如下:
Figure BDA0003341027700000062
其中,Omax、Omin分别为bf的最大值及最小值,belief为最终重建置信度。
在上述的实施例的步骤S100中,所述利用深度学习模型估计目标在当前帧中的每个像素的深度值包括:利用深度学习模型估计目标在当前帧中的每个像素的深度值
Figure BDA0003341027700000063
根据尺度因子对所述每个像素的深度值
Figure BDA0003341027700000064
进行尺度恢复。具体地,基于预训练网络权重信息,计算当前帧逐(每一个)像素深度值
Figure BDA0003341027700000065
由于单目预测深度为相对值,需要对其进行尺度恢复,计算如下:
Figure BDA0003341027700000066
其中
Figure BDA0003341027700000067
为尺度因子,通过测量获得。
实施例2
参考图3,本发明的第二方面,提供了一种三维重建目标位置置信度的估计系统1,包括:估计模块11,用于利用深度学习模型估计目标在当前帧中的每个像素的深度值,并根据所述每个像素的深度值计算目标在相机坐标系中的坐标;聚类模块12,用于基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集;拟合模块13,用于对所述目标点集进行平面拟合,得到平面模型的内点集和外点集;计算模块14,用于根据所述平面模型的内点集和外点集,计算目标重建的置信度。
进一步的,所述聚类模块12包括计算单元和划分单元,所述计算单元,用于计算目标轮廓点云中的每个点在相机坐标系的欧式距离;所述划分单元,用于基于欧式距离和K-Means聚类算法,将目标轮廓点云划分为噪点集和目标点集。
实施例3
参考图4,本发明的第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明第一方面的方法。
电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图4中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所描述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个计算机程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++、Python,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种三维重建目标位置置信度的估计方法,其特征在于,包括:
利用深度学习模型估计目标在当前帧中的每个像素的深度值,并根据所述每个像素的深度值计算目标在相机坐标系中的坐标;
基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集;
对所述目标点集进行平面拟合,得到平面模型的内点集和外点集;
根据所述平面模型的内点集和外点集,计算目标重建的置信度。
2.根据权利要求1所述的三维重建目标位置置信度的估计方法,其特征在于,所述根据所述每个像素的深度值计算目标在相机坐标系中的坐标通过如下步骤实现:
Figure FDA0003341027690000011
其中,(Xc i,Yc i)表示第i个像素在相机坐标系的坐标;Zi表示第i个像素的深度值;(ui,vi)表示第i个像素在当前帧图像中的坐标;(fx,fy,Cx,Cy)为相机标定内参。
3.根据权利要求1所述的三维重建目标位置置信度的估计方法,其特征在于,所述基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集包括如下步骤:
计算目标轮廓点云中的每个点在相机坐标系的欧式距离;
基于欧式距离和K-Means聚类算法,将目标轮廓点云划分为噪点集和目标点集。
4.根据权利要求1所述的三维重建目标位置置信度的估计方法,其特征在于,所述根据所述平面模型的内点集和外点集,计算目标重建的置信度如下步骤实现:
Figure FDA0003341027690000021
其中,bf表示置信度,p为内点总数占所有点总数的比例,KL为内点在三个维度上的散度系数加权和。
5.根据权利要求4所述的三维重建目标位置置信度的估计方法,其特征在于,还包括将置信度归一化到区间[0,1]上。
6.根据权利要求1至5任一项所述的三维重建目标位置置信度的估计方法,其特征在于,所述利用深度学习模型估计目标在当前帧中的每个像素的深度值包括:
利用深度学习模型估计目标在当前帧中的每个像素的深度值
Figure FDA0003341027690000022
根据尺度因子对所述每个像素的深度值
Figure FDA0003341027690000023
进行尺度恢复。
7.一种三维重建目标位置置信度的估计系统,其特征在于,包括:
估计模块,用于利用深度学习模型估计目标在当前帧中的每个像素的深度值,并根据所述每个像素的深度值计算目标在相机坐标系中的坐标;
聚类模块,用于基于目标在相机坐标系中的坐标,利用聚类算法对每个目标的轮廓点云进行聚类,得到目标点集;
拟合模块,用于对所述目标点集进行平面拟合,得到平面模型的内点集和外点集;
计算模块,用于根据所述平面模型的内点集和外点集,计算目标重建的置信度。
8.根据权利要求7所述的三维重建目标位置置信度的估计系统,其特征在于,所述聚类模块包括计算单元和划分单元,
所述计算单元,用于计算目标轮廓点云中的每个点在相机坐标系的欧式距离;
所述划分单元,用于基于欧式距离和K-Means聚类算法,将目标轮廓点云划分为噪点集和目标点集。
9.一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至6任一项所述的三维重建目标位置置信度的估计方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的三维重建目标位置置信度的估计方法。
CN202111311059.9A 2021-11-05 2021-11-05 一种三维重建目标位置置信度的估计方法及系统 Pending CN114022614A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111311059.9A CN114022614A (zh) 2021-11-05 2021-11-05 一种三维重建目标位置置信度的估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111311059.9A CN114022614A (zh) 2021-11-05 2021-11-05 一种三维重建目标位置置信度的估计方法及系统

Publications (1)

Publication Number Publication Date
CN114022614A true CN114022614A (zh) 2022-02-08

Family

ID=80062096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111311059.9A Pending CN114022614A (zh) 2021-11-05 2021-11-05 一种三维重建目标位置置信度的估计方法及系统

Country Status (1)

Country Link
CN (1) CN114022614A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664773A (zh) * 2023-06-02 2023-08-29 北京元跃科技有限公司 一种基于深度学习的多张绘画生成3d模型的方法及系统
WO2024051344A1 (zh) * 2022-09-05 2024-03-14 北京地平线机器人技术研发有限公司 一种地图创建方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024051344A1 (zh) * 2022-09-05 2024-03-14 北京地平线机器人技术研发有限公司 一种地图创建方法及装置
CN116664773A (zh) * 2023-06-02 2023-08-29 北京元跃科技有限公司 一种基于深度学习的多张绘画生成3d模型的方法及系统
CN116664773B (zh) * 2023-06-02 2024-01-16 北京元跃科技有限公司 一种基于深度学习的多张绘画生成3d模型的方法及系统

Similar Documents

Publication Publication Date Title
CN108960090B (zh) 视频图像处理方法及装置、计算机可读介质和电子设备
US11776155B2 (en) Method and apparatus for detecting target object in image
CN108280477B (zh) 用于聚类图像的方法和装置
CN108897836B (zh) 一种机器人基于语义进行地图构建的方法和装置
CN113256712B (zh) 定位方法、装置、电子设备和存储介质
CN110663060B (zh) 一种用于表示环境元素的方法、装置、系统、以及车辆/机器人
CN114022614A (zh) 一种三维重建目标位置置信度的估计方法及系统
JP7131994B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
CN111932552B (zh) 一种主动脉建模的方法及装置
CN110660102A (zh) 基于人工智能的说话人识别方法及装置、系统
CN113780270A (zh) 目标检测方法和装置
CN111563916B (zh) 基于立体视觉的长时无人机跟踪定位方法、系统、装置
CN113409340A (zh) 语义分割模型训练方法、语义分割方法、装置及电子设备
CN114565953A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN112258647A (zh) 地图重建方法及装置、计算机可读介质和电子设备
CN109816726B (zh) 一种基于深度滤波器的视觉里程计地图更新方法和系统
CN116740160A (zh) 一种复杂交通场景中的毫秒级多平面实时提取方法及装置
WO2022160897A1 (zh) 双目视差估计方法、模型训练方法以及相关设备
CN115713560A (zh) 一种摄像头和车辆的外参数标定方法及装置、电子设备、存储介质
CN114494574A (zh) 一种多损失函数约束的深度学习单目三维重建方法及系统
CN111765892A (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
CN113542800B (zh) 视频画面定标方法、装置、终端设备
CN116311172B (zh) 3d目标检测模型的训练方法、装置、设备及存储介质
CN115578564B (zh) 实例分割模型的训练方法、装置、电子设备及存储介质
CN116228834B (zh) 图像深度获取方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination